Inteligencia artificial isc

221
Inteligencia Artificial Unida d Temas Subtemas 1 Fundamentos. 1.1 El propósito de la IA y su evolución histórica. 1.2 Las habilidades cognoscitivas según la psicología. Teorías de la inteligencia (conductismo, Gardner, . 1.3 El proceso de razonamiento según la lógica (Axiomas, Teoremas, demostración). 1.4 El modelo de adquisición del conocimiento según la filosofía. 1.5 El modelo cognoscitivo. 1.6 El modelo del agente inteligente. 1.7 El papel de la heurística. 2 Representación del conocimiento y razonamiento. 2.1 Mapas conceptuales. 2.2 Redes semánticas. 2.3 Razonamiento monótono. 2.4 La lógica de predicados: sintaxis, semántica, validez e inferencia. 2.5 La demostración y sus métodos. 2.6 El método de Resolución de Robinson 2.7 Conocimiento no-monótono y Otras lógicas. 2.8 Razonamiento probabilístico. 2.9 Teorema de Bayes. 3 Sistemas de razonamiento lógico. 3.1 Reglas de producción. 3.2 Sintaxis de las reglas de producción. - A 1 A 2 ... A n => C - representación objeto-

description

 

Transcript of Inteligencia artificial isc

Page 1: Inteligencia artificial isc

Inteligencia ArtificialUnidad Temas Subtemas

1 Fundamentos. 1.1 El propósito de la IA y su evolución histórica.

1.2 Las habilidades cognoscitivas según la psicología. Teorías de la inteligencia (conductismo, Gardner, .

1.3 El proceso de razonamiento según la lógica (Axiomas, Teoremas, demostración).

1.4 El modelo de adquisición del conocimiento según la filosofía.

1.5 El modelo cognoscitivo.1.6 El modelo del agente inteligente.1.7 El papel de la heurística.

2 Representación del conocimiento y razonamiento.

2.1 Mapas conceptuales.2.2 Redes semánticas.2.3 Razonamiento monótono.2.4 La lógica de predicados: sintaxis,

semántica, validez e inferencia.2.5 La demostración y sus métodos.2.6 El método de Resolución de

Robinson2.7 Conocimiento no-monótono y Otras

lógicas.2.8 Razonamiento probabilístico.2.9 Teorema de Bayes.

3 Sistemas de razonamiento lógico.

3.1 Reglas de producción.3.2 Sintaxis de las reglas de

producción.- A1 A2 ... An => C- representación objeto-atributo-

valor3.3 Semántica de las reglas de

producción3.3.1 Conocimiento causal.3.3.2 Conocimiento de diagnóstico.

3.4 Arquitectura de un sistema de Producción (SP) (ó Sistemas basados en reglas, SBR).3.4.1 Hechos.3.4.2 Base de conocimientos.3.4.3 Mecanismo de control.

3.5 Ciclo de vida de un sistema de Producción.

4 Búsqueda y satisfacción 4.1 Problemas y Espacios de estados.

Page 2: Inteligencia artificial isc

de restricciones. 4.2 Espacios de estados determinísticos y espacios no determinísticos.

4.3 Búsqueda sistemática.4.3.1 Búsqueda de metas a

profundidad.4.3.2 Búsqueda de metas en

anchura4.3.3 Búsqueda óptima.

4.4 Satisfacción de restricciones.4.5 Resolución de problemas de

juegos.

Unidad1. Fundamentos.1.8 El propósito de la IA y su evolución histórica.El propósito de la Inteligencia Artificial es hacer computacional el conocimiento humano no analítico por procedimientos simbólicos o conexionistas.

El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones.  Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.  El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones.

Características Principales

Mayor velocidad. Mayor miniaturización de los elementos. Aumenta la capacidad de memoria. Multiprocesador (Procesadores interconectados). Lenguaje Natural. Lenguajes de programación: PROGOL (Programming Logic) y LISP (List Processing). Máquinas activadas por la voz que pueden responder a palabras habladas en diversas

lenguas y dialectos. Capacidad de traducción entre lenguajes que permitirá la traducción instantánea de

lenguajes hablados y escritos. Elaboración inteligente del saber y número tratamiento de datos.  Características de procesamiento similares a las secuencias de procesamiento

Humano. La Inteligencia Artificial recoge en su seno los siguientes aspectos fundamentales:

A. Sistemas Expertos

Un sistema experto no es una Biblioteca (que aporta información), si no un consejero o especialista en una materia (de ahí que aporte saber, consejo experimentado).Un sistema experto es un sofisticado programa de computadora, posee en su memoria y en su estructura una amplia cantidad de saber y, sobre todo, de estrategias para

Page 3: Inteligencia artificial isc

depurarlo y ofrecerlo según los requerimientos, convirtiendo a el sistema en un especialista que está programado.Duplica la forma de pensar de expertos reconocidos en los campos de la medicina, estrategia militar, exploración petrolera, etc...   Se programa a la computadora para reaccionar en la misma forma en que lo harían expertos, hacia las mismas preguntas, sacaba las mismas conclusiones iniciales, verificaba de la misma manera la exactitud de los resultados y redondeaba las ideas dentro de principios bien definidos.

B. Lenguaje natural

Consiste en que las computadoras (y sus aplicaciones en robótica) puedan comunicarse con las personas sin ninguna dificultad de comprensión, ya sea oralmente o por escrito: hablar con las máquinas y que éstas entiendan nuestra lengua y también que se hagan entender en nuestra lengua.

C. Robotica

Ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.   Los Robots son dispositivos compuestos de sensores que reciben Datos de Entrada y que están conectados a la Computadora.  Esta recibe la información de entrada y ordena al Robot que efectúe una determinada acción y así sucesivamente.Las finalidades de la construcción de Robots radican principalmente en su intervención en procesos de fabricación.  ejemplo: pintar en spray, soldar carrocerías de autos, trasladar materiales, etc...

D. Reconocimiento De La Voz

Las aplicaciones de reconocimiento de la voz tienen como objetivo la captura, por parte de una computadora, de la voz humana, bien para el tratamiento del lenguaje natural o para cualquier otro tipo de función.

http://www.monografias.com/trabajos11/hisco/hisco.shtml

I. ¿QUE ES LA INTELIGENCIA ARTIFICIAL?

Podríamos definir la IA como una disciplina tecnológica que tiene por objeto el diseño y la construcción de máquinas y programas capaces de realizar complejas con pericia igual o mayor que la de un ser humano. Teniendo en cuenta que aquellas tareas que parecen más simples, por ejemplo, hablar, ver, escuchar, son precisamente las más complejas de realizar.

El computador es una poderosa herramienta por su capacidad para representar cualquier sistema discreto de símbolos físicos. Pero la meta final no es para esta "ciencia cognoscitiva" el computador o sus programas, sino el estudio de la conducta inteligente y, en particular, de la conducta humana.

Este es el motivo por el cual la IA enlaza con tantas otras ciencias. Así, en el estudio de la conducta humana intervienen ciencias naturales como la neurofísiología y ciencias humanas como la psicología; en el estudio de los procesos de aprendizaje, la pedagogía; en otros aspectos importantes, como el reconocimiento del lenguaje

Page 4: Inteligencia artificial isc

natural, la lingüística; y en la realización práctica de los modelos, la informática y en todo su entorno.

Aún cuando la IA es un campo relativamente joven y no existen definiciones estrictas sobre lo que es o representa, he aquí como la definen algunos expertos:

1. Para M. Minsky profesor del MIT, "la IA es la ciencia de hacer máquinas que hacen cosas que realizadas por el hombre requieren el uso de inteligencia".

2. No obstante, P.H. Winston director del Laboratorio de IA del MIT escribe, " El objetivo de la IA se puede definir como conseguir ordenadores más útiles para comprender los principios que hacen posible la inteligencia".

3. N. Nilsson jefe del Departamento de Ciencia de Ordenadores de la Universidad de Stanford dice: "El campo de la IA tiene su principal contenido en aquellos procesos comunes que reúnen percepción y conocimiento, esperando que el proceso sea comprendido y estudiado científicamente".

4. Tanto B.G. Buchanan (profesor adjunto e investigador de ciencia de ordenadores) como E.A. Feigenbaun (investigador principal del proyecto de investigación sobre Heurística), ambos de la Universidad de Stanford, escriben "la investigación sobre IA es la parte de la ciencia de computadores que investiga procesos simbólicos, razonamientos no algorítmicos y representaciones simbólicas de conocimiento usados en máquinas inteligentes".

Actualmente existen dos tendencias en cuanto al desarrollo de sistemas de IA: los sistemas expertos y las redes neuronales. Los sistemas expertos intentan reproducir el razonamiento humano de forma simbólica. Las redes neuronales lo hacen desde una perspectiva más biológica (recrean la estructura de un cerebro humano mediante algoritmos genéticos). A pesar de la complejidad de ambos sistemas los resultados distan mucho de un auténtico pensamiento inteligente.

Muchos científicos se muestran escépticos acerca de la posibilidad de que alguna vez pueda desarrollarse una verdadera IA. El funcionamiento de la mente humana todavía no ha llegado a conocerse en profundidad y, en consecuencia, el diseño informático seguirá siendo esencialmente incapaz de reproducir esos procesos desconocidos y complejos.

I. EVOLUCION HISTORICA

Prehistoria de la IA

Page 5: Inteligencia artificial isc

Así como de alguna forma los soportes mecánicos para la automatización de cálculos aritméticos se sitúan en la prehistoria de los computadores, la prehistoria de la inteligencia artificial abarca desde los primeros tiempos de nuestra civilización hasta mediados del siglo veinte. En este período se producen hechos que podemos agrupar en dos líneas: Una de ellas, directamente relacionada con al construcción de autómatas que simulaban desde el punto de vista externo el comportamiento humano o animal, y que solían funcionar en ayuda de su amo. La otra línea, referente a la información y automatización del razonamiento lógico y matemático.

En relación con los autómatas, siempre se ha relacionado la inteligencia con los aparatos mecánicos complejos. Los hombres, intuitivamente, han comparado la complejidad del funcionamiento de una máquina con su propia vida mental.

La tradición judía creó el mito del "golem", figura humanoide hecha de arcilla a la que un rabino podía insuflar vida propia, convirtiéndola en un perfecto criado. Sin embargo, se requería la intervención divina para conseguir estos espectaculares resultados.

Al llegar el relacionista siglo XVIII, el siglo de los autómatas por antonomasia, las cosas fueron muy diferentes. Como es sabido, Descartes había defendido la tesis del "animal-máquina": los seres vivos, salvo el hombre, son meros mecanismos.

El escritor Capek difunde en 1920 una palabra destinada a tener gran éxito: "robot". En su obra "RUR" aparecen unos seres creados para realizar las tareas que el hombre no quiere hacer, que acaban siendo más poderosos que el mismo hombre, llegando a poner en peligro su existencia.

Hasta la llegada de los ordenadores electrónicos no dispusieron los científicos y técnicos de una herramienta que permitiera la ejecución de tareas más complejas por parte de dispositivos mecánicos; que hiciera posible, por así decir, la construcción de golems y robots.

La automatización del conocimiento: Al llegar al siglo XIX, los matemáticos sienten por su parte la necesidad de abandonar la institución como fundamento de su ciencia y buscar para su razonamiento más sólidas bases. La aparición de las paradojas lleva al desarrollo de los sistemas formales y de lógica matemática. Las escuelas de Rusell o de Hilbert reducen el razonamiento a la manipulación abstracta de cadenas de símbolos.

Las teorías de la computabilidad y de los autómatas proporcionaron el vínculo entre la formalización del razonamiento y las máquinas que estaban a punto de surgir tras la Segunda Guerra Mundial. En este ambiente, no es extraño que la aparición de las primeras máquinas

Page 6: Inteligencia artificial isc

electrónicas de computo fuera seguida inmediatamente por los intentos de aplicarlas a la que hoy llamamos IA.

Un último elemento importante es la cibernética. Esta influyó en muchos campos debido a su naturaleza fundamentalmente interdisciplinaria, ligado entre sí la fisiología neuronal. Las ideas de los creadores de la cibernética llegaron a ser parte del espíritu del tiempo, e influyeron fuertemente en los primeros investigadores de la IA.

El nacimiento de la IA

El fracaso de la mayoría de los problemas que intentaban resolver eran demasiado complicados, tanto teórica como tecnológicamente. La lógica teórica fue considerada como el primer programa de IA y usada para resolver problemas de búsqueda heurística.

Durante el decenio de 1950 se celebraron congresos, proliferaron los grupos de investigación y en 1954 uno de ellos afirmó haber creado un programa que traducía del ruso al inglés. La verdad es que los resultados prácticos fueron descorazonadoramente escasos.

De todas formas, el resultado más espectacular de este período fue el programa de Samuel para Jugar a las damas, que se presentó en 1961 y era capaz de aprender de su experiencia, es decir, tener en cuenta sus errores y éxitos pasados, para determinar sus jugadas en la partida posterior.

Los años difíciles

Tales habían sido las expectativas levantadas por la IA, y tantos sus fracasos, que el desánimo sucedió al optimismo inicial. El mundo exterior se desentendió de los trabajos de investigación, y la financiación de muchos proyectos se volvió problemática, tanto en América como en Europa. No obstante, la IA se fue consolidando y, aprendiendo de sus fracasos, buscó nuevos enfoques para los viejos problemas.

En el año 1964 se publicó una tesis doctoral sobre el sistema STUDENT, que es un programa de lenguaje natural que comprende y resuelve problemas elevados de álgebra.

Es en 1966 cuando se publica, en Comunicaciones de la Asociación para Máquinas Calculadoras, un programa de ordenador para el estudio de comunicación hombre-máquina mediante lenguaje natural interactivo, ELIZA, que fue creado como un programa de psicología que simula respuestas de un terapista en dialogo interactivo con un paciente. Las personas que dialogaban con ELIZA creían que hablaban con un psicólogo auténtico.

Page 7: Inteligencia artificial isc

A partir de 1970, el énfasis se trasladó de las reglas y procedimientos generales de deducción a la acumulación de conocimientos concretos acerca de un campo bien delimitado en la realidad. El célebre programa SHRDLU era una parte de un proyecto de comprensión del lenguaje natural capaz de comprender y ejecutar correctamente órdenes dadas en inglés acerca de un "mundo de bloques". Ello era posible porque el programa tenía todos los conocimientos necesarios acerca de su limitado y simplificado mundo.

Los sistemas expertos alcanzaron una sorprendente efectividad a la hora de responder a complicadas cuestiones de diagnóstico médico o prospección minera. Esto se conseguía limitando el razonamiento a un ámbito restringido del mundo real, acumulando en el programa una gran cantidad de conocimientos. En esta época, una de las principales actividades fue el diseño de sistemas expertos. La llamada Ingeniería del conocimiento fue acumulando técnicas y herramientas para la representación, recolección y empleo de conocimiento experto en un campo dado.

Los trabajos hasta 1973, tuvieron como herramientas básicas de trabajo los conceptos de tiempo compartido en ordenadores y procesamiento de palabra. La investigación más normal incluye: visón con ordenador, todas las áreas de la robótica, sistemas expertos, lenguaje natural y arquitectura de ordenadores.

La investigación en visión artificial a través del Programa de Comprensión de Imagen, incluye un desarrollo de la teoría de la visión y del hardware para procesado de imágenes.

Se lanzaron ataques contra la IA basándose en la introspección, afirmó que ciertos aspectos del pensamiento humano son esencialmente inimitables por parte de los ordenadores, dando varias razones de apoyo a esta tesis: de una parte, los ordenadores son máquinas discretas, mientras que el pensamiento aparece en nuestra introspección como continuo; además, los ordenadores carecen de "corporeidad", por lo que no pueden relacionarse como nosotros con el espacio físico; por último, los ordenadores no comparten nuestras experiencias, nuestro contexto humano, por lo que no pueden ser como los seres humanos.

En cualquier caso, las controversias no desanimaron a los investigadores, que empezaban a alcanzar resultados tangibles. En esto les ayudaba grandemente el acelerado progreso del soporte material, con la aparición de los circuitos y el aumento consiguiente de capacidad y potencia de cálculo. También el soporte lógico empezaba a adaptarse a las necesidades de la IA. La aparición de lenguajes declarativos fue un paso importante para la IA.

El AM es un programa típico de aprendizaje que define y evalúa conceptos matemáticos con teoría de conjuntos y números.

Page 8: Inteligencia artificial isc

El desarrollo actual

Las instituciones públicas y los gobiernos percibieron los grandes adelantos que, calladamente, había realizado la IA en el decenio de los años setenta. Las empresas y organizaciones se vieron seducidas por las posibilidades que los sistemas expertos y la "ingeniería del conocimiento" tenían para aumentar su eficiencia.

Por todo ello, la IA volvió a ser tema de moda, y el impulso definitivo vino de Japón. En 1979, el Ministerio de Industria y Comercio Internacional del Japón decidió desarrollar una nueva generación de ordenadores que cumplieran las necesidades previsibles para la década de los noventa. Aquel mismo año se creó un grupo de trabajo para estudiar la cuestión. En 1981 se publicaba el informe elaborado con las contribuciones de unas 150 personas, aprobando el gobierno japonés los créditos presupuestarios para los que se llamó el Proyecto de la Quinta Generación de Computadores.

Los demás países respondieron con escepticismo al desafío japonés. Los americanos, conscientes de su adelanto de varios años y de su mayor potencia económica y científica, no parecieron muy preocupados. La firma IBM no ha mostrado en los últimos tiempos un interés excesivo por la IA; aunque acaso esté reconsiderando su postura.

 

Investigación y desarrollo en áreas de la IA

Las aplicaciones tecnológicas en las que los métodos de IA usados han demostrado con éxito que pueden resolver complicados problemas de forma masiva, se han desarrollado en sistemas que:

1. Permiten al usuario preguntar a una base de datos en cualquier lenguaje que sea, mejor que un lenguaje de programación.

2. Reconocen objetos de una escena por medio de aparatos de visión.

3. Generar palabras reconocibles como humanas desde textos computarizados.

4. Reconocen e interpretan un pequeño vocabulario de palabras humanas.

5. Resuelven problemas en una variedad de campos usando conocimientos expertos codificados.

Los países que han apadrinado investigaciones de IA han sido: EEUU. , Japón, Reino Unido y la CEE; y lo han llevado a cabo a través de grandes compañías y cooperativas de riesgo y ventura, así como con universidades, para resolver problemas ahorrando dinero.

Page 9: Inteligencia artificial isc

http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html

INTRODUCCIÓN

La finalidad de la inteligencia artificial consiste en crear teorías y modelos que muestren la organización y funcionamiento de la inteligencia. Actualmente, el mayor esfuerzo en la búsqueda de la inteligencia artificial se centra en el desarrollo de sistemas de procesamientos de datos que sean capaces de imitar a la inteligencia humana, realizando tareas que requieran aprendizaje, solución de problemas y decisiones. A veces llamada inteligencia de máquina, la inteligencia artificial o AI (Artificial Intelligence) cubre una vasta gama de teorías y prácticas.

1.1 La base de la inteligencia artificial

La inteligencia artificial se basa en dos áreas de estudio: el cuerpo humano y el ordenador electrónico. Puesto que la meta es copiar la inteligencia humana, es necesario entenderla. Sin embargo, a pesar de todos los progresos en Neurología y Psicología, la inteligencia del hombre se conoce poco, exceptuando sus manifestaciones externas. Muchos estudiosos de la inteligencia artificial se han vuelto – para obtener su modelo de inteligencia – hacia el estudio de la Psicología cognoscitiva, que aborda la forma de percibir y pensar de los seres humanos.. Después comprueban sus teorías programando los ordenadores para simular los procesos cognoscitivos en el modelo. Otros investigadores intentan obtener teorías generales de la inteligencia que sean aplicables a cualquier sistema de inteligencia y no solo al del ser humano.

1.2 ¿Pueden pensar las máquinas ?

En 1950 el matemático inglés Alan M. Turing publicó un ensayo que comenzaba así: "Quiero proponer una pregunta: ¿Pueden pensar las máquinas?." Como la pregunta era demasiado vaga (¿Qué entendemos por "pensar"?), Turing desarrolló un experimento basado en un juego de salón en el que una persona formula a dos jugadores escondidos (un hombre y una mujer) preguntas que le servirán para descubrir cuál de los dos es la mujer. Turing propuso sustituir uno de los dos jugadores escondidos por una máquina inteligente capaz de conversar. Si el examinador, que se servía de un teletipo para comunicarse, no podían distinguir cuál de los dos jugadores era la máquina, ello evidenciaría – según Turing – que la máquina podía pensar. En la actualidad, este experimento de Turing podría ser superado, en situaciones limitadas, por muchos programas de ordenador estudiados para dialogar con el usuario.

Investigaciones acerca de la inteligencia artificial realizadas en la Universidad de Yale (EE.UU.) han llevado al desarrollo de programas de ordenador mediante los cuales éstos pueden aprender y razonar. Otros estudiosos de la inteligencia artificial están poniendo a punto sistemas para dotar a los ordenadores de capacidad visual y auditiva. Una importante área de investigación es la del lenguaje normal, que permite a los ordenadores comunicarse mediante lenguaje humano en lugar de hacerlo en lenguaje de máquina. Es decir, la mayoría de los ordenadores están programados para recibir e interpretar instrucciones de este tipo: S#DYR=48-56, LOC=AS NOT SW, EN=RALSTON". Únicamente personas preparadas son capaces de comunicarse eficazmente de esta forma. Pero si un ordenador programado para gestionar la documentación de una compañía petrolífera pudiese entender la orden dactilografiada (traducción de la anterior) "Encuéntrame toda la documentación relativa a las perforaciones de los pozos de Arabia Saudita entre 1948 y 1956, pero únicamente la de los pozos en que trabajó Ralston, no los de la zona surocciodental del país", muchas personas podrían utilizarlo.

1.3 Los fines de la IA

Las primeras investigaciones acerca de la inteligencia artificial estaban principalmente dirigidas al hallazgo de una técnica universal para la solución de problemas. Este intento a gran escala ha sido abandonado y las investigaciones actuales están dirigidas al diseño de numerosos

Page 10: Inteligencia artificial isc

programas para ordenadores capaces de imitar los procesos de toma de decisiones de expertos, como médicos, químicos, basados en los conocimientos de especialistas en cada materia, son ahora utilizados para diagnosticar enfermedades, identificar moléculas químicas, localizar yacimientos de minerales e incluso diseñar sistemas de fabricación. Investigaciones acerca de la percepción han sido aplicadas a los robots y se han diseñado algunos capaces de "ver". La meta final consiste en crear un sistema capaz de reproducir todas las facetas de la inteligencia humana.

2. HISTORIA Y EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL

La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro humano y animal. Estas neuronas nerviosas abstractas proporcionaron una representación simbólica de la actividad cerebral.

Más adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que se llamó "cibernética"; de aquí nacería, sobre los años 50, la Inteligencia Artificial.

Los primeros investigadores de esta innovadora ciencia, tomaron como base la neurona formalizada de McCulloch y postulaban que:

"El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro".

Pero si consideramos la enorme complejidad del mismo esto es ya prácticamente imposible, ni que mencionar que el hardware de la época ni el software estaban a la altura para realizar semejantes proyectos.

Se comenzó a considerar el pensamiento humano como una coordinación de tareas simples relacionadas entre sí mediante símbolos. Se llegaría a la realización de lo que ellos consideraban como los fundamentos de la solución inteligente de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas actividades simples.

Es en los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el Perceptrón de Rossenblatt. Éste era un sistema visual de reconocimiento de patrones en el cual se asociaron esfuerzos para que se pudieran resolver una gama amplia de problemas, pero estas energías se diluyeron enseguida.

Fue en los años 60 cuando Alan Newell y Herbert Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General Problem Solver: solucionador general de problemas). Éste era un sistema en el que el usuario definía un entorno en función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con las torres de Hanoi, así como con criptoaritmética y otros problemas similares, operando, claro está, con microcosmos formalizados que representaban los parámetros dentro de los cuales se podían resolver problemas. Lo que no podía hacer el GPS era resolver problemas ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el destino deseado mediante el método del ensayo y el error. En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos, en problemas más concretos. Así es como nació el sistema experto.

El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma de masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU).

Page 11: Inteligencia artificial isc

Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se desarrollan sistemas expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas automáticamente, por inducción.

Desarrollo Histórico (según Jackson, 1986)

1950-1965 Periodo "clásico"

Gestación (McColluck y Pitts, Shannon, Turing) Inicio - reunión de Darmouth College en 1956 (Minsky, McCarthy) Redes neuronales, robótica (Shakey) Búsqueda en un espacio de estados, Heurísticas, LISP Solucionador general de problemas (GPS) (Newell, Simon) Juegos, prueba de teoremas Limitaciones de pura búsqueda, explosión combinatoria.

1965-1975 Periodo "romántico"

Representación "general" del conocimiento. Redes semánticas (Quillian) Prototipos (frames) (Minsky) Perceptrón (Minsky y Papert) Lógica (Kowalski) Mundo de bloques (SHDRLU) (Winograd) Compresión de lenguaje, visión, robótica. Dificultades de representación "general", problemas de "juguete".

1975-Hoy Periodo "moderno". Inteligencia "especifica" vs. "general"

Representación explícita del conocimiento específico del dominio. Sistemas expertos o basados en conocimiento. Regreso de redes neuronales (Hopfield, Rumelhart, Hinton), algoritmos genéticos

(Holland, Goldberg) Reconocimiento de voz (HMM), incertidumbre (RB, Lógica difusa), planeación, aprendizaje. Aplicaciones "reales" (medicina, finanzas, ingeniería, exploración, etc.).

Limitaciones: conocimiento "superficial"

Desarrollo Histórico (según Russell y Norvig, 1995):

Gestación (1943-1956):

McCullock y Pitts (1943) Hebb (1949) Shannon (1950) Turing (1953) Minsky y Edmonds (1951) Darmouth College (1956) McCarthy , Newell y Simon, « The Logic Theorist »

Entusiasmo y grandes expectativas (1952-1969):

Samuel - checkers (1952) McCarthy (1958): L ISP : time sharing, Programs with common sense. Minsky y McCarthy en MIT moldearon mucho del área. Minsky , Evans, Student, Waltz, Winston, Winograd, etc. Trabajo en RN: Hebb, Widrow, Rosenblatt

Dosis de realidad (1966-1974):

Page 12: Inteligencia artificial isc

Simon predecía que en 10 años se tendría una máquina inteligente. Predicciones similares en traducción automática y ajedrez. Teoría de NP- completness. Experimentos en machine evolution (ahora algoritmos genéticos; estaban bien

fundados pero no produjeron nada.) (Friedberg, 1958) Minsky y Papert Perceptrons (1969) (aunque irónicamente el mismo año se descubrió

backpropagation (Bryson y Ho))

Sistemas basados en conocimiento (1969-1979):

Dendral , Mycin, HPP, Prospector, Winograd, SHDRLU, Shank (no hay sintáxis), frames, Prolog, Planner

IA como industria (1980-1988):

R1/XCON, proyecto de la quinta generación, shells y máquinas de LISP.

Regreso de redes neuronales (1986-presente):

Hopfield, Rumelhart y Hinton y descenso de los SE

Eventos recientes (1987-presente):

Cambio gradual hacia los técnicos y lejos de los rudos (implica cierto grado de madurez y estabilidad) ej., reconocimiento de voz (HMM), incertidumbre (Bayes), planeación (Tweak), robótica, aprendizaje (PAC), etc.

3. CARACTERÍSTICAS DE LA INTELIGENCIA ARTIFICIAL

1. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.

2. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).

3. El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.

4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.

La Inteligencia Artificial incluye varios campos de desarrollo tales como: la robótica, usada principalmente en el campo industrial; comprensión de lenguajes y traducción; visión en máquinas que distinguen formas y que se usan en líneas de ensamblaje; reconocimiento de palabras y aprendizaje de máquinas; sistemas computacionales expertos.

Page 13: Inteligencia artificial isc

Los sistemas expertos, que reproducen el comportamiento humano en un estrecho ámbito del conocimiento, son programas tan variados como los que diagnostican infecciones en la sangre e indican un tratamiento, los que interpretan datos sismológicos en exploración geológica y los que configuran complejos equipos de alta tecnología.

Tales tareas reducen costos, reducen riesgos en la manipulación humana en áreas peligrosas, mejoran el desempeño del personal inexperto, y mejoran el control de calidad sobre todo en el ámbito comercial.

3.1 Programa fijo y programa modificado por el procesamiento

Existen grandes diferencias entre el funcionamiento de las máquinas y el del cerebro: algunas son evidenciadas en el esquema bajo estas líneas. Las máquinas y el cerebro se diferencian en muchos aspectos: el primero es ligado a la arquitectura del sistema de memoria y a la elaboración realizada por la inteligencia natural, que influye en los programas sucesivos al ser almacenada en la memoria que mantiene disponibles todos los hechos que se han ido acumulando a lo largo del tiempo. Abajo a la izquierda se muestra el esquema de funcionamiento de un sistema artificial: procesa datos que recibe del exterior y que le son presentados ya seleccionados. Los procesa mediante un programa fijo, siempre elegido y construido por el hombre, es decir, desde el exterior.

 Este programa es sencillo comparado con los utilizados por el cerebro humano. A lo largo del tiempo, un mismo programa que procese los mismos datos obtendrá siempre los mismos resultados. Sin embargo, este sistema es muy veloz cuando se le piden secuencias de operaciones. Contrariamente, el cerebro humano es capaz de procesar al mismo tiempo todas las informaciones contenidas en una imagen, y el resultado de dicho procesamiento puede servir para modificar el programa, que para posteriores utilizaciones será más completo. La observación de una imagen muestra la diferencia fundamental entre el modo de procesar los datos del cerebro humano y el de la máquina. El cerebro humano no actúa teniendo en cuenta un programa prefijado, sino más bien uno de naturaleza variable en el tiempo; las variaciones dependen de los resultados procedentes. De hecho, el cerebro tiene la propiedad de recordar imágenes similares; una vez vista la figura, extrae de su memoria imágenes similares previamente almacenadas y los resultados de los análisis realizados sobre ellas. Estos resultados sirven para mejorar el programa según el cual sacará conclusiones aplicadas al examen de la figura.

4. FUNCIONAMIENTO BÁSICO DE LA INTELIGENCIA ARTIFICIAL

Diferentes teorías:

1. Construir réplicas de la compleja red neuronal del cerebro humano (bottom-up). 2. Intentar imitar el comportamiento del cerebro humano con un computador (top-down).

4.1 Símbolos vs. Métodos Numéricos

Page 14: Inteligencia artificial isc

El primer período de la Inteligencia Artificial, llamado sub-simbólico, data de aproximadamente 1950 a 1965. Este período utilizó representaciones numéricas (o sub-simbólicas) del conocimiento. Aunque la mayor parte de los libros de Inteligencia Artificial enfatizan el trabajo realizado por Rosenblatt y Widrow con redes neuronales durante este período, la realidad es que otra importante escuela sub-simbólica data también de la misma época y estos son los algoritmos evolutivos.

La escuela clásica dentro de la Inteligencia Artificial, utiliza representaciones simbólicas basadas en un número finito de primitivas y de reglas para la manipulación de símbolos. El período simbólico se considera aproximadamente comprendido entre 1962 y 1975, seguido por un período dominado por los sistemas basados en el conocimiento de 1976 a 1988. Sin embargo, en este segundo período las representaciones simbólicas (por ejemplo, redes semánticas, lógica de predicados, etc.) siguieron siendo parte central de dichos sistemas.

La Programación Lógica tiene sus orígenes más cercanos en los trabajos de J. A. Robinson que propone en 1965 una regla de inferencia a la que llama resolución, mediante la cual la demostración de un teorema puede ser llevada a cabo de manera automática.

La resolución es una regla que se aplica sobre cierto tipo de fórmulas del Cálculo de Predicados de Primer Orden, llamadas cláusulas y la demostración de teoremas bajo esta regla de inferencia se lleva a cabo por reducción al absurdo.

Otros trabajos importantes de esa época que influyeron en la programación lógica, fueron los de Loveland, Kowalski y Green, que diseña un probador de teoremas que extrae de la prueba el valor de las variables para las cuales el teorema es válido.

Estos mecanismos de prueba fueron trabajados con mucho entusiasmo durante una época, pero, por su ineficiencia, fueron relegados hasta el nacimiento de Prolog, que surge en 1971 en la Universidad de Marsella, Francia.

La Lógica de Primer Orden, es uno de los formalismos más utilizados para representar conocimiento en Inteligencia Artificial. La Lógica cuenta con un lenguaje formal mediante el cual es posible representar fórmulas llamadas axiomas, que permiten describir fragmentos del conocimiento y, además consta de un conjunto de reglas de inferencia que aplicadas a los axiomas, permiten derivar nuevo conocimiento.

4.2 Alfabeto del Lenguaje de la Lógica de Primer Orden

Contiene dos tipos de símbolos:

a. Símbolos lógicos, entre los que se encuentran los símbolos de constantes proposicionales true y false; los símbolos de operadores proposicionales para la negación, la conjunción, la disyunción y las implicaciones (=>, <=); los símbolos de operadores de cuantificación como el cuantificador universal; el cuantificador existencial; y los símbolos auxiliares de escritura como corchetes [,], paréntesis (,) y coma.

b. Símbolos no lógicos, agrupados en el conjunto de símbolos constantes; el conjunto de símbolos de variables individuales; el conjunto de símbolos de funciones n-arias; y el conjunto de símbolos de relaciones n-arias.

A partir de estos símbolos se construyen las expresiones válidas en el Lenguaje de Primer Orden: los términos y las fórmulas.

Un término es cualquiera de las tres expresiones siguientes: una constante, por ejemplo, el número "100", la palabra "alfredo" y la letra "c"; o una variable, por ejemplo, "X" o bien una expresión de la forma "f(t1,...,tn)" donde "f" es un símbolo de función n-aria y t1,...,tn son términos. Ejemplos de funciones son: f(100,X), padre(Y) y sucesor(X).

Page 15: Inteligencia artificial isc

Las fórmulas atómicas o elementales son expresiones de la forma R(t1,...,tn) donde R es un símbolo de relación n-aria y t1,...,tn son términos.

Ejemplos de fórmulas son:

positivo(3),not(igual(4,doble(2))), recetar(X,aspirina)<=tiene(X,fiebre), tiene(X,cefalea).

Esta última establece una regla que dice que, si X tiene fiebre y cefalea (dolor de cabeza), X debe tomar una aspirina.

El Lenguaje de Primer Orden posee un amplio poder de expresión, los términos permiten nombrar los objetos del universo, mientras que las fórmulas permiten afirmar o negar propiedades de éstos o bien establecen las relaciones entre los objetos del universo.

Puede decirse que la Programación Lógica utiliza la Lógica de Primer Orden como lenguaje de programación. Prolog es un ejemplo de lenguaje basado en la Lógica de Primer Orden y aunque toma su nombre de este término ("PROgramming in LOGic"), no abarca toda la riqueza de la Lógica de Primer Orden para resolver problemas, pues está restringido al uso de cierta clase de fórmulas denominadas cláusulas definidas o cláusulas de Horn.

Un programa lógico está formado por un conjunto finito de cláusulas de programa que son hechos o reglas. Por ejemplo:

padre(luis,miguel). hechopadre(miguel,jose). hechopadre(jose,juan). hechoabuelo(X,Y):-padre(X,Z), padre(Z,Y). regla

Este programa está formado por cuatro cláusulas de programa, las tres primeras son del tipo hecho y definen la relación padre/2 y la cuarta una regla que define la relación abuelo/2. Nótese el uso de las variables X,Y y Z en esta cláusula, las cuales permiten definir de manera general en Prolog la relación "ser abuelo de", pues la lectura declarativa de dicha cláusula es la siguiente: "Para cualesquiera X,Y,Z se cumple que: X abuelo de Y, si X padre de Z y Z padre de Y".

En Prolog es posible hacer preguntas sobre objetos y relaciones del dominio y estas preguntas se formulan como objetivos o metas, que son evaluadas por el intérprete de Prolog utilizando su mecanismo de inferencia interno, el cual determina si la meta a demostrar es una consecuencia lógica del programa, aplicando reglas de deducción para obtener la respuesta.

Por ejemplo, del programa anterior, utilizando la cláusula de tipo meta ?abuelo(X,juan), para preguntar ¿quién es el abuelo de Juan? o bien ¿quiénes son los abuelos de Juan?, es posible deducir que Luis es abuelo de Juan, aunque implícitamente no existe en el programa ningún hecho que así lo afirme.

Page 16: Inteligencia artificial isc

 En este ejemplo de análisis de oraciones, podemos observar de qué manera se analiza una oración ingresada por el usuario y cómo el ordenador lo traduce en un lenguaje lógico de primer orden.

En este caso la ejecución del programa, para dicha meta, arrojaría como resultado que X=luis.

El método de deducción utilizado por Prolog, para dar respuesta a los objetivos planteados, se basa en el uso de una única regla de inferencia: el Principio de Resolución.

Los primeros trabajos de prueba automática de teoremas utilizaban la resolución, aplicada a cláusulas cualesquiera, pero el problema de las deducciones con cláusulas generales es el gran número de combinaciones posibles para llevar a cabo las resoluciones.

Por ello Prolog restringe el conjunto de cláusulas, lo que le permite llevar a cabo una prueba dirigida y, en la mayoría de los casos, con un universo de posibilidades explorable en tiempo de ejecución.

5. FUNCIONAMIENTOS GENERALES DE LA INTELIGENCIA ARTIFICIAL

5.1 Tipos de Algoritmos Utilizados

Cuando una tarea se realiza por medio de un algoritmo perfectamente definido de almacenamiento, clasificación o cálculo, lo puede hacer un computador. Este concepto de algoritmo, secuencial, fijo y de determinadas operaciones, es incapaz de manejar problemas donde el camino del razonamiento es variable y donde deben afrontarse situaciones diversas sin haber sido especificadas.

La Inteligencia Artificial hace uso de un tipo de lenguaje diferente como es el caso de LISP y PROLOG.

En 1932, Cannon visualizó la evolución natural como un proceso de aprendizaje. Alan Turing reconoció, en 1950, que debe haber una conexión obvia entre el aprendizaje de máquina y la evolución, y señaló que se podrían desarrollar programas para jugar ajedrez usando esta técnica. Campbell conjeturó en 1960 que en todos los procesos que llevan a la expansión del conocimiento, se involucra un proceso ciego de variación y supervivencia selectiva.

Page 17: Inteligencia artificial isc

Los primeros intentos de aplicar de manera formal la teoría de la evolución, a problemas prácticos de ingeniería, apareció en las áreas de control de procesos estadísticos, aprendizaje de máquina y optimización de funciones. Tal vez el primer intento serio de este tipo se dio en el trabajo que realizaron Box y sus colegas en 1957, en el desarrollo de una técnica que denominaron operación evolutiva, la cual se aplicó a una planta de manufactura, y que se implanto sobre la base de los votos de un comité de jefes técnicos. Bajo este esquema, la calidad del producto avanzaba a través de mutaciones aleatorias y la selección era determinada por el comité.

Por su parte, Friedberg intentó, en 1958, hacer que un programa en lenguaje máquina se mejorara a sí mismo, seleccionando instrucciones que se asociaran más frecuentemente con un resultado exitoso. Aunque Friedberg nunca mencionó explícitamente estar simulando la evolución natural, esa es la interpretación más comúnmente aceptada de su trabajo, y a pesar de que tuvo cierto éxito evolucionando manipuladores de bits y determinando las interconexiones de una caja negra de 1400 terminales, la comunidad de Inteligencia Artificial de la época prestó poca atención a su trabajo. Por ejemplo, Minsky lo criticó duramente, argumentando que una búsqueda puramente aleatoria era mucho mejor que el algoritmo de Friedberg.

El trabajo de Bremermann, en 1958, se enfocó más a la optimización, introduciendo el importante manejo de un valor de aptitud, y definiendo a un individuo como una cadena de símbolos binarios (unos y ceros). Bremermann advirtió, acertadamente, que la mutación jugaba un papel importante en la evolución, pues impedía el estancamiento en mínimos locales. Aunque muchas de sus ideas se usan hoy en día, Bremermann cometió el error de tratar de optimizar funciones lineales y convexas, obteniendo resultados decepcionantes, pues sus algoritmos evolutivos tenían que ser complementados con otras heurísticas para converger en una solución. Hoy sabemos que los algoritmos evolutivos difícilmente pueden competir con las técnicas tradicionales de optimización en esos dominios.

Barricelli ofreció, en 1954, una de las primeras simulaciones que usaba principios evolutivos, utilizando los mismos procedimientos generales que se usan hoy en día en la disciplina conocida como vida artificial. Sin embargo, en este trabajo, así como el que Reed realizó posteriormente en 1967, se concluyó que la cruza no parecía mejorar la velocidad de la adaptación selectiva, y el operador primordial era la mutación.

Fue Fogel el que introdujo la primera técnica evolutiva que realmente funcionó más o menos dentro de los lineamientos actuales de la computación evolutiva. Su programación evolutiva consistía en hacer evolucionar autómatas de estados finitos por medio de mutaciones. Fogel introdujo los importantes conceptos de población y selección, y aunque las revisiones iniciales de su trabajo fueron favorables, algunos investigadores, como Solomonoff, enfatizaron que el método de Fogel no debía verse en su estado actual (en 1966) como algo particularmente útil para resolver problemas, a excepción de los más simples posibles. Solomonoff vio a la programación evolutiva como una especie de búsqueda escalando la colina modelada mediante autómatas, y otros investigadores como Holland, Kieras, Rada y Lenat compartieron esa opinión.

Otra técnica evolutiva dirigida particularmente a la optimización de funciones continuas de alta complejidad se desarrolló en Alemania, en 1965, por Rechenberg y Schwefel. Esta técnica, llamada estrategia evolutiva, se utilizó inicialmente para resolver problemas de ingeniería que desafiaban a los métodos de optimización tradicionales, como el gradiente conjugado, y se basa en la modificación sistemática de un vector de números reales (representando las variables de decisión del problema) mediante operadores probabilísticos, usando ciertos criterios para decidir en qué dirección dirigir la búsqueda. La estrategia evolutiva utiliza como operador principal a la mutación, y en su versión más reciente usa la cruza como operador secundario.

Aunque el australiano Fraser propuso, desde fines de los 50, un procedimiento muy similar al que John Holland llamó planes evolutivos a fines de los 60, es al segundo al que se le suele

Page 18: Inteligencia artificial isc

atribuir la creación de la técnica que se conoce como algoritmo genético, a raíz de que Holland publicara el libro "Adaptation in Natural and Artificial Systems" en 1975.

5.1.1 Algoritmo Genético

La principal diferencia del algoritmo genético con las técnicas antes mencionadas, es que utiliza la cruza como operador principal y a la mutación como operador secundario (e incluso opcional). El algoritmo genético, al igual que las redes neuronales, funciona como una caja negra que recibe ciertas entradas y produce (tras una cantidad de tiempo indeterminada) las salidas deseadas. Sin embargo, a diferencia de éstas, los algoritmos genéticos no necesitan entrenarse con ejemplos de ningún tipo, sino que son capaces de generar sus propios ejemplos y contraejemplos que guíen la evolución a partir de poblaciones iniciales totalmente aleatorias.

Los mecanismos de selección del más apto y de reproducción sexual del algoritmo genético, son los encargados de preservar las características más adecuadas de cada individuo a fin de hacer converger a la población en soluciones óptimas.

Los algoritmos genéticos se distinguen también por no quedar atrapados fácilmente en mínimos locales, como la mayor parte de las técnicas de búsqueda clásicas, además de usar operadores probabilísticos más robustos que los operadores determinísticos, que las otras técnicas suelen usar.

No obstante, siendo una heurística, tampoco pueden garantizar encontrar siempre la solución óptima, si bien la experiencia acumulada hasta la fecha parece demostrar que, cuando se utilizan apropiadamente, pueden proporcionar soluciones muy aceptables y, en la mayoría de los casos, superiores a las encontradas con otras técnicas de búsqueda y optimización.

Aunque aún atacados por algunos sectores de la comunidad de Inteligencia Artificial, los algoritmos genéticos, al igual que las redes neuronales, se han ido ganando poco a poco, y sobre la base de la efectividad de sus resultados en aplicaciones prácticas, el reconocimiento de los investigadores como una técnica efectiva en problemas de gran complejidad, como lo demuestra un número creciente de conferencias y publicaciones especializadas alrededor del mundo, en los últimos años.

5.2 Sistemas Basados en Conocimiento

Los métodos generales desarrollados para la resolución de problemas y técnicas de búsqueda al inicio de la era de la Inteligencia Artificial demostraron no ser suficientes para resolver los problemas orientados a las aplicaciones, ni fueron capaces de satisfacer los difíciles requerimientos de la investigación.

A este conjunto de métodos, procedimientos y técnicas, se lo conoce como Inteligencia Artificial Débil. La principal conclusión que se derivó de este trabajo inicial fue que los problemas difíciles sólo podrían ser resueltos con la ayuda del conocimiento específico acerca del dominio del problema.

La aplicación de estas ideas dio lugar al desarrollo de los denominados Sistemas Basados en Conocimiento (Knowledge Based Systems) y al aparecimiento de la Ingeniería Cognoscitiva, como una rama de la Inteligencia Artificial, que estudia los sistemas basados en el conocimiento. La definición de un sistema basado en conocimiento puede ser la siguiente:

Componentes: software de interfaz, base de datos, programa computacional.

Una relativamente nueva categoría de sistemas de información orientada al servicio es el sistema experto, llamado así porque su base de datos guarda una descripción de habilidades en la toma de decisiones de experiencias humanas en un estrecho dominio de procedimientos, tales como interpretación médica de imagen, impuestos, diseño de piping, configuración de

Page 19: Inteligencia artificial isc

hardware en un sistema de computadores, equipamiento para reparar malfuncionamientos o, en la preparación de cerveza.

La motivación para construir sistemas expertos es el deseo de replicar el escaso, in estructurado y quizás el pobremente documentado conocimiento empírico de especialistas que de este modo puede ser rápidamente usado por otros.

Un programa computacional que usa inteligencia artificial resuelve problemas en un dominio especializado que ordinariamente requiere experiencia humana.

El primer sistema experto fue desarrollado en 1965 por Edward Feigenbaum y Joshua Lederberg de la Universidad de Standford en California, EEUU, y se lo llamó Dendral. Fue diseñado para analizar componentes químicos.

Dado que cada condición que puede ser encontrada puede ser descrita por una regla, los sistemas expertos basados en reglas no pueden manejar eventos no anticipados, pero pueden evolucionar con el uso, y permanece limitado a un estrecho dominio de problemas.

Otra variante de sistemas expertos, uno que no posee esta limitación, emplea una base de conocimiento que consiste de descripciones estructuradas de situaciones, de problemas del mundo real y de decisiones actualmente hechas por expertos humanos.

En medicina, por ejemplo, el registro de un paciente contiene descripciones de datos personales, exámenes físicos y de laboratorio, diagnóstico clínico, tratamiento propuesto, y los resultados de tales tratamientos.

Dada una gran base de datos con tales registros en una especialidad médica, el médico puede indagar acerca de eventos análogos a los relacionados con el paciente. Esto en contraste con el sistema que idealmente intenta reemplazar al ser humano, ya que en casos como estos sólo podría usarse este tipo de conocimiento como una herramienta que ayuda en la toma de decisiones.

El software requerido para este tipo de sistemas se ha ido complicando con el tiempo ya que su desarrollo demanda tiempo, un buen equipo de programadores y un buen producto final.

Se percibe este trabajo como una tarea para el ingeniero y consiste de:

Identificación y análisis de los requerimientos del usuario. Desarrollo de las especificaciones del sistema (software y hardware). Diseño del software. Implementación Testeo Mantenimiento

Tareas típicas para sistemas expertos involucran clasificación, diagnóstico, monitoreo, diseño, inventario y planificación para esfuerzos especializados.

5.2.1 Niveles de conocimiento

A pesar de no disponerse de un modelo general comúnmente aceptado, existe unanimidad en cuanto a la aprobación de tres niveles distintos de conocimientos, a los que corresponde tres fases diferentes de estudio y sobre los que se basa, en general, la concepción de un sistema experto. Esos niveles son el de estructuración, el conceptual y el cognoscitivo. El primero es el que define el mecanismo que genera la certeza. Este mecanismo varía según el campo al que se aplique el sistema experto, ya que las evidencias asociadas a cada campo no son idénticas. La determinación del nivel de estructuración permite definir un formalismo de representación del conocimiento así como un mecanismo adecuado de deducción. El nivel conceptual es el que determina el conjunto de los conceptos que emplea el experto humano en la materia; cada

Page 20: Inteligencia artificial isc

uno de ellos corresponde a un nudo del razonamiento del experto. Se le asocia un descriptor que se experimenta con el formalismo correspondiente al nivel de estructuración. Finalmente, el nivel cognoscitivo corresponde al conjunto de los conocimientos que el experto humano pone en práctica para la resolución del problema planteado. Este conjunto de conocimientos debe poder traducirse al lenguaje definido mediante el formalismo de representación del conocimiento adoptado. En cuanto al desarrollo actual de la investigación en el campo de los sistemas expertos, la primera fase corresponde al desarrollo de sistemas y programas que traten directamente el lenguaje natural, si bien persisten todavía dos escollos importantes. Por un lado, el problema de cómo emplear de un modo eficaz una gran cantidad de información sin necesidad de echar mano de la combinatoria; es decir, cómo conseguir un sistema dotado de conocimientos (metaconocimientos) que le permitan utilizar los conocimientos del sistema y que, a su vez, le permitan deducir automáticamente nuevos conocimientos, ya que no cabe pensar en la reunión de todos los conocimientos necesarios en casos de campos tan sumamente vastos como el del diagnóstico en la medicina.

5.3 Sistemas Expertos

Los sistemas expertos se basan en la simulación del razonamiento humano. El razonamiento humano tiene para ellos, un doble interés: por una parte, el del análisis del razonamiento que seguiría un experto humano en la materia a fin de poder codificarlo mediante el empleo de un determinado lenguaje informático; por otra, la síntesis artificial, de tipo mecánico, de los razonamientos de manera que éstos sean semejantes a los empleados por el experto humano en la resolución de la cuestión planteada.

Estos dos campos de interés han conducido a los investigadores que trabajan en el campo de la inteligencia artificial (de la cual los sistemas expertos son un campo preferente) a intentar establecer una metodología que permita verificar el intercambio con los expertos humanos y aislar los diversos tipos de razonamiento existentes (inductivo, deductivo, formal, etc.), así como construir los elementos necesarios para modelizarlos. Los sistemas expertos son, por lo tanto, intermediarios entre el experto humano, que transmite sus conocimientos al sistema, y el usuario de dicho sistema, que lo emplea para resolver los problemas que se le plantean con la competencia de un especialista en la materia y que, además, puede adquirir una destreza semejante a la del experto gracias a la observación del modo de actuar de la máquina. Los sistemas expertos son, pues, simultáneamente, un sistema de ejecución y un sistema de transmisión del conocimiento. Asimismo, los sistemas expertos se definen mediante su arquitectura; obtienen, por lo tanto, una realidad palpable. Mientras que en las operaciones de programación clásicas se diferencia únicamente entre el propio programa y los datos, en el caso de los sistemas expertos se diferencian tres componentes principales. Son los siguientes:

La base de conocimientos aloja la totalidad de las informaciones específicas relativas al campo del saber deseado. Está escrita en un lenguaje específico de representación de los conocimientos que contiene y en el cual el experto puede definir su propio vocabulario técnico.

A la inversa de lo que sucede en los programas clásicos, en la base de conocimientos las informaciones entran tal como llegan, ya que el orden no influye en los resultados obtenidos. Sucede así porque cada elemento de conocimiento es comprensible por sí mismo tomado de forma aislada y, por lo tanto, no es necesario referirse al contexto en el cual está inserto. La información se representa, por regla general, mediante reglas de producción o redes semánticas. Las reglas de producción constituyen el método más utilizado para construir bases de conocimientos en los sistemas expertos. Llamadas también implicaciones lógicas, su estructura es la siguiente: para unas ciertas causas, unos efectos; o, para determinadas condiciones, ciertas consecuencias. Junto a cada regla, se almacena también su porcentaje en forma de probabilidad. Éste indica, mediante un tanto por ciento, el grado de certeza de las consecuencias que se obtienen como resultado de la aplicación de la regla de producción. En cuanto a las redes semánticas, se trata de un método de construcción de bases de conocimientos en el cual los conocimientos se muestran mediante un grafo en el que los vértices representan los conceptos u objetos y las aristas indican las relaciones entre ellos.

Page 21: Inteligencia artificial isc

Además el sistema dispone de la llamada base de hechos, que alberga los datos propios correspondientes a los problemas que se desea tratar con la ayuda del sistema. Asimismo, a pesar de ser la memoria de trabajo, la base de hechos puede desempeñar el papel de memoria auxiliar. La memoria de trabajo memoriza todos los resultados intermedios, permitiendo conservar el rastro de los razonamientos llevados a cabo. Puede, por eso, emplearse para explicar el origen de las informaciones deducidas por el sistema en el transcurso de una sesión de trabajo o para llevar a cabo la descripción del comportamiento del propio sistema experto. Al principio del período de trabajo, la base de hechos dispone únicamente de los datos que le ha introducido el usuario del sistema, pero, a medida que va actuando el motor de inferencias, contiene las cadenas de inducciones y deducciones que el sistema forma al aplicar las reglas para obtener las conclusiones buscadas.

El último elemento, el motor de inferencias, es un programa que, mediante el empleo de los conocimientos puede resolver el problema que está especificado. Lo resuelve gracias a los datos que contiene la base de hechos del sistema experto. Por regla general, el tipo de reglas que forman la base de conocimientos es tal que, si A es válido, puede deducirse B como conclusión. En este caso, la tarea que lleva a cabo el motor de inferencias es la de seleccionar, validar y activar algunas reglas que permiten obtener finalmente la solución correspondiente al problema planteado.

El sistema experto establecido se compone, por lo tanto, de dos tipos bien diferenciados de elementos, los propios del campo de los expertos relacionados con el problema concreto (es decir, la base de conocimientos y la base de hechos) y el que se puede aplicar de forma general a una gran variedad de problemas de diversos campos (como el caso del motor de inferencias). Sin embargo, el motor de inferencias no es un mecanismo universal de deducción, ya que hay dos tipos diverso: los que emplean el razonamiento aproximativo (para el cual el resultado puede ser erróneo) y aquellos que emplean un tipo de razonamiento capaz de obtener un resultado (si llegan a él), con toda seguridad, verdadero.

5.3.1 Fases del proceso

Sin embargo, a pesar de no existir una metodología generalmente aceptada en cuanto a la concepción de los sistemas expertos, se admite por regla general un esquema que consta de tres fases. En la primera fase, la discusión con el experto o los expertos humanos en la cual se intenta, por un lado, delimitar el problema a resolver y, por el otro, los modos de razonamiento que se emplearán para su solución. La segunda fase comprende el desglose del formalismo de expresión del conocimiento y la determinación del motor de inferencias adecuado a dicho formalismo. Por último, la tercera etapa, corresponde a la creación de la base de conocimientos (en colaboración con los expertos humanos), así como a la comprobación y ajuste del funcionamiento del sistema experto mediante el empleo de ejemplos.

6. LA VIDA ARTIFICIAL

La Vida Artificial se puede considerar como la parte de la Inteligencia Artificial que pretende reproducir los procesos y comportamientos típicos de los seres vivos. También podemos definirla como el intento de crear vida, o algo parecido a la vida, mediante la combinación de símbolos (datos) y procesos de símbolos (programas) independientemente del soporte físico de estos símbolos y procesos.

Por una parte están los intentos "hardware" de emulación de vida. Por ejemplo, es posible construir un pequeño robot con aspecto de ratón capaz de encontrar la salida de un laberinto.

Por otra parte están las simulaciones "software". Éstas tienen la ventaja de que permiten construir un gran número de seres vivos y entornos en los que estos existen, de manera que es más fácil estudiar comportamientos sociales.

Page 22: Inteligencia artificial isc

Podemos construir los seres artificiales con el objetivo de solucionar los problemas que a nosotros nos interesen, y que aprendan o colaboren entre ellos hasta conseguir el resultado deseado.

De esta forma, se puede considerar la Vida Artificial (VA) como un paso más allá después de la Programación Orientada a Objetos (POO), y sin embargo, siendo la VA un caso particular de la POO. Es decir, si un objeto es un elemento que encapsula datos y procedimientos, una entidad artificial es un elemento que encapsula un objetivo, unos sentidos, unas acciones y unas creencias. A esto le podemos llamar Programación Orientada a Agentes.

En muchos campos de estudio se plantea la posibilidad de realizar simulaciones para intentar predecir o ayudar a la toma de decisiones acerca de ciertos aspectos del mundo real. Hay dos formas de enfocar estas simulaciones.

La primera de ellas se basa en la observación de la realidad, centrando la atención en los aspectos "a más alto nivel", es decir, precisamente en los que se pretenden predecir o modificar, y también en aquellos que aparentemente están más relacionados con éstos. El cerebro humano elabora una teoría acerca de cómo todos estos aspectos varían. Esta teoría se formaliza en fórmulas, reglas o algo parecido, y se simula en un ordenador ante diversas condiciones iniciales. Se observa si el modelo, ante datos históricos del pasado, ofrece salidas (resultados) que se ajustan a lo esperado según los datos históricos, y en ese caso, se utiliza para la toma de decisiones en el futuro, ajustando continuamente el modelo según el error obtenido. En caso de obtener resultados muy alejados de la realidad, se revisa la teoría inicial, reescribiéndola por completo, ajustando ciertos aspectos o detallando con mayor nivel de profundidad los que parecen ser generalizaciones excesivas.

La segunda de ellas se basa en la observación de la realidad, centrando la atención en los aspectos "a más bajo nivel" del problema, buscando los aspectos más sencillos y a la vez con una alta multiplicidad. Es decir, el cerebro humano identifica aquellas características sencillas que están presentes en muchas entidades del problema. Mediante fórmulas, reglas o algo parecido, se define un tipo genérico de entidad que admita estas características, y en un ordenador se realiza una simulación basada en la generación de un alto número de estas entidades capaces de interactuar entre sí, con la esperanza en que de esta interacción emerja el comportamiento complejo que se pretende estudiar. Inicialmente los agentes genéricos se definen tan sencillos como sea posible sin dejar de ajustarse al problema. Se observa si el modelo, ante datos históricos del pasado, ofrece salidas (resultados) que se ajustan a lo esperado según los datos históricos, y en ese caso, se utiliza para la toma de decisiones en el futuro, ajustando continuamente el modelo según el error obtenido. En caso de obtener resultados muy alejados de la realidad, se deduce que la definición del agente genérico (más su entorno, etc.) es demasiado sencilla y se va complicando, añadiendo detalles hasta ajustarse suficientemente a la realidad.

6.1 Cuestión Filosófica de la Vida Artificial

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

La Vida Artificial también nos ofrece una "visión privilegiada" de nuestra realidad. No hace falta que las simulaciones por ordenador sean todavía más complejas, para poder tener el derecho a preguntarnos acerca de si nuestro propio mundo no será también una "simulación dentro de un cosmo-ordenador". De hecho, esta pregunta se ha planteado, desde tiempos remotos, de infinidad de maneras.

Si los ordenadores son capaces de simular universos artificiales poblados por organismos que mediante la reproducción, las mutaciones y la selección natural, evolucionan y se hacen cada vez más inteligentes y conscientes, podríamos interpretar nuestro propio mundo como un "superordenador" donde nosotros mismos somos los "seres artificiales" que lo habitan, siguiendo el curso de evolución que El Programador ha deseado.

Page 23: Inteligencia artificial isc

En el caso de que existiera un creador y una intencionalidad, es decir, si El Programador que nos ha creado lo ha hecho con algún objetivo, no sería extraño que ese mismo programador hubiera implementado mecanismos para que sus "entidades" (nosotros) no escapen a su control. Por ejemplo, podría haber marcado límites a su movimiento (¿la velocidad de la luz? ¿la gravedad?) en su ordenador (nuestro universo) ...¿O tal vez el límite de 300.000 km/seg corresponde con los MHz del ordenador en el que vivimos?.

Pero las limitaciones que el programador fija para controlar a sus entidades pueden no ser suficientes. Algunos programadores de Vida Artificial quedan a menudo gratamente sorprendidos por el inesperado comportamiento de sus pequeñas creaciones, más inteligentes y capaces de lo que cabría esperar en un primer momento.

Además, los "bugs" (errores) en programación son probablemente una constante en todos los universos, dimensiones y realidades posibles, así que tal vez el "programador" haya dejado algún hueco por donde podamos colarnos; es decir, que es posible que en nuestro mundo existan acciones, comportamientos, o razonamientos con efectos maravillosos, que están ahí, accesibles, pero que aún nadie ha realizado, ya sea por ignorancia, mala suerte, o porque provocan la muerte a quien llega a adquirirlos. Un ejemplo de esto último se encuentra en "Creced y Multiplicaos", de Isaac Asimov.

6.2 Perspectivas Futuras de la Vida Artificial

Con poco más de diez años de antigüedad, la Vida Artificial se ha convertido en un punto de referencia sólido de la ciencia actual.

En septiembre de 1987, 160 científicos en informática, física, biología y otras disciplinas se reunieron en el Laboratorio Nacional de Los Álamos para la primera conferencia internacional sobre Vida Artificial. En aquella conferencia se definieron los principios básicos que han marcado la pauta desde entonces en la investigación de esta disciplina.

Un concepto básico dentro de este campo es el de comportamiento emergente. El comportamiento emergente aparece cuando se puede generar un sistema complejo a partir de reglas sencillas. Para que se dé este comportamiento se requiere que el sistema en cuestión sea reiterativo, es decir, que el mismo proceso se repita de forma continua y además que las ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales.

Por otra parte, un autómata celular consiste en un espacio n-dimensional dividido en un conjunto de celdas, de forma que cada celda puede encontrarse en dos o más estados, dependiendo de un conjunto de reglas que especifican el estado futuro de cada celda en función del estado de las celdas que le rodean.

Hay dos posturas dentro de la Vida Artificial: la fuerte y la débil.

Para los que apoyan la postura débil, sus modelos son solamente representaciones simbólicas de los síntomas biológicos naturales, modelos ciertamente muy útiles para conocer dichos sistemas, pero sin mayores pretensiones.

Para los que defienden la versión fuerte, dicen que se puede crear vida auténtica a partir de un programa de ordenador que reproduzca las características básicas de los seres vivos.

Desde este punto de vista, la vida se divide en vida húmeda, que es lo que todo el mundo conoce como vida, vida seca, formada por autómatas físicamente tangibles, y vida virtual, formada por programas de computador. Las dos últimas categorías son las que integran lo que genéricamente se conoce como Vida Artificial.

Para defender un punto de vista tan radical, los defensores de la postura fuerte, aluden a un conjunto de reglas que comparten las tres categorías anteriores:

Page 24: Inteligencia artificial isc

La biología de lo posible: La Vida Artificial no se restringe a la vida húmeda tal como la conocemos, sino que "se ocupa de la vida tal como podría ser". La biología ha de convertirse en la ciencia de todas las formas de vida posibles.

Método sintético: La actitud de la Vida Artificial es típicamente sintética, a diferencia de la biología clásica, que ha sido mayoritariamente analítica. Desde este punto de vista, se entiende la vida como un todo integrado, en lugar de desmenuzarlo en sus más mínimas partes.

Vida real (artificial): La Vida Artificial es tal porque son artificiales sus componentes y son artificiales porque están construidos por el hombre. Sin embargo, el comportamiento de tales sistemas depende de sus propias reglas y en ese sentido es tan genuino como el comportamiento de cualquier sistema biológico natural.

Toda la vida es forma: la vida es un proceso, y es la forma de este proceso, no la materia, lo que constituye la esencia de la vida. Es absurdo pretender que sólo es vida genuina aquella que está basada en la química del carbono, como es el caso de la vida húmeda.

Construcción de abajo hacia arriba: la síntesis de la Vida Artificial tiene lugar mejor por medio de un proceso de información por computador llamado programación de abajo hacia arriba. Consiste en partir de unos pocos elementos constitutivos y unas reglas básicas, dejar que el sistema evolucione por sí mismo y que el comportamiento emergente haga el resto. Poco a poco el sistema se organiza espontáneamente y empieza a surgir orden donde antes sólo había caos.

Esta clase de programación contrasta con el principio de programación en la Inteligencia Artificial. En ella se intenta construir máquinas inteligentes hechos desde arriba hacia abajo, es decir, desde el principio se intenta abarcar todas las posibilidades, sin dejar opción a que el sistema improvise.

El principio de procesamiento de información en la Vida Artificial se basa en el paralelismo masivo que ocurre en la vida real. A diferencia de los modelos de Inteligencia Artificial en los que el procesamiento es secuencial, en la Vida Artificial es de tipo paralelo, tal y como ocurre en la mayoría de fenómenos biológicos.

7. LAS REDES NEURONALES

 Si se pudieran explicar los procesos cognitivos superiores de una manera intrínseca, es decir, si se pudiera demostrar que los procesos mentales inteligentes que realiza el hombre se producen a un nivel superior (o intermedio) con independencia de las capas subyacentes que existen hasta la constitución física del ente inteligente, se demostraría que es posible crear -mediante un sistema de símbolos físicos-, una estructura artificial que imite perfectamente la mente humana mediante una arquitectura de niveles, ya que se podría construir dicho nivel superior mediante la combinación de elementos que no necesariamente han de ser los que forman el nivel inferior en los humanos (que por ejemplo, podemos suponer que son las neuronas).

En cambio, si sólo se pudieran explicar los procesos cognitivos superiores mediante una descripción al más bajo nivel (comportamiento neuronal), sólo se podría imitar la inteligencia

Page 25: Inteligencia artificial isc

humana mediante la construcción de neuronas artificiales. Para ser exactos, esta afirmación está condicionada por la certeza de la suposición (bastante común) según la cual el neuronal es el más bajo de los niveles relevantes para la formación de los procesos cognitivos. Arbitrariamente, se podría haber elegido otro nivel aún más bajo (moléculas, átomos). Llevado al extremo, se podría reescribir la afirmación, sustituyendo "neuronas" por "la más pequeña partícula de nuestro universo", si este fuera discreto (no infinitamente divisible).

Las denominaciones "nivel superior" y "nivel inferior" son arbitrarias en cuanto a que parece que se puede encontrar con facilidad un nivel que esté aún más bajo que el que hemos llamado "nivel inferior" -el nivel atómico es inferior al neuronal- y lo simétrico respecto al nivel superior -la conciencia colectiva es superior a la individual-. La existencia de una conciencia colectiva capaz de comunicarse a un nivel superior al del individuo parece evidente en los estudios sobre el comportamiento de algunos insectos, siempre que hagamos el esfuerzo de no interpretar el término "conciencia colectiva" desde nuestro punto de vista subjetivo como individuos. ¿Cómo conseguir esto? No es difícil, si se usa una analogía bajando un nivel. Imaginemos dos células (concretamente, dos neuronas) de nuestro cuerpo charlando amistosamente acerca de la posibilidad de que el conjunto de células forme una "conciencia colectiva". Las neuronas podrían hablar sobre esta "conciencia colectiva", ponerla en duda o intentar argumentar su existencia, pero difícilmente podrían llegar a comprenderla, no puede ser un concepto familiar para ellas.

Una Red Neuronal es usada para aprender patrones y relaciones de datos. Los datos pueden ser el resultado del esfuerzo de una investigación de mercado, el resultado de un proceso de producción dando variación a las condiciones de operación, o las decisiones de un prestamista dado un conjunto de aplicaciones de préstamo, utilizando una Red Neuronal es una salida considerable parecida a un enfoque tradicional. Tradicionalmente un programador o un analista especifican "códigos" de cada faceta del problema en orden para la computadora pueda "entender" la situación. Redes Neuronales no requieren el código explícito del problema. Por ejemplo, para generar un modelo que lleve acabo un pronóstico de ventas, una Red Neuronal solo necesita que le den los datos sin preparar relacionados con el problema. Los datos sin preparar podrían consistir en: historias de ventas pasadas, precios, precios de la competencia y otras variables económicas. La Red Neuronal escoge entre esta información y produce un acuerdo de los factores que influyen en las ventas. El modelo puede entonces ser llamado para dar una predicción de ventas futuras dado un pronóstico de los factores claves. Estos adelantos son debidos a la creación de reglas de aprendizaje de una Red Neuronal, que son los algoritmos usados para "aprender" las relaciones de los datos. Las reglas de aprendizaje habilitan a la red para "ganar conocimiento" desde datos disponibles y aplica ese conocimiento para asistir al gerente para hacer decisiones claves.

Aunque su estructura varía según el tipo de red, lo más usual es que haya tres capas de neuronas, una de entrada, que recoge los estímulos, otra oculta, que procesa la información, y otra de salida, que ejecuta la respuesta. La figura siguiente muestra esta disposición:

Page 26: Inteligencia artificial isc

7.1 Red Neuronal Artificial

Las Redes Neuronales Artificiales son el resultado de investigaciones académicas que utilizan fórmulas matemáticas para modelar operaciones del sistema nervioso, es decir, es un modelo de procesamiento de información que es inspirado por el modo de un sistema nervioso biológico, tal como el cerebro procesa información. El elemento clave de este paradigma es la estructura original del sistema de procesamiento de información. Este se compone de un gran número de elementos interconectados procesando y trabajando en armonía para resolver problemas específicos. Las Redes Neuronales Artificiales, como la gente, aprenden con ejemplos. Una Red Neuronal Artificial es configurada para una aplicación específica, tal como el reconocimiento de patrones o clasificación de datos, a través de un proceso de aprendizaje. Aprender en sistemas biológicos implica ajustes para las conexiones sinópticas que existen entre las neuronas. Esto lo hace una Red Neuronal Artificial.

También, las Redes Neuronales Artificiales se han aplicado a un gran número de problemas reales de complejidad considerable. Su ventaja más importante está en resolver problemas que son demasiado complejos para tecnologías convencionales, problemas que no tienen un algoritmo de solución o que su algoritmo de solución es muy difícil de encontrar. En general, a causa de su abstracción del cerebro biológico, las Redes Neuronales Artificiales son aptas para resolver problemas que la gente puede resolver, pero las computadoras no pueden. Estos problemas incluyen reconocimiento de patrones y pronósticos (los cuales requieren el reconocimiento de tendencias de datos).

El hecho de suponer que el comportamiento inteligente en el hombre se produce a un nivel superior con independencia de los niveles inferiores está íntimamente relacionado con el debate entre holismo o creencia en que "el todo es más que la suma de sus partes" y el reduccionismo, o creencia en que "un todo puede ser comprendido completamente si se entienden sus partes, y la naturaleza de su suma."

Los esfuerzos desarrollados en Arquitecturas Generales de Inteligencia son puramente reduccionistas. Por el contrario, el holismo subyacente en los modelos conexionistas como las Redes Neuronales Artificiales, sugiere el aspecto de la interdependencia entre algunos niveles, o lo que es lo mismo, la imposibilidad de sustituir un nivel (las conexiones neuronales, como sistema sub-simbólico) por otro que realice sus mismas funciones (sistema simbólico). Sin embargo, también las Redes Neuronales Artificiales pueden ser consideradas reduccionistas si tenemos en cuenta otros niveles aún más bajos.

7.2 Modelos de Redes Neuronales

Page 27: Inteligencia artificial isc

Los modelos de redes neuronales también conocidos como modelos de procesamiento distribuido en paralelo ó sistemas neuromorfológicos tienen su principio de funcionamiento basado en la interconexión de alta densidad de elementos sencillos de cómputo. La estructura de las redes neuronales ha sido desarrollada de acuerdo a nuestra comprensión del sistema nervioso biológico. Estos modelos de redes han tenido gran auge en áreas como el reconocimiento de imágenes y sonido, ya que dichas redes procesan simultáneamente varias hipótesis a través de redes paralelas compuestas de elementos de cómputo conectados a las variables ponderables. Los elementos de cómputo o nodos utilizados en las redes neuronales son generalmente no lineales y analógicos, además están caracterizados por un umbral y offset interno. Algunas de las no linealidades más comunes son: los limitadores lógicos del umbral y las no linealidades sigmoidales. Los nodos más complejos incluyen temporal y otras operaciones matemáticas más complejas. Los módulos de redes neuronales son especificados de acuerdo a la topología de la red, las características de los nodos y las reglas de entrenamiento o aprendizaje. Estas reglas indican un grupo inicial de valores y como deben modificarse esos valores para obtener un mejor resultado. La mayoría de los algoritmos de las redes neuronales realizan lecturas de los valores a analizar a lo largo del tiempo para obtener bases en resultados actuales, valores más confiables. Esto con el propósito que el aprendizaje y la adaptación sean lo más óptimo posible. Para este fin se utilizan clasificadores, los cuales tienen un grado de robustez determinado por la capacidad de adaptabilidad de la red, mayor que los clasificadores estadísticos. Mediante la utilización de las redes neuronales constituidas por una gran cantidad de circuitos simples de procesamiento operando en paralelo se ha logrado obtener la capacidad de procesamiento requerida hoy en día.

7.3 Granja de Evolución

La evolución en la naturaleza fue la clave para mejorar los organismos y desarrollar la inteligencia. Michael Dyer, investigador de Inteligencia Artificial de la Universidad de California, apostó a las características evolutivas de las redes neuronales y diseñó Bio-Land.

Bio-Land es una granja virtual donde vive una población de criaturas basadas en redes neuronales.

Los biots pueden usar sus sentidos de la vista, el oído e incluso el olfato y tacto para encontrar comida y localizar parejas. Los biots cazan en manadas, traen comida a su prole y se apiñan buscando calor.

Lo que su creador quiere que hagan es hablar entre ellos, con la esperanza de que desarrollen evolutivamente un lenguaje primitivo.

A partir de ese lenguaje, con el tiempo podrían surgir niveles más altos de pensamiento.

8. APLICACIONES Y PROYECTOS

8.1 Principales Ramas de la IA

Lógica difusa: Consiste en una nueva forma de entender la lógica, en la que los enunciados dejan de ser cien por cien verdaderos o falsos, para tomar valores fraccionarios. En el campo concreto de la IA esto supone evitar las paradojas lógicas que pueden bloquear el sistema, y hacer que el ajuste entre las variables sea más fino.

Robótica: Hoy por hoy, el mayor problema consiste en conseguir que la supervivencia de las máquinas sea superior a unas horas. Por otra parte, su coeficiente intelectual sólo les permite realizar tareas simples, como salvar obstáculos y recoger objetos del suelo.

Realidad virtual: En los últimos tiempos han surgido sistemas de realidad virtual, que simulan comportamiento inteligente, a un coste mucho menor que el de los robots. Como ejemplo está Homer, un submarino virtual creado por Steven A. Vere, del Centro de Inteligencia Artificial de Lockheed, en Palo Alto. Homer es capaz de evitar obstáculos en su deambular por el ciberespacio e informar sobre lo que ve. Como conclusión, todavía no disponemos de respuesta a la pregunta con que empezamos el artículo. Cuanto más se complican los sistemas

Page 28: Inteligencia artificial isc

de IA, más compleja se nos revela la capacidad intelectual humana. Del mismo modo que el agua se alejaba del sediento Tántalo, cada vez que éste se aproximaba a ella, también el sueño de un sistema artificial inteligente se ve más lejano cuanto más nos acercamos a él. En cualquier caso esta complejidad ha de tener un límite por fuerza, por lo que es de esperar que antes o después la IA alcanzará sus máximos objetivos.

8.2 Jugadores inteligentes

Esta rama dentro de la IA es la de los programas jugadores de juegos inteligentes. En una fecha tan temprana como 1946, Arthur Samuel desarrolló un programa que no sólo jugaba a las damas, sino que mejoraba su juego a medida que jugaba.

La historia de este programa no tiene desperdicio, en la medida que su autor protagonizó una de las versiones más chocantes del cuento de la lechera. Por aquellos años, Samuel deseaba que su facultad adquiriese un ordenador, pero su presupuesto resultaba insuficiente. Ni corto ni perezoso elaboró el siguiente plan: construiría un pequeño ordenador, y a partir de éste un programa capaz de jugar a las damas, que vencería sin dificultad el campeonato mundial de damas; la publicidad que obtendría sería suficiente como para garantizarle una subvención estatal que le permitiría la adquisición de su querido ordenador. Si Samuel escogió las damas fue porque lo consideró un juego sencillo de programar. Al fin y al cabo, hay un único tipo de ficha, que se mueve de la misma forma. Pese a esta aparente simplicidad, la gran cantidad de estrategias que se pueden plantear a partir de una posición dada complican notablemente el problema. El resultado de su sueño fue más que previsible: cuando llegó la fecha del campeonato no estaba concluido ni el ordenador ni el programa.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Tres años después, el investigador Claude Shannon, famoso por su teoría de la información, escribía la primera obra sobre programación del ajedrez. De esta manera, se daba el pistoletazo de salida a una carrera cuya máxima meta era la creación de un programa que conquistara el título mundial de ajedrez; cosa que aún dista mucho de conseguirse.

¿Cómo funciona un programa capaz de jugar a un juego de inteligencia, tal como el ajedrez o las damas?

La palabra clave es programación en árbol. La figura 1 muestra una hipotética situación. Las letras A, B y C representan sendas fichas. Para cada una tenemos uno o varios movimientos, que a su vez provocarán movimientos en las piezas de nuestro contrincante. Los números representan la puntuación de cada jugada. Para calcular la jugada óptima se toman cada una de las jugadas propias y a su puntuación se le resta la de la jugada del oponente. Por ejemplo, una jugada de la pieza A nos reporta 9 puntos, pero a continuación la del contrincante le puede suponer 11 puntos, de forma que quedan -2 puntos globales. Por otra parte, una jugada de la figura C nos supone sólo 2 puntos, pero al restarle los -2 de la jugada más óptima del contrincante nos da una ganancia neta de 4 puntos. De esta manera, se puede encontrar la mejor jugada en aquella que proporciona una puntuación neta mayor.

Page 29: Inteligencia artificial isc

Con sólo dos niveles de profundización se tiene un nivel de juego comparable al de un niño de seis años. Ampliando el número de niveles se puede ir mejorando el nivel de juego, a costa de un mayor tiempo de cómputo. Por ello, se han desarrollado técnicas para "podar" el árbol, y eliminar aquellas ramas que a priori se puede saber que no van a dar puntuaciones altas.

8.3 Programas que razonan

Esta rama es la encargada de desarrollar sistemas con capacidad real o aparente de dialogar de forma inteligente y, consecuentemente, de razonar. Desde siempre ha supuesto la máxima aspiración de los investigadores en este campo (como botón de muestra se puede repasar la definición de ordenador de quinta generación en la introducción al artículo), y coincide con la idea de que la mayor parte de la gente tiene de un sistema inteligente. Sin embargo, es importante destacar que, fieles a la filosofía del test de Turing, los investigadores no se preocupan en nuestros días por la cuestión de si tal sistema comprende realmente lo que se le dice o si tiene conciencia de sí mismo, sino de que nosotros podamos comprender lo que él nos dice.

Dentro de este apartado, destacan tres programas que han supuesto auténticos hitos en el proceso de desarrollo de la IA. Por orden cronológico son el programa Eliza, el programa Shrdlu y el programa Racter.

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

ELIZA

Corría el año de 1966 cuando Joseph Weizenbaun, a la sazón profesor de informática del MIT, daba los últimos toques a su programa Eliza. Durante dos años había trabajado en él, con el único objetivo de crear un programa que parodiase a los psiquiatras de la escuela de Carl Rogers. Estos psiquiatras son los que aparecen con frecuencia en las películas norteamericanas, y que practican una terapia basada en el diálogo de libre asociación de los pacientes, propio del psicoanálisis no directivo.

El programa simula una sesión con un psiquiatra rogeliano; al ejecutarlo, tenemos que introducir unas frases, a las que el programa tiene que dar respuesta. Para lo cual busca en la cadena alfanumérica que se le introduce algunas frases clave, para las que tiene una batería de respuestas estándar, de las que selecciona una al azar. Caso de no encontrar una frase clave busca una palabra clave y, en función de ésta, vuelve a seleccionar al azar una de las respuestas que tiene programadas. Si tampoco encontrase una palabra clave, mira a ver si tiene almacenada una frase dicha con anterioridad por el usuario, y en función de ésta construye su respuesta.

Page 30: Inteligencia artificial isc

Por ejemplo, supongamos que en un momento dado se introduce la frase "Mi mujer me odia". El programa toma la frase que viene a continuación de Mi y la almacena tras intercambiar las personas de pronombres y posesivos. Cuando más adelante el programa no encuentre una frase o palabra clave puede recuperar la frase almacenada y contestar algo así como: "¿Tiene eso que ver con el hecho de que su mujer le odia?". Finalmente, si tampoco tiene almacenada ninguna frase el programa, selecciona al azar una frase del tipo "Eso es muy interesante" u otras similares, para mantener la conversación.

SHRDLU

Creado en 1971 por Terry Winograd, un investigador del MIT. A diferencia de Eliza, Shrdlu no se limita a seleccionar respuestas al azar ante cada entrada, sino que lleva a cabo un auténtico proceso de razonamiento. En el mundo de Shrdlu existen tan sólo las figuras geométricas de diferentes colores, figuras que se pueden disponer con distinto orden. Cuando el usuario da las órdenes oportunas mediante un lenguaje coloquial, el programa lleva a cabo las transformaciones que se le piden, e informa de la nueva situación creada.

Fragmento de conversación entre un usuario y el programa:

Humano: ¿Quieres, por favor, apilar los dos bloques rojos, por un lado, y un cubo verde o una pirámide, por otro?

Shrdlu: De acuerdo

Humano: ¿Qué cubo descansa sobre la mesa?

Shrdlu: El cubo grande verde que soporta a la pirámide roja

Humano: ¿Hay algún bloque grande detrás de una pirámide?

Shrdlu: Sí, hay tres: uno grande rojo, un cubo grande verde y el azul

Aunque el diálogo prosigue, este fragmento es suficiente para captar la neta superioridad de este programa frente al de sus antecesores; no sólo parece comprender correctamente las órdenes que se le dan, sino que en todo momento tiene una idea clara de las relaciones espaciales entre los bloques que maneja. ¿Cómo consigue tal cosa? Parafraseando a Dewdney, en el artículo comentado antes "La organización interna de Shrdlu..., está formada por subsistemas que analizan gramaticalmente, interpretan y construyen frases, llevan a cabo búsquedas en un diccionario, efectúan análisis semánticos y deducciones lógicas. Todos estos subsistemas están estrechamente entretejidos, en modo sumamente estructurado, cuyo efecto conjunto nos da la impresión de una verdadera inteligencia que analizara el mundo de bloques depositados en el tablero".

RACTER

Creado en 1980 por Thomas Etter, un programador-analista de San Francisco y William Chamberlain, un escritor neoyorquino. La intención de ambos era crear un programa que crease cuentos. Posteriormente, lo modificaron para permitirle mantener conversaciones con seres humanos, veamos un extracto de una conversación entre Racter y Chamberlain.

Racter: ¿Hemos hablado antes?

Chamberlain: No

Racter: ¿De qué sexo eres?

Chamberlain: Masculino

Page 31: Inteligencia artificial isc

Racter: ¿Cuál es tu nombre completo?

Chamberlain: Bill Chamberlain

Racter: ¿Qué eres?

Chamberlain: Cronorreflectometrista

Racter: ¿De dónde eres?

Chamberlain: De la ciudad de Nueva York

Racter: Ya veo. Así que cronorreflectometrista, ¿verdad? Escucha. Gritemos juntos con decisión. Me gusta la cautivadora música italiana. ¿Qué clase de música te gusta a ti?

Chamberlain: el jazz

Racter: El jazz está bien. ¿qué me dices de la clásica?

Chamberlain: Me gusta la música clásica

Racter: ¿Y de qué nacionalidad?

Chamberlain: También me gusta la música italiana

Racter: A mí, personalmente, Palestrina me inflama. Además de Italia, otros países produjeron en el siglo XVII embelesados músicos. Sewall fue un importante y furibundo maestro del Renacimiento. América fue su nación. Yo saco de la música amoroso placer.

El diálogo prosigue por similares derroteros, mezclando sin pudor Bach con el rodaballo y las lechugas. Al comparar este diálogo con el que yo mismo he mantenido con el programa Doctor se aprecia una diferencia; el diálogo de Racter es mucho más rico y fluido que el de Doctor, si bien es bastante más disparatado.

En el test de Turing Racter podría pasar por un humano con una marcada tendencia a la divagación. ¿Cuál es el funcionamiento de Racter? Al principio de la conversación hace una serie de preguntas a su interlocutor, cuyas respuestas va almacenando en una base de datos. En cuanto juzga que dispone de suficiente información empieza a elaborar frases, en las que combina los elementos de que dispone en su memoria con aquellos que ha recibido de su interlocutor, con lo que logra implicarlo en la conversación. Para construir las frases sigue un mismo esquema gramatical, en el que los sustantivos, adjetivos y verbos se eligen al azar entre una amplia variedad que pertenecen a una misma categoría, y los artículos se adecuan a la forma gramatical correspondiente. Esto hace que las frases sean sintácticamente correctas, pero en tanto los sustantivos, adjetivos y verbos se escogen al azar el sentido suele ser disparatado.

8.4 Sistemas históricos y sistemas actuales

Sistemas históricos

GPS - Newell, Shaw y Simon Perceptron - Minsky y Papert Chekers - A. Samuel MACSYMA AM - D. Lenat ELIZA - Weisenbaum Shakey - SRI SHDRLU - Winogard MYCIN - E. Shortliffe

Page 32: Inteligencia artificial isc

Prospector - Duda, Hart Hearsay II - Erman, Hayes-Roth, Lesser, Reddy CYC - D. Lenat, R. Guha

Sistemas actuales PEGASUS - Hace reservas de transporte por teléfono (Zue et al. ´94) MARVEL - Sistema experto en tiempo real que maneja la información de Voyager y ayuda a diagnosticar fallas (Schwuttke ´92) MYCIN - Sistema de diagnóstico de medicina interna con capacidad de explicar sus razones a los expertos (Heckerman, 1991) NAVLAB - Vehículo autónomo que viaja en forma automática de un extremo a otro de EEUU (Pomerlau, 1993) Sistema de visión que monitorea el tráfico en Paris y reconoce accidentes con los cuales llama a servicios de emergencia (Koller, 1994) DEEP BLUE - máquina paralela que juega ajedrez y primera en derrotar al campeón mundial (IBM 1997)

MYCIN

El MYCIN (desarrollado entre 1972 y 1980, Universidad de Stanford) es un sistema interactivo experto que ayudaba a los físicos en la selección de un apropiada terapia antimicrobiana para los pacientes de los hospitales con bacteremia, meningitis e infecciones de cistitis. El sistema diagnosticaba la causa de la infección usando el conocimiento relativo a la infección de los microorganismos con historiales de pacientes, síntomas y los resultados de los test de laboratorio. El sistema recomendaba un tratamiento de medicinas (tipo y dosificación) acorde a los procedimientos seguidos por la experiencia de los físicos en las terapias.

El sistema MYCIN fue desarrollado originalmente en la consulta y diagnosis de una terapia para infecciones. Desde el principio, en el proyecto se habían impuesto una serie de obligaciones- Tenía que ser funcional (esto implicaba competencia y consistencia). El área de uso era elegido según una necesidad demostrada. (Por ejemplo, a principios de los 70 a una cuarta parte de la población de USA se le recetaba penicilina, el 90 % de esas prescripciones eran innecesarias). - El programa tenía que ser diseñado con un énfasis de sus soportes de roles como una utilidad para un físico, a pesar de reemplazar sus propios procesos de razonamiento.- El programa debía albergar una cantidad ingente de información técnica.- El sistema tenía que interactuar mediante diálogos, tenía que dar una explicación concreta de su razonamiento para llegar a la solución propuesta.- Velocidad, accesibidad y facilidad de uso.

¿Cómo de éxitoso fue MYCIN? ¿Qué nuevos conceptos de desarrollo se realizaron?

MYCIN introducía nuevas formas las cuales procedían de los mejores sistemas expertos hasta el momento. Primero, su base de conocimiento consistía en cientos de reglas. Segundo, esas reglas eran probabilísticas. MYCIN era lo bastante robusto como para determinar correctamente conclusiones cuando algunas evidencias eran incompletas o incorrectas. Tercero, MYCIN podía explicar sus propios procesos de razonamiento. El usuario (un físico) podía preguntar de muchas formas - preguntando, porque al realizar una cuestión concreta o como había llegado a una determinada conclusión, por ejemplo. Fue uno de los primeros sistemas genuinamente amigables. Cuarto, y crucial, MYCIN actualmente funciona. El trabajo que realiza supone para un humano muchos años de entrenamiento.

MYCIN se extendió la noción de base de conocimiento separadamente del motor de inferencia, y su base de reglas y motor de inferencia fueron construidos mediante retro-chaining, o "goal-directed", estrategia de control.

¿Fue MYCIN comercialmente exitoso o se introdujo por pura rutina?

Page 33: Inteligencia artificial isc

MYCIN produjo resultados de alta calidad; su forma igualaba a la de los especialistas. Aunque MYCIN debía ser usado por físicos, hizo aparecer numerosos clones de diagnósticos médicos, que eran utilizados rutinariamente.

¿Qué otros sistemas nacieron a partir del MYCIN?

Del MYCIN partió TEIRESAS (explicaba fácilmente los conceptos), EMYCIN (primer intérprete), PUFF, CENTAUR, VM, GUIDON (tutorial inteligente), SACON y hasta ONCOCIN y ROGET.

GPS

Después del Teórico de Lógica, Newell y Simon llevaron a cabo juntos otro proyecto, proyecto que concluyó en 1957. Esta vez no trataron de investigar el posible funcionamiento del cerebro humano, sino que se apretaron a la potencia (de aquel entonces) ofrecida por los ordenadores y las matemáticas. Así nació el GPS (General Problem Sover) [Solucionador General de Problemas]. Se trataba de un programa, al que se le podían ofrecer pequeños problemas (como el típico del mono que debe coger un plátano que se encuentra colgado del techo), y este (el programa) deberá describir todos los pasos que realiza hasta conseguir su fin, es decir, completar el problema positivamente (en este caso llegar a una altura que le permita coger el plátano). Se puso en practica el análisis medios-fines, un principio de la retroalimentación de Wiener llevado a un mayor nivel de abstracción. El análisis medios-fines consiste en detectar las diferencias entre un objetivo deseado y la situación actual y reducir después esas diferencias. También se aplicó por primera vez el Backtracking [vuelta atrás] (probar si funciona y si no, volver atrás y probar otra cosa) que se convirtió desde aquel momento en una herramienta básica de la I.A.

9. LA INTELIGENCIA ARTIFICIAL Y EL MUNDO

Para ver los gráficos seleccione la opción ¨Bajar trabajo¨ del menú superior

10. LA INTELIGENCIA ARTIFICIAL EN LA ARGENTINA

"Si la Argentina la impulsase, podría ganar 300 millones de dólares por año en exportaciones gracias a la inteligencia artificia", dice Juan Chamero, ingeniero electromecánico, uno de los disertantes en una conferencia que se realizó los primeros días de abril de este año en el Centro Argentino de Ingenieros.

La conferencia contó con la presencia de profesores y estudiantes universitarios en ingeniería y medicina, y psicólogos sociales, entre otros. Sirvió para explicar en qué consiste la inteligencia artificial, que se define como "la comprensión científica de los mecanismos subyacentes al pensamiento y comportamiento inteligente y su integración en máquinas".

En la Argentina, el área de inteligencia artificial y sus aplicaciones es incipiente, según comentó el ingeniero Chamero. Sin embargo, enfatizó en que podría pegar un salto. "Hay más de 5.000 programadores y equipamiento actualizados. Por lo cual, están dadas las condiciones para que se incentiven desarrollos en inteligencia artificial".

Las aplicaciones de la inteligencia artificial —que trata de conseguir que los ordenadores simulen en cierta manera la inteligencia humana— son variadas. Por ejemplo, se usa en robots, en sistemas de administración de conocimiento y en buscadores. En el mundo, el mercado de la inteligencia artificial ya factura 40 mil millones de dólares al año.

Como expositores, también estuvieron los ingenieros Raimundo Osvaldo D'Aquila y Osvaldo Aníbal Pérez Guzmán y el licenciado Alejandro de Montmollin.

Para continuar con la difusión de la inteligencia artificial, se dio un seminario que empezó en mayo en el Centro Argentino de Ingenieros. Se desarrolló en 80 horas, incluyendo una práctica que fue asistida por los profesores que dictaron el seminario a través de una red sobre Internet.

Page 34: Inteligencia artificial isc

Los asistentes al seminario pudieron realizar las prácticas en sus propias empresas, instituciones o estudios y con temas de aplicación local inmediata.

11. EL CINE Y LA INTELIGENCIA ARTIFICIAL

 En el mundo de la ciencia-ficción, a veces no tan ciencia, a veces no tan ficción, se han tratado con amplia gama de variedades las interrelaciones entre hombre e inteligencias artificiales (I.A.). El cine ha copiado, imitado, e incluso fagocitado esta variedad.

El mundo del cine está lleno de referencias a la inteligencia artificial, ordenadores o máquinas que aprenden y crecen como Hall de "2001". El superordenador de "Terminator" que adquiere conciencia y con ella la terrorífica idea, para nosotros, de la amenaza que suponen los hombres para su subsistencia, decisión que comparte la más estúpida de "Juegos de Guerra", que hace tablas consigo mismo a tres en raya. Otros ordenadores de I.A. deciden enamorarse cono en "Electrical Dreams". Algunos son menos I.A. y más textura humana y compuesto robótico, como las tres versiones que aparecen en la saga de "Alien", el primero fiel seguidor de las directrices que le da la compañía. El 2º más humanizado, más perfeccionado como el mismo se califica. La 3ª, la extraña y pequeña Wynnona, que es una I.A. sentimental y un poco enfadada.

Terminator II El día del juicio final

Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior

Uno de los favoritos, de los más impresionantes, de los más conseguidos en la historia del cine son los replicantes de "Blade Runner", capaces de sentir emociones como el amor, el odio y el miedo a la muerte. Y finalmente capaces de PERDONAR, amando más a la vida que a cualquier otra cosa. Por su parte, quien no recuerda el único anhelo de Hall, que sabiendo que va a ser destruido, solo quiere saber si soñará en la segunda parte "2010", a fin de cuentas, desde su punto de vista es lo único que le falta para ser humano. Del mismo modo, el autodestructivo de "Electrical Dreams" y su peculiar sentido del humor, se enamora de la rubia estupenda (Virginia Madsen) y antepone la felicidad de ésta a la suya, y en cierto modo una extraña amistad con su dueño.

Robocop, mente humana y cuerpo de máquina, ¿nos quedaremos limitados a esto?

Page 35: Inteligencia artificial isc

 En ocasiones una nave espacial es el punto de partida. Voyager hace un largo y extraño viaje hasta convertirse en un I.A. en "Star Treck", donde se habla de un planeta de máquinas donde modifican al Voyager. Y en una reciente cinta, "Horizonte Final" quien tiene vida propia es precisamente la nave.

A veces son simplemente robots, aunque aprenden y tienen hasta algo de psicosis, "mieditis" y humor, como la sin par pareja R2D2 y su compañero C3PO de la espectacular "La Guerra de las Galaxias".

Hay quien considera que el día, cada vez más cercano, en que estas I.A. existan, bastará con que se cumplan las tres leyes de Asimov. La pregunta es si un I.A. con conciencia de sí mismo no es en cierto modo un ser humano, ya que adquiere "CONCIENCIA". Quizás simplemente queremos crear (¿qué hay de los clones de los que tanto se habla ahora?), queremos tener el poder de un dios, creando no sólo animales sino también vida inteligente.

Como último apunte, posiblemente todo esto tiene en parte su origen en la película "Metrópolis" primera en que aparece un I.A. y no me resisto a hacer un pequeño homenaje al primer chistoso de las máquinas pre-I.A., Charlot en "Tiempos Modernos".

Algunos de los más olvidados son el autogenerativo de "Superman III", que tuvo un "hijo" en un capítulo de "Expediente X", éste con mayor éxito o suerte pues sobrevive.

12. BIBLIOGRAFÍA

http://alek.pucp.edu.pe/ma_cont http://delicias.dia.fi.upm.es http://www.dia.fi.upm.es http://www.fortunecity.com/skyscraper/chaos/279/principal.htm http://go.to/inteligencia_artificial http://www.itba.edu.ar http://www.publispain.com/supertutoriales/matematica/inteligencia_artificial http://www.redcientifica.com/doc/doc200106170001. html MARTÍN BONAFIO, Redes neuronales y Sistemas Difusos, Madrid, Ediciones

Alfaomega, 2001. Enciclopedia CLARÍN, La Ciencia Explicada, Buenos Aires, Editorial Clarín, 1995.

http://www.monografias.com/trabajos16/inteligencia-artificial-historia/inteligencia-artificial-historia.shtml

1.9 Las habilidades cognoscitivas según la psicología. Teorías de la inteligencia (conductismo, Gardner, .

INTRODUCCIóN

Pocos conceptos son tan polémicos como el de inteligencia. Desde los primeros estudios científicos sobre la inteligencia, iniciados por Galton, las controversias entre las distintas teorías de la inteligencia han ido

Page 36: Inteligencia artificial isc

aumentando. Aun hoy en día existen psicólogos para los que el término inteligencia es una palabra vacía de significado psíquico.

DEFINICIONES

Existen tantas y variadas definiciones que es difícil seleccionar alguna con un amplio grado de aceptación.

Kohler la define como "la capacidad para adquirir conocimientos nuevos". Stern como "la capacidad de adaptar el pensamiento a necesidades del momento presente". Wenzl la definió como "la capacidad de comprender y establecer significaciones, relaciones y conexiones de sentido".

Algunos psicólogos, antes de definirla, prefieren destacar algunos rasgos:

Algunas teorías la considera como la diferente capacidad de adaptación que poseen lo individuos sobretodo ante nuevas situaciones, adaptación no solo por mecanismos automáticos sino también por el uso de la mente. Se destacan así la versatilidad y adaptabilidad como rasgos esenciales de la inteligencia.

Otras consideran que ser inteligente es saber resolver problemas de la manera más satisfactoria posible. Esto exige una capacidad de pensar y decidir estrategias para resolver el problema. De esta manera se resalta la originalidad y el pensamiento creativo.

Ciertas teorías cognitivas insisten en que la inteligencia es la capacidad de procesar racionalmente la información. Esto destaca las funciones del razonamiento y pensamiento lógico.

Ante la posibilidad de que la palabra inteligencia fuera polisémica Thorndike destacó tres tipos de inteligencia: la inteligencia práctica, la conceptual y la social.

En resumen podemos decir que el concepto de inteligencia engloba un conjunto de aptitudes (aprendizaje, memoria, almacenamiento de información, percepción selectiva, habilidades sociales, etc.) que permite al ser humano adaptarse al mundo que le rodea y solucionar sus problemas con eficacia.

TEORIAS SOBRE LA INTELIGENCIA

Las primeras investigaciones

A finales del siglo XIX, aparecen las primeras investigaciones científicas sobre la inteligencia. Esos primeros intentos fueron influidos por el darwinismo social, auténtica moda del siglo.

Los psicólogos que basaban su teoría en el darwinismo decían que la inteligencia era la capacidad de adaptación del ser humano a su medio. Los más inteligentes alcanzaban mejor adaptación que los pocos inteligentes, así explicaban las diferencias intelectuales entre las personas. También se asociaba la riqueza o pobreza con el nivel intelectual, y lo mismo para la raza blanca sobre las demás o unos países sobre los otros.

A principios de siglo, cambió la línea de investigación sobre la inteligencia. El tema central siguió siendo la explicación de las diferencias individuales, pero abordado ahora desde una nueva perspectiva: la creación de técnicas y pruebas que pudieran dar cuenta de tales diferencias. Aparecen así, con Binet y Simon, los que entonces se denominaron tests mentales.

Teorías factoriales

El auge de la psicometría propició la aparición de numerosas teorías que intentaban analizar los componentes implicados en la actividad intelectual. Pronto se extendió el llamado análisis factorial, a través del cual se pretendía determinar el número y la naturaleza de los factores actuantes en el rendimiento intelectual.

Sperman dio a conocer su famosa teoría sobre la inteligencia, la teoría bifactorial. Según esta, existe una inteligencia general que se caracteriza por estar presente en todos los procesos intelectuales llevados a cabo por los seres humanos. Además de esta existe otro factor específico responsable de la habilidad necesaria para la realización de una tarea concreta.

Page 37: Inteligencia artificial isc

En la actualidad la mayoría de los especialistas se decantan por teorías multifactoriales, es decir, la inteligencia se compone de numerosas aptitudes lo suficientemente diferenciadas y relativamente independientes entre sí.

El primero en proponer un modelo semejante fue Thurstone, quien aisló los siguientes factores de la inteligencia:

La aptitud espacial.

La capacidad de comprender significados lingüísticos.

La fluidez verbal.

La rapidez en la percepción visual.

Las capacidades de inducción u deducción.

Tras él, numerosos psicólogos propusieron modelos multifactoriales de la inteligencia, pero el esfuerzo dedicado a desvelar los procesos mentales de la inteligencia fue escaso.

Teorías cognitivas

Inspirándose en las investigaciones de Piaget y en las investigaciones sobre procesamiento de la información, los enfoques cognitivos han propuesto nuevos modelos de la inteligencia.

Estas teorías proponen una nueva perspectiva para explicar los mecanismos funcionales de la inteligencia: según ellos, ser inteligente significa en puridad ser capaz de comprender.

En la compresión, entendida como resultado global de la inteligencia, influyen factores cognitivos no cuantificables, tales como esquemas, estructuras mentales, expectativas, motivaciones, etc.

Un ejemplo de teoría que adopta este tipo de enfoque es la teoría triárquica, ya que según esta existen tres tipos de inteligencia:

La componencial: consiste en establecer relaciones con el mundo interno de sujeto..

La experiencial: son las experiencias vitales del sujeto.

La social: tiene que ver con los procesos de socialización del sujeto, permitiendo su adaptación al medio humano en el que se desenvuelve.

En resumen estos enfoques intentan analizar la inteligencia desde el marco global de la comprensión.

LOS TESTS DE INTELIGENCIA

Características generales

Un test de inteligencia es una prueba diseñada específicamente para medir aptitudes, comnocimientos y capacidades del individuo. Consta de un conjunto de prehuntas o ejercicios comunes para todos lo sujetos, llamados items, cuya función es determibbar cuantitativamente los conocimientos o destrezas. El test se evalúa por comparación: se compara la puntuación de un individuo específico con la de un grupo de sujetos que ha sido sometido a la misma prueba. Generalmente, los items se disponen en un orden de dificultad creciente.

El Cociente de Inteligencia (CI)

Es la medida de la inteligencia más utilizada por los psicólogos.

El CI establece una relación entre la edad cronológica y la edad mental de un individuo. La edad mental es un supuesto teórico basado en una hipótesis de Binet, según la cual las personas poseen un nivel mental específico para cada edad cronológica. Actualmente, por pura convección científica, se considera que la edad mental de un individuo puede expresarse numéricamente; exactamente es la puntuación obtenida por ese individuo en un test de inteligencia diseñado para calcular es medida.

Page 38: Inteligencia artificial isc

Universalmente se aceptan unas tablas que relacionan el CI con ciertos estados intelectuales. Así:

Deficientes:o Idiocia 0-24

o Imbecilidad 25-49

o Debilidad mental 50-69

Casos limites o bordelines 70-79

Normales:

o Normal-mediocre 80-89

o Normal-medio 90-109

o Normal-superior 110-119

Superiores:

o Superior 120-129

o Muy superior 130-140

o Superdotado De 140 en adelante

¿Qué miden los tests?

Podemos dividir los tests en dos grandes grupos:

Tests para medir la inteligencia general

Baterías o conjunto de tests diseñados para cuantificar las distintas aptitudes involucradas en la inteligencia.

Criticas a los tests de inteligencia

Muchos psicólogos han llamado la atención sobre las connotaciones puramente académicas de los tests de inteligencia. Según ellos, sirven para medir el rendimiento académico pero no la inteligencia general.

También se les acusa de etnocentrismo, es decir, de estar elaborados según el concepto occidental de inteligencia. Los que defienden teorías genetistas rechazan este tipo de criticas, ya que para ellos la inteligencia medida por los tests se halla mucho más determinada por la herencia que por influjos ambientales o educativos.

Otra crítica habitual es la que se refiere a la pretendida homogeneidad o consistencia interna de los tests. Algunos psicólogos han señalado que es muy difícil probar que todos los items de una prueba concreta midan una misma habilidad.

LA INTELIGENCIA ARTIFICIAL

Es la ciencia y técnica que versa sobre el conocimiento general de la inteligencia con el objetivo de fabricar máquinas inteligentes. Entendemos por máquinas inteligentes, artilugios que puedan llevar a

Page 39: Inteligencia artificial isc

cabo procesos específicamente humanos como razonamientos, resolución creativa y no puramente mecánica de problemas, toma de decisiones, etc.

http://html.rincondelvago.com/inteligencia_2.html

Conductismo y cognitivismo, ruptura entre dos teorías

1. Introducción 2. Los conceptos: naturaleza, función y estructura 3. El programa conductista 4. La revolución cognitiva 5. Conclusión 6. Bibliografía

La intención de este trabajo es, por un lado, analizar la postura de dos teorías y explicar el enfoque seguido por las mismas con respecto al tema de la formación de conceptos. Ellas son: el CONDUCTISMO y el COGNITIVISMO,en particular el PROCESAMIENTO DE INFORMACIÓN.

Por otro lado, me he abocado al análisis de estas dos corrientes desde una perspectiva histórica, haciendo hincapié en sus diferencias, momento de ruptura y aplicando un enfoque epistemológico: el programa de investigación de Lakatos, con respecto a su estructura.

1 - INTRODUCCIÓN.

La adquisición de los conceptos ha sido un tema importante dentro de las teorías del Aprendizaje. Se ha tratado de explicar esta adquisición a lo largo del tiempo recurriendo a diversas teorías cuyas bases se remontan a preguntas tales como: ¿Los conceptos son innatos? ¿Se forman a través de la experiencia? ¿ Son una respuesta al estímulo perceptivo?.

Mi interés en estas dos teorías: Conductismo y Cognitivismo, nace del hecho que la primera (Empírica) ha sido una corriente muy fuertemente arraigada en el pensamiento durante el siglo XX, superada por la segunda (Cognitiva), lo cual representa una interesante ruptura desde el punto de vista científico. Me ha interesado trabajar sobre el origen de ambas, su abarcatividad y también sus puntos débiles.

CONDUCTA y MENTE: ¿Cuál es más confiable para basar un estudio psicológico? ¿Sobre cuál de las dos es posible la obtención del conocimiento científico? La primera es observable y no así la segunda. ¿En qué se basaron los defensores de la postura conductista para considerar la conducta y no la mente su campo de estudio? Estas son preguntas que trataré de responder a continuación.

1.1 -EPISTEMOLOGÍA Y CONOCIMIENTO

Las teorías clásicas del conocimiento se han planteado ante todo la pregunta: "¿Cómo es posible el conocimiento?", que rápidamente se diferenció en una pluralidad de problemas, referidos a la naturaleza y a las condiciones previas del conocimiento lógico-matemático, del conocimiento experimental, del psicofísico, etc.. El postulado común para las diversas epistemologías tradicionales es que el conocimiento es un hecho y no un proceso y que si nuestras diferentes fórmulas de conocimiento son siempre incompletas y nuestras diversas ciencias todavía incompletas, lo que se ha adquirido está adquirido y puede entonces ser estudiado estáticamente. (Piaget, J., 1998)

Por otro lado, actualmente, bajo la influencia convergente de una serie de factores, se tiende a considerar día a día al conocimiento como un proceso, más que como estado. La razón proviene, en parte, de la epistemología de las filosofías de las ciencias.

Page 40: Inteligencia artificial isc

Los cambios, dentro de las ciencias, no se dan sin ser acompañados de crisis y obligan en todos los casos a un trabajo constante de reorganización reflexiva, de forma tal que la epistemología científica se ha convertido progresivamente en una cuestión de los propios científicos: los problemas de la "fundamentación" se han incorporado más y más al sistema de cada una de las ciencias en cuestión.

Por ejemplo, si se decide dar cuenta del conjunto de los conocimientos sólo a través de la "experiencia" no se puede justificar tal tesis sin intentar el análisis de qué es la experiencia, entonces se llega a recurrir a las percepciones, a las asociaciones, a los hábitos, que son procesos psicológicos. Pero como las filosofías empiristas nacieron mucho antes que la psicología experimental, se contentaron con las nociones del sentido común y con una descripción ante todo especulativa, lo que impidió ver que la experiencia es siempre asimilación a estructuras. (Piaget, j. 1998)

En cuanto a las epistemologías platonizantes, racionalistas o aprioristas creyeron encontrar, cada una de ellas, algún instrumento fundamental de conocimiento ajeno, superior o anterior a la experiencia.

La epistemología es la teoría del conocimiento válido y aun cuando este conocimiento, según Piaget (Piaget, J. 1998), no sea jamás un estado y constituya siempre un proceso, este proceso es esencialmente un pasaje de una validez menor a una validez superior.

1.2 - ANTECEDENTES HISTÓRICOS.

Pozo, en Teorías Cognitivas del Aprendizaje, (1997) explica que Ebbinghaus opinaba que la psicología tiene un largo pasado, pero una corta historia. Si bien el crecimiento de la Historia de la Psicología se ha producido "hacia delante", con los sucesivos cambios metodológicos y conceptuales habidos en este siglo, también, de alguna manera, la Historia de la Psicología se ha prolongado "hacia atrás" recuperando como propios los problemas y vicisitudes de más de veinte siglos de tradición filosófica occidental. Los cambios habidos, especialmente en los últimos cuarenta años, han convencido, según Pozo, a muchos psicólogos de que la Historia de su disciplina comenzó mucho antes de lo que la frase de Ebbinghaus hacía suponer.

Esto no significa que la ciencia psicológica haya nacido en la Grecia antigua, pero es interesante analizar temas y conceptos que ya se tenían en cuenta, que despertaban inquietudes en los pensadores de aquellas épocas, que tuvieron origen en el pensamiento humano siglos antes de la aparición de la Psicología como ciencia social y moderna tal como la conocemos en el presente.

Muy acertada es la mención que Pozo hace en la introducción al libro anteriormente mencionado de la idea de Jorge Luis Borges, según la cual son los sucesores los que crean a los precursores. Los sucesores de aquellas ideas originadas por los precursores han sido los que les han dado forma, las han insertado en un marco de investigación científica y no han quedado en mera especulación.

Me ha resultado de sumo interés hurgar en los orígenes lejanos de las concepciones racionalistas y empiristas, mente y experiencia, y es por eso que, al menos la historia de mi análisis me lleva a épocas tan lejanas de lo que sería realmente la aparición de la Psicología moderna como ciencia social.

Esta historia, entonces, se remonta al siglo IV antes de Cristo, cuando en la Grecia Antigua se debatían cuestiones y conceptos que, muchos siglos después, pasarían a constituir el núcleo de los problemas que estudiaría la Psicología Cognitiva. La escuela de filosofía fundada por Platón para difundir las ideas de Sócrates, reflexionó sobre la naturaleza del conocimiento y sobre su origen. Platón presenta al conocimiento como proyección de nuestras ideas innatas. Cuando se aprende, se lleva hasta la conciencia aquellas ideas que desde siempre estaban en el alma. Esta doctrina platónica resurgirá en la tradición filosófica occidental en el pensamiento racionalista e idealista de Descartes, Leibniz o Kant, y será recuperada para la psicología por

Page 41: Inteligencia artificial isc

algunos autores representativos del movimiento cognitivista actual, como Fodor y Chomsky, entre otros.(Pozo, 1997)

Frente a la corriente racionalista iniciada por Platón se levanta otra tradición que tiene su origen precisamente en el discípulo predilecto de éste, Aristóteles, quien rechaza la doctrina de las ideas innatas, sustituyéndola por la de la "tabula rasa" sobre la cual se van imprimiendo las sensaciones. De esta forma, el conocimiento procede de los sentidos que dotan a la mente de imágenes, que se asocian entre sí según tres leyes: la contigüidad, la similitud y el contraste (Carpio, 1974). Así, Aristóteles puede ser considerado como el padre del asociacionismo, que en los siglos XVII y XVIII alcanzará con Hobbes, Locke y Hume su máxima expresión dentro de la filosofía, dominará el pensamiento del conductismo, teniendo una influencia decisiva en la Historia de la Psicología y específicamente, en la Psicología del Aprendizaje.

1.3 - EL SIGLO XX.

A grandes rasgos, el siglo XX estaría caracterizado por el dominio, primero, del CONDUCTISMO, y segundo, por la PSICOLOGÍA COGNITIVA. Esta historia de la psicología en el siglo XX está amparado en las ideas de KUHN con respecto al desarrollo y el cambio en los movimientos científicos, la cual narra la existencia de dos revoluciones paradigmáticas, seguidas por su correspondiente período de ciencia normal. La primera revolución se produce en la segunda década del siglo y da lugar a la aparición del conductismo, como respuesta al subjetivismo y al abuso del método introspectivo. El conductismo se consolida a partir de 1930 entrando en un período de ciencia normal, caracterizado por la aplicación de su paradigma objetivista, basado en los estudios de aprendizaje mediante condicionamiento, que considera innecesario el estudio de los procesos mentales superiores para la comprensión de la conducta humana.

La expansión del paradigma, que desemboca en múltiples anomalías empíricas, junto al empuje de diversos factores externos a la psicología, como son las nuevas tecnologías cibernéticas que vienen de la mano de la Teoría de la Comunicación, la Lingüística y la propia Cibernética, harán que el paradigma conductista entre en crisis a partir de 1950. A mediados de esta década, será sustituido por el Procesamiento de Información que, apoyándose en la metáfora del ordenador, hará posible el estudio de los procesos mentales que el conductismo marginaba. De esta forma se entra en un nuevo período de ciencia normal, esta vez bajo el dominio de la psicología cognitiva. Este período alcanza hasta nuestros días.

El Procesamiento de Información constituye el paradigma dominante dentro del enfoque cognitivo actual. Pero su validez está siendo contestada desde posiciones cognitivas, y son abundantes las críticas a sus insuficiencias, limitaciones y promesas incumplidas (Pozos, j. 1997).

1.4 - LOS PARADIGMAS: KUHN Y LAKATOS.

La teoría de las revoluciones científicas de Kuhn nace como respuesta a la pretensión popperiana de que la ciencia avanza mediante la falsación sistemática de los enunciados que formula (Pozos, l978). Con sus análisis históricos Kuhn logra demostrar no sólo que los científicos no buscan por sistema falsar sus teorías, sino incluso que éstas perviven con considerables pruebas empíricas en su contra. De esta forma, Kuhn desacredita a la experimentación como la causa fundamental del progreso científico. Según su concepción, no es la fuerza de los datos la que hace que un paradigma sea sustituido por otro, ya que los paradigmas son en sí mismos inconmensurables. Esa sustitución respondería más a criterios externos, ya sean generacionales o de demandas sociales, que a criterios de racionalidad científica. Pozos explica que esta última idea será rechazada por Lakatos, cuyo falsacionismo metodológico puede concebirse como un intento de síntesis entre las posiciones de Popper y Kuhn.

Lakatos coincide con Kuhn en el predominio de los paradigmas (en su terminología, "Programas de Investigación Científica") sobre los datos, pero admitirá con Popper que son finalmente los datos los que constituyen los árbitros del cambio en las teorías científicas. Según

Page 42: Inteligencia artificial isc

Lakatos, todo programa de investigación consta de dos componentes distintos: un núcleo firme, constituído por las ideas centrales y un cinturón protector de ideas auxiliares, cuya misión es precisamente impedir que el núcleo pueda ser refutado empíricamente. Lakatos considera que nunca una teoría puede ser falsada por un hecho. Los datos en contra de una teoría son simples "anomalías". Toda teoría, en la medida que no explica todo, convive con numerosas anomalías simultáneamente. Ante ellas puede reaccionar de dos formas distintas: sencillamente desentendiéndose de ellas o incorporándolas al cinturón protector. En cualquier caso, el núcleo de la teoría o programa de investigación se mantiene intacto. La falsación de una teoría no la producen los datos empíricos sino la aparición de una teoría mejor. Según Lakatos, una teoría es mejor que otra cuando: 1- puede predecir hechos que la anterior no predecía, 2- explica el éxito de la teoría anterior, 3 – corrobora empíricamente su contenido.

Lo que caracteriza a una buena teoría, o según Lakatos: "Programa de Investigación Progresivo", es su capacidad para predecir e incorporar hechos nuevos, frente a otras teorías o "Programas de Investigación Regresivos", que se limitan a explicar lo conocido. Un programa puede ser progresivo teóricamente, cuando realiza predicciones nuevas aunque no sean corroboradas, o empíricamente, cuando corrobora alguna de esas predicciones. Un programa progresivo puede dejar de serlo cuando agota su capacidad predictiva y se muestra incapaz de extenderse hacia nuevos dominios. Y, a la inversa, un programa regresivo puede convertirse en progresivo si logra hacer nuevas predicciones parcialmente corroboradas.

Lakatos piensa que una nueva teoría se impondrá sobre otra vigente, cuando, entonces, además de explicar todos los hechos relevantes que ella explicaba, se enfrenta con éxito a algunas de las anomalías de las que la teoría anterior no podía dar cuenta. Así se asegura una continuidad entre las teorías sucesivas. Esta continuidad es consistente con el carácter acumulativo del progreso del conocimiento científico.

En cuanto a las Teorías del Aprendizaje, el marco epistemológico de Lakatos es el más adecuado. En el presente trabajo analizaremos las siguientes cuestiones: ¿Qué constituye el núcleo del programa conductista? ¿En qué se diferencia este programa del enfoque cognitivo? Este será el tema de reflexión de las siguientes páginas, con respecto al campo de estudio que representa el área de la Adquisición de los conceptos.

2. - LOS CONCEPTOS: NATURALEZA, FUNCIÓN Y ESTRUCTURA.

La definición de CONCEPTO es harto compleja. Por ejemplo, Los filósofos empiristas como Mill, suponían que las personas adquirimos conceptos mediante un proceso de abstracción que suprime los detalles idiosincráticos que difieren de un ejemplo a otro. (Laird, l990). En consecuencia, la mayoría de los experimentos han utilizado una técnica en la cual los sujetos tienen que descubrir el elemento común que subyace a un concepto. Sin embargo, los conceptos cotidianos, no consisten en la conjunción o disyunción de características, sino más bien en relaciones entre ellas. Laird da el ejemplo de "tabla", no como una mera conjunción de patas y tablero, sino como que las patas "soportan "al tablero.

Otro aspecto de los conceptos de la vida diaria es que sus ejemplos puede que no tengan un elemento en común. Wittgestein, en sus "Investigaciones Filosóficas" presenta el ejemplo de lo que denominamos "juegos". Según su postura, no hay nada que sea común a todos los juegos, excepto similitudes y relaciones (Laird, l990). Además, sostuvo que los conceptos dependen, no de elementos comunes, sino de redes de similitudes que son como las semejanzas entre los miembros de una familia.

Esta idea obtuvo popularidad en los años setenta. Los teóricos plantearon que el mundo se conceptualiza en términos de estereotipos, prototipos, marcos o guiones. No vamos a dedicarnos a cada uno de éstos, tarea sobre la cual habría que explayarse largamente, pero sí podemos decir que, aunque la terminología difiere, las teorías subyacentes son extraordinariamente semejantes: un concepto especifica las características típicas de los miembros de la clase; dicho concepto no tiene condiciones necesarias y suficientes, y tampoco tiene límites claros

Page 43: Inteligencia artificial isc

2.1 – LA CONCEPCIÓN CLÁSICA. (ENFOQUE CONDUCTISTA)

Veamos que dice Gardner al respecto de la categorización del mundo (Gardner, l996). Ya los griegos clasificaban en grupos a los objetos comunes y corrientes del mundo. Estos grupos son diferenciables por determinados atributos que sirven de criterios definitorios.

En la teoría clásica de la formación de conceptos encontramos las siguientes características: 1- Las categorías son arbitrarias. Los rubros pueden agruparse de cualquier cantidad de modos a fin de constituir categorías. 2 - Las categorías poseen atributos definitorios o críticos. Todos los miembros de esta categoría comparten estos atributos, ningún miembro de otra categoría los comparte, y no existe superposición alguna entre los miembros de una categoría y los que no lo son. 3 - La "intensión" (o suma de atributos) de una categoría determina su "extensión" (la cantidad de objetos del mundo que la integran en calidad de miembros). Por lo tanto, no tiene ningún sentido pensar que una categoría puede estar dotada de una estructura interna tal que algunos de sus ítems sobresalgan respecto de los demás como miembros "mejores". Los límites son estrictos y no hay confusión posible: un triángulo es grande y rojo o no lo es.

Estas premisas están presentadas en sus formas más puras, pero ya desde la época de los empiristas ingleses - rama de la filosofía que adoptará el conductivismo- se plantearon objeciones frente a esta visión extrema de las categorías. Esta posición clásica tuvo amplio arraigo hasta mediados de este siglo, cuando Ludwig Wittgestein y sus seguidores lanzaron contra ella un desafío que en las últimas décadas recibió considerables refuerzos de los trabajos llevados a cabo en las ciencias de la conducta.

Eleanor Rosch, fue posiblemente la cognitivista que más socavó con sus críticas la concepción clásica. Se le asesta a esta teoría un rudo golpe a través de una serie de trabajos pertenecientes a un dominio que, inicialmente la concepción clásica había adoptado como propio: el de la designación de los colores. Aquí se comprueba, por ejemplo, que desde un punto de vista puramente físico, nada nos indica dónde termina la designación de un color y donde empieza la del otro (Leech,1978).

En síntesis, el espacio cromático, lejos de ser un dominio adecuado para estudiar los efectos que el lenguaje tiene sobre el pensamiento, parecía constituir un ejemplo primordial de la influencia de ciertos factores cognitivos perceptuales subyacentes sobre la formación y referencia de las categorías lingüísticas. Podemos mencionar aquí que los procesos cognitivos no eran objeto de estudio del conductismo, el cual sí adhería a la teoría clásica de formación de conceptos, esto lo profundizaremos cuando analicemos el programa de investigación de esta teoría.

Volviendo al tema de Rosch, ¿Por qué desbarataron estos hallazgos la formación clásica de la formación de conceptos? La razón es la siguiente: durante muchos años se había presupuesto que las líneas demarcatorias de los colores eran trazadas en forma arbitraria por cada cultura, y que los individuos no hacían más que reflejar estos límites en sus propias clasificaciones. Ahora, Rosch ponía en tela de juicio estas argumentaciones: niega la existencia de límites fijos o rotundos entre las categorías: muchos de sus miembros se hallan entre dos o más categorías por sobre sus fronteras.

2. – LOS PROTOTIPOS Y LOS EJEMPLARES (ENFOQUE COGNITIVO)

La idea de que los conceptos no tienen una estructura determinística asimilable a una lógica de clases no es nueva en psicología. En lugar de clases lógicamente definidas, se postula la existencia de un mecanismo automático de categorización de estímulos basado en prototipos. Wittgestein, por ejemplo, rechaza la concepción clásica de que todos los ejemplares de un concepto tienen una serie de atributos comunes y propone que lo que une a esos ejemplares dentro de un mismo concepto es un cierto parecido "familiar", basado en una semejanza no transitiva entre los miembros de la categoría.

Page 44: Inteligencia artificial isc

Pozo cita a Rosch en su definición de prototipo: " Por prototipos de categorías se entienden en general los casos más claros de pertenencia a la categoría, definidos operacionalmente por los juicios de la gente con respecto a la bondad de pertenencia a esta categoría ". (Pozo, l997, pag.101)

Rosch, como ya mencionamos anteriormente, retoma esta idea en sus estudios sobre formación de conceptos naturales, que serán un nuevo punto de partida de un nuevo enfoque en el aprendizaje de conceptos.

Incompatibles con la posición clásica, se han ido desarrollando modelos que asumen una posición probabilística, según la cual, la posesión de los atributos del concepto por parte de un ejemplar y su pertenencia a la categoría no son una cuestión de "todo o nada", sino de grados o probabilidades. Según la concepción probabilística, la mayoría de los conceptos son como miembros de una familia, no siempre tienen atributos comunes suficientes, no todos son ejemplares igualmente representativos de la categoría y las fronteras del concepto son borrosas.

Rosch considera que el mundo percibido no contiene atributos o rasgos independientes entre sí, sino que está estructurado según tres principios. En primer lugar, los atributos no ocurren por separado. Rosch considera que el mundo posee en sí mismo una estructura correlacional que es la base de las categorías naturales.

En segundo lugar, esta estructuración no sólo alcanza a las relaciones entre rasgos, sino también a la existencia de niveles de abstracción o de inclusión jerárquica. Se cree en la existencia de un nivel básico de abstracción, en el que la economía cognitiva en la categorización sería óptima. Por último, Rosch piensa que, aunque la estructura correlacional del mundo no es perfecta, siendo de hecho un continuo estimular, la estructura de las categorías se ve completada mediante su representación en forma de los ya mencionados prototipos, que además de preservar esa estructura correlacional, permiten fragmentar el continuo estimular en unidades discretas.

Según estos principios, los conceptos poseen una doble estructura. En primer lugar, tienen una estructura vertical, según la cual, todo concepto está incluido en una jerarquía de niveles de abstracción que comprende tres niveles: un nivel básico, en el cual los sujetos aprenden fácilmente los nombres, tienen pronto acceso a éstos, los recuerdan de inmediato, etc. Los objetos pertenecientes a este nivel básico dentro de una categoría comparten similitudes perceptuales y rasgos funcionales. Por ejemplo, en el ámbito del mobiliario, una silla es un objeto de nivel básico; en el del mundo animal, lo es un perro o un pájaro. Los objetos de nivel básico contrastan con los de un nivel superior llamado supraordinado (el mobiliario, respecto de la silla; el reino animal, respecto del pájaro o perro), y también con otro nivel subordinado (la mecedora, respecto de la silla; el tordo, respecto del pájaro). Los niños pequeños tienen gran propensión a designar todos los objetos en el nivel básico. En definitiva, los individuos llegan a ser capaces de designar y clasificar objetos pertenecientes a estos diversos niveles, pero tienden a adherir siempre al nivel básico de organización.

Al proponer estas ideas, se desafían cada uno de los principios fundamentales en que se sustentaba la concepción clásica. Antes que arbitrarias, las categorías son vistas como motivadas. Ellas reflejan la estructura perceptual del sujeto, el sujeto no es pasivo, se enfatiza la clase de acciones que una persona puede llevar a cabo y la estructura física y material del mundo. No están conformadas por características definitorias, como ya hemos visto, sino que albergan prototipos y los miembros menos prototípicos de ellas son aprehendidos según el grado en que se asemejen a éste. Las categorías poseen una estructura interna y esto a su vez tiene consecuencias psicológicas: como ya fue mencionado, los conceptos del nivel básico resultan los más prontamente designados y recordados.

En cuanto a su formación, Rosch postula que los conceptos se desarrollan a través de los mismos principios que gobiernan la formación de las propias categorías: "la

Page 45: Inteligencia artificial isc

maximización" de la validez de las claves y del parecido categorial (Pozos, l997). La validez de las claves es un concepto propuesto por Rosch para explicar la adquisición de los conceptos. Según la cual "la validez de una clave dada x como predictora de una categoría y la probabilidad condicionada x/y se incrementa a medida que aumenta la frecuencia con la que la clave x se asocia a la clase y "y" disminuye a medida que aumenta la frecuencia con la que la clave x se asocia a otras categorías distintas de y". (Rosch, 1978, en Pozo, l997, pag. 97). El prototipo sería, según la formulación de Rosch, el ejemplar, real o ideal, de los atributos más frecuentes.

En todos estos procederes y acciones, se postula la presencia de la mente como motora del proceso perceptual, mientras que en la teoría clásica, adoptada por el enfoque conductista, es la conducta la que da el significado al concepto, una vez que ésta ha sido disparado.

Según Rosch, como ya hemos mencionado, la formación de conceptos se inicia en las categorías básicas; se aprenden por medio de la percepción visual y la interacción sensoriamotriz con el objeto y, de esta forma, serían las primeras divisiones del mundo. Aunque no es parte del presente trabajo, se puede mencionar en este punto que lo anteriormente expuesto nos llevaría más adelante al proceso constructivista, donde el sujeto es activo en la construcción de la realidad que lo rodea.

Por otro lado, los partidarios de la teoría del ejemplar, son aquellos que interpretan que las categorías están representadas por aquél concepto (el ejemplar) que recoge los rasgos más comunes en la misma. Estos conceptos se adquieren y almacenan como casos individuales. La atribución de un estímulo nuevo a una categoría se produce por un proceso de comparación con los ejemplares almacenados en la memoria, componente presente en la teoría cognitiva del PROCESAMIENTO DE LA INFORMACIÓN. La formación de conceptos se basa entonces, en un proceso de comparación de similaridad en la memoria de trabajo. Los conceptos no se almacenan, sino que se forman de manera ad hoc en el momento de su uso.

Los defensores de la teoría del ejemplar no son muy específicos con respecto a los procesos de aprendizaje. Rechazan la abstracción como proceso básico para la adquisición de conceptos, pero no formulan ninguna alternativa coherente a la abstracción, que es el proceso aceptado por posiciones asociacionistas. Pozos considera que en su formulación es insuficiente como teoría de conceptos. Sin embargo, se muestra como una teoría eficaz desde el punto de vista representacional y se ajusta a las demandas de las nuevas teorías computacionales, basadas en representaciones implícitas más que explícitas (modelos mentales o de memoria distribuida en lugar de esquemas o prototipos).

Este éxito empírico y esta adecuación con respecto a las nuevas teorías computacionales puede resultar engañoso, ya que estas teorías no pueden dar cuenta de la formación de conceptos más allá del laboratorio. Las situaciones experimentales son restrictivas: pruebas de retención a corto plazo, situaciones artificiales en lugar de naturales y otras variables de interacción.

Datos empíricos y estudios llevados a cabo por enfoques cognitivistas, nos dicen que los conceptos son una abstracción, y ésta es la idea de los partidarios del prototipo, cuyas características ya han sido presentadas.

2.2.1 – LUDWIG WTTGESTEIN: LA PRECISIÓN.

A comienzos del siglo, Wittgetein (Gardner, l998) – que no sólo fue uno de los sostenedores del Círculo de Viena, sino su inspirador – había subrayado la importancia de la lógica y la necesidad de precisión en el lenguaje, así como la conveniencia de guardar silencio cuando fuera imposible alcanzar esa precisión lingüística.

Page 46: Inteligencia artificial isc

Para mencionado autor, el lenguaje es un conjunto vago y fragmentario de elementos, y un medio de comunicación indispensable para los individuos; pero tanto puede iluminar las cosas como oscurecerlas, ya que es la red a través de la cual pasa necesariamente cualquier otra experiencia. Los conceptos no son ni constructos mentales ni ideas abstractas existentes en el mundo, sino que deben ser capacidades que los individuos pueden emplear de una manera aceptable para el resto de su comunidad; dicho en términos generales, los conceptos no son sino una manera de realizar cosas.

Wittgestein era escéptico al respecto: lo máximo que un analista puede esperar, es comprender mejor cómo opera el sistema de la lengua y cómo han llegado a plasmarse nuestras ideas merced a prácticas lingüísticas de nuestra comunidad. Todo empeño por averiguar lo que realmente acontece, dejando de lado el lenguaje y tomando los conceptos como entidades aisladas, está condenado al fracaso. Y la glorificación de la lógica o de conceptos abstractos desprovistos de utilidad dentro de la comunidad a la que pertenece es irrelevante y carece de fundamentos filosóficos.

Sea como fuere, como ya fue dicho anteriormente, la formación de conceptos en la mente humana ha sido y será fuente de investigación y debate. De hecho, comienza a aceptarse la idea de que en la formación de conceptos conviven dos tipos de estructura y de procesos. Por un lado, los conceptos tienen un procedimiento de identificación que responde a los modelos probabilísticos; por otro lado, tienen un núcleo que parece adoptar una estructura lógica, consistente con la posición clásica. De esta forma han comenzado a surgir modelos duales de la formación de conceptos, que asumen la coexistencia entre ambos tipos de estructuras.

Veremos ahora un análisis de los programas que intentaron explicar la formación de conceptos desde su enfoque particular. Me limitaré a la presentación del programa Conductista y al programa Cognitivo del Procesamiento de Información.

3. - EL PROGRAMA CONDUCTISTA.

3.1 - PRESENTACIÓN HISTÓRICA DEL CONDUCTISMO Y CARACTERÍSTICAS.

En 1913, John Watson lanzó la revolución conductista, afirmando que el tema de estudio adecuado de la psicología no era el funcionamiento de la mente sino el examen de la conducta objetiva y observable. Basándose en estudios fisiológicos, propuso que todas las actividades psicológicas podían explicarse comprendiendo los reflejos que se establecen en las porciones superiores del sistema nervioso. Esta era una psicología molecular, pura y simple, que iba de lo particular a lo general.

Watson rechazaba gran parte del programa de la psicología tradicional y casi todos su métodos: no más sensaciones o intenciones, a partir de entonces, sólo era pertinente la observación de la conducta manifiesta. La descripción y explicación de los estados y contenidos de la conciencia debía ser reemplazada por la predicción y eventualmente el control de la conducta. Los términos mentalistas quedaban expulsados del vocabulario del psicólogo.

Toda una generación de científicos se formó en esta órbita: Clark Hull, B.F. Skinner, Kenneth Spence, E.L. Thorndike contribuyeron a asegurar que entre 1920 y 1950 la psicología en los Estados Unidos fuera conductista. Acá podemos hablar de una ruptura entre las posiciones anteriores y las ya mencionadas aceptadas por la comunidad científica del momento. Una autoridad tan eminente como el New York Times declaraba en 1942 que el conductismo había inaugurado una nueva época intelectual del hombre. La ruptura se había dado con respecto al método científico implementado anteriormente a esta revolución: la introspección, vale decir, la autoreflexión de un observador bien adiestrado acerca de la naturaleza y decurso de sus propias pautas de pensamiento. Aunque esta introspección fue sugestiva, no generó esa acumulación de saber que es decisiva para toda ciencia. El

Page 47: Inteligencia artificial isc

introspeccionismo, entonces cayó bajo su propio peso y fue derribado agresivamente por el programa de investigación que en ese momento lo superó.

Un elemento decisivo del canon conductista era la supremacía y el poder determinante del medio. Consideraban que los individuos no actuaban de la manera en que lo hacían a raíz de sus propias ideas y propósitos, o porque su aparato cognitivo poseyera ciertas tendencias estructurantes autónomas, sino que operaban como reflectores pasivos de diversas fuerzas y factores presentes en el medio. Se postularon los principios de condicionamiento y refuerzo para describir cómo se producía el aprendizaje. Los conceptos, por ejemplo, según la tradición clásica descripta anteriormente, se adquirirían a través de cadenas asociativas simples entre un estímulo y una respuesta.

2. – EL NÚCLEO CENTRAL DEL PROGRAMA CODUCTISTA.

El núcleo central del conductismo está constituido por su concepción antimentalista. Es la versión más cruda del asociacionismo. Situado en la tradición asociacionista que nace con Aristóteles, el conductismo comparte la teoría del conocimiento del empirismo inglés, cuyo exponente es Hume, quien postuló que el conocimiento humano está constituido exclusivamente de impresiones recibidas a través de los sentidos (Carpio, l977). Las ideas que se forman de esas impresiones son copias que recoge la mente y que perduran una vez que desaparecen las impresiones. El conocimiento se alcanza mediante la asociación de ideas según los principios de semejanza, contigüidad espacial y temporal y causalidad. Estos son los principios básicos del pensamiento en el empirismo de Hume. Con diversas variantes, todos los conductistas se basan en estos principios para la descripción y explicación de la conducta humana y animal (Crystal, 1971).

Dado que inicialmente somos, según el conductismo, una "tabula rasa" y todo lo adquirimos del medio por mecanismos asociativos, reforzados por la recompensa y el castigo, es lógico que esta teoría tomara como área fundamental de estudio el aprendizaje. La estructura de la conducta es una copia de las contingencias o covariaciones ambientales.

Analicemos la concepción antimentalista de este programa. No es que nieguen la existencia de la mente, sí rechazan el uso de la introspección. El estudio científico debe ser llevado a cabo, como fue presentado anteriormente, a través de métodos objetivos, es decir, índices conductuales. La mente, de existir, es necesariamente una copia de la realidad, un reflejo de ésta y no al revés. Este es el principio de correspondencia que también sería uno de los rasgos nucleares del conductismo. El control de la conducta reside en el medio: se considera que el aparato mental es un sustituto interno de las contingencias del ambiente.

Otro rasgo importante de esta corriente es el anticonstructivismo, por lo cual el sujeto es pasivo, sujeto a una reacción estímulo-respuesta, simple y atomista. Se define al aprendizaje como "cambio de la conducta" e implica una conducta por parte del sujeto como respuesta al estímulo dado (Bayés,1980). El principio motor de la conducta está fuera del individuo. El aprendizaje siempre es iniciado y controlado por el ambiente y se realiza por asociación.

Este enfoque simple, que desprecia las diferencias individuales – el conductismo establece la equivalencia entre todos los organismos de una misma especie (todas la "tabulas rasas" se parecen) – se complementa bien con la teoría clásica de los conceptos, donde el conjunto de atributos definen en forma demarcativa y diferencia un concepto de otro, lo cual como ya vimos, no es tan simple en la psiquis humana.

Page 48: Inteligencia artificial isc

3. – LA CRISIS DEL CONDUCTISMO.

A pesar de disponer de un núcleo teórico y metodológico común, consistente en un antimentalismo y asociacionismo psicológico, y una concepción positivista del método científico, el conductismo fue incapaz de elaborar la teoría unitaria del aprendizaje que buscaba.

Este programa dejó de ser progresivo, en la terminología de Lakatos, siendo incapaz de predecir hechos nuevos, sino incluso de explicar las múltiples anomalías que en el curso de sus experimentos sobre condicionamiento iban surgiendo. En estas condiciones, el programa conductista se hallaba escasamente preparado para afrontar la irrupción de un nuevo enfoque psicológico: EL PROCESAMIENTO DE LA INFORMACIÓN.

Como vemos, los excesos en que incurrió el introspeccionismo a principios de siglo fueron reemplazados, a su vez por los excesos del conductismo de la primera parte del siglo XX.

4 - LA REVOLUCIÓN COGNITIVA.

A mediados del siglo XX se hallaban en camino de ser develados dos de los mayores misterios de la época antigua: la naturaleza de la materia física y de la materia viva. Pero aún debía alcanzarse una elucidación semejante para un tercer misterio que también fascinó a los antiguos: el enigma de la mente humana. (Gardner, 1996) Aquí comienza un camino que data de épocas antiguas, de ideas innatas, que asociamos con los griegos. Ya a comienzos de la Edad Moderna, Descartes se presenta como el antecedente filosófico de la ciencia cognitiva, quien otorgó un lugar de privilegio a la mente, la cual concebía las ideas de los individuos (Carpio, l974). Como vemos, este interés por el estudio de la mente no es tan reciente, sin embargo, se vio retrasado por diferentes causas que veremos a continuación.

El lanzamiento apropiado de una ciencia de la cognición fue impedido por diversos factores, desde el auge del conductismo, como ya hemos visto, a causas presentadas por otras escuelas filosóficas como el positivismo, el fisicalismo, el verificacionismo, que descartaban toda entidad (como un concepto o una idea) que no pudiera ser fácilmente observable y mensurable.

Por otro lado, y no menos interesante, la situación política mundial ejerció un efecto inhabilitante sobre la ciencia. En primer lugar, la comunidad científica europea fue desgarrada por el auge del totalitarismo, y en cuanto a los Estados Unidos, se le pidió que dejara de lado sus programas teóricos a fin de contribuir al esfuerzo bélico. Es así como se produce la revolución tecnológica impulsada por las necesidades bélicas de la Segunda Guerra Mundial, dando como resultado un perfeccionamiento en el uso de las computadoras y la apertura del nuevo mundo científico abierto por "las ciencias de lo artificial".

El año 1956 suele concensuarse como fecha de inicio de la nueva psicología cognitiva. Ese año se publicaron algunos de los trabajos fundacionales del nuevo movimiento que ayudaron al triunfo de la revolución.

Por ejemplo, las ideas de la Teoría de la Comunicación sostenían que los seres humanos tenemos capacidades de recepción de información a través de "canales". En ese año Miller publica su artículo "El Mágico Número Siete" donde explica nuestra capacidad para procesar información precisamente gracias a esos canales. También aquel año Chomsky daba a conocer sus ideas sobre la nueva lingüística, basada en reglas formales y sintácticas, próximas a las formalizaciones matemáticas (Lyons,1977). Además de otros autores como Newell y Simon, quienes presentaron un programa de ordenador capaz de hacer la demostración de un teorema. Comienza aquí la marcha de la inteligencia artificial.

La invención de la computadora contribuía a resolver el clásico problema de la relación mente- cuerpo: software o soporte lógico y hardware o soporte técnico. Era clara la analogía con el sistema humano y los procesos de pensamiento. Los seres humanos, al igual que las computadoras, albergaban programas y era posible invocar el mismo lenguaje simbólico para

Page 49: Inteligencia artificial isc

describir los programas de ambas entidades. Por ejemplo, se puede concebir un programa alimentado con conceptos de una de las teorías probabilísticas mencionadas: el ejemplar. Estos sistemas simbólicos son entidades materiales capaces de procesar, transformar, elaborar y manipular símbolos de diversas especies.

Como vemos, al núcleo antimentalista del programa conductista se le opone el núcleo mental del nuevo programa que analizaremos a continuación.

4.1 – EL PROCESAMIENTO DE INFORMACIÓN: AUTORES

REPRESENTATIVOS.

La psicología cognitiva refiere la explicación de la conducta a entidades mentales, a estados, procesos y disposiciones de naturaleza mental. De acuerdo a esta definición de psicología cognitiva, no sólo entraría el procesamiento de información, sino el constructivismo de autores como Piaget y Vygotski. He recortado el objeto de estudio al primero por una cuestión de extensión en el análisis. Sin embargo, cabe aquí mencionar que todos ellos coinciden en que la acción del sujeto está determinada por sus representaciones. El procesamiento de información en su versión fuerte propone que estas representaciones están constituidas por algún proceso de cómputo.

La concepción del ser humano como procesador de información se basa en la aceptación de la analogía entre la mente humana y el funcionamiento de una computadora. Se adoptan los programas de una computadora como metáfora del funcionamiento cognitivo humano ya que ambos, mente y computadora, procesan información.

Según esta idea, el ser humano y la computadora, son sistemas de propósitos generales equivalentes, que intercambian información con su entorno mediante la manipulación de símbolos. Ambos son sistemas cognitivos cuyo alimento es la información; y aquí ésta tiene un significado matemático muy preciso de reducción de la incertidumbre.

Tanto Chomsky, como Fodor, dos cognitivistas cabales, por ejemplo, han intentado representar en forma matemática y precisa este contenido abstracto de nuestro aparato mental. Chomsky, por un lado, se ha explayado en su concepción sintáctica de la estructura profunda del lenguaje. Fodor, por otro lado, postula que las actividades cognitivas se constituyen en la manipulación de los símbolos o representaciones mentales, entidades abstractas, que no mantienen ninguna relación configuracional con las entidades que denotan. Fodor cree en la existencia de un "lenguaje del pensamiento" y afirma que lo que debe hacer una teoría de la mente consiste en caracterizar este lenguaje. Este autor explica que si los procesos mentales son computacionales, debe haber representaciones en las cuales se ejecuten tales computaciones. Así también, postula el carácter innato de este lenguaje del pensamiento: las personas nacen con un conjunto completo de representaciones en el cual pueden acuñar toda nueva forma de información que emerja de su experiencia en el mundo, es por eso que, según Fodor, los lenguajes naturales son fáciles de aprender.

Tanto Fodor como Chomsky, entonces, postulan que el individuo viene equipado con un dispositivo bien especificado y construído de manera tal que permite el aprendizaje de información nueva.

4.2 – DESCRIPCIÓN DEL PROGRAMA DEL PROCESAMIENTO DE

INFORMACIÓN.

Siguiendo a Lakatos en la descripción del programa de investigación de este enfoque cognitivo, en el paso del conductismo al procesamiento de información, se han introducido cambios radicales en cuanto al núcleo mentalista, así también como en su cinturón protector.

Page 50: Inteligencia artificial isc

Así como el conductismo se centraba en el estudio del aprendizaje mediante teorías basadas en el análisis de los estímulos y las respuestas, el procesamiento de información, en la medida en que se ocupa del estudio de las representaciones, ha generado ante todo teorías de la memoria. La propia metáfora computacional a la que ya nos hemos referido, conduce necesariamente a considerar la memoria como la estructura básica del sistema de procesamiento.

Las ideas reduccionistas del conductismo se reemplazan por procesos cognitivos causales. En lugar de posiciones ambientalistas, el procesamiento de información defiende la interacción de las variables del sujeto y las variables de la tarea o situación ambiental a la que está enfrentado el sujeto. Por último, el sujeto del conductismo, pasivo y receptivo, se convierte en un procesador de la información que busca y reelabora activamente información. Además, los procesos cognitivos son descomponibles en unidades u operaciones más simples.

Otro elemento importante en la descripción de este programa - aunque actualmente debatido en su contundencia y sobre el cual no voy a realizar crítica adversa por una cuestión de magnitud, lo cual, aunque importante, excedería el propósito de este trabajo -, es la idea que tanto los programas de las computadoras y el funcionamiento cognitivo humano están definidos por leyes sintácticas, como ya fue mencionado cuando se hizo referencia a Noam Chomsky. Estas leyes se ocupan de determinar las reglas mediante las que estas unidades se agregan hasta constituir procesos complejos. Esto significa, y aquí lo discutible, que tanto el ser humano como las computadoras están concebidos como sistemas lógicos o matemáticos de procesamiento de información, constituidos exclusivamente por procedimientos formales. Esta naturaleza sintáctica del sistema queda reflejada en su definición como un procesador de propósitos generales: la lógica computacional es suficiente por sí misma para representar cualquier conocimiento.

En cuanto a la "intencionalidad" del sujeto, en este sistema de procesamiento no hallamos propósitos ni intenciones, únicamente la satisfacción de ciertas condiciones que dispara la búsqueda de ciertas metas. Se caracteriza por remitir la explicación de las acciones y representaciones del sistema a entidades mentales tales como la memoria a largo plazo, filtros atencionales, capacidades de procesamiento limitadas, etc. Al no admitir la intencionalidad, el procesamiento de información no puede asumir la subjetividad de los estados mentales, aquí encontramos una limitación en el programa dado que la intención en el ser humano es primordial en el proceso de aprendizaje.

Siguiendo la línea crítica con respecto a este programa, podemos agregar que es improbable que el procesamiento de información pueda dar cuenta de estados mentales ya que éstos tienen un carácter semántico y todos los procesos postulados son de carácter sintáctico. Además, no puede explicar el origen de las estructuras de conocimiento que determinan la conducta de los sujetos. Aquí está su paradoja, por un lado, afirma que los sujetos construyen su propio conocimiento a partir de estructuras y procesos cognitivos, pero no explica cómo se efectúa la construcción de esas estructuras y procesos iniciales.

De esta manera, el procesamiento de información puede explicar cómo actúa el sujeto ante una tarea de decisión léxica, atribuyéndole ciertas estructuras de memoria semántica, pero no puede explicar cómo se han adquirido los conocimientos almacenados en la memoria semántica.

Otro elemento importante en el programa es el asociacionismo, diferenciado del asociacionismo conductista en cuanto a que el primero es computacional: con una extraordinaria capacidad de cómputo posibilitada por la cibernética. Otra paradoja aquí es que la computadora se presenta como un espejo de la mente sin tener mente. La memoria semántica está constituida por redes asociativas. Una computadora manipula información, no significados y ésta se mide en términos de probabilidad matemática o de reducción de la incertidumbre. Los significados necesitan una mente que los interprete, por lo tanto, lo que el procesamiento de información puede hacer es ocuparse de señales, o sea, de signos vacíos, no de signos, de significantes portadores de sentido. Haciendo un paralelo con el programa

Page 51: Inteligencia artificial isc

anteriormente descripto, desde un punto de vista semántico, los símbolos con los que opera una computadora son equivalentes a la campana de los célebres experimentos de Pavlov: señales que "disparan" acciones; no son vehículos de conocimiento ni de comprensión.

Ante todo lo presentado, queda claro que el procesamiento de información en su forma cibernética: la inteligencia artificial, no puede dar cuenta de procesos de aprendizaje o formación de conceptos, tema subyacente de este trabajo de análisis comparativo.

La imposibilidad del asociacionismo para proporcionar una teoría del aprendizaje lingüístico ha sido reconocida por diversos autores. Mencionaremos aquí nueva y brevemente a Noam Chomsky y a Jerry Fodor, quienes postulan el innatismo como única explicación ante los procesos de aprendizaje. Fodor, por ejemplo, considera que la idea de una teoría de un aprendizaje de conceptos es inicialmente confusa y que no se puede explicar la aparición de significados nuevos. Como el sistema es incapaz de generar nuevos primitivos semánticos, todos los significados han de ser innatos, a la espera de ser "fijados" o "descubiertos". ¡Volvemos aquí a las ideas innatas de Platón!

Los procesadores computacionales, entonces, no aprenden, sino que se limitan a descubrir el conocimiento que siempre ha anidado, oculto en ellos. Según el procesamiento de información, no construímos significados, simplemente lo reconocemos y lo "activamos".

Como ya ha sido mencionado anteriormente, el tema de la adquisición de conceptos es extenso, así como lo es también el tema de la psicología cognitiva. Por motivos de extensión no vamos a mencionar otros autores, que si bien son importantes, su presentación excedería el objetivo del presente trabajo. Queda por destacar, sí, la importancia de las investigaciones en el campo de la ciencia cognitiva, que día a día aumentan en cantidad y calidad.

Para finalizar, mencionaremos reflexiones de Pozos con respecto a la diferencia del programa conductista y el procesamiento de información en su versión computacional. De acuerdo con Pozos (1997), la imposibilidad de proporcionar una teoría del aprendizaje por parte del procesamiento de información, se origina en el propio núcleo conceptual del programa, que, según el autor mencionado, a pesar de su apariencia revolucionaria, continua con la tradición del conductismo. Aquí podríamos concordar, ya que realmente, ambos programas son netamente mecanicistas. Pozos afirma que el programa no es progresivo y que sus limitaciones son las que precisamente aquejaban al conductismo.

En cuanto a limitaciones se refiera, es interesante mencionar lo que ha sido denominada la "paradoja computacional". Irónicamente, la aplicación rigurosa de los métodos y modelos extraídos del ámbito computacional ha llevado a los científicos a comprender en qué aspectos los seres humanos no se asemejan a las computadoras. Esto no significa, por supuesto, que no haya procesos cognitivos semejantes a los de las máquinas cibernéticas; pero significa que la concepción lógica y racional sobre la cognición humana no describe en forma apropiada gran parte del pensamiento y la conducta de los hombres.

La ciencia cognitiva puede seguir adelante, pero surge el interrogante de si debemos buscar modelos más verídicos del pensamiento humano. Así, la ciencia cognitiva se encuentra ante un desafío y se espera de ella que logre una articulación entre los aspectos computacionales, los aspectos cognitivos del lenguaje y la percepción, los antropológicos y los neurocientíficos, tarea vasta para los años por venir.

CONCLUSIÓN.

En los últimos siglos dos temas importantes han aparecido recurrentemente en la filosofía. El primero se refiere a la tensión entre racionalistas y empiristas. Los racionalistas creen que la mente posee un poder de razonamiento y que impone ese poder al mundo de la experiencia sensorial; los empiristas, por otro lado, creen que los procesos mentales reflejan las impresiones sensoriales externas o se construyen sobre las bases de éstas.

Page 52: Inteligencia artificial isc

Tanto Platón como Descartes adhirieron al extremo racionalista de esta polaridad, en tanto que muchos de los empiristas posteriores, Hume entre otros, reaccionaron frente a ellos. En el siglo XX, el programa de investigación conductista – siguiendo la nomenclatura de Lakatos- fue el resultado de este enfoque empirista y válido por muchos años en el campo de la psicología tanto animal como humana. Este programa adhirió a la concepción clásica de los conceptos, como abstracciones de atributos, con límites definidos y claros. El aprendizaje se desarrollaba en bases asociacionistas y su recorte de estudio fue la conducta observable, la mente un reflejo de la realidad que no valía la pena estudiarse. Su núcleo fue, entonces, antimentalista.

A partir de la segunda mitad del siglo XX, se produce un cambio de programa de investigación, dado que el nuevo presenta un núcleo diferente del anterior. Era menester demostrar las insuficiencias del enfoque conductista y, en segundo lugar, el advenimiento de la computadora daría el impulso final para esta nueva ciencia. Nos referimos aquí al cognitivismo, cuyo núcleo es la mente. Los cognitivistas abrazan al racionalismo. Las cuestiones planteadas por Descartes y sus contemporáneos, se han convertido, unos siglos más tarde, en el objeto de psicólogos, lingüistas y neurocientíficos. No sólo eso, las reflexiones cartesianas como posible autómata son hoy centrales en toda la esfera de la inteligencia artificial.

Si bien dentro del cognitivismo, el procesamiento de información no puede dar total cuenta de la formación de conceptos y el aprendizaje, se ha abierto un camino para futuras investigaciones dentro de esta área. La concepción clásica de los conceptos se ha visto reemplazada por teorías probabilísticas, donde el concepto ya no es delimitado, sino que posee límites difusos y forma parte de una red en la cual, podríamos decir, "interactúa".

Así como el programa conductista fue reemplazado, a causa de sus limitaciones y anomalías, por el nuevo programa cognitivista, debemos recordar que el conductismo surge de los excesos y anomalías no resueltas del programa anterior. Cabe destacar, entonces, que si bien el nuevo programa puede presentarse como progresivo, en términos de Lakatos, es notable y evidente nunca está dada la última palabra en cuanto a conocimiento se refiere. Seguiremos, entonces, haciéndonos la pregunta que no ha sido totalmente contestada:

¿Cómo llega una persona a conocer algo?

http://www.monografias.com/trabajos15/conductismo-cognitivismo/conductismo-cognitivismo.shtml

De los años 20 a los 50

El concepto de inteligencia emocional, aunque esté de actualidad, tiene a nuestro parecer un claro precursor en el concepto de Inteligencia Social de Thorndike (1920, p. 228) quien la definió como "la habilidad para comprender y dirigir a los hombres y mujeres, muchachos y muchachas, y actuar sabiamente en las relaciones humanas". Para Thorndike además de la inteligencia social existen también otros dos tipos de inteligencias: la abstracta -habilidad para manejar ideas- y la mecánica- habilidad para entender y manejar objetos- .

En los años 30 con el auge del conductismo entramos en una larga etapa de "silenciamiento" de los procesos no directamente observables como la inteligencia. No obstante, aparecen algunos trabajos en esta época como los de Wechsler con el diseño de las dos baterías de pruebas de inteligencia: para adultos (1939) -WAIS- y el de niños (1949) -WISC-. Ambas siguen siendo utilizadas hoy en día.De los 50 a la actualidadEl debilitamiento de las posturas conductistas y la emergencia de los procesos cognitivos aparecen con el estructuralismo. Los trabajos de Piaget y su teoría sobre el desarrollo intelectual contrasta visiblemente de las posturas psicometricistas y del procesamiento de la información (Hardy, 1992). Desde el procesamiento de la información se desarrollan dos enfoques: por un lado, el de los correlatos cognitivos en el que el estudio de la inteligencia se ha llevado a cabo seleccionando una capacidad que pueda medirse en un test; por otro lado, el de los componentes cognitivos en el que su interés estriba más bien en conocer qué es lo que mide un test de inteligencia.

Page 53: Inteligencia artificial isc

Aparece el modelo computacional y el interés por el estudio de la inteligencia artificial. Con ello llega, a nuestro juicio, uno de los errores más graves de las teorías cognitivas. Cuando se estudian los procesos cognitivos sobre inteligencia artificial lo que estudiamos es la inteligencia computacional y no la humana. Siguiendo a Marina (1993), si bien es cierto que las ciencias cognitivas han realizado aportaciones valiosas muy aprovechables, la labor pendiente es la elaboración de una ciencia de la inteligencia humana, donde no se trate sólo de lógica formal, sino también de lógica inventiva, no sólo de razón sino también de emoción y de sentimientos.La idea que subyace a la inteligencia actualmente es la capacidad de adaptación (Sternberg, 1997). Es como si la idea de la globalización hubiese llegado a este campo de estudio de la Psicología, donde la inteligencia está muy vinculada con la emoción, la memoria, la creatividad, el optimismo, la personalidad y en cierto sentido con la salud mental.Cómo llegamos al concepto de IEEn 1983, Gardner publica "Frames of Mind", donde reformula el concepto de inteligencia a través de la teoría de Inteligencias Múltiples. De esta manera, Gardner sostiene que poseemos 7 tipos de inteligencia distintas, cada una de ellas relativamente independiente de las otras -Inteligencia musical, I. quinestésica-corporal; I. lógico-matemática; I. Lingüística; I. Intrapersonal e I. Interpersonal- (Gardner, 1983; Walters y Gardner, 1986; Krechevsky y Gardner, 1990). Esta teoría, introdujo dos tipos de inteligencias muy relacionadas con la competencia social, y hasta cierto punto emocional, la Inteligencia Interpersonal y la Inteligencia Intrapersonal. Gardner (1983,1993) definió a ambas como sigue: "La Inteligencia Interpersonal se construye a partir de una capacidad nuclear para sentir distinciones entre los demás: en particular, contrastes en sus estados de ánimo, temperamentos, motivaciones e intenciones. En formas más avanzadas, esta inteligencia permite a un adulto hábil leer las intenciones y deseos de los demás, aunque se hayan ocultado... " (Gardner, 1993: 40)Y a la Inteligencia Intrapersonal como "el conocimiento de los aspectos internos de una persona: el acceso a la propia vida emocional, a la propia gama de sentimientos, la capacidad de efectuar discriminaciones entre las emociones y finalmente ponerlas un nombre y recurrir a ellas como un medio de interpretar y orientar la propia conducta..." (Gardner 1993: 42) Quizás esta última, tiene algo más de relación tiene con nuestro constructo teórico de interés, la inteligencia emocional.En la actualidad, Goleman (1996, p. 74), interpreta y resume estas dos capacidades, propuestas por Gardner, como "la capacidad de discernir y responder apropiadamente a los estados de ánimo, temperamentos, motivaciones y deseos de las demás personas" en referencia a la inteligencia interpersonal, y en cuanto a la inteligencia intrapersonal como "la capacidad de establecer contacto con los propios sentimientos, discernir entre ellos y aprovechar este conocimiento para orientar nuestra conducta".El concepto de inteligencia emocional nace con la necesidad de responder a una cuestión que puede parecer simple: ¿Por qué hay personas que se adaptan mejor que otras a las diferentes contingencias de la vida?En 1966, Leuner desarrolla un trabajo en el que vincula el papel de la familia y el desarrollo de la IE en la etapa preverbal del niño, aunque el concepto de IE no queda suficientemente desarrollado. El concepto de IE fue más desarrollado Peter Salovey, quien la definió como "un tipo de inteligencia social que incluye la habilidad de supervisar y entender las emociones propias y las de los demás, discriminar entre ellas, y usar la información para guiar el pensamiento y las acciones de uno" (Mayer y Salovey, 1993: 433). Según Salovey y Mayer (1990), este concepto de IE subsume a los conceptos de inteligencia intrapersonal e interpersonal que propone Gardner (1983), dándole además un enfoque menos cognitivo, pero añadiéndole el componente emocional que Gardner obvia, probablemente por estar inmerso del "Zeitgeist" de la época, a principios de los ochenta cuando Gardner define estas inteligencias por primera vez, donde la Psicología Cognitiva predominaba como paradigma. Este concepto propuesto por Salovey y Mayer incluye además el hecho de que son metahabilidades que pueden ser categorizadas en cinco competencias o dimensiones (Salovey y Mayer, 1990; Mayer y Salovey, 1993, Mayer y Salovey, 1995, Goleman, 1996 y Goleman 1998):

1.- El conocimiento de las propias emociones. Es decir, el conocimiento de uno mismo, la capacidad de reconocer un mismo sentimiento en el mismo momento en que aparece,

Page 54: Inteligencia artificial isc

constituyendo la piedra angular de la IE2.- La capacidad para controlar las emociones. La conciencia de uno mismo es una habilidad básica que nos permite controlar nuestros sentimientos y adecuarlos al momento.3.- La capacidad de motivarse a sí mismo. Con esto Salovey y Mayer, y más tarde Goleman, quieren hacernos entender que el control de la vida emocional y su subordinación a una meta puede resultar esencial para "espolear" y mantener la atención, la motivación y la creatividad. Es decir, esta habilidad ayuda a aumentar la competencia no sólo social sino también la sensación de eficacia en las empresas que se acometen. Este aspecto se relaciona también con el concepto de Inteligencia Exitosa propuesto actualmente por Sternberg (1998).4.- El reconocimiento de las emociones ajenas. La empatía, es decir, la capacidad para poder sintonizar con las señales sociales sutiles indican qué necesitan o qué quieren los demás.5.- El control de las relaciones. Es una habilidad que presupone relacionarnos adecuadamente con las emociones ajenas.

http://www.capitalemocional.com/articulos/iemo_constructo.htm

Definición y concepción básica ¿qué es el conductismo?

No hay unanimidad de criterios al denominar al conductismo o a la terapia conductista. En general no se la considera una escuela psicológica sino más bien como una orientación clínica, que se enriquece con otras concepciones. La historia de esta terapia ha evolucionado bastante por lo que hoy sería difícil que una persona se autodefina como un conductista puro o clásico. Por esta razón otros autores no conductistas llaman a los continuadores de los lineamientos conductistas como “neo-conductistas”, pero esto tampoco satisface a los protagonistas.

Cuando se habla de conductismo aparece una referencia a palabras tales como “estímulo” “respuesta” “refuerzo”, “aprendizaje” lo que suele dar la idea de un esquema de razonamiento acotado y calculador. Pero ese tipo de palabras se convierten en un metalenguaje científico sumamente útil para comprender la psicología. Actualmente nadie acotaría la terapéutica solamente esos ordenadores teóricos, hasta los clínicos que se definen como conductistas usan esos elementos como punto de partida, pero nunca se pierde de vista la importancia interpersonal entre el paciente y el terapeuta, ni la vida interior de un ser humano, ni otros elementos, técnicas, teorías, inventivas que sirven para la tarea terapéutica. En este sentido, en los comienzos del conductismo se desechaba lo cognitivo, pero actualmente se acepta su importancia y se intenta modificar la rotulación cognitiva (expectativas, creencias actitudes) para reestructurar las creencias irracionales del cliente buscando romper los marcos de referencia que pueden ser desadaptativos.

Frente a determinados estímulos, se puede mostrar un repertorio conductual adecuado pero puede responderse erróneamente a otros. Un ejemplo común al respecto es cuando un padre entrena sin quererlo a su hijo en algún tipo de estímulo discriminatorio inadecuado, por ejemplo cuando afirma sobre su hijo que este solo le hace caso cuando se le grita. En este proceso, aunque las respuestas estén bien aprendidas, suelen ser desadaptativas. Para modificarlas se elabora un plan con respuestas potenciales ante un problema dado. Ocurre que el hábito que se quiere cambiar, es una conducta que en determinados casos se convierte o se constituye directamente como desadaptativa.

Es importante estructurar la terapia con el cliente, describir el modo de aprendizaje social de la conducta desadaptativa, explicar en que consiste el tratamiento, cuales son las etapas etc. El objetivo se convierte en la modificación de las conductas, y es clave determinar claramente este y otros objetivos, es decir cuales son las conductas desadaptativas que deben modificarse.

Page 55: Inteligencia artificial isc

En primer lugar se prepara al cliente sobre los lineamientos de un tratamiento, luego se seleccionan situaciones conflictivas que se deben cambiar en las cuales se evidencia la problemática a tratar, para esto primero se llega a imaginar situaciones interpersonales en el consultorio, luego a simular estas circunstancias probando una modificatoria de la conducta propiamente dicha, para poder lograr paulatinamente el desempeño de nuevas conductas frente a situaciones reales. Más tarde se insistirá en la llamada “exposición en vivo”, que es la exposición gradual a situaciones análogas a las que fueron tratadas durante la desensibilización imaginaria. Se busca así un nuevo desempeño frente a un nuevo rol en situaciones reales, al seguir con éxito una pauta formulada en el consultorio, pero ahora ensayada en vivo.

Hay que tener en cuenta que en las conductas aparecen refuerzos, que es cuando un acontecimiento acrecienta la posibilidad de la conducta a la que sigue. Hay refuerzos positivos y negativos (si disminuye la probabilidad de la conductas que continúa). En el consultorio se pautan cuales son los refuerzos positivos y cuales los negativos, como llegar a condicionar mediante estos refuerzos la evitación de conductas desadaptativas y el fomento de otras que no lo son.

Es común que los clientes se manejen dentro de un contexto de “autoconcepto negativo”, lo que constituye una actitud negativa respecto a la propia conducta. Por ello se debe trabajar en la eficacia de las conductas de interrelación del cliente. En este sentido la falta de asertividad, suele implicar un déficit conductual adecuado, por lo que se utilizan técnicas para fomentarla, y crear un marco social más favorable. 

Es claro que el terapeuta influye de manera significativa durante las sesiones de terapia, se pasa de operar en primer lugar en un ambiente controlado (por ejemplo el consultorio) para llegar a una aplicabilidad significativa en la vida del cliente, mediante un condicionamiento operante en el ámbito interpersonal.

Una de las técnicas empleadas es la utilización de metodologías de relajación. Esta actitud se basa en la concepción que los pensamientos y sentimientos tienen una localización en lo muscular. Por lo tanto el entrenamiento de la relajación reduce la ansiedad. Se persigue así la llamada “desencibilización sistemática” para reducir la ansiedad injustificada ante ciertas situaciones, con la consigna de relajarse ante la aparición de tensión.

La terapia conductista se centra en el presente del sujeto, aunque no niega el pasado ni lo descarta, pero considera que ese pasado no continúa siendo activo en el presente de un paciente, aunque reconoce la importancia de las experiencias de aprendizaje previas.

Por el contrario de escuelas como las de C. Rogers, que plantean el autocontrol y la “no dirección” del cliente, el conductismo cree que si alguien requiere ayuda es porque necesita intervenciones terapéuticas dirigidas y sistemáticas, que deberán realizarse basadas en la inventiva profesional.   Concepto de caja negra la lectura pragmática de Watzlawick et al. (1965) da lugar, paradójicamente, a una versión interaccional de la "caja negra" del conductismo. De hecho, el grupo de Palo Alto reivindica explícitamente el concepto de caja negra y afirman que: Si bien es cierto que algunas relaciones permiten hacer deducciones con respecto a lo que "realmente" sucede en el interior de la caja, tal conocimiento no resulta esencial

Page 56: Inteligencia artificial isc

para estudiar la función del aparato dentro del sistema más amplio del que forma parte (Watzlawick et al., 1965, p. 44).

http://www.clinicapsi.com/conductismo.html

Durante más de dos mil años la psicología ha sido entendida en su sentido etimológico de "disciplina que tiene por objeto el alma". En efecto, "psique", quiere decir alma, y por consiguiente psicología significa "el estudio del alma".

Cuando en 1700 y luego en 1800 empezó a abrirse camino la idea de que la psique podía conocerse mejor a través del análisis basado en la experiencia, se crearon las premisas para un cambio en el método de investigación que habrían dado paso al nacimiento de la psicología científica. Pero el objeto de la psicología continuó siendo el mismo, es decir, la psique, aunque su carácter de sustancia (el alma) se había ido sustituyendo por su aspecto fenoménico (la conciencia) y muchos investigadores parecían preferir el análisis de reacciones precisas antes que el examen introspectivo de la conciencia. Probablemente, muy pocos habrían puesto en duda que la psicología podía tener otro objeto de estudio, ya que, al renegar de dicho objeto, se habría negado a sí misma por definición.

El conductismo representa la revolución más radical en el enfoque de estudio de la psicología, ya que no sólo considera que le compete también la conducta observable, sino que llega a rechazar a veces que se tenga que ocupar de la conciencia. Desde cierta perspectiva, se podría decir que el conductismo propone una nueva disciplina con un diverso objeto de estudio, a no ser porque su propósito, de explicar todos los temas afrontados por la psicología antigua de un modo más satisfactorio y científicamente satisfactorio, presenta al conductismo como la única manera de hacer ciencia a la psicología.

En otras palabras, el objeto psique es explicado en los contenidos psicológicos (emoción, hábito, aprendizaje, personalidad, etc.) y se propone su estudio a través de su manifestación observable en términos de comportamientos emotivos, comportamientos habituales, comportamientos de aprendizaje, comportamientos constitutivos de la personalidad etc.

El conductismo es un movimiento en la psicología que avoca el uso de procedimientos estrictamente experimentales para la observación de conductas (respuestas) con relación al ambiente (estímulo). El conductismo se desarrolla en los principios del siglo XX por el psicólogo americano John B. Watson. En ese entonces la psicología era considerada predominantemente como el estudio de las experiencias internas o sentimientos a través de métodos subjetivos o introspectivos. Watson no negaba la existencia de experiencias internas o emociones, pero insistía que estas experiencias no podían ser estudiadas porque eran imposibles de observar.

Watson propuso convertir el estudio de la psicología en ciencia utilizando solo procedimientos objetivos, como experimentos de laboratorio diseñados para producir resultados estadísticos

Page 57: Inteligencia artificial isc

significativos. El estudio conductivista lo hizo formular una teoría conocida como estímulo-respuesta. En esta teoría todas las formas complejas de conducta, tales como emociones y hábitos, son estudiadas como compuestas por cambios musculares y glandulares simples, que pueden ser observados y medidos.

En mediados del siglo XX otro psicólogo americano B. F. Skinner desarrollo una posición conocida como Conductismo Radical o Conductismo Base. Él estaba de acuerdo con la opinión de Watson de que la psicología es el estudio de conductas observables en individuos interactuando con el ambiente. Aunque sostenía que los procesos internos, como los sentimientos, debían de ser estudiados también a través de los procesos científicos usuales, con un énfasis en particular en los experimentos controlados utilizando animales y humanos.

Desde 1950, los psicólogos conductistas han producido una impresionante cantidad de estudios dirigidos a entender como se producen y mantienen los diferentes tipos de conductas. Estos estudios han estudiado cuatro partes en especial:

1. Las interacciones que preceden una conducta, como los procesos preceptúales y el periodo de atención que brinde el individuo.

2. Cambios en la conducta en sí, como la formación de habilidades. 3. Interacciones que se producen a partir de la conducta como los efectos de los

premios o castigos. 4. Condiciones que prevalecen a través de los eventos, como el stress emocional.

Los estudios realizados utilizando los principios conductistas han arrojado principalmente conocimientos sobre la modificación de la conducta, o análisis aplicado de la conducta, útiles en especial para la terapia de la conducta, métodos de enseñanza y entrenamiento, y los efectos de las drogas en la conducta.

ORIGENES DEL CONDUCTISMO

El conductismo nace oficialmente en 1913, año en que J. B. Watson publicaba un artículo programático con el título Pscycology as the Behaviorist Views It. Sin embargo, como han observado muchos, Watson fue más bien el organizador, el radical propugnador y el hábil divulgador de una serie de ideas y temas que hacía tiempo iban madurando.

Watson había sido el primer doctor en psicología de la Universidad de Chicago (1903), cabe la cual se esteba dibujando el movimiento funcionalista, y que más tarde el mismo Watson reconociera haber elaborado el "verdadero funcionalismo.

Quien lea el ensayo de Watson citado se dará cuenta inmediatamente de la influencia ejercida sobre el conductismo por la experimentación con los animales. El evolucionismo darwiniano había clarificado que entre el hombre y las demás especies animales no había una diferencia radical, por la que el hombre tuviera un alma y los animales no. Por ello era plausible hacer investigación psicológica con los animales, lo cual presentaba una serie de ventajas incomparables debidas a la posibilidad de estudiar algunos hechos en organismos menos complejos a la oportunidad de controlar variables concomitantes (cantidad y tipo de alimentación, horas de reposos y actividad, condiciones de vida, etc.), a la posibilidad de conocer y mantener bajo control la influencia de la experiencia pasada en las acciones realizadas por el individuo examinado, a la libertad en los procedimientos (experimentaciones largas y pesadas, disponibilidad del sujeto para el momento y el ambiente deseados, etc.), finalmente, al carácter manipulable del organismo (lesión de las funciones sensoriales, operaciones quirúrgicas, etc.). Entre fines del siglo XIX y comienzos del siglo XX, muchos estudiosos de primer plano se habían ocupado de psicología animal: entre ello Romanes, Loeb, Donaldson, Jennings, Lloyd-Morgan, Uexkull, Thorndike, Washburn, Yerkes, Small y Hunter.

Estudiar la psicología de los animales podía significar varias cosas. En particular, si el objeto de la psicología es la conciencia, se tendría que haber llegado a conocer la naturaleza de la conciencia animal. Pero partiendo del examen del comportamiento observable (los animales no

Page 58: Inteligencia artificial isc

tienen un lenguaje a través del cual explicitar sus contenidos mentales), esto sólo se podía obtener de un modo precario e indirecto. Watson afirmaba que la verdadera psicología de los animales tenía simplemente que considerar su comportamiento, por el hecho de que el objeto de toda la psicología se identificada sin más que el comportamiento. Ya en la investigación llevada a cabo para su tesis doctoral, Watson tendía a juntar esta opción metodológica con otra de contenido, orientada a negar importancia a la conducta. El aprendizaje que se verificaba en un ratón adiestrado a recorrer un laberinto parecía consistir en la adquisición de una serie de movimientos más que de nociones. De este modo dos tendencias distintas de fines del siglo XIX (evolucionismo y fisicismo) encontraban una confluencia armónica. El animal empezaba a ser considerado como conejillo de Indias, ideal para el conocimiento psicológico del hombre.

Thorndike, otro psicólogo norteamericano da un gran impulso a la experimentación animal. Sus investigaciones con los animales, llevadas a cabo a fines del siglo pasado, fueron realizadas con aparatos como el laberinto en forma de T y la jaula. En el laberinto el animal, después de haber recorrido las patas de tantas T, se halla ante lugares de opción y tiene que aprender cuál de las dos direcciones es la adecuada. En cambio lo que se exige al animal encerrado en la jaula es aprender que para salir de la misma y encontrar comida e preciso mover una manecilla. Observando a los gatos empeñados en esta última operación, Thorndike llegó a la conclusión de que su aprendizaje se verificaba gradualmente, a través de una serie de ensayos y errores que llevaba a la consolidación de las reacciones del organismo que habían sido recompensadas (ley del efecto).

La "Ley del Efecto" de Thorndike se caracteriza claramente por un enfoque de tipo conductista. Con el mismo el autor creía especificar una característica básica de la "inteligencia animal". En efecto, podríamos considerar que la inteligencia consiste en comprender la relación que existe entre el acto de presionar la manecilla y la posibilidad de salir, pero lo que observamos efectivamente es que dicho acto se verifica tanto más a menudo mientras más va seguido por una recompensa. El primer modo de describir la situación constituye una pura inferencia sacada del segundo modo, que, en cambio se limita a los hechos. La ley empírica del efecto nos dice que "una acción acompañada o seguida de un estado de satisfacción tenderá a volverse a presentar más a menudo, una acción seguida de un estado de insatisfacción tenderá a volverse a presentar menos a menudo". Pero, si esta ley explica nuestras observaciones y es capaz de predecir lo que probablemente haremos en el futuro no hay motivo para sustituirla por otra.

La ley del efecto subrayaba en primer lugar el carácter adaptativo y utilitarista de la acción humana, cuya manifestación aparecía simplemente vinculada a la posibilidad de ser recompensada. Muchos psicólogos habrían negado que el aprendizaje se verifique sólo en presencia de recompensa y entre ellos incluso algunos pertenecientes a la tradición conductista. En segundo lugar, el análisis de los tiempos exigidos al gato para llegar a la presión de la manecilla sugería a Thorndike que el aprendizaje era gradual. Muchos experimentos realizados por los psicólogos de la Gestalt y nuestro mismo sentido común nos hubieran hecho pensar que el aprendizaje tendría que haberse verificado por medio de una comprensión bastante repentina de la manera como era posible salir de la jaula. En este caso el gato mentalmente diría algo así: "Ah, ya entendí"

Las curvas de aprendizaje trazadas por Thorndike, partiendo de sus datos, eran favorables a la idea de que el aprendizaje es gradual, y no fruto de una comprensión repentina. En efecto en este último caso tendría que haber pasado que, al principio, el gato no lograse salir o hallarse casualmente la respuesta adecuada y, por tanto, tuviese necesidad de mucho tiempo, y que luego –con el descubrimiento de la solución, el tiempo necesario para salir se volviese mínimo. En cambio, Thorndike observó que con el paso de las pruebas, el tiempo necesario para un gato salir de la jaula decrecía regular y gradualmente, sin caídas bruscas, y esto le hizo llegar a la conclusión de que el animal no captaba la solución, sino que más bien iba a pequeños pasos sucesivos, imprimiéndose las respuestas adecuadas y borrando las equivocadas.

Sin embargo, Thorndike no adoptó una postura decidida contra los que hacían una psicología distinta de la suya, cosa que, en cambio hizo poco años después Watson. Éste había dejado en 1904 la universidad de Chicago por la John’s Hopkins University y había continuado la

Page 59: Inteligencia artificial isc

experimentación animal, colaborando también con Carr y Yerkes, el cual en 1909 había introducido con Morgulis la obra de Pavlov en el ámbito norteamericano. Es indudable que la escuela rusa ejerció una gran influencia sobre el conductismo.

En 1912, Watson anticipaba en una serie de conferencias en la Columbia University sus ideas, expresadas luego más claramente en diversos ensayos y en tres volúmenes teóricos, el primero Watson, 1914 inspirado en la psicología animal, el segundo Watson, 1919 enriquecido con las observaciones llevadas a cabo con niños, el tercero Watson 1925 caracterizado por un mayor interés aplicativo y por la batalla ambientalista.

Toda la obra de Watson está penetrada de una brillante y emotiva vena polémica y radical. El primer blanco contra el que dirigió sus ataques fue el método introspectivo. En sentido amplio, la introspección significa "mirar dentro de sí" y en este aspecto había constituido la base de acopio de informaciones para la psicología tradicional.

Prescindiendo del hecho de que los demasiado pequeños progresos llevados a cabo con dicho método por la psicología ponían en duda su capacidad efectiva de avance cognoscitivo, Watson consideraba no científica la introspección por dos motivos fundamentales:

1. Por el hecho de que el observador se identificaba con lo observado (esto significa, por ejemplo, que desde el mismo momento en que el observador empezaba a observar la conciencia cambiaba por definición su objeto de observación, ya que éste incluía la conciencia de estar observando.

2. Por el hecho de que la observación introspectiva era realizada por una persona que hablaba de cosas que los demás no podían ver directamente (los datos introspectivos son privados, en contraposición a los datos públicos de las ciencias naturales). El carácter privado de los datos introspectivos era criticado no sólo por una cuestión de principio, sino también por una cuestión de hecho: a través de este método, se llegaba a descripciones completamente discordantes o insatisfactorias.

La primera guerra mundial tuvo una función central en el desarrollo de la psicología en los Estados Unidos, haciéndola salir de los estrictos ámbitos académicos y conocer en sus potenciales contextos aplicativos y a la opinión pública. Si consideramos las relaciones existentes anteriormente entre industrias y psicología, hasta 1915 habían sido más bien débiles y episódicos. Durante la guerra, en cambio, se asistió a una especie de boom de la psicología. La verdadera bomba estuvo representada por la tarea confiada a los psicólogos de someter el ejército a tests con el fin de seleccionar los mejores soldados, y evitar grandes costes de entrenamiento para los reclutas con una baja preparación intelectual. En un segundo tiempo los tests también fueron usados con una intención clasificatoria, es decir, precisar las aptitudes diferenciadas de los sujetos examinados.

El programa de selección llevó a examinar más de 1,727,000 hombres; el relieve y el éxito de la iniciativa constituyeron la mejor carta de presentación para la psicología.

Los psicólogos de las universidades, primero hostiles a la aplicación, terminaron progresivamente colaborando en la publicidad, en la organización industrial, en el ejército, etc., independientemente de su orientación teórica. Figuras del primer plano en este complejo movimiento de investigación-aplicación fueron W. D. Scott, Mustenberg y Bingham, pero –en posición de menor importancia- colaboraron muchisimos más y entre ellos Titchner, Watson y Thorndike.

En 1920, cuando a causa de un pequeño escándalo terminado con el divorcio de Watson, éste tuvo que abandonar la John’s Hopkins University, pasé a colaborar directamente con la industria, metiéndose en problemas publicitarios y empresariales e interesándose cada vez menos por la psicología. Su libro Behaviorism (1925), que obtuvo un gran éxito también y especialmente fuera de los ámbitos científicos, representa claramente el nuevo estado profesional e indica las perspectivas aplicativas del conductismo.

Page 60: Inteligencia artificial isc

EL CONDUCTISMO WATSONIANO

Entre 1913 y 1930 se desarrolla el conductismo watsoniano. En ese período aparecieron las primeras aportaciones conductistas de Kuo, Lashley, Weiss, Tolman y otros muchos, pero es cierto que la obra de Watson fue particularmente central.

La teoría elaborada por Watson no presenta como un sistema orgánico y definido una vez por todas. Por ejemplo, Watson especificó de modo diferente el objeto de la psicología. El comportamiento fue explicado en los términos de "adaptación del organismo al ambiente", "contracciones musculares", "conjunto integrado de movimientos" y "acciones". Se puede, en cierto modo, decir que la unidad de observación psicológica es para Watson el comportamiento o la conducta en el sentido de acción compleja manifestada por el organismo en su integridad, "sea lo que fuere lo que realice, como orientarse hacia una luz o en dirección opuesta, saltar al oír un sonido, u otras actividades más altamente organizadas como tener hijos, escribir libros, etc.". Evidentemente esas conductas no se detectan en cada una de las reacciones psicológicas que el organismo manifiesta (contracción de un músculo, o bien actividades de órganos individuales como la respiración, la digestión, etc.), que constituyen el objeto diferenciado de estudio de la fisiología.

En la experimentación psicológica que lleva a cabo, Watson se interesa principalmente por variables dependientes complejas del tipo que acabamos de mencionar. Su "molecularismo" y "reduccionismo" teórico se especifican en la idea de que esos comportamientos no son más que la "combinación" de reacciones más simples, de moléculas constituidas por cada uno de los movimientos físicos que, en cuanto a tales, son precisamente estudiados por la fisiología y la medicina. En efecto, los principios de composición de las unidades simples en unidades complejas no modifican la naturaleza de las primeras, sino que simplemente las componen. Los principios a que principalmente se refiere Watson son la frecuencia y proximidad y el condicionamiento. Los principios de la frecuencia y proximidad nos dicen que cuanto tiempo más a menudo o cuanto más recientemente se ha verificado una asociación, con tanta mayor probabilidad se verificará.

El condicionamiento empieza a ocupar un lugar central, en la teoría conductista, hacia 1916. Watson aparece directamente influido no sólo por Pavlov sino también por los reflexólogos rusos, es decir, por Secenov, que ya hacia 1860 había afirmado que los actos de la vida consciente e inconsciente no son más que reflejos y por Bectherev que se interesaba de modo particular por los reflejos musculares.

El principio de condicionamiento parte del descubrimiento del hecho de que en el organismo existen respuestas incondicionadas a determinadas situaciones. Por ejemplo, un organismo hambriento que recibe comida seguramente reaccionará salivando, un súbito haz de luz sobre los ojos provocará seguramente una contracción de la pupila, etc. la comida y el haz de luz se llaman estímulos incondicionados, es decir, acontecimientos que se producen en el medio ambiente y que provocan incondicionadamente una determinada respuesta en el organismo. Pero, otros estímulos que hayan sido asociados a los estímulos incondicionados provocarán también la reacción incondicionada, aunque no tengan por si mismos relación alguna con ella. Por ejemplo, el perro de Pavlov salivaba cuando oía el sonido de una campanita, por el sólo hecho de que ese sonido había sido anteriormente asociado con cierta frecuencia a la presentación de la comida. La investigación sobre el condicionamiento era de particular importancia para el conductista porque, por un lado detectaba precisas unidades estímulo (que permitían definir mejor el ambiente en que el organismo reacciona) y precisas unidades respuesta, y, por el otro, porque ofrecía un principio clave para explicar la génesis de las respuestas complejas. En efecto, se podía suponer que los comportamientos complejos, manifestados por el hombre, eran una larga historia de condicionamientos.

Por este motivo adquirió particular importancia el estudio del aprendizaje empezando por las primeras adquisiciones infantiles. Al analizar las emociones, Watson expresaba la idea de que el miedo, la rabia y el amor son las emociones elementales y se definen partiendo de los estímulos ambientales que las provocan. A partir de estas emociones se construirían las siguientes emociones. Un caso famoso de aprendizaje de las emociones es el del pequeño

Page 61: Inteligencia artificial isc

Albert, que Watson estudió junto con R. Rayner. Albert jugaba tranquilamente con un ratoncillo cuando se le hizo escuchar a sus espaldas un violento ruido. Desde ese momento, el niño manifestó un gran miedo tanto hacia los ratones como hacia otros animales y objetos peludos. El ruido era un estímulo incondicionado capaz de producir por sí solo una respuesta de miedo; su asociación con otro estímulo hacía que el niño fuese condicionado a tener miedo también al ratoncillo y también a otros objetos con características similares. Estudiando una de las primeras neurosis experimentales de la historia de la psicopatología, Watson probaba más adelante que las neurosis no son ni innatas, ni objetos misteriosos, sino que podían definirse en los términos de respuestas emocionales aprendidas.

Para Watson, las mismas leyes que regulan el aprendizaje emotivo constituyen la base de las demás adquisiciones y, en particular, de los llamados "hábitos". Si para los "hábitos manuales" la idea podía ser compartida por muchos, el problema se hacía más difícil cuando se trataba de explicar procesos psicológicos complejos y en particular el pensamiento y sus relaciones con el lenguaje. La propuesta metodológica de Watson exigía basarse en la observación de la conducta, y en este caso de la conducta verbal, y por tanto el pensamiento debería haberse inferido del lenguaje. Pero la propuesta por así decir "filosófica" era la de negar existencia real al pensamiento y asimilarlo directamente al lenguaje.

Para Watson, el lenguaje se adquiere por condicionamiento. El niño oye asociar a un objeto su nombre y por consiguiente el nombre termina por evocar la misma respuesta evocada por el objeto. Progresivamente todo el sistema de movimientos que provocan la emisión del sonido palabra puede ser sustituido por una parte de movimientos, por lo que la palabra es sólo pronunciada en voz baja, o moviendo silenciosamente los labios, o bien mediante simples "hábitos de laringe". Watson creía que de esta manera se va formando el pensamiento y sugería que podía ser reducido a un conjunto de hábitos de laringe. En el plano teórico el punto central estaba representado por el hecho de que la actividad de pensamiento era un resultado de los aprendizajes comunicativos y no tenía por sí mismo importancia ni interés cognoscitivo.

EL PAPEL DE LA EXPERIENCIA Y

LAS GRANDES TEORIAS DEL APRENDIZAJE

 

 

En el segundo y tercer decenio del siglo, las teorías psicológicas más populares en los Estados Unidos, además de la watsoniana, fueron la de McDougall y la de Freud. Ambas, pero en particular la primera, se caracterizaban por la importancia atribuida a los instintos hereditarios en el hombre. Watson en un primer tiempo aceptó esta idea, pero en un segundo tiempo, influido por la posición radical de Kuo e impresionado por el desacuerdo y la confusión entre los psicólogos que intentaban clasificar los instintos, optó decididamente por una postura, que por un lado no reconocía la utilidad y validez psicológica del concepto de instinto y, por el otro, negaba que el hombre estuviese al momento del nacimiento dotado de un bagaje psicológico personal. En 1925, Watson llegó a afirmar que el recién nacido tiene un repertorio de reacciones extremadamente limitado, como reflejos, reacciones postulares, motrices, glandulares y musculares, pero dichas reacciones afectan al cuerpo y no son rasgos mentales; el niño nace sin instinto, inteligencia u otras dotes innatas, y será sólo la experiencia ulterior la que caracterizará su formación psicológica. Watson adoptaba así una posición igualitarista "los hombres nacen todos iguales" y llena de confianza en poder influir el desarrollo del sujeto controlando las experiencias a que se expone. Con una afirmación que se hizo famosa, Watson declaraba que si le hubiesen dado una docena de niños sanos, los habría podido convertir fácilmente en buenos doctores, magistrados, artistas, comerciantes, independientemente de sus hipotéticas "tendencias, inclinaciones, vocaciones, raza de los antepasados".

Según esta posición el hombre era totalmente producto de sus experiencias. Por consiguiente, adquiría importancia central el estudio del aprendizaje, es decir, la manera como el hombre adquiere un repertorio de comportamientos motores, verbales, sociales, etc., que luego serán

Page 62: Inteligencia artificial isc

los elementos constitutivos de su personalidad complexiva. Aunque a menudo los psicólogos de tradición conductista hayan aceptado la idea de que parte de los rasgos psicológicos de una persona está vinculada a sus predisposiciones hereditarias, es cierto que de su opción ambientalista surgió el interés dominante por el estudio del aprendizaje.

En efecto, gran parte de las teorías del aprendizaje elaboradas entre 1920 y 1960 se puede relacionar con el conductismo. Entre las mismas las más famosas son las de Thorndike, Guthrie, Tolman, Hull, Spence, Skinner, Miller, Estes, Underwood y Postman. Diversos volúmenes ofrecen una presentación bastante completa de dichas teorías, por lo que solo estudiaremos a tres de sus más ilustres exponentes, es decir, Tolman, Hull y Skinner.

La obra de Tolman constituye uno de tantos casos anómalos dentro de la escuela conductista, desde el momento en que fue poco a poco diferenciándose del conductismo watsoniano y acogiendo ideas cognitivitas o incluso psicoanalíticas. Tolman se vinculó directamente con Holt y Perry en el intento de especificar el objeto psicológico mejor de lo que creía haber hecho Watson. En efecto, la posición "molecularista" de Watson tenía el peligro de identificar el "comportamiento" de las "contracciones musculares" y de remitir su estudio a la fisiología. Por el contrario, Tolman creía que existía un "específico psicológico" caracterizado por su "molaridad" (es decir, no descomponible en componentes simples, so pena de desnaturalizarlo) o bien por su irreductibilidad. Ese "especifico", sin embargo, no era de naturaleza psíquica, sino de naturaleza comportamental, tal como Watson había afirmado, sólo que se caracterizaba por el hecho de poseer propiedades emergentes. Para Tolman, si caracterizásemos el comportamiento, por ejemplo de un ratón que mueve una cuerdecita para acercarse la comida, solo con los componentes motores habríamos dado una descripción fisiológica. Para llegar a una descripción psicológica deberíamos tener en cuenta los predicados que emergen del comportamiento de ese ratón, es decir, del hecho que muestra "cogniciones" e "intencionalidades" (es decir, está orientado hacia metas).

Podremos seguir mejor la argumentación de Tolman refiriéndonos al predicado de la intencionalidad que s tan importante en su obra que se ha hablado de ella como un conductismo intencional. Perry ya había analizado el comportamiento finalizado y había afirmado que se caracterizaba por la "docilidad" o presencia de un aprendizaje, por el que, dado un determinado ambiente, la respuesta se presenta sólo si se tiene un determinado resultado. Para que el individuo sepa que la respuesta lleva precisamente al objetivo deseado, la conexión si tiene que haberse verificado en el pasado y el individuo tiene que haberla aprendido. Realizando experimentos con los animales Tolman explicitó en términos empíricos la problemática inherente a la intencionalidad del comportamiento.

"El objetivo está descriptivamente presente, cuando es necesario la afirmación del objeto meta para indicar:

1. la constancia del objeto meta, a pesar de las variaciones en la adaptación a los obstáculos interpuestos; o

2. la variación en la dirección final correspondiente a las posiciones diferentes del objeto meto; o

3. el cese de la actividad cuando se quita un determinado objeto meta."

Tolman 1976, 83-84

En estos tres casos, la descripción del comportamiento sería insatisfactoria si no se hiciese referencia a un objeto meta. Filosóficamente, introduciendo la noción de "objetivos" y con ella otras como "expectativa", "signo Gestalt", "mapa cognitivo", etc., Tolman se aparta indudablemente de la mayor parte de los conductistas. Sin embargo, ha adoptado de ellos la metodología y el punto de partida: el comportamiento.

Tolman habla a menudo de "variable interventora", reconociendo que un método objetivo conoce sólo la variable dependiente representada por el comportamiento, y sin embargo, puede inferir del mismo la presencia y las características de las variables mentales que intervienen. En efecto, conociendo los valores de las variables independientes (estímulos ambientales,

Page 63: Inteligencia artificial isc

experiencia anterior, estado pulsional, etc., variables que Tolman propone definir en términos operacionales) y los valores del comportamiento efectivo, es posible hacer inferencias sobre las variables interventoras (propiedades que el sujeto atribuye al objeto, capacidades, etc.) que, como dice Tolman, son entidades objetivas, definidas en los términos de las funciones "f" que las conectan con las variables independientes por una parte y con el comportamiento final por la otra.

Como observó Fraisse (1967) la psicología había abandonado muy pronto el ideal de detectar las conexiones puras por las cuales, dado el estimulo S, se verifica siempre la respuesta R. La realidad nos dice que S puede provocar respuestas diversas, R1, R2, R3, … R11, que por consiguiente no pueden ya ser consideradas puramente función de S, según el esquema:

S R

luego R = f (S)

sino que deben referirse también a una variable que interviene entre S y R:

S I R

luego R = f (I x S)

En particular, la superación de la simple conexión S-R se habría dado en primer tiempo en referencia a la importancia de variables interventoras del organismo, en un segundo tiempo con referencia a toda la personalidad.

Al aceptar conceptos no observables, la teorización psicológica se dejaba una vez más influir por el modelo de las ciencias naturales, cuyo debate epistemológico reconocía, cada vez con mayor claridad, la relación que, dentro de una ciencia, existe entre teoría y datos empíricos. Dos movimientos epistemológicos conectados entre sí tuvieron, alrededor de 1930, un peso importante en la psicología: el neopositivismo y el operacionismo. Del neopositivismo muchos psicólogos sacaron en particular los criterios para construir teorías y modelos fundados y convalidados sobre datos empíricos, pero que también incluían constructos teóricos (la teoría hipotético-deductiva de Hull constituiría su ejemplo más destacado), y además la distinción entre datos empíricos aceptables. Esta distinción iba especialmente bien para los conductistas e incluso consagraba su opción antiinstrospeccionista. A menudo fue descrita en esa época en los términos operacionistas, por lo que el científico puede realizar sólo determinadas "operaciones". En realidad, como demostró Curi (1973), el análisis de las operaciones científicas había sido originariamente introducido por Bridgman como instrumento heurístico de conocimiento de la actuación del científico; los conductistas, en cambio, lo aceptaron del modo que congeniaba más con ellos.

Clark Hull recogió de Watson el conductismo molecular, de Thorndike la idea de que la recompensa constituye un requisito fundamental del aprendizaje, de Tolman la referencia metodológica a las variables interventoras. Partiendo de estas premisas y basándose en el principio del condicionamiento clásico, Hull construyó una teoría hipotético-deductiva que intentaba para la psicología la misma sistematización lógica y matemática presente en las ciencias físicas. El sistema de Hull consta de definiciones, postulados, corolarios y teoremas; y permite hacer predicciones no sólo sobre la dirección sino también sobre los aspectos cuantitativos del comportamiento. Si pensamos que la psicología halla a menudo dificultades en predecir si una cosa sucederá (¿se decidirá Pedrito a ir al teléfono?), aparece muy fascinante el intento de Hull de llegar –a través de sofisticadas ecuaciones- a caracterizar también cuantitativamente el comportamiento (¿cuanto tiempo empleará Pedrito para llegar hasta el teléfono?). Está claro entonces por qué el análisis de Hull pudo forzosamente limitarse a pocas situaciones experimentales, relativas al comportamiento de ratones, y que las formulaciones tuvieran que someterse a revisiones y a críticas.

Page 64: Inteligencia artificial isc

La teoría general de Hull apareció en 1943 en un libro con el titulo Principles of Behavior, pero fue sometida a diversas modificaciones expuestas en una versión menos sistemática en el volumen póstumo A Behavior System, en 1952. En ese decenio, el impacto de Hull sobre la psicología experimental norteamericana fue tan grande que casi todos los investigadores se veían obligados a citarlo en la bibliografía.

Si Hull creía en la utilidad de la teoría, Skinner, en cambio, se mostró -en línea de principio- contrario a la misma. Actualmente Skinner no se oponía a cualquier teoría, sino sólo a las teorías elaboradas generalmente por los psicólogos, que introducen conceptos "mentalista" que corren el riesgo de hipostatizar procesos y hechos puramente hipotéticos y son en su opinión inútiles. Skinner está interesado por la observación del comportamiento y su relación con las "contingencias de refuerzo", es decir, las ocasiones en que a una determinada respuesta ha seguido una recompensa. Su idea es que este tipo de análisis puede ser suficiente para explicar cualquier forma de aprendizaje, incluso el aprendizaje lingüístico. La consecuencia de ello es que la referencia a procesos que se verificaran en la mente sería inútil y engorrosa, además de ser difícilmente objetivable. Skinner extrapola su análisis de carácter general partiendo del estudio del comportamiento de ratones y palomas emitidos en una jaula. Entre las diversas respuestas que el animal puede dar se escoge una de modo que vaya seguida de un estímulo reforzador. Se observará que la respuesta seguida de refuerzo tenderá a presentarse cada vez con mayor frecuencia. Este paradigma se llama "condicionamiento operante" y se diferencia del estudiado por Pavlov (llamado "clásico" o "de respuesta") por el hecho de que la respuesta no sigue sino que precede al estímulo crítico. En el caso del perro de Pavlov, el estímulo incondicionado (comida) o condicionado (campanita asociada a la comida) provoca necesariamente la respuesta incondicionada. En el caso del ratón de Skinner, el organismo emite cada vez más a menudo la respuesta a que se ha seguido un refuerzo. Desde los años 30 hasta hoy Skinner y sus colaboradores realizaron muchisimas experimentaciones con el fin de especificar mejor la relación entre adquisición de comportamientos y hechos reforzadores en particular por los efectos de "programas" diferentes de refuerzo. El paradigma del "condicionamiento operante" se ha convertido en un esquema fundamental en psicología comparada y fisiológica para estudiar también otra variables (como por ejemplo: ¿el fármaco x tiene efectos colaterales sobre el comportamiento?), y se ha convertido en una clave de bóveda para explicar aprendizajes complejos que quedaban inexplicados partiendo del "condicionamiento clásico". En efecto, éste se basaba en la existencia de reacciones incondicionadas (y en el hombre se han hallado muy pocas) y en la formación de condicionamientos de segundo orden (la campanita del perro de Pavlov) y por tanto de orden sucesivo: pero la posibilidad de obtener condicionamiento de cuarto, quinto, etc. orden quedaba sin demostrar. En cambio está claro que el condicionamiento operante se aplica a cualquier tipo de respuesta, porque cada uno de ellos puede ser seguido de refuerzo. Skinner, por consiguiente, se empeñó en estudiar las principales respuestas humanas, buscando los hechos reforzadores que provocan su mantenimiento o consolidación.

En esta perspectiva Skinner puso de manifiesto el carácter "manipulable" del comportamiento humano, denunciando por un lado el papel desempeñado por ciertos grandes agentes de control, como la familia, el Estado y la Iglesia y, por el otro, proponiendo, en una novela utópica, utilizar con buen resultado esas mismas "reglas de manipulación", de modo que se llegue a realizar una especie de "república" platónica, gobernada por los sabios.

La pedagogía es muy compleja y se dice que cada maestro y cada escuela es un mundo aparte con sus propias creencias basadas en sus estrategias de enseñanza diaria. La posición más común tomada por los directores de las escuelas tanto como por los maestros es la que describiremos a continuación, conocida como La Educación Tradicional, y que se basa fuertemente en la teoría conductista.

Page 65: Inteligencia artificial isc

Un maestro de la educación tradicional cree en lo siguiente:

o Todo estudiante necesita ser calificado con notas, estrellitas, y otros incentivos como motivación para aprender y cumplir con los requisitos escolares.

o Cada estudiante debe ser calificado en base a los estándares de aprendizaje, que la profesora traza para todos los estudiantes por igual.

o El currículo debe estar organizado por materias de una manera cuidadosamente y en secuencia y detallado.

Los maestros que aceptan la perspectiva conductista asumen que el comportamiento de los estudiantes es una respuesta a su ambiente pasado y presente y que todo comportamiento es aprendido. Por tanto cualquier problema con el comportamiento de un estudiante es visto como el historial de refuerzos que dicho comportamiento ha recibido. Como para los conductistas el aprendizaje es una manera de modificar el comportamiento, los maestros deben de proveer a los estudiantes con un ambiente adecuado para el refuerzo de las conductas deseados.

Las conductas no deseadas de los estudiantes en el aula pueden ser modificados utilizando los principios básicos de modificación de conducta.

Las siguientes son técnicas aplicadas en la educación tradicional para eliminar conductas no deseadas en los estudiantes:

1. Refuerzo de las conductas deseadas, que de esta manera competirá con la conducta no deseada hasta reemplazarla por completo.

2. Debilitar las conductas no deseadas eliminando los refuerzos de estas.

Page 66: Inteligencia artificial isc

3. La técnica de la "saturación" que implica envolver a un individuo en la misma conducta no deseada, de manera repetitiva hasta que el individuo se sienta hastiado del comportamiento.

4. Cambiando la condición del estímulo que produce la conducta no deseada, influenciando al individuo a tomar otra respuesta a dicho estimulo.

5. Usando castigos para debilitar la conducta no deseada.

Una importante aplicación del condicionamiento operante utilizado en la educación tradicional es la de Aprendizaje Programado. En esta técnica las materias son divididas en pequeños simples pedazos o marcos de referencia, en que en cada parte al estudiante se le bombardea con una cantidad de preguntas a las que el estudiante conoce la respuesta y probablemente conteste correctamente; luego de una en una se van agregando preguntas al repertorio, dando premios e incentivando las respuestas correctas.

CONCLUSIÓN

Muchos críticos afirman que el Conductismo "sobre simplifica" la conducta humana y que ve al hombre como una automatización en vez de una criatura con propósito y voluntad. A pesar de la opinión de estos críticos, el conductismo ha tenido gran impacto en la psicología. Ha impulsado la experimentación científica y el uso de procedimientos estadísticos.

Su más importante logro es el que ha logrado cambiar el propósito principal de la psicología hacia la solución de verdaderas problemáticas relacionadas con la conducta humana. Como el aprendizaje es una forma de modificación de conducta, los procedimientos de modificación de conducta desarrollados por los conductistas han probados ser de gran utilidad para muchos maestros y escuelas durante las últimas generaciones.

Page 67: Inteligencia artificial isc

Aunque en desacuerdo con gran parte de la influencia del conductismo en la educación, por la forma de ver a los estudiantes como individuos vacíos que adquieren conductas y que las que no son deseadas pueden ser reemplazadas o eliminadas, hay que admitir la gran influencia del conductismo en la educación tradicional y la gran influencia que seguirá manteniendo sobre esta.

http://caminantes.metropoliglobal.com/web/pedagogia/conductismo.htm

1.10El proceso de razonamiento según la lógica (Axiomas, Teoremas, demostración).

El Proceso de Razonamiento

El proceso de razonamiento en un sistema basado en reglas es una progresión desde un conjunto inicial de afirmaciones y reglas hacia una solución, respuesta o conclusión. Como se llega a obtener el resultado, sin embargo, puede variar significativamente:

Se puede partir considerando todos los datos conocidos y luego ir progresivamente avanzando hacia la solución. Este proceso se lo denomina guiado por los datos o de encadenamiento progresivo (forward chainning).

Se puede seleccionar una posible solución y tratar de probar su validez buscando evidencia que la apoye. Este proceso se denomina guiado por el objetivo o de encadenamiento regresivo (backward chainning).

 Razonamiento Progresivo

En el caso del razonamiento progresivo, se empieza a partir de un conjunto de datos colectados a través de observación y se evoluciona hacia una conclusión. Se chequea cada una de las reglas para ver si los datos observados satisfacen las premisas de alguna de las reglas. Si una regla es satisfecha, es ejecutada derivando nuevos hechos que pueden ser utilizados por otras reglas para derivar hechos adicionales. Este proceso de chequear reglas para ver si pueden ser satisfechas se denomina interpretación de reglas.

La interpretación de reglas es realizada por una máquina de inferencia en un sistema basado en conocimiento. La interpretación de reglas, o inferencia, en el razonamiento progresivo involucra la repetición de los pasos que se indican en la siguiente figura.

Page 68: Inteligencia artificial isc

Figura 4.1 Proceso de Razonamiento Progresivo

http://www.monografias.com/trabajos/iartificial/pagina4_31.htm

Razonamiento Progresivo...

1. Unificación (Matching).- En este paso, en las reglas en la base de conocimientos se prueban los hechos conocidos al momento para ver cuáles son las que resulten satisfechas. Para decir que una regla ha sido satisfecha, se requiere que todas las premisas o antecedentes de la regla resuelvan a verdadero.

2. Resolución de Conflictos.- Es posible que en la fase de unificación resulten satisfechas varias reglas. La resolución de conflictos involucra la selección de la regla que tenga la más alta prioridad de entre el conjunto de reglas que han sido satisfechas.

3. Ejecución.- El último paso en la interpretación de reglas es la ejecución de la regla. La ejecución puede dar lugar a uno o dos resultados posibles: nuevo hecho (o hechos) pueden ser derivados y añadidos a la base de hechos, o una nueva regla (o reglas) pueden ser añadidas al conjunto de reglas (base de conocimiento) que el sistema considera para ejecución.

En esta forma, la ejecución de las reglas procede de una manera progresiva (hacia adelante) hacia los objetivos finales.

Un conjunto de aplicaciones adecuadas al razonamiento progresivo incluye supervisión y diagnóstico en sistemas de control de procesos en tiempo real, donde los datos están continuamente siendo adquiridos, modificados y actualizados. Estas aplicaciones tienen 2 importantes características:

1. Necesidad de respuesta rápida a los cambios en los datos de entrada. 2. Existencia de pocas relaciones predeterminadas entre los datos de entrada y las

conclusiones derivadas.

Otro conjunto de aplicaciones adecuadas para el razonamiento progresivo está formado por: diseño, planeamiento y calendarización, donde ocurre la síntesis de nuevos hechos basados en las conclusiones de las reglas. En estas aplicaciones hay potencialmente muchas soluciones que pueden ser derivadas de los datos de entrada. Debido a que estas soluciones no pueden

Page 69: Inteligencia artificial isc

ser enumeradas, las reglas expresan conocimiento como patrones generales y las conexiones precisas entre estas reglas no pueden ser predeterminadas.

http://www.monografias.com/trabajos/iartificial/pagina4_32.htm

Razonamiento Regresivo

El mecanismo de inferencia, o interprete de reglas para el razonamiento regresivo, difiere significativamente del mecanismo de razonamiento progresivo. Si bien es cierto ambos procesos involucran el examen y aplicación de reglas, el razonamiento regresivo empieza con la conclusión deseada y decide si los hechos que existen pueden dar lugar a la obtención de un valor para esta conclusión. El razonamiento regresivo sigue un proceso muy similar a la búsqueda primero en profundidad.

El sistema empieza con un conjunto de hechos conocidos que típicamente está vacío. Se proporciona una lista ordenada de objetivos (o conclusiones), para las cuales el sistema trata de derivar valores. El proceso de razonamiento regresivo utiliza esta lista de objetivos para coordinar su búsqueda a través de las reglas de la base de conocimientos. Esta búsqueda consiste de los siguientes pasos:

1. Conformar una pila inicialmente compuesta por todos los objetivos prioritarios definidos en el sistema.

2. Considerar el primer objetivo de la pila. Determinar todas las reglas capaces de satisfacer este objetivo, es decir aquellas que mencionen al objetivo en su conclusión.

3. Para cada una de estas reglas examinar en turno sus antecedendentes: a. Si todos los antecedentes de la regla son satisfechos (esto es, cada parámetro

de la premisa tiene su valor especificado dentro de la base de datos), entonces ejecutar esta regla para derivar sus conclusiones. Debido a que se ha asignado un valor al objetivo actual, removerlo de la pila y retornar al paso (2).

b. Si alguna premisa de la regla no puede ser satisfecha, buscar reglas que permitan derivar el valor especificado para el parámetro utilizado en esta premisa.

c. Si en el paso (b) no se puede encontrar una regla para derivar el valor especificado para el parámetro actual, entonces preguntar al usuario por dicho valor y añadirlo a la base de datos. Si este valor satisface la premisa actual entonces continuar con la siguiente premisa de la regla. Si la premisa no es satisfecha, considerar la siguiente regla.

Si todas las reglas que pueden satisfacer el objetivo actual se han probado y todas no han podido derivar un valor, entonces este objetivo quedará indeterminado. Removerlo de la pila y retornar al paso (2). Si la pila está vacía parar y anunciar que se ha terminado el proceso.

El razonamiento regresivo es mucho más adecuado para aplicaciones que tienen mucho mayor número de entradas, que de soluciones posibles. La habilidad de la lógica regresiva para trazar desde las pocas conclusiones hacia las múltiples entradas la hace más eficiente que el encadenamiento progresivo.

Una excelente aplicación para el razonamiento regresivo es el diagnóstico, donde el usuario dialoga directamente con el sistema basado en conocimiento y proporciona los datos a través del teclado. Problemas de clasificación también son adecuados para ser resuelto mediante el razonamiento regresivo.

http://www.monografias.com/trabajos/iartificial/pagina4_33.htm

Page 70: Inteligencia artificial isc

Existen dos métodos de razonamiento  lógico  para  probar  una proposición: El

método inductivo y el método deductivo.

 

 El Razonamiento Inductivo.

 

Consiste en observar  propiedades  específicas  de  un  número limitado de

casos  particulares  y  luego  concluir  que  esas propiedades son  generales 

para  todos  los  casos.  En  este razonamiento se procede de lo particular  a 

lo  general. Desafortunadamente, tal razonamiento no siempre nos conduce  a

resultados  válidos,  pues  esta   conclusión   inductiva,   o conjetura, es solo

una proposición tentativa de lo que  parece ser cierto en lo general, que queda

desacreditado con solo  un caso que no cumpla con tal proposición.

 

Ejemplo de razonamiento inductivo.

Toma un conjunto finito  de  números  impares  y  realiza  las siguientes

operaciones:

(1)² -1 = 0  = 8 (0)

(3)² -1 = 8  = 8 (1)

 (5)² -1 = 24 = 8 (3)

 (7)² -1 = 48 = 8 (6)

La conjetura que podemos hacer es que  “El  cuadrado  de  todo número impar

disminuido en la unidad, es múltiplo de 8”. Si podemos probar que  esta 

conjetura  es  cierta  para  todo impar  2n-1, la podriamos aceptar como

verdadera, veamos:

(2n-1)² - 1 = 4n² - 4n = 4n (n-1) 

y como  (n)  y  (n-1) son  factores  consecutivos, entonces necesariamente uno

de ellos es un número par que  multiplicado por 4 producirá un múltiplo de 8,

con lo  cual  se  prueba  la veracidad de nuestra conjetura. 

  El Razonamiento Deductivo.  Es  un  método  que  consiste  en  partir  de  ciertas   leyes generales  para 

aplicarlas  a  casos  particulares.  En  este proceso de razonamiento, hay un

conjunto de  hechos  conocidos y de suposiciones a partir de  los  cuales  otros 

Page 71: Inteligencia artificial isc

pueden  ser deducidos. El conjunto de hechos conocidos  son  los  axiomas, las

definiciones y los teoremas previamente  demostrados  (que representan las

leyes generales). El conjunto de  suposiciones son los datos  de  la 

proposición  a  demostrar  y  se  llama hipótesis,  los  hechos  que  han  de  ser 

deducidos  se  les denomina  conclusión  o  tésis  (que   representan el caso

particular) 

El razonamiento deductivo  consiste  en  obtener  conclusiones verdaderas a

partir de enunciados  dados,  a  través  de  tres pasos:

 I.                     Un enunciado general  que  se  refiera  a  un  conjunto completo o

clase de cosas.

 II.                   Un  enunciado   particular   acerca  de  un  o    algunos miembros del

conjunto o clase de cosas a que se refiere el enunciado general.

 III.                  Una deducción que  se  produce  lógicamente  cuando  el enunciado

general se aplica al                    enunciado particular.

 Ejemplo 1 :Todas las aves tienen alas              (Enunciado general)

El águila es una ave                         (Enunciado particular)

El águila tiene alas                           (Deducción)

A este arreglo  de  enunciados  que  nos  permite  deducir  la tercera se le

denomina silogismo y a la técnica  que  consiste en usar un silogismo para

llegar a una conclusión se le  llama razonamiento deductivo.

 

En un silogismo, al enunciado  general  se  le  llama  premisa mayor, y al

enunciado particular premisa menor y la  deducción es la conclusión.

Ejemplo 2 :

 

Premisa Mayor:                     Todos los perros son animales.

Premisa Menor:                    “Campeón” es un perro.

Conclusión :                           “Campeón” es un animal.

http://docentes.uacj.mx/flopez/Cursos/Geometria/Unidades/Unidad%203/3.1%20El%20Razonamiento.htm

Page 72: Inteligencia artificial isc

DEMOSTRACION DE TEOREMAS

El encontrar una demostración de un teorema presentado como conjetura, en matemáticas, se considera normalmente como una tarea inteligente. No sólo requiere la capacidad de extraer deducciones a partir de hipótesis, sino que exige destrezas intuitivas tales como la de hacer conjeturas sobre que lemas deberían ser probados antes de facilitar la demostración del teorema principal. Un matemático hábil utiliza lo que podríamos llamar un criterio (basado en gran cantidad de conocimiento especializado) para prever con cierta seguridad qué teoremas previamente demostrados serán útiles en la demostración que se trata de realizar y fraccionar el problema en sub-problemas en los que pueda trabajar independientemente. Se han desarrollado programas para la demostración automática de teoremas que poseen algunas de estas habilidades en un grado limitado.

El estudio de la demostración de teoremas han tenido mucha importancia en el desarrollo de los métodos de IA. Por ejemplo, la formalización del proceso deductivo utilizando el lenguaje de la lógica de predicados nos ayuda a comprender mejor algo sobre los componentes del razonamiento. Muchas tareas informales, incluyendo el diagnóstico médico y la recuperación de información, pueden formalizarse como problemas de demostración de teoremas. Por esa razón, la demostración de teoremas es una materia extremadamente importante en el estudio de los métodos de la IA.

http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html

1.11El modelo de adquisición del conocimiento según la filosofía.

El problema crucial

Lo que denominamos problema crucial o estado de la cuestión, consiste en lo siguiente:

en los actos de comunicación humana están interrelacionados imágenes, texto, voz, (iconos, signos y símbolos), pero en la programación actual se utilizan como cosas independientes (pegotes), ligadas espontáneamente en el tiempo y el espacio por el programador e interpretadas por la semántica natural del usuario.

Nuestro planteamiento:

Estos 'pegotes' de imágenes, textos y sonidos necesitan una filosofía del conocimiento que fundamente su función interna dentro de la comunicación de conocimientos, o sea pasar a ser elementos de la estructura de conocimiento y no sólo datos. A esta

Page 73: Inteligencia artificial isc

filosofía la llamamos idea intuitiva de la comunicación sistema-usuario. Para deslindar este problema, lo situamos en un contexto de enseñanza de conocimientos, o sea, Tutores Inteligentes en entornos Multimedia (TIM), que, por otro lado, resulta uno de los campos privilegiados de las aplicaciones de multimedia. De esta manera,además, puede contribuir a crear un método para el diseño de tales aplicaciones. Pero un método, en computación, significa no sólo unas reglas de comportamiento sino, como es sabido, un esquema de representación, que sirva de plataforma común a IA y Multimedia. Nuestro esbozo de esquema de representación del conocimiento se basa en las redes semánticas y, por eso, lo denominamos RESMUL (Redes semánticas para multimedia).

Multimedia supone una organización general de la arquitectura y dispositivos de ordenadores y una organización de la programación: un hardware y un software adecuados. Su orientación a aplicaciones de enseñanza y entrenamiento resulta un campo privilegiado de experimentación. Pero se necesita que esta orientación tenga un soporte teórico contrastado. Tal soporte teórico lo constituyen los Tutores Inteligentes (TI) , que son un tipo de sistemas expertos (SE) con unos módulos especiales (módulo del alumno, módulo pedagógico) y una reestructuración de los existentes (módulo de conocimiento, módulo de explicaciones, interfaz). El concepto de TI supone la existencia de un usuario inteligente con quien dialoga el TI. Para facilitar esta comunicación el TI necesita disponer de un modelo del alumno y de un interfaz de comunicación. Así, pues, el TI contiene un modelo de usuario que le sirve de plataforma de intercomunicación con el usuario real. TI y usuario tienen que ponerse a un nivel de conocimiento razonable y concordar en el lenguaje, como si se tratara de dos sujetos cooperativos que van a dialogar sobre objetos convenidos.

La necesidad de un modelo del usuario es patente en los sistemas de comunicación basados en la semántica (por ejemplo, dependencias conceptuales y scripts: grupo de Yale), pues tal modelo contiene la interpretación que se espera del usuario.

El modelo de adquisición del conocimiento de J.R. Anderson (ACT* y luego PUPS) representa una teoría que puede servir de referencia cognitiva (modelo computacional del alumno) para una presentación en forma de un modelo productivo: modelo de realización (performance) y modelo de aprendizaje; donde, además, se interrelaciona el conocimiento declarativo y procesual.

Page 74: Inteligencia artificial isc

Nuestro planteamiento de los TIM supone una transformación fundamental de la Base de Conocimiento (BC) y de los Interfaces de los TI. En la BC porque el conocimiento se articula sobre la estructura de las imágenes (análisis y síntesis), y, en los interfaces, porque exige distinguir entre el comportamiento del usuario y el del sistema.

De entre los múltiples productos multimedia que hemos analizado detalladamente señalamos dos porque ilustran bien el estado presente de este tipo de aplicaciones y herramientas: NAUTILUS (realizado en TOOLBOOK) y TOOLWORKS. El primero es una especie de enciclopedia y el segundo es una herramienta típica para manejar ficheros de objetos multimedia. En ambos se ve que, aunque utilicen un cierto método de diseño basado en STORYBOARD y, en última instancia, en la experiencia publicitaria y de los comics (lo cual es natural y conveniente), continúan pegándose los objetos de una manera casi arbitraria y, desde luego, no abordan el llamado problema

Page 75: Inteligencia artificial isc

crucial al nivel que la IA exige a la representación computacional del conocimiento. En este caso, como suele suceder, el mercado va por delante de los métodos de programación proporcionando una experiencia de uso fundamental para el desarrollo de una técnica científica. Esta manera de proceder está asumida también en la filosofía que da pié a nuestra llamada idea intuitiva de la comunicación. Y, junto al análisis de aplicaciones, hemos reflexionado sobre nuestra experiencia de construir 'pantallas', así como sobre la de otros tan cualificados como el Center for Design of Educational Computing de la Universidad Carnegie-Mellon. Por otra parte, como es lógico, también es necesario tener presente el estado que van presentando los distintos recursos multimedia que tratan de adaptase a los requisitos razonables del uso natural (dispositivos de captación, procesamiento y tratamiento de imágenes y sonido).

http://www.psico.uniovi.es/REMA/v1n1/a4/p2.html

1.12El modelo cognoscitivo.

EL MODELO COGNOSCITIVO O INTERPRETATIVO DE COMPORTAMIENTO

"Todavía existen líderes organizacionales yeducativos que creen en la teoría tradicionaldel comportamiento humano, la psicología

del estímulo y respuesta y dirigen sus empresas de acuerdo con ella."

W. Glasser

Los procesos cognoscitivos tanto situados como complejos, están explícitamente presentes en todos los modelos que se han desarrollado en los últimos espacios publicados de esta columna. El modelo económico frecuentemente toma en cuenta la elección racional, la cual forma parte del proceso cognoscitivo natural. Una de las observaciones más puntuales de los fundamentos de la adopción de decisión racional de la teoría económica ha puesto en evidencia que la gran mayoría de los procesos humanos de discernimiento y decisión violan frecuentemente los principios de la elección racional. Por la parte que le corresponde al modelo moral de comportamiento proviene de su propia narrativa de racionalidad, la cual incluye valores morales en el cálculo de decisión. Mientras que el modelo de racionalidad retrospectiva se ocupa de la relación entre la cognición y la acción, pero señala que en repetidas oportunidades las cogniciones siguen a los actos para racionalizarlos o justificarlos, en vez de proyectar la acción de manera futurista o de prospectiva. Lo que realmente diferencia a lo que los científicos sociales han llamado Modelo Cognoscitivo o Interpretativo de Comportamiento de los demás es básicamente su atención a los procesos de percepción y comprensión y el grado hasta el que los investigadores que administran este método alejan, en ciertos momentos, la cognición de la realidad objetiva. De esta manera, algunas variantes de este modelo estimulan con cierta relatividad

Page 76: Inteligencia artificial isc

que las hacen atractivas a los teóricos críticos y otras concepciones posmodernistas de la ciencia de las organizaciones, que se lamentan de la cualidad mecanicista de buena parte de las ciencias sociales y de la investigación de las instituciones.

Existe mucha dificultad para poder sintetizar este modelo, debido que posee componentes que cada uno de ellos destacan diferentes características del proceso cognoscitivo. Entre esas particulares sobresalen los aspectos sociales del proceso de cognición y se manifiestan casi indistinguibles del modelo social del comportamiento, poniendo mucho énfasis en el contexto social. Algunos investigadores sociales que defienden y apoyan este modelo de la tradición cognoscitiva hacen hincapié en la comprensión en retrospectiva basada en procesos de compromiso y, orientado de esa forma, se hacen similares a los del modelo de la racionalización de la conducta. Por otra parte, el punto focal en la cognición se basa de principio a fin en la idea de que las conductas y los resultados se entienden mejor si nos centramos en los "procesos cognoscitivos que influyen en tales comportamientos y resultados".

Cuando se le hizo al Dr. K. E. Weick especialista en comportamiento la siguiente pregunta: "¿qué es una organización?", respondió de la siguiente manera: "una organización es un cuerpo de pensamiento pensado por pensadores que piensan..." En consecuencia se puede considerar que las organizaciones son instantáneas de procesos continuos y que la conciencia y atención humana seleccionan y controlan estas instantáneas. La conciencia y la atención, a su vez, pueden verse como instantáneas de procesos cognoscitivos continuos, en los cuales la mente fija conocimiento de lo que la rodea. Sin lugar a dudas que en estos procesos epistemológicos, los participantes construyen interactivamente tanto el conocimiento como el entorno. Basándose en estas consideraciones el mismo tratadista mencionado al inicio de este párrafo, reafirmó lo siguiente: "es posible considerar a una organización como un cuerpo de lenguaje característico que se anexa a la experiencia o que las organizaciones existen sobre todo en la mente".

Bajo estas realidades comportamentales en las organizaciones, ¿cuál es la reacción de los gerentes o los líderes de estas instituciones?. Sin temor a equivocaciones puede afirmarse que el trabajo de la gerencia consiste en administrar mitos, imágenes, símbolos y rótulos. La bandera más promocionada desde el punto de vista empresarial, como es la del "renglón de rentabilidad" de las organizaciones es un símbolo, por no decir un mito. En consecuencia, los gerentes trafican con imágenes y, como tales, "la función apropiada del gerente puede ser la de evangelista en lugar de la de contador". Este enfoque se diferencia en muchos aspectos importantes de otros tratamientos de la función simbólica de la gerencia y el uso del lenguaje y los símbolos. En donde prevalece la retórica por un lado y la adopción de decisiones por el otro.

Las suposiciones de las personas acerca de las relaciones causales en un marco organizacional se representan en un mapa de causas: "los trabajadores editan su propia experiencia organizacional en patrones de conocimiento personal. Una representación de tal conocimiento se denomina mapa

Page 77: Inteligencia artificial isc

cognoscitivo. Éste consta de los conceptos y las relaciones que un trabajador usa para entender las situaciones empresariales. Los estudiosos del comportamiento humano han medido los mapas de causas de los trabajadores en las organizaciones. En estos mapas –1 indica una relación inversa, 0 indica ausencia de relación y +1 indica una relación positiva. Las representaciones cognoscitivas de las organizaciones comienzan cuando los trabajadores elaboran mapas cognoscitivos empezando con resultados, experimentos pequeños y consecuencias. Estas regularidades percibidas forman parte de la materia prima de dichos mapas.

http://gerenciaenaccion.com.ve/Compor_Hum/comport9.htm

1.13El modelo del agente inteligente.

Agentes inteligentes

1) ¿Qué son?

Agente, del latín agere, es "el que hace". En el ámbito de los negocios, un agente es "aquel que tiene por oficio gestionar negocios ajenos".

Un agente inteligente es un programa de ordenador que es capaz de hacer lo que haríamos nosotros si tuvieramos tiempo, o de forma más precisa "un tipo de programa informático que, por encargo de un usuario u otro programa, realiza de forma autónoma tareas que requieren cierto grado de inteligencia y aprendizaje".

2) Características

La mayoría de los agentes poseen las siguientes tres características: comunicación, inteligencia y autonomía.

Comunicación. El agente puede comunicarse con el usuario, con otros agentes y con otros programas. Con el usuario se comunica con un interfaz amigable, mediante el que personaliza sus preferencias. Algunos agentes permiten comunicarse en lenguaje natural, algo típico de los

chatbots. El grado de inteligencia varía mucho de unos agentes a otros, que

suelen incorporar módulos con tecnologías procedentes de la Inteligencia Artificial. Los más sencillos se limitan a recoger las preferencias del usuario, quien debe personalizarlos. Un ejemplo son los agentes inteligentes basados en tecnología de redes neuronales especializados en identificar mensajes de correo electrónico sospechosos de contener spam -mensajes no deseados-. En una primera fase el usuario debe marcarlos como spam, el agente va aprendiendo a

identificar los rasgos que caracterizan a estos mensajes y posteriormente los filtra. Autonomía. Un agente no sólo debe ser capaz de hacer sugerencias al usuario sino de actuar. En el

ejemplo anterior, el agente que filtra el spam no puede estar continuamente alertando al usuario en cada mensaje de correo que llega sobre la posibilidad de que sea un mensaje no deseado y su

verdadera utilidad surge cuando elimina de forma autónoma dichos mensajes.

Page 78: Inteligencia artificial isc

3) Usos y ejemplos

En Botspot (http://www.botspot.com) podemos encontrar una selección de estos agentes.

a) Representante virtual

Se comunican en lenguaje natural y suplen a los comerciales.

o El de la Coca Cola (http://questions.coca-cola.com) pregunta: When do you pay dividends? o IAMS (http://www.iams.com/en_US/jhtmls/faq/sw_FAQ_page.jhtml?

li=en_US&bc=I&pti=FQ&sc=&lsc=&bsc=) Comprueba que no es lo mismo hello que hell... o El agente virtual de Caja Madrid (http://www.cajamadrid.es/CajaMadrid/Home/puente?

pagina=3447)

b) Como asistentes personales

Nos ayudan como lo haría un ayudante, un "mayordomo virtual".

o Agenda inteligente. Si le digo que el sábado voy a la playa, me recuerda que tengo que llevar la toalla. Por ejemplo estos agentes del MIT (http://agents.media.mit.edu/projects/tasks/calendar.jpg)

(http://agents.media.mit.edu/projects/tasks/calendar.wmv). o Asesor financiero. En función de nuestra "manera de ser", por ejemplo aversos al riesgo nos

va recomendando unos valores u otros, MIT (http://agents.media.mit.edu/projects/investing) o Auditor. REMS (http://www.cica.ca/index.cfm/ci_id/1606/la_id/1.htm). Si hay un encargo

nuevo, captura la información del cliente que hay en bases de datos financieras y nos presenta el cuestionario de auditoría más apropiado. Por ejemplo, si es un cliente que no

exporta se eliminan las cuestiones relativas a exportación.

c) Negociador en mercados electrónicos

Localiza una subasta en Internet, aprende cómo va la puja y realiza la compra por nosotros. O mira en las tiendas más baratas.

o Ejemplos en (http://www.botspot.com/BOTSPOT/Windows/Shopping_Bots/Auction_Bots)

d) Agente de búsqueda de información o rastreador

Rastrean en las redes de ordenadores en busca de la información solicitada. Son parametrizables por el usuario o aprenden de sus hábitos, rastrean la red e informan por correo electrónico de novedades que consideran pueden ser de interés para el usuario.

o Maimai (http://maimai.com) agiliza la búsqueda de los anuncios clasificados tras haber estudiado el comportamiento de sus visitantes durante varios meses. De esta forma, si un navegante está buscando un Audi A6 y en ese momento no hay ningún modelo disponible, el agente de inteligencia relaciona rápidamente este vehículo con otros de características similares, y así ofrece alternativas razonables. Por otra parte, este programa informático ofrece la posibilidad de avisar al interesado, mediante un sistema de alerta al correo

Page 79: Inteligencia artificial isc

electrónico o al teléfono móvil, cuando disponga de alguna oferta que hubiera sido solicitada

previamente. o Googlealert (http://www.googlealert.com) o Copernic (http://www.copernic.com/en/products/agent/download.html) y

(http://www.copernic.com/en/products/agent/screenshots.html) [local versión vieja] o Spypress (http://www.spypress.com) o Tracerlock (http://www.tracerlock.com) o Trademarkbots (http://www.trademarkbots.com) ¿Qué dicen de mi y de mi empresa?

buscan en 11 sitios (blogs, noticias, foros…). o Google News (http://news.google.com). Podemos crear alertas

(http://www.google.com/newsalerts), de forma que nos avisen cuando haya una noticia sobre

la palabra solicitada. Podemnos confeccionar un periódico a medida.

e) Agente secreto o espía

Monitorizan una página web identificada previamente por el usuario -una página con la información financiera de una empresa, una web oficial con normativa europea, la página con ofertas de empleo de una empresa, etc.- e informan cuando se producen cambios en dicha página.

o Changedetection (http://www.changedetection.com) o Spyweb (http://www.spypress.com/spyweb.php)

4) Sistemas multiagente

En general no se trabaja con agentes aislados sino con sistemas multi-agente, como el de la figura siguiente, tomada del Borrador Documento AECA, Serie Nuevas Tecnologías y Contabilidad "Inteligencia Artificial y Contabilidad".

O la siguiente, tomada del agente WARREN (http://www-2.cs.cmu.edu/~softagents/warren.html) que se compone de varios agentes simples.

Page 80: Inteligencia artificial isc

http://ciberconta.unizar.es/LECCION/INTRODUC/482.HTM

1.14El papel de la heurística.

Búsqueda Heurística

Para resolver muchos problemas difíciles (explosión combinatoria), es necesario muchas veces llegar a un compromiso de los requerimientos de movilidad y sistematicidad y construir una estructura de control que no necesariamente garantiza el encontrar la mejor respuesta, sino que casi siempre encuentra una buena respuesta. Una técnica heurística mejora la eficiencia del proceso de búsqueda sacrificando, usualmente, exhaustividad.

Las consideraciones que sirven de soporte a un proceso de búsqueda heurística, son:

Rara vez se requiere, en realidad, una solución óptima. Una buena aproximación, normalmente, sirve muy bien.

A pesar que una aproximación heurística no puede resultar muy buena en el peor de los casos, raras veces aparecen los peores casos en la práctica.

El tratar de comprender por qué un heurístico funciona o por qué no funciona, a menudo conduce a una mejor comprensión del problema.

Procesos Heurísticos de Búsqueda

Las técnicas heurísticas de búsqueda son como guías de turismo. Buenas, en el sentido que señalan aspectos de gran interés general, pero malas ya que pueden no satisfacer aspectos de interés particular.

Page 81: Inteligencia artificial isc

Existen varias técnicas heurísticas buenas, de propósito general, que son útiles para una diversidad de problemas. Adicionalmente, es posible construir heurísticos especiales que exploten conocimiento específico en cada dominio, para resolver problemas particulares.

http://www.ilustrados.com/publicaciones/EpZVVZkuVlzIqITikQ.php

Heurística: Es la capacidad de detectar virus desconocidos por medio de sondeos del sistema en busca de "sintomás" clásicos de infección como puede ser fechas extrañas en ficheros, programas residentes en memoria, configuración extraña del sistema ( como por ejemplo que  Windows 95 tenga activado el modo de compatibilidad MS-DOS ), etc. El problema de la heurística es que puede dar "falsos positivos" es decir, puede dar por infectado un fichero que en realidad no lo está. 

http://usuarios.lycos.es/urogallo/antivir.html

La heurística es la aplicación de conocimiento derivado de la experiencia a un problema y también se utiliza para describir software que revisa y filtra mensajes que posiblemente contengan un virus de computador o contenido no deseado. Software basado en heurística busca fuentes conocidas, frases de texto usadas comúnmente, y patrones de contenido y/o transmisión que la experiencia ha demostrado que están asociados con correo electrónico infectado con virus. Dado que muchas empresas y/o usuarios reciben un alto volumen de correo electrónico y que correo válido puede también seguir los patrones, los programas basados en heurística también arrojan "positivos falsos", desestimando su uso. Los expertos en seguridad indican que aunque los programas tienen espacio para mejorar, la heurística es una herramienta valiosa y necesaria.

http://www.gestiopolis.com/delta/term/TER235.html

Unidad 2. Representación del conocimiento y razonamiento.

2.10 Mapas conceptuales.

Un mapa conceptual es un recurso esquematico para presentar un conjunto de significados conceptuales incluidos en una estructura de proposiciones". Novak

Los mapas conceptuales son una herramienta para el aprendizaje muy util.

Hay mapas conceptuales que no son tales, son una serie de graficos diseñados siguiendo criterios esteticos o simbologias personales casi cabalistiscos o esotericos, un buen mapa es aquel que ayuda a aprender y que se entiende nada mas mirarlo, si lo que tenemos delante ni lo entendemos ni nos aclara nada no es tal mapa conceptual

http://www.pacorey.net/mapcon/indicemapas.htm

Page 82: Inteligencia artificial isc

Mapas Conceptuales

En relación con el tema de mapas conceptuales se hallan en la literatura diversas expresiones, tales como mapas conceptuales, mapas cognitivos, mapas mentales, esquemas cognitivos, esquemas conceptuales y otros. En relación con las diversas acepciones, significados y usos, pueden consultarse entre otros, los sitios y documentos en Internet incluidos en las referencias.

La forma en que concebimos los mapas conceptuales guarda mayor afinidad con la de los autores Novak y Gowin (1988), y Skemp (1987, 1989). Usaremos aquí el término esquema conceptual en el significado de Skemp, según este autor, el aprendizaje inteligente implica la construcción de esquemas, que son estructuras cognitivas o intelectuales que representan las relaciones entre conceptos y procesos, por una parte, y entre varios esquemas, por la otra (Skemp, 1989, pp. 32-48)

La expresión "mapa conceptual" tiene una más amplia difusión en la literatura; según Skemp (1987, p. 122), corresponde a un tipo particular de esquema, donde se presenta un orden parcial entre los conceptos según cuales sean necesarios para adquirir otros y útil en planificación de secuencias instruccionales y en diagnostico. Novak y Gowin (1988) indican que los mapas conceptuales "tienen por objeto representar relaciones significativas entre conceptos en forma de proposiciones". (p. 33)

En la caracterización dada por estos autores a los mapas conceptuales destaca la idea de jerarquía. Skemp distingue entre conceptos primarios y secundarios, siendo los segundos casos particulares o ejemplos de los primeros y entonces, de menor orden. En relación con los mismos establece sus dos principios del aprendizaje de las matemáticas:

1. Conceptos de un orden mayor que aquellos que ya tiene el estudiante, no pueden serles comunicados por definiciones, sino por hacerle disponible una adecuada colección de ejemplos.

2. Como en matemática estos ejemplos son casi invariablemente otros conceptos, antes debemos asegurarnos que los mismos ya hayan sido adquiridos. (Skemp, 1987, p. 18)

Similarmente, Novak y Gowin, indican que los conceptos mas generales o inclusivos deben representarse en la parte superior del mapa, y los más específicos o menos inclusivos, en la inferior. De esta forma, Novak y Gowin explicitan la jerarquía por la disposición física arriba-abajo de los conceptos en la representación visual de los mapas. Skemp, por su parte, lo indica mediante flechas entre los conceptos. Novak y Gowin reservan el uso de flechas "... solo en el caso de que la relación de que se trate no sea de subordinación entre conceptos" (op. cit. p. 48)

En ambos casos los componentes fundamentales son los conceptos y la relación entre ellos, sin embargo, la relación que establece Skemp es de orden (en el sentido dado en los principios 1 y 2) y las líneas con punta de flecha que enlazan los conceptos tienen ese significado, mientras que Novak y Gowin rotulan las líneas de enlace con lo que denomina palabras-enlace, las cuales expresan el tipo de relación, constituyendo así la unidad mínima proposicional: dos conceptos relacionados por una palabra-enlace.

Aquí nos referiremos con mapa conceptual coincidiendo con Novak y Gowin, a la representación de un determinado esquema conceptual: "...los mapas conceptuales constituyen una representación explícita y manifiesta de los conceptos y proposiciones que posee una persona" (1988, p. 38). Esta acepción de mapa

Page 83: Inteligencia artificial isc

conceptual es compatible con la de Skemp, en cuanto que el mapa conceptual elaborado por un docente es la representación de su esquema conceptual o más precisamente, de parte de varios de sus esquemas conceptuales sobre la asignatura a enseñar, sus recursos didácticos y sus valores, en el caso especifico de una instrucción o evaluación a una población determinada.

El esquema conceptual es entonces, un constructo y el mapa conceptual, una representación de aquel según la percepción de quien lo elabora. En la construcción de un mapa conceptual interviene entonces el esquema conceptual de quien lo elabora, de cuál es su idea de una válida organización de conceptos y relaciones, y sobre la forma de enseñarla o promover su aprendizaje. Este es un factor determinante en la labor docente, cuando el profesor hace una estimación del esquema conceptual de sus alumnos y sobre esta base decide una particular secuencia instruccional.

Ubicamos el mapa conceptual en el contexto del planteamiento de Ausubel sobre el aprendizaje, de acuerdo a este autor el factor de mayor influencia en el aprendizaje es lo que el estudiante ya conoce, y la ocurrencia del aprendizaje significativo se da cuando quien aprende, establece consciente y explícitamente relaciones entre el nuevo conocimiento y el que ya posee.

En el contexto didáctico, el profesor estima el estado de los esquemas conceptuales de sus estudiantes mediante la observación de sus conductas, a partir de las cuales hace una representación (rara vez explícita y consciente) de sus esquemas. Contando entonces con sus propios esquemas conceptuales y una idea de cómo debe estar organizado el conocimiento (su mapa conceptual, eventualmente compartido por una comunidad), selecciona partes de este mapa conceptual para diseñar una secuencia instruccional con el objeto de incidir en los esquemas conceptuales de sus alumnos. Distinguimos en nuestra idea de mapa conceptual, los siguientes elementos:

(1) nodos, en los cuales se indican principalmente conceptos, definidos según Novak y Gowin como "... una regularidad en los acontecimientos o en los objetos que se designa mediante algún termino" (op. cit., p. 22). Incluimos también otra información, como actividades, comentarios, dudas, teorías y otros mapas conceptuales. En la representación visual, adoptaremos formas y eventualmente colores distintos para cada uno:

(2) enlace entre dos nodos, en la forma indicada a continuación:

Page 84: Inteligencia artificial isc

Al enlazar más de dos nodos, distinguimos los siguientes casos:

En general, el sentido (-->) indica el carácter contributivo del concepto antecedente respecto del consecuente. Una flecha (-->) sin rotulo indica solo esta relación, el rotulo r sobre el enlace da información adicional.

(3) palabras-enlace, rotulo sobre los enlaces, indicando el carácter de la relación. Los enlaces ---> no llevan rotulo, el mismo se deduce del antecedente y consecuente: comentario o duda sobre el consecuente.

(4) proposiciones, unidades semánticas formadas por dos o más conceptos relacionados por palabras-enlacePara simplificar visualmente el mapa, abreviamos la indicación de actividades o comentarios estandarizados o de uso frecuente, mediante un recuadro con símbolos prefijados y sin línea de enlace, por ejemplo:

Page 85: Inteligencia artificial isc

(5) numeración de nodos, indicando una posible secuencia instruccional. El uso de las flechas y numeración de nodos es compatible con la disposicion jerarquica arriba-abajo de Novak y Gowin, y permite una mayor riqueza y flexibilidad al mapa.

II. ¿Cómo nace un mapa conceptual?

Identificamos, entre otras, dos motivaciones para la elaboración de un mapa conceptual, la primera se origina a partir de la apreciación de una dificultad en el aprendizaje de un tema o contenido especifico, representado a veces en un problema que los alumnos no han podido resolver; la segunda, en el interés en representar cierta área o bloque de contenidos. Para ejemplificar la primera forma, consideremos la siguiente situación real. De un total de 559 estudiantes que en una prueba tenían el problema siguiente:

Determinar el dominio de la función dada por:

209 no desarrollaron respuesta alguna y 31 la respondieron correctamente. De aquellos que escribieron algo, indicamos algunos de los errores más frecuentes fueron: interpretación del símbolo "/" como "tal que", introducir la ecuación: 2x-4=0 y, considerar f definida como f(x)=1/2 /(2x-4). En esta situación, se planteó una sesión de trabajo conjuntamente con cinco estudiantes a quienes se presento una hoja representando conceptos aislados como en la siguiente figura:

A partir de la misma, se elaboró el siguiente mapa conceptual:

Page 86: Inteligencia artificial isc

Se hace notar que el término "dominio máximo" no se ha encontrado en la literatura. Este término, sugerido por un estudiante, fue adoptado en esta actividad, explicando el abuso de lenguaje cometido al pedir determinar el dominio de una función.

En el siguiente ejemplo queremos poner de manifiesto la idoneidad de los mapas conceptuales como herramienta para promover la integración de contenidos y la atención a los ejes transversales, los cuales son dos aspectos resaltantes en la reciente propuesta de reforma curricular de la escuela básica en Venezuela. (Ministerio de Educación, 1997)

En este caso consideremos la planificación de una secuencia instruccional en geometría a estudiantes de la Escuela Básica en un aula integrada con niños con deficiencia visual.Leyenda para las abreviaturas:

ETL Eje Transversal Lengua                 LH Libro Hablado

VP Variabilidad Perceptiva                   VM Variabilidad Matemática

RI Reconciliación Integradora              MC Material Concreto

GR Gráfico en Relieve                          TB Texto Braille

ETP Eje Transversal Desarrollo del Pensamiento

El material concreto aquí considerado (MC), consta de varias figuras poligonales en diversos tamaños, colores y texturas, incluyendo triángulos, rectángulos, pentágonos y hexágonos.

Page 87: Inteligencia artificial isc

El problema propuesto inicialmente se plantea en un lenguaje contextual y relacionado con los intereses del niño. Su interpretación en un lenguaje común, contribuye al desarrollo de los ejes lengua y desarrollo del pensamiento. La atención a los valores es promovida por el trabajo en equipo con niños de distintas capacidades perceptivas.

Page 88: Inteligencia artificial isc

http://members.tripod.com/DE_VISU/mapas_conceptuales.html

¿Qué son los mapas conceptuales?

Los mapas conceptuales, son una técnica que cada día se utiliza más en los diferentes niveles educativos, desde preescolar hasta la Universidad, en informes hasta en tesis de investigación, utilizados como técnica de estudio hasta herramienta para el aprendizaje, ya que permite al docente ir construyendo con sus alumnos y explorar en estos los conocimientos previos y al alumno organizar, interrelacionar y fijar el conocimiento del contenido estudiado. El ejercicio de elaboración de mapas conceptuales fomenta la reflexión, el análisis y la creatividad.Con relación a lo antes expuesto, del Castillo y Olivares Barberán, expresan que "el mapa conceptual aparece como una herramienta de asociación, interrelación, discriminación, descripción y ejemplificación de contenidos, con un alto poder de visualización". (2001,p.1) Los autores señalados exponen que los mapas no deben ser principio y fin de un contenido, siendo necesario seguir "adelante con la unidad didáctica programada, clases expositivas, ejercicios-tipo, resolución de problemas, tareas grupales... etc.", lo que nos permite inferir que es una técnica que si la usamos desvinculada de otras puede limitar el aprendizaje significativo, viendolo desde una perspectiva global del conocimiento y considerando la conveniencia de usar en el aula diversos recursos y estrategias dirigidas a dinamizar y obtener la atención del alumno; es por eso que la recomendamos como parte de un proceso donde deben incluirse otras técnicas como el resumen argumentativo, el análisis critico reflexivo, la exposición, análisis de conceptos, discusiones grupales...(ver TECLAS )

2. Elementos que componen los mapas conceptuales:

Concepto: Un concepto es un evento o un objeto que con regularidad se denomina con un nombre o etiqueta (Novak y Gowin, 1988) Por ejemplo, agua, casa silla, lluvia.El concepto, puede ser considerado como aquella palabra que se emplea para designar cierta imagen de un objeto o de un acontecimiento que se produce en la mente del individuo. (Segovia, 2001). Existen conceptos que nos definen elementos concretos (casa, escritorio) y otros que definen nociones abstractas, que no podemos tocar pero que existen en la realidad ( Democracia, Estado)Palabras de enlace: Son las preposiciones, las conjunciones, el adverbio y en general todas las palabras que no sean concepto y que se utilizan para relacionar estos y así armar una "proposición" Ej. : para, por, donde, como, entre otras. Las palabras enlace permiten, junto con los conceptos, construir frases u oraciones con significado lógico y hallar la conexión entre conceptos. Proposición: Una proposición es dos o más conceptos ligados por palabras enlace en una unidad semántica.Líneas y Flechas de Enlace: En los mapas conceptuales convencionalmente, no se utilizan las flechas porque la relación entre conceptos esta especificada por las palabras de enlace, se utilizan las líneas para unir los conceptos.. Las Flechas: Novak y Gowin reservan el uso de flechas "... solo en el caso de que la relación de que se trate no sea de subordinación entre conceptos", por lo tanto, se pueden utilizan para representar una relación cruzada, entre los conceptos de una sección del mapa y los de otra parte del "árbol" conceptual.. La flecha nos indica que no existe una relación de subordinación. Por ejemplo: agua, suelo, fruta.Conexiones Cruzadas: Cuando se establece entre dos conceptos ubicados en diferentes segmentos del mapa conceptual, una relación significativa.

Las conexiones cruzadas muestran relaciones entre dos segmentos distintos de la jerarquía conceptual que se integran en un solo conocimiento. La representación grafica en el mapa para señalar la existencia de una conexión cruzada es a través de una flecha.

Cómo se representan los mapas conceptuales:El mapa conceptual es un entramado de líneas que se unen en distintos puntos, utilizando fundamentalmente dos elementos gráficos:

Page 89: Inteligencia artificial isc

3. La elipse u ovalo

Los conceptos se colocan dentro de la elipse y las palabras enlace se escriben sobre o junto a la línea que une los conceptos.Muchos autores están empleando algunos símbolos para incluir, además de los conceptos y proposiciones, otra información como: actividades, comentarios, dudas, teorías... En la representación visual, adoptan formas y eventualmente colores distintos para cada uno:

Tomado de: Oswaldo Monagas. Universidad Nacional Abierta, Venezuelajulio, 1998

Los mapas conceptuales permiten al estudiante:

Facilita la organización lógica y estructurada de los contenidos de aprendizaje, ya que son útiles para seleccionar, extraer y separar la información significativa o importante de la información superficial

Interpretar, comprender e inferir de la lectura realizada Integrar la información en un todo, estableciendo relaciones de subordinación e

interrelación Desarrollar ideas y conceptos a través de un aprendizaje interrelacionado, pudiendo

precisar si un concepto es en si válido e importante y si hacen falta enlaces; Lo cual le permite determinar la necesidad de investigar y profundizar en el contenido Ej. Al realizar el mapa conceptual de Estado, puede inquirir sobre conceptos como Poder. Democracia, Dictadura....

Insertar nuevos conceptos en la propia estructura de conocimiento. Organizar el pensamiento Expresar el propio conocimiento actual acerca de un tópico Organizar el material de estudio. Al utilizarse imágenes y colores, la fijación en la memoria es mucho mayor, dada la

capacidad del hombre de recordar imágenes.

Lo expuesto permite afirmar que un mapa conceptual es:Un resumen esquemático que representa un conjunto de significados conceptuales incluidos en una estructura de proposiciones". (Joseph D. Novak)Un  Resumen: ya que contiene las ideas más importantes de un mensaje, tema o texto.Un Esquema: dado que es una representación Grafica, se simboliza fundamentalmente con modelos simples (líneas y óvalos) y pocas palabras (conceptos y palabras enlace), Dibujos, colores, líneas, flechas (conexiones cruzadas) Una Estructura: se refiere a la ubicación y organización de las distintas partes de un todo. En un mapa conceptual los conceptos más importantes o generales se ubican arriba, desprendiéndose hacia abajo los de menor jerarquía. Todos son unidos con líneas y se encuentran dentro de óvalos.Conjunto de significados: dado que se representan ideas conectadas y con sentido, enunciadas a través de proposiciones y/o conceptos(frases)

Características de un Mapa Conceptual.

Los MAPAS CONCEPTUALES deben ser simples, y mostrar claramente las relaciones entre conceptos y/o proposiciones.

Van de lo general a lo específico, las ideas más generales o inclusivas, ocupan el ápice o parte superior de la estructura y las más específicas y los ejemplos la parte inferior. Aún cuando muchos autores abogan porque estos no tienen que ser necesariamente simétricos.

Page 90: Inteligencia artificial isc

Deben ser vistosos, mientras más visual se haga el mapa, la cantidad de materia que se logra memorizar aumenta y se acrecienta la duración de esa memorización, ya que se desarrolla la percepción, beneficiando con la actividad de visualización a estudiantes con problemas de la atención.

Los conceptos, que nunca se repiten, van dentro de óvalos y la palabras enlace se ubican cerca de las líneas de relación.

Es conveniente escribir los conceptos con letra mayúscula y las palabras de enlace en minúscula, pudiendo ser distintas a las utilizadas en el texto, siempre y cuando se mantenga el significado de la proposición. 

Para las palabras enlace se pueden utilizar verbos, preposiciones, conjunciones, u otro tipo de nexo conceptual, las palabras enlace le dan sentido al mapa hasta para personas que no conozcan mucho del tema.

Si la idea principal puede ser dividida en dos o más conceptos iguales estos conceptos deben ir en la misma línea o altura.

Un mapa conceptual es una forma breve de representar información.

Los errores en los mapas se generan si las relaciones entre los conceptos son incorrectas.Es fundamental considerar que en la construcción del mapa conceptual, lo importante son las relaciones que se establezcan entre los conceptos a través de las palabras-enlace que permitan configuran un "valor de verdad" sobre el tema estudiado, es decir si estamos construyendo un mapa conceptual sobre el "Poder Político" la estructura y relaciones de este deben llevar a representar este concepto y no otro. Para elaborar mapas conceptuales se requiere dominar la información y los conocimientos (conceptos) con los que se va a trabajar, lo que quiere indicar que si no tenemos conocimientos previos por ejemplo sobre energía nuclear mal podríamos intentar hacer un mapa sobre el tema, y de atrevernos a hacerlo pueden generarse las siguientes fallas en su construcción:

Que sea una representación gráfica arbitraria, ilógica, producto del azar y sin una estructuración pertinente

Que solo sean secuencias lineales de acontecimientos, donde no se evidencie la relación de lo más general a lo específico

Que las relaciones entre conceptos sean confusas e impidan encontrarle sentido y orden lógico al mapa conceptual.

Que los conceptos estén aislados, o lo que es lo mismo que no se de la interrelación entre ellos.

¿Como hacer un mapa conceptual?

1. – En la medida que se lea debe identificarse las ideas o conceptos principales e ideas secundarias y se elabora con ellos una lista.

2. - Esa lista representa como los conceptos aparecen en la lectura, pero no como están conectadas las ideas, ni el orden de inclusión y derivado que llevan en el mapa. Hay que recordar que un autor puede tomar una idea y expresarla de diversas maneras en su discurso, para aclarar o enfatizar algunos aspectos y en el mapa no se repetirán conceptos ni necesariamente debe seguirse el orden de aparición que tienen en la lectura.

3: - Seleccionar los conceptos que se derivan unos de otros.

4. - Seleccionar los conceptos que no se derivan uno del otro pero que tienen una relación cruzada

5.- Si se consiguen dos o más conceptos que tengan el mismo peso o importancia, estos conceptos deben ir en la misma línea o altura, es decir al mismo nivel y luego se relacionan con las ideas principales.

Page 91: Inteligencia artificial isc

6. - Utilizar líneas que conecten los conceptos, y escribir sobre cada línea una palabra o enunciado ( palabra enlace) que aclare porque los conceptos están conectados entre sí.

7. _ Ubicar las imágenes que complementen o le dan mayor significados a los conceptos o proposiciones

8. -. Diseñar ejemplos que permitan concretar las proposiciones y /o conceptos

9- Seleccionar colores, que establezcan diferencias entre los conceptos que se derivan unos de otros y los relacionados ( conexiones cruzadas)

10. - Seleccionar las figuras (óvalos, rectángulos, círculos, nubes) de acuerdo a la información a manejar.

11. - El siguiente paso será construir el mapa, ordenando los conceptos en correspondencia al conocimiento organizado y con una secuencia instruccional. Los conceptos deben ir representados desde el más general al más especifico en orden descendente y utilizando las líneas cruzadas para los conceptos o proposiciones interrelacionadas.

http://www.monografias.com/trabajos10/mema/mema.shtml

Qué son los mapas conceptuales?

Los mapas conceptuales son un material sumamente útil para organizar los contenidos vistos durante una unidad y, además, contribuyen al desarrollo de habilidades de síntesis y de pensamiento en sistemas. Sin embargo, muchas veces no existe claridad acerca de su estructura y finalidad. En este artículo se desarrollan las características de este material didáctico y se entregan una serie de ejemplos clarificadores.

Este documento se basa en la propuesta realizada por Novak y Gowin (1988) acerca del conocimiento, el aprendizaje, la realización de mapas conceptuales, las posibilidades sobre su elaboración y aplicación para el aprendizaje significativo.

Los mapas conceptuales tienen su origen en los trabajos que Novak y sus colaboradores de la Universidad de Cornell realizaron a partir de la Teoría del Aprendizaje Significativo de Ausubel. Estos autores comparten la idea, ampliamente aceptada en la investigación educativa realizada durante los últimos años, de la importancia de la actividad constructiva del estudiante en el proceso de aprendizaje, y consideran que los conceptos y las proposiciones que forman los conceptos entre sí son elementos centrales en la estructura del conocimiento y en la construcción del significado.

Entonces, los mapas conceptuales son un medio de visualizar conceptos y relaciones jerárquicas entre conceptos. La capacidad humana es muchos más notable para el recuerdo de imágenes visuales que para los detalles concretos. Con la elaboración de mapas conceptuales se aprovecha esta capacidad humana de reconocer pautas en las imágenes para facilitar el aprendizaje y el recuerdo.Los mapas conceptuales tienen por objeto representar relaciones significativas entre conceptos en forma de proposiciones. Una proposición consta de dos o más términos conceptuales unidos por palabras para formar una unidad semántica. En su forma más simple, un mapa conceptual constaría tan sólo de dos conceptos unidos por una palabra de enlace para formar una proposición; por ejemplo, «el cielo es azul» representaría un mapa conceptual simple que forma una proposición válida referida a los conceptos «cielo» y «azul». Los mapas conceptuales tienen por objeto representar relaciones significativas entre conceptos en forma de proposiciones.

En relación al aprendizaje, los mapas conceptuales proporcionan un resumen esquemático de todo lo que se ha aprendido.

Considerando que se produce más fácilmente un aprendizaje significativo cuando los nuevos conceptos o significados conceptuales se engloban bajo otros conceptos más amplios, más

Page 92: Inteligencia artificial isc

inclusivos, los mapas conceptuales deben ser jerárquicos; es decir, los conceptos más generales e inclusivos deben situarse en la parte superior del mapa y los conceptos progresivamente más específicos y menos inclusivos, en la inferior .

Vale la pena recordar lo que sucede con un número relativamente pequeño de conceptos que los alumnos y alumnas adquieren muy pronto mediante un proceso de aprendizaje por descubrimiento, no obstante esto, la mayor parte de los significados conceptuales se aprende mediante la composición de proposiciones en las que se incluye el concepto que se va a adquirir. Aunque las ayudas experienciales concretas pueden facilitar el aprendizaje de conceptos, la regularidad representada por el signo conceptual adquiere un significado adicional por medio de enunciados proposicionales en los que se incluye el concepto en cuestión. Así, las frases «la hierba es verde», «la hierba es un vegetal», «la hierba crece», «la hierba es una planta monocotiledónea», etc., dan lugar a un incremento en el significado, y en la precisión del significado, del concepto «hierba».

Un mapa conceptual es, por tanto, un recurso esquemático para representar un conjunto de significados conceptuales incluidos en una estructura de proposiciones que tiene por objeto representar las relaciones significativas entre los conceptos del contenido (externo) y del conocimiento del sujeto.

http://www.educarchile.cl/ntg/planificaccion/1610/propertyvalue-40143.html

2.11 Redes semánticas.

Redes semánticas y marcos

Por qué usar redes semánticas y marcos si pueden reducirse a lógica de primer orden?

o facilidad de comprensión y de visualización de los procesos de inferencia o facilidad de control o implementaciones eficientes

Sintaxis y semántica de las redes semánticas

se concentran en categorias de objetos y relaciones entre ellos históricamente problemas de falta de una semántica bien definida,

frecuentemente semántica inducida del comportamiento Relaciones member y subset que permiten la herencia de propiedades relaciones típicas y su traslación a FOL algoritmos de razonamiento de propósito especial que siguen los links: mas

rápidos que los generales de FOL

Herencia con excepciones

valor por defecto, B es un valor por defecto para la relación R y los miembros de A Rel(R, A, B): cada miembro de A debe tener una relación R con B a no ser que intervenga otro A' tal que Rel(R, A', B')

reificación: define la semántica en FOL o reificar la relación: se convierte la relación R en un objeto, no en un

predicado como sería lo normal

Page 93: Inteligencia artificial isc

o Rel(R, A, B) es una sentencia atómica. No podemos escribier R(x,B) ya que R es un objeto y no un predicado

o Val(R, x, B) significa que el equivalente de una relación R(x,B) se introduce explícitamente en la red semántica

o como saber que relaciones no se satisfacen?

Herencia múltiple

un objeto puede pertenecer a más de una categoría y heredar propiedades por varios caminos

necesidad de información adicional para resolver los conflictos

Herencia y cambio

recuérdese la propiedad

la herencia de propiedades es no monótona o las lógicas no monótonas pueden tratar una proposición como cierta

hasta que una evidencia adicional la hace falsa o RETRACT y TELL

Implementación de redes semánticas

datatype SEM-NET-NODEcomponents : NAME, MEMBERSHIPS, ELEMENTS, SUPERS, SUBS RELS-IN, RELS-OUT, ALL-RELS-IN, ALL-RELS-OUT

los campos REL pueden organizarse con una tabla indexada por relación cada función sigue los links apropiados para responder a las preguntas es importante que la implementación no introduzca ambigüedades en la

semántica

Expresividad las redes semánticas

en lo visto no es posible representar negación, disyunción, cuantificadores. Alternativas:

o extender los esquemas para permitir todo FOL: redes semánticas particionadas, grafos conceptuales, ...

Page 94: Inteligencia artificial isc

o enganche procedural: una función (en otro lenguaje) como valor de una relación

ventajas a pesar de la falta de expresividad o modulares o sencillez y de fácil comprensión o eficientes: se infiere siguiendo los links

http://www.dc.fi.udc.es/.aios/people/barreiro/iadocen/iatema08/node17.html

REDES SEMÁNTICAS

Estos sistemas de organización del conocimiento estructuran conceptos, no como jerarquía sino como una red o una web.Los conceptos son como nodos, con varias relaciones que se ramifican hacia fuera de ellas. Las relaciones van generalmente más allá del BT, del NT y del RT estándares, pueden incluir relaciones tipo todo-parte, causa-efecto, padre-niño, es_un o es_parte.Las redes semánticas son grafos orientados que proporcionan una representación declarativa de objetos, propiedades y relaciones. Ejemplo:

http://es.geocities.com/ontologia2004/red.htm

Redes Semánticas

Quillian'66

Modelo de memoria humana para capturar la semántica de las palabras y lograr uso del significado parecido a los humanos.

Page 95: Inteligencia artificial isc

Un tipo de red en la cual los nodos representan objetos, conceptos o situaciones y los arcos representan relaciones entre ellos.

Realmente es una estructura de datos sofisticada y mucho depende del programa que la mantiene y la usa.

Se llama red semántica porque se usaron originalmente para representar el sentido en expresiones de lenguaje natural.

Los nodos: conceptos de palabras Los arcos: ligan conceptos para establecer la definición

Cada palabra o nodo conceptual se consideraba la cabeza de un ``plano'' que tiene su definición (e.g., si banco tiene 3 significados, entoces existen 3 planos para él).

Las ligas en el plano representan su definición.

Pueden existir apuntadores a: superclases (is-a), modificaciones, disjunciones, conjunciones y sujeto/objeto.

Apuntadores fuera del plano hacen referencia a otros objetos (y planos) en donde se definen.

Pruebas: dar dos palabras y buscar intersecciones en las redes, para obtener la relación (cosas en común) entre ellas.

Esta activación de todo lo que rodea a una palabra se esperaba que representara la definición completa de un concepto.

Existían 2 ligas pricipales:

subclase (is-a): las clases de ``arriba'' están definidas en términos de conceptos generales que se asumen que se cumplen en todas sus subclases

modificadores: propiedades particulares de conceptos específicos

Puede existir herencia (e.g., un canario es un animal), y herencia de propiedades (e.g., un canario come) e.g.,

El que un canario tiene piel se tarda más en deducir que es amarillo (parece que ésto se confirma, aunque no concluyentemente, del tiempo de reacción de la memoria humana).

Esto dió pie a la definición de distancia semántica entre conceptos (número de ligas a recorrer).

Relaciones más complicadas:

piolin- es-un 

canario - es-un

ave - tiene alas 

Page 96: Inteligencia artificial isc

            

duenio           

posesion - es-un 

pertenencia - es-unsituacion                

es-duenio-de 

``Petit Chateau'' - es-unnido 

tiempo-inic 

primavera - es-un  tiempo 

tiempo-final septiembre - es-un

El permitir tener un conjunto de arcos de salida también se llama ``case frame''.

posesión es una instancia de pertenencia y hereda los arcos del ``case frame''.

Las redes semánticas permiten tener valores por default y cierta expectación acerca de los posibles valores de un atributo.

La idea es tratar de tener un conjunto adecuado (pequeño) de nodos y de ``case frames'' genéricos.

El error más común es usar la liga es-un para representar pertenencia a una clase y propiedades de una clase, e.g.

Existen propiedades que no se heredan a los miembros de la clase, e.g.,

Se pueden hacer preguntas como, Qué es lo que Piolín tiene? o Quién es una ave?  

http://www.mor.itesm.mx/~rdec/node79.html

Esquemas de redes semánticas

Los responsables de los primeros esquemas de representación formalizados fueron Quillian (1968) y Shapiro & Woddmansee (1971). Los esquemas de redes semánticas tienen una fundamentación psicológica muy sólida, tal y como apuntábamos en el Capítulo 2, por lo que se han realizado numerosos esfuerzos por llevar a cabo implementaciones importantes basadas en ellas.

Las redes semánticas han sido muy utilizadas en IA para representar el conocimiento y por tanto ha existido una gran diversificación de técnicas. Los elementos básicos que encontramos en todos los esquemas de redes son:

Page 97: Inteligencia artificial isc

1. Estructuras de datos en nodos, que representan conceptos, unidas por arcos que representan las relaciones entre los conceptos.

2. Un conjunto de procedimientos de inferencia que operan sobre las estructuras de datos.

Básicamente, podemos distinguir tres categorías de redes semánticas:

1. Redes IS-A, en las que los enlaces entre nodos están etiquetados. 2. Grafos conceptuales: en los que existen dos tipos de nodos: de conceptos y de

relaciones 3. Redes de marcos: en los que los puntos de unión de los enlaces son parte de la

etiqueta del nodo.

En general, cuando se habla de "redes semánticas" se suele hacer referencia a uno de estos esquemas, normalmente a las redes IS-A o a los esquemas basados en marcos, que comparten ciertas características fundamentales. De entre estas características compartidas destacamos la herencia por defecto (default inheritance). En una red semántica, los conceptos (o estructuras, clases, marcos, dependiendo del esquema concreto) están organizados en una red en la que existe un nodo superior (top: T) al que se le asigna uno o varios nodos hijos, que a su vez tienen otros conceptos hijos y así sucesivamente hasta que se

alcanza el final (bottom: ), cuyos nodos ya no son conceptos sino instancias.

A continuación estudiamos los tres tipos de esquemas de redes semánticas que han tenido una mayor repercusión. De los tres, el esquema basado en marcos es el que permite una mayor flexibilidad, y el que ha recibido mayor atención por parte de los investigadores de ciencia cognitiva y lingüística.

4.3.2.1 Redes IS-A

Sin duda el tipo de red semántica por excelencia es el de redes IS-A. De hecho muchas veces se menciona este tipo como sinónimo de "red semántica", y los restantes tipos también incorporan este tipo de enlaces o arcos (links). Esto ha dado lugar a que existan casi tantos significados para un enlace IS-A como los hay para sistemas de KR (Brachman, 1983).

Una red IS-A es una jerarquía taxonómica cuya espina dorsal está constituida por un sistema de enlaces de herencia entre los objetos o conceptos de representación, conocidos como nodos. Estos enlaces o arcos pueden estar etiquetados "IS-A", también "SUPERC", "AKO", "SUBSET", etc. Los restantes tipos de redes semánticas son en realidad especializaciones de redes IS-A, por lo que siguen y amplían los conceptos fundamentales que exponemos en este apartado.

Las redes IS-A son el resultado de la observación de que gran parte del conocimiento humano se basa en la adscripción de un subconjunto de elementos como parte de otro más general. Las taxonomías clásicas naturales son un buen ejemplo: un perro es un cánido, un cánido es un mamífero, un mamífero es un animal. Obteniendo un número de proposiciones:

x (perro (x)) cánido (x);

x (cánido (x)) mamífero (x);

x (mamífero (x)) animal (x);

La estructuración jerárquica facilita que la adscripción de propiedades a una determinada categoría se reduzca a aquellas que son específicas a la misma, heredando aquellas propiedades de las categorías superiores de la jerarquía, tradicionalmente de una forma monotónica. El siguiente ejemplo de red IS-A (Figura 4.11), tomado de (Brachman 1983:31) ejemplifica una red semántica típica con herencia de propiedades.

Page 98: Inteligencia artificial isc

Figura 4.11 Ejemplo de red IS-A

El concepto de herencia es fundamental para entender el funcionamiento de las redes semánticas, así como el del modelo de datos orientado al objeto, que toma prestados estos mecanismos desarrollados en el ámbito de la IA. Siguiendo a Shastri (1988), definimos la herencia como el sistema de razonamiento que lleva a un agente a deducir propiedades de un concepto basándose en las propiedades de conceptos más altos en la jerarquía.22

Así, en el ejemplo jerárquico de la Figura 411, el agente23 sería capaz de atribuir las propiedades "breathes" o "has gills" al concepto "shark" sin que éstas se encuentren específicamente mencionadas. La herencia, por tanto, puede ser definida como el proceso mediante el cual se determinan unas propiedades de un concepto C, buscando las propiedades atribuidas localmente a C, si esta información no se encuentra a nivel local, buscando las propiedades atribuidas a conceptos que se encuentran en los niveles superiores a C en la jerarquía conceptual.

Como Brachman (1983) recuerda, las nodos de las estructuras IS-A se han usado para representar muchas cosas, pero la división más importante es la interpretación genérica o específica de los nodos, es decir, si éstos representan un sólo individuo o varios. Los nodos situados en lo más bajo de la jerarquía y que denotan individuos son llamados tokens, mientras que los nodos superiores, que denotan clases de individuos son considerados types. Puesto que en una misma jerarquía podemos obtener nodos de ambos tipos, se debe hacer explícita una distinción de los tipos de enlaces. Por un lado existen enlaces que conectan categorías (genéricas) con otras categorías, y por otro, enlaces entre categorías e individuos. Las primeras pueden expresar las siguientes relaciones:

1. Subconjunto/superconjunto 2. Generalización/especificación 3. AKO, esto es, "a kind of" 4. Contenido conceptual 5. Restricción de valores 6. Tipo característico del conjunto

Las relaciones genérico/individuales también son de varios tipos: 

Page 99: Inteligencia artificial isc

1. Pertenencia al conjunto 2. Predicación 3. Contenido conceptual 4. Abstracción

Como recuerda Hodgson (1991), las jerarquías IS-A presentan un número impresionante de posibilidades, pero también una desventaja: al aumentar el número de enlaces, aumenta progresivamente la complejidad computacional para seguirlos. Este problema bien conocido ha dado lugar a que se haya propuesto que, en lugar de establecer esta y otras posibles taxonomías de enlaces IS-A, se use el enlace IS-A de propósito general, que al ser programable, permite establecer el tipo de enlace adecuado a cada situación particular, lo que dota de una gran flexibilidad al esquema de representación. De este modo se puede representar una semántica compleja, específicamente mediante el uso de prototipos, en los que una determinada situación se representa mediante nodos y arcos específicos. Por ejemplo, la aserción "The book rests on the table" se puede representar así:

Figura 4.12 Ejemplo de Prototipos

Estos prototipos o esquemas forman la base de los scripts de Schank y Abelson (1977), que mencionaremos en el siguiente apartado.

Figura 4.13 Ejemplo de red semántica para lenguaje natural

En la Figura 4.13 exponemos el tipo de diagrama para representar una oración de lenguaje natural con una notación de redes semánticas, tomando como ejemplo la oración "John hit a nail with a hammer"

En esta red los nodos son identificadores de las instancias determinadas (tanto verbos como sustantivos). "Inst" representa una instancia de una clase de entidades (hit, nail, hammer): "h43" es una instancia de la acción hit, existiendo un paciente, "n53", instancia de la clase nail, que es el que recibe la acción, mediante un instrumento "ha42", que es una instancia de la clase hammer (el hecho de que "john" es una instancia de la clase person, no ha sido representado).

Este tipo de representación de conocimiento es directo y fácil de seguir, pero el establecimiento de los primitivos adecuados es muy dificultoso y a veces es imposible representar un sistema de este modo. Además, exige una gran cantidad de trabajo de

Page 100: Inteligencia artificial isc

inferencia: es relativamente fácil determinar si dos frases significan lo mismo pero no es tan fácil determinar si una frase es la consecuencia lógica de otra.

Otro problema estriba en la diversidad de tipos de arcos establecidos. Esto provoca que de red semántica a red semántica el significado de los arcos y los nodos varíe, provocando ambigüedad en la notación. Por ejemplo, la red semántica de la Figura 4.14 puede tener tres significados distintos:

Figura 4.14 Ambigüedad en redes semánticas

1. Representa el concepto de un teléfono: tal cosa existe. 2. Representa un teléfono negro específico. 3. Representa la aseveración de la relación entre los teléfonos y el negro: algunos o todos

los teléfonos son negros.

Para concluir este apartado, resumimos los tres problemas más reconocidos de los esquemas de representación basados en redes semánticas:

1. La elección de los nodos y arcos es crucial en la fase de análisis. Una vez se ha decidido una estructura determinada, es muy complicado cambiarla.

2. Dificultad para expresar cuantificación. Por ejemplo en expresiones tales como "algunos pájaros vuelan" o "todos los pájaros pían".

3. Del mismo modo, las redes semánticas presentan grandes dificultades para representar la dimensión intensional. Por ejemplo en proposiciones tales como "Pedro cree que Ana sabe conducir".

Esto llevó a idear otros esquemas de representación con una estructura más compleja que simples nodos y arcos, que fuesen capaces de dar cabida a éstas y otras situaciones. Concretamente, John Sowa propuso los grafos conceptuales, aunque el esquema de representación basado en marcos (frames) es el que ha tenido mayor aceptación.

 

4.3.2.2 Grafos conceptuales

Los grafos conceptuales (conceptual graphs), propuestos por Sowa (1984), se diferencian de las redes IS-A en que los arcos no están etiquetados, y los nodos son de dos tipos:

1. Nodos de concepto, que pueden representar tanto una entidad como un estado o proceso.

2. Nodos de relación, que indican cómo se relacionan los nodos de concepto.

Por tanto, son los nodos de relación los que hacen el papel de enlaces entre las entidades.

Existen dos notaciones para los grafos conceptuales, la forma lineal (textual) y los diagramas o display form, que presentan tres tipos de elementos notacionales:

1. rectángulos, que marcan los nodos de concepto, 2. círculos, que marcan los nodos de relación, 3. flechas direccionadas, que marcan los arcos.

Page 101: Inteligencia artificial isc

La Figura 4.15 muestra estos tipos de notaciones.

[CONCEPT1] (REL.) [CONCEPT2

Figura 4.15 Notaciones de grafos conceptuales

Como mostraremos en el siguiente capítulo, este tipo de modelado conceptual debe mucho al modelo de Entidad/Relación de Chen (Chen 1976).

La intención del uso de los grafos conceptuales para la representación del lenguaje natural es mencionada por el propio Sowa, quien dedica un capítulo completo de su obra a la aplicación de su esquema al análisis del lenguaje. La representación semántica de la frase "man biting dog" que nos muestra en el capítulo introductorio es indicativo del uso que se le puede dar (Figura 4.16) (Sowa 1984:8). Sowa apunta que sus grafos conceptuales ponen el énfasis en la representación semántica (en el sentido lingüístico de la palabra).

Figura 4.16 Ejemplo de grafo conceptual para NL

Una gran ventaja del esquema de Sowa es que permite restringir la generación de representaciones sin sentido por medio de lo que él denomina grafos canónicos. Tomando como base la conocida frase de Chomsky

"Colorless green ideas sleep furiously" (Chomsky 1957),

representada por el grafo [SLEEP] (AGNT) [IDEA] (COLOR) [GREEN], establece la idea de canon, que está basada en la noción de jerarquía de tipos, según la cual existe una función tipo que proyecta conceptos sobre un conjunto C cuyos elementos son etiquetas de tipo. Esta función corresponde a los arcos IS-A que vimos anteriormente. El canon contiene la información necesaria para derivar otros grafos canónicos y tiene cuatro componentes:

1. Una jerarquía de tipos T 2. Un conjunto de indicadores de individuos I 3. Una relación de conformidad: que relaciona etiquetas en T con indicadores en I 4. Un conjunto finito de grafos conceptuales B, llamado base canónica, que contiene

todos las etiquetas de tipos en T y todos los referentes, ya sea en I o en el referente genérico *

Las reglas de formación que permiten que un grafo canónico se derive de otro son las de copia, unión, restricción y simplificación. Además un grafo puede convertirse en canónico mediante otros dos procesos:

1. Perception: un grafo es canónico si es construido por el assembler mediante un icono sensorial.

2. Insight: se pueden concebir los grafos conceptuales arbitrarios como canónicos.

Page 102: Inteligencia artificial isc

La relación de conformidad es también relevante, porque se refiere al concepto type/token, que Sowa representa mediante la notación t::i, donde el indicador individual i está relacionado con el tipo t.

La frase de Chomsky sería bloqueada por los cánones:

Figura 4.17

De este modo se pueden generar grafos bastante complejos para representar conceptos. Como ejemplo, exponemos el grafo de transacción (Sowa 1984:110) (Figura 4.17).

Figura 4.18 Grafo conceptual para TRANSACTION

El que inicia la transacción es un customer, que es el receptor de un acto de give y el agente de otro give. El objeto de la transacción es una entity, que es el objeto del primer give. El instrumento de la transacción es money, que es también el objeto del segundo give. La fuente de la transacción es un seller que es el agente de un give y el receptor del otro.

Sowa advierte que las reglas canónicas de formación no son reglas de inferencia. La formación de reglas únicamente asegura las restricciones de selección semánticas, que Sowa basa en las teorías de Katz y Fodor (1963), pero no garantiza la verdad o falsedad de las aserciones. Para incorporar la lógica a la teoría de grafos conceptuales, se usa un operador que proyecta los grafos conceptuales sobre fórmulas de cálculo de predicados de primer orden (Hodgson 1991).

Page 103: Inteligencia artificial isc

El canon es por tanto un sistema extremadamente flexible para representar el conocimiento y, específicamente, el conocimiento lingüístico. De hecho, el sistema de representación léxica que más éxito ha tenido hasta el presente, las estructuras de rasgos24, comúnmente usadas en los formalismos gramaticales modernos, pueden ser consideradas como una especialización de los grafos canónicos de Sowa específicamente aplicadas a la representación del lenguaje. Su implementación, normalmente en Lisp, también guarda muchas similitudes.

No deberíamos finalizar la exposición de este apartado sin mencionar un esquema de representación anterior, que si bien no ha tenido la misma repercusión que los grafos conceptuales, contiene la base que, junto con las ideas de las redes semánticas, usó Sowa para su esquema. Estamos hablando de las redes de dependencia conceptual (CD: Conceptual Dependency).

Esta notación fue desarrollada por Schank (Schank 1975) desde finales de los años 60. Al igual que en los grafos conceptuales, la idea central detrás de la CD es crear una representación canónica de una frase, en este caso basándose en ciertos primitivos semánticos. En la teoría original tan sólo se contemplaban siete primitivos, que incluían cinco acciones físicas: move, propel, ingest, expel y grasp y dos cambios de estado: ptrans (transferencia física en el espacio) y mtrans (transferencia mental de información). La frase "John threw a ball to Mary" es representada del modo siguiente (Schank 1975:51):

Figura 4.19 Ejemplo de dependencia conceptual

Esta teoría está enteramente basada en los primitivos semánticos, que son las entidades básicas usadas para describir el mundo. Las dificultades, por tanto, son las mismas que presentan todas las teorías lingüísticas basadas en primitivos: la naturaleza totalmente arbitraria de los primitivos escogidos y la falta de sistematicidad en su uso y adopción. Al igual que en otras teorías lingüísticas basadas en primitivos semánticos, el número de éstos tendió a crecer, en el caso de Schank hasta 40. Tampoco él se salva de la sospechosa similitud entre algunos primitivos y lexemas concretos, como por ejemplo want.

La teoría original de Schank evolucionó para incluir unidades de memoria más desarrolladas, llamadas scripts (Schank & Abelson 1977). Un script es una secuencia de esquemas que "cuenta una historia", el ejemplo tradicional es el del restaurante: entrar, pedir la comida, pagar al camarero, etc., serían los esquemas que conforman el script. Los scripts, sin embargo, tienen mucho en común con la notación que estudiamos a continuación, los esquemas de marcos.

4.3.2.3 Esquemas de marcos

El primer proponente de la noción de marco25 (frame) fue el psicólogo cognitivo Marvin Minsky, en cuyas palabras podemos resumir la esencia de los marcos.

Page 104: Inteligencia artificial isc

Here is the essence of frame theory: When one encounters a new situation (or makes a substantial change in one’s view of a problem), one selects from memory a structure called a frame. This is a remembered framework to be adapted to fit reality by changing details as necessary.

(Minsky 1975: 211)

La fundamentación psicológica de los marcos es parecida a la de los scripts de Schank: cuando nos enfrentamos con una situación determinada, intentamos ajustarla a otra parecida de la que ya tenemos experiencia previa y esperamos que aparezcan un número de elementos comunes y se sucedan algunas situaciones. Por ejemplo, si entramos en una habitación de hotel, esperamos encontrar una cama, un armario, un baño, etc. Nuestra mente reconocerá las instancias específicas de la nueva habitación y los acomodará al estereotipo que ya poseemos. La base de la teoría la conforman, por tanto, las situaciones estereotipadas.

Dejando a un lado esta fundamentación psicológica, la representación basada en marcos constituye en gran medida la base del modelo orientado al objeto actual, ya que contiene casi todos los conceptos que éste presenta, aunque estas ideas fueron aplicadas en principio a los lenguajes de programación más que a lenguajes de representación y consulta. Por esto y por la enorme importancia que la representación del conocimiento basada en marcos ha tenido y sigue teniendo, nos detendremos a exponer las características y esquemas propuestos más relevantes.

Adelantamos ya que, al igual que ocurre en la ontología que nos ha servido de base para nuestra implementación, la de Mikrokosmos, utilizaremos precisamente un esquema basado en marcos para nuestra ontología, utilizando para su implementación un lenguaje basado en marcos moderno, con prestaciones muy superiores a las que aquí expondremos para las implementaciones clásicas. Los detalles particulares de este lenguaje, KSL, los mostraremos en el siguiente capítulo.

Informalmente, un marco es una estructura de datos compleja que representa una situación estereotipada, por ejemplo hacer una visita a un enfermo o acudir a una fiesta de cumpleaños. Cada marco posee un número de casillas (slots) donde se almacena la información respecto a su uso y a lo que se espera que ocurra a continuación. Al igual que las redes semánticas, podemos concebir un marco como una red de nodos y relaciones entre nodos (arcos). Una base de conocimiento basada en marcos es una colección de marcos organizados jerárquicamente, según un número de criterios estrictos y otros principios más o menos imprecisos tales como el de similitud entre marcos. A nivel práctico, podemos considerar los marcos como una red semántica con un número de posibilidades mucho mayor, entre las que destacan especialmente, la capacidad de activación de procesos (triggering) y de herencia no-monotónica mediante sobrecontrol (overriding).

Formalmente, un marco M es una lista de atributos (slots) y valores (S, V). El valor V de un slot S puede ser:

un valor simple, cuyo tipo se halla determinado por el slot mismo, por una función que devuelve un valor de ese tipo, o por un puntero al valor de otro slot de la jerarquía

una lista de atributos:valores, donde los atributos son funciones booleanas y los valores pueden ser funciones que devuelven valores del tipo del valor del slot, o constantes del tipo del valor del slot.

Como es evidente, la representación de conocimiento basada en marcos debe mucho a las redes semánticas. Sin embargo, los esquemas de representación basados en marcos insisten en una organización jerárquica de éstos, mientras que las redes semánticas no requieren tal organización. La estructura de nodos de los marcos es también mucho más rica que la de las redes semánticas, conteniendo sistemas de triggering de procedimientos. Esto ocurre cuando en lugar de llenar un slot con un valor determinado, se indica un procedimiento que será el encargado de devolver un determinado valor. En el entorno de los marcos, a este tipo de procedimientos se les denomina attached procedures, servants, demons o methods, utilizándose a veces el término disparador en el discurso en lengua española. Estos procedimientos son especialmente útiles cuando el cálculo de un valor determinado requiere un

Page 105: Inteligencia artificial isc

tiempo alto de computación, cuando el valor es susceptible de cambiar con el tiempo o cuando el valor tiene un bajo nivel de acceso: en lugar de computar el valor siempre que el sistema esté en funcionamiento, se computa sólo cuando es requerido. El término método, se ha tomado del entorno de los marcos para usarlo en el modelo orientado al objeto para designar las funciones componentes de una clase, aunque en algunos de los lenguajes de programación orientados al objeto más importantes, como C++, los métodos son llamados funciones miembro.

La organización jerárquica de los marcos es una de sus características más destacables. Los marcos se organizan en jerarquías que presentan los mismos sistemas de herencia que encontrábamos en las redes IS-A. De hecho, una estructura de marcos no es más que una ampliación de una estructura de redes IS-A básica (de redes semánticas tradicionales), donde los nodos han sido reemplazados por grupos estructurados de información (los marcos).

Una jerarquía de marcos es un árbol en el que cada uno de los nodos es un marco. Para cada nodo hijo, el enlace con el nodo padre es un enlace de herencia. El nodo hijo hereda todos los slots de su padre a menos que se especifique lo contrario (sobrecontrol). Esta es una gran diferencia con las redes IS-A, donde la herencia es siempre monotónica, es decir no hay posibilidad de negar la herencia de propiedades en un contexto o situación determinada (que puede ser especificada por el resultado de una operación de triggering). Los nodos pueden ser de dos tipos: nodos de clase y nodos de instancia. Todos los nodos internos (no terminales) han de ser nodos de clase.

La característica que la herencia trae consigo es el concepto de valores por defecto (defaults). En un marco se puede especificar un valor determinado o bien un valor por omisión (también llamados valores locales y valores heredados), en cuyo caso heredará sin más el valor de su antecesor. Por ejemplo, la clase (nodo de clase) ave, tendrá el valor por omisión vuela como "cierto", aunque algunos nodos de instancia hijos, por ejemplo avestruz, no posean esta propiedad. Esta instancia concreta puede ser obligada a no heredar esta propiedad asignándole el valor "falso", mientras que otras propiedades, como tiene_alas, sí serían heredadas por defecto (aunque en otras instancias, como en el caso de kiwi, ésta habría de ser negada).

Esta misma disposición es la que presentan los sistemas orientados al objeto actuales, aunque en éstos, los nodos de instancia no son considerados nodos, sino objetos. El término orientación al objeto se comenzó a utilizar con un significado muy parecido al que de él tenemos hoy por los proponentes de esquemas de representación basados en marcos a finales de los años 70. Por ejemplo, Bobrow y Winograd (1979) hablan de "object-oriented data structures".

Podemos resumir las principales características de los marcos en las siguientes (Minsky 1975; Winograd 1975):

Precisión (Explicitness): se precisan los objetos, las relaciones entre objetos y sus propiedades; en ausencia de evidencia contraria se usan valores por omisión

Activación dinámica de procesos (Triggering): se pueden adjuntar procedimientos a un marco o alguno de sus componentes y ser llamados y ejecutados automáticamente tras la comprobación de cambio de alguna propiedad o valor (p. ej. if-needed, if-added)

Herencia por defecto no-monotónica: los marcos están conceptualmente relacionados, permitiendo que atributos de objetos sean heredados de otros objetos predecesores en la jerarquía

Modularidad: la base de conocimiento está organizada en componentes claramente diferenciados

De forma apriorística, su aplicación a la representación de la información léxica parece garantizada, ya que los marcos permiten una gran flexibilidad de representación. Su soporte para representar la herencia de propiedades de una forma no monotónica resulta especialmente atractivo. De hecho, hoy en día, esta propiedad, la herencia por defecto no monotónica, se considera indispensable para el procesamiento de lenguaje natural (p. ej.

Page 106: Inteligencia artificial isc

Gazdar & Pullum 1987; Ritchie et al. 1987; Flickinger 1987; Carpenter 1992; Zajac 1992; Bouma 1992).

El razonamiento en un esquema basado en marcos se lleva a cabo mediante dos mecanismos básicos: el reconocimiento (recognition o pattern-matching) y la herencia. En el entorno de los marcos el proceso de reconocimiento de patrones se centra en encontrar el lugar más apropiado para un nuevo marco dentro de la jerarquía de marcos. Esto requiere que el mecanismo de reconocimiento sea capaz de recibir información sobre la situación existente (en forma de marco) y lleve a cabo una búsqueda del marco más adecuado de entre todos los contenidos en la base de conocimiento. Shastri (1988:16) define este concepto así: "Given a description consisting of a set of properties, find a concept that best matches this description."

Teniendo en cuenta las características de herencia anteriormente descritas, el conjunto de propiedades no tiene por qué encontrarse a nivel local, sino que pueden estar atribuidas a conceptos (marcos) en posiciones superiores en la jerarquía. Podemos decir que estos dos mecanismos complementarios de razonamiento conforman el núcleo de lo que entendemos por comportamiento inteligente, y actúan como precursores de procesos de razonamiento más especializados.

El modo en que estos dos mecanismos básicos de razonamiento interactúan se muestra en la Figura 4.20 (Shastri 1988:16). En la memoria semántica del agente se encuentran un número de conceptos (Cn) que poseen un número de propiedades (pn). El punto de entrada ß corresponde a consultas de reconocimiento, que se inicia cuando un determinado proceso posee una descripción parcial sobre una entidad X y desea corroborar su identidad o la clase a la que pertenece. El punto de entrada corresponde a consultas sobre herencia. En este caso el agente conoce la identidad de X, pero quiere conocer el valor de una o varias de sus propiedades. Los dos mecanismos interactúan cuando se trata de llevar a cabo procesos cognitivos más complejos, que implican un número de consultas sucesivas de uno y otro tipo para llegar a una determinada conclusión.

Los problemas en el proceso de reconocimiento surgen cuando los valores por omisión no son cumplidos. Por ejemplo, un gato tiene normalmente cuatro patas y una cola, pero a un gato determinado le puede faltar la cola y una de sus patas; en este caso el algoritmo reconocedor (matcher) debe ser lo suficientemente inteligente para ser capaz de averiguar que el mejor marco de los posibles (best fit) es el del gato, aunque dos de sus principales características no se cumplan.

Page 107: Inteligencia artificial isc

Figura 4.20 Herencia y reconocimiento de patrones en marcos

Ésta es la situación conflictiva típica en la que algún proceso interno posee una descripción parcial de una entidad desconocida y además necesita determinar el valor de una o varias propiedades de esta entidad. Primero llevaría a cabo el reconocimiento parcial hasta determinar al menos la clase a la que la entidad pertenece, a continuación atribuiría las propiedades de sus clases predecesoras en la jerarquía y volvería a intentar el reconocimiento individual hasta llegar a su ubicación y determinación de propiedades heredadas y locales completa.

En nuestra exposición del sistema de KBMT Mikrokosmos (ver apartado 3.3.6), vimos cómo existía un algoritmo que calculaba la "distancia" entre dos conceptos o instancias y devolvía un índice. Este tipo de operaciones abstractas es otra de las características que dan a los esquemas basados en marcos su gran potencia y expresividad.

Como apunta Shastri (1988:17), en un proceso cognitivo complejo, como la comprensión del lenguaje natural (NLU: Natural Language Understanding), los mecanismos de herencia y de reconocimiento de patrones son absolutamente imprescindibles. Por ejemplo, para la adjudicación de restricciones de selección a un determinado actante con el objeto de reconocer un patrón sintáctico-semántico determinado de un verbo polisémico y eliminar la posible ambigüedad semántica. Una organización del léxico en campos semánticos con dimensiones y subdimensiones jerarquizadas con herencia de propiedades léxicas puede ser representada como una red semántica de conceptos a modo de marcos. Esta representación es válida independientemente del modo de implementación que usemos, siempre y cuando éste se acomode a los requisitos de jerarquización de entidades. En el capítulo siguiente mostraremos cuál es la utilidad que le hemos dado a nuestra representación basada en marcos de forma detallada.

Page 108: Inteligencia artificial isc

Minsky propuso originalmente un esquema de representación para los marcos que combinaba ideas de las redes semánticas, esquemas procedimentales y la lingüística. Los lenguajes de representación basados en marcos son hoy día considerados como la forma más adecuada de representar conocimiento complejo, y en especial para representar el lenguaje natural.

La similitud entre las teorías lingüísticas de casos y los esquemas de representación basados en marcos no ha pasado inadvertida. El propio Fillmore (1977) afirmaba que los slots y los casos verbales eran una y la misma cosa. En el mismo sentido se manifiestan Winston (1977) y Charniak (1981).

Para finalizar este apartado mostraremos algunas implementaciones de sistemas de marcos consideradas hoy en día clásicas: KRL, OWL y KL-ONE.

El desarrollo de KRL (Knowledge Representation Language) (Bobrow & Winograd 1977) estuvo inicialmente motivado por el procesamiento del lenguaje natural. Las unidades básicas que componen una base de datos KRL son los marcos. La información contenida en los slots contiene detalles sobre cómo instanciar un marco.

En su implementación hacen uso intensivo de los conceptos de prototipo y primitivos, que utilizan de un modo un tanto libre en esta primera exposición, pero definen mejor en otras posteriores (Bobrow & Winograd 1977).

Como su nombre indica, KRL, es a la vez un sistema de KR y un lenguaje de programación. El lenguaje permite la invocación de procedimientos que se encuentran adjuntos a las estructuras de datos orientadas a objetos, conteniendo el germen de lo que hoy en día se conoce por encapsulación, una de las características que hacen de la orientación al objeto tal vez el modelo computacional más potente y versátil hasta la fecha.

Por su parte, OWL basa sus características en la sintaxis y semántica del inglés, tomando como principio la Hipótesis Whorfiana de que el idioma de un hablante juega un papel determinante en su modelo del mundo, y por tanto en la estructuración de su mente.

Una base de conocimiento de OWL puede ser vista como una red semántica cuyos nodos son expresiones que representan el significado de oraciones en lenguaje natural. Cada nodo, denominado "concepto", queda definido por un par (genus, specializer), donde el "genus" especifica el tipo o "superconcepto" y el "specializer" distingue este concepto de todos los demás que comparten el mismo "genus".

Sin embargo, de entre todos los lenguajes de representación clásicos basados en marcos, es sin duda KL-ONE (Brachman & Schmolze 1982, 1985) el más relevante en cuanto que a partir de él han surgido numerosos sistemas de KR que se están desarrollando o usando hoy en día. De hecho, se suele hacer referencia a los lenguajes de programación/representación basados en marcos mediante el calificativo "al estilo de KL-ONE". KL-ONE es el producto de muchos años de investigación de algunos de los que se pueden considerar como padres de la representación del conocimiento, entre los que destacan Ronald Brachman, Rusty Bobrow, Hector Levesque, Jim Schmolze o William Woods.

Como viene siendo habitual, una taxonomía de KL-ONE comprende conceptos, con un número de propiedades atribuidas y una serie de relaciones entre conceptos. Más concretamente, un nodo (concepto) de KL-ONE consiste en un conjunto de roles (generalizaciones de las nociones de atributo, parte, constituyente, rasgo, etc.) y un conjunto de condiciones estructurales que expresan relaciones entre esos roles. Los conceptos están enlazados a conceptos más generales en una relación especial llamada SUPERC. El concepto más general en la taxonomía es denominado superconcepto, y subsume (es más general que) todos los demás.26

Page 109: Inteligencia artificial isc

Los conceptos y roles de KL-ONE tienen una estructura parecida a las clásicas nociones de registro y campo para las bases de datos, o de marco y slot en el ámbito en la terminología de la IA.

La adecuación expresiva fue un objetivo primordial en el desarrollo de KL-ONE, enfatizando la semántica de la representación y su adecuación para poder hacer distinciones sutiles al conceptualizar ideas complejas. Tanto es así que Woods (1983) afirma que el proyecto KL-ONE se llevó a cabo más con el espíritu de una investigación de filosofía aplicada que con el de investigación en representación del conocimiento y estructuras de datos.

En cualquier caso, la herencia de KL-ONE se ha dejado sentir en todas las implementaciones posteriores de lenguajes basados en marcos, intentando seguir fiel en espíritu a esta clásica implementación, al mismo tiempo que se han mejorado los aspectos técnicos respecto a velocidad de ejecución, optimización de código (hasta muy recientemente no ha existido ninguna implementación de un lenguaje de marcos que produjese código compilado) o interfaz a otros lenguajes procedimentales.

Una de estas implementaciones, FLEX, será la que usaremos en nuestra implementación de la ontología de conceptos. Describiremos este sistema junto con el lenguaje de programación que le da soporte en el siguiente capítulo.

Como ya hemos visto, los marcos, en su forma más pura han sido utilizados en algunas de las implementaciones de TA que ya hemos mostrado (Mikrokosmos). Su atractivo como soporte computacional para diversos sistemas de procesamiento del lenguaje natural en general ha quedado reflejado en obras tan relevantes como Metzing (1980), Evens (1988) o Lehrer & Kittay (1992). A continuación mostraremos una serie de esfuerzos destinados a la consecución de un entorno de representación puramente léxica. Como ya hemos adelantado, éstos presentan muchos puntos en común con los sistemas de redes semánticas que acabamos de describir, incorporando además un fuerte componente lógico.

http://elies.rediris.es/elies9/4-3-2.htm

2.12 Razonamiento monótono.Ver archivo: razonamiento_mono.pdf

2.13 La lógica de predicados: sintaxis, semántica, validez e inferencia.

LÓGICA DE PREDICADOS

El Cálculo Proposicional, resulta útil para muchas aplicaciones computacionales, entre las que podemos citar, análisis de circuitos, análisis y confiabilidad de sistemas mediante árboles lógicos, diversas aplicaciones de satisfactibilidad a problemas de planeación, etc. Sin embargo, existe una gran cantidad de aplicaciones donde el Cálculo Proposicional no se considera suficiente, debido a que cuenta con una deductibilidad limitada y en donde es preferible un tipo especial de lógica conocido como Lógica de Predicados (ó Cálculo de Predicados). Para explicar esta situación, consideremos el argumento conformado con las siguientes sentencias del Cálculo Proposicional:

Page 110: Inteligencia artificial isc

    P = Todos los mamíferos son mortales

    Q=  Lassie es un mamífero

    ==>

    R=    Lasssie es mortal

Las expresiones P, Q, R, son proposiciones, puesto que todas ellas son enunciados que pueden ser evaluados como V (verdaderos) o F (falsos). Hay que hacer notar, sin embargo, que mediante la aplicación de reglas de inferencia del Cálculo Proposicional, no es posible deducir R a partir de las premisas P y Q anteriores, ya que el Cálculo Proposicional no tiene acceso a los elementos comunes que conforman estas proposiciones, como son mamifero, mortal y Lassie, e indispensables para llegar a la conclusión R resultante. Sin embargo, esta misma expresión en Cáculo de Predicados, se podría escribir distinguiendo los elementos constitutivos de cada proposición. Es decir, el Cálculo de Predicados se aplica para las mismas proposiciones que pueden ser enunciadas en Cálculo Proposicional, con la diferencia que en el primero se tiene acceso a los elementos constitutivos de cada proposición.

Una de las aplicaciones más importantes del Cálculo de Predicados es la especificación formal, la cual permite describir lo que el usuario desea que un programa realice. Ésta es una aplicación que ha empezado a ser empleada para el desarrollo de al menos las partes críticas de un sistema. De esta manera piezas de código especificadas formalmente, pueden ser verificadas, en principio, matemáticamente, incrementando la confiabilidad del sistema completo. Existen varios lenguajes de especificación formal basados en lógica, como Z o VDM, de los cuales se hablará más adelante en este curso.

En el caso de la especificación y verificación formal de programas, las piezas de código son acompañadas por pre y post condiciones, las cuales se escriben como fórmulas del Cálculo de Predicados. Las pre y postcondiciones deben ser válidas, antes y después de que la pieza de código correspondiente se ejecute. Es decir, si la pieza de código satisface su especificación, entonces se dice que el programa es correcto.

Por otra parte, dada una pieza de código y sus pre y postcondiciones, se dice que un algorimo tiene la propiedad de correctividad si se es capaz de decir si dicha pieza de código  es o no correcta. El análisis de la correctividad de algoritmos es una parte fundamental en Ciencias compuationales. Formalmente, es necesario asegurar una definición precisa de las pre y post condiciones, de manera que se interprete de ellas un solo significado; ésto es logrado escribiendo las pre y post condiciones como fórmulas del Cálculo de Predicados. Éste es particularmente útil para describir la semántica de los lenguajes de programación, así como para describir el comportamiento funcional de un programa o una parte de él.

Page 111: Inteligencia artificial isc

En el Cálculo de Predicados hay otras diferencias básicas respecto al Cálculo Proposicional, entre las que podemos citar:

    * Se indican postulados sobre objetos individuales:

        Ejemplo:

            Juan es alto

        se puede escribir:

            ES_ALTO(JUAN)         Donde ES_ALTO es un símbolo de predicado y JUAN es una constante.         Nótese que el predicado anterior puede ser evaluado como V (verdadero) o F (falso).

    * Se indican postulados relacionando varios objetos. Por ejemplo es posible expresar:

           Juan es tío de María

        en la forma:

            ES_TIO(MARIA,JUAN)         Donde ES_TIO es un Símbolo de Predicado que tiene como argumentos a las constantes         MARÍA Y JUAN.         Obsérvese que el predicado anterior podrá ser evaluado como F (falso) o  V (verdadero).

    * Se utilizan cuantificadores universales y existenciales.

        Ejemplo:

            El argumento anterior sobre Lassie se puede escribir:

                for_all (x) MAMÍFERO(x) ==> MORTAL (x)

                MAMÍFERO(LASSIE)

                ===>

                MORTAL (LASSIE)             Una posible interpretación de este modelo se presenta a continuación:

            i)) En este argumento tenemos las siguientes premisas:                 La primera proposición señala que todos los elementos x son mamiferos implican que x                 es mortal.                 La segunda expresión indica que es conocido que Lassie es un mamífero.

Page 112: Inteligencia artificial isc

            ii)) La conclusión de este argumento es:                 Lassie es mortal             iii) El único conector lógico de esta expresión es el símbolo ==> el cual es como en el caso del                 Cáculo Proposicional, el de implicación. No obstante en Cálculo de Predicados se                 pueden utilizar todos los conectores lógicos del Cálculo Proposicional.

            Podríamos interpretar este argumento indicando que si las dos premisas son verdaderas,             entonces se puede deducir que Lassie es mortal

En el Cálculo de Predicados se usan varios tipos de símbolos:

            * SÍMBOLOS DE FUNCIÓN

                    Ejemplos:

                                        mas(x,y)

                                        padre(x)

            * SÍMBOLOS DE PREDICADOS

                    Ejemplos: MAYOR(más(x,1),x)

            * CONSTANTES.                     Ejemplos: CASA, MARÍA

            * SÍMBOLOS DE VARIABLES.                     Ejemplos: x,y

En Cálculo de Predicados, nos referimos a términos cuando hablamos de constantes, variables o símbolos de función, cuyos elementos sabemos de antemano que son términos. Así, por ejemplo, la variable x y la constante 1 son términos. Dado el símbolo de función más de dos argumentos, las siguientes expresiones también son términos:

    más (x,1)     más (más(x,1),1)

El primero de ellos se refiere a la suma x +1, mientras que el segundo a la suma de los términos correspondientes a x+1 con el término 1.

Page 113: Inteligencia artificial isc

Como para el caso del Cálculo de Proposiciones, se usan también

átomos en el Cálculo de Predicados, los cuales son enunciados simples (es decir predicados), que están conformados con símbolos de predicados, con varios términos como argumentos y que pueden ser evaluados como V (verdaderos) o F (falsos), de manera que no pueden ser descompuestos en proposiciones más simples. De esta manera las siguientes expresiones son átomos:

    MAMÍFERO(x)

    MORTAL (LASSIE)

    ES_TIO(JUAN, JOSE)

    ES_NIETO(PANCHO_VILLA, PEDRO_CASISTRANINI)

Es decir, se puede definir término de la siguiente manera:

DEFINICIÓN:

        Si P es un símbolo de predicado de n argumentos y t1,t2, ..., tn son téminos,

        entonces

            P(t1,t2,...tn) es un término.

        Ninguna otra expresión puede ser un témino.

http://w3.mor.itesm.mx/~logica/log9808/log_pred.html

Logica de predicados de primer orden

En lógica proposicional los átomos son los constituyentes de las fórmulas y son: true o false

Limitación: no puede expresar propiedades generales de casos similares

Símbolos:

Símbolos de predicados (mayúsculas) asociados con su aridad (N) o número de argumentos (Si aridad = 0 proposiciones (átomos))

Variables: minúsculas (x,y,z) Símbolos funcionales: minúsculas asociados con su número de argumentos

(funciones con aridad = 0 constantes) Conectores lógicos

Page 114: Inteligencia artificial isc

Cuantificadores: universal (para toda x) y existencial (existe una x) Símbolos auxiliares '(', ')', ','.

Un término es: una constante, variable o una función de términos

Una fórmula atómica o átomo es un predicado de N términos

Una fórmula bien formada (wff) en lógica de predicados es:

un átomo si F es wff entonces también lo es

Si F y G son wff, son wff Si F es wff y x es una variable libre de F, entonces y son wff (la

variable x se dice ``bound'') ningúna otra formula es wff

variables libres: sin cuantificadores

Fórmula cerrada (``closed'') u oración (``sentence''): sin variabes libres

El alcance (``scope'') de los cuantificadores

Semántica

En lógica de primer orden se asocia una estructura representando la ``realidad'' (basicamente el dominio)

La estructura S tiene:

un conjunto no vacío de elementos D, llamados el dominio de S

un conjunto de funciones de aridad n definidas en

un conjunto no vació de mapeos, predicados, de Dm a

No se puede saber el valor de verdad de una fórmula hasta que no se especifique con que elementos de la estructura se deben de asociar los elementos de la fórmula

Una asignación v al conjunto de formulas F dada una estructura S con dominio D es un mapeo del conjunto de variables en F a D

, donde d es una constante I(x) = v(x), donde x es una variable

Page 115: Inteligencia artificial isc

, como antes es true si existe una asignación para la cual F sea verdadera es true si para toda una asignación F es verdadera

Mas equivalencias:

Una fórmula cerrada con un modelo se dice satisfacible

Cláusulas

Forma utilizada en prueba de teoremas y programación lógica

Una literal: un átomo o su negación Una clásula: es una fórmula cerrada de la forma:

Equivalencias:

Se escribe normalmente como:

Page 116: Inteligencia artificial isc

Interpretación procedural: las A's son las conclusiones y las B's las condiciones

Pasos para pasar una wff a un conjunto de cláusulas:

1. eliminar implicación

2. juntar negación

3. renombrar variables

4. eliminar cuantificadores existenciales:

Si una variable existencial (y) no está dentro del alcance (scope) de un cuantificador universal, cambiar la variable por un nuevo símbolo Si está dentro

del alcance de cuantificadores universales con variables cambiar

la variable por una función que refleje la posible dependencia (funciones Skolem)

5. cambiar a una forma prenex normal (poniendo todos los cuantificadores universales al frente)

6. pasar a su forma normal conjuntiva (i.e., una conjunción de fórmulas, cada una siendo una disjunción)

7. eliminar cuantificadores universales

8. pasar a un conjunto de cláusulas

Ejemplo

Una cláusula de Horn: a lo más una literal positiva

A

Razonamiento en lógica: reglas de inferencia

Modus Ponens

Page 117: Inteligencia artificial isc

--------------------- S

Estas reglas solo hacen manipulación sintáctica (son formas procedurales)

Lo interesante es ver las formas procedurales semánticas están relacionadas con las sintácticas

Una fórmula es robusta/válida (sound) si entonces

Osea una colección de reglas de inferencia es válida si preserva la noción de verdad bajo las operaciones de derivación

Una fórmula es completa (complete) si entonces

Lo importante es: existe un procedimiento de prueba mecánica, usando una colección de reglas de inferencia que son válidas y completas, que sea capaz de determinar si una fórmula F puede o no derivarse de un conjunto de fórmulas S?

En 1936, Church y Turing mostraron independientemente que ese procedimiento no existe para lógica de primer orden: indecibilidad

Solo se puede mostrar que si F es consecuencia lógica de S

Lógica proposicional si es decidible!

Resolución

Es sound y complete

Resolución solo sirve para fórmulas en forma de cláusulas

Idea: prueba por refutación

Para probar: , hacer y probar que W es insatisfacible

Ejemplo sencillo

Page 118: Inteligencia artificial isc

Sean C1 y C2 dos cláusulas con literales L1 y L2 (donde L1 y L2 son complementarias). La

resolución de C1 y C2 produce: donde: y

(eliminando literales redundantes)

Ejemplo de derivación

Para lógica de primer orden: substitución y unificación

Una substitución es un conjunto finito de la forma: , donde las xis son variables diferentes y las tis son términos diferentes a las xis.

Una expresión es un término, una literal una conjunción o una disjunción de literales

Una substitución ( ) se puede aplicar a una expresión (E), denotado como: , generando una nueva expresión (una instancia de E)

Sea y . La composición de estas substituciones, denotado por: se obtiene quitando del conjunto:

todos los elementos: para los

cuales: y todos los elementos sj/yj donde

Una substitución es un unificador de un conjunto de expresiones si

Un unificador , es el unificador más general (mgu) de un conjunto de expresiones E, si para cada unificador de E, existe una substitución tal que

Para hacer resolución en lógica de primer orden tenemos que comparar si dos literales complementarias unifican. El algoritmo de unificación construye un mgu de un conjunto de expresiones.

Se tienen que renombrar variables que tengan el mismo nombre en las cláusulas a resolver

Page 119: Inteligencia artificial isc

Sean C1 y C2 dos cláusulas con literales L1 y L2respectivamente. Si L1 y tienen un mgu , el resolvente de C1 y C2 es la cláusula:

Puede existir más de un resolvente

Si una o más literales en clásula C tienen un mgu , la cláusula se dice ser un factor de C

En su forma general, resolución permite cancelar más de una literal de las cláusulas padres, al computar el factor de estas

Un resolvente de cláusulas C1 y C2 es:

1. resolvente de C1 y C2

2. resolvente de C1 y un factor de C2

3. resolvente de un factor de C1 y C2

4. resolvente de un factor de C1 y un factor de C2

El algoritmo de unificación no es determinístico (se pueden seleccionar las cláusulas de varias formas)

Existen diferentes estrategias de resolución, e.g., semántica, lineal, SLD

http://www.mor.itesm.mx/~rdec/node48.html

2.14 La demostración y sus métodos.2.15 El método de Resolución de Robinson

1.2. ANTECEDENTES: DE HERBRAND A ROBINSON

El encontrar un procedimiento general de decisión para verificar la validez (inconsistencia) de una formula ha sido considerada por mucho tiempo. El primer intento fue hecho por Leibniz (1646 -1716) seguido por Peano a finales del siglo XIX y por la escuela de Hilbert en los años veinte. Sin embargo, no fue hasta 1936 que Church y Turing probaron de manera independiente que esto era imposible, es decir, que no existe un procedimiento general de decisión para constatar la validez de las formulas de primer orden en lógica. Sin embargo, hay procedimientos de prueba que pueden verificar que una formula es válida si en realidad lo es. Para formulas invalidas, estos procedimientos en general nunca

Page 120: Inteligencia artificial isc

terminarán (en base a los resultados de Turing y Church, esto es lo mejor que se puede esperar de un procedimiento de prueba). Un enfoque verdaderamente importante para la prueba mecánica de teoremas fue dado por Herbran en 1930. Por definición, una formula válida es una fórmula que es verdadera bajo todas las interpretaciones. Herbrand desarrolló un algoritmo para encontrar una interpretación que pueda falsear una fórmula dada. Sin embargo, si la formula dada es realmente valida, tal interpretación no existirá y su algoritmo va a parar después de un número finito de pruebas. El método de Herbrand es la base de los procedimientos automáticos de prueba más modernos [Chin1987].

En 1960 Gilmor fue una de las primeras personas en implementar los procedimientos de Herbrand en una computadora. Ya que una fórmula es válida si y solo si su negación es inconsistente, su programa fue diseñado para detectar la inconsistencia de la negación de una fórmula dada. Durante la ejecución del programa, se generan fórmulas proposicionales que periódicamente son generadas y probadas para determinar su inconsistencia. Si la negación de la formula dada es inconsistente, el programa detectará el hecho eventualmente. El programa de Gilmor funciono para unas pocas fórmulas, pero encontró dificultades con otras formulas de primer orden. Pruebas cuidadosas del programa demostraron su ineficiencia. El método de Gilmor fue mejorado por Davis y Putman en 1960 después de unos meses de su publicación. Sin embargo, esta mejora fue insuficiente ya que muchas formulas de primer orden no pudieron ser probadas por una computadora en un tiempo razonable.

Un avance mayor fue realizado por Robinson en 1965 , al introducir el Principio de Resolución, Este procedimiento fue mucho mejor que cualquiera de los anteriores. Desde la aparición de este principio muchos refinamientos han sido propuestos con el fin de aumentar su eficiencia.

Los procedimientos de prueba de Herbrand y resolución son procedimientos de refutación. Esto es, en lugar de que de probar la validez de una formula, se prueba que la negación de una formula es inconsistente. Esto es por conveniencia, no hay perdida de generalidad en el uso de métodos de refutación. Más aun estos procedimientos de refutación son aplicados a una "forma estándar" de una fórmula. La forma estándar fue introducida por Davis y Putman en 1960. Esta forma normal consiste en obtener un conjunto de cláusulas que cumplen: estar en forma estándar de Skolem, {conjunto de cláusulas} en SSF al ser eliminados los cuantificadores existenciales y universales; estar previamente preprocesadas en la forma normal prenexa, PNF = [ ´s ´s][Matriz(CNF)], en donde se han separado los cuantificadores de la matriz que se encuentra en forma normal conjuntiva (CNF).

La Lógica de Primer Orden es, en la actualidad, es una de las herramientas más importantes para la solución de problemas. Y su

Page 121: Inteligencia artificial isc

enfoque corresponde a lo que se ha denominado como la Demostración Automática de Teoremas. En términos generales, la podemos describir como: ``Los métodos para demostrar que un conjunto de cláusulas es insatisfactible, basados en los trabajos de Herbrand". Una manera de describir la mecánica de los métodos mencionados es la siguiente: ``A partir de un conjunto de cláusulas originales S, se generan conjuntos de cláusulas base instanciadas (ground instances, también aterrizadas). Los métodos deben controlar la ``generación combinatorialmente explosiva" de nuevas cláusulas y obtener un conjunto de cláusulas que resulte ser insatisfactible.

 

De Herbrand Gilmor Divis y Putman A Robinson

A partir de un conjunto de cláusulas originales S, se generan conjuntos de cláusulas base instanciadas Los procedimientos deben controlar la explosión combinatori de nuevas cláusulas y obtener un conjunto de cláusulas que resulte ser insatisfactible.

El método de Herbrad, es la base de muchos procedimientos automáticos de prueba que se usan en la actualidad. Gilmore, en 1960, fué el primero en presentar una implementación en una computadora, del procedimiento de Herbrand.

Davis y Putnam, mejoraron el método, unos meses después de publicado el trabajo de Gilmore en 1960. Aunque estos trabajos , resultaron ser un avance importante, no son suficientes, pues muchas fórmulas validas de la lógica de Primer Orden, no pudieron ser probadas por una computadora en un tiempo razonable.

A partir de los trabajos de los precursores, han surgido dos tendencias para mejorar la eficiencia de los métodos mecánicos: Los métodos basados en las ideas de Prawitz, 1960; y los métodos basados en el Principio de Resolución de Robinson, 1965.

Dado un conjunto S de cláusulas, el algoritmo de Herbrand genera una secuencia de conjuntos de instancias base de S, y prueba sucesivamente la insatisfactibilidad de los conjuntos enerados. El método se considera teórico (No es un procedimiento efectivo).

Considerada la estrategia exhaustiva, fué la primera implementación conocida del método de Herbrand, generando los conjuntos En donde es la conjunción de todas las instancias base obtenidas de reemplazar ``todas" las variables en S, por las constantes del i-ésimo nivel del Universo de Herbrand. Probar la inconsistencia ahora, es asunto de la lógica de proposiciones, y Gilmore uso para ello el método multiplicativo (un método para el cálculo de proposiciones).

Dado un conjunto de cláusulas base S, este método esencialmente elimina cláusulas aplicando cuatro reglas de simplificación. Obtiene un conjunto S', y aplicando el teorema de Herbrand, se sabe que S' es insatisfactibles si y solo si, S es insatisfactible.

El método de resolución de Robinson esta considerado como el precursor de toda una familia de métodos, que hacen uso de los conceptos centrales, pero que, de alguna manera proponen algún refinamiento. Consiste esencialmente en una extensión de la regla de la literal simple de Davis y Putnam. Se aplica directamente a cualquier conjunto de cláusulas (no necesariamente cláusulas base o aterrizadas), para probar la insatisfactibilidad de S. El aspecto central del método cosiste en probar que si S contiene la cláusula vacía, entonces es incosistente. En caso de que S no contenga la cláusula vacía, se intentará derivarla a partir de las cláusulas existentes en S. Si la cláusula vacía es derivada de las cláusulas existentes, S es inconsistente.

 

Aunque el problema de encontrar un procedimiento único para probar la validez de todas las fórmulas del Cálculo de Primer Orden, es irresoluble, existen procedimientos de prueba que pueden verificar si una fórmula es valida (cuando efectivamente lo es), aunque no se pueda conocer efectivamente cuando una fórmula es invalida. En virtud de los resultados de Church y Turing, el planteamiento anterior es lo mejor que

Page 122: Inteligencia artificial isc

podemos esperar obtener de un procedimiento de ``Demostración Automática de Teoremas". Los procedimientos de demostración de Herbrand y los basados en resolución, son procedimientos por refutación; es decir, en lugar de probar que una fórmula es válida, se probará que la negación de la fórmula es inconsistente.

 

3. PRINCIPIO DE RESOLUCIÓN

El principio de resolución es debido a J. A. Robinson en 1965. Este principio puede ser aplicado directamente a cualquier conjunto S de cláusulas, no necesariamente cláusulas aterrizadas, para probar la insatisfactibilidad de S.

La idea esencial del principio de resolución es constatar si S contiene la cláusula vacía , si S contiene a , entonces S es insatisfactible. Si S no contiene a , lo siguiente a constatar es si puede ser derivada de S. El constatar la presencia de es equivalente a contar el número de nodos de un árbol semántico cerrado de S. S es insatisfactible si y solo si hay un árbol semántico cerrado T para S. Así, S contiene a si y solo si T consiste en un solo nodo - el nodo raíz. Si S no contiene a , T debe contener más de un nodo. Sin embargo, si se puede reducir el número de nodos en T a uno, eventualmente la cláusula vacía puede ser forzada a aparecer. Esto es lo que el principio de resolución hace. Por tanto se puede ver el principio de resolución como una regla de inferencia que puede ser usada para generar nuevas cláusulas de S. Si se ponen estas cláusulas en S, algunos nodos del T original pueden ser forzados a ser nodos faltantes. Así, el número de nodos en T puede ser reducido y la cláusula vacía será eventualmente derivada.

 

RESOLUCION Autores, año.

Semántica Slagle 1967; Robinson, 1965; Kowalky y Hayes, 1969.

Unitaria Wos et al, 1964; Chang, 1970.

Estrategia de Conjunto de Soporte

Wos et al, 1965.

Hiperresolucion Robinson 1965

Lock Boyes, 1971.

Lineal Loveland, 1971; Luckham, 1971; Anderson y Bledsoe, 1971, Yates et al, 1971; Reiter, 1971; Kowalsky y Kuherner, 1971.

Page 123: Inteligencia artificial isc

 

5.1 RESOLUCIÓN LINEAL

La resolución lineal fue propuesta independientemente por Loveland (1970) y Luckman (1970). Posteriormente fue reforzada por Anderson y Bledsoe (1970), Reiter (1971), Kowalski y Kuehner (1971) y Loveland (1972).

Las versiones propuestas por Kowalski y Kuehner (1971) y Loveland (1972),son las que pueden ser implantadas en una computadora de mejor manera.

Dado un conjunto S de cláusulas, y una cláusula Cn en S, una Deducción Lineal de Cn de S con la cláusula inicial.

Donde:

1.Para i= 0, 1, n-1, Ci+1 es un resolvente de Ci (llamada Cláusula Central) y Bi (Cláusula Lateral)

2.Cada Bi esta en S, o es una Cj para algún j, j < i

3.P Q

5.2 RESOLUCIÓN DE ENTRADA Y RESOLUCIÓN UNITARIA

Al considerar un refinamiento de resolución, es deseable que éste sea completo; esto es, garantizar que la cláusula vacía pueda ser siempre derivada de un conjunto de cláusulas insatisfactible.

La resolución de entrada es un subcaso de la resolución lineal. Es más simple de implementar y aunque no es completa, es más eficiente que la resolución lineal. Podemos mostrar que la resolución de entrada es equivalente a la resolución unitaria. Dado un conjunto de cláusulas S, ya que S es el conjunto original de entrada, podemos denominar a cada miembro de S una cláusula de entrada.

1) Una resolución de entrada en una resolución en la cual una de las dos cláusulas padres es una cláusula de entrada. Una deducción de entrada (para enfatizar el conjunto S de entrada, se le denomina también deducción de entrada ) es una deducción en la cual toda resolución es una resolución de entrada. Una refutación de entrada es una deducción de entrada de la cláusula vacía desde S.

Una deducción de entrada es realmente una Deducción Lineal en la cual toda cláusula de lado es una cláusula de entrada y por lo tanto es un subcaso de la Deducción Lineal.

Ejemplo.Consideremos el siguiente conjunto de clausulas:

Page 124: Inteligencia artificial isc

P(x,y,u) P(y,z,v)P(x,v,w)P(u,z,w)

P(g(x,y),x,y)

P(x,h(x,y),y)

P(k(x),x,k(x))

2) La resolución unitaria es una resolución en la cual un resolvente es obtenido por el uso de al menos una cláusula padre, o un factor unitario de una cláusula padre. Una deducción unitaria es una deducción en la cual cada resolución es una resolución unitaria. Una refutación unitaria es una deducción unitaria de la cláusula vacía .

La resolución unitaria es esencialmente una extensión de la regla de la literal simple de Davis y Putnam para la Lógica de Primer Orden.

Esta regla es específicamente importante, ya que para deducir de un conjunto dado de cláusulas, se deberán obtener, sucesivamente, cláusulas menores y la resolución unitaria proporciona los medios para progresar rápidamente hacia las cláusulas menores.

Se puede demostrar que la resolución unitaria y la resolución de entrada son equivalentes.

5.3 RESOLUCIÓN LINEAL USANDO CLÁUSULAS ORDENADAS DE INFORMACIÓN DE LITERALES RESUELTAS.

Podemos reforzar la resolución lineal si introducimos el concepto de cláusulas ordenadas (de resolución semántica), y se usa la información de las literales resueltas anteriormente.

En resolución, cuando un resolvente es obtenido, las literales resueltas primero son borradas. Sin embargo, como lo descubrieron Loveland (1968,1969,1972) y Kowalski y Kuehner (1971) la información proporcionada por las literales es muy útil y puede ser usada para mejorar la resolución lineal.

El algoritmo que emplea los conceptos de cláusulas ordenadas y la información de literales resueltas se denomina Deducción OL (Deducción Ordenada Lineal).

La Deducción OL es escencialmente la misma que Loveland (1968,1969 y 1972) ha denominado el método del modelo de eliminación. La Deducción de OL es también, esencialmente una Deducción SL especial de Kowalski y Kuehner (1971).

5.4 RESOLUCIÓN LOCK

La resolución LOCK (Esclusa), es un refinamiento del método de resolución que usa un concepto similar al de las cláusulas ordenadas.

Page 125: Inteligencia artificial isc

Dando un conjunto S de cláusulas, esencialmente, la idea de la resolución lock consiste en usar índices para ordenar las literales en las cláusulas de S. Es decir, agrega un indexamiento arbitrario a cada ocurrencia de un literal en S, y asocia a cada una de ellas un entero.

Ocurrencias diferentes de la misma literal, pueden ser indexadas de manera diferente. La resolución se permite solamente en literales conteniendo los índices menores en cada una de las cláusulas. Las literales en los resolventes heredan los índices de sus cláusulas padre. Si una literal en un resolvente tiene más de un índice heredado posible, el menor de los índices es el que se le asigna a la mencionada literal.

 

5.5 RESOLUCIÓN SEMÁNTICA

Al aplicar el principio de resolución, se puede generar muchas cláusulas irrelevantes y redundantes.

Con el fin de evitar la generación de las cláusulas innecesarias, supóngase que se puede dividir un conjunto de cláusulas en dos grupos: S1 y S2. Y añada la restricción de que no se pueden resolver entre sí cláusulas del mismo grupo. En resolución semántica, se usa una interpretación para dividir las cláusulas. Es por ésta razón que a este tipo de resolución se le llama resolución semántica.

Para bloquear más resoluciones, se usa un esquema llamado ordenamiento de los símbolos de predicados.

5.6 HIPERRESOLUCIÓN Y LA ESTRATÉGIA DEL CONJUNTO SOPORTE

Estos dos procedimientos son casos especiales de la resolución semántica.

Hiperresolución

Consideremos una interpretación I en la que toda literal es la negación de un átomo. Si se usa esa interpretación, todo electrón y todo PI-resolvente deben contener únicamente átomos. Similarmente, si toda literal de I es un átomo, entonces todo electrón y todo PI-resolvente deben contener únicamente negaciones de átomos. La hiperresolucion se basa en éstas consideraciones:

a. Una cláusula es positiva si no contiene ningún signo de negación. Una cláusula es negativa, si toda literal de ella contiene el signo de negación. Una cláusula es mezclada si no es positiva ni negativa.

b. Una hiperresolución positiva es un caso especial de una PI-resolución en la que toda literal de la interpretación I contiene el signo de negación. Se le llama hiperresolución positiva por que todos los electrones y todos los PI-resolventes en este caso son positivos.

 

Page 126: Inteligencia artificial isc

c. Una hiperresolución negativa es un caso especial de la PI-resolución en que la interpretación I no contiene ningún signo de negación. Se le llama hiperresolución negativa porque todos los electrones y los PI-resolventes en este caso son negativos.

A menudo, los axiomas de un teorema son representados por cláusulas positivas y mezcladas, y la negación de la conclusión se representa por una cláusula negativa. En este caso, la hiperresolución positiva corresponde a "pensar hacia adelante" (forward), mientras que la hiperresolución negativa corresponde a "pensar hacia atrás " (backward).

 

La estratégia del Conjunto Soporte

Un teorema consiste de un conjunto de axiomas Ai y una conclusión B. Para probar el teorema, se prueba que Ai B es insatisfactible. Ya que Ai,usualmente es satisfactible, es recomendable resolver cláusulas en Ai. Esto es precisamente lo que trata de realizar la resolución del conjunto de soporte.

Un subconjunto T de un conjunto S de cláusulas es llamado conjunto de soporte de S si, S - T es satisfactible. Una resolución del conjunto de soporte es una resolución de dos cláusulas que no provienen de S - T. Una deducción del conjunto de soporte es una deducción en la que toda resolución es una resolución del conjunto de soporte.

5.7 RESOLUCIÓN SEMÁNTICA USANDO CLÁUSULAS ORDENADAS

Para la lógica proposicional, el ordenamiento de los símbolos de predicados, usados en conjunción con resolución semántica, es bastante efectivo. Dado un electrón E, no tenemos, dificultad en aislar una literal de E para ser resuelta. Sin embargo, para la lógica de primer orden, donde se involucran variables, en un electrón E puede haber más de una literal que contiene el mismo símbolo mayor de E. Cualquiera de estas literales es un candidato para ser resuelta.

Sea I una interpretación en la que todas las literales son negativas, y P cualquier ordenamiento de los símbolos de predicados. Claramente, E, N, es un PI-choque. Como todas las literales de E contienen el mismo símbolo Q, todas pueden ser resueltas con N. Por tanto, a partir del PI-choque E, N, podemos obtener cuatro PI-resolventes:

Para remediar esta situación, consideramos las cláusulas ordenadas. La idea de las cláusulas ordenadas es la de considerar una cláusula como una secuencia de literales. Al hacerlo, damos el orden de todas las literales de una cláusula.

a) Una cláusula ordenada es una secuencia de literales distintas.

Page 127: Inteligencia artificial isc

b) Una literal se dice que es mayor que una literal en una cláusula ordenada (o es menor que ), si y sólo si, sigue a en la secuencia especificada por la cláusula ordenada.

De esta forma, la última literal de una cláusula ordenada siempre será considerada la mayor de la cláusula. Por ejemplo, si consideramos como una cláusula ordenada, entonces es la literal mayor.

 

5.8 RESOLUCIÓN-UR

Es la Regla de Inferencia que aplica a un conjunto de cláusulas, una de las cuales debe ser una cláusula no unitaria, el resto deben ser cláusulas unitarias. Además la cláusula no unitaria debe contener exactamente una literal más que el número de (no necesariamente distinto) las cláusulas unitarias en el conjunto del cual la Resolución UR es aplicable.

 

5.9 PARAMODULACIÓN

Es la Regla de Inferencia que aplica a un par de cláusulas y requiere que al menos una de las dos contenga una literal de igualdad positiva. produce una cláusula en la cual la sustitución de igualdad correspondiente a la literal de igualdad que ha ocurrido.

 

5.10 RESOLUCIÓNES SLD Y SLDNF EN PROGRAMACIÓN LOGICA

La programación lógica es un primer acierto al trabajo de la prueba de teoremas lógicos. En efecto, la resolución de la prueba de teoremas forma la base de la mayoría de los sistemas de programación lógica actuales. La idea principal que acompaña a la programación lógica es el uso de la lógica matemática como un lenguaje de programación. Introducida por Kowalski a principios de los setentas, fue llevado a la práctica por Colmerauer a través de la implementación de PROLOG, el primer lenguaje de programación lógica.

En el procedimiento de interpretación de la programación lógica cada sentencia Horn con una conclusión positiva es considerada como una declaración de procedimiento para la conclusión y un conjunto de tales declaraciones forma un programa. La computación comienza desde una declaración inicial del objetivo la cual es una sentencia Horn con una conclusión nula. Las cláusulas de programa son clasificadas de acuerdo a su estructuras sintácticas.

La equivalencia entre semántica declarativa y semántica procedimental. para programas definidos es básicamente la validez y la completitud de resolución SLD.

Page 128: Inteligencia artificial isc

SLDNF-resolución esta pensada como la contraparte de un procedimiento de la semántica declarativa dada en términos de programas completados. Este esquema de resolución es, para una extensión larga, la base actual de la programación lógica. El esquema de resolución es esencialmente una resolución SLD aumentada por la regla de inferencia NAF (Negation as Failure). La definición de SLDNF-resolución es una versión inductiva formal como opuesta a la versión recursiva. Estas facilidades establecen sus resultados de validez con respecto a los programas completados.

5.11 RESOLUCION DIRECCIONAL

Es una variación del método original de Davis-Putman y analiza el comportamiento del peor caso como una función de la estructura topológica de las teorías proposicionales. R. Dechter and I. Rish, 1994.

 

1. ALGUNOS SISTEMAS EXPERIMENTALES PARA LA PRUEBA DE TEOREMAS

El sistema OTTER (Organized Techniques for Theorem- proving and Effective Reseach) es programa de razonamiento computadorizado basado en la lógica de predicados que posee una gran gama de aplicación en diferentes problemas tal como la validación y diseño de circuitos, resolver rompecabezas, corrección de programas, construcción de objetos, y cualquier problema que necesite colectar información que fluye lógicamente de un conjunto de hipótesis.

OTTER utiliza la misma sintaxis del cálculo o lógica de predicados y realiza sus pruebas mayormente por contradicción. Puede aplicar diferentes tipos de reglas de inferencia como resolución binaria, hiperresolución, demodulación, paramodulación, y otras variantes de éstas.

También, es capaz de ejecutar en el proceso de prueba, los algoritmos para transformar las fórmulas en cláusulas, y el de unificación, es decir, OTTER sólo necesita el conjunto de axiomas y el teorema o argumento que queremos demostrar.

Existen varios programas de aplicacion experimental, entre los que destacan MACE, FINDER, MGTP ,LDPP,SATO, y SEM.

 

2. APLICACIONES

La Lógica de Predicados, como parte de la Lógica simbólica, es una herramienta sumamente útil para representar hechos que ocurren en el mundo real. Su alto grado de expresividad y flexibilidad para el manejo de símbolos permite resolver problemas que requieren representarse de manera objetiva y

Page 129: Inteligencia artificial isc

sin ambigüedades. Por esta razón las aplicaciones de la lógica de predicados se han extendido a diferentes campos de estudio e incluso en problemas de la vida diaria.

La aplicación de los métodos de resolución es directa en razonamiento mecanizado, pero éste tiene un sin fin de aplicaciones prácticas. A través de programas computacionales se pueden resolver problemas y responder a preguntas sobre razonamiento. Sus aplicaciones están en sistemas de bases de datos y lenguajes de programación. Esto significa que no sólo sirven para demostrar teoremas o argumentos de Matemática o Filosofía, sino que también se pueden aplicar las áreas de Ingeniería, Control industrial y Computación. Por ejemplo, se puede revisan el diseño de un circuito lógico o electrónico, al verificar o probar si se satisfacen los requisitos del diseño. También, pueden probar la validez de un circuito, o sea, probar que las especificaciones del circuito son correctas. En sistemas de control industriales, se verifica que la combinación de los componentes de producción sea correcta, gracias a lo cual pueden evitarse errores que provoquen pérdidas o daños físicos o monetarios a la industria. En el área de investigación matemática, se ha podido extender teorías matemáticas, pues permite determinar la validez de nuevos teoremas en la teoría, como en la teoría de conjuntos y en álgebra booleana.

http://w3.mor.itesm.mx/~logica/log9908/Equipo1-Dic99/tarea7.htm

2.16 Conocimiento no-monótono y Otras lógicas.

Tanto los humanos como los autómatas deben extraer conclusiones que son verdad en los mejores modelos de los hechos que se han tenido en cuenta. Hay diversos conceptos de lo que es mejor en sistemas diferentes. Muchos implican la minimización de algo. A medida que se agregan nuevos hechos, algunas de las anteriores conclusiones no sobreviven. Por este motivo, el razonamiento que permitió arribar a esas conclusiones que han decaído, se denomina no-monótono.

http://club.telepolis.com/ohcop/mcnonmon.html

2.17 Razonamiento probabilístico.

Definición

El razonamiento probabilístico es un caso dentro del razonamiento no monótono. Cuando la probabilidad que la verdad de una oración haya cambiado con respecto a su valor inicial (por ejemplo 1), otras oraciones que anteriormente tenían alta probabilidad pueden decaer hasta tener probabilidad pequeña o nula. Cuando se configuran los modelos probabilísticos, esto es, cuando se define el espacio para una muestra de "eventos" susceptibles de recibir diferentes valores de probabilidad, se está

Page 130: Inteligencia artificial isc

apelando a un razonamiento no-monótono más general, pero la convención es que esto no lo hace la computadora sino una persona que razona informalmente.

Resulta aparente que en una situación informática abierta de sentido común, no existe espacio general alguno para una muestra de eventos. Apenas se le ponen límites a dicho espacio general de eventos considerados y se le aplica alguna distribución, se está procediendo a generar teorías probabilísticas. Las técnicas de razonamiento no-monótono consisten en técnicas desarrolladas para limitar los fenómenos tenidos en cuenta. Si queremos limitar los fenómenos considerados, debemos recurrir a técnicas no-monótonas. (Estoy confesando que no sé cuales serían esas técnicas). Al formar distribuciones, habría que introducir una regla por defecto por la cual dos eventos e1 y e2 se deben considerar independientes entre sí salvo que haya alguna razón para el otro caso. No es posible que e1 y e2 sean eventos cualesquiera: tienen que ser dos eventos básicos por lo menos en algun sentido.

http://club.telepolis.com/ohcop/mcrazpro.html

2.18 Teorema de Bayes.

Teorema de Bayes

Si los sucesos Ai son una partición y B un suceso tal que p(B) 0

Demostración

Aplicaciones

Diagnóstico médico (en general clasificaciones no biunívocas): El diagnóstico consiste en establecer la enfermedad de un paciente, a partir de una serie de síntomas. Pero los síntomas y las enfermedades no están ligados de un modo biunívoco.

Llamemos Ei al conjunto de enfermedades E1: tuberculosis pulmonar; E2 :cáncer de pulmón; E3: bronquitis obstructiva; etc. y Si a los síntomas y síndromes asociados con las mismas. S1: tos; S2: estado febril; S3: hemotisis; etc. La información accesible en los libros de patología, o en un archivo de historias clínicas es del tipo.Para E1: algunos (digamos el 20%) tienen hemotisis; muchos (80%) tienen tos; etc. y lo mismo para las demás enfermedades.

Page 131: Inteligencia artificial isc

En términos de probabilidad condicionada, esta información es p(S3|E1) = 0,2; p(S1|E1) = 0,8 etc. para diagnosticar la tuberculosis se ha de evaluar, para los síntomas que presenta el paciente p(E1|Si) para lo que se puede usar el teorema de Bayes si las enfermedades forman una partición (son mutuamente excluyentes y se consideran todas las enfermedades compatibles con el síntoma) y se conocen sus prevalencias.

Nótese que un mismo conjunto de síntomas podría dar lugar a un diagnóstico diferente en poblaciones en las que las prevalencias fueran diferentes.

Pruebas diagnósticas: Supóngase una prueba diagnóstica, por ejemplo nivel de glucosa en sangre, en ayunas, para diagnosticar la diabetes. Se considera que la prueba es positiva si se encuentra un nivel por encima de un cierto valor, digamos 120 mg/l.

Para evaluar la prueba, (habrá que hacerlo para distintos valores de corte) se somete a la misma a una serie de individuos diabéticos diagnosticados por otro procedimiento (el patrón de oro o "gold standar") y a una serie de individuos no diabéticos. Los resultados se pueden representar en una tabla de doble entrada

   Patrón de oro

 

   NE E  

Prueba

- a b r

+ c d s

   t u  

Si la prueba fuera perfecta b=c=0, desgraciadamente nunca ocurre. Se denomina coeficiente falso-positivo (CFP) al cociente c/t, y es una estimación de la probabilidad condicionada p(+|NE), se denomina coeficiente falso-negativo (CFN) al cociente b/u, y es una estimación de la probabilidad condicionada p(-|E). Estos dos coeficientes cuantifican los dos errores que la prueba puede cometer y caracterizan a la misma. Simétricamente, los coeficientes que cuantifican los aciertos son la sensibilidad, p(+|E), y la especificidad p(-|NE).

Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa calcular p(E|+) y/o p(NE|-).

Como E y NE son una partición, usando el Teorema de Bayes

y

Page 132: Inteligencia artificial isc

Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba diagnóstica que funciona muy bien en la clínica Mayo, puede ser inútil en el Hospital Ramón y Cajal.

Ejemplo 9:

una prueba diagnóstica para la diabetes tiene un CFP de 4% y un CFN del 5%. Si la prevalencia de la diabetes en la población donde se usa es del 7% ¿cuál es la probabilidad de que sea diabético un individuo en el que la prueba dé positiva? y ¿de que no lo sea uno en el que dé negativo?

p(+|NE) = 0,04 p(-|NE) = 0,96 p(-|E) = 0,05 p(+|E) = 0,95 p(E) = 0,07 p(NE) = 0,93

y

Pruebas en serie: Cuando se aplican pruebas en serie, para cada prueba p(E) y p(NE), serán la p(E|+) y p(NE|+) de la prueba anterior (si dio positiva) o p(E|-) y p(NE|-) si dio negativa.

http://www.hrc.es/bioest/Probabilidad_18.html

Teorema de Bayes.

En el año 1763, dos años después de la muerte de Thomas Bayes (1702-1761), se publicó una memoria en la que aparece, por vez primera, la determinación de la probabilidad de las causas a partir de los efectos que han podido ser observados. El cálculo de dichas probabilidades recibe el nombre de teorema de Bayes.

Teorema de Bayes

Sea A1, A2, ...,An un sistema completo de sucesos, tales que la probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las probabilidades condicionales P(B/Ai). entonces la probabilidad P(Ai/B) viene dada por la expresión:

Page 133: Inteligencia artificial isc

En los problemas relacionados con la probabilidad, y en particular con la probabilidad condicionada, así como con la probabilidad total y el teorema de Bayes, es aconsejable que, con la información del problema, construyas una tabla de contingencia o un diagrama de árbol.

http://thales.cica.es/rd/Recursos/rd98/Matematicas/28/8.html

Ejercicio 8-1:

Tres máquinas, A, B y C, producen el 45%, 30% y 25%, respectivamente, del total de las piezas producidas en una fábrica. Los porcentajes de producción defectuosa de estas máquinas son del 3%, 4% y 5%.

a. Seleccionamos una pieza al azar; calcula la probabilidad de que sea defectuosa. b. Tomamos, al azar, una pieza y resulta ser defectuosa; calcula la probabilidad de

haber sido producida por la máquina B. c. ¿Qué máquina tiene la mayor probabilidad de haber producido la citada pieza

defectuosa?

Solución:

Sea D= "la pieza es defectuosa" y N= "la pieza no es defectuosa". La información del problema puede expresarse en el diagrama de árbol adjunto.

a. Para calcular la probabilidad de que la pieza elegida sea defectuosa, P(D), por la propiedad de la probabilidad total,

P(D) = P(A) · P(D/A) + P(B) · P(D/B) + P(C) · P(D/C) == 0.45 · 0.03 + 0.30 · 0.04 + 0.25 · 0.05 = 0.038

b. Debemos calcular P(B/D). Por el teorema de Bayes,

Page 134: Inteligencia artificial isc

c. Calculamos P(A/D) y P(C/D), comparándolas con el valor de P(B/D) ya calculado. Aplicando el teorema de Bayes, obtenemos:

La máquina con mayor probabilidad de haber producido la pieza defectuosa es A

Ejercicio 8-2:

Tenemos tres urnas: A con 3 bolas rojas y 5 negras, B con 2 bolas rojas y 1 negra y C con 2 bolas rojas y 3 negras. Escogemos una urna al azar y extraemos una bola. Si la bola ha sido roja, ¿cuál es la probabilidad de haber sido extraída de la urna A?

Solución:

Llamamos R= "sacar bola roja" y N= "sacar bola negra". En el diagrama de árbol adjunto pueden verse las distintas probabilidades de ocurrencia de los sucesos R o N para cada una de las tres urnas.

La probabilidad pedida es P(A/R). Utilizando el teorema de Bayes, tenemos:

Unidad 3. Sistemas de razonamiento lógico.

3.6 Reglas de producción.

Page 135: Inteligencia artificial isc

Tendencia en IA (70's): (i) aplicaciones reales (ii) incorporar grandes cantidades de conocimiento vs. sistemas genéricos (e.g., GPS)

MYCIN: diagnóstica y recomienda terapia de infecciones bactereológicas de la sangre

Requerimientos:

Util (un área de necesidad reconocida) Capacidad de considerar una gran cantidad de conocimiento técnico cambiante

(reglas) Diálogo interactivo (simbólico)

Otros puntos:

velocidad accesibilidad y facilidad de uso con énfasis como herramienta de soporte

En el dominio se tienen que tomar desiciones con información incompleta

Alrededor de 200 reglas, 24 funciones y 80 atributos

Cada regla es un pedazo de conocimiento modular y dice explícitamente en sus condiciones el contexto necesario

Características Principales:

Se usan sólo conjunciones en las condiciones de las reglas Cada regla puede tener más de una conclusión (acción) Su mecanismo de inferencia es encadenamiento hacia atrás, con búsqueda depth-

first en un árbol AND/OR Se consideran todas las reglas que pueden aplicarse Maneja factores de certeza (o certidumbre). Su regla de combinación es: mínimo

en las condiciones AND y máximo entre opciones (reglas) OR

Factores en rango se deshechan Guiado por metas generalizadas: trata de encontrar toda la información

relacionada con la meta Si no puede deducir la información le pregunta al usuario Se etiquetan algunas condiciones como preguntables (LABDATA) para evitar

tratar de inferirlas cuando es muy probable que el usuario las conozca. Intenta primero aplicar reglas con valores conocidos (unity path) Mantiene lo que va evaluando para evitar tratar de re-evaluar Se hace una pre-evaluación en las condiciones de las reglas para eliminar las que

sean inmediatamente falsas (preview). La pre-evaluación involucra ``plantillas'' templates Tiene ciertas reglas de ``sentido común'' para evitar un proceso largo usando un

encadenamiento hacia adelante. Usa meta-reglas para ordenar/guiar el proceso deductivo

Page 136: Inteligencia artificial isc

Uso de contextos: paciente, infección, cultivo y organismo, y propiedades ``básicas'' (a evaluar/preguntar) para guiar el mecanismo de razonamiento

Suposiciones:

Se tiene un formato pre-establecido por lo que es difícil expresar todo el conocimiento en el.

Se asume que el conocimiento puede describirse en forma de reglas, las reglas y cómo se usan son suficientes para dar explicaciones, los expertos pueden reconocer su experiencia en las reglas, las reglas son suficientemente sencillas, expresivas e intuitivas

Sólo un número reducido de condiciones (6) se consideran por cada regla y cada condición es independiente de las otras

No se requieren muchas reglas de encadenamiento hacia adelante El mecanismo de explicación es adecuado Los expertos pueden expresar su conocimiento en forma de reglas El mecanismo de rezonamiento modus ponens es adecuado El vocabulario empleado es adecuado

Evaluación de Reglas como Represenatación de Conocimiento

Desempeño: depende de la cantidad y profundidad de su conocimiento

La modularidad de las reglas es fundamental para un buen desempeño (entre otros para añadir nuevas reglas, detectar inconsistencias, reglas subsumidas por otras, etc)

La modularidad implica que toda la información contextual debe de estar incluída en la regla y ninguna regla llama directamente a otra. Esto puede provocar reglas demasiado grandes.

En encadenamiento hacia atrás no es fácil mapear un conjunto de pruebas a las metas (pensar ``al reves'')

El formalismo sólo permite pruebas de predicados (i.e., no puede tener: para todo organismo ... esto lo tienen ``parchado'' en algunas meta-reglas pero les complica el sistema de explicación)

Explicación: debe de ser ``natural'' y transparente para los expertos (razones de usar proceso simbólico y reglas).

Capacidades: (i) mostrar en cualquier momento la regla considerada (ii) almacenar las reglas utilizadas para propósitos de explicación (iii) encontrar reglas específicas para contestar algún tipo de pregunta

Extensiones: (i) preguntar porqué no tomo ciertas acciones (ii) combinar la explicación con ``medidas de información'' para dar explicaciones a diferente detalle

Page 137: Inteligencia artificial isc

Aseveración: el nivel de detalle de conocimiento es adecuado porque lo dieron los expertos

Adquisición: es fácil de formalizar en forma de reglas el dominio médico

Las explicaciones permiten encontrar fallas en la base de conocimiento y facilitan su modificación

La adquisición se puede hacer en lenguaje natural porque el lenguaje considerado es suficientemente restringido

La adquisición debe de estar libre de contradicciones, redundancias y subsumciones. Problemas con contradicciones indirectas, efectos secundarios (i.e., actualización de información relacionada)

Algunas limitaciones:

algunos conceptos no son fáciles de expresar en forma de reglas el razonamiento hacia atrás no parece ser adecuado para estructurar grandes

cantidades de conocimiento La sintaxis de las reglas asume sólo conjunciones de pruebas proposicionales La información se introduce sólo al responder preguntas Las suposiciones sobre las cuales se basa el manejo de los factores de certeza

son muy restrictivas

http://www.mor.itesm.mx/~rdec/node75.html

Hay muchas formas de representar el conocimiento en un sistema experto. El método más utilizado son las reglas de producción.

Una regla de producción toma la siguiente forma general:

SI <son ciertos determinados hechos>ENTONCES <se consideran ciertos otros hechos>

Estas reglas residen en la base de conocimientos, en una especie de fichero de texto. El programa de inferencia, verdadero motor del sistema experto se encarga de combinar estas reglas, interactuando con el usuario a través del interfaz del usuario.

http://ciberconta.unizar.es/LECCION/IA/320.HTM

I. Reglas de producción

A menudo, es conveniente representar la naturaleza dinámica de una aplicación de la IA por un conjunto de reglas hechas de condiciones y acciones. Las reglas de producción son un tipo de regla "Si...entonces...", basada en condiciones y acciones. Una

Page 138: Inteligencia artificial isc

de las reglas que hace que las acciones de la regla a ejecutar den lugar a nuestras descripciones producen más acciones (de aquí el nombre de "reglas de producción"), así hasta que el sistema encuentre la solución o se detenga.

Un sistema consistente en un conjunto de reglas de producción, son los operadores en el sistema, es decir, las que se usan para manipular las bases de datos. Los lenguajes de estos sistemas de producción, tales como OPS5, facilitan la representación del conocimiento en reglas de producción. Cada una de estas reglas está embebitada en una pieza de conocimiento que puede ser añadida o quitada del sistema según las necesidades. La parte "SI..." y la parte "entonces..." pueden estar compuestas de más de una frase por ejemplo, "Si es diciembre y estás en el norte del circulo antártico, entonces necesitas un buen abrigo... y ...una linterna día y noche".

El formato "Si... Entonces..." de las reglas de producción hace relativamente fácil codificar los sistemas expertos del conocimiento, pero frecuentemente pensamos sobre la experiencia de una manera: "Si... Entonces...".

Las reglas de producción en sistemas expertos escritas en el OPS5 no necesitan acogerse a un orden particular por que el control de flujo en un programa no está determinado por el orden en el que el programador ha codificado las reglas. En lugar de eso las reglas son candidatas a actuar cuando los elementos "Si..." son satisfactorios por el estado actual del sistema, que continuamente cambia al ir actuando las reglas. Explícitamente las estructuras de control en algunos programas pueden también limitar la aplicabilidad de alguna regla en algún momento. La capacidad para añadir o quitar reglas de producción en algún punto del sistema sin considerarlas por orden ayuda a desarrollar el trabajo más fácilmente.

http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html

3.7 Sintaxis de las reglas de producción.- A1 A2 ... An => C- representación objeto-atributo-valor

Representación: objeto-atributo-valor

(literalize Objeto Atributo1 Atributo2 AtributoN)

Page 139: Inteligencia artificial isc

Los atributos solo pueden tener un valor a menos que se declaren como vectores

Instanciaciones de objetos (asignar valores con constantes o con nil)

Las instanciaciones se añaden a la memoria de trabajo y se les asigna un número entero positivo o etiqueta de tiempo (time-tag)

Para ver los elementos de la memoria de trabajo: (wm) e.g., 10:(paciente ^nombre Juan ^edad 20 ^síntoma fiebre)

Sintaxis: (p < nombre >< lhs > --> < rhs >)

e.g.,

(p ejemplo (paciente ^sintoma = fiebre) (datos-lab ^celulas-T < 100) --> (make paciente ^diagnostico sida))

Atributo-predicado-valor

Predicado: <, <=, >=, >, <>, =

Si no se pone ningún predicado se asume que es: =

El interprete aparea condiciones de las reglas con elementos de la memoria de trabajo: e.g., (paciente ^edad < 70)

Memoria de trabajo: 1: (paciente ^nombre juan ^edad 50) 2: (paciente ^nombre maría ^edad 75)

Extenciones: (paciente ^edad {> 20 < 50}) (conjunción) (paciente ^queja << fiebre dolor-de-cabeza >>) (disjunción)

Acciones:

make: crea un elemento en la memoria de trabajo remove: elimina un elemento de la memoria de trabajo modify: cambia un elemento de la memoria de trabajo

Los atributos no mencionados en make se les asigna nil e.g., (literalize persona nombre edad)

(make persona ^nombre juan)

Page 140: Inteligencia artificial isc

1: (persona ^nombre juan ^edad nil)

Remove: e.g., (remove 10) (remove *)

Modify: hace un remove seguido de un make. e.g., (literalize persona nombre)

(p chafa (persona ^nombre anonimo) --> (modify 1 ^nombre juan))

1: (persona ^nombre anónimo) 3: (persona ^nombre juan)

Otras instrucciones: openfile, closefile, accept, write

Variables: se ponen entre ``< >'': < x >, < N >, < cualquier-cosa >, e.g.,

(persona ^nombre = <n > ^edad = 20)

Una variable puede instanciarse a un elemento de la memoria de trabajo: {(persona ^nombre juan) <pers>}, e.g.,

(p ejemplo {(persona ^nombre juan) <pers >} --> (remove <pers >))

(p arteria-pequenias (arteria ^nombre = <n > ^diametro < 2) (brazo ^conducto-sanguineo = <n >) --> (make arteria-pequenia ^nombre <n >))

Interprete: OPS5 usa encadenamiento hacia adelante

Criterios:

LEX (lexical): preferencia por datos más recientes, las reglas más específicas y arbitrario

MEA (Means-Ends Analysis): da preferencia a la primera condición (contextos)

Ejemplo (ancestros):

nombre madre padre

Page 141: Inteligencia artificial isc

Gaia - Caos

Cronos Gaia Urano

Rhea Gaia Urano

Zeua Rhea Cronos

Hephaestus Hera Zeus

Leto Febe Coeus

Hera Rhea Cronos

Apolo Leto Zeus

(literalize persona nombre madre padre)

En OPS5 no hay recursión, por lo que necesitamos un objeto intermedio para guardar los ancestros intermedios

(literalize mientras nombre)

Necesitamos otro objeto para empezar todo (es común)

(literalize empieza)

Regla inicializadora:

(p pregunta {(empieza) <inicia >} --> (remove <inicia >)

(write (crlf) Dame el nombre: )

(make mientras ^nombre (accept)))

(p ancestro {(mientras ^nombre {<ancestro > <> nil }) <emt >} (persona ^nombre <ancestro > ^madre <nombre-m > ^padre <nombre-p >) --> (remove <emt >) (write (crlf) <nombre-m > y <nombre-p > son

ancestros de <ancestro >) (make mientras ^nombre <nombre-m >) (make mientras ^nombre <nombre-p >))

También hace falta declarar la tabla de ancestros:

(make persona ^nombre Gaia ^padre Caos) (make persona ^nombre Cronos ^madre Gaia

Page 142: Inteligencia artificial isc

^padre Urano)

http://www.mor.itesm.mx/~rdec/node70.html

Representación del conocimiento

2.3.1.1 Representaciones basadas en la lógica de proposiciones extendida

Los tradicionales sistemas de aprendizaje han utilizado con gran asiduidad, para representar el conocimiento, una extensión de la lógica de proposiciones, denominada lógica "0+" o representación objeto-atributo-valor. Dentro de la misma, pueden englobarse métodos de representación equivalentes como los árboles de decisión, las reglas de producción y las listas de decisión:

 

Árboles de decisión

Los árboles de decisión son una forma de representación sencilla, muy usada entre los sistemas de aprendizaje supervisado, para clasificar ejemplos en un número finito de clases. Se basan en la partición del conjunto de ejemplos según ciertas condiciones que se aplican a los valores de los atributos. Su potencia descriptiva viene limitada por las condiciones o reglas con las que se divide el conjunto de entrenamiento; por ejemplo, estas reglas pueden ser simplemente relaciones de igualdad entre un atributo y un valor, o relaciones de comparación ("mayor que", etc.), etc.

Los sistemas basados en árboles de decisión forman una familia llamada TDIDT (Top-Down Induction of Decision Trees), cuyo representante más conocido es ID3 ( [Quinlan, 86] ).

ID3 (Interactive Dichotomizer) se basa en la reducción de la entropía media para seleccionar el atributo que genera cada partición (cada nodo del árbol), seleccionando aquél con el que la reducción es máxima. Los nodos del árbol están etiquetados con nombres de atributos, las ramas con los posibles valores del atributo, y las hojas con las diferentes clases. Existen versiones secuenciales de ID3, como ID5R ( [Utgoff, 89] ).

C4.5 ( [Quinlan, 93] , [Quinlan, 96] ) es una variante de ID3, que permite clasificar ejemplos con atributos que toman valores continuos.

 

Reglas de producción

Una desventaja de los árboles de decisión es que tienden a ser demasiado grandes en aplicaciones reales y, por tanto, se hacen difíciles de interpretar desde el punto de vista humano. Por ello, se han realizado diversos intentos para convertir los árboles de decisión en otras formas de representación, como las reglas de producción. Aquí

Page 143: Inteligencia artificial isc

consideramos reglas de producción del tipo si-entonces, basadas en lógica de proposiciones. El consecuente es una clase, y el antecedente es una expresión proposicional, que puede estar en forma normal conjuntiva (CNF) o ser simplemente un término.

En [Quinlan, 87] se propone una técnica para construir reglas de decisión, basadas en lógica de proposiciones, a partir de árboles de decisión. El problema es que incluso las reglas de producción así obtenidas pueden resultar demasiado complejas para un experto humano.

Algunos sistemas como PRISM, descrito en [Cendrowska, 88] , generan directamente reglas algo más sencillas, sin tener que construir el árbol previamente, mediante un algoritmo parecido a ID3 y con una precisión similar.

La familia AQ ( [Michalski, 87] ) la forman sistemas (AQ11, AQ15, etc.) que generan descripciones estructurales, por diferenciarlas de las descripciones de atributos de los sistemas anteriormente mencionados. Estas descripciones son también reglas de producción, aunque con mayor capacidad descriptiva, pues su antecedente es una fórmula lógica. La notación utilizada en estas reglas se denomina VL1 (Variable-valued Logic system 1, véase [Dietterich y Michalski, 84] ), y permite utilizar selectores (igualdad entre un atributo y un valor o conjunto de valores), complejos (conjunciones de selectores) y disyunciones de complejos para construir las reglas de producción.

 

Listas de decisión

Las listas de decisión son otra forma de representación basada en lógica de proposiciones. Es una generalización de los árboles de decisión y de representaciones conjuntivas (CNF) y disyuntivas (DNF). Una lista de decisión es una lista de pares de la forma

(d1, C1), (d2, C2),..., (dn, Cn)

donde cada di es una descripción elemental, cada Ci es una clase, y la última descripción Cn es el valor verdadero. La clase de un objeto será Cj cuando dj sea la primera descripción que lo satisface. Por tanto, se puede pensar en una lista de decisión como en una regla de la forma "si d1 entonces C1, sino si d2..., sino si dn entonces Cn".

Se usan por ejemplo en el sistema CN2 ( [Clark y Niblett, 89] ) que es una modificación del sistema AQ, que pretende mejorar el aprendizaje a partir de ejemplos con ruido (al evitar la dependencia de ejemplos específicos e incorporar una poda del espacio de búsqueda). Las descripciones elementales de los pares que forman la lista de decisión tienen la misma forma que los complejos de AQ.

2.3.1.2 Representaciones basadas en la lógica de predicados de primer orden

Aunque las representaciones basadas en lógica de proposiciones han sido usadas con éxito en muchos sistemas de aprendizaje en ordenadores, tienen algunas importantes

Page 144: Inteligencia artificial isc

limitaciones ( [Muggleton, 92] ), superadas por la lógica de predicados de primer orden, que restringen su campo de aplicación:

Potencia expresiva: Las representaciones basadas en lógica de proposiciones limitan la forma de los patrones que pueden ser representados, ya que, en general, no pueden expresar relaciones. Así, por ejemplo, no se pueden representar (al menos de un modo sencillo) patrones en los que se cumpla una relación de igualdad entre dos atributos (sólo se permitiría expresar la igualdad entre un atributo y un valor constante).

Conocimiento de base 3 : Es difícil incorporar conocimiento de base en el proceso de aprendizaje. Una forma sencilla de conocimiento de base la constituyen restricciones impuestas a las descripciones generadas por el sistema, aunque ésto puede resultar demasiado restrictivo.

Restricciones en el vocabulario: Las descripciones de los sistemas actuales vienen limitadas por un vocabulario fijo de atributos proposicionales. Podría ser muy útil tener la posibilidad de mejorar la representación mediante la invención de nuevos predicados.

Todas estas limitaciones pueden superarse con una representación del conocimiento más potente: la lógica de predicados de primer orden. Cada vez hay más sistemas de aprendizaje en ordenadores que utilizan de algún modo la lógica de primer orden, surgiendo así un nuevo área de interés llamado programación lógica inductiva (en inglés Inductive Logic Programming o ILP). El objetivo de la programación lógica inductiva es construir un programa lógico (en lógica de predicados de primer orden) que, junto al conocimiento que se tenga del dominio, tenga como consecuencia lógica el conjunto de entrenamiento del sistema.

La presente tesis se enmarca dentro del paradigma de la programación lógica inductiva, por ello, en el apartado 2.4 , desarrollaremos este punto en mayor detalle, fijándonos en algunos de sus sistemas más representativos.

2.3.1.3 Representaciones estructuradas

Las representaciones estructuradas de conocimiento tienen una gran potencia expresiva (aunque, en teoría, no mayor que la de la lógica de predicados de primer orden) y permiten una fácil interpretación del mismo. Entre las representaciones estructuradas se pueden incluir las redes semánticas y los marcos. En cualquier caso, el conocimiento expresado mediante una de estas representaciones estructuradas puede ser traducido fácilmente a lógica de predicados de primer orden.

 

Redes semánticas

El término de red semántica surge a partir del modelo de memoria semántica de Quillian (1968), con el que pretendía representar el significado de los vocablos del idioma inglés. En una red semántica la representación consta de un conjunto de nodos (conceptos), unidos entre sí por diferentes clases de enlaces asociativos (relaciones). A su vez, las relaciones entre un concepto y su clase, denominadas relaciones de subtipo (ej. instancia_de, es_un), a veces se representan en una red separada.

Page 145: Inteligencia artificial isc

La principal ventaja de las redes semánticas es que toda la información relativa a un objeto concreto se obtiene fácilmente a partir del mismo, siguiendo los arcos que parten de él.

Para aplicar la minería de datos con redes semánticas, se representa cada ejemplo como una red semántica, y las operaciones que se realizan consisten en manipular los grafos, para encontrar los patrones (subgrafos) que cumplen todos los ejemplos de la misma clase.

Es práctica común el denominar red semántica a todo formalismo con forma de red usado para representar conocimiento. Sin embargo, es más preciso considerar como tales sólo las que se dedican a la representación del lenguaje natural, y denominar, en general, redes asociativas a todas ellas ( [Mira et al., 95] ).

Una red asociativa es una red (conjunto de nodos unidos entre sí por enlaces) en la que los nodos representan conceptos y los enlaces representan relaciones (de pertenencia, inclusión, causalidad, etc.) entre los conceptos. Dentro de las redes asociativas se incluyen: las redes semánticas (destinadas a representar o comprender el lenguaje natural), las redes de clasificación (representan conceptos mediante una jerarquía de clases y propiedades) y las redes causales (representan relaciones de influencia, generalmente de causalidad, entre variables).

Las redes de clasificación pueden considerarse redes semánticas sólo cuando representan conocimiento taxonómico de conceptos, pero no cuando se utilizan dentro de un sistema experto basado en marcos para definir clases e instancias.

Las redes causales representan un modelo en el que los nodos corresponden a variables y los enlaces a relaciones de influencia, generalmente de causalidad. Los modelos causales se orientan, sobre todo, a problemas de diagnóstico. Las redes bayesianas pueden considerarse como redes causales a las que se ha añadido una distribución de probabilidad sobre sus variables.

 

Marcos

El concepto de marco fue introducido por Minsky (1975) como método de representación del conocimiento y de razonamiento, intentando superar las limitaciones de la lógica a la hora de abordar problemas como la visión artificial, la comprensión del lenguaje o el razonamiento de sentido común ( [Mira et al., 95] ).

Un marco es una estructura de datos, formada por un nombre y un conjunto de campos (o ranuras, del inglés slots), que se rellenan con valores para cada ejemplo concreto. Las ranuras pueden llenarse con valores de atributos o con referencias a otros marcos para expresar las relaciones de subtipo, como la relación es_un, en cuyo caso se heredan los atributos del marco de nivel superior.

Basándose en el concepto de marco, se desarrolló el lenguaje de programación KRL (Knowledge Representation Language), para representar el conocimiento de forma estructurada. La ingeniería del software también heredó de la inteligencia artificial el

Page 146: Inteligencia artificial isc

concepto de marco para construir la orientación a objetos (puede observarse el gran parecido entre los objetos de la programación orientada a objetos y los marcos).

Entre los sistemas de aprendizaje que utilizan marcos para representar el conocimiento adquirido, podemos mencionar el sistema EURISKO ( [Lenat., 84] ).

El conocimiento expresado mediante marcos puede traducirse fácilmente a lógica de predicados de primer orden, aunque perdiendo la ventaja de ser estructurado.

2.3.1.4 Representaciones basadas en ejemplos

Los sistemas de aprendizaje basado en ejemplos (Instance-Based Learning algorithms) representan el conocimiento mediante ejemplos representativos, basándose en "similitudes" entre los datos ( [Aha et al., 91] ). El aprendizaje consiste en la selección de los ejemplos que mejor representan a los conceptos existentes en la base de datos (se trata de aprendizaje supervisado); estos ejemplos representativos serán los únicos que se almacenen, reduciendo así considerablemente el espacio necesario. El principal problema de estos sistemas es que se necesita una función de "similitud", a veces difícil de definir, para clasificar los nuevos ejemplos según sea su parecido con los ejemplos prototipo.

Los algoritmos de aprendizaje basado en ejemplos surgieron a partir de los clasificadores por vecindad (nearest-neighbor classifier), y han adquirido importancia más recientemente con los sistemas de razonamiento basado en casos (case-based reasoning), para diagnóstico y resolución de problemas. Además, pueden utilizarse como paso previo a otros sistemas de aprendizaje a partir de ejemplos, para entrenarlos con conjuntos de ejemplos más pequeños y representativos.

2.3.1.5 Redes neuronales

Las redes neuronales ( [Lippmann, 87] , [Freeman y Skapura, 93] , [Hertz et al., 91] ), incluidas dentro de los modelos conexionistas, son sistemas formados por un conjunto de sencillos elementos de computación llamados neuronas artificiales. Estas neuronas están interconectadas a través de unas conexiones con unos pesos asociados, que representan el conocimiento en la red. Cada neurona calcula la suma de sus entradas, ponderadas por los pesos de las conexiones, le resta un valor umbral y le aplica una función no lineal (por ej. una sigmoide); el resultado sirve de entrada a las neuronas de la capa siguiente (en redes como el perceptrón multicapa).

Uno de los algoritmos más usado para entrenar redes neuronales es el back-propagation, que utiliza un método iterativo para propagar los términos de error (diferencia entre valores obtenidos y valores deseados), necesarios para modificar los pesos de las conexiones interneuronales. El back-propagation puede considerarse como un método de regresión no lineal ( [Fayyad et al., 96b] ), en el que aplica un descenso de gradiente en el espacio de parámetros (pesos), para encontrar mínimos locales en la función de error.

Las redes neuronales han sido utilizadas con éxito en diferentes tipos de problemas:

Page 147: Inteligencia artificial isc

Auto-asociación: la red genera una representación interna de los ejemplos aportados, y responde con el más aproximado a su "memoria". Ejemplo: máquina de Boltzman.

Clasificación de patrones: la red es capaz de clasificar cada entrada en un conjunto predefinido de clases. Ej.: back-propagation.

Detección de regularidades: la red se adapta a los ejemplos de entrada, tomando de ellos varias características para clasificarlos; en este caso, el conjunto de clases no está definido de antemano, por lo que el aprendizaje es no supervisado. Ej.: red MAXNET, ART1, mapas de Kohonen, red de Oja, etc.

 

Las tasas de error de las redes neuronales son equivalentes a las de las reglas generadas por los métodos de aprendizaje simbólicos, aunque son algo más robustas cuando los datos son ruidosos. Las principales desventajas para usar redes neuronales en la minería de datos son:

el aprendizaje es bastante más lento que en un sistema de aprendizaje simbólico ( [Shavlik et al., 90] );

el conocimiento obtenido por las mismas no es representable en forma de reglas inteligibles, sino que lo forma el conjunto de pesos de las conexiones interneuronales;

además, es difícil incorporar conocimiento de base o interacción del usuario en el proceso de aprendizaje de una red neuronal.

http://www.gsi.dit.upm.es/~anto/tesis/html/stateart.htmlLos sistemas de producción proporcionan una representación adecuada para las funciones de selección de acciones. Un sistema de producción está formado por un conjunto de reglas, denominadas reglas de producción. Cada regla se escribe de la siguiente manera:   

    Ci   ----->      Ai      

Donde Ci es la condición y Ai es la acción.

         La condición de una regla puede ser cualquier función booleana, definida sobre el vector de características. La selección de la acción se realiza de la siguiente manera: se comienza con la primera regla, se busca, siguiendo el orden establecido en el conjunto de reglas, una de ellas en la que la evaluación de su condición proporcione el valor 1 (verdadero), y se selecciona su parte de acción. La parte de acción puede ser una acción primitiva, una llamada a otro sistema de producción o un conjunto de acciones que tienen que ser ejecutadas simultáneamente. En la mayor parte de los casos, la última opción de la regla, tiene como condición el valor 1, y por tanto, si ninguna de las condiciones de las reglas anteriores toma el valor 1, se ejecuta por defecto la acción asociada a esta última regla.

        Mediante técnicas de búsqueda y procesos de unificación, los sistemas

Page 148: Inteligencia artificial isc

basados en reglas automatizan sus métodos de razonamiento y proporcionan una progresión lógica desde los datos iniciales, hasta las conclusiones deseadas. Esta progresión hace que se vayan conociendo nuevos hechos o descubriendo nuevas afirmaciones, a medida que va guiando hacia la solución del problema.            En consecuencia, el proceso de solución de un problema en los sistemas basados en reglas va realizando una serie de inferencias que crean un sendero entre la definición del problema y su solución. Las inferencias están concatenadas y se las realiza en forma progresiva, por lo que  se dice que el proceso de solución origina una cadena de inferencias. Este proceso se puede realizar de dos formas:

•    Se puede partir considerando todos los datos conocidos y luego ir progresivamente avanzando hacia la solución. Este proceso se lo denomina guiado por los datos o de encadenamiento progresivo (forward chainning).

•    Se puede seleccionar una posible solución y tratar de probar su validez buscando evidencia que la apoye. Este proceso se denomina guiado por el objetivo o de encadenamiento regresivo (backward chainning).

http://www.ucv-cv.cl/campus/periodico/Sitio_ML2/ReglasProduccion.html

3.8 Semántica de las reglas de producción3.8.1Conocimiento causal.

Conocimiento causal: Es el conocimiento del porqué. Se refiere a la comprensión de los motivos por los que algo ocurre: por ejemplo, comprender los factores que influyen en la calidad de un producto o en la satisfacción del cliente. Puede representarse mediante la descripción de los vínculos causales entre una serie de factores (Schank 1975, Weick y Bougnon 1986), pero normalmente se representa de un modo menos formalizado a través de vivencias organizacionales (Schank 1990). Compartir vivencias es un buen medio para desarrollar el consenso sobre qué acciones particulares deberían emprenderse o cómo alcanzar un determinado objetivo de la mejor manera posible (Boje 1991).

http://www.esterkaufman.com.ar/varios/mi%20web/Cuadernos%20de%20trabajo%2034.pdf

3.8.2Conocimiento de diagnóstico.3.9 Arquitectura de un sistema de Producción (SP) (ó

Sistemas basados en reglas, SBR).3.9.1Hechos.3.9.2Base de conocimientos.

Page 149: Inteligencia artificial isc

Bases de conocimiento

La representación del conocimiento, entendido en los términos que presentamos anteriormente, es un problema central en el más vasto campo de la Inteligencia Artificial, en cuanto que esta disciplina tiene como principal objetivo el desarrollo de sistemas "inteligentes" que sean capaces de reproducir lo más fehacientemente posible los mecanismos intelectuales comunes en los humanos, de forma destacada, la comprensión del lenguaje natural, el aprendizaje (acumulación de experiencia), el razonamiento lógico, la resolución de problemas y el reconocimiento de patrones (p. ej. en visión robótica). Una definición representativa de lo que comúnmente se entiende por "Inteligencia Artificial" es la de Barr y Feigenbaum (1981:4):

Artificial Intelligence (AI) is the part of computer science concerned with designing intelligent computer systems, that is, systems that exhibit the characteristics we associate with intelligence in human behavior - understanding language, learning, reasoning, solving problems, and so on.

Las técnicas comunes en IA consisten por tanto en el estudio minucioso de la actividad o comportamiento que se desea emular, en primer lugar y después, y sobre todo, su implementación en algún tipo de autómata.

El paradigma actual de "inteligencia", en contraste con el anterior, basado principalmente en técnicas heurísticas de búsqueda (Goldstein & Papert 1977), acentúa la necesidad de conocimiento experto para la realización de tareas inteligentes (Mylopoulos & Levesque 1984). La idea es que lo central para nuestra actividad mental normal es un gran repositorio de conocimiento experto sobre muy diferentes materias específicas y sobre el mundo en general. Por tanto, es evidente que si nuestro objetivo es replicar esquemas mentales humanos en un autómata, éste deberá poseer un repositorio parecido de información del que pueda hacer uso, mediante diversos dispositivos, para el manejo inteligente de esa información. En suma, la posesión de conocimiento es absolutamente indispensable para la realización de una tarea "inteligente".

Sin embargo, como venimos diciendo, esto no fue siempre así. De hecho, podemos distinguir cuatro fases o "categorías históricas" (Barr & Feigenbaum 1981) en el estudio del lenguaje natural por parte de los investigadores de IA:

1. Los primeros programas que se realizaron poseían un conocimiento del lenguaje prácticamente nulo, y estaban limitados a un dominio muy concreto. Simplemente analizaban el input en busca de palabras clave o de patrones relacionados con alguno de los temas que "conocían" . El output era formado a través de reglas de dominio específico llamadas heuristics, de forma que hacían creer que entendían lo que se les estaba diciendo. El mejor representante de estos programas, es sin duda el Eliza de Weizenbaum (Weizenbaum 1976), que intentaba simular un consultorio psicológico. El usuario introduce su problema o preocupación y Eliza responde o intenta extraer más información (que guarda para usarla cuando la conversación llega a un punto muerto); también hace uso de un buen número de frases comodín y regala al "paciente" con sus consejos. Otros programas de estas características son BASEBALL (Green et al. 1963) o STUDENT (Bobrow 1968).

2. Otros programas parecidos fueron los basados en texto. Éstos, de los cuales destacamos PROTO-SYNTHEX-I (Simmons et al. 1966) almacenaban el texto mismo en su base de datos, por lo que no estaban ceñidos a un dominio particular. Sin embargo, al igual que los anteriores, no poseían capacidades deductivas de ningún tipo, ni podían analizar el contenido semántico del input; se encontraban restringidos a responder con el material textual que previamente se les había introducido.

3. En tercer lugar encontramos los sistemas de lógica limitada. Estos sistemas ofrecían (limitadas) capacidades deductivas, ya que eran capaces de producir información no almacenada explícitamente en la base de datos. Además, llevaban a cabo una cierta interpretación semántica, al traducir frases de insumo en lenguaje natural a la notación lógica interna de la base de conocimiento. Usando el cálculo de predicados, eran capaces de hacer inferencias del tipo:

Page 150: Inteligencia artificial isc

– ‘¿Es un avestruz un ave?’avestruz(x),

(x)[avestruz(x) ave(x)],ave(x);– ‘Sí.’

4. El último tipo son los sistemas de que venimos hablando, los basados en el conocimiento, cuyo desarrollo está íntimamente ligado a la investigación de IA sobre representación del conocimiento. Estos sistemas intentan almacenar una gran cantidad de información para usarla de modos diferentes con el objeto de "entender" el lenguaje natural, generarlo, deducir, etc. Se basan en la idea básica, ya mencionada de que para la resolución de un problema complejo dentro de un determinado ámbito, es preciso un conocimiento experto sobre ese ámbito.

Como esta evolución implica, los sistemas de lenguaje natural de IA hoy día están casi exclusivamente basados en el conocimiento. Éste, por otra parte, necesita ser estructurado y debidamente modelado para poder almacenarlo bajo una notación apropiada como repositorio de información. De hecho, podemos afirmar que la representación de conocimiento es el hilo conductor de los diferentes campos que abarca la IA (McCalla & Cercone 1983).

A este repositorio de información estructurada que se usa para resolver tareas que requieren conocimiento experto se le conoce como base de conocimiento. Este concepto, necesita de una definición más formal . Por ejemplo, dicho así - "repositorio de información estructurada" - cabría pensar que una enciclopedia impresa, estructurada en artículos, es una base de conocimiento; sin embargo una KB tiene que poseer otras facultades.

Sin embargo, en lo que respecta a las bases de conocimiento, no existen estándares ni definiciones. En general se supone que un KBMS, a diferencia de un DBMS, debe ofrecer estas dos posibilidades fundamentales (Mylopoulos 1986):

Mecanismos de razonamiento: el KBMS debe ser capaz de extraer conclusiones lógicas a partir de la información y reglas que contiene.

Mecanismos de explicación que permitan al usuario del KBMS averiguar el estado del mecanismo de razonamiento, obtener consejo, y justificación de una determinada conclusión obtenida por el mecanismo de razonamiento

A partir de estos requerimientos deberíamos establecer alguna tipología de KBMSs atendiendo no a su arquitectura (no existen arquitecturas genéricas estándar), sino a su funcionalidad. Lo que caracteriza a los sistemas de representación de conocimiento es que se han desarrollado en diversos ámbitos con propósitos específicos. Mientras que un mismo sistema de bases de datos se puede utilizar para múltiple propósitos, los KBMS no son por lo general de propósito general. (Jarke et al. 1989) presentan la siguiente tipología de aplicaciones de IA en las que las bases de conocimiento son utilizadas:

Sistemas expertos Sistemas de procesamiento de lenguaje natural Sistemas de visión robótica Entornos de desarrollo

Son los segundos los que nos interesan, aunque en realidad la mayoría de los sistemas de IA toman la forma de sistemas expertos. Las relaciones entre el procesamiento del lenguaje natural y los KBMS han estado siempre motivadas por los intereses de los investigadores en IA, no por los de lingüistas o lexicógrafos. La aplicación de sistemas basados en el conocimiento a la TA es muy novedosa, y, según pensamos, los clásicos sistemas de KBMS no se adaptan a las necesidades de este tipo de aplicaciones, al no conceder la importancia necesaria a la información detallada en general ni a los aspectos procedimentales. El interés de los investigadores de IA por el lenguaje natural está centrado casi exclusivamente en la comunicación hombre-máquina, por tanto su objetivo es la construcción de interfaces en

Page 151: Inteligencia artificial isc

lenguaje natural que faciliten esta interacción. Éstos son los denominados interfaces de lenguaje natural (NLI: Natural Language Interfaces).

De hecho, el interés por los sistemas de NLP basados en el conocimiento surgió a raíz de la necesidad de construir interfaces en lenguaje natural para sistemas expertos. Estos sistemas son alimentados con toda la información disponible sobre un determinado tema muy específico, por ejemplo diagnósticos médicos, sistemas de ingeniería. Después, mediante un interfaz apropiado que acepta un conjunto de estructuras sintácticas y elementos léxicos específico, son capaces de responder adecuadamente a consultas complejas relacionando la información que poseen.

Las tareas para las que estos sistemas se desarrollan son, casi por definición, complejas (Walker et al. 1987). Por tanto, un sistema experto es un sistema computacional capaz de representar y razonar sobre un dominio determinado que precisa de gran cantidad de conocimiento, tal como la aeronáutica o la medicina. Se puede distinguir de otros tipos de aplicaciones de IA en que (Jackson 1986):

trabaja con temas complejos que normalmente requieren una considerable cantidad de experiencia humana;

debe ser una herramienta práctica y útil; para ello debe ofrecer un alto rendimiento en cuanto a velocidad de ejecución y fiabilidad;

debe ser capaz de explicar y justificar sus soluciones y consejos para convencer al usuario de lo correcto de su razonamiento.

Los sistemas expertos son el tipo de aplicación de IA que mejores resultados ha conseguido. Estos sistemas son usados hoy en día en un amplio abanico de dominios y han probado ser altamente fiables. Por ello sería deseable la disponibilidad de interfaces en lenguaje natural que facilitasen la comunicación con el sistema por parte de usuarios no expertos en computación (médicos, biólogos, ingenieros). Existen tres modos de ver la relación entre un NLI y el KBMS. La primera es la construcción de un NLI para manejar un KBMS. La segunda construir un KBMS para implementar un NLI. La tercera construir un NLI (soportado por el KBMS) para sistemas basados en el conocimiento. Estas relaciones quedan expuestas en la Figura 4.1.

Page 152: Inteligencia artificial isc

Figura 4.1 Relaciones NLI / KBMS

Para que un programa pueda ser calificado de NLI debe cumplir las dos condiciones siguientes:

1. Un subconjunto del input o el output del sistema se realiza en lenguaje natural 2. El procesamiento del input (generación del output) se basa en conocimiento de tipo

sintáctico, semántico y/o pragmático.

Los tres modos anteriormente citados de usar el lenguaje natural en IA reflejan a nuestro parecer tres estadios de investigación, superando una primera fase en que se pretendía un análisis extremadamente simplista del lenguaje. Tras observar la enorme complejidad que éste conlleva, se hizo obvia la necesidad de tratar el lenguaje humano como un objeto de estudio en sí mismo, para poder siquiera pensar en usarlo como medio de interacción hombre-máquina. En esta etapa se empezaron a plantear cuestiones que los lingüistas han estado estudiando desde mucho tiempo atrás. Un KBMS para NLI habrá de integrar los siguientes tipos de conocimiento (Jarke et al. 1989):

Conocimiento lingüístico. Conocimiento conceptual. Conocimiento inferencial. Conocimiento del usuario.

La Figura 4.2 resume las fuentes de conocimiento lingüístico necesario para el desarrollo de NLIs según la IA. Este cuadro revela cómo los investigadores de IA contemplan el estudio del lenguaje natural.

Page 153: Inteligencia artificial isc

Figura 4.2 Conocimiento requerido por un NLI

Finalmente, en IA se señalan algunas características necesarias en una KB para el procesamiento de lenguaje natural:

Representación de conocimiento: el sistema de representación10 debería ser un esquema híbrido que contuviese subesquemas basados en marcos (frames), hechos de base de datos y reglas de deducción. Las distintas unidades de conocimiento codificadas en uno de estos esquemas tendrán que ser agregadas a los esquemas híbridos de una fuente de conocimiento (lingüístico, conceptual, etc.), que a su vez tendrá que ser agregada a la base de conocimiento global.

Organización del conocimiento: el KBMS deberá organizar al menos dos bases de conocimiento en el caso de un sistema basado en NLI: la KB del lenguaje natural (NL KB) y la KB a la que el NLI proporciona acceso mediante lenguaje natural. A su vez, la NLKB habrá de estar organizada distinguiendo: conocimiento de entorno, conocimiento específico de trabajo y conocimiento específico de diálogo (ver Figura 4.1)

Entorno de integración: el KBMS deberá proporcionar un entorno que permita la entrada de datos para las distintas KBs. Este aspecto de adquisición de conocimiento se puede realizar mediante el NLI una vez se haya construido parcialmente. Lo ideal para crear la base de conocimiento de lenguaje natural es el trabajo conjunto de expertos en los dos campos: la lingüística y la IA.

Como observamos, las diferencias de descripción detallada de bases de datos y bases de conocimiento son abismales. Las bases de datos son sistemas muy bien establecidos en donde todo lo que puede o no puede llevar a cabo el sistema y cómo llevarlo a cabo está perfectamente establecido. El trabajo en bases de conocimiento se encuentra aún en una fase germinal, y por lo general se trata de sistemas específicos para necesidades específicas. La literatura en torno a las bases de conocimiento es aún altamente programática, intentando sentar las bases de lo que se supone que estos sistemas serán capaces de hacer. No es extraño encontrar aserciones contradictorias en distintos autores con distintos fines. Incluso así, en el siguiente apartado intentaremos mostrar cuáles son las definiciones formales y arquitecturas que se han propuesto hasta ahora. Ni que decir tiene que el entorno de bases de datos se encuentra totalmente establecido. Comenzamos pues por exponer la arquitectura general de bases de datos.

http://elies.rediris.es/elies9/4-1-2.htm

3.9.3Mecanismo de control.3.10 Ciclo de vida de un sistema de Producción.

Page 154: Inteligencia artificial isc

CICLO DE VIDA DE LOS SISTEMAS

El Ciclo de Vida del Desarrollo de Sistemas es un proceso por el cual los analistas de sistemas, los ingenieros de software, los programadores y los usuarios finales elaboran sistemas de información y aplicaciones informáticas.

TÉCNICAS y METODOLOGÍAS

Técnica: Es un método que aplica herramientas y reglas específicas para completar una o más fases del ciclo de vida del desarrollo de Sistemas. Ellas se aplican a una parte del ciclo de vida total.

Metodología es una versión amplia y detallada de un ciclo de vida COMPLETO de desarrollo de sistemas que incluye:

o Reglas, procedimientos, métodos, herramientas o Funciones individuales y en grupo por cada tarea o Productos resultantes o Normas de Calidad

(Whitten, Bentley, Barlow)

Definiciones

Herramientas : son los ambientes de apoyo necesario para automatizar las prácticas de Ingeniería de Software

Métodos: son las maneras que se efectúan las tareas de Ingeniería de Software o las actividades del ciclo de vida.

Procedimientos : son los mecanismos de gestión que soportan a los métodos: El control de los proyectos, el control de la calidad

Objetivos del CICLO DE VIDA de un Proyecto:

Definir las actividades a ser ejecutadas en un proyecto de Procesamiento Electrónico de Datos (PED)

Introducir coherencia en muchos proyectos de PED de la misma organización Establecer punto de control para control de gerencia y puntos de control para tomar la

decisión de "continuar o no".

 

  

CICLO DE VIDA ESTRUCTURADO PARA EL DESARROLLO DE LOS SISTEMAS

 

CARACTERISTICAS DE LOS PROYECTOS ESTRUCTURADOS

Las técnicas estructuradas utilizadas en el desarrollo de los Proyectos de Sistemas, buscaron superar el fracaso en muchos desarrollos convencionales.

Los proyectos estructurados se caracterizan por mejores herramientas para expresar los requisitos del usuario, énfasis en el proyecto de calidad , sistemas de desarrollo top- down.

TECNICAS ESTRUCTURADAS

Page 155: Inteligencia artificial isc

Análisis estructurado Diseño estructurado Programación estructurada Desarrollo TOP-DOWN Equipos de programación Revisiones estructuradas ANALISIS ESTRUCTURADO El Análisis se refiere al "extremo inicial" de un proyecto de desarrollo de sistemas,

durante el tiempo en que los requisitos del usuario son definidos y documentados. El Análisis estructurado introduce el uso de las herramientas de documentación

gráficas para producir un tipo diferente de especificación funcional: "la especificación estructurada".

Herramientas de documentación del Análisis Estructurado

Diagramas de flujo de datos (DFDs) Diccionario de Datos (DD) Diagramas de Entidad-Relación (ER) Diagramas de Transición de Estado (DTEs) Especificaciones de procesos

 

 

DISEÑO ESTRUCTURADO Durante el desarrollo se determinan "qué módulos, interconectados de qué forma,

solucionarán mejor un problema definido ¿Como se reconoce un buen diseño? ¿Existe una sola manera de realizar un buen diseño?

Elementos del Diseño Estructurado:

Técnicas de documentación Criterios de evaluación del Diseño Heurísticas del diseño Estrategias del Diseño

Técnicas de Documentación:

Incluyen herramientas gráficas y de texto Herramientas o Flujos de datos o Diagramas Hipo o Diagrama de estructura o Especificaciones de módulo y D.D.

Page 156: Inteligencia artificial isc

Criterios de evaluación de diseño:

Tiene como objetivo evaluar los defectos del diseño conforme a la documentación del diagrama Hipo y el diagrama estructural Criterios

o Acoplamiento o Cohesión

Heurísticas del diseño:

Siguen reglas prácticas que generalmente son útiles aunque no funcionan en todos los casos. Se refieren al tamaño del módulo y al control del módulo.

Son o Tamaño del módulo o Fan in Fan out (abanico) o Alcance efecto y alcance de control

Estrategias de diseño:

Las estrategias requieren un buen nivel de experiencia, sentido común y decisión Existe una basada en el flujo de datos y otra basada en la estructura de datos o Análisis transformacional o Análisis transaccional Programación estructurada

 

  

DESARROLLO TOP-DOWN Es una estrategia de proyecto que divide sucesivamente los problemas grandes y

complejos en problemas menores y menos complejos, hasta que el problema original pueda ser expresado como una combinación de problemas pequeños y fácilmente solucionables.

REVISIONES ESTRUCTURADAS Se trata de un procedimiento organizado para que un grupo de examinadores

(Analistas de Sistemas, programadores) revisen el producto técnico para fines de corrección y garantía de calidad.

La revisión estructurada (walktrough), es conducida por los miembros de un equipo que trabajan juntos en una base diaria, y su realización puede ser fijada en cualquier momento.

 

 

EQUIPOS DE PROGRAMACION Componentes : Superprogramador o Programador jefe Copiloto Administrador Abogado de lenguaje de programación Instrumentador o experto en utilitarios Bibliotecario 4 razones por la que no es posible implementar Costo del superprogramador Conseguir que trabaje para uno un superprogramador ¿qué hacer con el personal que se tiene? Si codifica con rapidez o no documenta o no se comunica con el usuario

Page 157: Inteligencia artificial isc

Algunas herramientas:

Herramientas CASE (Computer -Aided Software Engineering:Ingeniería de Software auxiliada por computadora)

Generadores automáticos de Código. Control de documentos, versiones y grupos de trabajo Control y administración de proyecto.

CICLO DE VIDA ESTRUCTURADO

 

 ESTUDIO

La etapa de Estudio de viabilidad o estudio inicial.

Su principal objetivo es el estudio e identificación de las deficiencias actuales en el ambiente del usuario (a través de relevamientos, en cuentas), establecer nuevos objetivos, y proponer "escenarios" viables

ANALISIS

Conforme a las alternativas generadas por el estudio, en esta etapa se "Modelan" las necesidades del usuario a través de DIAGRAMAS especiales (DFD, ER),dando como resultado las Especificaciones estructuradas.

 

 

 

DISEÑO

En esta etapa se "diseña" el sistema, determinando los módulos componentes del Sistema, de acuerdo a una jerarquía apropiada, a los procesadores (hardware) y a la función

IMPLANTACION (DESARROLLO)

Esta actividad incluye la codificación e integración de los módulos con técnicas de programación estructurada

GENERACIÓN DEL TEST DE ACEPTACIÓN

Consiste en preparar un conjunto de casos para efectuar las pruebas del sistema

GARANTIA DE CALIDAD

Page 158: Inteligencia artificial isc

En esta etapa se efectúa el TEST final de aceptación del Sistema

DESCRIPCION DE PROCEDIMIENTO

Consiste en la elaboración de la "descripción formal" del nuevo sistema: Manuales del Usuario, Manuales del Sistema, Manuales de procedimiento

CONVERSIÓN DE LA BASE DE DATOS

Esta actividad sólo se realiza cuando existen sistemas funcionando

INSTALACION

Es la actividad FINAL. Existen varias estrategias de INSTALACION: Gradual, distribuida, completa Un aspecto importante de esta actividad es la CAPACITACION

Implementación Radical VS. Conservadora

 

 

¿Iniciar una actividad después de concluir la otra?

¿Cuándo utilizar una u otra? Depende:

De la presión por dar resultados Exactitud en la estimación de recursos Conocimiento del : software a utilizar,

de la aplicación,

del hardware

Inconstancia del usuario

Ciclo de vida por prototipos

Ejemplo : Analogía lanzamiento del nuevo modelo de auto

Se realiza un sistema provisorio con el conjunto inicial de necesidades e implantarlas rápidamente con la intención de ir expandiéndolas y refinándolas iterativamente al ir comprendiendo el sistema el usuario y quien lo desarrolla

Es radical, pero se asume que posteriormente existirá un juego completo de documentación.

Herramientas requeridas : D.D. Integrado y medios poderosos de administración de B.D. Generadores de: o pantallas, o reportes no guiado por procedimientos (un mandato una función) o consultas y recuperación no guiado por procedimientos o generadores de aplicaciones Lenguaje de 4ta. Generación (lo que debe más que cómo)

Page 159: Inteligencia artificial isc

Finalidad El usuario dice que le gusta y que no mientras testea el sistema. El usuario verifica la factibilidad del diseño de un sistema o Método de interacción (menúes, teclas especiales) o Formatos de presentación Características Es una aplicación que funciona Identifica y aclara los requerimientos evitando suposiciones del analistas y los usuarios

con respecto a los requisitos del sistema. Se crea rápidamente. Evoluciona a través de un sistema iterativo. ¿ Costo de desarrollo bajo? Se puede usar el mismo sistema cómo prototipo Se debe documentar los requisitos y no dejar funcionando el prototipo sin

documentación. Razones por las cuales se utilizan los prototipos ¿Aumento de productividad? Entusiasmo de usuarios con prototipos (recordar analogía) Son candidatos las aplicaciones que : El usuario no quiere examinar DFD. Se determinan los requerimientos por tanteo El sistema será interactivo No existe cantidad de detalles de algoritmo Existe un alto costo y un alto riesgo de fracaso La tecnología es nueva. Recomendación El ciclo de vida del prototipo involucra el desarrollo de un modelo funcional. Debe

realizarse la documentación de los requerimientos del usuario Escenarios para la construcción de prototipos Evaluar la petición del software y determinar si es o no un buen candidato a prototipo Dado un proyecto candidato aceptable, el analista desarrolla una representación

abreviada de los requerimientos Después de revisar la r`presentación de requerimientos se crea unas especificaciones

de diseño abreviadas El software del prototipo se crea prueba y refina Una vez que el prototipo ha sido probado, se presenta al cliente, el cuál conduce la

prueba de la aplicación y sugiere modificaciones Los pasos 4 y 5 se repiten iterativamente hasta que todos los requerimientos estén

formalizados o hasta que el prototipo haya sido reemplazado por un sistema de producción

 

Desarrollo de Actividades

en espiral

 

 

 

DESARROLLO DE SISTEMAS DESDE EL ENFOQUE DE LAINGENIERIA DE INFORMACION

INGENIERIA DE INFORMACION

Page 160: Inteligencia artificial isc

Ingeniería es una Ciencia aplicada, o sea un área de conocimiento humano que utiliza principios matemáticos y físicos para resolver problemas ligados a la construcción de INGENIOS. Un Ingenio es todo aquello que produce la capacidad creativa del hombre para atender a un fin determinado

La Ingeniería de la Información se puede definir como una disciplina, o sea un "conjunto de conocimientos" ligados al tratamiento de la Información y la construcción de mecanismos formales para la construcción de los "Sistemas de Información".

CARACTERISTICAS DE LA INGENIERIA DE LA INFORMACIÓN

Centrada en los negocios Participación intensa de los usuarios Implementación de Técnicas de Modelaje eficaces Se orienta a la AUTOMATIZACION en los desarrollos de los Sistemas Propone a la Tecnología como "soporte" de los negocios

LA PIRAMIDE DE LA INGENIERÍA DE LA INFORMACION

Etapas del Ciclo de Vida del Desarrollo de SIs

 

 

Planeamiento Estratégico de Informaciones (PEI) Análisis del Area de Negocios (AAN) Proyecto de Sistemas de Información (PSI) Construcción del Sistema de Información (CSI)

 

Planeamiento Estratégico de Informaciones (PEI)

Es la primera etapa . Consiste en el estudio y definición de las necesidades de Información que requiere la Organización para alcanzar sus objetivos.

PRODUCTOS: El Modelo Empresarial, los Factores Claves del Exito y los problemas para alcanzarlos, el Modelo de Datos Corporativo y el Modelo Funcional Corporativo

Análisis del Area de Negocio (AAN)

En esta etapa se realizan los estudios de las "Areas de Negocio" que debe soportar el SI (tratando de obviar aspectos tecnológicos)

Se vale de técnicas de relevamiento y modelaje de las necesidades de la Organización PRODUCTOS:"Modelo de Datos", "Diagrama de Descomposición Funcional", DFD.

 

 

Proyecto de Sistemas de Información (PSI)

En esta etapa se definen las características técnicas requeridas para soportar las necesidades del Proyecto (Diseño del Sistema, requerimientos de hardware)

PRODUCTOS: Propuesta del Ambiente Computacional, Diagramas de estructuras de módulos, Proyecto de la Base de Datos

Construcción del Sistema

Page 161: Inteligencia artificial isc

Consiste en la conversión de los Modelos de datos en estructuras físicas (software y hardware).

Aquí se realizan las tareas de programación (o generación automática de código). PRODUCTOS: El sistema desarrollado, Bases de Datos generadas, Manuales, etc.

LA PIRAMIDE DE LA INGENIERÍA DE LA INFORMACION

El Desarrollo de SIs se base en los 3 pilares fundamentales:

http://www.monografias.com/trabajos4/cicdevida/cicdevida.shtml

Unidad 4. Búsqueda y satisfacción de restricciones.

4.6 Problemas y Espacios de estados.5 Arboles de Búsqueda en las Representaciones Espacio-

Estado

Un estado es un conjunto de condiciones o valores que describen un sistema en una punta específico durante el proceso. Una representación Espacio-Estado es aquella en la que los operadores usan un nuevo estado, y solo uno, en la base de datos, cada vez que se emplean. Las representaciones Espacio-Estado, que utilizan varios métodos de búsqueda a través de la base de datos para alcanzar soluciones, han sido usadas por juegos de ajedrez, sistemas para encontrar rutas y problemas que incluyan muchos operadores y muchos posibles estados.

La búsqueda de un camino de solución a través del Espacio-Estado se puede ilustrar gráficamente mediante nodos y enlaces de conexión. Cada nodo representa un estado del sistema y los enlaces representan la acción de un operador para cambiar el sistema de un estado a otro. Los nodos pueden tener punteros que señalen al nodo origen de forma que cuando se alcance la solución podamos conocer su camino. En algunos métodos de búsqueda los punteros también se usan para marcar los caminos "falsos2.

Los gráficos son dibujos generalmente como arboles o redes. Un árbol es un gráfico que empieza por la cima con un nodo raíz, de manera que los nodos de un nivel tienen un solo origen (un solo padre). Esta estructura presenta solamente un camino desde el nodo raíz a otro nodo cualquiera. Los enlaces o conexiones entre nodos de un árbol se llaman ramas (ramificaciones). Los nodos en la parte inferior del árbol se denominan nodos terminales (hojas). Los nodos en los gráficos de árbol se denominan algunas veces padres e hijos (descendientes).

Page 162: Inteligencia artificial isc

Hay potencialmente un árbol de un espacio-estado que representa cada posible estado del sistema y otro árbol mas limitado del camino que puede ser construido si el programa busca la respuesta eficientemente. Puede ser importante encontrar un modo eficiente de búsqueda porque el espacio potencial de búsqueda puede ser infinito o, al menos, tan grande que haga el proceso no viable.

http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html

BÚSQUEDAS EN ESPACIOS DE ESTADOS Y EN ESPACIOS DE CARACTERÍSTICAS

En este desarrollo se han implementado dos técnicas de Inteligencia Artificial para simular el comportamiento calificable de inteligente.

La hipótesis de trabajo nos dice que una página que reúna unas condiciones lo más parecidas posibles a las solicitadas por el usuario nos llevará a otra con muchas posibilidades de ser de características deseables por el usuario. Esta hipótesis se basa en el hecho de que las páginas en Internet están desarrolladas temáticamente, y una página de un tema en concreto normalmente enlaza con otra del mismo campo o tema.

Para ello nos hemos basado en una función heurística (basada en el conocimiento), y gracias a la representación del conocimiento que da el usuario (o se asigna por defecto) en sus valoraciones de las distintas capacidades de la búsqueda, nos ayuda a evaluar la bondad de una página, mediante la asociación de un número a cada página. Dicho número será obtenido de la multiplicación de una serie de factores que son determinados por el usuario antes de comenzar la búsqueda.

Por un lado la búsqueda en espacio de estados, que mediante unos algoritmos de búsquedas en grafos, y modelizando las páginas como vértices de grafo, y los enlaces como aristas, aplican la función heurística a las páginas recuperadas, determinando mediante los algoritmos "Búsqueda primero el mejor" y "Beam Search" (igual que el anterior, pero limitando la frontera de exploración a un determinado número de estados) cuáles deberán ser las próximas páginas a recuperar.

Page 163: Inteligencia artificial isc

Imagen "Modelización de un espacio de estados mediante un grafo"

Por el otro lado se encuentra la búsqueda en espacio de características, que aunque con muchas similitudes difiere de la búsqueda en espacio de estados. En este caso la evaluación no va a ser lineal, sino que se va a realizar en distintas características determinables por el usuario. Así la búsqueda deja de ser en un sistema lineal y se traslada a un espacio vectorial de dimensión N donde N es el número de características en las que el usuario está interesado, así en función de los valores obtenidos para las características medidas de la página, esta aparecerá en el espacio de características como un punto. Las distancias entre puntos de este espacio se calcularán como distancias euclídeas

La búsqueda basada en las características es una de las aplicaciones más simples del método de inteligencia Artificial de descripción y pareamiento.

Para identificar los objetos de un espacio de características se utiliza un extractor de características y un evaluador de características. El extractor mide características simples como el área de un objeto. Los valores obtenidos por el extractor se convierten en las coordenadas de un punto de característica en un espacio de características.

Para identificar un objeto desconocido, se comparan las distancias entre su punto de característica y los puntos de característica de diferentes objetos idealizados. La identidad más probable del objeto desconocido está determinada por la distancia más corta. En la figura se muestran los puntos correspondientes a un objeto desconocido y una familia de placas de caja eléctrica idealizadas en un espacio de características de placas.

Imagen "Modelización de un espacio de características"

En este proyecto hemos utilizado un extractor de características, en forma de analizador HTML, pero lo que finalmente se hace no es medir la distancia entre dos

Page 164: Inteligencia artificial isc

páginas, sino que se aplica una compleja función de evaluación, que calcula un resultado numérico representativo de la bondad de la página respecto de las características que previamente han debido ser especificadas por el usuario.

En cualquier caso, aunque no se hace una medida de la distancia de los puntos de característica de las páginas recuperadas al punto de característica de la página ideal, (no sería útil en este caso). Al aplicar la función a los valores de las características e interpretar su valor (mayor valor, página más cercana) es una forma de conseguir el mismo efecto.

Aunque la forma de actuar no se puede considerar exactamente, como "búsqueda en espacio de características", sí que se puede decir que este tipo de búsquedas ha inspirado la forma de proceder.

En cualquier caso, según los estudios realizados por la Universidad de Arizona (http://ai.bpa.arizona.edu/~mramsey/papers/itsy/spider.html), ambos tipos de búsqueda dan unos resultados similares, con una pequeña mejoría en la calidad de las páginas obtenidas (aunque también obtiene páginas "aleatorias", que no tienen nada que ver con lo solicitado) en el caso de los espacios de características, pero también con unos mayores consumos de recursos (CPU).

http://pisuerga.inf.ubu.es/lsi/Docencia/TFC/ITIG/icruzadn/Memoria/29.htm

5.1 Espacios de estados determinísticos y espacios no determinísticos.

5.2 Búsqueda sistemática.6 Métodos de Búsqueda

Búsqueda hacia en fondo: En esta búsqueda el orden de expansión de los nodos es desde el nodo inicial descendiendo en un camino dado hasta que se encuentre la respuesta, o hasta que la búsqueda llegue a un determinado limite de profundidad. Si la búsqueda excede del limite o del fin de ese camino el sistema retrocede y la búsqueda continua en el nodo más cercano. La búsqueda "hacia el fondo" es particularmente eficaz cuando hay muchos caminos largos que conducen a una solución.

Búsqueda a lo ancho: En esta búsqueda todos los nodos en un mismo nivel son expandidos antes de bajar a cualquiera de los que están en un nivel inferior. Si en esta búsqueda debemos bajar hacia un nivel inferior el proceso comienza desde un lado y moviéndose horizontalmente. La besuqueada hacia lo ancho se adapta perfectamente a sistemas que tiene unos pocos caminos de solución evitando mal gastar tiempo.

Búsqueda trepando a la cima: Este método empieza de la misma forma que el de "Búsqueda hacia el fondo", pero la

Page 165: Inteligencia artificial isc

elección de que nodos descendientes serán alcanzados se hace estimando cual es el más cercano a la meta. Esto es suficiente cuando hay alguna manera de medir distancias a la meta; sin embargo hay condiciones engañosas en las que la distancia real no esta clara. El método de " Búsqueda trepando a la cima" proporciona un sistema con medios para superar tales condiciones, tal como retornar y ensayar un camino que fue abandonado antes o aplicar mas de una regla antes de evaluar el resultado en orden a saltar a una parte diferente del espacio de búsqueda.

http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html

6.1.1 Búsqueda de metas a profundidad.6.1.2 Búsqueda de metas en anchura6.1.3 Búsqueda óptima.

6.2 Satisfacción de restricciones.6.3 Resolución de problemas de juegos.

Juegos

La teoría de juegos se ha estudiado durante muchos años como una parte de las matemáticas. Sólo recientemente han podido utilizarse los ordenadores como herramientas para resolver los problemas de juegos que surgen en la vida cotidiana. Un ejemplo de esto es la aparición de computadores que juegan al ajedrez, que cuestan relativamente poco dinero y que pueden vencer a jugadores de diversos niveles. La potencia de cálculo implicada en este tipo de juegos es enorme. Por otra parte, ocurre que, una vez que un problema ha sido resuelto (aunque sea parcialmente), no necesita ser resulto de nuevo, pudiendo ser transferido de una máquina a otra mediante una modificación mecánica apareciendo en las máquinas más sencillas y baratas.

La resolución de problemas de juegos tiene grandes aplicaciones en la ciencia y en los negocios. Mediante esta técnica pueden resolverse problemas de diversos campos tales como la genética o el establecimiento de planes en los procesos de producción complejos. Hay muchas clases de juegos y muchos métodos para resolver los problemas que plantean. Por ejemplo, en un solitario, el jugador intenta alcanzar determinado objetivo a partir de un estado inicial, mediante una serie de movimientos, sin que exista ninguna competición. En otros juegos como el ajedrez o los barcos, cada jugador intenta ganar haciendo la vida lo más difícil posible para su adversario. En tales casos cada movimiento intenta maximizar las oportunidades de éxito a la vez que minimizar las del contrario. Esto puede resolverse mediante métodos de tipo "minimax". Muchos juegos pueden representarse mediante "árboles", en los que cada

Page 166: Inteligencia artificial isc

rama representa un posible movimiento que lleva el juego de un estado a otro.

La teoría de juegos es muy matemática, llevando a áreas tales como el cálculo de predicados y la lógica matemática. Nos apartaremos de la teoría, limitándonos a aclarar algunas de las ideas básicas, considerando una estrategia sencilla basada en "heurísticos".

http://www.uap.edu.pe/Fac/02/trabajos/02206/isi%2033/go1/ia.html

http://www.monografias.com/trabajos12/inteartf/inteartf.shtml

http://www.monografias.com/trabajos/inteliemo/inteliemo.shtml

www.unirioja.es/dptos/dchs/archivos/Inteligencia.doc

www.infonegocio.com/downcan/todo/interes/psicologia.doc

www.unav.es/fyl/programas04-05/ humanidades/procesospsicologicos.pdf

http://www.universidadabierta.edu.mx/SerEst/Apuntes/BahenaMaria_PsCientifica.htm

http://www.cerebrito.com/depresion.htm

varios de los subtemas se encuentran el los archivos que estan dentro de la carpeta de inteligencia artificial