Inteligencia Artificial

70
 Por DMoZ P R E S E N T A :

Transcript of Inteligencia Artificial

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 1/70

 

 

Por DMoZ

P R E S E N T A :

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 2/70

 

 

C O N T E N I D O

I. INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL 

I.1.DefinicionesI.2.Historia

I.2.1.Antecedentes

I.2.2.Los IniciosI.2.2.1. La Prueba De TuringI.2.2.2. El Grupo De Darmouth

I.2.3. El DesarrolloI.3. Objetivos de la Inteligencia Artificial

II. RAMAS DE LA INTELIGENCIA ARTIFICIAL

II.1. Aprendizaje AutomáticoII.1.1. Un Poco de Historia

II.2. Redes Neuronales Artificiales

II.2.1. IntroducciónII.2.2. DefinicionesII.2.3. Un Poco de HistoriaII.2.4. Características de las RNAII.2.5. Aplicaciones de las RNAII.2.6. Alcances y Limitaciones de las RNAII.2.7. Confiabilidad de las RNA

II.3. Lógica DifusaII.3.1. IntroducciónII.3.2. DefinicionesII.3.3. Un Poco de Historia

II.3.4. Que es la Lógica DifusaII.4. Sistemas ExpertosII.4.1. IntroducciónII.4.2. DefinicionesII.4.3. AntecedentesII.4.4. Características de Los Sistemas ExpertosII.4.5. Principales Componentes de los Sistemas Expertos

II.5. Algoritmos Genéticos

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 3/70

 

 

III. RAMAS DE LA INTELIGENCIA ARTIFICIAL (PARTE II) 

III.1. RobóticaIII.1.1. IntroducciónIII.1.2. Definiciones

III.1.3. Un poco de historiaIII.1.4. Clasificación de los robotsIII.1.5. Aplicaciones de la robóticaIII.1.6. Que nos depara el futuro

III.2. Visión artificialIII.2.1. IntroducciónIII.2.2. Que es la visión artificialIII.2.3. AplicacionesIII.2.4. Beneficios de la visión artificial

III.3. Procesamiento del lenguaje naturalIII.3.1. Introducción

III.3.2. Aplicaciones del procesamiento de lenguaje natural

Glosario

Bibliografía

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 4/70

 

 

I N T R O D U C C I Ó N

Actualmente el mencionar la palabra Inteligencia Artificial (I.A.) significa que

estamos hablando de robots parlantes y que actúan como seres humanos (bueno esta es la

imagen que se nos ha dado de acuerdo a ciertas películas y series de televisión, aunque la

realidad nos muestra otra cara, tal vez un poco distante a ella), pero esto va mas allá de sólo

robots, es cierto que la robótica es una de las ramas más excitantes de la I.A., pero no lo

sería tanto sin el complemento que son las demás disciplinas relacionadas como son : Redes

Neuronales Artificiales, Lógica Difusa, Sistemas Expertos, Algoritmos Genéticos, Visión

Artificial y Lenguaje Natural.

Como se mencionará en esta investigación la I.A. esta presente en un sinnúmero de

aplicaciones diferentes a la robótica, como ejemplos mencionaremos diagnóstico médico,

reconocimiento de patrones, traducción automática, etc.

Lo que trataremos de conseguir con la investigación que se presenta es sólo dar una

información general acerca de la I.A. así como de sus ramas principales, cómo surgieron,cómo se desarrollaron, donde se aplican y para que nos sirven.

Así mismo se presenta al final del texto un glosario de términos para aclarar algunas

dudas que pudieran surgir por palabras desconocidas.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 5/70

 

 

I. INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL

“La Inteligencia Artificial (I.A.) comenzó como el resultado de la investigación en

sicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo

mental y construcción de algoritmos de solución a problemas de propósito general. Punto

de vista que favorece la abstracción y la generalidad.

La Inteligencia Artificial es una combinación de la ciencia del computador,

fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica,

sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas

que pueden "pensar".

La idea de construir una máquina que pueda ejecutar tareas percibidas como

requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadasdesde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas,

diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas.

Es así como los sistemas de administración de base de datos cada vez más

sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y

locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son

pensadas como típicas del ámbito de la inteligencia humana.” 

<http://www.monografias.com/trabajos12/inteartf/inteartf.shtml>.

I.1. DEFINICIONES

Para empezar a comprender lo que es inteligencia artificial como primer paso

debemos definir algunos conceptos generales que nos ayudaran a comprender mejor este

tema, muchos autores concuerdan en que es difícil definirlos debido los diferentes enfoques

que se les pueden dar, es por eso que aquí presentamos varias definiciones para que el

lector realice sus propias conclusiones.

Inteligencia

1.  "La inteligencia es un término genérico que designa las formas superiores de

organización o de equilibrio de las estructuras cognoscitivas. La inteligencia es

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 6/70

 

 

esencialmente un sistema de operaciones vivientes y actuantes. Es la adaptación

mental más avanzada, es decir, el instrumento indispensable de los intercambios

entre el sujeto y el universo..." (Piaget : 17) en

<http://www.prodigyweb.net.mx/intecoc/inteliarti.htm>.

2.  “Facultad de conocer, analizar y comprender”

<http://diccionarios.elmundo.es/diccionarios/cgi/lee_diccionario.html?busca=Intelig

encia&diccionario=1>.

3.  “En líneas generales, capacidad mental para entender, recordar y emplear de un

modo práctico y constructivo, los conocimientos en situaciones nuevas”

<http://www.psicoactiva.com/diccio_i.htm>.

4.  “Conjunto de todas las funciones que tienen por objeto el conocimiento (sensación,

asociación, memoria, imaginación, entendimiento, razón, conciencia)” <http://www.diccionarios.com/index.phtml?diccionario=dgle&query=Inteligencia>

Artificial

1.  “Adj. Hecho por el hombre. No natural, falso, ficticio” 

<http://diccionarios.elmundo.es/diccionarios/cgi/lee_diccionario.html?busca=

Artificial&diccionario=1>.

2.  “En general, se aplica este adjetivo cuando algo no es natural, es decir, cuando es

fabricado, construido o producido por el ser humano” 

<http://www.control-automatico.net/recursos/articulos/art085.htm>.

Inteligencia Artificial

1.  “Se define como la ciencia que trata de la comprensión de la inteligencia y del

diseño de máquinas inteligentes, es decir, el estudio y la simulación de las

actividades intelectuales del hombre” 

<http://montelpz.htmlplanet.com/robot/refbiblio.html>.

2.  “Es el arte de hacer máquinas capaces de hacer cosas que requerirían inteligencia en

caso de que fuesen hechas por seres humanos” 

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 7/70

 

 

<http://robots.iespana.es/robots/que_es_un_robot.htm>.

3.  “Es una de las áreas de las ciencias computacionales encargadas de la creación de

hardware y software que tenga comportamientos inteligentes” 

<http://www.ur.mx/ur/faciya/carreras/cursos/sis/int-art1/JEAN1-1.HTM#INTRO>.

4.  "Es el estudio de como hacer que las computadoras hagan cosas que por el

momento los humanos hacen mejor" (Rich & Knight 1991).

5.  “Es una rama de la Informática dedicada a crear programas de software y hardware

que intentan lograr resultados de forma similar a como lo logran los humanos” 

<http://www.angelfire.com/ab2/carlos1975/inteligenciaartificial/inteligenciaartificia

lunavisiongeneral.html>.

6.  “La inteligencia artificial es la parte de la informática que concierne al diseño de

sistemas inteligentes para el ordenador, esto es, sistemas que presentan

características asociadas con el comportamiento humano inteligente” 

<http://nirvana.fisica.uson.mx/CComp/cursos/CC11/Expo99_1/inteligencia.html>.

I.2. HISTORIA

“Los esfuerzos por reproducir algunas habilidades mentales humanas en máquinas yandroides se remontan muy atrás en la historia. El mito del coloso de Rodas entre los

griegos, las estatuas "parlantes" del medioevo, el androide de Von Kempelen que jugó al

ajedrez con Napoleón, y el "motor analítico" de Charles Babbage que calculaba logaritmos,

son sólo algunos de los ejemplos de este antiguo interés. Igualmente, la concepción de la

inteligencia humana como un mecanismo no es reciente ni ha estado disociada de la

sicología: Descartes, Hobbes, Leibniz, y el mismo Hume se refirieron a la mente humana

como una forma de mecanismo.” 

<http://www.hemerodigital.unam.mx/ANUIES/itam/estudio/estudio10/sec_16.html>.

I.2.1. ANTECEDENTES

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 8/70

 

 

“Se considera generalmente que el origen remoto de la "Inteligencia Artificial" se

remonta a los intentos por crear autómatas, que simulasen la forma y las habilidades de los

seres humanos.

Durante más de 2000 años de tradición en filosofía han surgido diversas teorías del

razonamiento y del aprendizaje simultáneamente con el punto de vista de que la mente se

reduce al funcionamiento de un sistema físico. Durante más de 400 años de matemáticas,

han surgido teorías formales relacionadas con la lógica, probabilidad, teoría de decisiones y

la computación. La sicología ofrece herramientas que permiten la investigación de la mente

humana, así como un lenguaje científico para expresar las teorías que se van obteniendo. La

lingüística ofrece teorías sobre la estructura y significado del lenguaje. La ciencia de la

computación de la que se toman herramientas que permiten que la inteligencia artificial sea

una realidad.Los filósofos (desde el año 400 AC) permitieron el poder pensar en la inteligencia

artificial al concebir a la mente con maneras diversas como una máquina que funciona a

partir del conocimiento codificado en un lenguaje interno y al considerar que el

pensamiento servía para determinar cuál era la acción correcta que había que emprender.

Las matemáticas proveyeron las herramientas para manipular las aseveraciones de

certeza lógica así como las inciertas de tipo probabilista. Así mismo prepararon el terreno

para el manejo del razonamiento con algoritmos.

Los psicólogos reforzaron la idea de que los humanos y otros animales podían ser

considerados como máquinas para el procesamiento de información. Los lingüistas

demostraron que el uso de un lenguaje se ajusta dentro de este modelo. La ingeniería de

cómputo ofreció el dispositivo que permite hacer realidad las aplicaciones de la inteligencia

artificial. Los programas de inteligencia artificial por general son extensos y no

funcionarían sin los grandes avances de velocidad y memoria apartadas por la industria de

cómputo.

En conclusión, las ciencias que aportan a la Inteligencia Artificial son:

  Filosofía

  Matemáticas

  sicología

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 9/70

 

 

  Lingüística

  Ciencias de la Computación” <http://cruzrojaguayas.org/inteligencia/ > .

A continuación presentaremos algunos aportes interesantes que se han realizados

aun mucho antes de que la I.A. fuera considerada.

Grecia 

“Los griegos, además de la famosa paloma de Arquitas (dispositivo mecánico para

conseguir artificialmente el vuelo, que fracaso en su intento de hacerlo), crearon numerosos juguetes y artefactos automáticos como los que construyó Arquímedes para proteger a

Siracusa del asedio de la flota romana.

Pero se debe a Herón de Alejandría la primera construcción de un autómata con

forma humana: construyó actores artificiales que representaban una obra sobre la Guerra de

Troya. Aunque, por cierto, la mitología griega atribuye a Hefaistos (dios del fuego y primer

herrero) la fabricación de los primeros "robots" de forma humana.”

<http://cruzrojaguayas.org/inteligencia/ >.

Edad Media 

“Hay que esperar la Edad Media para encontrar la continuación de estos esfuerzos.

San Alberto Magno tuvo un "mayordomo" que abría la puerta y saludaba al visitante, y

Leonardo construyó un león que caminaba. También se cita habitualmente al "Golem",

homínido hecho de barro, obra del rabino húngaro Low que lo "dotó de vida" en una

ceremonia mágica (lo cual desvirtúa por cierto el valor científico del invento).” 

<http://cruzrojaguayas.org/inteligencia/ >. 

Era Moderna 

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 10/70

 

 

“En el Siglo XVII, Pierre Jacquet Droz y su hijo Enrique Luis, construyeron tres

androides: dos niños y una joven. Un niño escribía, el otro dibujaba y la joven tocaba el

órgano y simulaba respirar. Esta realización (basada en mecanismos de relojería) les valió

ser detenidos y encerrados por la Inquisición.

Las mejores realizaciones se deben a Vaucouson, entre ellas el "Tocador de Flauta"

(que soplaba y movía los dedos, tocando hasta 12 melodías diferentes) y el Pato (que

graznaba, batía las alas, comía y "digería" mecánicamente).” 

<http://cruzrojaguayas.org/inteligencia/ >.

I.2.2. LOS INICIOS

“Se considera generalmente que el origen remoto de la "Inteligencia Artificial" se

remonta a los intentos por crear autómatas (explicado en el capitulo anterior), que simulen

la forma y las habilidades de los seres humanos. Pero el origen inmediato del concepto y de

los criterios de desarrollo de la I.A. se remonta a la intuición del matemático inglés Alan

Turing y el apelativo "Inteligencia Artificial" se debe a McCarthy, uno de los integrantes

del "Grupo de Darmouth".

En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el

asunto de si la máquina de Babbage podía "pensar".

Los primeros problemas que se trató de resolver fueron puzzles, juegos de ajedrez,

traducción de textos a otro idioma.

Durante la II Guerra Mundial Norbert Wiener y John Von Neumann establecieron

los principios de la cibernética en relación con la realización de decisiones complejas y

control de funciones en máquinas.

La teoría de la retroalimentación en mecanismos, como por ejemplo un termostato

que regula la temperatura en una casa, tuvo mucha influencia. Esto aún no era propiamente

Inteligencia Artificial. Se hizo mucho en traducciones (Andrew Booth y Warren Weaver),

lo que sembró la semilla hacia el entendimiento del lenguaje natural.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 11/70

 

 

Ramón y Cajal (1852-1934, Premio Nobel 1906) descubrió hace un siglo la

estructura y el modo de funcionar de las neuronas. En 1943 Warren McCulloch y Walter

Pitts propusieron un modelo de neurona del cerebro humano.

Estas neuronas nerviosas informáticas proporcionaron una representación simbólica

de la actividad cerebral. A este tipo de trabajo se le denomino “Redes Neuronales” que en

pocas palabras consiste en el estudio de modelos que siguen la arquitectura del cerebro

humano con el fin de conseguir con ello la realización de las tareas propias del cerebro de

una forma artificial, incluyendo, por supuesto, la inteligencia.” 

<http://cruzrojaguayas.org/inteligencia/ >.

I.2.2.1. LA PRUEBA DE TURING

“Alan Mathison Turing (Fig. 1) nació el 23 de Junio de 1912, en Paddington,

Londres. En 1950, publica el artículo Computing Machinery and Intelligence en la revista

 Mind , en el que introducía la célebre Prueba de Turing, esta prueba dice que la

inteligencia de un sistema viene dada por la sensación de inteligencia que recibimos por un

terminal conectada a un interlocutor desconocido para nosotros.

Fig. 1 : Alan Mathison Turing (1912-1954).

Fuente : <http://www.dcc.uchile.cl/~abassi/Cursos/IA/Apuntes/apuntes.html> .

Este artículo estimuló a los pensadores sobre la filosofía e investigación en el campo

de la Inteligencia Artificial.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 12/70

 

 

La prueba de Turing intenta ofrecer una definición de Inteligencia Artificial que se

pueda evaluar. Para que un ser o máquina se considere inteligente debe lograr engañar a un

evaluador de que este ser o máquina se trata de un humano evaluando todas las actividades

de tipo cognoscitivo que puede realizar el ser humano (Fig. 2).

Si el diálogo que ocurra y el número de errores en la solución dada se acerca al

número de errores ocurridos en la comunicación con un ser humano, se podrá estimar -

según Turing- que estamos ante una máquina "inteligente".

Fig. 2 : Simbolización de la prueba de Turing.

Fuente : <http://www.dcc.uchile.cl/~abassi/Cursos/IA/Apuntes/apuntes.html>.

Hoy por hoy, el trabajo que entraña programar una computadora para pasar la

prueba es considerable. La computadora debería ser capaz de lo siguiente:

  Procesar un lenguaje natural: para así poder establecer comunicaciónsatisfactoria, sea en español, inglés o en cualquier otro idioma humano.

  Representar el conocimiento: para guardar toda la información que se le haya

dado antes o durante el interrogatorio. Utilización de Base de Datos para receptar

preguntas y luego almacenarlas.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 13/70

 

 

  Razonar automáticamente: Utiliza la información guardada al responder

preguntas y obtener nuevas conclusiones o tomar decisiones.

  Autoaprendizaje de la máquina: Con el propósito de adaptarse a nuevas

circunstancias. El autoaprendizaje conlleva a la auto evaluación.” 

<http://www.dcc.uchile.cl/~abassi/Cursos/IA/Apuntes/apuntes.html>.

¿Es suficiente la prueba de Turing?

“A pesar de sus ventajas, la prueba de Turing es vulnerable a varias críticas

 justificadas que impiden considerarlo como el único criterio de validación de inteligencia:

El juego de imitación obliga al computador a reproducir no sólo las destrezas del

comportamiento humano, sino que también sus flaquezas. Para no ser detectado, el

computador debe cometer el mismo tipo de errores que un humano, por ejemplo, en el caso

de operaciones aritméticas complejas. Esto es contraproducente desde el punto de vista

tecnológico. Lo que realmente importa en un sistema de diálogo es la ergonomía de lacomunicación, y no que el computador sea capaz de hacerse pasar por humano.

Hay un sesgo a problemas que dependen de las capacidades de procesamiento

simbólico. No se pueden evaluar capacidades preceptúales o de destreza manual.

La prueba se basa enteramente en la inteligencia humana. Esto restringe innecesariamente

el tipo de inteligencia que se puede implementar en un computador.

La prueba indica si un programa cumple o no el criterio de inteligencia, pero en

caso de falla no entrega herramientas para corregir defectos y orientar su desarrollo.

Tampoco permite realizar validaciones parciales, indispensables desde el punto de vista de

la ingeniería de software si se considera la complejidad de los sistemas inteligentes.

La inteligencia artificial se puede abordar de una manera mucho más general,

analizando los distintos objetivos que justifican su estudio. “ 

<http://www.dcc.uchile.cl/~abassi/Cursos/IA/Apuntes/apuntes.html>.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 14/70

 

 

Objeciones a la Prueba de Turing

“Después de la aparición de la prueba a Turing se le hicieron un sin número de

cuestionamientos y objeciones, aquí presentamos algunas de ellas.

“Objeción : El pensar es un atributo que dios, dio sólo a los humanos.

Turing : Si dios hubiera querido les hubiera dado la capacidad de pensar a entes diferentes

del humano.

Objeción : Una máquina no puede pensar al nivel de los grandes científicos.

Turing : Existen muchos hombres que también no pueden pensar al nivel de los grandes

científicos.Objeción : Las máquinas son instrumentos formales, las cuales al dárseles un problema lo

resuelven o no a menos que sean inconsistentes.

Turing : El hombre en ocasiones presenta también comportamientos inconsistentes.

Objeción : Las máquinas no tienen conciencia.

Turing : El hombre muestra falta de conciencia en muchas situaciones de la vida.

Objeción : Las máquinas no pueden saborear un café.

Turing : A la máquina se le puede dar la información para que identifique los sabores.

Objeción : Las máquinas sólo hacen lo que se les dice.

Turing : Muchas veces las máquinas me han sorprendido con lo que hacen.

Objeción : El sistema nervioso del humano es continuo y los computadores son discretos.

Turing : Cada vez los computadores son más rápidos de tal forma que emulan al continuo.

Objeción : El humano es informal y las máquinas no.

Turing : Las reglas del comportamiento humano se les puede dar a una máquina y con ello

comportarse en forma informal.

Objeción : Los humanos tienen percepciones extrasensoriales y las máquinas no.

Turing : no supo que responder.” 

<http://www.monografias.com/trabajos10/intelart/intelart.shtml>.

I.2.2.2. EL GRUPO DE DARMOUTH

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 15/70

 

 

“En el verano de 1956, un grupo de investigadores inspirados en la Prueba de

Turing se reunió en el Darmouth College (Estados Unidos) para discutir la posibilidad de

construir máquinas que no se limitaran a hacer cálculos prefijados sino operaciones

genuinamente "inteligentes".

Los integrantes del grupo eran Samuel, que había escrito un programa de juego de

damas capaz de aprender de su propia experiencia; McCarthy, que estudiaba sistemas

capaces de efectuar razonamientos de sentido común; Minsky, que trabajaba sobre

razonamientos analógicos de geometría; Selfridge, que estudiaba el reconocimiento visual

por computador, Newell, Shaw y Simon, que habían construido un programa para la

demostración automática de teoremas, y algunos otros. Ellos fueron los verdaderos

iniciadores en el campo de investigación que McCarthy bautizó como "InteligenciaArtificial".

Aunque los propósitos del taller no se lograron, sentó las bases para aplicaciones

que en los limites del siglo XXI parecen normales como los traductores automáticos de

idiomas, las redes neuronales y la robótica.

A partir de este grupo inicial, se formaron dos grandes "escuelas" de I.A.: Newell y

Simon lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose

desarrollar modelos de comportamiento humano con aparatos cuya estructura se pareciese

lo más posible a la del cerebro (lo que posteriormente derivó en la llamada postura

"conexionista" y en los trabajos sobre "redes neuronales" artificiales).

McCarthy y Minsky formaron otro equipo en el Instituto Tecnológico de

Massachusett (MIT), centrándose más en que los productos del procesamiento tengan el

carácter de inteligente, sin preocuparse por que el funcionamiento o la estructura de los

componentes sean parecidas a los del ser humano.

Ambos enfoques sin embargo corresponden a los mismos objetivos prioritarios de la

I.A.: "entender la inteligencia natural humana, y usar máquinas inteligentes para adquirir

conocimientos y resolver problemas considerados como intelectualmente difíciles".

La historia de la I.A. ha sido testigo de ciclos de éxito, injustificado optimismo y la

consecuente desaparición de entusiasmo y apoyos financieros.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 16/70

 

 

También ha habido ciclos caracterizados por la introducción de nuevos y creativos

enfoques y de un sistemático perfeccionamiento de los mejores.” 

<http://www.monografias.com/trabajos12/inteartf/inteartf.shtml>.

I.2.3. EL DESARROLLO

“En el año 1955 Herbert Simon, el físico Allen Newell y J.C. Shaw, programador de

la RAND Corp. y compañero de Newell, desarrolla el primer lenguaje de programación

orientado a la resolución de problemas de la Inteligencia Artificial, el IPL-11. Un año más

tarde estos tres científicos desarrollan el primer programa de Inteligencia Artificial al que

llamaron Logic Theorist, el cual era capaz de demostrar teoremas matemáticos,

representando cada problema como un modelo de árbol, en el que se seguían ramas enbusca de la solución correcta, que resultó crucial. Este programa demostró 38 de los 52

teoremas del segundo capítulo de Principia Mathematica de Russel y Whitehead.

En 1957 Newell y Simon continúan su trabajo con el desarrollo del General

Problems Solver (GPS). GPS era un sistema orientado a la resolución de problemas; a

diferencia del Logic Theorist, el cual se orientó a la demostración de teoremas

matemáticos, GPS no estaba programado para resolver problemas de un determinado tipo,

razón a la cual debe su nombre. Resuelve una gran cantidad de problemas de sentido

común, como una extensión del principio de retroalimentación de Wiener.

Diversos centros de investigación se establecieron, entre los más relevantes están, la

Universidad Carnegie Mellon, el Massachusetts Institute of Technologie (MIT),

encabezado por Marvin Minsky, la Universidad de Standford e IBM. Los temas

fundamentales eran el desarrollo de heurísticas y el aprendizaje de máquinas.

En 1957 McCarthy desarrolló el lenguaje LISP. La IBM contrató un equipo para la

investigación en esa área y el gobierno de USA aportó dinero al MIT también para

investigación en 1963.

En 1958 McCarthy anuncia su nuevo desarrollo el lenguaje LISP (LISt Procesing),

el lenguaje de elección para todos aquellos desarrolladores inmersos en el estudio de la I.A.

A finales de los años 1950 y comienzos de 1960 se desarrolla un programa

orientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de su

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 17/70

 

 

interpretación, al cual su autor, Robert K. Lindsay, denomina "Sad Sam". Este podía leer

oraciones del tipo "Jim es hermano de John" y "La madre de Jim es Mary", a partir de ella

el sistema concluía que Mary debía ser también la madre de John. Este sistema representó

un enorme paso de avance en la simulación de inteligencia humana por una máquina, pues

era capaz de tomar una pieza de información, interpretarla, relacionarla con información

anteriormente almacenada, analizarla y sacar conclusiones lógicas.

En el mismo período de tiempo hay trabajos importantes de Herbert Gelernter, de

IBM, quien desarrolla un "Demostrador Automático de Teoremas de la Geometría", Alex

Bernstein desarrolla un programa para el juego de ajedrez que se considera el antecedente

para "Deep Blue".

En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el

cual se orienta a la demostración simbólica en el área del álgebra.En 1962, McCarthy y Raphael inician sus trabajos sobre el diseño y la construcción

de un robot móvil que llamarían "Shakey". La diferencia fundamental entre este robot y los

programas en computadora utilizados hasta ahora por la I.A., es que "Shakey" tendría que

enfrentar el reto de interactuar con el mundo real en términos de espacio, tiempo,

movimiento, etc. En otras palabras, el robot tendría que tener alguna forma de

"conocimiento" del mundo que lo rodeaba. Este reto inició una fuerte preocupación en la

I.A. por el estudio de la epistemología y los procesos cognoscitivos. La discusión se centró

alrededor de los problemas de la representación mental o interna del conocimiento, la

percepción y los problemas del significado. La idea básica de Raphael era la de reunir, en

una sola, distintas máquinas con capacidad de aprender por experiencia, de reconocer

patrones visuales, de modelar, de manipular símbolos, etc., y esperar que el todo fuera

mayor que la suma de las partes. El resultado del experimento no fue el éxito que Raphael

esperaba, pero fue un logro sin precedente que hizo posibles avances muy importantes. El

aprendizaje más importante de esta experiencia fue la comprensión de que el problema más

difícil por resolver en I.A. era el de construir una máquina capaz de funcionar con altos

niveles de incertidumbre, como lo hace un ser humano.

En 1963 el MIT recibe una subvención de 2,2 millones de dólares del gobierno de

los Estados Unidos en concepto de investigación en el campo de la I.A.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 18/70

 

 

En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information

Retrieval) el cual era capaz de comprender oraciones en inglés.

A continuación un ejemplo, traducido, de interacción entre SIR y un usuario:

Usuario: Todos somos personas

SIR: Comprendo

Usuario: Un dedo es una parte de la mano

SIR: Comprendo

Usuario: Cada persona tiene dos manos

SIR: La oración anterior es ambigua. Por favor reconstrúyala.

Usuario: En cada persona hay dos manosSIR: Comprendo

Usuario: ¿Cuantos dedos tiene John?

SIR: La oración anterior es ambigua, pero asumo que TIENE significa TIENE COMO

PARTES. No sé si los dedos forman parte de John.

Usuario: John es un chico

SIR: Comprendo

Usuario: ¿Cuántos dedos tiene John?

SIR: La oración anterior es ambigua, pero asumo que TIENE significa TIENE COMO

PARTES, ¿cuántos dedos por mano?.

Usuario: Cada mano tiene cinco dedos.

SIR: Comprendo

Usuario: ¿Cuántos dedos tiene John?

SIR: La respuesta es diez.

En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual

implica no sólo captar imágenes a través de una cámara, sino también la comprensión, de lo

que estas imágenes representan.

Un resultado importante en este trabajo lo constituye el "mundo de micro-bloques",

en el cual un robot era capaz de percibir un conjunto de bloques sobre una mesa, moverlos

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 19/70

 

 

y apilarlos; el éxito se debió a los investigadores Larry Roberts, Gerald Sussman, Adolfo

Guzman, Max Clowes, David Huffman, David Waltz, Patrick Winston, y Berthold Horn.

Posteriormente se obtuvieron resultados importantes entre ellos el de mayor resonancia fue

el sistema SCHRDLU de Terry Winograd, pues permitía interrogar y dar órdenes a un

robot que se movía dentro de un mundo de bloques.

Fig. 3 : Imagen sobre la cual se lleva el sig. Análisis.

Fuente : <http://www.monografias.com/trabajos12/inteartf/inteartf.shtml>.

A continuación mostramos un ejemplo traducido:

Usuario: Toma un bloque rojo.

SCHRDLU: Ok.

Usuario: Busca un bloque más pequeño que el que tienes y ponlo dentro de la caja.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 20/70

 

 

SCHRDLU: Asumo que PONLO se refiere al bloque más pequeño que el que tengo.

Usuario: ¿Qué contiene la caja?

SCHRDLU: La pirámide azul y el bloque azul.

Usuario: ¿Qué sostiene a la pirámide?

SCHRDLU: La caja.

Usuario: ¿Cuántos bloques no están sobre la mesa?

SCHRDLU: Cuatro.

Usuario: ¿Es al menos uno de ellos más estrecho que aquel que te dije que recogieras?

SCHRDLU: Sí, el cubo rojo.

Usuario: ¿Lo sostiene algo?

SCHRDLU: Sí, la mesa.

Usuario: ¿Puede la mesa recoger bloques?SCHRDLU: No.

Usuario: La pirámide azul es mía.

SCHRDLU: Comprendo.

Usuario: Todos los bloques que no son rojos son míos, pero no poseo nada que sostenga

una pirámide.

SCHRDLU: Comprendo.

Usuario: ¿Poseo una caja?

SCHRDLU: No

Usuario: ¿Poseo algo de la caja?

SCHRDLU: Sí, dos cosas: El bloque azul y la pirámide azul.

Aunque parezca impresionante la capacidad del sistema para razonar y ejecutar

acciones, no se debe perder de vista el hecho que el robot se mueve en un mundo muy

simple de figuras geométricas, y que las relaciones entre ellas son muy limitadas. En el

mundo real existen tantos objetos diferentes y relaciones entre ellos, que tratar de llevar

este sistema a un entorno real resulta prácticamente imposible.

En los primeros años de la década del 60 Frank Rosemblatt desarrolla, en la

Universidad de Cornell, un modelo de la mente humana a través de una red neuronal y

produce un primer resultado al cual llama perceptrón. Este sistema era una extensión del

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 21/70

 

 

modelo matemático concebido por McCullock y Pitts para las neuronas, y funcionaba

basándose en el principio de "disparar" o activar neuronas a partir de un valor de entrada el

cual modifica un peso asociado a la neurona, si el peso resultante sobrepasa un cierto

umbral la neurona se dispara y pasa la señal a aquellas con las que está conectada. Al final,

en la última capa de neuronas, aquellas que se activen definirán un patrón el cual sirve para

clasificar la entrada inicial.

Este trabajo constituye la base de las redes neuronales de hoy en día, sin embargo a

raíz de su desarrollo sufrió fuertes críticas por parte de Marvin Minsky y Seymour Papert lo

cual provocó que la mayoría de los investigadores interesados en el tema lo abandonarán, y

este no se retomara hasta los años 80.

En 1965-70, comenzaron a aparecer los programas expertos, que predicen la

probabilidad de una solución bajo un set de condiciones, entre esos proyectos estuvo:DENDRAL, que asistía a químicos en estructuras químicas complejas euclidianas;

MACSYMA, producto que asistía a ingenieros y científicos en la solución de ecuaciones

matemáticas complejas, etc.

1965 DENDRAL, el primer sistema experto entra a formar parte del departamento

de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual

era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue éste

estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto

exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que

significa en griego “árbol”. 

Antes de DENDRAL los químicos sólo tenían una forma de resolver el problema,

estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba

comparándolas con los datos.

La realización de DENDRAL duró más de diez años (1965-1975). Se le puede

considerar el primer sistema experto.

En la década 1970-80, creció el uso de sistemas expertos, muchas veces diseñados

para aplicaciones médicas y para problemas realmente muy complejos como MYCIN, que

asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre. Otros son:

R1/XCON, PIP, ABEL, CASNET, PUFF, INTERNIST/CADUCEUS, etc. Algunos

permanecen hasta hoy.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 22/70

 

 

En 1972 aparece el MYCIN, el cual se trataba de un sistema experto para el

diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre,

cultivos bacterianos y demás datos, el programa era capaz de determinar, o en lo menos,

sugerir el microorganismo que estaba causando la infección. Después de llegar a una

conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las

características de la persona, tales como el peso corporal de este. Después del reconocido

éxito que tuvo.

En 1973 aparece el TIERESIAS. El cometido de este sistema experto era el de servir de

intérprete entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos

conocimientos en su base de datos.

El especialista debía utilizar MYCIN de una forma normal, y cuando este cometiera

un error en un diagnóstico (hecho producido por la falta o fallo de información en el árbolde desarrollo de teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o

ampliándola si es eso lo que se necesita.

De 1975 en adelante, comienza la era de los lenguajes expertos (shells) como

EMYCIN, EXPERT, OPSS, etc. para luego tratar de que éstos sean más amigables y

funcionales.

En 1980 las ventas de hardware y software relacionados con la I.A. se contabilizan

por 425 millones de dólares sólo en 1986. Compañías como DuPont, General Motors, y

Boeing utilizan sistemas expertos a principios de la década de los 80 y éstos sistemas

expertos se convertirán en un standard a finales de la misma.

Entre los años 80-85 se considera que huboo una revolución de los Sistemas

Expertos. En estos 5 años se crearon diversos sistemas expertos como el DELTA, de

General Electric Company, para la reparación de locomotoras diesel y eléctricas. “Aldo en

Disco” para la reparación de calderas hidrostáticas giratorias usadas para la elim inación de

bacterias.

Se crearon multitud de empresas dedicadas a los sistemas expertos como

Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines

Corporation, Cognitive Systems Inc.... formando una inversión total de 300 millones de

dólares. Los productos más importantes que creaban estas nuevas compañías eran las

“máquinas Lisp”, que se trataba de unos ordenadores que ejecutaban programas LISP con

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 23/70

 

 

la misma rapidez que en un ordenador central, y el otro producto fueron las “herramientas

de desarrollo de sistemas expertos”.

En 1987 aparecieron los microordenadores Apple y compatibles IBM con una

potencia parecida a los LISP. El software se transfirió a máquinas convencionales

utilizando el lenguaje “C” lo que acabó con el LISP.

En los 90 la I.A. se utiliza de forma efectiva en la Guerra del Golfo sobre sistemas

de mísiles visores para los soldados y otros avances, y al mismo tiempo, invade nuestros

hogares y vida cotidiana en muchos más lugares.” 

<http://www.monografias.com/trabajos12/inteartf/inteartf.shtml>.

1.3. OBJETIVOS DE LA INTELIGENCIA ARTIFICIAL

“Una definición más adecuada de la I.A. puede deducirse de la siguiente pregunta

¿Para qué sirve? Existen dos orientaciones básicas para responder esta interrogante:

  Como herramienta científica : El objetivo es simular en el computador modelos

del comportamiento de sistemas inteligentes naturales (en particular humanos) para

verificar empíricamente su validez. Esta simulación es indispensable porque lossistemas estudiados son generalmente demasiado complejos para obtener

predicciones analíticas precisas de su funcionamiento. Las áreas que más pueden

beneficiarse con esta herramienta son la sicología cognitiva y la neurobiología. Esto

no significa que los aspectos computacionales sean segundarios, ya que todo

comportamiento inteligente implica un procesamiento de información que es

legítimo estudiar desde un punto de vista puramente computacional. Además, los

mecanismos naturales investigados pueden enriquecer el arsenal de métodos de la

computación (como en el caso de las redes neuronales).

  Como herramienta tecnológica :  El objetivo es resolver en el computador

problemas "difíciles", que se sabe están al alcance de sistemas inteligentes naturales

pero para los cuales no existe una descripción algorítmica satisfactoria. Los

problemas incluidos dentro de esta categoría se caracterizan en general por la

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 24/70

 

 

dificultad de disponer de toda la información necesaria para resolverlos sin

ambigüedad. Ya sea hay demasiada información que considerar (ej.: ajedrez), ya sea

ésta es incompleta o inconsistente (ej.: lenguaje verbal), ya sea está muy poco

estructurada (ej.: análisis de imágenes). En estos casos es interesante reproducir las

capacidades de procesamiento observadas en los sistemas naturales, aunque no

necesariamente modelando sus mecanismos internos.” 

<http://www.dcc.uchile.cl/~abassi/Cursos/IA/Apuntes/apuntes.html>.

II. RAMAS DE LA INTELIGENCIA ARTIFICIAL

II.1. APRENDIZAJE AUTOMATICO

“El aprendizaje automático se dedica al estudio de métodos computacionales para

mejorar el rendimiento mecanizando la adquisición de conocimiento de la

experiencia."<http://www.servitel.es/inforsalud97/41/41.htm>.

“Uno de los principales logros de la Inteligencia Artificial es que puede otorgar a las

computadoras la habilidad de aprender. Para que esto suceda es necesario transferir el

conocimiento al interior de la máquina.

Una computadora aprende de diferentes maneras:

   Memorísticamente. Para que exista un aprendizaje memorístico se transcribe el

conocimiento, es decir, se copia la memoria de una computadora a otra.

  Por relato. Se adapta el conocimiento desde su fuente a una forma que pueda ser

aceptada y utilizada por la computadora. Es como si se le contara el conocimiento.

  Por analogía. Se guarda el conocimiento que resuelve un problema para aplicarlocuando las circunstancias sean similares.

  Por Inducción. Se le suministran datos a la computadora y de ellos extrae el

conocimiento. Esto se hace a partir de ejemplos o a partir de observaciones.

Los paradigmas más utilizados para el aprendizaje automático son:

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 25/70

 

 

1. Inducción de reglas a partir de bases de datos

2. Razonamiento basado en casos

3. Redes neuronales

4. Algoritmos genéticos

    Inducción de reglas a partir de bases de datos: Entre los métodos de aprendizaje

automático el aprendizaje a partir de bases de datos por inducción (ya sea mediante

ejemplos u observación), es prácticamente el único que se utiliza en los sistemas

expertos. Este aprendizaje ha sido adaptado para resolver problemas de

clasificación.

   Razonamiento basado en casos: Utiliza la experiencia que se adquirió al tratar casos

o problemas similares. Es un aprendizaje por analogía. Se construye una base de

conocimiento con los casos que ya se han resuelto. Cuando aparece un problema

nuevo, se buscan problemas similares en la base de casos y se adaptan sus

soluciones a la situación actual. Un sistema experto de esta clase va a proporcionar

la mejor solución disponible, más que una solución exacta.

Las redes neuronales y algoritmos genéticos se trataran más a fondo en apartados posteriores.” <http://iteso.mx/~almarp/ia/comoaprenden.htm>.

II.1.1. UN POCO DE HISTORIA

“Durante años la investigación en aprendizaje automático se ha realizado con

distinto grado de intensidad, utilizando diferentes técnicas y haciendo énfasis en distintos

aspectos y objetivos. Dentro de la relativamente corta historia de esta disciplina, es posible

distinguir tres periodos importantes, cada uno de los cuales esta centrado en distintosparadigmas:

  Técnicas de modelado neuronal y de decisión

  Aprendizaje orientado a conceptos simbólicos

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 26/70

 

 

  Sistemas de aprendizaje de conocimiento con exploración de varias tareas de

aprendizaje

La característica distintiva del primer paradigma fue el interés de construir sistemas

de aprendizaje de propósito general que partan con poco o ningún conocimiento inicial de

la estructura. La investigación estuvo orientada a la construcción de una gran variedad de

máquinas basadas en modelos neuronales, con una estructura inicial aleatoria o

parcialmente aleatoria. Estos sistemas fueron denominados Redes Neuronales o Sistemas

Auto-organizativos. El aprendizaje en estos sistemas consiste en la realización de cambios

increméntales en las probabilidades de que elementos del tipo neurona (típicamente

unidades lógicas con umbral) puedan transmitir una señal.

Debido a la primitiva tecnología computacional de los primeros años, la mayoría delas investigaciones en esta área eran teóricas o relativas a la específica construcción de

sistemas de hardware con propósito específico, tal como perceptrones (Rosenblatt, 1958),

pandemonium (Selfridge, 1959) y adelaine (Widrow, 1962). El fundamento de estos

trabajos fue hecho en la década de los cuarenta por Rashevsky y sus seguidores del área de

biofísica (Rashevsky, 1948), y (McCulloch y Pitts 1943), quienes descubrieron la

aplicabilidad de la lógica simbólica para el modelado de actividades del sistema nervioso.

Sobre una gran actividad de investigación en esta área, es posible mencionar los trabajos de(Ashby, 1960; Rosenblatt, 1958, 1962; Minsky y Papert, 1969; Block, 1961; Yovits, 1962;

Widrow, 1962; Culberson, 1963; Kazmierczak, 1963).

Otro tipo de investigación relacionada con el área es la concerniente a la simulación

de procesos evolutivos, que a través de operaciones aleatorias de mutación y de

“selección” natural pueden crear un sistema capaz de realizar un comportamiento

inteligente (Friedberg, 1958, 1959; Holland, 1980).

La experiencia adquirida en estas áreas engendró la nueva disciplina de

Reconocimiento de Patrones y condujo al desarrollo sistemas de decisión en aprendizaje

automático. En dichos casos, el aprendizaje es igualado con la adquisición de funciones

lineales, polinomiales, o formas relacionadas con funciones discriminantes a partir de un

conjunto de ejemplos de entrenamiento (Nilsson, 1965; Koford, 1966; Uhr, 1966;

Highleyman, 1967). Uno de los sistemas más exitosos y conocidos dentro de esta clase fue

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 27/70

 

 

el programa de juego de damas de Samuel (Samuel, 1959, 1963). Este programa estaba

capacitado para adquirir por medio de aprendizaje, un mejor nivel de performance. Algo

diferente, pero relacionado, son las técnicas que utilizan métodos de decisión estadística

para el aprendizaje de reglas de reconocimiento de patrones (Sebestyen, 1962; Fu, 1968;

Watanabe, 1960; Arkadev, 1971; Fukananga, 1972; Ruspini, 1969, Duda & Hart, 1973,

Bezdek, 1973; Kanal, 1974).

Como investigación paralela al modelado a través de redes neuronales y sistemas de

decisión, se realizaron investigaciones relacionadas con teoría de control, sistemas de

control adaptativos capaces de ajustar automáticamente sus parámetros con el objetivo de

mantener una performance estable en presencia de perturbaciones (Truzal, 1955; Davies,

1970; Mendel, 1970; Tsypkin, 1968; Fu, 1971, 1974).

Posteriormente, los resultados prácticos realizados por modelos basados en redesneuronales y sistemas de decisión encontraron ciertas limitaciones. Las altas expectativas

mantenidas por los trabajos originales no se cumplieron, y la investigación en estas áreas

comenzó a declinar. Algunos resultados teóricos revelaron fuertes limitaciones, como por

ejemplo en el aprendizaje del tipo perceptron simple (Minsky y Papert, 1969).

Un segundo paradigma comenzó a emerger en los sesenta, a partir de los trabajos de

psicólogos e investigadores en inteligencia artificial, sobre el modelado del aprendizaje

humano (Hunt et al., 1963, 1966). El paradigma utilizaba estructuras lógicas o de grafos en

vez de métodos numéricos o estadísticos. Los sistemas aprendían descripciones simbólicas

que representaban un mayor nivel de conocimiento de las estructuras y conceptos

adquiridos (Hunt & Hovland, 1963; Feigenbaum, 1963; Hunt et al., 1966; Hilgard, 1966;

Simon & Lea, 1974; Bongard, 1970; Uhr, 1966; Karpinsky & Michalski, 1966).

Una influencia importante en esta área de trabajo fue el sistema de aprendizaje

estructural de Winston (Winston, 1975), como así también los trabajos realizados con el

objetivo de aprender conceptos estructurales a partir de ejemplos, incluyendo los programas

de aprendizaje basados en lógica inductiva (Michalski, 1972, 1973, 1978; Hayes-Roth

1974; Hayes-Roth & McDermott 1978; Mitchell, 1978).

El tercer paradigma representa el periodo de investigación más reciente,

comenzando a partir de mediado de los setenta. Las investigaciones en este sentido han sido

orientadas al aprendizaje de conceptos a partir de ejemplos, utilizando una amplia variedad

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 28/70

 

 

de técnicas, muchas de las cuales se orientan a los sistemas basados en conocimiento. Se

ha hecho especial énfasis en el uso de conocimiento orientado a tareas y en las restricciones

que este provee, que guían el proceso de aprendizaje. Además del énfasis en el aprendizaje

a partir de ejemplos, se trabaja en aprendizaje a partir de instrucciones, por analogía y

descubrimiento de conceptos y clasificaciones. En contraste con esfuerzos previos, las

nuevas investigaciones tienden a incorporar heurísticas, y utilizar ejemplos de

entrenamiento para el aprendizaje de conceptos.” 

<http://www.dc.uba.ar/people/materias/aa/ >.

II.2. REDES NEURONALES ARTIFICIALES

II.2.1. INTRODUCCIÓN

“El aparato computacional más poderoso conocido por el hombre es el cerebro

humano. Un niño de tres años puede realizar fácilmente labores que superan por mucho las

capacidades de las computadoras más sofisticadas: reconociendo docenas de caras y cientos

de objetos desde diferentes ángulos, en condiciones de luz distintas, manipulando un

ambiente complejo, entendiendo y usando un vocabulario complejo de lenguaje y gestos.

Han sido gastados enormes esfuerzos en desarrollo para intentar reproducir versiones

limitadas de algunas de estas capacidades en las computadoras, con pobres resultados.

Una computadora puede realizar en segundos cálculos aritméticos que, a un ser humano, le

llevarían años. La aritmética es difícil para los humanos e imposible para los animales.

Dicha habilidad se considera tradicionalmente como un signo de gran inteligencia.

Entonces, ¿qué causa la disparidad entre las habilidades del hombre y la máquina?.

La diferencia obvia yace en la arquitectura fundamental de la computadora y del cerebro.

Las computadoras tradicionales están basadas en la arquitectura de Von Neumann: un

simple procesador que puede realizar operaciones simples aritméticas, lógicas y

condicionales una a la vez, y una gran memoria.

El cerebro humano, en contraste, consiste en un gran número de células

especializadas llamadas neuronas, interconectadas masivamente (se estima que hay del

orden de diez billones de neuronas en el cerebro humano con un promedio de miles de

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 29/70

 

 

conexiones por cada una). Estas neuronas son lentas (realizando cientos, en lugar de

millones, de operaciones por segundo).

Las redes neuronales artificiales (ANN, por sus siglas en inglés o simplemente

Redes Neuronales) son modelos computarizados inspirados en la estructura a bajo nivel del

cerebro. Consisten en grandes cantidades de unidades de procesamiento sencillas llamadas

neuronas, conectadas por enlaces de varias fuerzas. Las Redes Neuronales también pueden

ser construidas con "hardware" especial o simuladas en computadoras normales. Sin

embargo, el "hardware" neuronal especializado no es común, así que la simulación es la

norma.”<http://www.uam.es/personal_pdi/psicologia/adarraga/studs/Xerxes/Pag5.html>.

II.2.2.DEFINICIONES 

- “Según DARPA en su Estudio de Redes Neuronales (DARPA 1988, AFCEA

International Press, : 60): "Una red neuronal es un sistema compuesto de muchos elementos

procesadores simples operando en paralelo, cuya función es determinada por la estructura

de la red, fuerza en las conexiones y el procesamiento realizado por los elementos

computacionales en los nodos."

- Haykin, S. (1994, Neural Networks: A comprehensive foundation, NY, McMillan, : 2):

"Una red neuronal es un procesamiento distribuido masivamente paralelo que tiene una

tendencia natural para almacenar conocimiento empírico y hacerlo disponible para el uso.

Recuerda al cerebro en dos aspectos:

1.  El conocimiento se adquiere por la red a través de un proceso de aprendizaje.

2.  Las conexiones interneurónicas se conocen como pesos sinápticos y se usan para

almacenar el conocimiento."

- Zurada,J.M. (1992, Introduction to artificial neural nsystems, Boston: PWS Publishing

Company, : 15): "Los sistemas de redes neuronales artificiales, o redes neuronales, son

sistemas celulares físicos que puedan adquirir, almacenar y usar conocimiento empírico."

Las redes neuronales son una forma de un sistema computerizado multi-proceso con:

- Elementos de procesamiento sencillos.

- Alto grado de interconexión.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 30/70

 

 

- Mensajes simples escalares.

- Interacción adaptable entre elementos.”

<http://www.uam.es/personal_pdi/psicologia/adarraga/studs/Xerxes/Pag5.html>

II.2.3. UN POCO DE HISTORIA

“En los 50's y 60's, se hicieron varios intentos para adaptar los modelos de Redes

Neuronales para que se diera el aprendizaje. Rosenblatt diseñó el Perceptron. Éste contenía

tres tipos de neuronas: sensoriales, asociativas y de respuesta. Las sensoriales tomaban

entradas de fuera de la red, las unidades de respuesta propagaban señales fuera de la red, al

mundo externo, y las asociativas eran meramente internas. La distinción entre estas tres

neuronas es importante. Sin embargo ahora se refieren como unidades de entrada, de saliday ocultas. Rosenblatt desarrolló métodos para alterar los niveles sinápticos de forma que la

red aprendiera a reconocer clases de entradas. Por ejemplo, produjo una red que aprendió a

responder a líneas verticales, pero no a horizontales (se sabe que neuronas especializadas en

la visión actúan de esta forma). Como muchas Redes Neuronales posteriores, el rasgo más

importante del Perceptron de Rosenblatt es que aprendió a clasificar sus entradas "por

ejemplo"; lo cual contrasta con la clásica ciencia computacional donde el programador

escribe un programa que le dice a la computadora cómo clasificar sus entradas.

En 1969, Minsky y Papert publicaron un libro que influenció mucho el pensamiento

sobre redes neuronales. En primer lugar demostraron que para hacer algunas tareas

importantes de clasificación en geometría requerían un incremento arbitrario en el tamaño

del Perceptron mientras se iba incrementando el tamaño de la retina. En segundo lugar

demostraron que los Perceptrones eran incapaces de aprender a resolver cualquier problema

linealmente inseparable. Puesto que problemas muy simples son linealmente inseparables.” 

<http://www.uam.es/personal_pdi/psicologia/adarraga/studs/Xerxes/Pag5.html>.

Las R.N.A. no fueron estudiadas por cerca de dos décadas, pero su interés hacrecido bastante en los últimos años debido al éxito mostrado en la solución de problemas

antes reservados exclusivamente a los humanos.

II.2.4. CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 31/70

 

 

“Las R.N.A. están compuestas por elementos que se comportan de una manera

parecida a las funciones más elementales de una neurona biológica. Estos elementos se

organizan de una manera que puede o no estar relacionada a la manera en que está

organizado el cerebro.

No obstante su burdo parecido a los sistemas biológicos, las R.N.A. presentan

algunas características propias del cerebro como son:

  Pueden aprender de la experiencia.

  Pueden generalizar a partir de ejemplos previos.

  Pueden abstraer características esenciales de entradas que contienen datos

irrelevantes.

Es importante enfatizar que las R.N.A. no duplican las funciones cerebrales

exactamente; a decir verdad, están aún lejos de poder simularlo fielmente.

Las características más importantes de las R.N.A. son:

  Habilidad De Aprendizaje : Las R.N.A. pueden modificar su comportamiento en

respuesta al medio ambiente. Esto es muy importante. Las R.N.A. se auto-ajustan

produciendo respuestas consistentes con el medio ambiente. Existen muchosalgoritmos de aprendizaje que pueden aplicarse a las R.N.A.

  Generalización : Una vez entrenada, una R.N.A. es, hasta cierto grado, insensible a

variaciones pequeñas en sus entradas. Esto es, las R.N.A. producen sistemas

capaces de manejar el mundo "imperfecto" en que vivimos.

  Abstracción : Algunas R.N.A. son capaces de abstraer la esencia de una serie de

entradas. Se pueden abstraer patrones perfectos de modelos distorsionados.” 

<http://mailweb.udlap.mx/~pgomez/cursos/rna/notas/is466_not.html>.

II.2.5. APLICACIONES DE LAS R.N.A.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 32/70

 

 

“Las R .N.A. no son una panacea y definitivamente no son el sustituto de las

computadoras convencionales; por ejemplo no serían adecuadas para escribir un sistema de

nómina. Algunas áreas en las que se han aplicado exitosamente son:

  Análisis financiero

  Procesamiento de señales

  Mercadotecnia

  Automatización y robótica

  Diagnóstico médico

  Clasificación

  Reconocimiento de patrones

  Control de procesos

  Optimización”

<http://mailweb.udlap.mx/~pgomez/cursos/rna/notas/is466_not.html>.

II.2.6. ALCANCES Y LIMITACIONES DE LAS R.N.A.

“Las redes neuronales artificiales tienen aplicaciones potenciales en tareas donde no

hay reglas bien definidas las cuales parecen fáciles para los humanos y difíciles para lascomputadoras. Este campo es tan amplio como el de las computadoras convencionales.

La Inteligencia Artificial ha estado generalmente dominada por las áreas de manipulación

lógica y simbólica, pero algunos piensan que R.N.A. remplazarán la Inteligencia Artificial

tradicional actual. Más bien parece que se combinarán en sistemas apoyándose

mutuamente, como sucede en los seres humanos, pues éstos se apoyan en sistemas rápidos

soportados por reconocimiento de patrones. Otros sistemas realizan actividades que

requieren más tiempo cuando el reconocimiento falla o cuando se requieren niveles

superiores de decisión.” 

<http://mailweb.udlap.mx/~pgomez/cursos/rna/notas/is466_not.html>.

II.2.7. CONFIABILIDAD DE LAS R.N.A.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 33/70

 

 

“Las R.N.A. son hasta cierto grado impredecibles (como los humanos). No hay

manera de garantizar la salida de una red para una entrada a menos que se prevean todas las

posibilidades en las entradas, y se entrene la red suficientemente bien. Sin embargo esto

puede resultar impráctico en muchos casos y verdaderamente imposible en otros, lo que ha

originado muchas críticas a las R.N.A. Parte de esta crítica se debe al hecho de que

esperamos que las computadoras sean perfectas, pero los humanos no son perfectos...

Otro problema relacionado y criticado en las R.N.A. es su inhabilidad de "explicar" como

resuelven el problema. Esta inhabilidad se debe a que la representación interna generada en

la red puede ser demasiado compleja aún en los casos mas sencillos.” 

<http://mailweb.udlap.mx/~pgomez/cursos/rna/notas/is466_not.html .>

II.3. LÓGICA DIFUSA

II.3.1. INTRODUCCIÓN

“La lógica difusa es una rama de la inteligencia artificial que se funda en el

concepto "Todo es cuestión de grado" , lo cual permite manejar información vaga o de

difícil especificación si quisiéramos hacer cambiar con esta información el funcionamiento

o el estado de un sistema especifico. Es entonces posible con la lógica difusa gobernar un

sistema por medio de reglas de 'sentido común' las cuales se refieren a cantidades

indefinidas.

Las reglas involucradas en un sistema borroso, pueden ser aprendidas con sistemas

adaptativos que aprenden al ' observar ' como operan las personas los dispositivos reales, o

estas reglas pueden también ser formuladas por un experto humano. En general la lógica

difusa se aplica tanto a sistemas de control como para modelar cualquier sistema continuode ingeniería, física, biología o economía.

La lógica difusa es entonces definida como un sistema matemático que modela

funciones no lineales, que convierte unas entradas en salidas acordes con los

planteamientos lógicos que usan el razonamiento aproximado.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 34/70

 

 

Se fundamenta en los denominados conjuntos borrosos y un sistema de inferencia

borroso basado en reglas de la forma " SI....... ENTONCES...... ", donde los valores

lingüísticos de la premisa y el consecuente están definidos por conjuntos borrosos, es así 

como las reglas siempre convierten un conjunto borroso en otro.” 

<http://personales.ya.com/casanchi/mat/difusa01.htm>.

II.3.2. DEFINICIONES

- “Lógica difusa es la rama de la inteligencia artificial que le permite a un computador

analizar información del mundo real en una escala entre falso y verdadero.” 

<http://www.dwcolombia.com/orbita/concepto.html>.

- “Lógica difusa se encarga del estudio de las leyes, los modos y las formas delrazonamiento aproximado.”

<http://kim.ece.buap.mx/posgrado/Fuzzytutorial/clasvsdif.html>.

II.3.3. UN POCO DE HISTORIA

“Los conjuntos difusos fueron introducidos por primera vez en 1965; la creciente

disciplina de la lógica difusa provee por sí misma un medio para acoplar estas tareas. En

cierto nivel, la lógica difusa puede ser vista como un lenguaje que permite trasladarsentencias sofisticadas en lenguaje natural a un lenguaje matemático formal. Mientras la

motivación original fue ayudar a manejar aspectos imprecisos del mundo real, la práctica

temprana de la lógica difusa permitió el desarrollo de aplicaciones prácticas. Aparecieron

numerosas publicaciones que presentaban los fundamentos básicos con aplicaciones

potenciales. Esta frase marcó una fuerte necesidad de distinguir la lógica difusa de la teoría

de probabilidad. Tal como la entendemos ahora, la teoría de conjuntos difusos y la teoría de

probabilidad tienen diferentes tipos de incertidumbre.

En 1994, la teoría de la lógica difusa se encontraba en la cumbre, pero esta idea no

es nueva, para muchos, estuvo bajo el nombre de lógica difusa durante 25 años, pero sus

orígenes se remontan hasta 2,500 años. Aún Aristóteles consideraba que existían ciertos

grados de veracidad y falsedad. Platón había considerado ya grados de pertenencia.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 35/70

 

 

La idea de que la lógica produce contradicciones fue popularizada por el filósofo y

matemático británico Bertrand Russell, a principios del siglo XX. Estudio las vaguedades

del lenguaje, concluyendo con precisión que la vaguedad es un grado. El filosofo austriaco

Ludwing Wittgenstein estudió las formas en las que una palabra puede ser empleada para

muchas cosas que tienen algo en común. La primera lógica de vaguedades fue desarrollada

en 1920 por el filósofo Jan Lukasiewicz, visualizó los conjuntos con un posible grado de

pertenencia con valores de 0 y 1, después los extendió a un número infinito de valores entre

0 y 1. En los años sesentas, Lofti Zadeh inventó la lógica difusa, que combina los conceptos

de la lógica y de los conjuntos de Lukasiewicz mediante la definición de grados de

pertenencia.” <http://personales.ya.com/casanchi/mat/difusa01.htm>.

II.3.4. QUE ES LA LÓGICA DIFUSA

“Es un tipo de lógica que reconoce más que simples valores verdaderos y falsos.

Con lógica difusa, las proposiciones pueden ser representadas con grados de veracidad o

falsedad. Por ejemplo, la sentencia "hoy es un día soleado", puede ser 100% verdad si no

hay nubes, 80% verdad si hay pocas nubes, 50% verdad si existe neblina y 0% si llueve

todo el día.

La Lógica Difusa ha sido probada para ser particularmente útil en sistemas expertos

y otras aplicaciones de inteligencia artificial. Es también utilizada en algunos correctores de

voz para sugerir una lista de probables palabras a reemplazar en una mal dicha. La Lógica

Difusa, que hoy en día se encuentra en constante evolución, nació en los años 60 como la

lógica del razonamiento aproximado, y en ese sentido podía considerarse una extensión de

la Lógica Multivaluada. La Lógica Difusa actualmente está relacionada y fundamentada en

la teoría de los Conjuntos Difusos. Según esta teoría, el grado de pertenencia de un

elemento a un conjunto va a venir determinado por una función de pertenencia, que puede

tomar todos los valores reales comprendidos en el intervalo [0,1].La Lógica Difusa (llamada también Lógica Borrosa por otros autores) o Fuzzy

Logic es básicamente una lógica con múltiples valores, que permite definir valores en las

áreas oscuras entre las evaluaciones convencionales de la lógica precisa: Si / No, Cierto / 

Falso, Blanco / Negro, etc. Se considera un súper conjunto de la Lógica Booleana. Con la

Lógica Difusa, las proposiciones pueden ser representadas con grados de certeza o falsedad.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 36/70

 

 

La lógica tradicional de las computadoras opera con ecuaciones muy precisas y dos

respuestas: Si o no, uno o cero. Ahora, para aplicaciones de computadores muy mal

definidas o sistemas vagos se emplea la Lógica Difusa.

Por medio de la Lógica Difusa pueden formularse matemáticamente nociones como

un poco caliente o muy frío, para que sean procesadas por computadoras y cuantificar

expresiones humanas vagas, tales como "Muy alto" o "luz brillante". De esa forma, es un

intento de aplicar la forma de pensar humana a la programación de los computadores.

Permite también cuantificar aquellas descripciones imprecisas que se usan en el lenguaje y

las transiciones graduales en electrodomésticos como ir de agua sucia a agua limpia en una

lavadora, lo que permite ajustar los ciclos de lavado a través de censores. La habilidad de la

Lógica Difusa para procesar valores parciales de verdad ha sido de gran ayuda para la

ingeniería.La última característica de los sistemas lógicos es el procedimiento de

razonamiento, que permite inferir resultados lógicos a partir de una serie de antecedentes.

Generalmente, el razonamiento lógico se basa en silogismos, en los que los antecedentes

son por un lado las proposiciones condicionales (nuestras reglas), y las observaciones

presentes por otro (serán las premisas de cada regla).

Los esquemas de razonamiento utilizados son "esquemas de razonamiento

aproximado", que intentan reproducir los esquemas mentales del cerebro humano en el

proceso de razonamiento. Estos esquemas consistirán en una generalización de los

esquemas básicos de inferencia en Lógica Binaria (silogismo clásico).

Tan importante será la selección de un esquema de razonamiento como su representación

material, ya que el objetivo final es poder desarrollar un procedimiento analítico concreto

para el diseño de controladores difusos y la toma de decisiones en general. Una vez que

dispongamos de representaciones analíticas de cada uno de los elementos lógicos que

acabamos de enumerar, estaremos en disposición de desarrollar formalmente un

controlador "heurístico" que nos permita inferir el control adecuado de un determinado

proceso en función de un conjunto de reglas "lingüísticas", definidas de antemano tras la

observación de la salida y normas de funcionamiento de éste.”

<http://personales.ya.com/casanchi/mat/difusa01.htm>.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 37/70

 

 

II.4. SISTEMAS EXPERTOS

II.4.1. INTRODUCCIÓN

“Los Sistemas Expertos son una forma de programación que emula artificialmenteciertos aspectos del razonamiento de un especialista humano en un ámbito restringido y

limitado de conocimiento. Su característica principal es que están basados en reglas. Es

decir, contienen un juego predefinido de conocimientos que se utiliza para tomar sus

decisiones. Los sistemas expertos pueden resolver con mucha facilidad ciertos problemas

complejos (no abordables mediante cálculo puro) que sólo puede llevarse a cabo por un

número limitado de personas expertas intensamente entrenadas. Tal vez su característica

más fascinante es su capacidad para enfrentar problemas del mundo real, por medio de la

aplicación de procesos que emulan el juicio y la intuición humanas. Para ello, es necesario

dotar a la computadora tanto de una “base de conocimientos” como de un “motor de

inferencia”. La base contiene el conocimiento del sistema con respecto a un tema

específico para el que se diseña el sistema. El motor de inferencia, en cambio, es el que

combina los hechos y las preguntas particulares, utilizando la base de conocimientos,

seleccionando los datos y los pasos apropiados para presentar los resultados.

Posteriormente este núcleo central fue ampliado con la incorporación de otros muchos

procesos cognitivos vinculados con el pensamiento: aprendizaje automático, razonamientobasado en casos, lógica difusa, etc.” 

<http://www.control-automatico.net/recursos/articulos/art085.htm>.

II.4.2. DEFINICIONES

- “Los Sistemas Expertos estudian la simulación de los procesos intelectuales de los

expertos humanos como pueden ser : La interpretación de datos, el diagnóstico, la

corrección, la monitorización, el control, la predicción, la planificación, el diseño y la

enseñanza.”<http://montelpz.htmlplanet.com/robot/refbiblio.html>.

- “Bajo el término de Sistemas Expertos se entiende un tipo de software que imita el

comportamiento de un experto humano en la solución de un problema. Pueden almacenar

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 38/70

 

 

conocimientos de expertos para un campo determinado y solucionar un problema mediante

deducción lógica de conclusiones.”

<http://home.worldonline.es/jmariocr/introduccion.htm>.

- “Un Sistema Experto se puede definir como un sistema computacional interactivo que

permite la creación de bases de conocimiento, las cuales una vez cargadas responden a

preguntas, despejan dudas y sugieren cursos de acción emulando / simulando el proceso de

razonamiento de un experto para resolver problemas en un área específica del conocimiento

humano.”

<http://www.geocities.com/SiliconValley/Pines/7894/introduccion/expertos.html>.

- “Los Sistemas Expertos son sistemas informáticos que simulan el proceso de aprendizaje,

de memorización, de razonamiento, de comunicación y de acción de un experto humano 

en cualquier rama de la ciencia.” <http://www.informaticaintegral.net/sisexp.html>.

II.4.3. ANTECEDENTES 

“La resolución de problemas es una de las constantes que han acompañado al

hombre desde sus orígenes. Tanto los problemas que frenan las fronteras del saber

(explicación de fenómenos y comportamientos, demostración de teoremas...) como aquellos

otros que impiden las realizaciones prácticas (ingeniería, planificación...), o simplemente

los creados por curiosidad o distracción (paradojas, acertijos, adivinanzas, juegos...), han

llenado el tiempo y consumido esfuerzos intelectuales del hombre.

En la década de los cincuenta apareció un interés especial por parte de los

pedagogos y psicólogos, por encontrar los métodos generales de resolución de problemas,

con el fin de que estos métodos se pudieran enseñar a los estudiantes y con ello se mejorara

su preparación. Se había ya observado en aquel entonces, que las personas aún conociendo

toda la información necesaria para resolver correctamente un problema (definiciones,

fórmulas, etc.) son muchas veces incapaces de conseguirlo, realizando con frecuencia

razonamientos defectuosos. Los primeros estudios se realizaron con problemas de

resolución geométrica.

Con la difusión de los primeros ordenadores, en la segunda mitad de la década de

los cincuenta, los estudios ya realizados en el campo de la resolución de problemas se

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 39/70

 

 

intentaron trasladar a los ordenadores. Surgen nuevos problemas como son la

representación de los conocimientos en la memoria del ordenador, la representación de las

relaciones entre los conocimientos, etc.

En la década de los sesenta, coincidiendo con la segunda época de la I.A., aparecen

numerosos trabajos sobre el método general y universal de resolución desarrollados sobre

ordenadores; de ellos el más famoso es el "General Program Solver" de Newell, Shaw y

Simón, Universidad de Carnege Mellon 1957.

Pese a la gran euforia con que se vivió los momentos iniciales (en 1967 Donald

Michie de la Universidad de Edimburgo declaraba que en menos de veinte años existirían

máquinas tan inteligentes como el hombre), y los grandes recursos que se emplearon, lo

cierto es que no se obtuvo ningún éxito notable.

Uno de los problemas que surgieron en aquel entonces fue, la aparición de laexplosión combinatoria en los cálculos exhaustivos que limitaba la profundidad en los

mismos y el número de conocimientos que se podían procesar, es decir se calculaban todas

las posibles soluciones para luego elegir la óptima. Aparecen entonces los primeros

algoritmos de poda (Algoritmo alfa-beta de John Mc Carthy 1961).

El error que se cometió fue, tal vez, emprender un problema tan general y amplio

con herramientas poco adecuadas. Tanto el software como el hardware estaban adaptados al

cálculo numérico no al campo simbólico, los ordenadores eran lentos y tenían poca

capacidad de memoria, es decir se gastaban muchos recursos y éstos eran caros, además los

conocimientos lógico-matemáticos necesarios para estos desarrollos todavía estaban en su

infancia.

Como ejemplos cabe recordar que no fue hasta 1960 cuando John Mc Carthy creó el

lenguaje LISP, y que éste se consideró durante algo más de una década como un lenguaje

inútil ("LIst of Stupid and Insipid Parentesisis") o que el "Principio de resolución

automática", base del PROLOG no lo formuló J. Alan Robinson hasta 1965.

En la década de los setenta, coincidiendo con la tercera época de la I.A., los

planteamientos en el campo de la resolución de problemas cambian. No conociéndose los

mecanismos generales de resolución de la mente humana se pensó en simular los mismos

para campos muy concretos del conocimiento. Es decir, se imita la forma externa o

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 40/70

 

 

comportamiento aparente, que es precisamente el enfoque completamente opuesto a la

línea de investigación de las redes neuronales.

El manejo eficaz de los conocimientos dio entonces sus primeros éxitos: los

Sistemas Expertos. Este hecho llenó de nuevo de optimismo a la comunidad científica que

entre otras cosas había visto como las subvenciones por parte de los gobiernos se

recortaban y en muchos casos desaparecían ante la falta de logro palpables en el campo de

la I.A.

El precursor de los Sistemas Expertos actuales es el sistema DENTRAL

(Universidad de Standford 1967) que incorporaba una gran cantidad de conocimiento que

no estaban incluidos en el programa. Utilizaba para la representación del conocimiento las

reglas de producción, si bien su modo de funcionamiento se acercaba más a la filosofía de

la resolución automática que a la de los Sistemas Expertos. El sistema era capaz dedeterminar la estructura química de un compuesto orgánico a partir de los resultados

obtenidos mediante un espectrógrafo de masas. Un desarrollo mejorado del mismo todavía

se utiliza en la industria química.

De los Sistemas Expertos que se construyeron en esta época son famosos; el

Prospector (Standford Research Institute 1974) Sistema Experto en prospecciones mineras

especialmente 149 petrolíficas que cuenta entre sus méritos el descubrimiento en 1980 en el

estado de Washington (Estados Unidos de Norteamérica) de un importante yacimiento de

molibdeno que fue posteriormente confirmado mediante prospecciones, y el MYCIN

(Universidad de Standford 1977) Sistema Experto en el diagnóstico y terapia de

enfermedades infecciosas de origen bacteriano que contaba con unas 400 regIas.

En la década de los 70 también se empiezan a desarrollar los primeros ordenadores

simbólicos, en Estados Unidos de Norteamérica, bajo el amparo del Proyecto DARPA

(1973).

En la década de los ochenta, existen dos grandes líneas de investigación y

desarrollo, que son:

- Divulgación o popularización de los Sistemas Expertos como una metodología que

puede resolver de una forma adecuada múltiples problemas. Esta línea ha materializado sus

investigaciones en el desarrollo de lenguajes, herramientas, entornos y sistemas vacíos que

funcionan en pequeños ordenadores (mini ordenadores y estaciones de trabajo ).

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 41/70

 

 

- Generalización de los Sistemas Expertos que permitan ampliar el campo de

conocimientos cuyos primeros logros han sido la comercialización de ordenadores o

máquinas simbólicas y el desarrollo de los ordenadores y lenguajes paralelos.

En estos pocos años de vida de los S.E. se ha asistido al nacimiento de una nueva

rama del saber: la ingeniería del Conocimiento, del Saber o Cognoscitiva, que es la parte de

la I.A. que estudia los Sistemas Expertos o basados en el conocimiento y es sin duda

ninguna en estos momentos el campo mas prometedor de la I.A.”

<http://montelpz.htmlplanet.com/robot/refbiblio.html>.

II.4.4. CARACTERÍSTICAS DE LOS SISTEMAS EXPERTOS

  “Solucionan problemas aplicando su experiencia de una forma eficaz,

haciendo deducciones a partir de datos incompletos o inciertos.

  Explican y justifican lo que están haciendo.

  Se comunican con otros expertos y adquieren nuevos conocimientos.

  Reestructuran y reorganizan el conocimiento.

  Interpretan al mismo tiempo el espíritu y la letra de las reglas.

  Determinan cuando un problema está en el dominio de su experiencia.”

<http://club2.telepolis.com/ohcop/buchanan.html>.

II.4.5. PRINCIPALES COMPONENTES DE UN SISTEMA EXPERTO

“Base  de  conocimientos : Es donde se almacena el conocimiento en el campo a

desarrollar. Los conocimientos que se suelen almacenar son de cuatro tipos: Conocimiento

objetivo, que describe la situación real del sistema; Conocimiento de sucesos, relacionado

con los sucesos que ocurren en el tiempo de ejecución; Conocimiento del funcionamiento 

del sistema, de cómo se hacen las cosas, y  Metaconocimiento, que relaciona los anteriores.

Existen varias formas de representar el conocimiento:

-   Marcos («Frames»): son estructuras de datos donde se almacenan información concreta

de un cierto concepto e información relacional para completar la definición del concepto.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 42/70

 

 

Se representan por una serie de campos y los valores asociados a los mismos, pudiendo ser

otro "frame".

-  Redes semánticas: son representaciones gráficas del conocimiento, mediante nodos, que

representan objetos o conjuntos de objetos, y arcos, que relacionan dichos objetos. Tanto

los "frames" como las redes son representaciones descriptivas, difíciles de usar para

representar el razonamiento.

-  Reglas: es la forma más extendida de representación del conocimiento. Representan la

forma de razonar. Tienen la forma   IF <condicion> THEN <accion/conclusion>. Es

importante el orden de ejecución de las reglas, por ello se les suele dotar de prioridades.

Una regla que activa otra se denomina metaregla, y se suelen usar para desarrollar

progresivamente el conocimiento del experto.

Motor de Inferencia : Es el "supervisor", un programa que está entre el usuario y la base

de conocimientos, y que extrae conclusiones a partir de los datos simbólicos que están

almacenados en las bases de hechos y de conocimiento. Dependen en gran medida de la

representación elegida; por su importancia analizaremos los motores de inferencia basados

en reglas.

Existen varios algoritmos de búsqueda a lo largo de las reglas para inferir

conclusiones a partir de los hechos y las reglas. Todos los algoritmos son del tipo "pattern-

matching", van disparando reglas a medida que se cumplen las condiciones. Se pueden

diferenciar dos mecanismos de inferencia:

- Encadenamiento hacia adelante: se extraen conclusiones a partir del cumplimiento de las

condiciones de ciertas reglas que, a su vez, provocarán el cumplimiento de las condiciones

en otras reglas hasta que no se cumplan en ninguna de ellas.

-   Encadenamiento hacia atrás: se suponen ciertas las conclusiones de una regla y, como

consecuencia, se van disparando aquellas reglas que provocarían la regla original. El

proceso acaba si no se cumplen las condiciones de las reglas o si se cumplen para todas las

reglas.

Es importante destacar que la base de conocimientos y el motor de inferencia son

sistemas independientes, por lo que se han desarrollado herramientas que únicamente

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 43/70

 

 

necesitan la implementación del conocimiento, llevando incorporado el motor de

inferencia.

Interfase Hombre-Máquina : Establece una comunicación sencilla entre el usuario y el

sistema. El usuario puede consultar con el sistema a través de menús, gráficos, etc, y éste le

responde con resultados.

La implementación de un sistema experto completo obliga al desarrollo de cada uno

de los elementos anteriores a través de lenguajes o herramientas de desarrollo. Existen

cuatro alternativas para la implementación de un sistema experto:

" Lenguajes de alto nivel (HLL): son lenguajes de propósito general (C, Fortran, Basic,...).

Tienen como ventajas su eficiencia, su familiaridad y la portabilidad a cualquier entorno,

pero el inconveniente de no estar preparados para una programación basada en símbolos.

"   Lenguajes simbólicos: fundamentalmente LISP y PROLOG. Son los lenguajes de altonivel más utilizados por su adaptación a la lógica de la base de conocimientos representada

mediante símbolos, y por su mecanismo de extraer conclusiones. Su eficiencia aumenta en

estaciones de trabajo diseñadas para dichos lenguajes.

"   Herramientas de desarrollo ("shells"): son programas preparados para el desarrollo de

sistemas expertos pues incorporan el motor de inferencia, independiente de las bases de

hechos y de conocimiento. El programador se limita a traducir dichas bases a un lenguaje

preparado a tal efecto, pudiendo enlazarse con otros lenguajes para el desarrollo de

funciones adicionales. Suelen estar desarrollados en LISP o PROLOG para aumentar su

eficiencia. La flexibilidad es menor, aunque suelen incorporar procesadores de texto,

gráficos y herramientas de análisis.

"   Entornos de desarrollo ("environments"): añaden a los "shells" el uso de un entorno

gráfico (ventanas, iconos,...) que facilita el desarrollo del sistema experto. Tienen como

ventaja la disminución del tiempo de desarrollo, pero suelen ser caros y poco flexibles.

Los "shells" son los más usados para el desarrollo de sistemas expertos, mientras

que el PROLOG está muy extendido en Europa y Japón, el LISP lo está en Estados Unidos.

Los entornos aún ocupan un sector minoritario pero la tendencia a su utilización va en

aumento.

Como conclusiones se puede decir que los sistemas expertos están siendo muy

utilizados en aquellos entornos donde se necesite el conocimiento de expertos. El entorno

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 44/70

 

 

de la producción es uno en donde se han desarrollado más prototipos y aplicaciones de

sistemas expertos. La mayoría de ellos utilizan reglas como técnica de representación, y

han sido desarrollado mediante "shells", o en lenguajes simbólicos.” 

<http://www.esi2.us.es/~dco/sistemas.htm>.

II.5. ALGORITMOS GENETICOS

“Los algoritmos genéticos son algoritmos matemáticos eficientes que se inspiran en

los mecanismos de la evolución biológica propuestos por Darwin. Han producido

excelentes soluciones en problemas complejos de optimización que poseen un gran número

de parámetros. Las áreas en donde se han aplicado estos algoritmos incluyen: planeamiento

industrial, layout de circuitos de muy alta escala de integración, control y optimización enla distribución de energía, optimización de ruteamiento y tráfico de datos, etc.

El objetivo principal de un algoritmo genético es el de evolucionar a partir de una

población inicial de soluciones para un determinado problema, intentando producir nuevas

generaciones de soluciones que sean mejores que las anteriores. Esos algoritmos operan a

través de un ciclo simple que consiste en la generación al azar de la población inicial y la

evaluación, selección y reproducción de las más aptas (con respecto a un objetivo

predefinido). Este último proceso incorpora la recombinación y mutación del material

“genético” de las soluciones. El ciclo se repite hasta llegar a una solución aceptable o al

determinarse el óptimo de una función.” 

<http://www.control-automatico.net/recursos/articulos/art085.htm>.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 45/70

 

 

III. RAMAS DE LA INTELIGENCIA ARTIFICIAL (PARTE II)

En pleno 2003 si hablamos de inteligencia artificial forzosamente tenemos que

hablar también del termino robótica puesto que grandes producciones cinematográficascomo Terminator, Star Wars y recientemente la gran producción del señor Spilberg

“Inteligencia Artificial” nos han incrustado esta ideas en nuestras mentes, es por eso que no

podríamos concluir una investigación de este tipo, sin dedicarle un capitulo completo a este

tema, claro sin dejar atrás dos de los componentes de gran estudio para la I.A. y

ampliamente ligados a los robots “humanoides” como los que vemos en la televisión, me

refiero a la visión artificial y el lenguaje natural, como podríamos concebir un robot

“inteligente” que no pueda hablar o ver las cosas que lo rodean.

Claro que no todo lo referente al estudio de las I.A. se aplica a los robots sin

embargo, gran número de los campos que la conforman, Si. Además existen diferentes tipos

de ellos que no necesariamente son “inteligentes”, como se verá en este capitulo.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 46/70

 

 

III.1. ROBÓTICA

III.1.1. INTRODUCCIÓN

“La robótica es un concepto de dominio publico. La mayor parte de la gente tiene

una idea de lo que es la robótica, sabe sus aplicaciones y el potencial que tiene; sin

embargo, no conocen el origen de la palabra robot, ni tienen idea del origen de las

aplicaciones útiles de la robótica como ciencia.

La robótica como hoy en día la conocemos, tiene sus orígenes hace miles de años.

Nos basaremos en hechos registrados a través de la historia, y comenzaremos aclarando que

antiguamente los robots eran conocidos con el nombre de autómatas, y la robótica no era

reconocida como ciencia, es más, la palabra robot surgió hace mucho después del origen de

los autómatas.A modo de introducción, debemos hacer referencia al origen de la palabra robot, si

bien desde la antigüedad se conocen ingenios mecánicos con formas más o menos humanas

cuyo propósito fue proveer diversión en las cortes o llamar la atención de la gente, estos

ingenios, carecen de importancia desde el punto de vista tecnológico, precisamente por su

destino.

La palabra robot fue usada por primera vez el 25 de Enero de 1921, cuando el

escritor checo Karel Capek (1890 - 1938) estrena en el teatro nacional de Praga su obra

Robot Universal Rossum's (R.U.R.), esta obra trata de dos pequeños seres artificiales de

forma humana que responden perfectamente a las órdenes de su creador, aunque al final

acaban rebelándose contra él. Estos seres entienden por robots, una derivación del término

checo robota, que, al igual que en ruso, significa trabajo. El trabajo repetitivo constituye la

preocupación de todos los grandes hombres de todas las épocas.

Aristóteles, el cerebro de más vasta concepción en la historia del pensamiento,

refiriéndose a una forma particular de la tarea repetitiva acuño una frase que aún tiene

vigencia, "cuando los telares tejan por si mismos, habrá terminado la esclavitud del

hombre".

Norber winer, matemático norteamericano, que introdujo el término cibernética y su

teoría, refiriéndose al mismo tema, expresó: "es una degradación para un ser humano

encadenarlo a un remo y usarlo como fuente de energía; pero es casi igual degradación

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 47/70

 

 

asignarle tareas puramente repetitivas en una fábrica, que exigen menos de una millonésima

de su poder cerebral".

Es más sencillo organizar una fábrica o una galera que utiliza individualidades

humanas aprovechando sólo una fracción trivial de su valía, que preparar un mundo en el

que estos puedan alcanzar su plena dimensión.”

<http://proton.ucting.udg.mx/home/villanue/robotica1.html>.

“Entre los escritores de ciencia ficción, Isaac Asimov contribuyó con varias

narraciones relativas a robots, comenzó en 1939, a él se atribuye el acuñamiento del

término Robótica. La imagen de robot que aparece en su obra es el de una máquina bien

diseñada y con una seguridad garantizada que actúa de acuerdo con tres principios, que él

llamo, las Tres Leyes de la Robótica.

1.  Un robot no puede actuar contra un ser humano o, mediante la inacción, que un ser

humano sufra daños.

2.  Un robot debe de obedecer las ordenes dadas por los seres humanos, salvo que estén

en conflictos con la primera ley.

3.  Un robot debe proteger su propia existencia, a no ser que esté en conflicto con las

dos primeras leyes.

Consecuentemente todos los robots de Asimov son fieles sirvientes del ser humano,

de ésta forma su actitud contraviene a la de Kapek.”

<http://proton.ucting.udg.mx/home/villanue/robotica1.html>.

III.1.2. DEFINICIONES

   Robótica :

- “La robótica es la rama de la ciencia que se ocupa del estudio, desarrollo y

aplicaciones de los

robots.”<http://www.geocities.com/loboduke2001/Aplicaciones.html>.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 48/70

 

 

- “La robótica es el área de la inteligencia artificial que estudia la imitación del

movimiento humano a través de robots, los cuales son creados con el fin de apoyar

procesos mecánicos repetitivos que requieren gran precisión.” 

<http://www.geocities.com/SiliconValley/Pines/7894/introduccion/expertos.html>.

-  “Rama de la ingeniería y las ciencias computacionales envueltas en el diseño y

desarrollo e implementación de robots, que se usan para mejorar las vidas de las

 personas.”<http://www.ncddr.org/espanol/glosario/glosario.html> .

   Robot :

-  “Máquina controlada por ordenador y programada para moverse, manipular

objetos y realizar trabajos a la vez que interacciona con su entorno.” 

<http://www.prodigyweb.net.mx/enrayala/Robotica.htm>.

-  “Manipulador multifuncional y reprogramable, diseñado para mover materiales,

piezas, herramientas o dispositivos especiales, mediante movimientos

programados y variables que permiten llevar a cabo diversas tareas.” 

<http://www.robotics.freeservers.com/robot.htm>.

III.1.3. UN POCO DE HISTORIA

“Podemos mencionar dos formas de referirnos a los antecedentes de los robots:

figuras artificiales en la mitología y el desarrollo de autómatas. La siguiente cronología es

una breve descripción de como el hombre está fascinado con la posibilidad de crear vida

artificial y "que se han usado todos los ingenios y aparatos posibles para dar a la materia

inanimada funciones de la materia viva: ya sean humanos o animales, toquen instrumentos

musicales, coman, o cualquier otra cosa que pasara por la imaginación humana antes de la

revolución industrial".

Mitológicamente podemos mencionar los siguientes sucesos en la historia de la robótica:

1.  Algunos autores, como Jasia Reichardt, consideran que el comienzo de la historia de

los autómatas se encuentra en la creación de Adán por Dios.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 49/70

 

 

2.  Prometeo, que hizo el primer hombre y la primer mujer con barro, animados con el

fuego robado de los cielos.

3.  Hefaistos, también conocido como Vulcano, dios de todas las artes mecánicas y del

fuego, que hizo dos estatuas femeninas de oro que le ayudaban y le acompañaban

dondequiera que fuese.

4.  De nuevo Hefaistos, que crea al gigante Talus, hecho de metal que guardaba Creta

de los intrusos quemando sus cuerpos y matándolos.

5.  Pygmalión, rey de Chipre, que crea la estatua de Galatea y al enamorarse de ella,

hace que Afrodita le de la vida.

Enseguida se describen algunos intentos de autómatas reales.

1.  Amenhotep, hermano de Hapu, en el 1500 antes de Cristo, realiza una estatua de

Memmon, rey de Etiopía, que emite sonidos cuando la iluminan los rayos del sol al

amanecer.

2.  King-su Tse en el 500 a.C., en China, construye una urraca voladora de madera y

bambú y un caballo de madera que saltaba.

3.  Archytar de Tarento, entre el 400 y el 397 a. C., construye un pichón de madera

suspendido en un pivote, el cual rotaba con surtidor de agua o vapor, simulando el

vuelo. Archytar es también el inventor del tornillo y de la polea.4.  Ctesibio, entre el 300 y 270 a. C., inventa una clepsidra (reloj de agua) y un órgano

que funciona con agua.

5.  Filon de Bizancio, entre el 220 y el 200 a. C. inventó un autómata acuático y la

catapulta repetitiva.

6.  El tesoro de Chin Shih Hueng Ti, consistía en una orquesta mecánica de muñecos

encontrada por el primer emperador Han en el 206 a. C.

7.  Hero de Alejandría, en el 62 d. C., hace un tratado de autómatas, un famoso registro

de aplicaciones de la ciencia que pueden ser demostrados por medio de un

autómata, así como su teatro automático en el cual, las figuras que se encuentran

montadas en una caja, cambian de posición ante los ojos de los espectadores:

pájaros cantores, trompetas que suenan, medidores de la fuerza del vapor, animales

que beben, termoscopios, sifones y máquinas que operaban con monedas.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 50/70

 

 

8.  Hsieh Fec, en el 335 d. C., construye un carro con cuatro ruedas con la figura de

Buda, hecha de madera de sándalo.

9.  Huang Kun (700 d. C.) hace barcos con figuras de animales, cantantes, músicos y

danzarines, los cuales se mueven.

10. Yang Wu-Lien (700) construye un mono que extiende sus manos y dice "¡Limosna!

¡Limosna!", guardando su recaudación en una bolsa cuando alcanza un determinado

peso.

11. Han Chih Ho (890) hace un gato de madera que caza ratas.

12. El sabio príncipe hindú, Bhoja, en el 1050, escribe el Samarangana-Sutradhara, que

incluye comentarios sobre la construcción de máquinas o yantras.

13. Al-Jazari en Amid, en el Alto Tigris, escribe en 1926 un libro sobre el conocimiento

de invención mecánica, en donde se describían dispositivos mecánicos, comofuentes y relojes de agua.

14. Alberto Magno (1204-1272) crea un sirviente mecánico.

15. Roger Bacon (1214-1294) construye, después de 7 años de trabajo, una cabeza que

habla.

16. Villard d'Honnecourt en 1235 hace un libro de esbozos que incluyen secciones de

dispositivos mecánicos, como un ángel autómata, e indicaciones para la

construcción de figuras humanas y de animales.

17. El reloj con forma de gallo que canta en la catedral de Strasbourg, que funcionó

desde 1352 hasta 1789.

18. Johanes Müller (1436-1476) construye un águila artificial que voló cuando el

Emperador Maximiliano entró en Nuremberg en 1470.

19. Leonardo Da Vinci construye en 1500 un león automático.

20. Elijah de Chelm, en 1550, construye un Golem.

21. Rabbi Löw de Praga, en 1580, construye un Golem.

22. Salomón de Caus (1576-1626) construye fuentes ornamentales y jardines

placenteros, pájaros cantarines e imitaciones de los efectos de la naturaleza.

23. René Descartes inventó en 1640 un autómata al que se refiere como "mi hijo

Francine".

24. En 1662 se abre en Osaka el teatro Takedo de autómatas.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 51/70

 

 

25. Christian Huygens, en 1690, construye fuentes, dispositivos voladores, diligencias y

cajas de música basadas en autómatas.

26. Takedo Omi I, en 1714, construye un tigre artificial que echa aire por la boca.

27. Kara Kuri-Kiman Kaganigusa, en 1730, publica un importante compendio de

autómatas japoneses.

28. Maillard diseña en 1731, para L'Academie des Sciences, carros con ruedas

dentadas, hechas a mano. En 1733 diseña un cisne artificial.

29. Jacques de Vaucanson, construye el pato, el autómata más conocido; un pato hecho

de cobre, que bebe, come, grazna, chapotea en el agua y digiere su comida como un

pato real. Previamente construye un flautista y un tamborilero en 1738; el primero

consistía en un complejo mecanismo de aire que causaba el movimiento de dedos y

labios, como el funcionamiento normal de una flauta.30. Lorenz Rosenegger, en 1752, presentó un teatro de 256 marionetas (activadas

hidráulicamente) que representaban en detalle la vida de la población en el siglo

XVIII.

31. Friedrich von Knauss, en 1760, construyó una máquina de escribir automática, así 

como máquinas que hablaban y muñecas escritoras.

32. El barón Wolfgang von Kempelen construyó una máquina parlante en 1778 y su

famoso turco que jugaba al ajedrez (del que nunca se probó si había dentro un

persona manejándolo).

33. Pierre Jaquet-Droz y su hermano Henri-Louis, construyeron el escriba en 1770, el

dibujante en 1772 y el muchacho músico en 1773.

34. En 1775 Gendaemon Wakai construye un muñeco que sirve el té.

35. Hanzo Hosokawa construyó en el siglo XVIII una muñeca de té japonesa con

ruedas dentadas, resortes y barba de ballenas.

36. Iga-shichi Izuka, en 1790, construyó una muñeca que sirve sake.

37. En 1792 se construye el tigre de Tipu, que representa a un tigre atacando a un

hombre.

38. Johann Nepomuk Maelzel, inventor del metrónomo, construye una orquesta

completa con 42 autómatas independientes. También construye un trompetista en

1808.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 52/70

 

 

39. Johan-Gottfried y Friederich Kaufmann construyen en 1810 un trompetista.

40. Les Maillardet (Henri, Jean-David, Julien-Auguste, Jacques-Rodolphe) hicieron su

aparición a finales del XVIII y principios del XIX, construyeron un escritor-

dibujante, con la forma de un chico arrodillado con un lápiz en su mano, escribe en

inglés y en francés y dibuja paisajes. Construyen un mecanismo "mágico" que

responde preguntas y un pájaro que canta en una caja.

41. Josep Faber, en 1830, construyó un autómata que habla.

42. Robert Houdin construye una muñeca que escribe. También realiza un pastelero, un

acróbata, una bailarina en la cuerda floja, un hombre que apunta con una escopeta y

un artista del trapecio.

43. Benkichi Oono construye una muñeca que se expresa de forma táctil.” 

<http://montelpz.htmlplanet.com/robot/refbiblio.html>.

44. “1946, el inventor americano G.C Devol desarrolló un dispositivo controlador que

podía registrar señales eléctricas por medio magnéticos y reproducirlas para

accionar un máquina mecánica. La patente estadounidense se emitió en 1952.

45. 1952, una máquina prototipo de control numérico fue objetivo de demostración en

el Instituto Tecnológico de Massachusetts después de varios años de desarrollo.

46. 1959, se introdujo el primer robot comercial por Planet Corporation. estaba

controlado por interruptores de fin de carrera.

47. 1966, Trallfa, una firma noruega, construyó e instaló un robot de pintura por

pulverización.

48. 1968, un robot móvil llamado „Shakey‟‟ se desarrollo en SRI (standford Research

Institute), estaba provisto de una diversidad de sensores así como una cámara de

visión y sensores táctiles y podía desplazarse por el suelo.

49. 1971, el „Standford Arm‟‟, un pequeño brazo de robot de accionamiento eléctrico,

se desarrolló en la Standford University.”

<http://proton.ucting.udg.mx/home/villanue/robotica1.html >.

III.1.4. CLASIFICACIÓN DE LOS ROBOTS

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 53/70

 

 

Hoy en día existe una amplia gama de robots cuya utilidad depende de las

aplicaciones para las cuales fueron diseñados.

La evolución de los robots a lo largo de la historia ha dado lugar a muchos tipos de

clasificaciones posibles, las cuales la mayor parte de las veces no son rigurosas, y se van

modificando conforme avanza la tecnología. Para efectos de esta investigación sólo

haremos dos tipos de clasificaciones (esto por ser unas clasificaciones muy generales) :

según su generación y según su arquitectura.

1.  Clasificación de los robots por su generación :

  “  La primera generación : El sistema de control usado en la primera generación de

robots esta basado en la "paradas fijas" mecánicamente. Esta estrategia es

conocida como control de lazo abierto o control "bang bang".Podemos considerar como ejemplo esta primera etapa aquellos mecanismos

de relojería que permiten mover a las cajas musicales o a los juguetes de cuerda.

Este tipo de control es muy similar al ciclo de control que tienen algunos lavadores

de ciclo fijo y son equivalentes en principio al autómata escribiente de H. M. Son

útiles para las aplicaciones industriales de tomar y colocar pero están limitados a

un número pequeño de movimientos.

   La segunda generación : Utiliza una estructura de control de ciclo abierto, peroen lugar de utilizar interruptores y botones mecánicos utiliza una secuencia

numérica de control de movimientos almacenados en un disco o cinta magnética.

El programa de control entra mediante la elección de secuencias de movimiento en

una caja de botones o a través de palancas de control con los que se "camina", la

secuencia deseada de movimientos. El mayor número de aplicaciones en los que

se utilizan los robots de esta generación son de la industria automotriz, en

soldadura, pintado con "spray". Este tipo de robots constituyen la clase más grande

de robots industriales en E.U., incluso algunos autores sugieren que cerca del 90 %

de los robots industriales en EU pertenecen a esta 2ª generación de control.

   La tercera generación de robots : Utiliza las computadoras para su estrategia de

control y tiene algún conocimiento del ambiente local a través del uso de censores,

los cuales miden el ambiente y modifican su estrategia de control, con esta

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 54/70

 

 

generación se inicia la era de los robots inteligentes y aparecen los lenguajes de

programación para escribir los programas de control. La estrategia de control

utilizada se denomina de "ciclo cerrado".

    La cuarta generación de robots  : Ya los califica de inteligentes con más y

mejores extensiones sensoriales, para comprender sus acciones y el mundo que los

rodea. Incorpora un concepto de "modelo del mundo" de su propia conducta y del

ambiente en el que operan. Utilizan conocimiento difuso y procesamiento dirigido

por expectativas que mejoran el desempeño del sistema de manera que la tarea de

los sensores se extiende a la supervisión del ambiente global, registrando los

efectos de sus acciones en un modelo del mundo y auxiliar en la determinación de

tareas y metas.

    La quinta generación : Actualmente está en desarrollo esta nueva generación de

robots, que pretende que el control emerja de la adecuada organización y

distribución de módulos conductuales, esta nueva arquitectura es denominada

arquitectura de sumisión, cuyo promotor es Rodney Brooks.” 

<http://www.geocities.com/loboduke2001/B_Historia.html>.

2.  Clasificación de los robots por su arquitectura :

“Los dispositivos y mecanismos que pueden agruparse bajo la denominación

genérica del robot, tal como se ha indicado, son muy diversos y es por tanto difícil

establecer una clasificación coherente de los mismos que resista un análisis crítico y

riguroso. La subdivisión de los robots, con base en su arquitectura, se hace en los

siguientes grupos: Poliarticulados, Móviles, Androides, Zoomórficos e Híbridos

   Poliarticulados : Bajo este grupo están los robots de muy diversa forma y

configuración cuya característica común es la de ser básicamente sedentarios -

aunque excepcionalmente pueden ser guiados para efectuar desplazamientoslimitados - y estar estructurados para mover sus elementos terminales en un

determinado espacio de trabajo según uno o más sistemas de coordenadas y

con un número limitado de grados de libertad". En este grupo se encuentran

los manipuladores, los robots industriales, los robots cartesianos y algunos

robots industriales y se emplean cuando es preciso abarcar una zona de trabajo

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 55/70

 

 

relativamente amplia o alargada, actuar sobre objetos con un plano de simetría

vertical o deducir el espacio ocupado en el suelo.

    Móviles : Son robots con gran capacidad de desplazamiento, basados en

carros o plataformas y dotados de un sistema locomotor de tipo rodante.

Siguen su camino por telemando o guiándose por la información recibida de su

entorno a través de sus censores.

Las tortugas motorizadas diseñadas en los años cincuentas, fueron las

precursoras y sirvieron de base a los estudios sobre inteligencia artificial

desarrollados entre 1965 y 1973 en la Universidad de Stranford.

Estos robots aseguran el transporte de piezas de un punto a otro de una

cadena de fabricación. Guiados mediante pistas materializadas a través de la

radiación electromagnética de circuitos empotrados en el suelo, o a través debandas detectadas fotoeléctricamente, pueden incluso llegar a sortear

obstáculos y están dotados de un nivel relativamente elevado de inteligencia.

  Androides : Son robots que intentan reproducir total o parcialmente la forma y

el comportamiento cinemático del ser humano. Actualmente los androides son

todavía dispositivos muy poco evolucionados y sin utilidad práctica, y

destinados, fundamentalmente, al estudio y experimentación.

Uno de los aspectos más complejos de estos robots, y sobre el que secentra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso,

el principal problema es controlar dinámica y coordinadamente en el tiempo

real el proceso y mantener simultáneamente el equilibrio del robot.

   Zoomórficos : Los robots zoomórficos, que considerados en sentido no

restrictivo podrían incluir también a los androides, constituyen una clase

caracterizada principalmente por sus sistemas de locomoción que imitan a los

diversos seres vivos.

A pesar de la disparidad morfológica de sus posibles sistemas de

locomoción es conveniente agrupar a los robots zoomórficos en dos categorías

principales: caminadores y no caminadores. El grupo de los robots

zoomórficos no caminadores está muy poco evolucionado. Cabe destacar,

entre otros, los experimentados efectuados en Japón basados en segmentos

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 56/70

 

 

cilíndricos biselados acoplados axialmente entre sí y dotados de un

movimiento relativo de rotación. En cambio, los robots zoomórficos

caminadores multípedos son muy numeroso y están siendo experimentados en

diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos

terrenos, piloteando o autónomos, capaces de evolucionar en superficies muy

accidentadas. Las aplicaciones de estos robots serán interesante en el campo de

la exploración espacial y en el estudio de los volcanes.

   Híbridos : Estos robots corresponden a aquellos de difícil clasificación cuya

estructura se sitúa en combinación con alguna de las anteriores ya expuestas,

bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo

segmentado articulado y con ruedas, es al mismo tiempo uno de los atributos

de los robots móviles y de los robots zoomórficos. De igual forma puedenconsiderarse híbridos algunos robots formados por la yuxtaposición de un

cuerpo formado por un carro móvil y de un brazo semejante al de los robots

industriales. En parecida situación se encuentran algunos robots antropomorfos

y que no pueden clasificarse ni como móviles ni como androides, tal es el caso

de los robots personales.”

< http://www.geocities.com/loboduke2001/Arquitecturas.html>.

III.1.5. APLICACIONES DE LA ROBÓTICA

“Las novelas de ciencia-ficción nos muestran robots dotados de una inteligencia

igual o superior a la de los hombres, capaces de aprender de sus "errores" y mejorar su

sistema original, pueden convivir con los seres humano de una manera natural. En la

actualidad, estos relatos no están distantes de la realidad que empezamos a vivir. Los

robots empiezan a invadir nuestras vidas, comienzan a aparecer en los lugares menos

esperados, comienzan a reemplazar algunas de nuestras labores más difíciles de realizar.

La robótica se ha ido desarrollando a pasos agigantados. Los robots comienzan a

formar parte de nuestras vidas, y no hay que alarmarnos por esto, sino más bien hay que

sacarle todo el provecho posible para que la ayuda que nos puedan dar, sea bien

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 57/70

 

 

aprovechada. Las aplicaciones mencionadas a continuación no son ni por mucho todas las

existentes, dado que puede haber tantas como nuestra imaginación les quiera dar.”

<http://www.geocities.com/loboduke2001/Aplicaciones.html>.

“En 1995 funcionaban unos 700.000 robots en el mundo industrializado. Más de500.000 se empleaban en Japón, unos 120.000 en Europa Occidental y unos 60.000 en

Estados Unidos. Muchas aplicaciones de los robots corresponden a tareas peligrosas o

desagradables para los humanos. En los laboratorios médicos, los robots manejan

materiales que conlleven posibles riesgos, como muestras de sangre u orina. En otros

casos, los robots se emplean en tareas repetitivas y monótonas en las que el rendimiento

de una persona podría disminuir con el tiempo. Los robots pueden realizar estas

operaciones repetitivas de alta precisión durante 24 horas al día sin cansarse. Uno de los

principales usuarios de robots es la industria del automóvil. La empresa General Motors

utiliza aproximadamente 16.000 robots para trabajos como soldadura por puntos, pintura,

carga de máquinas, transferencia de piezas y montaje. El montaje es una de las

aplicaciones industriales de la robótica que más está creciendo. Exige una mayor

precisión que la soldadura o la pintura y emplea sistemas de censores de bajo coste y

computadoras potentes y baratas. Los robots se usan por ejemplo en el montaje de

aparatos electrónicos, para montar microchips en placas de circuito.

Las actividades que entrañan gran peligro para las personas, como la localizaciónde barcos hundidos, la búsqueda de depósitos minerales submarinos o la exploración de

volcanes activos, son especialmente apropiadas para emplear robots. Los robots también

pueden explorar planetas distantes. La sonda espacial no tripulada Galileo, de la NASA,

viajó a Júpiter en 1996 y realizó tareas como la detección del contenido químico de la

atmósfera joviana.

Ya se emplean robots para ayudar a los cirujanos a instalar caderas artificiales, y

ciertos robots especializados de altísima precisión pueden ayudar en operaciones

quirúrgicas delicadas en los ojos. La investigación en telecirugía emplea robots

controlados de forma remota por cirujanos expertos; estos robots podrían algún día

efectuar operaciones en campos de batalla distantes.” 

<http://www.prodigyweb.net.mx/enrayala/Robotica.htm>.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 58/70

 

 

III.1.6. QUE NOS DEPARA EL FUTURO

“Las expectativas sobre los robots para el futuro no se centran sólo en robots

industriales trabajando en fabricas, sino también en los robots para uso en emergencias,

ayuda y compañía de minusválidos, personas postradas en cama, etc. También se espera alos robots mascota como compañeros de los humanos. Desde el punto de vista del

entretenimiento, también puede esperarse la llegada de robots para jugar y deportivos. Hay

un nuevo plan para desarrollar un robot futbolista que pueda destronar al equipo campeón

mundial en la Robo Cup (en 2050).

En efecto, en el futuro los robots jugarán un papel más importante en nuestra

sociedad. Debemos recordar que los robots son sólo herramientas que nos ayudan a ser más

felices, porque los robots no podrán nunca tener el calor de los humanos y losanimales”.<http://www.hobbykit.biz/historia-robots.htm>.

III.2. VISIÓN ARTIFICIAL

"La visión artificial es una rama de la inteligencia artificial que tiene por objetivo

modelar matemáticamente los procesos de percepción visual en los seres vivos y generar

  programas que permitan simular estas capacidades visuales por computadora.”

<http://www.lania.mx/spanish/actividades/newsletters/1999-primavera-

verano/aplicaciones.html>.

III.2.1. INTRODUCCIÓN

“El término “Visión artificial o Visión por Computadora” dentro del campo de la

Inteligencia Artificial puede considerarse como el conjunto de todas aquellas técnicas ymodelos que nos permitan el procesamiento, análisis y explicación de cualquier tipo de

información espacial obtenida a través de imágenes digitales. Desde sus inicios la Visión

por Computadora ha inspirado sus desarrollos en el estudio del sistema visual humano el

cual sugiere la existencia de diferentes tipos de tratamiento de la información visual

dependiendo de metas u objetivos específicos, es decir, la información visual percibida es

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 59/70

 

 

procesada en distintas formas con base en las características particulares de la tarea a

realizar, por lo que la visión por computadora propone varias técnicas que permiten obtener

una representación del mundo a partir del análisis de imágenes obtenidas desde cámaras de

video.

Debido a que la información visual es una de las principales fuentes de datos del

mundo real, resulta útil el proveer a una computadora digital del sentido de la vista (a partir

de imágenes tomadas con cámaras digitales o analógicas), que junto con otros mecanismos

como el aprendizaje hagan de esta una herramienta capaz de detectar y ubicar objetos en el

mundo real, objetivo principal de la Visión por Computadora.” 

<http://verona.fi-p.unam.mx/fardi/pagina/VISONCOM.htm>.

III.2.2. QUE ES LA VISIÓN ARTIFICIAL

“La visión artificial es como el sentido de la vista de la computadora y nos da la

oportunidad de automatizar y mejorar muchos procesos, tanto en la industria, como en la

medicina. Inclusive, algunas de sus técnicas se emplean en la integración de video en las

redes de cómputo y en la transmisión de imágenes por televisión. También es común el uso

de la compresión de imágenes para su almacenamiento, transmisión y despliegue en todo

Internet.

En la automatización de oficinas se emplea para acelerar los flujos de información ypara convertir de viejos esquemas a nuevos, en la digitalización masiva de documentos, y

en la recuperación de textos de imágenes escaneadas, empleando reconocimiento óptico de

caracteres (OCR, "optical character recognition"). Nuevos servicios en bibliotecas digitales

como la recuperación de imágenes y videos por demanda, son algunas de las nuevas

aplicaciones que están tomando auge.

En la industria se emplean cada vez más los robots, y la visión es uno de los

sentidos clave para producir robots más flexibles y que puedan reaccionar ante situaciones

cambiantes. Un ejemplo claro son los vehículos autónomos, que están siendo desarrollados

en Estados Unidos y Europa, y que permitirán un transporte más rápido, seguro y

eficiente.”

<http://www.lania.mx/spanish/actividades/newsletters/1999-primavera-

verano/aplicaciones.html>.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 60/70

 

 

III.2.3. APLICACIONES

“El amplio espectro de aplicaciones cubierto por la visión por computadora, se debe

a que permite extraer y analizar información espectral, espacial y temporal de los distintosobjetos.

La información espectral incluye frecuencia (color) e intensidad (tonos de gris). La

información espacial se refiere a aspectos como forma y posición (una, dos y tres

dimensiones). La información temporal comprende aspectos estacionarios (presencia y/o

ausencia) y dependientes del tiempo (eventos, movimientos, procesos).

Según el tipo de aplicación, serán el tipo de imagen que será necesario adquirir

(imágenes de rayos X, infrarrojo, etc.) y el análisis que se aplicará. La mayoría de las

aplicaciones de la visión por máquina podemos clasificarlas por el tipo de tarea en

inspección (medición, calibración, detección de fallas), verificación, reconocimiento,

identificación y análisis de localización (posición, guía).

La medición o calibración se refiere a la correlación cuantitativa con los datos del

diseño, asegurando que las mediciones cumplan con las especificaciones del diseño. Por

ejemplo, el checar que un cable tenga el espesor recomendado.

La detección de fallas es un análisis cualitativo que involucra la detección de

defectos o artefactos no deseados, con forma desconocida en una posición desconocida. Porejemplo, encontrar defectos en la pintura de un auto nuevo, o agujeros en hojas de papel.

La verificación es el chequeo cualitativo de que una operación de ensamblaje ha

sido llevada a cabo correctamente. Por ejemplo, que no falte ninguna tecla en un teclado, o

que no falten componentes en un circuito impreso.

El reconocimiento involucra la identificación de un objeto con base en descriptores

asociados con el objeto. Por ejemplo, la clasificación de cítricos (limones, naranjas,

mandarinas, etc.) por color y tamaño. Otro ejemplo de reconocimiento podría ser aplicado a

células, por área y forma.

Identificación es el proceso de identificar un objeto por el uso de símbolos en el

mismo. Por ejemplo, el código de barras, o códigos de perforaciones empleados para

distinguir hule espuma de asientos automotrices.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 61/70

 

 

El análisis de localización es la evaluación de la posición de un objeto. Por

ejemplo, determinar la posición donde debe insertarse un circuito integrado ("chip"). Otro

ejemplo sería la localización automática del contorno de la cabeza en una serie de imágenes

de tomografía y su posterior reconstrucción tridimensional.

Guía significa proporcionar adaptativamente información posicional de

retroalimentación para dirigir una actividad. El ejemplo típico es el uso de un sistema de

visión para guiar un brazo robótico mientras suelda o manipula partes. Otro ejemplo sería la

navegación en vehículos autónomos.”

<http://www.lania.mx/spanish/actividades/newsletters/1999-primavera-

verano/aplicaciones.html>.

III.2.4. BENEFICIOS DE LA VISIÓN ARTIFICIAL

  “Motivaciones económicas. Reduce costos de productos manufacturados al detectar

condiciones de rechazo en el punto de menor valor agregado, al reducir tiempos de

producción, al ahorrar en costos de reparación y mejorar la producción.

  Motivaciones de calidad. Mejora la calidad al inspeccionar el 100% de los

productos, en lugar de realizar inspección por muestreo e incrementa la satisfacción

del cliente. Proporciona predictibilidad en la calidad.  Motivaciones de las personas. Evita ambientes peligrosos o dañinos, elimina

trabajos monótonos y repetitivos, agiliza tareas de inspección que resultan cuellos

de botella en la producción. Evita errores debidos al juicio del operador, cansancio y

falta de atención.

  Motivaciones varias. Automatiza el registro de datos de control de calidad y permite

obtener estadísticas más rápidamente. Proporciona señales de retroalimentación

basadas en análisis de tendencias para controlar los procesos de manufactura.

Funciona como los "ojos" de la automatización.” 

<http://www.lania.mx/spanish/actividades/newsletters/1999-primavera-

verano/aplicaciones.html>.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 62/70

 

 

III.3. PROCESAMIENTO DEL LENGUAJE NATURAL

III.3.1. INTRODUCCIÓN

“El procesamiento del lenguaje natural o simplemente P.L.N. es un área deinteligencia artificial que estudia y desarrolla sistemas que permiten interpretar y generar un

lenguaje natural, es decir, el lenguaje utilizado por los humanos (en contraposición a los

lenguajes computacionales, es decir, artificiales), ya sea en portugués, español, inglés o

cualquier otra lengua. Al abordar las dificultades del P.L.N. intentaremos responder a la

pregunta del título para mostrar que la comunicación con una máquina es mucho más

compleja de lo que uno se imagina.

La comprensión y generación automática del lenguaje natural aún está muy lejos de

volverse una realidad, y no podemos prever cuándo esto va ocurrir. Ya existen varias

aplicaciones originadas de investigaciones en este campo, sin olvidar su importancia

intrínseca en cuanto a sus aplicaciones, que sirven como pasos iniciales para la

comunicación con la computadora. Entre las aplicaciones más sofisticadas, desde el punto

de vista de la comprensión y la generación automática, se destacan los sistemas para

dominios específicos, es decir, sistemas que generan textos en lenguaje natural sobre un

determinado asunto en una cierta área del conocimiento. A esa clase pertenecen los

sistemas especializados que ofrecen diagnósticos médicos en forma automática (en formade texto), con base en informaciones obtenidas sobre el paciente.

Debe resaltarse que estos textos no son simplemente extraídos de mensajes

previamente almacenados (scanned text ), como es usual en las comunicaciones entre una

computadora y los usuarios. Por ejemplo, supongamos que un usuario desea localizar dos

archivos en un directorio determinado. Si los archivos no fuesen encontrados, recibirá un

mensaje del tipo ``sus archivos no fueron encontrados'', ya que este mensaje estaría

almacenado en la memoria de una computadora para ser exhibida en tales situaciones.

Por otro lado, es posible que los archivos estuviesen en otros directorios. Si la

computadora pudiese comprender realmente lo que se le está solicitando, podría buscar los

archivos, y su respuesta podría ser algo como ``sus archivos están en el directorio X'' o ``el

archivo A está en el directorio X'', o ``el archivo B está en el directorio Y''. Podemos

percibir que, para ofrecer tales mensajes, la computadora, además de tener la información

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 63/70

 

 

sobre la localización de los archivos en los directorios, debería ser capaz de ``originar'' las

oraciones a ser exhibidas, inclusive un conocimiento de gramática de la lengua, para

respetar las reglas de ``concordancia nominal o verbal'', por ejemplo.

Aquí sería bueno hacer una advertencia sobre las noticias frecuentemente aparecidas

en los medios de comunicación, que muestran a los sistemas computacionales inteligentes,

capaces de reconocer la voz humana y obedecer comandos hablados. Esos sistemas son,

generalmente, restringidos a un conjunto bastante pequeño de comandos que tienen su valor

sobre todo por el procesamiento de sonido en el reconocimiento de los fonemas de un cierto

usuario que habla en determinada lengua, y no por el procesamiento del lenguaje natural. El

mito de que la solución para la comunicación en lenguaje natural está cerca de ser resuelto,

también se extiende a la traducción automática, área investigada desde hace varias décadas,

que consiste en la traducción de textos de determinada lengua a otra. Debe resaltarsenuevamente que los traductores automáticos existentes, también actúan en dominios

limitados.

Por dominio limitado se entiende un área particular del conocimiento con un

número finito y pequeño de palabras, generalmente utilizadas en contextos únicos, sin dar

margen a ambigüedades, que son comunes en el uso diario de la lengua. Tales

ambigüedades se resuelven fácilmente en una conversación entre humanos, en general a

través de un análisis (tal vez inconsciente) del contexto, lo que constituye un enorme

problema para el tratamiento automático de la lengua. Por ejemplo en la expresión ``el

hombre vio una mujer en la montaña con binóculos'', no hay duda para un humano, de

quién estaba usando los binóculos, pero ciertamente una máquina necesitaría tener mucho

conocimiento para inferir que era el hombre quien usaba los binóculos.” 

<http://www.smf.mx/boletin/Jul-98/articles/speak.html>.

III.3.2. APLICACIONES DEL PROCESAMIENTO DE LENGUAJENATURAL

“El objetivo final del tratamiento automático del lenguaje natural señala el deseo de

que sus usuarios puedan comunicarse con la computadora a través del lenguaje cotidiano,

es decir el usado diariamente, y no a través de lenguajes limitados que requieren de cierto

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 64/70

 

 

entrenamiento específico, como serían los llamados lenguajes de programación. Si eso

fuese posible, cualquier persona podría delegar tareas a las computadoras o trabajar

conjuntamente con ellas, sin necesidad de entrenamiento previo. Así es como suponían los

hechos los autores de ciencia ficción de algunas décadas atrás. Sin embargo, existen

muchas otras aplicaciones posibles de la computadora en la vida cotidiana realizadas por

usuarios sin experiencia que pueden beneficiarse del P.L.N.

Tal vez un beneficio importante es la creciente utilización de la computadora en la

educación. Ese tema ha sido abordado ampliamente en los países más desarrollados, debido

principalmente a la preocupación de encontrar formas eficaces de ayuda en el aprendizaje.

Se han hecho críticas vehementes a dichos trabajos, principalmente porque la manera en

que son abordados consisten tan sólo en transferir material didáctico de libros, películas,

etc. a un medio electrónico. De hecho, si quisiéramos convertir una computadora en unaherramienta eficiente de apoyo a la enseñanza, debe irse más allá de producir interfaces

agradables y bonitas, y navegar en el universo de los procesos de adquisición del

conocimiento de los usuarios aprendices. Auxiliar a los alumnos en el proceso de

alfabetización, en el aprendizaje de una lengua extranjera o en el propio proceso de escribir

textos, es una tarea bastante compleja.

Una forma de utilización más específica de las computadoras asociadas al

procesamiento de textos en lenguaje natural es respecto a las herramientas de auxilio en la

escritura. Se han creado varias herramientas de software como auxiliar en la escritura de

diversos tipos de texto que incluyen artículos científicos. En general, las herramientas

pueden ser clasificadas en tres categorías: herramientas de pre-procesamiento de texto,

mediante las cuales la computadora ofrece soporte para que un escritor organice sus ideas

relativas a lo que va a escribir (actividad denominada en inglés brain storming);

herramientas de post-procesamiento de texto, que ofrecen ayuda en la corrección y/o

revisión de un texto anteriormente preparado; y, los llamados ambientes de auxilio a la

escritura (conocidos como Computer- Aided Writing Environments). Estos últimos son más

sofisticados, y generalmente engloban herramientas de pre y post procesamiento, además

de las herramientas adicionales capaces de auxiliar al escritor para transformar sus ideas

iniciales en texto.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 65/70

 

 

Otra aplicación del P.L.N. radica en el auxilio para la escritura de un texto en lengua

extranjera. Por ejemplo, la necesidad que tienen los científicos de escribir en inglés generó

un proyecto en la Universidad de São Paulo, campus de São Carlos, Brasil, para el

desarrollo de herramientas que auxiliasen a los escritores, cuya lengua madre no es el

inglés, a escribir artículos científicos en esa lengua. En estas herramientas lo que se busca

es ofrecer partes de texto, contextualizados, para evitar que el científico haga una

``traducción'' del contenido del artículo al inglés, bajo una fuerte influencia de su lengua

materna, que en el caso del portugués o español, presenta características distintas con

relación a la estructuración de las oraciones, entre otras diferencias. Por ejemplo, la

expresión ``Se observó un aumento en la población'', podría ser traducida como `  ̀ It was

observed an increase in the population'', manteniendo la estructura de la oración original.

Sin embargo, aunque sea correcta gramaticalmente, esta estructura difícilmente seríaempleada por un ciudadano de lengua inglesa, que proba- blemente preferir la oración:

`  ̀An increase in the population was observed ''.

De entre las herramientas de software de auxilio a la escritura, ciertamente las más

desarrolladas son las de post-procesamiento, es decir, los revisores ortográficos y

gramaticales, muchos de los cuales ya están en el mercado desde hace varios años,

principalmente para textos escritos en inglés. Estos revisores detectan, en primera instancia,

errores ortográficos provenientes principalmente de fallas de digitación. Ese tipo de

revisores son bastante simples conceptualmente, pues basta comparar las palabras del texto

con las de un banco de palabras mantenido en la memoria de la computadora y verificar si

existen. La única dificultad estaría, entonces, en la necesidad de almacenar un gran número

de palabras y realizar consultas al banco de datos de manera rápida. Estos problemas ya

fueron superados y los revisores ortográficos disponibles son bastante eficientes, inclusive

ofrecen sugerencias de palabras alternativas a aquella palabra no encontrada, generalmente

a través de un análisis de similitud entre las palabras buscadas y las palabras que están

disponibles en el banco de datos. Además de la revisión ortográfica, existen revisores que

detectan errores de mala formación de oraciones y de concordancia, entre otros. Para la

detección de este último tipo de errores, hay que ofrecer un conocimiento previo al sistema

computacional que deba ser capaz no sólo de reconocer las palabras del texto, sino también

categorizarlas, es decir, dada una palabra, es necesario verificar si esa palabra es un

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 66/70

 

 

sustantivo, adjetivo o verbo, si fuese sustantivo, si es masculino, singular, etc. El revisor

debe tener también un conocimiento de las reglas gramaticales de la lengua en cuestión. A

pesar de los enormes avances alcanzados hasta ahora, todavía hay mucho que hacer para

que la revisión automática se aproxime a aquella que puede ser hecha por un humano

competente en el uso de la lengua.

Más adelante abordaremos en detalle los problemas y soluciones adoptadas en el

desarrollo de un revisor para portugués de Brasil y se ilustrarán sus limitaciones.

A pesar de ser reciente el interés en el desarrollo de revisores gramaticales, desde el

punto de vista de mercado de software, el procesamiento de lenguaje natural en lengua

portuguesa, fue iniciado hace muchos años, casi siempre en trabajos de tipo académico. Por

esa razón, los tópicos abordados en general tenían un alto grado de complejidad, pues

atacaban fenómenos lingüísticos de difícil tratamiento, inclusive para los humanos. Sonejemplo de ello los tratamientos de ambigüedades, problemas de orden semántico y

omisiones de palabras que pueden ser rescatadas en el contexto en que se dan. Considere el

ejemplo ``El hombre volvió de la guerra. Estaba enflaquecido'' Si bien la frase no sea

explícita en la segunda oración, es fácil (para un humano) percibir que el sujeto de la

segunda oración es el mismo ``hombre'' mencionado en la primera frase. Sin embargo, esa

conclusión está lejos de ser obvia para un sistema automático de tratamiento de lenguaje

natural y aun hoy presenta serios problemas para un sistema de corrección.

Algunos años atrás una dificultad adicional era la restricción de los recursos

computacionales, en términos de hardware, capacidad de memoria, etc., mucho más

limitados que los actuales. Eso significa que problemas de fácil solución, no la tenían hace

5 ó 10 años. Los algoritmos de búsqueda, extremadamente eficientes, antes indispensables

en ciertas situaciones, hoy pueden no ser tan relevantes para esas mismas situaciones.

Para darnos una idea de la evolución de la capacidad computacional, herramientas

como el Revisor Gramatical que se presenta a continuación, actualmente pueden ser

utilizados en microcomputadoras tipo PC, mientras que los primeros revisores en la década

de los ochentas requerían computadoras mainframes para ser ejecutados, lo que restringía

severamente su utilización en contextos reales.

Al hacer una comparación gramatical, por ejemplo en inglés, en principio se deben

esperar dificultades mayores que en el procesamiento de un texto en portugués o español.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 67/70

 

 

La semejanza de la lengua española y otras lenguas latinas, hace que la lengua portuguesa

utilice más tiempos verbales y flexiones de los sustantivos y adjetivos que la lengua

inglesa. Otro factor que hace más complicado el asunto está en las múltiples posibilidades

de estructuración de una oración determinada. Entre otros ejemplos, se puede citar la

alternancia de posiciones entre sustantivo y adjetivo, que puede llevarnos hasta un cambio

en el sentido de la oración. Ése es el caso de la expresión ``hombre grande'' que tiene un

significado diferente cuando decimos ``grande hombre''.

Otra dificultad, ahora común en muchas lenguas, es la existencia de la polisemia

(una misma palabra puede tener varios significados diferentes), o bien de homografía

(palabras diferentes pueden ser escritas de la misma manera). El fenómeno conocido como

polisemia puede ser ilustrado por la palabra portuguesa cadeiras (silla), tanto en plural

como singular, que puede expresar también la parte inferior del cuerpo humano (caderas).En cuanto a la homografía puede ejemplificarse por medio de las palabras governo 

(gobierno en portugués) sustantivo masculino, y governo, primera persona de indicativo del

verbo gobernar. Esos dos fenómenos generan un gran número de ambigüedades, muchas

veces sólo esclarecidas cuando las asociamos en un contexto. Sin embargo, un análisis de

este último casi siempre es impracticable para los sistemas de tratamiento de lenguaje

natural, por lo menos en su estado actual de desarrollo. Eso porque tal análisis exigiría un

conocimiento del ``mundo'' que no es fácilmente ``colocado'' en un sistema computacional,

a no ser, como ya mencionamos, en contextos de dominios limitados.”

<http://www.smf.mx/boletin/Jul-98/articles/speak.html>.

G L O S A R I O

-  Algoritmo : Conjunto de reglas bien definidas para la resolución de un problema. Un

programa de software es la trascripción, en lenguaje de programación, de un algoritmo.

- Autómata : Máquina que imita la figura y los movimientos de un ser animado.

-  Base de Datos : Conjunto de datos organizados que se puede editar y gestionar para

buscar información o trabajar con ella.

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 68/70

 

 

-  Cibernética: Ciencia que estudia el diseño de máquinas automáticas o robots con

objeto de dotarles de inteligencia humana.

-  Dato Booleano : Es aquel que puede tomar sólo dos valores posibles Falso o Verdadero

para operar.

-  Deep Blue : Computadora capas de jugar ajedrez. Derroto al campeón mundial Gary

Kasparov en 1997.

-  Hardware : Es la parte física de una computadora, ya sea interna como el

microprocesador o externo como la impresora.

-  Heurística : Trata de métodos o algoritmos exploratorios durante la resolución de

problemas en los cuales las soluciones se descubren por la evaluación del progreso

logrado en la búsqueda de un resultado final.

-  LISP : Lenguaje de programación que sirve como herramienta de modelado deprogramas para la Inteligencia Artificial.

-  Microordenador : Sin. De Microcomputadora.

-  Ordenador : Sin. de Computadora.

-  Programa : Secuencia de instrucciones correspondientes a un algoritmo.

-  Prolog  : Es un lenguaje de programación que es usado para resolver problemas que

envuelven objetos y las relaciones entre ellos.

Software : Son todos los programas que se utilizan para el funcionamiento total de una

computadora.

C O N C L U S I O N E S

Si bien es cierto el hombre desde ya hace muchos siglos atrás a intentado “dar vida

artificial” a otros seres, en la actualidad no lo a conseguido del todo. La Inteligencia

Artificial es una rama del conocimiento que se encarga del estudio de los métodos más

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 69/70

 

 

adecuados para lograrlo, son grandes los avances que se han alcanzado en algunas áreas

pero no tan grandes en otras.

¿Algún día seremos desplazados por máquinas “inteligentes”?, hay quienes piensan

que si y quienes piensan que no, la verdad es que de cierta manera ya hemos sido

reemplazados en algunos trabajos se son muy peligrosos o demasiado desgastantes para el

ser humano, aunque estas máquinas realizan sus trabajos todavía manejadas por un

operador humano o un programa simple de computadora, en un futuro tal vez no muy

lejano tendrán la capacidad de hacerlo por si mismas y sólo dependerán de nosotros para su

mantenimiento – o tal vez no -.

No hay que olvidar que la I.A. no sólo esta presente en los robots, también lo estará

en automóviles capaces de manejarse por si mismos y regular la velocidad de acuerdo al

estado de animo de su conductor, en casas capaces de saber donde se encuentran sushabitantes, administrar luz, gas y demás quehaceres, en fin, existen gran número de

aplicaciones destinadas a estos propósitos, pero sólo el tiempo dirá hasta donde nos será

 posible llegar en nuestro afán de “dar vida artificial” a seres inanimados. 

Por el momento la I.A. es una herramienta mas del hombre, pero tal vez en el futuro

el hombre sólo sea una herramienta para la I.A., eso dependerá de nosotros.

B I B L I O G R A F I A

http://www.monografias.com/trabajos12/inteartf/inteartf.shtml 

http://www.dcc.uchile.cl/~abassi/Cursos/IA/Apuntes/apuntes.html 

http://www.monografias.com/trabajos10/intelart/intelart.shtml 

http://www.hemerodigital.unam.mx/ANUIES/itam/estudio/estudio10/sec_16.html 

http://www.imagia.com.mx/hmm/va/VAhist.html 

http://www.unesco.org/courier/2000_12/sp/medias.htm 

5/7/2018 Inteligencia Artificial - slidepdf.com

http://slidepdf.com/reader/full/inteligencia-artificial-559abd0ddb3d3 70/70

 

 

http://www.itlp.edu.mx/publica/boletines/actual/inteligencia.html 

http://www.servitel.es/inforsalud97/41/41.htm

http://www.dc.uba.ar/people/materias/aa/  

http://www.uam.es/personal_pdi/psicologia/adarraga/studs/Xerxes/Pag5.html 

http://www.dwcolombia.com/orbita/concepto.html 

http://www.control-automatico.net/recursos/articulos/art085.htm 

http://www.geocities.com/SiliconValley/Pines/7894/introduccion/expertos.html 

http://www.informaticaintegral.net/sisexp.html 

http://www.esi2.us.es/~dco/sistemas.htm 

http://www.geocities.com/neb22002/nebiap.html 

http://www.geocities.com/loboduke2001/Aplicaciones.html 

www.honda.co.jp/english/technology/robot 

http://www.robotics.freeservers.com/robothoy.htm 

http://www.smf.mx/boletin/Jul-98/articles/speak.html 

http://www.lania.mx/spanish/actividades/newsletters/1999-primavera-verano/aplicaciones.html 

http://verona.fi-p.unam.mx/fardi/pagina/VISONCOM.htm