Intro y m.t. - Inteligencia Artificial
-
Upload
rodrigo-gabrielli-gonzalez -
Category
Documents
-
view
213 -
download
0
description
Transcript of Intro y m.t. - Inteligencia Artificial
INTRODUCCIÓN
Una de las nuevas herramientas con que cuenta el desarrollo de productos electrónicos, es
la Inteligencia Artificial (IA), a través de ella, se implementan una serie de algoritmos que
permiten realizar prototipos, llamados “inteligentes”, pues usan procesos de aprendizaje
autónomo y adaptable, generando avances tecnológicos cada vez más versátiles.
El objeto de estudio es la implementación de los algoritmos usados en inteligencia
artificial, para comprobar su desempeño, luego generar el material didáctico que permita su
divulgación, usando los diseños elaborados, fruto de la investigación. En éste caso se toman
dos referentes, uno las Redes Neuronales, dado su impacto e importancia en el desarrollo de
algoritmos, que emulan el comportamiento del cerebro humano, frente a los algoritmos
genéticos, los cuales se adaptan a la situación que se enfrentan, obedeciendo a las leyes de
la genética evolutiva en la arquitectura del programa.
La Inteligencia Artificial (IA), nace en la década de los 40, con la máquina de Alan
Turing3, comprobándose que un proceso puede implementarse en un dispositivo
electrónico. A través de su historia, se han concebido ideas que se llevan a la práctica,
mediante algoritmos, cada uno de ellos con características específicas, pero que buscan el
mismo objetivo, generar dispositivos “inteligentes”, que suplan las tareas que para el ser
humano, son repetitivas o que requieren de alta precisión, alta velocidad de procesamiento
y respuesta, aunque la teoría va un paso delante de la aplicación, hoy en día se han
efectuado un sinnúmero de aplicaciones. En nuestro país, el desarrollo tecnológico se da en
los procesos de investigación, mercadeo de innovaciones, tecnologías de la información y
telecomunicaciones, asistencia técnica y consultoría, ingeniería y diseño industrial, entre
otros, requiriendo profesionales con experiencia en las últimas tendencias, usadas en
mencionado campo del desarrollo tecnológico (Inteligencia Artificial).
La vida artificial es conceptualmente parecida a la inteligencia artificial, aunque -por
supuesto- existen una serie de diferencias clave. Mientras la última intenta comprender y
abstraer la esencia conceptual de la inteligencia, la primera intenta comprender y abstraer la
esencia conceptual de los sistemas vivos. No obstante, la línea divisoria entre ellas es
bastante borrosa y se va debilitando a medida que pasa el tiempo, a tal punto que muchos
investigadores predicen que convergerán en el futuro. La inteligencia, en definitiva, es un
producto de la evolución; y dado que la vida biológica y la inteligencia son mutuamente
dependientes, también la vida artificial y la inteligencia artificial exhiben una cierta
codependencia.
La arquitectura básica de estos sistemas consiste en un abrumador número de “criaturas”
relativamente simples, que forman densas redes de interacción y operan paralela y
simultáneamente sin que exista un control central. Los comportamientos individuales no
están programados implícitamente; los científicos sólo se limitan a darles un conjunto
reducido de reglas de interacción que especifican lo que debe hacer cada una de ellas de
acuerdo con la situación en que se encuentre. Nadie es capaz de saber con precisión qué
actitud tomará cualquiera de ellas en un momento dado.
El uso de la inteligencia artificial se ha convertido en más común en los sistemas de control
industriales y de procesos de fabricación en los últimos años. Las ventajas de los sistemas
de inteligencia artificial incluyen: la rápida transferencia de conocimiento experto en toda
una industria, especialmente las industrias jóvenes que no cuentan con suficientes expertos
disponibles; una reducción de los costes laborales debido a la automatización de todas las
funciones primarias; la estabilidad y la mejora de la eficiencia del proceso; y una mejor
comprensión del proceso a través del desarrollo y las pruebas de las reglas.
Una meta fundamental de la inteligencia artificial (IA), es la manipulación del lenguaje
natural utilizando herramientas de computación (programas). Los lenguajes formales
(programación) juegan un papel importante, ya que facilitarían el enlace necesario entre los
lenguajes naturales y su manipulación por una máquina.
El presente proyecto es una estrategia pertinente, que busca dar respuesta a la imperante
necesidad de apoyar a los estudiantes, de los programas de Ingeniería Agroindustrial, para
explorar los algoritmos relacionados con la inteligencia artificial, dada la necesidad
evidente, abriendo los espacios y ofreciendo como objeto de estudio la comparación de los
niveles de desempeño de los algoritmos usados en inteligencia artificial, generando material
didáctico que permita evidenciar dicho parámetro de comparación, inicialmente usando los
algoritmos de las redes neuronales y los algoritmos genéticos.
ANTECEDENTES
Se puede considerar que el primer estudio sitemático sobre redes neuronales se debe a
MacCulloch y Pitts los cuales publicaron en 1943 y 1947 el primero modelo computacional
de una neurona biológica.
El trabajo de MacCulloch y Pitts se centró básicamente en modelizar una neurona
describiendo los elementos básicos de una única neurona artificial si bien nunca dieron el
paso a construir redes de neuronas artificiales.
El siguiente paso relevante lo constituye el trabajo de Donald Hebb, el cual publicó en 1961
su obra titulada La organización de la conducta en la cual aparece enunciado su famoso
principio de aprendizaje por refuerzo. El conocido como aprendizaje hebbiano defiende
que el peso o la intensidad de una conexión sinápticas e incrementa siempre que se activan
simultáneamente el input y el output de una neurona.
Este modelo de aprendizaje propuesto por Hebb constituirá la base de todos los sistemas de
aprendizaje por refuerzo de las distintas redes neuronales también denominados
“aprendizaje no supervisado”.
El siguiente paso fue dado por Rosenblatt el cual publicó un trabajo centrado en lo que se
denominará “aprendizaje supervisado”. Si en los modelos basados en el aprendizaje
hebbiano no se tiene en cuenta la señal deseada, ahora, en estos nuevos modelos de
aprendizaje será fundamental la salida que se quiere obtener.
La diferencia entre la señal producida por la red neuronal y la señal deseada será el error de
salida el cual será necesario ir corrigiendo disminuyendo dicho error hasta que ambos
outputs coincidan en cuyo caso la red habrá “aprendido”. Dicha disminución del error se
produce mediante sucesivas iteraciones en las que, en cada una de ellas, se lanza un patrón
de inputs y en las sucesivas iteraciones se van corrigiendo el valor de los pesos sinápticos
hasta que se encuentre una combinación de dichos pesos que produce el output buscado. A
este tipo de redes con la regla de aprendizaje supervisado se les denominará “perceptrones”
o “perceptrón de Rossenbalt”.
Por las mismas fechas, a inicios de los 60, Widrow y Hoff publicaron sus trabajos
proponiendo lo que se denomina ADALINE (ADAptive LINear Elements) con el algoritmo
de aprendizaje denominado LMS (Least Mean Square) dentro del grupo de sistemas de
aprendizaje supervisado y basado en perceptrones.
Pero si el programa conexionista parecía avanzar con fuerza, el trabajo de Minsky y Papert
mostró qué clases de funciones no eran computables por los perceptrones lo cual supuso un
serio revés para esta línea de investigación. Uno de los ejemplos de función no compatible
que pusieron de manifiesto Minsky y Papert fue la función XOR (disyunción exclusiva)
dado que no es una función linealmente separable.
Si bien la crítica de Minsky y Papert supuso un parón importante en el desarrollo de este
programa de investigación debido también a su enorme prestigio, la existencia de este
problema ya era conocida por lo que se propuso el denominado “perceptrón multicapa” o
MLP (Multi Layer Perceptron). No obstante, Minsky y Papert alegaban que incluso en el
caso de perceptrones multicapa los algoritmos de aprendizaje no eran bien conocidos. Por
todo ello la investigación dentro de esta línea se paralizó durante casi veinte años.
A pesar de dicha paralización, después del parón mencionado, se pudo demostrar que
empleando funciones sigmoideas como función de salida de cada neurona es posible llevar
a cabo cualquier clase de clasificación. Es cierto, como argumentaban Minsky y Papert, que
los perceptrones de una sola capa no funcionan más que como meros “discriminadores”. No
obstante, con la introducción del algoritmo de aprendizaje conocido como
“retropropagación” (backpropagation) y el empleo de funciones sigmoideas, el hecho es
que las redes multicapa se convierten en “aproximadores” resolviendo cualquier problema
de clasificación.
Se puede decir que el desarrollo del algoritmo de retropropagación superó el parón
generado por lacrítica de Minsky y Papert dando nuevo vigor al programa conexionista.
Dicho algoritmo fue desarrollado de manera independiente por autores como Werbos,
Rumelhart et al. (conocido como “Grupo PDP” –Parallel Distributed Processing Research
Group-) y Parker en fechas casi simultáneas.