Intro y m.t. - Inteligencia Artificial

8
INTRODUCCIÓN Una de las nuevas herramientas con que cuenta el desarrollo de productos electrónicos, es la Inteligencia Artificial (IA), a través de ella, se implementan una serie de algoritmos que permiten realizar prototipos, llamados “inteligentes”, pues usan procesos de aprendizaje autónomo y adaptable, generando avances tecnológicos cada vez más versátiles. El objeto de estudio es la implementación de los algoritmos usados en inteligencia artificial, para comprobar su desempeño, luego generar el material didáctico que permita su divulgación, usando los diseños elaborados, fruto de la investigación. En éste caso se toman dos referentes, uno las Redes Neuronales, dado su impacto e importancia en el desarrollo de algoritmos, que emulan el comportamiento del cerebro humano, frente a los algoritmos genéticos, los cuales se adaptan a la situación que se enfrentan, obedeciendo a las leyes de la genética evolutiva en la arquitectura del programa. La Inteligencia Artificial (IA), nace en la década de los 40, con la máquina de Alan Turing3, comprobándose que un proceso puede implementarse en un dispositivo electrónico. A través de su historia, se han concebido ideas que se llevan a la práctica, mediante algoritmos, cada uno de ellos con

description

Inteligencia Artificial

Transcript of Intro y m.t. - Inteligencia Artificial

Page 1: Intro y m.t. - Inteligencia Artificial

INTRODUCCIÓN

Una de las nuevas herramientas con que cuenta el desarrollo de productos electrónicos, es

la Inteligencia Artificial (IA), a través de ella, se implementan una serie de algoritmos que

permiten realizar prototipos, llamados “inteligentes”, pues usan procesos de aprendizaje

autónomo y adaptable, generando avances tecnológicos cada vez más versátiles.

El objeto de estudio es la implementación de los algoritmos usados en inteligencia

artificial, para comprobar su desempeño, luego generar el material didáctico que permita su

divulgación, usando los diseños elaborados, fruto de la investigación. En éste caso se toman

dos referentes, uno las Redes Neuronales, dado su impacto e importancia en el desarrollo de

algoritmos, que emulan el comportamiento del cerebro humano, frente a los algoritmos

genéticos, los cuales se adaptan a la situación que se enfrentan, obedeciendo a las leyes de

la genética evolutiva en la arquitectura del programa.

La Inteligencia Artificial (IA), nace en la década de los 40, con la máquina de Alan

Turing3, comprobándose que un proceso puede implementarse en un dispositivo

electrónico. A través de su historia, se han concebido ideas que se llevan a la práctica,

mediante algoritmos, cada uno de ellos con características específicas, pero que buscan el

mismo objetivo, generar dispositivos “inteligentes”, que suplan las tareas que para el ser

humano, son repetitivas o que requieren de alta precisión, alta velocidad de procesamiento

y respuesta, aunque la teoría va un paso delante de la aplicación, hoy en día se han

efectuado un sinnúmero de aplicaciones. En nuestro país, el desarrollo tecnológico se da en

los procesos de investigación, mercadeo de innovaciones, tecnologías de la información y

telecomunicaciones, asistencia técnica y consultoría, ingeniería y diseño industrial, entre

otros, requiriendo profesionales con experiencia en las últimas tendencias, usadas en

mencionado campo del desarrollo tecnológico (Inteligencia Artificial).

La vida artificial es conceptualmente parecida a la inteligencia artificial, aunque -por

supuesto- existen una serie de diferencias clave. Mientras la última intenta comprender y

abstraer la esencia conceptual de la inteligencia, la primera intenta comprender y abstraer la

Page 2: Intro y m.t. - Inteligencia Artificial

esencia conceptual de los sistemas vivos. No obstante, la línea divisoria entre ellas es

bastante borrosa y se va debilitando a medida que pasa el tiempo, a tal punto que muchos

investigadores predicen que convergerán en el futuro. La inteligencia, en definitiva, es un

producto de la evolución; y dado que la vida biológica y la inteligencia son mutuamente

dependientes, también la vida artificial y la inteligencia artificial exhiben una cierta

codependencia.

La arquitectura básica de estos sistemas consiste en un abrumador número de “criaturas”

relativamente simples, que forman densas redes de interacción y operan paralela y

simultáneamente sin que exista un control central. Los comportamientos individuales no

están programados implícitamente; los científicos sólo se limitan a darles un conjunto

reducido de reglas de interacción que especifican lo que debe hacer cada una de ellas de

acuerdo con la situación en que se encuentre. Nadie es capaz de saber con precisión qué

actitud tomará cualquiera de ellas en un momento dado.

El uso de la inteligencia artificial se ha convertido en más común en los sistemas de control

industriales y de procesos de fabricación en los últimos años. Las ventajas de los sistemas

de inteligencia artificial incluyen: la rápida transferencia de conocimiento experto en toda

una industria, especialmente las industrias jóvenes que no cuentan con suficientes expertos

disponibles;  una reducción de los costes laborales debido a la automatización de todas las

funciones primarias;  la estabilidad y la mejora de la eficiencia del proceso; y una mejor

comprensión del proceso a través del desarrollo y las pruebas de las reglas. 

Una meta fundamental de la inteligencia artificial (IA), es la manipulación del lenguaje

natural utilizando herramientas de computación (programas). Los lenguajes formales

(programación) juegan un papel importante, ya que facilitarían el enlace necesario entre los

lenguajes naturales y su manipulación por una máquina.

El presente proyecto es una estrategia pertinente, que busca dar respuesta a la imperante

necesidad de apoyar a los estudiantes, de los programas de Ingeniería Agroindustrial, para

explorar los algoritmos relacionados con la inteligencia artificial, dada la necesidad

evidente, abriendo los espacios y ofreciendo como objeto de estudio la comparación de los

niveles de desempeño de los algoritmos usados en inteligencia artificial, generando material

didáctico que permita evidenciar dicho parámetro de comparación, inicialmente usando los

algoritmos de las redes neuronales y los algoritmos genéticos.

Page 3: Intro y m.t. - Inteligencia Artificial

ANTECEDENTES

Se puede considerar que el primer estudio sitemático sobre redes neuronales se debe a

MacCulloch y Pitts los cuales publicaron en 1943 y 1947 el primero modelo computacional

de una neurona biológica.

El trabajo de MacCulloch y Pitts se centró básicamente en modelizar una neurona

describiendo los elementos básicos de una única neurona artificial si bien nunca dieron el

paso a construir redes de neuronas artificiales.

El siguiente paso relevante lo constituye el trabajo de Donald Hebb, el cual publicó en 1961

su obra titulada La organización de la conducta en la cual aparece enunciado su famoso

principio de aprendizaje por refuerzo. El conocido como aprendizaje hebbiano defiende

que el peso o la intensidad de una conexión sinápticas e incrementa siempre que se activan

simultáneamente el input y el output de una neurona.

Este modelo de aprendizaje propuesto por Hebb constituirá la base de todos los sistemas de

aprendizaje por refuerzo de las distintas redes neuronales también denominados

“aprendizaje no supervisado”.

El siguiente paso fue dado por Rosenblatt el cual publicó un trabajo centrado en lo que se

denominará “aprendizaje supervisado”. Si en los modelos basados en el aprendizaje

hebbiano no se tiene en cuenta la señal deseada, ahora, en estos nuevos modelos de

aprendizaje será fundamental la salida que se quiere obtener.

La diferencia entre la señal producida por la red neuronal y la señal deseada será el error de

salida el cual será necesario ir corrigiendo disminuyendo dicho error hasta que ambos

outputs coincidan en cuyo caso la red habrá “aprendido”. Dicha disminución del error se

produce mediante sucesivas iteraciones en las que, en cada una de ellas, se lanza un patrón

de inputs y en las sucesivas iteraciones se van corrigiendo el valor de los pesos sinápticos

hasta que se encuentre una combinación de dichos pesos que produce el output buscado. A

este tipo de redes con la regla de aprendizaje supervisado se les denominará “perceptrones”

o “perceptrón de Rossenbalt”.

Page 4: Intro y m.t. - Inteligencia Artificial

Por las mismas fechas, a inicios de los 60, Widrow y Hoff publicaron sus trabajos

proponiendo lo que se denomina ADALINE (ADAptive LINear Elements) con el algoritmo

de aprendizaje denominado LMS (Least Mean Square) dentro del grupo de sistemas de

aprendizaje supervisado y basado en perceptrones.

Pero si el programa conexionista parecía avanzar con fuerza, el trabajo de Minsky y Papert

mostró qué clases de funciones no eran computables por los perceptrones lo cual supuso un

serio revés para esta línea de investigación. Uno de los ejemplos de función no compatible

que pusieron de manifiesto Minsky y Papert fue la función XOR (disyunción exclusiva)

dado que no es una función linealmente separable.

Si bien la crítica de Minsky y Papert supuso un parón importante en el desarrollo de este

programa de investigación debido también a su enorme prestigio, la existencia de este

problema ya era conocida por lo que se propuso el denominado “perceptrón multicapa” o

MLP (Multi Layer Perceptron). No obstante, Minsky y Papert alegaban que incluso en el

caso de perceptrones multicapa los algoritmos de aprendizaje no eran bien conocidos. Por

todo ello la investigación dentro de esta línea se paralizó durante casi veinte años.

A pesar de dicha paralización, después del parón mencionado, se pudo demostrar que

empleando funciones sigmoideas como función de salida de cada neurona es posible llevar

a cabo cualquier clase de clasificación. Es cierto, como argumentaban Minsky y Papert, que

los perceptrones de una sola capa no funcionan más que como meros “discriminadores”. No

obstante, con la introducción del algoritmo de aprendizaje conocido como

“retropropagación” (backpropagation) y el empleo de funciones sigmoideas, el hecho es

que las redes multicapa se convierten en “aproximadores” resolviendo cualquier problema

de clasificación.

Se puede decir que el desarrollo del algoritmo de retropropagación superó el parón

generado por lacrítica de Minsky y Papert dando nuevo vigor al programa conexionista.

Dicho algoritmo fue desarrollado de manera independiente por autores como Werbos,

Rumelhart et al. (conocido como “Grupo PDP” –Parallel Distributed Processing Research

Group-) y Parker en fechas casi simultáneas.

Page 5: Intro y m.t. - Inteligencia Artificial