Adaline Inteligencia Artificial

3
AbstractEste documento tiene como finalidad realizar una pequeel explicar el funcionamiento de la neurona artificial llamada Perceptron, para ello se lo ha codificado en el lenguaje de programación JAVA. Proveerá un resultado, previo a un entrenamiento, a partir de dos entradas. I. OBJETIVOS L objetivo principal del laboratorio realizar una investigación sobre el ADALINE. II. INTRODUCCION STE documento va tratar sobre la definición, funcionamiento, función de activación, método de aprendizaje del ADALINE así como sus diferencias con el Perceptron. III. MARCO TEORICO La red tipo Perceptrón fue inventada por el sicólogo Frank Rosenblatt en el año 1957. Su intención era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones específicas y desconocidas para organismos biológicos concretos. Rosenblatt creía que la conectividad existente en las redes biológicas tiene un elevado porcentaje de aleatoriedad, por lo que se oponía al análisis de McCulloch Pitts en el cual se empleaba lógica simbólica para analizar estructuras bastante idealizadas ADALINE que por sus siglas en inglés significa ADAptive LINear Element es un dispositivo que consta de un solo elemento de procesamiento, por lo que técnicamente no es una red. Sin embargo es un elemento muy importante, ya que de él se derivan redes más complejas. Figura 1: Adaline (ADAptive LINear Element). Una ADALINE consiste de un ALC (Adaptive Linear Combiner) y un cuantizador (función bipolar de salida). Se alimenta con un vector de entrada (valores observados) y con una entrada constante igual a 1 denominada sesgo (bias). Posteriormente se efectúa una suma ponderada de los valores de entrada con sus pesos asociados; si el resultado es positivo, la salida del ADALINE es 1, en caso contrario es 0 (o -1). En consecuencia ADALINE sólo resuelve adecuadamente problemas binarios linealmente separables. En el año de 1060 Bernard Widrow y Marcian Hoff, presentaron el ADALINE, y una regla de aprendizaje la cual denominaron algoritmo LMS (least mean squeare). El ADALINE es muy similar al Perceptron, exceptuando que su función de activación, a diferencia del Perceptron que es una función escalon, es una función de transferencia linear. Sufre la misma limitante que el Perceptron la cual es que solo pueden resolver problemas linealmente separables. Adaline Jonathan Bladimir Arana Mora [email protected] E E

description

Redes Neuronales, Inteligencia Artificial, Perceptron, Adaline

Transcript of Adaline Inteligencia Artificial

Page 1: Adaline Inteligencia Artificial

Abstract— Este documento tiene como finalidad realizar una

pequeel explicar el funcionamiento de la neurona artificial

llamada Perceptron, para ello se lo ha codificado en el lenguaje de

programación JAVA. Proveerá un resultado, previo a un

entrenamiento, a partir de dos entradas.

I. OBJETIVOS

L objetivo principal del laboratorio realizar una

investigación sobre el ADALINE.

II. INTRODUCCION

STE documento va tratar sobre la definición,

funcionamiento, función de activación, método de

aprendizaje del ADALINE así como sus diferencias con el

Perceptron.

III. MARCO TEORICO

La red tipo Perceptrón fue inventada por el sicólogo Frank

Rosenblatt en el año 1957. Su intención era ilustrar algunas

propiedades fundamentales de los sistemas inteligentes en

general, sin entrar en mayores detalles con respecto a

condiciones específicas y desconocidas para organismos

biológicos concretos. Rosenblatt creía que la conectividad

existente en las redes biológicas tiene un elevado porcentaje de

aleatoriedad, por lo que se oponía al análisis de McCulloch Pitts

en el cual se empleaba lógica simbólica para analizar

estructuras bastante idealizadas

ADALINE que por sus siglas en inglés significa ADAptive

LINear Element es un dispositivo que consta de un solo

elemento de procesamiento, por lo que técnicamente no es una

red. Sin embargo es un elemento muy importante, ya que de él

se derivan redes más complejas.

Figura 1: Adaline (ADAptive LINear Element).

Una ADALINE consiste de un ALC (Adaptive Linear

Combiner) y un cuantizador (función bipolar de salida). Se

alimenta con un vector de entrada (valores observados) y con

una entrada constante igual a 1 denominada sesgo (bias).

Posteriormente se efectúa una suma ponderada de los valores

de entrada con sus pesos asociados; si el resultado es positivo,

la salida del ADALINE es 1, en caso contrario es 0 (o -1). En

consecuencia ADALINE sólo resuelve adecuadamente

problemas binarios linealmente separables.

En el año de 1060 Bernard Widrow y Marcian Hoff,

presentaron el ADALINE, y una regla de aprendizaje la cual

denominaron algoritmo LMS (least mean squeare).

El ADALINE es muy similar al Perceptron, exceptuando que

su función de activación, a diferencia del Perceptron que es

una función escalon, es una función de transferencia linear.

Sufre la misma limitante que el Perceptron la cual es que solo

pueden resolver problemas linealmente separables.

Adaline

Jonathan Bladimir Arana Mora

[email protected]

E

E

Page 2: Adaline Inteligencia Artificial

Figura 2: Estructura de un ADALINE

Método de Aprendizaje.

Figura 3: Arquitectura Adaline.

Para su aprendizaje el ADALINE utiliza el algoritmo LMS.

También llamado del algoritmo de Widrow-Hoff.

Consiste en ajustar los pesos para minimizar el mse (mean

squeare error).

Sea un conjunto de entradas:

Se aplican las Q entradas calculando cada error como la

diferencia entre el objetivo y la salida.

Se desea minimizar el promedio de los cuadrados de estos

errores:

e2(w) = (t - a(w))2

∇𝐸 =1

𝑄∑∇𝑒2(𝑤)

𝑄

𝑘=1

𝑊 = 𝑊−∝ ∇𝐸

Diferencias con Perceptron.

El algoritmo LMS es más poderoso que la regla de

aprendizaje del Perceptron.

La regla del Perceptron garantiza la convergencia a

una solución que categoriza correctamente el

patrón de entrenamiento, pero la red resultante

puede ser sensible al ruido ya que frecuentemente

el modelo cae cerca de la frontera de decisión.

El algoritmo LMS minimiza el error medio

cuadrático, y por consiguiente trata de mover la

frontera de decisión tan lejos como sea posible del

modelo de entrenamiento.

El algoritmo LMS ha encontrado muchos más

usos que la regla de aprendizaje del Perceptron.

En esencia en el área del procesamiento digital de

señales.

Page 3: Adaline Inteligencia Artificial

PERCEPTRON ADALINE

Función de Transferencia

ESCALON LINEAL

Resolución de problemas

Linealmente Separables

Linealmente

Separables

Comportamiento con

respecto al RUIDO

Sensible al Ruido

Minimiza el Ruido

Algoritmo de aprendizaje

Regla de aprendizaje

del Perceptron LMS

La tabla resumen las principales y más importantes

diferencias del Perceptron con respecto al ADALINE.

IV. CONCLUSIONES

Se realizó una investigación sobre las redes neuronales en la

inteligencia artificial.

Se obtuvo información para realizar la consulta sobre el

ADALINE, tanto como para su definición y sus diferencias

con su predecesor el PERCEPTRON.

Se pudo conocer de la limitación del Perceptron, y sobre lo

que se mejoró en el ADALINE.

REFERENCES

[1] “PERCEPTRÓN.” WIKIPEDIA, LA ENCICLOPEDIA LIBRE,

JUNIO 19, 2014.

[2]http://www.ayc.unavarra.es/miguel.pagola/Redes

%20Neuronales.pdf

[3]http://www.geofisica.cl/English/pics3/FUM6.ht

m

[4]http://moisesrbb.tripod.com/unidad1.htmhttp

[5]http://www.zator.com/Hardware/H1_7_1.htm

[6]http://delta.cs.cinvestav.mx/~ccoello/revistas/gen

etico.pdf.gz

[7] Smith, Robert E.; Goldberg, David, E. y

Earickson, Jeff A. "SGA-C : A C-language

Implementation of a Simple

Genetic Algorithm", TCGA Report No. 91002, The

Clearinghouse for Genetic Algorithms, The

University of Alabama,

Mayo 14 de 1991.

[8] Filho, José L. Ribeiro; Treleaven, Philip C. y

Alippi, Cesare. "Genetic-Algorithm Programming

Environments", en IEEE Computer, Junio de 1994,

pp. 28-43.