Introduccion

12
ANTECEDENTES DE LA I.A Uno de los primeros pasos hacia la I.A fueron dados hace mucho tiempo en los años (384 – 332 a.C) por Aristoteles, cuando se intento explicar ciertos estilos de razonamiento deductivo que en esa época se llamo Silogismo. En los años 1235 a 1316 RamonLlull poeta catalán construyo un conjunto de ruedas llamado Ars Magna el cual suponía que iba a ser una maquina capaz de responder todas las preguntas. Mucho mas adelante mas exactamente en el año 1958 JhonMcCarty, creador del termino Inteligencia Artificial, propuso utilizar el termino el calculo proposicional como un idioma que domino el AdviceTaker, a este sistema se le tenía que decir que hacer en lugar de ser programado. Lógicos del siglo XX entre los que se encontraban Kart Codel, Stephen Kleene, Emil Post, Alan Turing entre otros, formalizaron y aclararon mucho de lo que podía y no podía hacerse con los sistemas de lógica y calculo. Gran parte del trabajo inicial de la I.A se desrrollo en la década de 1960 y principios de los setent en programas como General ProblemSolver, de Allan Newel; otros sistemas que influyeron fueron: La integración Simbolica, en 1963, Algebra Word de Bobrow en 1968 entre otros. Muchos de estos sistemas son el tema de un articulo llamado Computers and Thought de Feigenbaum y Fedelman en 1963. Hacia finales de los setenta y principios de los ochenta algunos programas que se desarrollaron contenían mayor capacidad y conocimientos necesarios para imitar el desempeño humano de experto en diversas tareas. En mayo de 1997 un programa de IBM llamado Deep Blue derroto en ese entonces el actual campeón mundial de ajedrezGarryKasparov. Por su parte Larry Roberts en 1963 desarrollo tubo de los primero programas de análisis de escena. Muchos avances se han presentado a lo largo de la historia del hombre relacionada con la I.A es así que años como 1963, 1990,1993, 1994 1995…. Han dejado huella en el avance del desarrollo de la I.A. la presión constante para mejorar las capacidades de los robots y los agentes de

Transcript of Introduccion

Page 1: Introduccion

ANTECEDENTES DE LAI.A

Uno de los primeros pasos hacia la I.A fueron dados hace mucho tiempo en los años (384 – 332 a.C) por Aristoteles, cuando se intento explicar ciertos estilos de razonamiento deductivo que en esa época se llamo Silogismo. En los años 1235 a 1316 RamonLlull poeta catalán construyo un conjunto de ruedas llamado Ars Magna el cual suponía que iba a ser una maquina capaz de responder todas las preguntas. Mucho mas adelante mas exactamente en el año 1958 JhonMcCarty, creador del termino Inteligencia Artificial, propuso utilizar el termino el calculo proposicional como un idioma que domino el AdviceTaker, a este sistema se le tenía que decir que hacer en lugar de ser programado. Lógicos del siglo XX entre los que se encontraban Kart Codel, Stephen Kleene, Emil Post, Alan Turing entre otros, formalizaron y aclararon mucho de lo que podía y no podía hacerse con los sistemas de lógica y calculo.

Gran parte del trabajo inicial de la I.A se desrrollo en la década de 1960 y principios de los setent en programas como General ProblemSolver, de Allan Newel; otros sistemas que influyeron fueron: La integración Simbolica, en 1963, Algebra Word de Bobrow en 1968 entre otros. Muchos de estos sistemas son el tema de un articulo llamado Computers and Thought de Feigenbaum y Fedelman en 1963.Hacia finales de los setenta y principios de los ochenta algunos programas que se desarrollaron contenían mayor capacidad y conocimientos necesarios para imitar el desempeño humano de experto en diversas tareas. En mayo de 1997 un programa de IBM llamado Deep Blue derroto en ese entonces el actual campeón mundial de ajedrezGarryKasparov. Por su parte Larry Roberts en 1963 desarrollo tubo de los primero programas de análisis de escena.Muchos avances se han presentado a lo largo de la historia del hombre relacionada con la I.A es así que años como 1963, 1990,1993, 1994 1995…. Han dejado huella en el avance del desarrollo de la I.A. la presión constante para mejorar las capacidades de los robots y los agentes de software motivaran y guiaran mayores investigaciones de I.A en los años venideros.

RAMAS QUE COMPONEN LA INELIGENCIA ARTIFICIAL

La inteligencia artificial es una ciencia que la componen tres grandes ramas las cuales son:

Lógica difusa Redes Neuronales Artificiales Algoritmos genéticos

Cada una de ellas consta con unas características especiales así como de una función específica.Entonces La Lógica Difusa permite a una computadora analizar información del mundo real en una escala entre lo verdadero y lo falso , la lógica difusa manipula conceptos claros como caliente o húmedo y permite a los ingenieros construir televisores, aires acondicionados , lavadoras u otros dispositivos que juzgan información difícil de manejar, el estudio moderno de la lógica difusa y

Page 2: Introduccion

las contradicciones parciales tiene sus orígenes en el siglo XX cuando Bertand Russel retorno una antigua paradoja griega, según esta una cretense afirma que todos os cretenses mienten. Así que miente o dice la verdad? Si miente, dice la verdad y no miente. Si no miente entonces dice la verdad y miente.La lógica difusa dice que la frase es cierta y falsa a la vez. En este caso la lógica clásica se rinde, toda vez que esta nos da solo la opción de decir la verdad o mentira. En la década de 1920 e independientemente de Rusell, el lógico polaco JanLukasiewicztrabajo los principios de la lógica multievaluada, en estos las proposiciones pueden tomar valores verdaderos fraccionales entre los unos y los ceros de la lógica clásica.Es importante distinguir ente sistemas difusos y probabilidad: los dos operan sobre el mismo rango numérico pero los conceptos son distintos. Si tomamos ejemplos seria: Hay un 90% de probabilidad que liza es pequeña (probabilidad). Esta frase probabilística supone que liza no es pequeña, que hay un 90% de conocer la categoría en la que se encuentra. En contraste la frase difusa seria: “hay un 90% de probabilidad de conocer la categoría en la que se encuentra.Esta metodología se considera compleja pero el ser humano asimila todos los días las instrucciones de este tipo de enseñanza. En la lógica difusa no se puede tomar valores únicos para saber si un elemento pertenece o no. Se debe tomar valores entre el 0 y el 1, por ello las operaciones de respuesta son mayores y a veces infinitas.La lógica difusa consta de tres etapas para obtener el resultado esperado, la primera etapa se basa en un proceso donde las variables tienen un grado de incertidumbre metalingüístico. Un ejemplo de esto se puede dar en un gráfico que conste de dos colores blanco o negro, o mejor en representación binaria 1 o 0 y la respuesta es fácil de proporcionar puesto que si no es blanco es negro. Pero en un gráfico que conste con diferentes matices, ya van a tener varias respuestas puesto que las opciones serán varias, es decir ya no solo será blanco o negro sino que podrá ser, gris, azul, un gris fuerte…. Y es en este tipo de situaciones donde se clasifica las dos tipos de lógica, en el primer ejemplo lógica clásica y en el segundo la lógica difusa. lasegunda etapa propone reglas lingüísticas que servirán de guía para que el sistema se comporte de manera más adecuada. El grado de pertenencia de cada una de las variables se evalúa en un conjunto de reglas de inferencia, dichas reglas fueron determinadas con ayuda de un experto, este conjunto de reglas determina una consecuencia, es decir asigna un grado de pertenencia a un conjunto difuso. La Tercera etapa es un proceso óptimo para determinar los valores óptimos de salida, conocido como desfusificación que consiste en pasar el grado de pertenencia a un valor nítido o real.Al final de todo este proceso el control le entregara valores nítidos o reales, con lo cual este sistema interpretara las ordenes y realizara las acciones pertinentes.

Page 3: Introduccion

APLICACIONES DE LA

I.A.

1. DESCENTRALIZADO DE SEÑALES DE VIDEO CON LÓGICA DIFUSA

Eficiencia de la lógica difusa para manejar la ambigüedad e impresión qué aparece en numerosos problemas.

Muchos de los trabajos se centraron en dos aplicaciones: El descentralizado de señales de video. El crecimiento dé resolución de imágenes.

La conversión de señales de video entre lazadas a progresivas se requiere en numerosos dispositivos como proyectores tales como, DVD, Televisores de alta definición o monitores LCD, para adecuar su formato de presentación al formato de transmisión entrelazado por los sistemas de convencionales de televisión.Esto ha fomentado el funcionamiento de numerosos algoritmos de desentrelazados que implementan desde simples esquemas de interpolación Espacio-Temporal y complejas técnicas de competición de movimiento.

La ampliación del tamaño de las imágenes es necesario para aplicaciones de análisis e interpretación, en la cual un aumento de la resolución en la imagen es importante, se proponen nuevas técnicas basadas en la lógica difusa que proporcionan soluciones eficaces para las dos aplicaciones anteriormente mencionadas.

PROCEDIMIENTO

El formato entrelazado empleado por los sistemas de transmisión de señales de televisión, reduce la mitad de la ancho de las bandas de señal transmitidas sin afectar la calidad de las imágenes.Los algoritmos de desentrelazado aplican diferentes técnicas de interpolación que genera completa de la información trasmitida en los sucesivos campos. Los más eficientes son los que adoptan la estrategia de interpolación a las características específicas de las imágenes como el grado de movimiento.

La detección del grado de movimientos permite dirigir el proceso de desentrelazado si no existen movimientos la información puede obtenerse del campo anterior “llamada una técnica de interpolación temporal”.Y cuando existe movimiento, la información de las líneas de campo anterior no es fiable en la cual se debe aplicar una interpolación espacial entre los pixeles del campo actual.Indican el número de órdenes del fotograma en la secuencia, representan los valores de luminancia obtenidos al utilizar técnicas de interpolación espacial y temporal e indica el cifrado de movimiento.Consiste en utilizar un sistema basado en la lógica difusa que determina el cifrado de movimiento, la entrada al sistema se evalúa utilizando un conjunto de funciones de pertenencia triangulares.

Page 4: Introduccion

Interpretación: cuando el cifrado del movimiento es pequeño se realiza una interpolación temporal y al ser grande una interpolación espacial. En algunos casos se lleva una combinación de ambas.Para implementar algoritmos se selecciona la inserción del pixel del campo anterior. Para realizar interpolación espacial se propone un algoritmo utilizando un sistema un sistema un sistema basado en lógica difusa que detecta la presencia de bordes de imágenes.

2. MARCADORES ANATÓMICOS DE LOS VENTRÍCULOS DEL CORAZÓN

La ventriculografía es una técnica utilizada para visualizar las cavidades cardiacas. Su objetivo principal es definir el tamaño y la forma del ventrículo izquierdo, así como también visualizar la forma y movilidad de las estructuras asociadas con las válvulas del corazón.En la actualidad se desarrollan técnicas para detectar automáticamente los contornos ventriculares, no se ha encontrado aún ningún método capaz de resolver este problema de manera satisfactoria y las técnicas existentes no han sido validadas técnicamente.En este trabajo se establece un conjunto de consideraciones tanto teóricas como prácticas que permiten realizar el diseño y la verificación del comportamiento de las redes neuronales, para la detención de los tres marcadores anatómicos del corazón

Procedimiento

Las variables discriminantes se obtienen a partir de secuencias de imágenes dinámicas del corazón. Usando esta secuencia de imágenes cardiacas, seaplicó un proceso manual para extraer un conjunto de subimagenes de tamaño 31*31,con tentativas de los marcadores anatómicos más importantes al momento de caracterizar el ventrículo izquierdo

Resultados

En las primeras pruebas hechas a las redes neuronales implementadas para distinguir los ventrículos del corazón, de un total de 21 imágenes muestra, las redes desempeñaron un trabajo satisfactorio en 15 de ellas dando un rendimiento de 70%.se pretende mejorar el diseño de estas redes aumentando el número de marcadores anatómicos para poder utilizar este software confiablemente.

Conclusiones

Las redes neuronales generadas identificaron los marcadores anatómicos primordiales para la detección automática de los contornos ventriculares del corazón.

Porque se usaron redes neuronales?

Page 5: Introduccion

Se utilizan en situaciones para las cuales no existe alguna clase de modelo o aproximación matemática, o cierto proceso iterativo.

3. SEGMENTACIÓN DE IMÁGENES CEREBRALES DE RESONANCIA MAGNÉTICA BASADA EN REDES NEURONALES

El estudio a través de imágenes de los cambios estructurales del cerebro puede proveer información útil para el diagnóstico y el manejo clínico de pacientes con demencia. Las imágenes de resonancia magnética (R.M) pueden mostrar anormalidades que no son visibles en la tomografía computarizada. Así mismo tienen el potencial de detectar señales de anormalidad, lo que permite un diagnostico deferencial entre la enfermedad del Alzheimer y la demencia vascular.En este trabajo se presenta un método de segmentación de imágenes R.M. Celébrales basada en la utilización de redes neuronales utilizando algoritmos genéticos para el ajuste de los parámetros. Esta propuesta permite detectar y cuantificar los diferentes tejidos cerebrales de una manera automática.

PROCEDIMIENTO Presenta los siguientes pasos

Paso 1: El operador selecciona entre 3 y 5 puntos de cada sustancia que se va a segmentar líquido cefalorraquídeo, sustancia gris y sustancia blanca, que de solo una imagen de muestra representativaPaso 2: La red neuronal se construye y al mismo tiempo se entrena a partir de los valores de gris de los pixeles seleccionados en las diferentes imágenes.Paso 3: Se consulta a la red ya entrenada indicando como patrones de entrada y a los niveles de gris de un nuevo conjunto de imágenes.Paso 4: Se crea una nueva imagen con intensidades diferentes para cada pixel según la clase de sustancia a la que ha sido asignado.Paso 5: Se visualizan las estructuras segmentadas con diferentes colores.

RESULTADOS

Este trabajo presenta un método de segmentación automática de imágenes de R.M. cerebrales. El método es preciso y eficiente, siendo los resultados obtenidos prácticamente independientes del experto. Del éxito de la segmentación depende la posterior cuantificación de la materia gris, blanca y L.C.R, y por lo tanto la medición de la evolución de la atrofia cerebral

4. OPTIMIZACIÓN DE SISTEMAS PARA TRATAMIENTO DE AGUA (AUSTRIA, LÓGICA DIFUSA)

Este caso trata de una solución lógica difusa en la producción de bioquímicos en la industria más grande de penicilina en Austria. Después de extraer la penicilina a partir de los microorganismos que la generan, un sistema de

Page 6: Introduccion

tratamiento de aguas residuales procesa las biomasas sobrantes. Ahora bien, los lodos fermentados que se obtienen en el curso de este tratamiento contienen microorganismos y restos de sales nutrientes, los cuales son de material base para la fertilización de alta calidad que se vende como coproductos de la producción de penicilina.Para hacer el abono, el agua se decanta y el agua sobrante se vaporiza. El objetivo es reducir los costos del proceso de vaporización por lo que el proceso de decantación del agua y las sustancias para fertilizante deben ser optimizados. Así se implementó una solución utilizando lógica difusa para dejar de operar manualmente este proceso.

Reducir el uso de químicos precipitantes (para separar la mezcla del agua más fácil) debido a que el polímero usado en mu y costoso.

Extraer el máximo de agua al momento de decantarla ya que la vaporización del agua restante consume grandes cantidades de energía.

El contenido de la biomasa en decantación debe ser de 0.7g/l, si excede los 1.5g/l se le reduce el rendimiento del sistema y hasta puede detenerlo debido a la limitada capacidad del equipo para procesar masa biológica.

Este último punto es crítico y es difícil para los operadores ajustarlo manualmente durante todo el tiempo del funcionamiento del equipo. A su vez, la determinación de un modelos matemático podría ayudar a mejorar el proceso, sin embargo debido a la gran cantidad de variables esto requiere gran tiempo y esfuerzo además que necesita una regulación continua y que se ajuste a cualquier cambio.

5. MONITOREO DE GLAUCOMA A TRAVÉS DE REDES NEURONALES

El monitoreo de glaucoma a través de los cambios oftalmológicos de un paciente, requiere de una decisión basada en los datos médicos representan una situación crítica o sospechosa de glaucoma como diagnostico deferencial. Este trabajo presenta como por medio de redes neuronales se ayuda con el diagnostico. La medición de los médicos acerca del ojo del paciente se basa en los siguientes conjuntos de datos:

Mediciones directas: presión intraocular. Estimaciones paramétricas Descripciones verbales del paciente

6. ALGORITMO GENÉTICO PARA EL DISEÑO DE SISTEMAS DE M.R.I. (MAGNÉTICORESONANCEIMAGING)

Esta aplicación describe un paquete de software para el diseño de equipo médico (MRI) llamado GASP, el cual usa algoritmos genético (AG) como se sabe estos algoritmos permiten a una población de varios diseños evolucionar hacia uno que sea el más apto. El objetivo principal de esto algoritmos es optimizar la función de costo. En este caso cada gen de nuestro código representa una espiral de nuestra magneto, los cuales se combinarán y

Page 7: Introduccion

mutaran de la manera más conveniente para producir la mejor resolución de imágenes en el MRI.

La ventaja de este software entre otras es que fue diseñado para correr en paralelo en varias unidades que comparten la información de las mutaciones de los “genes” de información, lo que acelera el proceso de evoluciones del diseño.También se podría utilizar redes neuronales, no obstante se tendrá que comparar en cuanto tiempo se llega a una solución oprima con respecto a los algoritmos genéticos.

ALGORITMOS GENÉTICOS

Es una técnica de búsqueda interactiva inspirada en los principios de selección natural. Los AGs no buscan modelar la evolución biológica si no derribar estrógenos de optimización. El concepto se basa en la generación de poblaciones de individuo mediante la producción de los padresDurante el curso de la evolución los genes que evolucionan los genes que evolucionan lentamente fueron reemplazados por genes con mejor estrategia evolutiva por tanto se espera estrategias eficientes.

HISTORIA

La primera idea de un AGs surgió en las tesis de j.d bagley “el funcionamiento de los sistemas adoptables empleando algoritmos genéticos y correlativos”Esta tesis influyó decisivamente en j.h.holland, quien se puede considerar como el pionero de los AGs ¿Qué es la herencia?Es la reproducción sexual de los genes que se combinan de diferentes maneras. Los cromosomas paternos se reparten entre células sexuales y cuando tiene lugar la fecundación surgen factores hereditarios que poseen los padres.

CÓDIGO GENÉTICO 

Es material genético está formado por acido nucleicos, estos se hallan en todas las células vivas, en las que determinan la constitución de las proteínas y genes.Existen dos tipos de ácidos ribonucleicos (ARN). En 1962 se otorgó el primer nobel por el descubrimiento de la estructura y función de la molécula de ADN.Está formada por bases nitrogenadas enlazadas por puentes de hidrogeno. Cada unión está formada por dos bases. Formando 4 tipos de uniones cuya ordenación en la molécula constituye el código genético.

SELECCIÓN NATURAL

Mientras estaba reflexionando acerca de la selección artificial, Darwin leyó un ensaño del economista Thomas Malthus.

Page 8: Introduccion

El ensayo sugería que no controlarse la población humana, sobrepasaría la producción de alimentos, ocasionando una fuerte competencia por la existencia. Darwin se dio cuenta que las ideas de Malthus podrían aplicarse al mundo natural. Allí estaba, finalmente, el marco de trabajo para una nueva teoría sobre el origen de las especies. La teoría de Darwin tiene cuatro principios básicos que explican cómo pueden cambiar esos rasgos o de una población con el tiempo. Primero, los individuos de una población muestran diferencias o variaciones. Segundo, las variaciones pueden heredarse, lo cual significa que pasan de padre a hijo. Tercero, los organismos tienen más descendientes de los que pueden sobrevivieron los recursos disponibles. Finalmente, las variaciones que aumentan el éxito reproductivo tendrán mayor oportunidad de trasmitirse, que aquellas que no lo aumentan.Darwin llamo a su teoría selección natural. Razono que, dado el tiempo necesario, la selección natural podría modificar una población lo suficiente como para producir nuevas especies.Para las estructuras básicas de un algoritmo genético también es necesario conocer la transición de una generación a otra, la cual consta de cuatro elementos básico:Selección: mecanismo de selección individual (cadena) para la reproducción acorde con la función de aptitud (valor de la función objetivo). Los algoritmos de selección serán los encargados de escoger que individuos van a disponer de oportunidades de reproducirse y cuáles no. La idea básica de selección está asociada con la función de aptitud y el sistema original; para su implementación es comúnmente conocida como roulette-wheel (wrs)Cruzamiento: método de fusión sobre la información genética de dos individuos; si la codificación es elegida apropiadamente, dos progenitores saludables producirán descendientes sanos. Es el principal operador genético; provee un mecanismo para heredar características a su descendencia; interviene en ambos progenitores.Mutacion: en la evolución real, el material genetico puede ser alteradoen forma aleatoria debido a un error en la reproducción o la deformación de genes; un ejemplo es la radiación de los rayos gama. En los ag, la mutacion se realiza, con gran probabilidad por una deformación aleatoria en las cadenas.Reemplazo: para crear una nueva generación de la generación anterior se crea un espacio a la decendencia en la población eliminandoa los padres.

Un algoritmo que hace todos estos pasos es:t:=0se crea la población inicial B0 =(b1,0 ,b2,0 ,…, bm,0 );WHILE se detiene la condición que no se cumple DOBEGIN(*selección proporcional*)FOR i:=1 TO m DOBEGINX:=random[0,1];

K:=1;WHILE k<m & x<∑i=xi f(aj.t )/ ∑j=tm f( bj.t ) DOk:k+1;bj.t+1 = bk.i Fin (*único-punto de cruzamiento*)FOR i:=1 TO m-1 STEP 2 DOBEGIN

Page 9: Introduccion