Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Tema N° 3
SISTEMAS DINAMICOS DISCRETOS
El concepto de sistema dinámico
Sea un espacio métrico (en estas notas, D será siempre un subconjunto de Rn) y sea f una,
aplicación, en general continua, de D en sí mismo. En la teoría de sistemas dinámicos se estudia el
comportamiento de las iteraciones de f según los diferentes valores del punto inicial. La sucesión
( ( )) de las iteraciones de en un punto dado es la órbita de ese punto. Por tanto, en la teoría
de sistemas dinámicos se estudia como son las órbitas de los diferentes puntos.
En, general nos interesará saber si la órbita de un punto converge a cierto valor (que será
necesariamente un punto fijo), si converge a un ciclo periódico o si se comporta de forma
aparentemente aleatoria.
También nos interesará saber cuándo un punto fijo (o un ciclo periódico) atrae o repele las órbitas
de puntos cercanos, y en caso de ser así, cuales son los puntos cuyas órbitas atrae o repele.
Ejemplos de sistemas dinámicos clásicos
La ecuación de Maltus
Supongamos que queremos estudiar la evolución de la población de una determinada especie.
Para ello denotamos por al número de individuos de la población en el instante Para estudiar
de que manera evoluciona la población, se establece una relación entre ésta en instantes
consecutivos. Una primera manera de abordar el problema se debe a Maltus (s.XIX), y es suponer
que el crecimiento de la población es proporcional a la población existente. Esto es,
( )
Entonces Por tanto la población crece indefinidamente, se mantiene constante o se
extingue según sea mayor, igual o menor que uno.
La curva de Verhulst
A mediados del siglo XIX, el matemático belga Pierre Verhulst propuso la siguiente fórmula
cuadrática, en la que se supone que el crecimiento de la población es proporcional tanto a la
población existente, como al "espacio" disponible. Esto es,
( ) ( )
Donde se supone que la población máxima admisible es 1 (normalizando). Así, cuando la población
pasa de 1 el crecimiento se hace negativo.
La parábola logística de May
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Una modificación de ésta, fue propuesta por el biólogo por Robert May en 1976 para estudiar el
crecimiento de una población de insectos en un ecosistema cerrado. En este caso la evolución de
la población sigue la regla
( )
El método de Newton
Sea un polinomio y supongamos que tiene una raíz cercana a cierto punto .
Entonces, si reemplazamos el polinomio ( ) por su recta tangente en el punto ( ( )) y
obtenemos su corte con el eje , obtenemos un valor que es una primera aproximación de .
Iterando este proceso se obtienen valores cada vez más; cercanos a El proceso se resume en la
siguiente fórmula de recurrencia
( ( )) ( ( ))
Dinámica de las aplicaciones lineales unidimensionales
Sea una aplicación lineal, esto es, ( )
Supongamos que a<1. Una primera forma de investigar la dinámica generada por esta aplicación
consistiría en tomar un punto, por ejemplo 1, y calcular su órbita
Se ve que la órbita converge al punto 0. Además, si tomamos cualquier otro punto inicial se
obtiene el mismo resultado, pues la órbita de un punto genérico p es:
Otra manera de estudiar la dinámica es el análisis gráfico de las órbitas. Consiste en lo siguiente:
Empezamos en un punto p en el eje OX.
Nos movemos verticalmente hasta intersecaría gráfica de ( )
Nos movemos horizontalmente hasta intersecar la diagonal
Nos movemos verticalmente - hacía arriba o hacia abajo - hasta intersecar la gráfica de ( )
Se repiten los pasos 3 y 4 para generar nuevos puntos.
Teoría del caos
A comienzos de los '60s muchos científicos motivados por las alteraciones climáticas y el
incremento del en la atmósfera, se abocaron al modelamiento del clima. Uno de ellos fue el
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Meteorólogo Edward Lorenz, científico del MIT, quien en 1963 utilizó el sistema de ecuaciones
diferenciales de "Navier-Stokes" para modelar la evolución del estado de la atmósfera:
( )
Dónde:
= razón de rotación del sistema
= gradiente de temperatura
= desviación da la temperatura
= Número de Prandtl: [viscosidad] / [conductividad térmica]
= diferencia de temperatura entre la base y el tope del sistema
= razón entre la longitud y altura del sistema
Los torbellinos grandes tienen torbellinitos que
se nutren de su velocidad
Y los torbellinitos tienen torbellinititós
Y así hasta la viscosidad
Lewis f. Richardson
A partir de cierta condición inicial ( ) se puede utilizar el sistema de ecuaciones
diferenciales acopladas para dibujar la trayectoria correspondiente en el espacio de fase 3D,
obteniéndose la figura conocida como "Atractor de Lorenz".
NOTA: el Atractor de Lorenz es una figura
geométrica similar a una mariposa y que para ser
contenida necesita más de dos dimensiones y
menos de tres (2.06), por lo tanto es un fractal.
(el inverso del exponente de Hurst es igual a la
dimensión fractal de una serie de tiempo).
El método numérico de resolución exige utilizar los datos en para obtener estos
mismos datos en Para tranquilidad de Lorenz, los datos obtenidos numéricamente fueron
iguales a los esperados durante varios días seguidos, hasta que una mañana decidió que tenía que
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
ahorrar papel y tiempo (estamos hablando de una computadora Royal McBee de los años 60), así
que utilizó tres decimales en los datos de entrada en lugar de seis... y ahí fue cuando apareció el
caos: La trayectoria en el Espacio de Fase comenzó a seguir una ruta muy distinta respecto de la
tendencia original, lo cual era realmente novedoso. Un pequeño margen de error en los datos de
entrada nos puede llevar a pronosticar nevazones en verano, y de hecho, esto podría llegar a
ocurrir en el mundo real. Hasta ese entonces, los Físicos estaban acostumbrados a ver que una
pequeña diferencia en los datos de entrada tenía que provocar una pequeña diferencia en los
datos de salida. Por ejemplo, para conseguir el alcance máximo de un proyectil, se requiere que el
ángulo sea igual a 45.000...”, pero nadie se preocupa de los diez decimales siguientes y no parece
lógico exigir tal nivel de precisión. Pero existen sistemas extremadamente sensibles a las
condiciones iniciales, como el tiempo atmosférico, donde dos puntos infinitesimalmente cercanos
en el Espacio de Fase pueden seguir trayectorias totalmente distintas. Como el margen de
precisión tecnológico siempre va a ser muchísimo mayor que el concepto matemático de
"diferencial", se concluye que es imposible realizar una predicción meteorológica confiable a largo
plazo.
A pesar de todo, las trayectorias tienden a concentrarse en ciertas zonas ("Atractores") , de moco
que sí es posible pronosticar e! comportamiento GLOBAL o estadístico del sistema (ej: calor en
verano y frío en invierno, los dos lóbulos del atractor de Lorenz). Observemos además que una
diferencia infinitesimal en las condiciones iniciales se puede ilustrar con un sistema A de control
v/s el mismo sistema A más una mariposa batiendo sus alas. Dado que ya sabemos que las
trayectorias en el Espacio de Fase pueden llegar a ser muy distintas, podemos afirmar que una
mariposa que bate sus alas en Hong Kong puede llegar a "provocar" un tornado en Kansas (“efecto
Mariposa").
El Universo Holográfico y la Conexión Aurea
Según el viejo paradigma mecanicista (S XVII) el todo es simplemente la suma o agregación de las
partes, de un modo análogo a un mecanismo de relojería. En palabras de Isaac newton: "El
Universo es simplemente una gigantesca máquina": Por otro lado, el relativamente nuevo
paradigma de la Teoría de Sistemas (S XX) reconoce las sinergias entre las partes. Luego, el todo es
mayor que la suma de sus partes: cuando las partas se reúnen, aparecen conexiones entre ellas, lo
que genera la aparición de nuevas propiedades:
i) El ser humano no es igual a la simple agregación de sus órganos. El bienestar físico
depende cié un equilibrio armónico entre todos los órganos del cuerpo humano y no
de lo que le ocurre a uno solo. Cuando tomamos una aspirina, esta se disuelve en la
sangre, afectando de este modo a todo el cuerpo.
ii) Si se junta un gas tóxico (el cloro) con un metal (el sodio) se genera una sustancia que
le da "buen sabor" a la carne: la sal. Las propiedades de la sal no tienen ninguna
relación con las de un gas tóxico ni con las de un metal.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Investigaciones más recientes (ej: estudio de hadrones en Física de Partículas) llevan la hipótesis
sistémica a niveles aún más complejos: el de la parte conteniendo al todo ("holones"). Por
ejemplo, en el caso de los fractales regulares, tenemos que estos conservan sus propiedades (.3
incluso su aspecto visual) frente a los cambios de escala.
Triángulo de Sierpinski.
En el límite, la superficie, del objeto que se obtiene (en
negro) es cero. A la derecha se muestra una ampliación
perfectamente Autosimilar {Fractal Regular)
La hipótesis del "Universo Holográfico" nos dice que la información de todo el universo está
contenido en cualquier subconjunto de éste. Por lo tanto, tendría que ser posible reconstruir el
universo completo a partir de un simple microbio. En otras palabras: las partes son reproducciones
a escala del todo, o también: el todo está contenido en cada una de sus partes, al igual que en un
holograma. Si fragmentamos en varias parles la placa de un holograma, ocurrirá que cada sección
tendrá la facultad de reproducir por sí misma la imagen original. Una idea similar se esboza en el
Sutra Avalamsaka (Siglo ~ V AC):
En el cielo de Indra hay una red de perlas de tal forma ordenadas que si miras a una, ves
a todas las demás reflejadas en ella. Del mismo modo, cada objeto del mundo no es sólo él
mismo, sino que incluye a todos los demás objetos y es, de hecho, todos los demás [...Y
dentro de la Torre de Indra...] hay también cientos de miles de torres [o. Universos],
cada una de las cuales está tan exquisitamente adornada como la Torre principal misma
y tan espaciosa como el cielo.
y todas estas torres, más allá de lo que en número podría calcularse, no s e molestan en
absoluto unas a otras; cada una preserva su existencia individual en perfecta armonía
con todo el resto; no hay aquí, nada que impida a una torre estar fusionada con todas las
demás individual y colectivamente; hay un estado de perfecta entremezcla y, sin embargo,
de perfecta ordenación. Sudhana, el joven peregrino, se ve él mismo en todas las torres
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
y en cada una de ellas, donde el todo está contenido en cada una y cada una está contenida
en el todo.
La hipótesis que dice que la parte contiene al todo se puede expresar matemáticamente:
La parte:
La parte: El todo:
1
X-1
1
x
X-11
x
1
{ ( )
NOTA: Repitiendo e¡ proceso con el rectángulo de la izquierda se obtiene un nuevo rectángulo
autosimilar (análogo al triángulo i de Sierpinski), por lo que puede generarse un fractal a partir de
exigencias "holónicas". Dentro de las referencias investigadas, parece ser que nadie se había
percatado de esta importante conexión.
Queremos que la parte sea una reproducción a escala del todo, es decir:
La ecuación a resolver es: como
√
Este número es denominado "Phi" en honor del arquitecto griego Phidias y durante el
renacimiento se conoció como "Número Aureo" o "Divino", dado que los griegos lo dedujeron a
partir de exigencias que fusionan filosofía, religión y matemáticas.
El principio holográfico
i) Agujeros negros
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
- Según Shannon, la información se puede medir mediante la "entropía informática",
magnitud directamente proporcional a la cantidad de bits y a la "entropía termodinámica"
- La entropía termodinámica de un agujero negro es igual a:
(
)
(Jacob Bekenstein)
- Observemos que la entropía de un agujero negro es proporcional a su superficie. Además,
los agujeros negros son los objetos con la mayor entropía posible.
COROLARIO: La información almacenada por un agujero negro es proporcional a su
superficie
- Aquí conviene señalar que se necesita de cuatro áreas de Planck ( )
para escribir un bit sobre la superficie de eventos de un agujero negro.
ii) Paradoja Holográfica
La información contenida en microchips es directamente proporcional a la cantidad de
microchips. Esto nos permite ilustrar que en condiciones normales la información es
directamente proporcional al volumen. Corolario: La información es una cantidad
extensiva (al igual que la masa). Sin embargo, si se aumenta la densidad de materia, ese
conjunto de microchips puede convertirse en un agujero negro, llegándose a la paradoja
de que la información original puede codificarse en la superficie de eventos (y no el
volumen de los microchips). Por lo tanto, en este caso extremo, la información deja de ser
una cantidad extensiva: TODA la información 3D puede codificarse en 2D Luego.
Principio holográfico
Se puede conseguir una descripción completa de lo que ocurre dentro de un cuarto (3D),
con solo describir lo que le ocurre a los muros (2D).
La serie de Fibonacci
Leonardo de Pisa, alias Fibonacci (siglo XIII) viajo por Asia menor y se contactó con los
matemáticos más grandes de la época. Gracias a ellos se percató de que muchos
fenómenos naturales se pueden modelar con la siguiente serie.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
La serie arroja los siguientes valores: 0, 1, 1, 2, 3, 5, 8,13, 21, 34, etc.
Ejemplos:
i) Piñón de pehuén
ii) Concha de nautilus
iii) Galaxia espiral
iv) Ejemplo biológico
Un microbio demora una hora en madurar y una hora en reproducirse por mitosis.
Luego la cantidad de microbios en función del tiempo será:
t
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
n
0
0 (comienza el experimento)
1
1 (se coloca un microbio "A")
2
1 (microbio A maduro)
3
2 (microbio A + su descendencia)
3
4
5
5
6
8, etc.
Grafiquemos ahora ( ) ( )
¿Hacia qué número tiende la serie?
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
¿Casualidad?
Si el Universo nos quisiera decir algo, ¿En qué lenguaje lo haría? Respuesta de Galileo: "El Universo
está escrito en lenguaje matemático". Según el astrónomo James Jeans: "Más que una gran
máquina, el universo parece ser un gran pensamiento"
Caracterización del caos
La Teoría del Caos permite deducir el orden subyacente que ocultan fenómenos aparentemente
aleatorios. Se sabe que ecuaciones totalmente deterministas (como el set de Lorenz) presentan las
siguientes características que definen el Caos:
i) Son deterministas, es decir:
o Existe una "ley" que gobierna la conducta del sistema (¿Qué es lo contrario de
"determinista"? ¿"Aleatorio" o "con libre albedrío"? ¿Existe el Libre Albedrío para
las Ciencias Duras o es sólo una ilusión?)
o El fenómeno se puede expresar por "comprensión" en lugar de hacerlo por
"extensión"
o Existe una simulación de menor tamaño ( ) que el sistema original que permite
generar los mismos datos observados
Cabe señalar que según Chaitin (1994) un sistema es aleatorio cuando el algoritmo
que genere su propia serie ocupa más que el sistema original (por lo tanto, lo
más eficiente es expresar el sistema por "extensión" y no por medio de un
algoritmo)
ii) Son muy sensibles a las condiciones iniciales:
o Una desviación infinitesimal en el punto de inicio provoca una divergencia
exponencial en la trayectoria del Espacio de Fase, lo que se puede cuantificar con
el "Exponente de Lyapunov.
o La extrema sensibilidad a las condiciones iniciales implica que el comportamiento
del sistema es indetermina a partir de cierto "Horizonte de Predicitibilidad", dado
que la incerteza tecnológica asociada a los datos de entrada siempre va a ser
mayor que el concepto de "infinitesimal matemático"
o A pesar de la impredictibilidad de una trayectoria particular del Espacio de Fase, se
pueden encontrar "Atractores" o zonas del Espacio de Fase que tienden a ser
"visitadas" con mayor frecuencia que otras.
NOTA: Normalmente la trayectoria en el Espacio de Fase de un sistema caótico
genera una curva fractal (de dimensión fraccionaria)
iii) Parecen desordenados o aleatorios, pero en el fondo no lo son:
o Siguen ecuaciones deterministas
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
o Presentan Atractores
Un ejemplo de ecuación determinista pero caótica es: ( )
Se puede ilustrar el Efecto Mariposa comparando los gráficos que resultan cuando se utilizan las
siguientes condiciones iniciales:
- Sistema
- sistema (apenas una millonésima de diferencia)
Algunas herramientas matemáticas que permiten estudiar el caos son:
i) Exponente de Hurst (H)
Es un número que indica el grado de influencia del presente sobre el futuro (grado de
similitud del fenómeno con el "Movimiento Browniano" o "Caminante Aleatorio").
Posibilidades:
- H > 0.5: sistema persistente (correlación positiva). Ej: si H = 0.7, entonces existe una
probabilidad de 70% de que el siguiente miembro de la serie exhiba le misma tendencia
que la del miembro actual.
- H = 0.5: sistema aleatorio (correlación nula o "ruido blanco")
- H < 0.5: sistema anti-persistente (correlación negativa)
ii) Mayor Exponente de Lyapunov (L)
Es una estimación de la máxima razón de divergencia entre dos trayectorias del
Espacio de Fase cuyas condiciones iniciales difieren infinitesimalmente. Las unidades
son bits por unidad de tiempo (en base 2) y se calcula con el algoritmo de Wolf.
Posibilidades:
- L < = 0: serie periódica
- L > 0: serie caótica
- L —> oo : serie aleatoria
"[Qué los trayectorias del espacio de fase tengan ] dependencia sensitiva de las
condiciones; iniciales significa que tienen tendencia a Apartarse de las, trayectorias cercanas"
James Gleick
iii) Complejidad relativa de Lempel Ziv (LZ)
Es una estimación del grado de complejidad algorítmica que tendría que presentar una
simulación capaz de representar fielmente el fenómeno. Se calcula mediante el
algoritmo de Kaspar y Schuster.
o LZ = 1.0: máxima complejidad (serie aleatoria)
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
o LZ = 0.0: serie perfectamente predecible
iv) Entropía informática
Es una indicación del grado de desorden de los datos y se calcula sumando todos los
exponentes de Lyapunov positivos en base e (algoritmo de Grassberger y
Procaccia)
El caos es una creación de la información.
James Gleck
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Tema N° 4
AUTOMATAS CELULARES
1. Introducción
El modelamiento de la mayoría de sistemas físicos, eléctricos y mecánicos, está basada en
métodos y expresiones matemáticas, las cuales representan teóricamente el comportamiento de
dichos sistemas. Generalmente, para modelar sistemas de naturaleza continua, son utilizadas las
ecuaciones diferenciales, las integrales funcionales y las variables de estado, entre otras. Algunos
procedimientos de discretización y digitalización de sistemas, permiten realizar análisis numéricos
sobre modelos aproximados.
Una técnica matemática compleja utilizada para modela:" algunos sistemas físicos y mecánicos es
el Método de los Elementos Finitos (FEM), cuya finalidad es discretizar espacios de naturaleza
continua, sobre los cuales es posible realizar análisis numéricos para comprender, por medio de un
modelo discreto, el comportamiento de sistemas analógicos. No obstante, la complejidad de
aplicar FEM sobre algunos sistemas es tal, que resulta difícil lograr modelos que describan con
precisión sus comportamientos. FEM es de amplia utilización en análisis de sistemas y espacios
físico-mecánicos donde el objetivo sea comprender la resistencia de materiales, la dinámica de
partículas y en general el comportamiento y la interacción de los elementos base del sistema en el
espacio; pero quedan aún muchos sistemas complejos y de diversa naturaleza en los cuales no es
convencional aplicar esta técnica, por ejemplo, sistemas químicos, biológicos, evolutivos,
genéticos, eléctricos, computacionales e inclusive otros físicos y mecánicos. Para el modelamiento
de este tipo de sistemas quedan aún tres opciones: Lograr un modelo de naturaleza continua (en
aquellos sistemas analógicos), en el cual se requiere expresiones de funciones continuas; utilizar
métodos aproximativos de discretización (sin embargo, se tienen problemas de digitalización del
modelo) o modelar con un Autómata Celular.
Los Autómatas Celulares son estructuras ideales para construir modelos digitales aproximativos
de algunos sistemas complejos de naturaleza continua, sin pasar por modelos analógicos. Es
posible, por ejemplo, lograr sencillos modelos digitales que representen con suma fidelidad
algunas leyes de la física.
2. Estructura de un Autómata Celular
Un Autómata Celular es una herramienta computacional que hace parte de la Inteligencia
Artificial basada en modelos biológicos, el cual está básicamente compuesto por una estructura
estática de datos y un conjunto finito de reglas que son aplicadas a cada nodo o elemento de la
estructura. El interés que ha despertado esta técnica radica en la sencillez y en la simplicidad que
caracteriza la construcción de los modelos; además, en la particularidad de los patrones de
comportamiento, presentados por el Autómata en tiempo de ejecución.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Basados en el planteamiento que presenta Muñoz6 acerca de la estructura de un Autómata
Celular se definen como sus componentes básicos:
Un plano bidimensional o un espacio n-dimensional dividido en un número de subespacios
homogéneos, conocidos como celdas. A todo esto se le denomina Teselación
Homogénea.
Cada celda puede estar en uno de un conjunto finito o numerable S de estados.
Una Configuración C, la que consiste en asignarle un estado a cada celda del autómata.
Una Vecindad definida para cada celda, la que consiste en un conjunto contiguo de
celdas, indicando sus posiciones relativas respecto a la celda misma.
Una Regla de Evolución, la cual define cómo debe cada celda cambiar de estado,
dependiendo del estado inmediatamente anterior de su vecindad.
Un Reloj Virtual de Cómputo conectado a cada celda del autómata, el cual generará
"tics" o pulsos simultáneos a todas las celdas indicando que debe aplicarse la regla de
evolución y de esta forma cada celda cambiará de estado.
Según Toffoli y Margolus7, se define un Autómata Celular sólo si se tiene que todas las celdas:
Tienen el mismo Conjunto S de Estados posibles.
Tienen la misma forma de Vecindad.
Tienen la misma Regla de Evolución.
2.1 Consideraciones adicionales
Un Autómata Celular puede ser construido definiendo alguna especificación para ceda uno de
sus componentes, es decir, de alguna forma se definirá su teselación, los posibles estados, las
vecindades y la regla de evolución; no obstante, se tienen unas consideraciones y posibilidades
con estos componentes, las que permitirán cierta flexibilidad en el momento de construir el
autómata.
El autómata puede ser de
La teselación puede ser finita o infinita, con condiciones de frontera abierta o periódica.
El conjunto de estados S no necesita tener ninguna estructura algebraica adicional.
La vecindad puede ser simétrica o no y puede incluir o no a la propia celda.
La regla de evolución es una tabla o unas reglas.
3. Algunos ejemplos y aplicaciones
Tal vez, lo más llamativo e interesante de los Autómatas Celulares es el comportamiento
presentado por el modelo en tiempo de ejecución y la similitud de éste con la complejidad de la
naturaleza continua. "Life" o "El Juego de la Vida", por ejemplo, simula la existencia de
diferentes "formas de vida" sobre un espacio bidimensional, las cuales presentan singular
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
comportamiento a través del tiempo; "Evolución" es un autómata que simula cómo un conjunto
de microbios sobreviven comiendo bacterias; y "Mayoría Alineada" muestra cómo es el
comportamiento de la tensión superficial entre líquidos no permeables. A continuación, algunos
ejemplos de Autómatas Celulares (tomados de Muñoz6).
"Life" o "El Juego de la Vida", de John Hourton Conway.
"Mayoría Alineada". Modelo Celular de Dedwdney2.
"Evolución". Modelo Celular de Dewdney3.
"Reacción Química de Belousov-Zhabotínski". Modelo Celular de Dewdney2.
"HPP-GAS" (modelo de dinámica de fluidos), de Hardy, de Pazzis y Pomeau5
El modelar un sistema del mundo real por medio de un Autómata Celular, requiere que se
conozca al menos su comportamiento global. Si conocido este comportamiento se quiere deducir
un conjunto de reglas de evolución local que lo genere, entonces se desea desarrollar el autómata
por el Problema Inverso. De lo contrario, si se desea primero experimentar y ajustar una Regla
de Evolución pseudo-aleatoria hasta lograr un comportamiento similar al del sistema real,
entonces se desea desarrollar el autómata por el Problema Directo. No obstante, se puede
lograr algo intermedio, a partir de comportamientos locales del sistema real construir una regla de
evolución local y ponerla a prueba para determinar si se logra un autómata que modele el
comportamiento de! sistema global, a esto se le denomina el Problema Intermedio.
Dependiendo ríe la naturaleza compleja de un sistema y de la posibilidad de identificar estados
locales y reglas generales de evolución, se podrían simular comportamientos por medio cíe
Autómatas Celulares ; por ejemplo, los mundos y sistemas enunciados a continuación son
susceptibles a un modelamiento por esta técnica: Simulación de tráfico automotor, virus, glóbulos,
epidemias, bacterias, contaminación, ecosistemas, evolución galáctica, flujo de electrones, acción
& reacción, medios granulares y gases de Fermi entre otros.
4. Dos autómatas implementados
"El Juego de la Vida"
Teselación:
Cuadrícula homogénea.
Estados:
Cuatro estados:
Vivo (negro)
Muerto (blanco)
"Recién" Vivo (gris oscuro)
"Recién" Muerto (gris claro)
Estado Inicial:
Configuración aleatoria.
Vecindad:
Cuadricula de 3x3 centrado en una celda. Incluye la celda del centro. Regla de Evolución:
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Regla de evolución:
Una celda viva permanece viva sólo si en la vecindad hay 2 ó 3 celdas vivas, de lo
contrario se muere.
Una celda muerta cambia a viva sólo si en la vecindad hay exactamente 3 celdas
vivas, de lo contrario sigue muerta.
REDES NEURONALES
1. Es verdad que tenemos ordenadores rapidísimos, más que el cerebro
Un ordenador convencional es una máquina que ejecuta una serie de instrucciones de
forma secuencial, siendo capaz de realizar complicadas operaciones lógicas y aritméticas
de una forma muy rápida, mucho más que el cerebro humano.
2. pero aun así, hay tareas que no realizan bien
Pese a ello, existen tareas, como el reconocimiento de patrones, que ni los grandes
supercomputadores son capaces de resolver de un modo eficiente, mientras que el
cerebro lo viene haciendo desde hace millones de años con suma facilidad y eficiencia.
3. Y es que ordenador y cerebro son diferentes
Por esta razón, algunos científicos han vuelto la vista hacia el cerebro tratando de
estudiarlo desde e! punió de vista de la computación. La estructura del cerebro es
radicalmente diferente a la del ordenador convencional. No está compuesto por un único
microprocesador altamente complejo y eficiente, sino por miles de millones de ellos, las
neuronas, que realizan de modo impreciso y relativamente lento un tipo de cálculo muy
simple.
4. Algunos científicos traían de hacer ordenadores con la estructura de neuronas
En este proceso del pensamiento científico surgieron los sistemas neuronales artificiales,
con la idea de tomar las características esenciales de la estructura neuronal del cerebro
para crear sistemas que lo mimetizaran en parte, mediante sistemas electrónicos. Estos
sistemas están compuestos por multitud de pequeños procesadores simples, a los que se
denomina neuronas artificiales.
5. Aunque se puede emular vía software
Aunque existen ordenadores neuronales, con cientos de pequeños microprocesadores
que trabajan en paralelo, lo cierto es que mediante software se puede emular el
comportamiento de estas redes neuronales en un ordenador convencional y existen
multitud de programas de redes neuronales que funcionan incluso en un ordenador
personal. Muchos de ellos los podemos encontrar gratis en Internet.
6. ¿Qué tratan de hacer?
Las redes neuronales operan sobre la base de reconocimiento de patrones, y que pueden
adquirir, almacenar y utilizar conocimiento experimental, obtenido a partir de ejemplos.
Esta forma de adquirir el conocimiento es una de sus características más destacables: no
se programa de forma directa, como en los sistemas expertos, sino que se adquiere a
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
partir de ejemplos, por ajuste de parámetros de las neuronas mediante un algoritmo de
aprendizaje.
7. ¿Qué tienen por dentro? ¿magia?
En cuanto al modo interno de trabajo las redes neuronales son modelos matemáticos
multivariantes que utilizan procedimientos iterativos, en general para minimizar funciones
de error. O sea, que no es cuestión de magia sino de matemáticas.
8. Diferencia con los sistemas expertos
Las redes neuronales se asemejan a los sistemas expertos en cuanto al objetivo de
representar el conocimiento pero son radicalmente opuestos en cómo aspiran a
conseguirlo. Como vemos, los sistemas expertos se acercarían más al razonamiento
deductivo -obtener reglas- y las redes neuronales al inductivo -aprendizaje mediante
ejemplos-. La gestión empresarial utiliza frecuentemente ambos esquemas de
razonamiento, por lo que ambas técnicas tienen cabida. Además, ambos modelos son
perfectamente compatibles, de forma que se pueden integrar en un único sistema.
TIPOS DE REDES NEURONALES
1) ¿En qué se diferencian unas redes neuronales de otras?
En primer lugar hay que distinguir entre modelos neuronales -la forma- y algoritmos
neuronales - cómo aprenden.
2) Los modelos neuronales
Los modelos neuronales son similares o incluso en muchos casos idénticos a otros
modelos matemáticos bien conocidos. Se suelen representar mediante grafos, llamados
en este contexto neuronas artificiales. Cada neurona realiza una función matemática. Las
neuronas se agrupan en capas, constituyendo una red neurona!. Una determinada red
neuronal está confeccionada y entrenada para llevar a cabo una labor específica.
Finalmente, una o varias redes, más los interfaces con el entorno, conforman el sistema
global.
3) Varios modelos
Los modelos neuronales se diferencian en la función que incorpora la neurona, su
organización y forma de las conexiones. Sarle (1994) compara los modelos neuronales con
los modelos estadísticos más convencionales, encontrando que la mayoría de los modelos
neuronales tienen un equivalente tradicional, y que frecuentemente los científicos del
campo de las redes neuronales reinventan modelos ya existentes.
ALGORITMOS
1) ¿Qué hacen los algoritmos?
Los modelos neuronales utilizan varios algoritmos de estimación, aprendizaje o
entrenamiento para encontrar los valores de los parámetros del modelo, que en la jerga
de las redes neuronales se denominan pesos sinápticos.
2) ¿Cómo es el aprendizaje?
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
El entrenamiento se realiza mediante patrones-ejemplo, siendo dos los tipos de
aprendizaje: supervisado y no supervisado.
a) El aprendizaje supervisado
Se asemeja al método de enseñanza tradicional con un profesor que indica y corrige
los errores de! alumno hasta que éste aprende la lección. Si la red utiliza un tipo de
aprendizaje supervisado debemos proporcionarle parejas de patrones entrada-salida y
la red neuronal aprende a asociarlos. En terminología estadística equivale a los
modelos en los que hay vectores de variables independientes y dependientes: técnicas
de regresión, análisis discriminante, análisis lógit, modelos de series temporales, etc.
b) El aprendizaje no supervisado
No hay un profesor que corrija los errores al alumno; recuerda más al autoaprendizaje.
El alumno dispone del material de estudio pero nadie lo controla. Si el entrenamiento
es no supervisado, únicamente debemos suministrar a la red los datos de entrada para
que extraiga los rasgos característicos esenciales. En terminología estadística equivale
a los modelos en los que sólo hay vectores de variables independientes y buscan el
agrupa miento de los patrones de entrada: análisis de conglomerados o cluster,
escalas multidimensionales, etc.
PROCEDIMEINTO DE TRABAJO
1) ¿Cómo se trabaja con las redes neuronales?
La figura siguiente describe el procedimiento para operar con redes neuronales.
Originalmente la red neuronal no dispone de ningún tipo de conocimiento útil
almacenado. Para que la red neuronal ejecute una tarea es preciso entrenarla, en
terminología estadística diríamos que es necesario estimar los parámetros.
2) Es un procedimiento estadístico
En realidad todo el procedimiento que vemos en la figura es estadístico: primero se
selecciona un conjunto de dalos, o patrones de aprendizaje en jerga neuronal. Después se
desarrolla la arquitectura neuronal, número de neuronas, tipo de red. Por decirlo con
otras palabras, se selecciona el modelo y el número de variables dependientes e
independientes. Se procede a la fase de aprendizaje o estimación del modelo y a
continuación se validan los resultados.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Tarea a resolver
Desarrollo de la
arquitectura neuronal
Selección de los patrones
de aprendizaje
Selección de los patrones
de test
Fase de aprendizaje
Fase detest
¿Valido?
entradaSISTEMA
NEURONAL
salida
No
Si
Operaciones:
Modo de trabajo con redes neuronales
Desarrollo :
LOGICA DIFUSA
1. Introducción:
La lógica borrosa es una rama de la inteligencia artificial que se funda en el concepto "Todo es
cuestión de grado”, lo cual permite manejar información vaga o de difícil especificación si
quisiéramos hacer cambiar con esta información el funcionamiento o el estado de un sistema
específico. Es entonces posible con la lógica borrosa gobernar un sistema por medio de reglas de
sentido común las cuales se refieren a cantidades indefinidas.
Las reglas involucradas en un sistema borroso, pueden ser aprendidas con sistemas adaptativos
qua aprenden a l ' observar' cómo operan las personas los dispositivos reales, o estas reglas
pueden también ser formuladas por un experto humano. En general la lógica borrosa se aplica
tanto a sistemas de control como para modelar cualquier sistema continuo de ingeniería, física,
biología o economía.
La lógica borrosa es entonces definida como un sistema matemático que modela funciones no
lineales, que convierte unas entradas en salidas acordes con los planteamientos lógicos que usan
el razonamiento aproximado.
Se fundamenta en los denominados conjuntos borrosos y un sistema de inferencia borroso basado
en reglas de la forma " SI… ENTONCES….", donde los valores lingüísticos de la premisa y el
consecuente están definidos por conjuntos borrosos, es así como las reglas siempre convierten un
conjunto borroso en otro.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
2. Historia:
Los conjuntos difusos fueron introducidos por primera vez en 1965; la creciente disciplina de la
lógica difusa provee por sí misma un medio para acoplar estas tareas. En cierto nivel, la lógica
difusa puede ser vista como un lenguaje que permite trasladar sentencias sofisticadas en lenguaje
natural a un lenguaje matemático formal. Mientras la motivación original fue ayudar a manejar
aspectos imprecisos del mundo real, la práctica temprana de la lógica difusa permitió el desarrollo
de aplicaciones prácticas. Aparecieron numerosas publicaciones que presentaban los fundamentos
básicos con aplicaciones potenciales. Esta frase marcó una fuerte necesidad de distinguir la lógica
difusa de la teoría de probabilidad. Tal como la entendemos ahora, la teoría de conjuntos difusos y
la teoría de probabilidad tienen diferentes tipos de incertidumbre.
En 1994, la teoría de !a lógica difusa se encontraba en la cumbre, pero esta idea no es nueva, para
muchos, estuvo bajo el nombre de lógica difusa durante 25 años, pero sus orígenes se remontan
hasta 2,509 años. Aún Aristóteles consideraba que existían ciertos grados de veracidad y falsedad.
Platón había considerado ya grados de pertenencia.
En el siglo XVIII el filósofo y obispo anglicano Irlandés, George Berkeley y David Hume describieron
que el núcleo de un concepto atrae conceptos similares. Hume en particular, creía en la lógica del
sentido común, el razonamiento basado en el conocimiento que la gente adquiere en forma
ordinaria mediante vivencias en el mundo. En Alemania, Immanuel Kant, consideraba que solo los
matemáticos podían proveer definiciones claras, y muchos principios contradictorios no tenían
solución. Por ejemplo la materia podía ser dividida infinitamente y al mismo tiempo no podía ser
dividida infinitamente. Particularmente la escuela americana de la filosofía llamada pragmatismo
fundada a principios de siglo por Charles Sanders Peirce, cuyas ideas se fundamentaron en estos
conceptos, fue el primero en considerar "vaguedades", más que falso o verdadero, como forma de
acercamiento al mundo y a la forma en que la gente funciona.
La idea de que la lógica produce contradicciones fue popularizada por el filósofo y matemático
británico Bertrand Russell, a principios del siglo XX. Estudio las vaguedades del lenguaje,
concluyendo con precisión que la vaguedad es un grado. El filósofo austríaco Ludwing
Wittgenstein estudió las formas en las que una palabra puede ser empleada para muchas cosas
que tienen algo en común. La primera lógica de vaguedades fue desarrollada en 1320 por el
filósofo Jan Lukasiewicz, visualizó los conjuntos con un posible grado de pertenencia con valores
de 0 y 1, después los extendió a un número infinito de valores entre 0 y 1. En los años sesentas,
Lofti Zadeh inventó la lógica difusa, que combina los conceptos de la. Lógica y de los conjuntos de
Lukasiewicz mediante la definición de grados de pertenencia.
3. Conceptos básicos de lógica difusa: Conjuntos difusos.
La mayoría de los fenómenos que encontramos cada día son imprecisos, es decir, tienen implícito
un cierto grado de difusidad en la descripción de su naturaleza. Esta imprecisión puede estar
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
asociada con su forma, posición, momento, color, textura, o incluso en la semántica que describe
lo que son. En muchos casos el mismo concepto puede tener diferentes grados de imprecisión en
diferentes contextos o tiempo. Un día cálido en invierno no es exactamente lo mismo que un día
cálido en primavera. La definición exacta de cuando la temperatura va de templada a caliente es
imprecisa -no podemos identificar un punto simple de templado, así que emigramos a un simple
grado, la temperatura es ahora considerada caliente. Este tipo de imprecisión o difusidad asociado
continuamente a los fenómenos es común en todos los campos de estudio: sociología, física,
biología, finanzas, ingeniería, oceanografía, psicología, etc.
Conceptos imprecisos.
Aceptarnos la imprecisión como una consecuencia natural de "la forma de las cosas en el mundo".
La dicotomía entre el rigor y la precisión del modelado matemático en todos los campos y la
intrínseca incertidumbre de "el mundo real" no es generalmente aceptada per los científicos,
filósofos y analistas de negocios. Nosotros simplemente aproximamos estos eventos a funciones
numéricas y escogemos un resultado en lugar de hacer un análisis de conocimiento empírico. Sin
embargo procesamos y entendemos de manera implícita la imprecisión de !a información
fácilmente. Estamos capacitados para formular planes, tomar decisiones y reconocer conceptos
compatibles con altos niveles de vaguedad y ambigüedad, considere las siguientes sentencias:
La temperatura está caliente
La inflación actual aumenta rápidamente
Los grandes proyectos generalmente tardan mucho
Nuestros precios están por abajo de los precios de la competencia
IBM es una compañía grande y agresiva .
Alejandro es alto pero Ana no es bajita
Estas proposiciones forman el núcleo de nuestras relaciones con "la forma de las cosas en el
mundo". Sin embargo, son incompatibles con el modelado tradicional y el diseño de sistemas de
información. Si podemos incorporar estos conceptos logramos que los sistemas sean potentes y se
aproximen más a la realidad.
Pero, es la imprecisión un concepto artificial utilizado para aumentar o disminuir en uno o más las
propiedades de los fenómenos? o es una parte intrínseca del fenómeno en sí mismo?
Esta es una pregunta importante ya que es la parte fundamental de las medidas de la teoría
difusa. Como veremos la fusificación es independiente de cualquier capacidad para medir, ya que
un conjunto difuso es un conjunto que no tiene límites bien definidos. Un conjunto difuso tiene
muchas propiedades intrínsecas que afectan la forma del conjunto, su uso y como participa en un
modelo. Las propiedades más importantes de un conjunto difuso son las concernientes a las
dimensiones verticales del conjunto difuso (altura y normalización) y las dimensiones horizontales
(conjunto soporte y cortes "alpha").
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
La altura de un conjunto difuso es como máximo un grado de pertenencia y es una cota cercana al
concepto de normalización. La superficie de la región de un conjunto difuso es el universo de
valores. Todos estos conceptos se tratarán más adelante. Es decir un conjunto difuso A se
considera, como un conjunto de pares ordenados, en los que el primer componente es un número
en el rango [0,1] que denota el grado de pertenencia de un elemento u de U en A, y el segundo
componente especifica precisamente quién es ése elemento de u. En general los grados de
pertenencia son subjetivos en el sentido de que su especificación es una cuestión objetiva. Se
debe aclarar que aunque puede interpretarse como el grado de verdad de que la expresión "u A"
sea cierta, es más natural considerarlo simplemente como un grado de pertenencia.
Puede notarse además que:
a) Mientras más próximo está (u) a el valor 1, se dice que u pertenece más a A (de modo que
0 y 1 denotan la no pertenencia y la pertenencia completa, respectivamente).
b) Un conjunto en e l sentido usual es también difuso pues su función característica u es
también una función u [0,1]; o sea que los conjuntos difusos son una generalización de los
conjuntos usuales.
Ejemplo: Sea U =11, 2 , 3, 4, 5, 6, 7, 8, í», entonces los conjuntos definidos a continuación son
difusos:
POCOS = (.4/1, .5/2,1/3, .4/4)
VARIOS = (.5/3, .8/4, 1/5, 1/8, .8/7, .5,8)
MUCHOS = {.4/6, .6/7, .8/3, .S/9,1/10}
Note que el elemente 4 pertenece en grado .4 al conjunto POCOS, en grado .8 al conjunto VARIOS
y en grado .0 a MUCHOS. Zadeh ha hecho algunas extensiones a los conceptos de conjuntos
difusos ordinarios que se han explicado; por ejemplo los conjuntos difusos de nivel-m y los
conjuntos difusos tipo-n. Para un conjunto difuso de nivel-m se considera como su universo de
discusión al conjunto de conjuntos difusos de nivel-(m-l), sobreentendiendo que los conjuntos
difusos de nivel-1 son conjuntos difusos ordinario». Para los conjuntos difusos tipo-n, los valores
de las funciones de pertenencia son conjuntes difusos de tipo-(n-l) del intervalo [0,1] (en lugar de
ser puntos de [0,1]). También los conjuntos difusos íipo-1 son equivalentes a los conjuntos difusos
ordinarios.
Operaciones.
En la lógica Booleana tradicional, los conjuntos son considerados como sistemas bivalentes con sus
estados alternando entre inclusión y exclusión. La característica de la función discriminante refleja
este espacio bivaluado.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Esto indica que la función de pertenencia para el conjunto A es cero si x no es un elemento en A y
la función de pertenencia es si x es un elemento en A. Dado que existen solamente dos estados, la
transición entre estos dos estados es siempre inmediata. La pertenencia de estos conjuntos está
siempre totalmente categorizada y no existe ambigüedad o dicotomía acerca de la pertenencia.
Existen 4 operaciones básicas de conjuntos en esta lógica: unión, intersección, complemento y
unión exclusiva. Al igual que en los conjuntos convencionales, existen definiciones específicas para
combinar y especificar nuevos conjuntos difusos. Este conjunto de funciones teóricas provee las
herramientas fundamentales de la lógica. En el caso usual, con las operaciones comunes de
intersección, unión y complemento, el conjunto de conjuntos de U forman un álgebra booleana, es
decir se cumplen las condiciones de asociatividad, conmutatividad, elementos neutros, ídem
potencia, absorción, distributividad, complemento y las leyes de Morgan.
Las tres operaciones mencionadas se pueden extender de varias formas a conjuntos difusos, de
modo que al restringirlas a los conjuntos usuales, coincidan con las comunes. Estas extensiones
resultantes satisfacen en forma general sólo a algunas de las condiciones listadas anteriormente, y
para mantener la vigencia de alguna, será obligatorio sacrificar a otras. En el sistema se optó por
extender las operaciones en el sentido clásico, es decir, dados dos conjuntos difusos A y B, se
definen las operaciones extendidas de la siguiente forma
Dado que los conjuntos difusos no se particionan en el mismo sentido que los conjuntos
Booleanos, estas operaciones son aplicadas al nivel de pertenencia, como una consecuencia de los
conjuntos difusos. Decidir si un valor es o no es miembro de cualquier conjunto difuso en
particular, requiere algunas nociones de cómo está construido el conjunto, del universo y de los
límites de éste.
Las etiquetas lingüísticas y operadores.
El centro de las técnicas de modelado difuso es la idea de variable lingüística. Desde su raíz, una
variable lingüística es el nombre de un conjunto difuso. Si tenemos un conjunto difuso llamado
"largo" éste es una simple variable lingüística y puede ser empleada como una regla-base en un
sistema basado en la longitud de un proyecto en particular Si duración-proyecto es largo entonces
la-terminación-de-tareas es DECRECIENTE; Una variable lingüística encapsula las propiedades de
aproximación o conceptos de imprecisión en un sistema y da una forma de computar adecuada.
Esto reduce la aparente complejidad de describir un sistema que debe concordar con su
semántica. Una variable lingüística siempre representa un espacio difuso.
Lo importante del concepto de variable lingüística es su estimación de variable de alto orden más
que una variable difusa. En el sentido de que una variable lingüística toma variables difusas como
sus valores. En el campo de la semántica difusa cuantitativa al significado de un término "x" se le
representa como un conjunto difuso M(x) del universo de discusión. Desde este punto de vista,
uno de los problemas básicos en semántica es que se desea calcular el significado de un término
compuesto: o
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
La idea básica sugerida por Zadeh es que una etiqueta lingüística tal como "muy", "más o menos",
"ligeramente", etc... Puede considerarse como un operador que actúa sobre un conjunto difuso
asociado al significado de su operando. Por ejemplo en el caso de un término compuesto "muy
alto", el operador "muy" actúa en el conjunto difuso asociado al significado del operando "alto".
Una representación aproximada para una etiqueta lingüística se puede lograr en términos de
combinaciones o composiciones de las operaciones básicas explicadas en la sección anterior. Es
importante aclarar que se hará mayor énfasis en que estas representaciones se proponen
principalmente para ilustrar el enfoque, más que para proporcionar una definición exacta de las
etiquetas lingüísticas. Zadeh también considera que las etiquetas lingüísticas pueden clasificarse
en dos categorías que informalmente se definen como sigue:
Tipo I: las que pueden representarse cómo operadores que actúan en un conjunto difuso: "muy",
"más o menos", "mucho", "ligeramente", "altamente", "bastante", etc. y,
Tipo II: las que requieren una descripción de cómo actúan en los componentes de! conjunto difuso
(operando): "esencialmente", "técnicamente", "estrictamente", "prácticamente", "virtualmente",
etc...
En otras palabras, las etiquetas lingüísticas pueden ser caracterizadas cómo operadores más que
construcciones complicadas sobre las operaciones primitivas de conjuntos difusos.
Ejemplos de etiquetas tipo I.
De acuerdo a éste punto de vista y sabiendo que el lenguaje natural es muy rico y complejo,
tomamos el operador "muy" que podemos caracterizar con un significado de que aun cuando no
tenga validez universal sea sólo una aproximación. Asumimos que si el significado de un término x
es un conjunto difuso A, entonces el significado de muy X.
Más y menos
Se pueden definir etiquetas lingüísticas artificiales, por ejemplo: más, menos, que son instancias
de lo que puede llamarse acentuador y des-acentuador respectivamente, cuya función es
proporcionar ligeras variantes de la concentración y la dilatación.
Los exponentes se eligen de modo que se dé la igualdad aproximada: mas mas x = menos muy x, y
que, además, se pueden utilizar para definir etiquetas lingüísticas cuyo significado difiere
ligeramente de otras, ejemplo:
Más o menos
Otra etiqueta lingüística interesante es "más o menos" que en sus usos más comunes como "más o
menos inteligente", "más o menos rectangular" etc., juega el papel de difusificador.
Ligeramente
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Su efecto es dependiente de la definición de proximidad u ordenamientos en el dominio da:
operando. Existen casos, sin embargo, en los que su significado puede definirse en términos de
etiquetas lingüísticas tipo i, bajo la suposición de que el dominio del operando es un conjunto
ordenado linealmente.
Clase de
Es una etiqueta lingüística que tiene e! efecto de reducir el grado de pertenencia de los elementos
que están en el "centro" (grados de pertenencia grandes) de una clase x e incrementa el de
aquellos que están en su periferia (grados de pertenencia pequeños).
Regular
Es una etiqueta que tiene el efecto de reducir el grado de pertenencia de aquellos elementos que
tienen tanto un alto grado de pertenencia al conjunto como de aquellos que lo tienen pequeño, y
sólo aumenta el grado de pertenencia de aquellos elementos que tienen un grado de pertenencia
cercano.
Etiquetas tipo II.
Su caracterización envuelve una descripción de forma que afectan a los componentes del
operando, y por lo tanto es más compleja que las del tipo 1. En general, la definición de una
etiqueta de este tipo debe formularse como un algoritmo difuso que envuelve etiquetas tipo I. Su
efecto puede describirse aproximadamente como una modificación de los coeficientes de
ponderación de una combinación convexa. Como la magnitud de las ponderaciones es una medida
del atributo asociado, intuitivamente una etiqueta de este tipo tiene el efecto de aumentar las
ponderaciones de los atributos importantes y disminuir los que relativamente no lo son.
4. ¿Qué es la lógica difusa?
Un tipo de lógica que reconoce más que simples valores verdaderos y falsos. Con lógica difusa, las
proposiciones pueden ser representadas con grados de veracidad o falsedad. Por ejemplo, la
sentencia "hoy es un día soleado", puede ser 100% verdad si no hay nubes, 80% verdad si hay
pocas nubes, 50% verdad si existe neblina y 0% si llueve todo el día.
La Lógica Difusa ha sido probada para ser particularmente útil en sistemas expertos y otras
aplicaciones de inteligencia artificial. Es también utilizada en algunos correctores de voz para
sugerir una lista de probables palabras a reemplazar en una mal dicha. La Lógica Difusa, que hoy
en día se encuentra en constante evolución, nació en los años 60 como la lógica del razonamiento
aproximado, y en ese sentido podía considerarse una extensión de la Lógica Multivaluada. La
Lógica Difusa actualmente está relacionada y fundamentada en la teoría de los Conjuntos Difusos.
Según esta teoría, el grado de pertenencia de un elemento a un conjunto va a venir determinado
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
por una función de pertenencia, que puede tomar todos los valores reales comprendidos en el
intervalo [0,1].
Ejemplo de una función de pertenencia a un Conjunto Difuso.
La Lógica Difusa (llamada también Lógica Borrosa por otros autores) o Fuzzy Logic es básicamente
una lógica con múltiples valores, que permite definir valores en las áreas oscuras entre las
evaluaciones convencionales de la lógica precisa: Si / No, Cierto / Falso, Blanco / Negro, etc. Se
considera un súper conjunto de la Lógica Booleana. Con la Lógica Difusa, las proposiciones pueden
ser representadas con grados de certeza o falsedad. La lógica tradicional de las computadoras
opera con ecuaciones muy precisas y dos respuestas: Si o no, uno o cero. Ahora, para aplicaciones
de computadores muy mal definido o sistemas vagos se emplea la Lógica Difusa.
Por medio de la Lógica Difusa pueden formularse matemáticamente noción como un poco caliente
o muy fría, para que sean procesadas por computadoras y cuantificar expresiones humanas vagas,
tajes como "Muy alto" o "luz brillante". De esa forma, es un intente de aplicar la forma de pensar
humana a la programación de los computadores. Permite también cuantificar aquellas
descripciones imprecisas que se usan en el lenguaje y las transiciones graduales en
electrodomésticos como ir de agua sucia a agua limpia en una lavadora, lo que permite ajustar los
ciclos de lavado a través de sensores. La habilidad de la Lógica Difusa para procesar valores
parciales de verdad ha sido de gran ayuda para la ingeniería. En general, se ha aplicado a:
Sistemas expertos.
Verificadores de ortografía, los cuales sugieren una lista de palabras probables para reemplazar
una palabra mal escrita. Control de sistemas de trenes subterráneos.
Los operadores lógicos que se utilizarán en Lógica Difusa (AND, OR, etc.) se definen también
usando tablas de verdad, pero mediante un "principio de extensión" por el cual gran parte del
aparato matemático clásico existente puede ser adaptado a la manipulación de los Conjuntos
Difusos y, por tanto, a la de las variables lingüísticas.
La operación más importante para el desarrollo y creación de Reglas Lógicas es (a implicación,
simbolizada por que representa el "Entonces" de las reglas heurísticas: Si (...) Entonces ( )
(...).
Así, en la Lógica Difusa hay muchas maneras de definir la implicación. Se puede elegir una "función
(matemática) de implicación" distinta en cada caso para representar a la implicación.
La última característica de los sistemas lógicos es el procedimiento de razonamiento, que permite
inferir resultados lógicos a partir de una serie de antecedentes. Generalmente, el razonamiento
lógico se basa en silogismos, en los que los antecedentes son por un lado las proposiciones
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
condicionales (nuestras reglas), y las observaciones presentes por otro (serán las premisas de cada
regla).
Los esquemas de razonamiento utilizados son "esquemas de razonamiento aproximado", que
intentan reproducir los esquemas mentales del cerebro humano en el proceso de razonamiento.
Estos esquemas consistirán en una generalización de los esquemas básicos de inferencia en Lógica
Binaria (silogismo clásico).
Tan importante será la selección de un esquema de razonamiento como su representación
material, ya que el objetivo final es poder desarrollar un procedimiento analítico concreto para el
diseño de controladores difusos y la toma de decisiones en general. Una vez que dispongamos de
representaciones analíticas de cada uno de los elementos lógicos que acabamos de enumerar,
estaremos en disposición de desarrollar formalmente un controlador "heurístico" que nos permita
inferir el control adecuado de un determinado proceso en función de un conjunto de regias
"lingüísticas", definidas de antemano tras la observación de la salida y normas de funcionamiento
de éste.
5. Conjuntos difusos: Lógica Difusa: Predicados Vanos y Conjuntos Difusos.
Los conjuntos clásicos se definen mediante un predicado que da lugar a una ciara división del
Universo de Discurso X en los valores "Verdadero" y "Falso". Sin embargo, el razonamiento.
Humano utiliza frecuentemente predicados que no se pueden reducir a este tipo de división: son
los denominados predicados vagos.
Por ejemplo, tornando el Universo de Discurso formado por todas las posibles temperatura!-
ambientales en la ciudad de Huelva, se puede definir en dicho universo el conjunto A como aquél
formado por las temperaturas "cálidas". Por supuesto, es imposible dar a A una definición clásica,
ya que su correspondiente predicado no divide el universo X en dos partes claramente
diferenciadas. No podemos afirmar con rotundidad que una temperatura es "cálida" o no lo es. El
problema podría resolverse en parte considerando que una temperatura es "cálida" cuando su
valor supera cierto umbral fijado de antemano. Se dice que el problema tan sólo se resuelve en
parte, y de manera no muy convincente, por dos motivos: de una parte el umbral mencionado se
establece de una manera arbitraria, y por otro lado podría darse el caso de que dos temperaturas
con valores muy diferentes fuesen consideradas ambas como "cálidas". Evidentemente, el
concepto "calor" así definido nos daría una información muy pobre sobre la temperatura
ambiental.
La manera más apropiada de dar solución a este problema es considerar que la pertenencia o no
pertenencia de un elemento x al conjunto A no es absoluta sino gradual. En definitiva, definiremos
A como un Conjunto Difuso. Su función de pertenencia ya no adoptará valores en el conjunto
discreto {0,1} (lógica booleana), sino en el intervalo cerrado [0,1]. En conclusión podemos observar
que los Conjuntos Difusos son una generalización de ¡os conjuntos clásicos.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Mediante notación matemática se define un Conjunto Difuso B como:
( ( ))
La función de pertenencia se establece de una manera arbitraria, lo cual es uno de los aspectos
más flexibles de los Conjuntos Difusos. Por ejemplo, se puede convenir que al grado de
pertenencia de una temperatura de "45°C" al conjunto A es 1, el de "250C" es 0.4, el de "6°C" es 0,
etc.: cuanto mayor es el valor de una temperatura, mayor es su grado ce pertenencia al conjunto
B.
Tipos de funciones de pertenencia.
E n la figura se pueden observar dos tipos de funciones de pertenencia de todos los posibles: el
tipo triangular, que puede ser un caso concreto del trapezoidal en el que los dos valores centrales
son iguales, y el de forma de campana gaussiana. Tómese ahora el Universo de Discurso de la
edad. El Conjunto Difuso "Joven" representa el grado de pertenencia respecto al parámetro
juventud que tendrían los individuos de cada edad. Es decir, el conjunto expresa la posibilidad de
que un individuo sea considerado joven. 'Un Conjunto Difuso podría ser considerado como una
distribución de posibilidad, que es diferente a una distribución de probabilidad.
Se puede observar que los Conjuntos Difusos de la figura 3 se superponen, por lo que un individuo
xl podría tener distintos grados de pertenencia en dos conjuntos al mismo tiempo:
"Joven" y "Maduro". Esto indica que posee cualidades asociadas con ambos conjuntos. El grado de
pertenencia de x en A, como ya se ha señalado anteriormente, se representa por m A(x). El
Conjunto Difuso A es la unión de los grados de pertenencia para todos los puntos en el Universo
de Discurso X, que también puede expresarse como:
Bajo la notación de los Conjuntos Difusos, ( ) es un elemento de! conjunto A. La operación
representa la unión de los elementos difusos ( ) Los Universos de Discurso con
elementos discretos utilizan los símbolos "+" y "S " para representar la operación unión.
Veamos un ejemplo:
Ejemplo de Conjuntos Difusos en el universo de la edad.
Tómese un individuo cuya edad sea de 20 años. Como se pueda observar en la figurs, pertenece
al Conjunto Difuso "Joven" y al Conjunto Difuso "Maduro", Se puede observar que posee un grado
de pertenencia ( ) de 0.6 pare el Conjunto Difuso "Joven" y un grado de 0.4 para el Conjunto
Difuso "Maduro"; también posee un grado de para "Viejo". De este ejemplo se puede deducir
que un elemento puede pertenecer a varios Conjuntos Difusos a la vez aunque con distinto grado.
Así, nuestro individuo x tiene un grado de pertenencia mayor al conjunto "Joven " que al conjunto
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
"Maduro"(0.6 > 0.4), pero no se puede decir, tratándose de Conjuntos Difusos, que x es joven o
que x es maduro de manera rotunda.
6. Operaciones entre Conjuntos difusos:
Los Conjuntos Difusos se pueden operar entre sí del mismo modo que los conjuntos clásicos.
Puesto que los primeros son una generalización de los segundos, es posible definir las operaciones
de intersección, unión y complemento haciendo uso de las mismas funciones de pertenencia:
( ) ( ) ( )
( ) ( ( ) ( ))
( ) ( )
En realidad, estas expresiones son bastante arbitrarias y podrían haberse definido de muchas
otras maneras. Esto obliga a considerar otras definiciones más generales para las operaciones
entre los Conjuntos Difusos. En la actualidad se considera correcto definir el operador intersección
mediante cualquier aplicación t-norma y el operador unión mediante cualquier aplicación S-
norma.
Variables Lingüísticas
La Teoría de Conjuntos Difusos puede utilizarse para representar expresiones lingüísticas que se
utilizan para describir conjuntos o algoritmos. Los Conjuntos Difusos son capaces de captar por sí
mismos la vaguedad lingüística de palabras y frases comúnmente aceptadas, como "gato pardo" o
"ligero cambio". La habilidad humana de comunicarse mediante definiciones vagas o inciertas es
un atribulo importante de la inteligencia.
Una Variable Lingüística es aquella variable cuyos valores son palabras o sentencias que van a
enmarcarse en un lenguaje predeterminado. Para estas variables lingüísticas se utilizará un
nombre y un valor lingüístico sobre un Universo de Discurso. Además, podrán dar lugar a
sentencias generadas por reglas sintácticas, a las que se les podrá dar un significado mediante
distintas reglas semánticas.
Los Conjuntos Difusos pueden utilizarse para representar expresiones tales como:
X es PEQUEÑO.
La velocidad es RÁPIDA.
El ganso es CLARO.
Las expresiones anteriores pueden dar lugar a expresiones lingüísticas más compleja como:
X no es PEQUEÑO.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
La velocidad es RÁPIDA pero no muy RÁPIDA.
El ganso es CLARO y muy ALEGRE.
Así, se pueden ir complicando las expresiones. Por ejemplo, la expresión "x no es PEQUEÑO"
puede calcularse a partir de la original calculando e! complemento de la siguiente forma:
( ) ( )
Tratando de esta forma los distintos modificadores lingüísticos (muy, poco, rápido, lento.), pueden
ir calculándose todas las expresiones anteriores.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Tema N°5
AUTOSIMILITUD Y GEOMETRÍA FRACTAL
Introducción.
A finales del siglo XIX y principios del XX, Cantor, Peano y Koch, crearon unos extraños entes
geométricos que fueron catalogados como "monstruos".
En un principio, se trataba sólo de curiosidades matemáticas, hasta que Mandelbrot la eludió a
f o n d o y observo que todas ellas compartían una propiedad: tenían una homolecia interna, es
decir, sus partes, por pequeñas que fueran, eran similares al todo. De hecho fueron los primeros
objetos conocidos con dimensiones fraccionarias.
Mandelbrot tuvo el gran acierto de observar que muchas estructuras naturales (nubes. montañas,
redes fluviales, galaxias, helechos, los conductos pulmonares, etc.) que aparentan tanta
complejidad, son en realidad, fractales y en el fondo no son tan complicadas.
Curvas de Peano y de Hilbert
En 1890, Giuseppe Peano, presentó una nueva curva: se trata de una curva que llena un cuadrado.
Años más tarde, Hilbert construye otra curva de esta tipo que también rellena un espacio Tiene la
ventaja de que el proceso de construcción es más sencillo que el de la curva de Peano.
Para construir la curva de Hilbert se procede así: partimos del cuadrado unidad dividido en cuatro
partes igualas y se unen sus centros tal como indica el dibujo. Seguidamente, se divide cada uno
de los cuadrados en cuatro partes y se repite el proceso; se conectan sus centros, comenzando
siempre por el cuadrado inferior izquierdo y terminando en al cuadrado inferior derecho. Este
proceso se repite indefinidamente y se obtiene la curva de Hilbert.
La curva de koch.
Es una curva continua y cerrada que no tiene tangente en ningún punto. Además es de longitud
infinita, aunque cierra un área finita y más aún; dados dos puntos cualesquiera de la curva, la
longitud del arco entra ellos es infinita.
Veamos cómo se construye esta curva: se parte de un triángulo equilátero en el que cada lado se
divide en tres partes iguales. Y se sustituir el tercio central por un promontorio en forma de
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
triángulo equilátero, y así hemos sustituido cada lado por una poligonal formada por 4/3 del lado
original. Este proceso se repite hasta el infinito.
El conjunto de Mandelbrot.
El conjunto de Mandelbrot es sin duda, uno de los más bello y famosos da toda la matemática y su
estudio está íntimamente relacionado con la teoría de los fractales. La razón de este éxito estriba
en la sencilla definición de dicho conjunto que permite, con la ayuda de un facilísimo programa de
ordenador, explorar este enigmático ente matemático.
Para definir esto conjunto, debemos trabajar en si plano complejo y hacer uso de un proceso
iterativo: se parte de la expresión ( ) , donde z y c son números complejos, pero z es
una variable (puede tomar distintos valores) y c es un número complejo fijo.
El conjunto de Mandelbrot es e! conjunto de los números complejos, "c" para los cuales el tamaño
de z2 + c permanece acotado, es decir, no diverge a infinito. Se puede asegurar q u e si después de
1000 iteraciones el módulo no supera a 2, entonces ya no diverge a infinito. Un algoritmo para
representar el conjunto de Mandelbrot, puede ser el siguiente:
1. Se elige un número c del plano complejo.
2. Se hace z = 0.
3. Desde n = 0 hasta 1000
1.1 Se calcula x = z2 + c.
1.2 Se hace el cambio z = x,
1.3 Si | z | >= 2 se va al paso 5.
4. Se representa c.
5. Se vuelve al paso 1
6. Fin.
Podemos representar los puntos con diversos colores dependiendo de la iteración en la que
rebasen a 2. Los puntos que pertenecen al conjunto de Mandelbrot se colorean de negro.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Conjuntos de Julia
Los conjuntos de Julia son muy fáciles de definir y se engendran mediante un proceso iterativo, en
el piano complejo. Están íntimamente relacionados con el conjunto de Mandelbrot.
Veamos cómo se crean estos conjuntos de Julia: se parte de la expresión ( ) , pero
ahora z es la variable y c permanece fija. Es decir, cada valor de c tiene un conjunto da Julia
asociado.
Según los valores de c obtenernos algunos conjuntos conexos y otros no. Hay un teorema que nos
aclara esto: si el punto c se elige en el interior del conjunto de Mandelbrot, correspondiente
conjunto de Julia es conexo, en caso contrario el conjunto da Julia no es conexo.
Universidad Salesiana de Bolivia
Carrera “Ingeniería de Sistemas”
Bibliografía
Zona Fractal: introducción, links, software http://www.quanta.net/zfractal/mainmenu.html
Base de datos dé Fractales: Hay de todo relacionado con fractales
http://spanky.triumf.ca/www/spanky.html
Ghaffey High School Fractal Links Page: Aquí sí que hay de todo.
Http://www1.primenet .com/blitzw/fractal/
Fractal Ouestions and Answers: Preguntas y respuestas sobre fractales.
Http://www.softiáb.eco.ntua.gr/fac/fractal/fac.html
Mundo Fractal: De todo un poquito. http://www.idecnet.com/~azurdoza/fractal.html
Galería de imágenes: Algunas imágenes, http://perscnal.redestb.es/dinerz/jordi/ fractal Images by
Sharon Web: Algunas imágenes y links a infinitas. http://home1.gie.net/itriazon/Sharon.html
Sprott’s fractal Gallery: Muchas imágenes, http://sprott.physics.wisc.edu/fractals.htm
FRACTINT fractal Galllery: Links a infinitas imágenes.
http://spanky.triuinf.ca/www/fractint/fract-gal.html
Sekino's Fractal Gallery: Más imágenes:
http://www.willamette.edu/~sekino/fractal/fractal.html
Frsctal Image Compression: ¿Qué crees que hay?
http://ipsun1.cs.nthu.sdu.tw/~mr834342/fic.html
Software
Software de fractales; Programas en Dos que generan fractales.
http://sprott.physics.wisc.edu/software.html
Jeffs Homepage: Programas para generar fractales.
http://hamnetcenter.com/jeffc/fractal.html