Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las...

14
Ficha de trabajo 2 – Autómatas Celulares Contenido de la ficha 1. Los algoritmos de la complejidad propiamente dichos..1 2. Autómatas Celulares..................................1 3. Conclusiones.........................................9 4. Bibliografía citada.................................10 1. Los algoritmos de la complejidad propiamente dichos Como especificamos antes, no nos ocuparemos aquí de las teorías sistémicas que no se han plasmado en modelos de simulación y algoritmos con el grado adecuado de especificidad. En lo que respecta a las estrategias epistemológicas que si repasaremos, que son los algoritmos de la complejidad, va de suyo que sus fundamentos son las teorías sistémicas en sus formulaciones más generales pero también en sus evoluciones más cercanas en el tiempo. John Holland, entre otros, ha especificado que no existe una diferencia esencial entre diseñar un modelo y describir cualquier realidad apelando a las reglas de un juego. (Holland 1998: 16-52) Estos sistemas no son complejos desde el vamos, sino que desarrollan la complejidad a partir de unas pocas partes interactuantes y reglas de interacción muy simples. Exhiben, con solo muy pocas constricciones, formas de equifinalidad y multifinalidad que satisfacen los rasgos más canónicos de la epistemología de la TGS. Podemos hablar de sistemas complejos adaptativos estableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2. Autómatas Celulares Los autómatas celulares fueron inventados por John Von Neumann en la década de 1940, y constituyen la 1

Transcript of Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las...

Page 1: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

Ficha de trabajo 2 – Autómatas Celulares

Contenido de la ficha1. Los algoritmos de la complejidad propiamente dichos............................................12. Autómatas Celulares.................................................................................................13. Conclusiones.............................................................................................................94. Bibliografía citada..................................................................................................10

1. Los algoritmos de la complejidad propiamente dichos

Como especificamos antes, no nos ocuparemos aquí de las teorías sistémicas que no se han plasmado en modelos de simulación y algoritmos con el grado adecuado de especificidad. En lo que respecta a las estrategias epistemológicas que si repasaremos, que son los algoritmos de la complejidad, va de suyo que sus fundamentos son las teorías sistémicas en sus formulaciones más generales pero también en sus evoluciones más cercanas en el tiempo. John Holland, entre otros, ha especificado que no existe una diferencia esencial entre diseñar un modelo y describir cualquier realidad apelando a las reglas de un juego. (Holland 1998: 16-52)Estos sistemas no son complejos desde el vamos, sino que desarrollan la complejidad a partir de unas pocas partes interactuantes y reglas de interacción muy simples. Exhiben, con solo muy pocas constricciones, formas de equifinalidad y multifinalidad que satisfacen los rasgos más canónicos de la epistemología de la TGS.Podemos hablar de sistemas complejos adaptativos estableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético.

2. Autómatas Celulares

Los autómatas celulares fueron inventados por John Von Neumann en la década de 1940, y constituyen la implementación técnicamente más simple de un sistema complejo adaptativo. La primera versión de esta idea, a pesar de su simplicidad relativa respecto de los otros sistemas complejos adaptativos, tenía mil “espacios celulares”, y cada uno de ellos admitía 29 estados celulares posibles, y lo interesante es que la pregunta que Von Neumann intenta responder es si una máquina es capaz de reproducir una máquina tan compleja como ella misma. El autómata diseñado es auto-replicante en la medida en que es capaz de construir copias de sí mismo y a partir de instrucciones muy simples.Según Reynoso:

1

Page 2: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

“Los ACs han recibido distintos nombres en la literatura, entre ellos los de modelos de tablero de damas, autómatas de teselación, estructuras homogéneas, estructuras celulares, estructuras de teselación y arrays iterativos (Wolfram 1994: 6). Es conveniente que proporcione ahora dos definiciones simples de AC.(1) Los ACs son sistemas descentralizados, espacialmente extendidos, consistentes en un número más o menos grande de componentes simples idénticos con conectividad local.(2) Los ACs son colecciones de celdas discretas y deterministas, en hilera, en grilla o en tres dimensiones, que actualizan sus estados a lo largo del tiempo en base a los estados que tenían las celdas vecinas en el momento anterior. En otras palabras, el estado siguiente de una celda es una función del estado actual de ella y de sus celdas vecinas. Cada celda se comporta como un autómata de estado finito. Formalmente, un AC consiste de dos componentes. El primero es un espacio celular: una grilla de N máquinas de estado finito (celdas), cada una con un patrón idéntico de conexiones locales con otras celdas, junto con condiciones de límite si es que la grilla es finita. El segundo componente es una regla de transición que actualiza los estados de cada celda. El estado de cada celda junto con el de las celdas que están conectadas a ella se denomina su vecindad.” (Reynoso 2006: 126-127)

La vecindad de un AC se concibe de esta forma y con esta notación, considerando que las líneas son las “i” y las columnas las “j”:

Respecto de las vecindades, hay dos formas de definirlas. La vecindad de Von Neumann es ortogonal, ya que no involucra las diagonales, condición que si cumple la de Moore. Lo que varía, en la tabla que sigue y en cada caso, es el rango de la vecindad, que puede 1, 2, 3 o 4:

2

Page 3: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

Los autómatas celulares son considerados en sí mismos como una máquina de computación emergente y como un objeto matemático en el cual se pueden testear propiedades.Otra implementación muy popular ha sido el llamado “Juego de la vida”, inventado por el matemático británico John Conway a fines de la década de 1960. Las células del modelo de Conway admiten solo 2 estados posibles, encendido y apagado, y reglas muy simples para determinar el siguiente estado del sistema. El programa hecho por Conway ganó rápida popularidad pero recién en la década de 1990, mediante su amplia difusión a través de Internet, logró generar una gran variedad de juegos de computadora (Life32, Calab, CelLab, Mirek’s Cellebration) basados en sus reglas simples:

(1) Si una célula viva tiene menos de dos vecinas, muere (aislamiento).(2) Si una célula viva tiene más de tres vecinas, muere (superpoblación).(3) Si una célula vacía tiene tres vecinas vivas, entonces viene a la vida (reproducción).(4) Si una célula vacía tiene dos vecinas vivas, queda como está (estasis).

Este conjunto de reglas simples genera propiedades emergentes en forma de objetos que tienen la capacidad de moverse en el espacio de manera solidaria. He aquí algunos ejemplos1:

Bloque Barco Parpadeador Sapo Planeador Nave ligeraBlock Boat Blinker Toad Glider LWSS

Lo interesante de estos patrones es que solo pueden obtenerse por observación y no pueden predecirse, lo cual le agrega un componente antiintuitivo muy importante a su detección.

1 https://es.wikipedia.org/wiki/Juego_de_la_vida

3

Page 4: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

Por otro lado, hay múltiples clasificaciones de los Autómatas Celulares, pero hay una en particular, la de Stephen Wolfram (1984), que ha tenido gran aceptación y es la base de otras clasificaciones contemporáneas similares:

(1) Clase I. Los ACs de este tipo siempre evolucionan hacia una disposición homogénea, con cada celda en el mismo estado, siempre invariante de allí en más.

(2) Clase II. Los ACs de la segunda clase forman estructuras periódicas que muestran ciclos infinitos a través de un número fijo de estados.

(3) Clase III. Los ACs de esta clase son “aperiódicos”, patrones al azar que se asemejan al ruido blanco estático de la televisión, con algunos triángulos típicos aquí y allá.

(4) Clase IV. Los ACs de la última clase forman patrones complejos con estructuras localizadas que se mueven en el espacio y el tiempo. Estos patrones localizados pueden eventualmente tornarse homogéneos como los de la clase I, o periódicos, como los de la clase II.

Lo interesante de esta clasificación es que está en línea con la idea chomskiana de los tipos de lenguajes formales:-Los autómatas de Tipo 1 “son análogos a programas de computación triviales que se detienen al cabo de unos cuantos pasos, o a sistemas dinámicos que caen dentro de un atractor de punto fijo.” El péndulo es un ejemplo de este sistema.-Los Autómatas de la clase II “son repetitivos y muestran semejanza a programas que ejecutan bucles infinitos, o a sistemas dinámicos que caen dentro de ciclos límites, periódicos o cuasiperiódicos.” -Los ACs de tipo III “son tan absolutamente azarosos que no muestran ningún patrón gráfico interesante, pero poseen una particularidad: son extremadamente sensibles a las condiciones iniciales: si se comienza una partida conmutando el orden de un par de celdas, la conducta resultante será absolutamente distinta.” Estos autómatas exhiben comportamientos fuertemente ligados a la multifinalidad y a lo que conocemos como efecto mariposa, ya que combinan azar con determinismo y tienen un desempeño estocástico.-Finalmente, los autómatas de la clase 4 son los más interesantes de todos, porque exhiben un comportamiento que combina la aleatoriedad con comportamientos periódicos pero sin mostrar predictibilidad ni irreductibilidad a largo plazo.Wolfram demostró que estos últimos autómatas muestran capacidad de computación universal y son capaces de generar fractales de dimensión 1.59 o 1.68. La inédita potencialidad de este mecanismo podría demostrar la difusión de la autosimilaridad como una propiedad casi universal en la naturaleza.

4

Page 5: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

Chris Langton, referente de la idea de “vida artificial”, desarrolló otra clasificación análoga pero apelando a la relación con los distintos estados de la materia.El autómata de punto fijo, de tipo 1, corresponde a los cristales, estáticos y ordenados. El de tipo 2 corresponde a los gases, que solo pueden ser analizados estadísticamente (dinámica caótica). El tipo 3 corresponde a la de un sólido no cristalino, y la complejidad, el tipo 4, finalmente, responde al comportamiento de un líquido próximo tanto al estado líquido como al gaseoso.

La naturaleza muestra, en este paralelismo, atributos de las distintas formas específicas de computación de eventos. Ante cambios o ingresos de información en el sistema, las respuestas pueden ser de distinto tipo. Justo en el pasaje de lo Periódico a lo caótico, el comportamiento complejo es el que muestra la capacidad de combinar caos y orden, dando lugar a organizaciones que por este mismo rasgo se llaman “caórdicas”. Para las estructuras que se sitúan en esta región, Langton acuño la expresión “al límite del caos”.Muchas de estas estructuras, incluso, parecería que violan la 2da ley de la termodinámica, ya que no muestran evolución hacia un estado estable. La reacción catalítica de Belusov-Zhabotinskii, por ejemplo, es una de las que se estaciona “al límite del caos”.

5

Page 6: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

Con todos sus experimentos a cuestas, el biólogo teórico Stuart Kauffman no se percató de la existencia de lo que los investigadores de la complejidad llaman "el límite del caos". Sabía que con redes de 2 conexiones el sistema generaba un pequeño número de atractores, y con 4 o más conexiones se volvía caótico e inestable. No percibió la importancia del estado intermedio (entre una y cuatro conexiones).Chris Langton investigó a los autómatas celulares de Janos Von Neumann, inventados en la década del 50, y aprendió la clasificación de autómatas celulares de Steve Wolfram. Los matemáticos ya distinguían tres clases de comportamiento en los atractores: fijo, periódico y caótico, pero Wolfram descubre un cuarto tipo intermedio entre el comportamiento caótico y el fijo. Según Langton en esta cuarta clase está el comportamiento más interesante porque se produce el procesamiento universal de información.Langton explora el comportamiento de los autómatas celulares utilizando el parámetro Lambda, que establece las reglas de funcionamiento de un autómata celular y permite seguir las consecuencias a lo largo de un continuo. El límite del caos es esa región de los atractores que permite que un pequeño ingreso de información genere grandes efectos. Langton sostiene que este mecanismo proporciona una posibilidad de “perfecto control”.

La creación de autómatas celulares comenzó, extrañamente, antes en ciencias sociales que en las matemáticas puras. El psicólogo y pionero de la computación James Sakoda desarrolló el primer modelo de AC aplicable a la sociedad y la dinámica de los microterritorios. Sakoda nombró a su creación como “tablero de damas” (checkerboard model) y lo dio a publicación recién en 1971. Su objetivo era entender la formación de grupos sociales en el marco de la relocalización de japoneses en Estados Unidos en la segunda posguerra.En el modelo de Sakoda los miembros de dos grupos viven en un tablero. Poseen actitudes positivas, neutras o negativas hacia cada otro sujeto, llamadas valencias, a las que se asignan valores enteros. Vij es la valencia de un individuo j hacia un individuo i. P es el conjunto de todos los individuos; cada uno de ellos tiene la oportunidad de trasladarse a un sitio vacío en su vecindad mooreana de 3x3. Si no hay celdas vacías puede saltar por encima de otro, pero la migración es local o sólo se permite dentro de ciertos límites.La figura ilustra el comportamiento del principio llamado “valencia de segregación” (Sakoda 1971: 127)

6

Page 7: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

¿Qué es lo contraintuitivo de este modelo? Experimentando con el tablero de Sakoda, Rainer Hegselmann (1996; 1998a) encontró que una actitud negativa hacia el otro grupo, combinada con indiferencia hacia el grupo de pertenencia, puede conducir hacia conglomerados mucho más densos que los que resultan de sentimientos positivos hacia el propio grupo. Esa conclusión es imposible de deducir a ojo desnudo, pero es susceptible de verificarse en el modelo.

“La investigación de Schelling se basó en la observación de que “el mapa demográfico de casi todas las áreas metropolitanas de América sugiere que es muy fácil encontrar áreas residenciales que son todas blancas o casi o que son todas negras o casi, pero que es difícil encontrar localidades en las cuales ni los blancos ni los negros sean más que, digamos, las tres cuartas partes” (Schelling 1969: 488). En las versiones computacionales modernas del modelo de Schelling las celdas adoptan tres colores: azules para los negros, rojas para los blancos y grises para las áreas vacantes. Los residentes se consideran “felices” con su ubicación en una proporción predefinida en tanto que la mayoría de sus vecinos (en una vecindad de Moore) sean de su mismo color; si no lo están, se moverán a una nueva ubicación en la jugada siguiente. El descubrimiento de Schelling consistió en que los habitantes se mudaban aun

7

Page 8: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

cuando no estuvieran del todo descontentos con su vecindario; se generaban así conglomerados de color uniforme relacionados con el concepto de un umbral por encima del cual el sistema conmuta a una nueva fase y se estaciona en ella: tales transiciones de fase (se sabrá más tarde) son comunes a los sistemas complejos adaptativos, a los grafos, a las redes (sociales) y a los modelos epidemiológicos y de percolación […]. Por el momento Schelling intuyó que “la interrelación de las elecciones individuales, en la que prevalece una segregación no organizada, es un sistema complejo con resultados colectivos que no guardan relación estrecha con la intención individual” (loc. cit.).”Lo fundamental de estos modelos es desarrollar una heurística de exploración capaz de descubrir y mapear propiedades emergentes no formulables en primera instancia.Ahora bien, ¿cómo mapean estas implementaciones de AC contra fenómenos sociales? El cuadro elaborado por Hegselmann establece un vínculo entre las características de los Autómatas celulares y la Dinámica social que sirve de guía para establecer paralelos más amplios y profundos:

Existen otras implementaciones de software que funcionan sobre la base del formalismo de los Autómatas Celulares, pero no las recorreremos con exhaustividad aquí. Entre los programas más importantes tenemos:

Mirek Cellebration Golly Sleuth Na-Sch DUEM

8

Page 9: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

3. Conclusiones

Como balance de estas implementaciones, Reynoso destaca una serie de conclusiones respecto del aporte de los ACS al modelado urbano:

1. Con sus virtudes y sus defectos, los ACs han desplazado a los modelos tradicionales de ecuaciones diferenciales parciales (o PDE en la literatura especializada) en un número de campos, aun cuando el de los sistemas en gran escala fuera del coto académico sigue bajo el dominio de los sistemas macroscópicos de caja negra programados hace décadas (Rabino 2008).

2. El carácter temporal y espacial de los ACs, por añadidura, los ha hecho especialmente apropiados para las aplicaciones de geografía dinámica. Dado que su temporalidad opera en forma sincrónica y masivamente paralela, su adecuación para la simulación de procesos de cambio es indiscutible, aunque aquí y allá su paralelismo se haya puesto (erróneamente) en tela de juicio (p. ej. Raper 2000: 140). Su espacialidad, mientras tanto, y más en concreto su concepción bien articulada de vecindad, es congruente con la llamada “primera ley de la geografía” o “Primera Ley de Tobler” [TFL], intuida hace un siglo por las estrategias difusionistas en antropología y por la antropogeografía de Ratzel y de Boas, la cual establece que “todas las cosas están relacionadas, pero las cosas más próximas están más relacionadas que las cosas más distantes” (Tobler 1970: 236; 2004; Goodchild 2008: 602)

3. Trabajar con ACs, pese a la engañosa congruencia del formalismo, no siempre resulta viable o sencillo; no hay un método formal de construcción y tanto la escala como la semántica de la representación quedan libradas a la imaginación del modelador.

4. Si vamos al fondo de la cuestión, veremos que los ACs ponen de manifiesto, entre otras cosas, la inadecuación de las técnicas de comparación existentes cuando se trata de cotejar dos o más entidades complejas cualesquiera.

5. Cualesquiera sean sus disonancias, los ACs ponen sobre la mesa un hecho epistemológico mayor en lo que atañe al modelado complejo que habrá de tenerse en cuenta de aquí en más: en la medida en que sean complejos, los modelos no tienen por misión fundamental la predicción exacta, o siquiera la anticipación aproximada, o la generalización parsimoniosa, sino más bien dar forma a la comprensión de los problemas en términos de una pedagogía y una especulación fundamentada que no difieren mucho de la narración de historias.

6. Es en este punto que cabe una distinción epistemológica fundamental. Ya a principios del siglo pasado el matemático francés Jacques Hadamard [1865-1863] había distinguido entre los problemas directos y los inversos. Los primeros, considerados arquetípicos y los únicos “bien planteados” en una ciencia nomotética, poseen una única solución y se resuelven

9

Page 10: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

aplicando deductivamente una ley o principio bien establecido2. Los segundos, calificados en la vieja academia como “problemas mal planteados”, toman como punto de partida un conjunto de hechos y tratan de inducir retroactivamente los algoritmos y procesos que llevan a ese estado de cosas; se diría que de este modo la teoría se construye para dar cuenta de los hechos observados (Hadamard 1902). Es evidente que en ciencias sociales y en el desarrollo de modelos de simulación los problemas inversos son la forma usual de planteamiento3.

4. Bibliografía citada

GOODCHILD, Michael. 2008. “Geographic information science: The grand challenges”. En: J. P. Wilson y A. S. Fotheringham (compiladores), Op. cit., pp. 596-608.

HEGSELMANN, Rainer.

- 1996. “Cellular Automata in the social sciences – perspectives, restrictions and artifacts”. En: R. Hegselmann, Ulrich Mueller y Klaus Troitzsch (comps.), Modeling and simulating in the social sciences from a Philosophy of Science point of view. Dordrecht, Kluwer, pp. 209-237.

- 1998. “Modeling social dynamics by cellular automata”. En: Wim Liebrand, Andrzej Nowak y R. Hegselmann (comps.), Computer modeling of social processes. Londres, Sage, pp. 37-64.

2 Un problema bien definido o bien propuesto (en el sentido de Hadamard) es un problema de Cauchy de valor inicial que tiene propiedades analíticas adecuadas y cuyas soluciones posibles tienen una estructura conveniente. en particular, esas condiciones suelen incluir:

1. La existencia de alguna solución2. La unicidad de la solución3. La solución depende de manera continua de las condiciones iniciales (topología).

(Ver https://es.wikipedia.org/wiki/Problema_bien_definido, visitado el 29/08/2015)

Ahora bien ¿Cuando un problema es inverso?“Hay características matemáticas intrínsecas que hacen que un problema se denomine de tipo inverso. No obstante los condicionantes histórico-culturales no son en absoluto despreciables. Pongamos como ejemplo el paso histórico dado con la teoría de la gravitación de Newton: las leyes de Kepler permitían calcular la órbita de los planetas: solución de un problema directo. Newton resuelve el problema inverso: a partir de las leyes de Kepler interpretadas como resultado de un proceso, deduce la estructura interna del proceso mismo, es decir la Ley de la Gravitación Universal. El cambio de un enfoque directo a uno inverso ha supuesto, a lo largo de la historia, el primer paso de una revolución científica” (Ver http://www.uam.es/gruposinv/inversos/quesonpinversos/paginaweb2.html, visitado el 29/08/2015)

3 En particular, muchas de las preguntas fundacionales de las ciencias sociales, como el origen de la familia, o el origen del poder, parecen ser formas particulares de problemas inversos en el sentido planteado por Hadamard. La formulación levistraussiana del tabú del incesto, o ficciones como el contrato social de Russeau, parecen cumplir el papel de dispositivos que permiten explicar configuraciones actuales a partir de hechos inferidos mediante la lógica del problema inverso.

10

Page 11: Web viewestableciendo una jerarquía que va desde los Autómatas Celulares (AC), las redes booleanas y las redes neuronales adaptativas hasta el algoritmo genético. 2

HOLLAND, John. 1998. Emergence: From chaos to order. Cambridge (Massachusetts), Perseus Books.

RAPER, Jonathan. 2000. Multidimensional geographic information science. Londres y Nueva York, Taylor and Francis.

REYNOSO, Carlos. 2006. Complejidad y caos: Una perspectiva antropológica. Buenos Aires, Editorial Sb.

SAKODA, James. 1971. “The checkerboard model of social interaction”. Journal of Mathematical Sociology, 1: 119-132.

SCHELLING, Thomas. 1969. “Models of segregation”. American Economic Review, 59: 488-493.

TOBLER, Waldo R. 1970. “A computer movie: Simulation of population change in the Detroit region”. Economic Geography, 46: 234-40.

WOLFRAM, Stephen.

- 1984. “Universality and complexity of cellular automata”. Physica D, 10: 1-35.

- 1994. Cellular automata. Collected Papers. Reading, Addison-Wesley.

11