UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

36
Vicerrectorado Académico. Proyecto de Carrera: Ingeniería en Informática. Cátedra: Auditoría y Evaluación de Sistemas. Semestre 2012-I. Sección 1. Profesor: Integrantes: Carlos Guevara Cristancho Yenifer C.I.: 17.632.071

Transcript of UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

Page 1: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

Vicerrectorado Académico.Proyecto de Carrera: Ingeniería en Informática.Cátedra: Auditoría y Evaluación de Sistemas.

Semestre 2012-I. Sección 1.

Profesor: Integrantes:

Carlos Guevara Cristancho Yenifer C.I.: 17.632.071

Rodríguez, Joselyn C.I. 20.299.475

Rodríguez Keyla C.I.: 18.247.016

Puerto Ordaz, Mayo de 2012.

Page 2: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

Índice

Página

Introducción 3

Objetivo General 4

Objetivos Específicos 4

Procesamiento Distribuido:

Definición 5

Características 5

Objetivo 6

Clasificación 6

Seguridad 8

Aplicaciones 8

Ejemplo 9

Arquitectura de Comunicaciones 10

Futuro del Procesamiento Distribuido

12

Auditoria de Redes 14

Etapas de la Auditorias de Redes 14

Auditoria Red Física

14

Auditoria Red Lógica 15

Analisis de Vulnerabilidad 15

Estrategia de Saneamiento 15

Plan de Contención 16

Seguimiento Continuo del desempeño del Sistema 16

Procedimiento y Metodología para Informe P. Distribuido 16

Planificación 18

Objetivo general Pagina Web 19

Objetivos Específicos Pagina Web

19

Conclusión 20

Page 3: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Bibliografía 21

Anexos 22

Introducción

Dada la creciente disponibilidad de PC y minicomputadores económicos

pero potentes, se ha producido una tendencia al alza del procesamiento de datos

distribuidos (DDP). El uso de DDP permite dispersar los procesadores, datos y

otros elementos del sistema dentro de una organización.

La tendencia de estas aplicaciones ha sido apoyada por la evolución de las

capacidades distribuidas del Sistema Operativo y de las utilidades de soporte. Se

ha explorado un amplio espectro de posibilidades:

Arquitectura de Comunicaciones.

Sistema Operativo de Red: Es la configuración en que existe una red

de máquinas de aplicación, generalmente workstations monousuario

y una o más máquinas servidoras.

Sistemas Operativos Distribuidos: Es un Sistema Operativo común

compartido por una red de computadores.

El Procesamiento Distribuido se define como la forma en que es posible

conectar distintas maquinas, PCs, en cierto tipo de red de comunicaciones,

generalmente una LAN o una red de área amplia o una red como Internet,

logrando así, que una sola tarea de procesamiento de datos pueda ser procesada o

ejecutada entre varias maquinas de la red, es decir que un solo proceso se pueda

realizar entre varias maquinas diferentes y conectadas a una red.

Page 4: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Objetivo General

Realizar informe, presentación y video sobre el Procesamiento Distribuido

(Redes).

Objetivos Específicos

Identificación del problema.

Búsqueda de la información.

Análisis de la información.

Tratamiento de la información.

Transformación de la información.

Elaboración de informa, presentación y video.

Aplicación de productos multimedia en el proceso didáctico (página

web).

Page 5: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Procesamiento Distribuido

Definición:

Distintas máquinas pueden estar conectadas en una red de comunicación tal

que una sola tarea de procesamiento de datos puede ocupar muchas máquinas en

la red. En general, cada servidor puede servir a muchos clientes, y cada cliente

puede accesar muchos servidores.

Un sistema de base de datos distribuido es cuando un cliente puede accesar

muchos servidores simultáneamente. Es decir, que una sola petición a "la base de

datos" puede combinar datos de varios servidores.

Método de procesamiento de la información en el que varios procesos

(programas en ejecución) en paralelo, en paralelo, en la misma máquina o

distribuidos entre ordenadores o computadoras interconectados a través de una red

de comunicaciones, colaboran en la realización de una tarea. Esta colaboración

pude ser tan sencilla como distribuir la carga de trabajo entre procesos idénticos,

en el caso por ejemplo de una red de cajeros automáticos, o tan complejo como

multitud de procesos distintos.

Características:

Para cada uno de los usuarios debe ser similar al trabajo en el Sistema

Centralizado.

Seguridad interna en el sistema distribuido.

Page 6: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Se ejecuta en múltiples computadoras.

Tiene varias copias del mismo Sistema Operativo o de diferentes Sistemas

Operativos que proveen los mismos servicios.

Entorno de trabajo cómodo.

Dependiente de redes (LAN, MAN, WAN, entre otros.).

Compatibilidad entre los dispositivos conectados.

Transparencia (El uso de múltiples procesadores y el acceso remoto debe

ser invisible).

Interacción entre los equipos.

Diseño de software compatible con varios usuarios y Sistemas Operativos.

Objetivo:

El procesamiento distribuido ha sido diseñado para resolver problemas

demasiado grandes para cualquier supercomputadora y mainframe, mientras se

mantiene la flexibilidad de trabajar en múltiples problemas más pequeños.

Clasificación:

En términos de funcionalidad, las mallas (como también es conocido el

procesamiento distribuido) se clasifican en computacionales (incluyendo mallas

de barrido de la CPU) y en mallas de datos; y en los estados son:

1. Globus: La herramienta Globus ha emergido como el estándar de

facto para la capa intermedia (middleware) de la malla. Globus tiene

recursos para manejar:

La gestión de recursos (Protocolo de Gestión de Recursos en

Malla o Grid Resource Management Protocol).

Page 7: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Servicios de Información (Servicio de Descubrimiento y

Monitorización o Monitoring and Discovery Service).

Gestión y Movimiento de Datos (Acceso Global al

Almacenamiento Secundario, Global Access to secondary

Storage y FTP en malla, GridFTP).

La mayoría de mallas que se expanden sobre las comunidades

académicas y de investigación de Globus Toolkit como núcleo de la

capa intermedia.

2. XML: Los servicios web basados en XML ofrecen una forma de

acceder a diversos servicios/aplicaciones en un entorno distribuido.

Recientemente, el mundo de la informática en malla y los servicios

web caminan juntos para ofrecer la malla con un servicio web. La

arquitectura está definida por la Open Grid Services Architecture

(OGSA). La versión 3.0 de Globus Toolkit, que actualmente se

encuentra fase alfa, será una implementación de referencia acorde

con el estándar OGSA.

Las mallas ofrecen una forma de resolver grandes retos, como el

plegamiento de las proteínas y descubrimiento de medicamentos,

modelización financiera, simulación de terremotos, inundaciones y

otras catástrofes naturales, modelización del clima/tiempo, entre

otros. Ofrecen un camino para utilizar los recursos de las tecnologías

de la información de forma óptima en una organización.

3. Computación de Ciclos Redundantes: El modelo de computación

de ciclos redundantes, también conocido como computación zombi,

es el empleado por aplicaciones como SETI@Home, consistente en

que un servidor o grupo de servidores distribuyen trabajo de

procesamiento en grupo de computadoras voluntarias a ceder

capacidad de procesamiento no utilizada. Básicamente, cuando

dejamos nuestro ordenador encendido, pero sin utilizarlo, la

capacidad de procesamiento se desperdicia por lo general en algún

protector de pantalla, este tipo de procesamiento distribuido utiliza

Page 8: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

nuestra computadora cuando nosotros no la necesitamos,

aprovechando al máximo la capacidad de procesamiento.

4. Clustering: Otro método para crear sistemas de supercomputadoras

es el clustering. Un cluster o racimo de computadoras consiste en un

grupo de computadoras de relativo bajo costo conectadas entre sí

mediante un sistema de red de alta velocidad (Gigabit de fibra óptica

por lo general) y un software que realiza la distribución de la carga

de trabajo entre los equipos. Por lo general, este tipo de sistemas

cuentan con un centro de almacenamiento de datos único. Los

clusters tienen la ventaja de ser sistemas redundantes, al estar fuera

de servicio el procesador principal se dispara y actúa como un Fail

Over.

5. Grid: la computación en Grid o en malla es un nuevo paradigma de

computación distribuida en el cual todos los recursos de un número

indeterminado de computadores son englobados para ser tratados

como un único superordenador de manera transparente.

Estas computadoras englobadas no están conectadas o enlazadas

firmemente, es decir, no tienen por qué estar en el mismo lugar

geográfico. Se pueden tomar como ejemplo el proyecto

SETI@Home, en el cual trabajan computadoras alrededor de todo el

planeta para buscar vida extraterrestre.

Seguridad:

El punto de la seguridad es delicado en este tipo de computación distribuida

pues las conexiones se hacen de forma remota y no local, entonces suelen surgir

problemas para controlar el acceso a los otros nodos. Esto puede aprovecharse

para un ataque de DOS, aunque la red no va a dejar de funcionar porque uno falle.

Esa es una ventaja de este sistema Grid.

Page 9: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Aplicaciones:

Los ambientes en los que se encuentra con mayor frecuencia el uso de las

bases de datos distribuidas son:

Cualquier organización que tiene una estructura descentralizada.

Casos típicos de lo anterior son: Organismos gubernamentales y/o

servicio público.

La industria de la manufactura, particularmente, aquella con plantas

múltiples. Por ejemplo, la industria automotriz.

Aplicaciones de control y comando militar.

Líneas de transportación aérea.

Cadenas hoteleras.

Servicios bancarios y financieros.

Ejemplo:

En una compañía, la realización de tareas que requieran altas capacidades de

proceso, para lo cual se utilizarán los PCs conectados a la intranet de esta

empresa. Sin embargo, si queremos afrontar un proyecto de ámbito universal y

con un elevado grado de complejidad habremos de ser capaces de abordarlo

mediante análisis diferenciales que puedan ser realizados de forma separada, en

paralelo mediante diferentes máquinas presentes en nuestro ambicioso terreno de

juego: Internet. A continuación presentaremos dos de estos proyectos.

El proyecto SETI@Home desarrollado por la Universidad de California en

Berkeley comienza en Mayo de 1999. Más de 2 millones de voluntarios lo

convierten en la experiencia más grande de procesamiento distribuido hasta la

fecha. SETI (the Search for Extra-Terrestrial Inteligente) es un nombre colectivo

para designar los diferentes programas encargados de buscar evidencias de vida en

el cosmos. Para ello se utiliza como fuente los datos recogidos por

radiotelescopios, que como si de grandes pabellones auditivos se tratase, se

Page 10: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

encargan de escudriñar el cielo en busca de señales de radio provenientes del

espacio. Como se comprenderá, la capacidad de computación necesaria para

analizar todos los datos que se recogen es desmesurada. Pero, ahí es precisamente

donde nace SETI@Home como proyecto de aplicación de computación

distribuida de la Universidad de Berkeley. Los datos de partida en este caso son

los recogidos por el telescopio de Arecibo en Puerto Rico, el más grande del

mundo.

De una forma similar a SETI@Home surge una nueva iniciativa conjunta

de las empresas Intel y United Devices centrada esta vez en la investigación del

cáncer. En este caso se pone el procesamiento distribuido de Internet al servicio

de la investigación molecular realizada en el departamento de Química de la

Universidad de Oxford en Inglaterra y la Fundación Nacional para la

Investigación del Cáncer en los EE.UU. El objetivo de estos centros es la

búsqueda de drogas que actúen contra el cáncer y la leucemia. Para ello es

necesario realizar complejos análisis de compatibilidad molecular sobre

moléculas, susceptibles de convertirse en un tratamiento efectivo para lo que se

precisa de una alta potencia de proceso.

Arquitectura de Comunicaciones:

Arquitectura Simple: Está dividida en 3 niveles:

Nivel de Acceso a la Red: Se ocupa del intercambio de datos entre el

computador y la red a la que está conectada. El computador que emite

debe proporcionarle a la red la dirección del destino, de forma que la red

pueda encaminar los datos al destino apropiado.

Nivel de Transporte: Asegura que los datos lleguen a su aplicación de

destino y que lo hacen en el mismo oren en que fueron enviados.

Nivel de Aplicación: Contiene la lógica necesaria para soportar varias

aplicaciones de usuario. Para cada clase diferente de aplicación, como la

Page 11: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

transferencia de archivos, se necesitará un módulo separado y particular

para la misma.

Cada aplicación de un computador debe tener una dirección que sea única

dentro de su computador, lo que permite que el nivel de transporte envíe datos a la

aplicación correcta. Estas últimas direcciones se conocen como Puntos de Acceso

al Sistema (SAP).

Arquitectura OSI: La Organización Internacional de Estándares (ISO)

desarrolló una arquitectura de comunicaciones conocida como modelo de

Interconexión de Sistemas Abiertos (OSI). Una de las arquitecturas de redes

existentes se basa en el modelo OSI. Se compone de 7 capas, y cada una de ellas

posee un protocolo denominado Protocolo de Capa, que establece las funciones

que debe cumplir. Las 7 capas del modelo son las siguientes:

Capa Física: Conecta el computador con el medio de

comunicaciones. Controla y codifica la corriente de bits y permite

que ésta sea transferida hacia la red o hacia otro computador.

Capa de Enlace: Responsable de establecer, mantener y desactivar

el enlace entre el ETD fuente y el colector. Permite la transferencia

ordenada de las tramas, detecta y corrige errores que pudieron

haberse producido y contiene la dirección destino.

Capa de Red: Permite direccionar el tráfico de paquetes desde la

fuente hasta una estación colectora remota. Mediante mecanismos de

conmutación establece el camino que los paquetes deben seguir.

Capa de Transporte: Permite mantener la integridad de los datos en

la comunicación. Proporciona el encaminamiento y la segmentación,

y luego su unión en el mensaje original transmitido. Recupera

errores, si fuera el caso. Esta capa maneja mensajes.

Capa de Sesión: Maneja las disponibilidades de red. Controla las

memorias intermedias y verifica que la capacidad de procesamiento

Page 12: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

de ésta no se vea saturada por la cantidad de datos que se transfieren;

provee la sincronización entre ETD.

Capa de Presentación: Se ocupa de la sintaxis de los datos, la

conversión de código, la compresión y descompresión de la

información, y todo otro tipo de funciones que se refieran a la

modificación de los datos enviados.

Capa de Aplicación: Controla y ejecuta las actividades que requiere

una determinada aplicación para que pueda ser transmitida hacia el

otro extremo. Facilita la transferencia de archivos y de mensajes de

correo, emulando terminales virtuales, y permite el acceso a bases de

datos remotas, o tareas que hacen el gerenciamiento de la red.

Protocolo TCP/IP: La arquitectura TCP/IP está también estructura en

niveles. Los niveles existentes son:

Acceso a la Red: Incluye los protocolos que ofrecen acceso a la red

de comunicaciones. Los protocolos de este nivel se establecen entre

un nodo de comunicaciones y un computador conectado.

Internet: Consta de los procedimientos necesarios para que los datos

puedan atravesar múltiples redes entre computadores, ofreciendo una

función de encaminamiento. El protocolo IP (Internet Protocol) se

implementa en computadores y encaminadores (routers).

Transporte: Proporciona la lógica necesaria para asegurar que los

datos intercambiados entre los computadores son enviados en forma

fiable. El protocolo de este nivel en conocido como Transmission

Control Protocol (TCP).

Aplicación: Incluye protocolos para aplicaciones específicas del

usuario.

                                     

 Futuro del Procesamiento Distribuido:

Page 13: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Aunque la idea de distribución de datos es bastante atractiva, su realización

conlleva la superación de una serie de dificultades tecnológicas entre las que se

pueden mencionar:

Asegurar que el acceso entre diferentes sitios o nodos y el

procesamiento de datos se realice de manera eficiente,

presumiblemente óptima.

Transformar datos e integrar diferentes tipos de procesamiento entre

nodos de un ambiente distribuido.

Distribuir datos en los nodos del ambiente distribuido de una manera

óptima.

Controlar el acceso a los datos disponibles en el ambiente

distribuido.

Soportar la recuperación de errores de diferentes módulos del

sistema de manera segura y eficiente.

Asegurar que los sistemas locales y globales permanezcan como una

imagen fiel del mundo real evitando la interferencia destructiva que

pueden ocasionar diferentes transacciones en el sistema.

Así también, la aplicación de técnicas de distribución de información

requiere de superar algunas dificultades de índole organizacional y algunas otras

relacionadas con los usuarios. Entre ellas se puede mencionar:

El desarrollo de modelos para estimar la capacidad y el tráfico

esperado en el sistema distribuido.

Soportar el diseño de sistemas de información. Por ejemplo, ayudar

a decidir donde localizar algún dato particular o donde es mejor

ejecutar un programa de aplicación.

Considerar la competencia que habrá por el uso de los recursos entre

nodos diferentes.

Page 14: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Aun cuando las dificultades mencionadas son importantes, las ventajas de la

distribución de información han promovido su aplicación en ambientes del

presente y del futuro.

Auditoria de Redes

Es una serie de mecanismos mediante los cuales se pone a prueba una red

informática, evaluando su desempeño y seguridad, a fin de lograr una utilización

más eficiente y segura de la información.

Etapas de la Auditoria de Redes

Auditoria de Red Física

Auditoria de Red Lógica

Análisis de la Vulnerabilidad

Estrategia de Saneamiento

Plan de Contención ante posibles incidentes

Seguimiento Continuo del desempeño del Sistema

Auditoria de Red Física

Áreas de equipo de comunicación con control de acceso

Protección y tendido adecuado de cables y líneas de comunicación para

evitar accesos físicos

Control de utilización de equipos de prueba de comunicaciones para

monitorear la red y el tráfico en ella.

Prioridad de recuperación del sistema

Control de las líneas telefónicas

Page 15: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Equipos de comunicaciones deben estar en un lugar cerrado y con acceso

limitado

Seguridad fisica del equipo sea adecuada

Se tomen medidas para separar las actividades de los electricistass y de

cableado de lineas telfonicas

Las lineas de comunicación esten fuera de la vista

Auditoria de Red Lógica

En líneas telefónicas: No debe darse el numero como público y tenerlas

configuradas con retro-llamada, código de conexión o interruptores.

Usar contraseñas de acceso

Garantizar que en una transmisión, solo sea recibida por el destinatario.

Registrar actividades de los usuarios en la red.

Comprobar

Encriptar la información pertinente

Evitar la importación y exportación de datos

Inhabilidad el software o hardware con acceso libre

Generar estadísticas de las tasas de errores y transmisión

Crear protocolos con detección de errores.

Analisis de Vulnerabilidad

Este es sin duda el punto más crítico de toda la Auditoria, debido a que de

él dependerá directamente el curso de acción a tomar en las siguientes etapas y el

éxito de estas.

Estrategia de Saneamiento

Page 16: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Se identifican las “brechas” en la red y se procede a “parchearlas”, ya sea

actualizado el software afectado, reconfigurándolo de una manera mejor o

removiéndolo para reemplazarlo por otro software similar.

Plan de Contención

Consta de elaborar un “Plan B”, que previa un incidente aun después de

tomadas las medidas de seguridad, y que da respuesta a posibles eventualidades.

Seguimiento Continuo del desempeño del Sistema

La seguridad no es producto, es un proceso. Constante mente surgen

nuevos fallos de seguridad, nuevos virus, nuevas herramientas que facilitan la

intrusión en sistemas, como también nuevas y más efectivas tecnologías para

solucionar estos y otros problemas.

Procedimiento y Metodología para Informe Procesamiento Distribuido

1.- ¿Qué estrategias de búsqueda de Información se aplicará?

La búsqueda de Información que aplicaremos es la búsqueda en Internet,

como apoyo a la existente sobre procesamiento distribuido, de manera que se

pueda definir que contenidos abarca el tema, que se desconoce o se tiene poco

conocimientos, las relaciones y subtemas que abarcan el procedimiento

distribuido es decir, tipos de redes, arquitectura de cliente-servidor, procesamiento

paralelo. Debido a que realiza una búsqueda en Internet la cual puede llegar hacer

muy amplia, se hace uso de herramientas como buscadores que facilitan las

Page 17: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

búsqueda de información, rapidez y con mayor validez, para ello es necesario

definir palabras claves como ayuda para obtener de información deseada.

2. ¿Cuál será el proceso de Diseño a seguir?

Identificación del problema.

Búsqueda de la información.

Análisis de la información.

Tratamiento de la información.

Transformación de la información.

3.- Herramientas a Utilizar

Internet.

Libros.

Software GanttProject

4.- ¿Cuál será el proceso para la Toma de Decisiones de las herramientas a

utilizar?

Observación -> Comparación -> Codificación -> Organización ->

Clasificación -> Resolución -> Evaluación -> Retroalimentación

Page 18: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Planificación

Page 19: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Página Web

Objetivo General

Desarrollar un portal web que sirva de alojamiento y permita la visualización de

los contenidos multimedia generados en el curso de Auditoría y Evaluación de

Sistemas, sirviendo de referencia para la búsqueda de información por parte de

profesionales o personas con actividades afines a la cátedra.

Objetivos Específicos

Definir el nombre, la estructura organizativa y pautas generales del

proyecto.

Crear un plan de trabajo para monitorear el trabajo.

Analizar y escoger la plataforma de desarrollo web que mejor satisfaga la

necesidad con los recursos disponibles

Establecer el formato y la diagramación de los temas para el sitio web.

Diseñar una interfaz sencilla y cómoda para la visualización del contenido.

Page 20: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Preparar la ponencia del producto.

Presentar el producto en las VII Jornadas de Investigación Institucional

UNEG.

Conclusión

Un error común es confundir procesamiento distribuido y paralelo, el

termino “procesamiento paralelo”, básicamente es el mismo, con excepción que

las maquinas distintas tienden a estar físicamente muy cerca en un sistema

“paralelo”, lo que no es necesario en un sistema “distribuido”. Por ejemplo una

aplicación distribuida podría ser una calculadora que usa una suma hecha en Java

en un equipo y la división implementada en C en otro equipo distinto.

El procesamiento distribuido permite una mejor utilización de equipos y

mejora el balanceo del procesamiento dentro de una aplicación, tiene una gran

importancia debido a que en algunas aplicaciones simplemente no hay una

maquina que sea capaz de realizar todo el procesamiento.

Para manejar este tipo de procesamiento en las aplicaciones existen diversas

maneras, siendo la arquitectura “cliente-servidor” la tendencia actual. Es tanto el

uso actual de esta arquitectura que por diversas razones, el termino “cliente-

servidor” ha llegado a aplicarse casi exclusivamente al caso en el que el cliente y

el servidor están, en efecto en maquinas distintas.

Una aplicación muy común del procesamiento distribuido es en las bases

de datos, donde el Procesamiento distribuido podría realizar la entrada/salida, la

Page 21: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

selección y la validación de los datos en una computadora, y luego crear un

reporte basado en esos datos o una consulta en otra computadora.

Bibliografía

Ian Foster, Carl Kesselman (1999). La Grilla 2: Planos para una Nueva

Infraestructura Informática (The Grid 2: Blueprint for a New Computing

Infrastructure). Morgan Kaufmann Publishers. ISBN. Website.

Fran Berman, Anthony J.G. Hey, Geoffrey Fox (2003). La malla informática:

haciendo realidad la Infraestructura Global (Grid Computing: Making The

Global Infrastructure a Reality). Wiley. ISBN. Online version.

http://www.lania.mx/biblioteca/seminarios/basedatos/arq2.html

http://html.rincondelvago.com/bases-de-datos-distribuidas.html

http://www.cs.cinvestav.mx/SC/prof_personal/adiaz/Disdb/Cap_1.html

http://www.coit.es/publicac/publbit/bit131/internet.htm

Page 22: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Page 23: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22

Page 24: UNEG-AS 2012-Inf7: Procesamiento distribuido y Redes

22