universidad nacional abierta ya distancia escuela de ciencias ...

121
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS INGENIERIA DE TELECOMUNICACIONES 208004–REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II PABLO ANDRES GUERRA GONZALEZ (Director Nacional) REMBERTO CARLOS MORENO HERAZO Acreditador VALLEDUPAR Julio de 2012

Transcript of universidad nacional abierta ya distancia escuela de ciencias ...

Page 1: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS

INGENIERIA DE TELECOMUNICACIONES

208004–REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

PABLO ANDRES GUERRA GONZALEZ (Director Nacional)

REMBERTO CARLOS MORENO HERAZO

Acreditador

VALLEDUPAR Julio de 2012

Page 2: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

ASPECTOS DE PROPIEDAD INTELECTUAL Y VERSIONAMIENTO El presente módulo fue diseñado en el año 2011 por el Ing. Pablo Andrés Guerra González, tutor de la UNAD, ubicado en el CEAD Valledupar, es Ingeniero electrónico, especialista en sistemas de telecomunicaciones, se ha desempeñado como tutor de la UNAD desde el 2003 hasta el año 2011.

Page 3: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

INTRODUCCIÓN El curso Redes y Sistemas Avanzados de Telecomunicaciones 2, es de tipo metodológico, electivo del programa ingeniería de Telecomunicaciones, su metodología es educación a distancia y corresponde a dos (3) créditos académicos. Las redes tanto de conmutación como de transporte y acceso, evolucionan en el tiempo para aportar mayor capacidad y conectividad, a la vez que ofrecen una mayor fiabilidad y seguridad. Así, la banda ancha es necesaria para soportar los servicios avanzados multimedia que incorpora voz, datos e imágenes y que requiere grandes velocidades de transmisión para que sus cualidades no se vean alteradas y la información llegue sin demora a su destino. Con el objetivo de facilitar el estudio del curso, el material se estructura en tres unidades. En la primera unidad se describe las Redes de alta velocidad. En la segunda el control de congestión y calidad de servicio en las redes de alta velocidad y la tercera unidad se dedica a las Redes de Transporte óptico y las redes de acceso.

Page 4: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

INDICE DE CONTENIDO

UNIDAD 1 REDES DE ALTA VELOCIDAD

CAPITULO 1RED INTERNET LECCION 1 Descripción de internet LECCION 2 Redes de acceso LECCION 3 ISP y troncales internet LECCION 4 Retardo LECCION 5 Internet en Colombia

CAPITULO 2. INTERCONEXIÓN DE REDES LECCION 1 Arquitectura LECCION 2 Opciones para el transporte de IP LECCION 3 Router LECCION 4 Encaminamiento IP LECCION 5 GIGA Ethernet

CAPITULO 3 REDES ATM LECCION 1 Frame Relay LECCION 2 Estructura de las celdas y las redes ATM LECCION 3 Arquitectura y modelos de capas ATM LECCION 4 Conexión y encaminamiento ATM LECCION 5 Capas de adaptación ATM UNIDAD 2 CONGESTION Y CALIDAD DE SERVICIO EN REDES DE ALTA VELOCIDAD

CAPITULO 1CONTROL DE CONGESTIÓN LECCION 1 Trafico de datos LECCION 5 Congestión y prestaciones de red LECCION 2 Control de congestión LECCION 3 Control de la congestión TCP LECCION 4 Control de la congestión en FRAME RELAY

CAPITULO 2 CALIDAD DE SERVICIO LECCION 1TEcnicas para mejorar la calidad de servicio LECCION 2 Servicios integrados LECCION 3 Servicios diferenciados LECCION 4 QoS en FRAME RELAY LECCION 5. QoS en ATM

CAPITULO 3 SOPORTE PARA CALIDAD DE SERVICIO (QoS) LECCION 1 IPv6 LECCION 2 RSVP

Page 5: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

LECCION 3 MPLS LECCION 4 RTP LECCION 5 MULTIDIFUSION UNIDAD 3 REDES DE TRANSPORTE OPTICO Y ACCESO

CAPITULO 1. REDES SDH LECCION 1 PDH LECCION 2 Modelos de capas SDH LECCION 3 Multiplexación SDH LECCION 4 Elementos de red SDH LECCION 5 Capa física SDH

CAPITULO 2 REDES DWDM LECCION 1 Principios de operación LECCION 2 Amplificadores LECCION 3 Topologías LECCION 4 Multiplexores ópticos LECCION 5 Conexiones cruzadas

CAPITULO 3 REDES DE ACCESO LECCION 1 xDSL LECCION 2 HFC LECCION 3 FTTX LECCION 4 GPON LECCION 5 FTTH - WDM

Page 6: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

UNIDAD 1

Nombre de la Unidad REDES DE ALTA VELOCIDAD

Introducción En esta unidad iniciamos con la descripción de la red Internet como tema integrador del curso, arquitectura de las redes IP/Ethernet y por último las redes Frame Relay y ATM, constituidos por nodos internos interconectados entre sí por enlaces de muy alta capacidad. Estos nodos realizan varias funciones, entre las que cabe destacar el encaminamiento de flujos de paquetes de alta velocidad o el aprovisionamiento de circuitos o caminos ópticos de gran capacidad.

Justificación La necesidad de redes de más y más capacidad viene provocado por un incremento del número de sistemas y aplicaciones de banda ancha accesibles al usuario como consecuencia de la facilidad de acceso a internet de altas prestaciones y a la constante aparición de nuevas aplicaciones multimedia sustentada por el protocolo de Internet IP.

Intencionalidades Formativas

PROPÓSITOS

Proporcionar una descripción práctica de la red Internet a través del modelo TCPIP y los dispositivos de interconexión.

Estudiar el funcionamiento de Frame Relay a través de la arquitectura de red.

Definir las redes ATM a través del mecanismo básico de funcionamiento de la capa ATM, examinando los servicios ofrecidos por ATM, así como el uso de AAL para la implementación de dichos servicios.

Estudiar las redes LAN de alta velocidad a través de la arquitectura GEthernet

OBJETIVOS

Estudiar el modelo TCPIP en dispositivos de interconexión para describir el la red Internet.

Examinar la arquitectura de una red de conmutación de paquetes mediante el estudio de Frame Relay.

Examinar los mecanismos básicos de funcionamiento de la capa ATM y los servicios ofrecidos por ATM, así como el uso de AAL para la implementación de dichos servicios para describir las redes ATM.

Describir las redes LAN GEthernet y dispositivos de interconexión.

Page 7: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

COMPETENCIAS

El estudiante utiliza el modelo TCPIP en dispositivos de interconexión para diseñar redes Internet.

El estudiante describe la arquitectura de una red de conmutación de paquetes Frame Relay.

El estudiante describe y explica los mecanismos básicos de funcionamiento de la capa ATM y los servicios ofrecidos por ATM, así como el uso de AAL para la implementación de dichos servicios para describir las redes ATM.

El estudiante describe LAN GEthernet y utiliza dispositivos de interconexión en el diseño de redes.

METAS Al finalizar el curso:

El estudiante evalúa y selecciona la red y los componentes más adecuados para la implementación de una red de alta velocidad.

El estudiante utiliza efectivamente la información proporcionada por las especificaciones técnicas de los fabricantes y la obtenida a través de buscadores en Internet.

El estudiante describe, explica y discute con otros compañeros las opciones de elección de un diseño y socializarla.

Denominación de capítulos

CAPITULO 1 RED INTERNET CAPITULO 2. INTERCONEXIÓN DE REDES CAPITULO 3 REDES ATM

Page 8: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

CAPITULO 1: RED INTERNET

Introducción

Internet no tiene una estructura real, pero existen varios backbone principales. Estos se construyen a partir de líneas y routers de alta velocidad. Conectados a los backbone hay redes regionales (de nivel medio), y conectadas a estas redes regionales están las LAN de universidades, empresas y proveedores de servicios de Internet de nivel inferior. Los ISPs son empresas que conectan usuarios finales a Internet. Estas empresas pueden prestar sus servicios en un solo municipio o en varios, requiriendo para este último caso servicios de conectividad nacional. Para la prestación de su servicio en Colombia, deben contar con una licencia de valor agregado otorgada por el ministerio de comunicaciones. Adicional a lo anterior, los ISPs pueden prestar entre otros los siguientes servicios: Buzones de e-mail, hosting, co-location, redes privadas virtuales (VPN), conexión internacional a otros ISPs. Lección 1: Descripción de internet Internet público es una red de computadores que conecta millones de dispositivos informáticos o sistemas terminales a través del mundo. Los sistemas terminales se conectan entre sí mediante una red de enlaces de comunicaciones, y dispositivos de conmutación de paquetes. Existen muchos tipos de enlaces de comunicaciones, los cuales están formados de diferentes tipos de medios físicos, como cable coaxial, de cobre, fibra óptica y ondas de radio. Los distintos enlaces pueden transmitir los datos a diferente velocidad y la velocidad de transmisión de un enlace se mide en bits/segundo. Cuando un sistema terminal tiene que enviar datos a otro sistema terminal. El emisor segmenta los datos y añade bits de cabecera a cada segmento, formando un paquete. Los paquetes de información resultantes se envían entonces a través de la red hasta el sistema terminal receptor, donde vuelven a ser ensamblados para obtener los datos originales. Un conmutador de paquetes toma el paquete que llega de uno de sus enlaces de comunicación de entrada y lo reenvía a uno de sus enlaces de comunicaciones de salida. Los dispositivos de conmutación de paquetes más utilizados actualmente en Internet son los routers y switches de la capa de enlace. Ambos tipos reenvían los paquetes a sus destinos finales. Los switches de la capa de enlace normalmente se emplean en las redes de acceso, mientras que los routers suelen utilizarse en el núcleo de la red. La secuencia de enlaces de comunicaciones y conmutadores de paquete que atraviesa un paquete desde el sistema terminal emisor hasta el sistema terminal receptor se conoce como ruta a través de la red.

Page 9: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Los sistemas terminales acceden a Internet a través de proveedores de servicios de Internet (Internet Services Provider; ISP), incluyendo proveedores residenciales como son las compañías telefónicas o de cables locales; los proveedores de universidades; los proveedores corporativos y los ISP que proporcionan acceso inalámbrico (WIFI) en aeropuertos, hoteles, cafés y otros lugares públicos. Cada ISP es una red de conmutadores de paquetes y enlaces de comunicación. Los ISP proporcionan diferentes tipos de acceso a la red para los sistemas terminales, incluyendo acceso a través de modem de 56 Kbps, acceso a través de banda ancha residencial (como modem por cable o DSL), acceso mediante LAN de alta velocidad, y acceso inalámbrico. Los ISP también proporcionan acceso a Internet a los proveedores de contenido, conectando sitios web directamente a Internet. Internet es todo lo que conecta a los sistemas terminales entre sí, por lo que los ISP que proporcionan el acceso a los sistemas terminales también tienen que estar interconectados entre ellos. Estos ISP de nivel inferior se interconectan a través de los ISP de nivel superior nacionales e internacionales. Un ISP de nivel superior consiste en routers de alta velocidad interconectados a través de enlaces de fibra óptica de alta velocidad. La red de cada ISP, sea de nivel superior o inferior, se administra de forma independiente, ejecuta IP y se ajusta a determinados convenios de denominación y de asignación de direcciones.

Los sistemas Terminales, los conmutadores de paquete y otros elementos de Internet, ejecutan protocolos que controlan el envío y la recepción de información en Internet. TCP (protocolo de control de transmisión) e IP (protocolo Internet) son los dos protocolos más importantes en Internet. El protocolo IP especifica el formato de los paquetes que son enviados y recibidos entre routers y sistemas Terminales. Los protocolos más importantes de Internet se conocen colectivamente como TCP/IP.

Page 10: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Normalmente, cada sistema (por ejemplo, un servidor o una estación de trabajo) o sistema intermedio (por ejemplo un router) está asociado a una única dirección. Esa dirección por lo general es una dirección de nivel de red. En la arquitectura TCPIP, esta dirección se denomina dirección IP, o simplemente dirección Internet. La dirección del nivel de red se utiliza para encaminar los paquetes a través de la red o redes hasta el sistema destino, cuya dirección vendrá indicada en la dirección del nivel de red destino del paquete. Una vez que los datos llegan al destino, deberán cederse a algún proceso o aplicación dentro del sistema. Normalmente, el sistema destino podrá procesar varias aplicaciones y cada aplicación podrá servir a varios usuarios. A cada aplicación, y probablemente, a cada usuario concurrente de la aplicación se le asigna un identificador único, denominado en la arquitectura TCPIP puerto. En cualquier red, todas las interfaces de cada dispositivo conectado deberán tener una única dirección. Como por ejemplo la dirección MAC en una red IEEE 802. Estas direcciones hacen posible que las redes encaminen las unidades de datos (por ejemplo las tramas MAC) y las hagan llegar al sistema destino. Este tipo de dirección se denomina direcciones del punto de conexión en la red. La figura muestra varios ejemplos de conexiones. La conexión lógica entre el router y la estación B se lleva a cabo en el nivel de red. Por ejemplo, si la red 2 es una red de conmutación de paquetes, entonces esta conexión lógica debería ser un circuito virtual. En niveles superiores, muchos protocolos de transporte, como, por ejemplo TCP proporcionan conexiones lógicas entre los usuarios del servicio de transporte. De esta manera, TCP puede establecer una conexión entre dos puertos de diferentes sistemas. Otro concepto relacionado es el modo de direccionamiento. En la mayoría de los casos, una dirección alude a un único sistema o puerto, en estas circunstancias el modo de direccionamiento se denomina unidestino (unicast), ahora bien, es igual posible que una dirección aluda a más de una entidad o puerto. Este tipo de direcciones identifican simultáneamente a varios destinos. Una dirección que identifique a varios usuarios puede ser de tipo difusión (broadcast) cuando aluda a todas las entidades dentro de un dominio, o puede ser de tipo multidestino (multicast) cuando se refiera a un subconjunto específico de entidades. – En general, una entidad es cualquier cosa capaz de enviar y recibir información, y un sistema es un objeto físico que contiene a una o más entidades- Internet público (es decir, la red de redes global discutida anteriormente) es la red a La que normalmente uno se refiere como la Internet. Existen también muchas redes privadas, como redes corporativas o de gobierno, cuyos host no pueden intercambiar mensajes con host externos a la red privada (a menos que los mensajes pasen a través de los llamados cortafuegos, que restringen el flujo de mensajes a y desde la red). Estas redes privadas se conocen frecuentemente como intranets. Ya que utilizan los mismos tipos de host, routers, enlaces y protocolos que Internet público. Debido a la importancia de los protocolos en Internet, es importante que todo el mundo

Page 11: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

esté de acuerdo en que hacen todos y cada uno de ellos, siendo aquí donde entran en juego los estándares. Los estándares son desarrollados por el Internet Engineering Task Force (IETF). Los documentos estándares de IETF se llaman RFC (solicitudes de comentarios). Las solicitudes RFC comenzaron como solicitudes de comentarios generales (de ahí su nombre) para resolver los problemas de arquitectura a los que se enfrentaba el precursor de Internet. Las solicitudes RFC, aunque no son estándares formalmente, han evolucionado hasta el punto de que son citadas como tales. Las RFC tienden a ser completamente técnicas y detalladas Definen protocolos como TCP, IP, HTTP (para la Web) y SMTP (para estándares abiertos de correo electrónico). Hay más de 3.000 solicitudes RFC diferentes. Lección 2: Redes de acceso El acceso a la red se puede clasificar aproximadamente en tres categorías:

• Acceso residencial: conecta sistemas Terminales del hogar a la red. • Acceso de empresa: conecta sistemas Terminales de una empresa u organización educativa a la red.

Estas categorías no son cerradas: por ejemplo, algunos sistemas Terminales de empresa pueden utilizar tecnología de acceso del tipo acceso residencial, y viceversa. Las descripciones siguientes están pensadas para mantener los casos comunes.

Acceso residencial.

El acceso residencial se refiere a la conexión de un sistema Terminal de hogar (normalmente un PC, pero quizá una televisión Web o algún aparato Internet) a un router de borde. Una forma predominante de acceso residencial es el modem telefónico sobre una línea telefónica analógica en un proveedor de servicios de Internet ISP. El modem doméstico convierte la salida digital del PC en un formato analógico de transmisión sobre la línea telefónica analógica. Esta línea telefónica está formada por pares de cables de cobre trenzados, y es la misma línea que se utiliza para las llamadas telefónicas ordinarias. En el otro extremo de la línea telefónica, un modem en el ISP convierte otra vez La señal analógica en digital para la entrada en el router del ISP. Por tanto, el acceso a red es simplemente un par de modems a lo largo de una línea telefónica punto a punto. Conceptualmente semejante a los modems telefónicos, DSL es una nueva tecnología de modem que corre también sobre líneas de teléfono de par trenzado. Pero, restringiendo la distancia entre el usuario y el modem del ISP, DSL puede transmitir y recibir datos a tasas mucho más elevadas. Las tasas de datos son normalmente asimétricas en las dos direcciones, con una tasa más elevada desde el router ISP al hogar que desde el hogar hasta el router ISP. DSL utiliza multiplexado por división de frecuencia, como se ha descrito en la sección previa. En particular. DSL divide los enlaces de comunicación entre el hogar y el ISP en tres bandas de frecuencia sin solapamiento:

Page 12: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

• Un canal de descarga de alta velocidad, en la banda de 50 kHz a 1 MHz • Un canal de descarga de velocidad media, en la banda de 4 kHz a 50 kHz • Un canal de teléfono ordinario de dos direcciones, en la banda de O a 4 kHz. El tamaño actual de ancho de banda hacia arriba y hacia abajo disponible para el usuario es una función de la distancia entre el modem del hogar y el del ISP, del ancho de la línea de par trenzado, y del grado de interferencia eléctrica. De hecho, a diferencia de los modems telefónicos, los ingenieros han diseñado DSL para distancias cortas entre modems residenciales y del ISP, consiguiendo tasas sustancialmente más altas que las del acceso telefónico. Mientras que DSL y los modems telefónicos utilizan las líneas de teléfono ordinarias, las redes de acceso HFC son extensiones de la red de cable ordinaria utilizada para la difusión de la televisión por cable. En un sistema de cable tradicional, un cable head end difunde a través de la red de distribución de cable coaxial y amplificadores a los hogares.

La fibra óptica conecta el cable head end a las uniones de nivel a nivel del vecindario, desde las que se utiliza el cable coaxial tradicional para llegar a las casas y apartamentos individuales. Como DSL, HFC requiere modems especiales, llamados modems de cable. Las empresas que proporcionan acceso a Internet mediante cable necesitan que sus usuarios compren o alquilen un modem. Normalmente, el modem de cable es un dispositivo externo, y se conecta al PC del hogar mediante un puerto Ethernet 10-BaseT. Los modems de cable dividen la red HFC en dos canales, uno hacia arriba y otro de descarga. Como en DSL., el canal hacia abajo reserva normalmente más ancho de banda, y por lo tanto una tasa de transmisión más rápida. Sin embargo, con HFC (y no con DSL), estas tasas se comparten entre los hogares, como discutiremos más adelante.

Acceso a empresas

En empresas o campus universitarios, se utiliza normalmente una red de área local (LAN) para conectar un sistema Terminal a un router de borde. Sin embargo, la tecnología Ethernet es actualmente con mucho la tecnología predominante de acceso en las redes de las empresas. Ethernet opera a 1OMbps o 100 Mbps (y ahora incluso a 1 Gbps y 10 Gbps). Utiliza o par trenzado o cable coaxial para conectar un número de sistemas Terminales con otros y con un router de borde. El router de borde es el responsable de encaminar los paquetes que tienen destino fuera de la LAN. Como HFC, Ethernet utiliza un medio compartido, por lo que los usuarios Terminales comparten la tasa de transmisión de la LAN. Más recientemente, la tecnología compartida de Ethernet ha ido migrando hacia la tecnología de Ethernet conmutado. Ethernet conmutado utiliza múltiples segmentos Ethernet de par trenzado conectados a un switch para permitir que el ancho de banda total de un Ethernet será entregado a diferentes usuarios en la misma LAN simultáneamente.

Page 13: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Lección 3: ISP y troncales internet Los sistemas Terminales (PC del usuario, PDA, servidores Web, los servidores de correo electrónico, etc.) se conectan a Internet a través de la red de acceso de un ISP local. El ISP puede proporcionar cableada o inalámbrica mediante una variedad de tecnologías de acceso, entre las que se incluyen DSL, cable, FTTH, WiFi, celular y WiMAX. Observe que el ISP local no tiene que usar una compañía telefónica ni una compañía de cable: puede ser por ejemplo, una universidad (que proporciona acceso a Internet a los estudiantes, al personal y a las facultades) o una empresa (que proporciona acceso a sus empleados). Pero la conexión de los usuarios finales y de los proveedores de contenido a los ISP locales es solo una pequeña parte del problema de conectar los cientos de miles de redes que conforman Internet. Internet es una red de redes y entender esta afirmación es fundamental para resolver este rompecabezas. En Internet público, los ISP de acceso situados en la frontera de Internet están conectadas al resto de Internet a través de una jerarquía de niveles de proveedores de servicios de Internet (ISP), como se ve en la Figura. Los ISP de acceso se sitúan en el nivel inferior de la jerarquía. En el nivel superior de la jerarquía esta un número relativamente pequeño los llamados ISP de nivel 1. De muchas formas, un ISP de nivel 1 es igual a cualquier red (está formado por enlaces y routers, y está conectado a otras redes). Sin embargo estos ISP presentan otras características que los hacen especiales. La velocidad de enlace son frecuentemente de 622 Mbps o más elevadas, y los ISP de nivel 1 de mayor tamaño disponen de enlaces en el rango de 2,5 a 10 Gbps; en consecuencia, sus routers deben ser capaces de reenviar paquetes a velocidades extremadamente altas. Lo ISP de nivel 1 también se caracterizan por lo siguiente: • Están conectado directamente a cada uno de los demás ISP de nivel 1. • Están conectados a un gran número de ISP de nivel 2 y otras redes cliente. • proporcionan cobertura internacional. Los ISP de nivel 1 también se conocen como redes troncales de internet. Por regla general, un ISP de nivel 2 tiene cobertura regional o nacional y lo que es más importante, solo está conectado a unos pocos ISP de nivel 1 (véase la figura). Por tanto, para alcanzar gran parte del Internet global, un ISP de nivel 2 tiene que enrutar su tráfico a través de uno de los ISP de nivel 1 a los que está conectado. Se dice que un ISP de nivel 2 es un cliente de los ISP de nivel 1 a los que está conectado, y el ISP de nivel 1 se dice que es un proveedor del cliente. Muchas grandes empresas e instituciones de gran tamaño conectan sus redes empresariales directamente a un ISP de nivel 1 o de nivel 2, convirtiéndose así en un cliente de dicho ISP. Un ISP proveedor factura al ISP cliente un precio, que depende normalmente de la velocidad de transmisión del enlace que los conecta. Una red de nivel 2 puede elegir también conectarse directamente a otras redes de nivel 2, en cuyo caso el tráfico puede fluir entre las dos redes sin tener que pasar por una red de nivel 1. Por debajo de los ISP de nivel 2 están los ISP de nivel inferior, que se conectan al Internet a través de uno o más lSPs de nivel 2. En el extremo inferior de la jerarquía se encuentran los ISP de acceso. Para complicar aún más las cosas, algunos

Page 14: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

proveedores de nivel 1 son también proveedores de nivel 2 (es decir, están integrados verticalmente), vendiendo el acceso a Internet directamente a los usuarios y proveedores de contenidos, así como a los ISP de nivel inferior. Cuando dos ISP están conectados directamente entre sí, se dice que son colegas (peer) entre ellos. Dentro de la red de un ISP, los puntos en los que el ISP se conecta a otros ISP (sea de nivel inferior, superior o del mismo nivel dentro de la jerarquía) se conocen como puntos de presencia (POP, Point of Presence). Un POP es simplemente un grupo de uno o más routers de la red del ISP en los que los routers de otros ISP o de las redes que pertenecen a los clientes del ISP pueden conectarse. Un proveedor de nivel 1normalmente tiene muchos POP dispersos sobre las diferentes localizaciones geográficas dentro de la red, con múltiples redes y otros ISP conectados a cada POP. Normalmente cuando una red cliente tiene que conectarse al POP de un proveedor, alquila un enlace de alta velocidad de un proveedor de telecomunicaciones de una tercera empresa y conecta directamente uno de sus routers a un router ubicado en el POP del proveedor. Además, dos ISP pueden disponer de varios puntos de conexión entre iguales, conectándose entre sí en múltiples pares de POP.

Además, para conectar cada uno de los demás a los puntos privados entre colegas, los ISP se interconectan, a menudo a los puntos de acceso a red (Network Access Points. NAP), cada uno de los cuales puede pertenecer y ser dirigido por alguna de las empresas de telecomunicaciones o por un proveedor de troncal de Internet. Los NAP intercambian grandes cantidades de tráfico sobre muchos ISP. Sin embargo, cada vez más, los ISP de nivel 1 están prescindiendo de los NAP y se están interconectando directamente a puntos colegas privados. La tendencia es a interconectarse entre sí directamente para los ISP de nivel 1, y para los ISP de nivel 2 conectarse con otros del mismo nivel y con ISP de nivel 1 en los NAP. Como los NAP organizan y conmutan enormes volúmenes de tráfico, son en sí mismos complejas redes de conmutación de alta velocidad, concentradas frecuentemente en un único edificio. A menudo, un NAP utiliza tecnología de conmutación de alta velocidad ATM en el núcleo del NAP, montando IP en el extremo superior de ATM. Resumiendo, la topología de Internet es compleja, estando formado por docenas de ISP de nivel 1 y de nivel 2 y miles de ISP de nivel inferior. Los ISP son diversos en cuanto a su cobertura, abarcando algunos múltiples continentes y océanos, y estando otros limitados a pequeñas regiones del mundo. Los ISP de nivel inferior se conectan a ISP de niveles superiores, y éstos se conectan (normalmente) a puntos colegas privados y NAP. Los usuarios y los proveedores de contenidos son usuarios de los ISP de nivel inferior, y éstos son usuarios de ISP de nivel superior. Lección 4: Retardo Vamos a considerar ahora qué es lo que le puede suceder a un paquete cuando va desde su origen hasta su destino. Recuerde que un paquete comienza en un host (el origen), pasa a través de una serie de routers, y finaliza su viaje en otro host (destino). Mientras un paquete va desde un nodo (host o router) hasta el nodo subsiguiente (host

Page 15: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

o router) a lo largo de su recorrido, el paquete sufre diferentes tipos de retardos en cada nodo a lo largo del recorrido. Los más importantes de estos retardos son: el retardo de proceso nodal, el retardo de cola, el retardo de transmisión, y el retardo de propagación; estos retardos se acumulan conjuntamente para dar un retardo nodal total.

Tipos de retardo

Vamos a explorar estos retardos en el contexto de la Figura 1.18. Como una parte de su ruta Terminal-a-Terminal entre la fuente y el destino, un paquete se envía desde el nodo anterior a través del router A al router B. Nuestro objetivo es categorizar el retardo nodal en el router A. hay que tener en cuenta que el router A tiene un enlace externo hacia el router B. Este enlace está precedido por una cola (conocida también como búfer). Cuando el paquete llega al router A desde el nodo anterior, el router A examina la cabecera del paquete para determinar el enlace exterior para el paquete, y dirige entonces el paquete hacia el enlace. En este ejemplo, el enlace exterior para el paquete es uno que lo dirige hacia el router B. Un paquete se puede trasmitir en un enlace si no se está transmitiendo en ese momento otro paquete en el enlace y si no hay otros paquetes precedentes en la cola; si el enlace está ocupado o hay otros paquetes encolados por el enlace, el paquete nuevo que llega se añadirá a la cola.

Figura 1.18 El Retardo Nodal en el Router A

A

Procesamiento

NodalEncolado (esperando

Por la Transmisión)

Transmisión

Propagación

B

Retardo de procesamiento

El tiempo requerido para examinar la cabecera del paquete y determinar hacia donde debe dirigirse es parte del retardo de procesamiento. El retardo de procesamiento puede incluir también otros factores, como el tiempo necesario para comprobar los errores a nivel de BIT que han ocurrido durante la transmisión de los bits del paquete desde el nodo anterior al router A. Los retardos de procesamiento en los routers de elevada velocidad están típicamente en el orden de los microsegundos o menos. Después del procesamiento nodal, el router dirige el paquete a la cola que precede al enlace hacia el router B.

Page 16: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Retardo de cola

En la cola, el paquete experimenta un retardo de cola mientras espera para ser transmitido en el enlace. El retardo de cola de un paquete específico dependerá del número de paquetes que hayan llegado anteriormente y que están encolados y esperando para la transmisión sobre el enlace. El retardo de un paquete dado puede variar significativamente de un paquete a otro. Si la cola está vacía y ningún otro paquete se está transmitiendo actualmente, entonces el retardo de cola de nuestro paquete es cero. Por otro lado, si el tráfico es pesado y otros muchos paquetes están esperando para ser transmitidos, el retardo de cola será largo.

Retardo de transmisión

Suponiendo que los paquetes se transmiten de la forma primero en llegar primero en ser servido, como es normal en las redes de conmutación de paquetes, nuestro paquete sólo puede ser transmitido después de que todos los paquetes que han llegado antes hayan sido transmitidos. Indicamos la longitud del paquete por L bits, y a la tasa de transmisión del enlace desde el router A al router B por R bits/seg. La tasa R se determina por la tasa de transmisión del enlace al router B. Por ejemplo, para un enlace Ethernet de 10 Mbps, la tasa es R =10 Mbps; para un enlace Ethernet de 100 Mbps. la tasa es R = 100 Mbps. El retardo de transmisión (también llamado retardo de almacenar y reenviar,) es L/R..

Retardo de propagación

Una vez que un BIT es empujado al enlace, necesita propagarse al router B. EI tiempo necesario para propagarse desde el comienzo del enlace hasta el router B es el retardo de propagación. El BIT se propaga a la velocidad de propagación del enlace. La velocidad de propagación depende del medio del enlace (es decir, fibra óptica, cable de cobre de par trenzado, etc.) y está en el rango de: 2*10

s metros/seg a 3*10

s metros/seg

que es igual o un poco menos que la velocidad de la luz. El retardo de propagación es La distancia entre dos routers dividida por la velocidad de propagación. Es decir, el retardo de propagación es d/s, donde d es la distancia entre el router A y el router B, y s es la velocidad de propagación del enlace.

Comparación de los retardos de transmisión y propagación

Los principiantes en el campo de las redes de computadores tienen, a veces, dificultad para comprender la diferencia entre retardo de transmisión y de propagación. La diferencia es sutil pero importante. El retardo de transmisión es la cantidad de tiempo que precisa el router para enviar el paquete es una función de la longitud del paquete y de la tasa de transmisión del enlace, pero no tiene nada que ver con la distancia entre los dos routers. El retardo de propagación, por el contrario. Es el tiempo que precisa un

Page 17: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

BIT para propagarse desde un router hasta el siguiente; es una función de la distancia entre los dos routers, pero no tiene nada que ver con la longitud del paquete o la tasa de transmisión del enlace

Retardo de cola y pérdida de paquetes

El componente más complicado e interesante del retardo nodal es el retado de cola dcola. De hecho, el retardo de cola es tan importante e interesante en las redes de computadores que se han escrito miles de trabajos y numerosos libros sobre él. El retardo de cola puede variar de un paquete a otro. Por ejemplo, si diez paquetes llegan a una cola vacía al mismo tiempo, el primer paquete transmitido no sufrirá retardo de cola, mientras que el último sufrirá un retardo de cola relativamente grande (mientras espera a que se transmitan los otros nueve paquetes). Cuando se caracteriza el retardo de cola, normalmente se utilizan medidas estadísticas, como el retardo promedio, la varianza del mismo, y la probabilidad de que el retardo de cola supere un valor determinado. ¿Cuándo es grande y cuándo es insignificante el retardo de cola? La respuesta a esta pregunta depende en gran medida de la tasa a la que llegue el tráfico a la cola, de la velocidad de transmisión del enlace, y de la naturaleza del tráfico que llega (es decir, de si el tráfico llega periódicamente o llega a rachas).

Pérdida de paquetes Una cola que precede a un enlace tiene una capacidad limitada, aunque la capacidad de la cola depende fundamentalmente del diseño y coste del switch. Como la capacidad de la cola es finita, los retardos de paquetes no se aproximan realmente a infinito cuando la intensidad de tráfico se aproxima a 1. En lugar de esto, un paquete puede encontrar una cola llena cuando llega. Si no hay lugar para almacenar el paquete, un router lo abandonará, es decir, el paquete se perderá. Desde un punto de vista de sistema Terminal, esto parecerá como un paquete introducido en el núcleo de la red que no ha emergido nunca de la misma en su destino. La fracción de los paquetes perdidos aumenta a medida que aumenta la intensidad de tráfico. Por tanto, las prestaciones de un nodo se miden con frecuencia no sólo en función del retardo, sino también de la probabilidad de pérdida de paquetes. Un paquete perdido puede ser retransmitido en un contexto Terminal-a-Terminal, bien por la aplicación, bien por el protocolo de la capa de transporte.

Retardo Terminal-a-Terminal

Hasta este momento, nuestra discusión se ha enfocado en el retardo de nodo, es decir, el retardo en un único router. Vamos a finalizar nuestra discusión considerando brevemente el retardo desde la fuente hasta el destino. Para conseguir una base sobre este concepto, supongamos que hay N-1 routers entre la máquina origen y la máquina destino. Supongamos también que la red no está congestionada (es decir, que los retardos de cola son despreciables), que el retardo de proceso en cada router y en la

Page 18: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

máquina origen es dproc que la velocidad de transmisión hacia fuera de cada router y de la máquina origen es de R bits/seg, y que la velocidad de propagación de cada enlace es dprop, Los retardos de nodo se acumulan, y dan un retardo Terminal a Terminal de: dend-end= N (dproc + dtrans + dprop) donde, una vez más dtrans=L/R, donde L es el tamaño del paquete.

Retardo y rutas en Internet

Para tener un primer conocimiento sobre el retardo en una red de computadores, podemos utilizar el programa de diagnóstico Traceroute, Traceroute es un programa sencillo que puede correr en cualquier máquina Internet. Cuando el usuario especifica un nombre de máquina destino, el programa en la máquina origen envía múltiples paquetes especiales hacia el destino. A medida que esos paquetes siguen su camino hacia el destino, pasan a través de una serie de routers. Cuando un router recibe uno de estos paquetes especiales, envía un mensaje corto al origen. Este mensaje contiene el nombre y la dirección del router. De forma más concreta, supongamos que hay N-1 routers entre el origen y el destino. Entonces, el origen enviará N paquetes especiales a la red, cada uno diseccionado al destino final. Hay N paquetes especiales, marcados de 1 a N con el primero marcado con 1 y el último con N y. Cuando el router n-ésimo recibe el n-ésimo paquete, señalado como n, el router destruye el paquete y envía un mensaje hacia el origen. Y cuando la máquina de destino recibe el N-ésimo paquete, el destino lo destruye también y devuelve, de nuevo, un mensaje de vuelta al origen. El origen registra el tiempo que transcurre desde que envía un paquete hasta que recibe el correspondiente mensaje de vuelta; también registra el nombre y dirección del router (o máquina de destino) que devuelve el mensaje. De esta forma, el origen puede reconstruir la ruta seguida por los paquetes que fluyen desde el origen hasta el destino, y el origen puede determinar los retardos de ida y vuelta para todos los routers que intervienen. Traceroute en realidad repite el experimento descrito tres veces, de modo que el origen en realidad envía 3 • N paquetes hacia el destino. RFC 1393 describe Traceroute en detalle. Lección 5: Internet en Colombia En la actualidad el servicio portador en Colombia presenta dos tipos de operadores: los que cuentan con una infraestructura de telecomunicaciones desarrollada específicamente para este fin, por ejemplo ISA, y los que contando con redes para la prestación de otros servicios de telecomunicaciones utilizan sus excesos de capacidad para operar como red portadora de datos. A continuación se presenta una descripción sobre los diferentes elementos que constituyen la cadena de valor para el acceso Internet, dentro de los cuales se encuentran los usuarios, los ISP y los prestadores de servicio portador nacional e internacional.

Page 19: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Los usuarios de Internet se pueden clasificar en dos categorías: Usuarios conmutados: aquellos que acceden al servicio a través de líneas telefónicas conmutadas. Usuarios dedicados: aquellos que acceden a la red a través de enlaces dedicados mediante diferentes medios como cable de cobre, microondas, satélite o fibra óptica. Proveedores de acceso a Internet – ISP Los proveedores de servicio de acceso a Internet son las empresas encargadas de brindar el servicio de conexión a internet a los usuarios. Estas empresas pueden prestar su servicio en un solo municipio o en varios, requiriendo para este último caso servicio de conectividad nacional. Para la prestación de su servicio, deben contar con una licencia de valor agregado otorgado por el ministerio de comunicaciones. Adicional a lo anterior, los ISP pueden prestar entre otros los siguientes servicios:

Buzones de e-mail.

Hosting: el hosting es el procedimiento de almacenamiento de las páginas web, las cuales se colocan en un servidor remoto. Dentro de este servidor se puede contar adicionalmente con funcionalidades como administración de cuentas de correo, control de estadísticas, y manejadores de base de datos.

Co-location: el servicio de co-location suministra la conexión a la red y el espacio físico para que las empresas alojen sus servidores en un centro de datos de Internet que permite un alto nivel de conectividad gracias a la implementación de últimas tecnologías, ancho de banda y garantía de seguridad para sus sistemas.

Redes privada virtuales VPN

Conexión internacional a otros ISP Para la prestación de estos servicios, un ISP debe contar con los siguientes recursos:

Infraestructura de acceso o Equipos de acceso: incluye servidores de acceso remoto para usuarios

conmutados y enrutadores para usuarios dedicados. o Canales de acceso: líneas telefónicas, canales de alta velocidad y enlaces

de última milla.

Conectividad o Nacional: enlaces con otros municipios – este parámetro aplica para

aquellos ISP que poseen presencia en dos o más ciudades en el ámbito nacional.

o NAP: intercambio de información con otros ISP o Internacional: conectividad con la red mundial Internet.

Sistema de información: servidores web, DNS, email, gestión, etc.

Recurso Humano: técnico, administrativo y operativo. La interconexión de estos elementos se presenta en la siguiente gráfica:

Page 20: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Operadores del servicio portador Nacional e Internacional Dentro del servicio portador se debe considerar los siguientes elementos:

o Equipos de acceso: equipos de transmisión, conmutación, enrutamiento, multiplexación, concentración, gestión y control

o Medios de transmisión: enlaces de radio, estaciones satelitales, fibras ópticas, cables de cobre.

o Sistemas de gestión de red o Recurso Humano: técnico, administrativo y operativo.

El esquema global de interconexión entre los diferentes elementos se presenta en la siguiente gráfica:

NIVEL INTERNACIONAL

PORTADOR NACIONAL

NAP

TRAFIC

O N

AC

ION

AL

NIVEL NACIONAL

TRA

FIC

O IN

TERN

AC

ION

AL

OTRAS CIUDADES

GESTION DE RED

GESTION DE RED

En el país existen dos grandes redes de propiedad de Internexa y Telefónica Telecom, las cuales están conformadas por anillos de fibra óptica, complementados con enlaces de microondas y conexiones satelitales. Además de lo anterior, algunos operadores de valor agregado y los operadores de larga distancia poseen redes que utilizan para su propia operación, y en algunos casos para la prestación del servicio portador nacional. Estas redes están constituidas por infraestructura propia de dichos operadores, la cual se integra en algunos casos con infraestructura arrendada a los dos grandes operadores mencionados inicialmente. En la actualidad el servicio de portador internacional es prestado por 16 operadores - - el mercado se distribuye principalmente en 4 de ellos - - principalmente a través de cable de fibra óptica, y en algunos casos puntuales a través de enlaces satelitales o sistemas de microonda para enlaces fronterizos con los países vecinos.

Page 21: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

CAPITULO 2: INTERCONEXIÓN DE REDES

Introducción Los sistemas Terminales, los conmutadores de paquete y otros elementos de Internet, ejecutan protocolos que controlan el envío y la recepción de información en Internet. TCP (protocolo de control de transmisión) e IP (protocolo Internet) son los dos protocolos más importantes en Internet. El protocolo IP especifica el formato de los paquetes que son enviados y recibidos entre routers y sistemas Terminales. Los protocolos más importantes de Internet se conocen colectivamente como TCP/IP. Lección 1: Arquitectura TCP/IP La mayoría de los modelos de protocolos describen un stack de protocolos específicos del proveedor. Sin embargo, puesto que el modelo TCP/IP es un estándar abierto, una compañía no controla la definición del modelo. Las definiciones del estándar y los protocolos TCP/IP se explican en un foro público y se definen en un conjunto de documentos disponibles al público. Estos documentos se denominan Solicitudes de comentarios (RFCS). Contienen las especificaciones formales de los protocolos de comunicación de datos y los recursos que describen el uso de los protocolos. Las RFC (Solicitudes de comentarios) también contienen documentos técnicos y organizacionales sobre Internet, incluyendo las especificaciones técnicas y los documentos de las políticas producidos por el Grupo de trabajo de ingeniería de Internet (IETF). Existen dos protocolos muy empleados EN LA CAPA DE TRANSPORTE:

TCP: “Transmission Control Protocol” (TELNET “Telecommunications Network”, FTP “File Transfer Protocol”, rlogin “remote login”, etc.).

UDP: “User Datagram Protocol”: (SNMP (“Simple Network Management Protocol”), TFTP (Trivial File Transfer Protocol”), video, etc.)

Page 22: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Pero sólo el primero garantiza la fiabilidad de la conexión extremo a extremo, dado que recordamos que IP en sí no garantiza la transmisión y reorganización fiable extremo a extremo, pues eso corresponde al nivel de transporte.

Protocolo de datagramas de usuario (UDP) UDP es un protocolo simple, sin conexión, descrito en la RFC 768. Cuenta con la ventaja de proveer la entrega de datos sin utilizar muchos recursos. Las porciones de comunicación en UDP se llaman datagramas. Este protocolo de la capa de Transporte envía estos datagramas como "máximo esfuerzo". Entre las aplicaciones que utilizan UDP se incluyen: Sistema de nombres de dominios (DNS), Streaming de vídeo, y Voz sobre IP (VoIP). Protocolo de control de transmisión (TCP) TCP es un protocolo orientado a la conexión, descrito en la RFC 793. TCP incurre en el uso adicional de recursos para agregar funciones. Las funciones adicionales especificadas por TCP están en el mismo orden de entrega, son de entrega confiable y de control de flujo. Cada segmento de TCP posee 20 bytes de carga en el encabezado, que encapsulan los datos de la capa de Aplicación, mientras que cada segmento UDP sólo posee 8 bytes de carga. Ver la figura para obtener una comparación. Las aplicaciones que utilizan TCP son: Exploradores Web, e-mail, y Transferencia de archivos Los servicios basados en TCP y UDP mantienen un seguimiento de las varias aplicaciones que se comunican. Para diferenciar los segmentos y datagramas para cada aplicación, tanto TCP como UDP cuentan con campos de encabezado que pueden identificar de manera exclusiva estas aplicaciones. Estos identificadores únicos son los números de los puertos. En el encabezado de cada segmento o datagrama hay un puerto de origen y destino. El número de puerto de origen es el número para esta comunicación asociado con la aplicación que origina la comunicación en el host local. El número de puerto de destino es el número para esta comunicación asociado con la aplicación de destino en el host remoto.

Page 23: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Los números de puerto se asignan de varias maneras, en función de si el mensaje es una solicitud o una respuesta. Mientras que los procesos en el servidor poseen números de puertos estáticos asignados a ellos, los clientes eligen un número de puerto de forma dinámica para cada conversación. Cuando una aplicación de cliente envía una solicitud a una aplicación de servidor, el puerto de destino contenido en el encabezado es el número de puerto que se asigna al daemon de servicio que se ejecuta en el host remoto. El software del cliente debe conocer el número de puerto asociado con el proceso del servidor en el host remoto. Este número de puerto de destino se puede configurar, ya sea de forma predeterminada o manual. Por ejemplo, cuando una aplicación de explorador Web realiza una solicitud a un servidor Web, el explorador utiliza TCP y el número de puerto 80 a menos que se especifique otro valor. Esto sucede porque el puerto TCP 80 es el puerto predeterminado asignado a aplicaciones de servidores Web. Muchas aplicaciones comunes tienen asignados puertos predeterminados. El puerto de origen del encabezado de un segmento o datagrama de un cliente se genera de manera aleatoria. Siempre y cuando no entre en conflicto con otros puertos en uso en el sistema, el cliente puede elegir cualquier número de puerto. El número de puerto actúa como dirección de retorno para la aplicación que realiza la solicitud. La capa de Transporte mantiene un seguimiento de este puerto y de la aplicación que generó la solicitud, de manera que cuando se devuelva una respuesta, pueda ser enviada a la aplicación correcta. El número de puerto de la aplicación que realiza la solicitud se utiliza como número de puerto de destino en la respuesta que vuelve del servidor. La combinación del número de puerto de la capa de Transporte y de la dirección IP de la capa de Red asignada al host identifica de manera exclusiva un proceso en particular que se ejecuta en un dispositivo host específico. Esta combinación se denomina socket. Eventualmente, los términos número de puerto y socket se utilizan en forma indistinta. En el contexto de este curso, el término socket hace referencia sólo a la combinación exclusiva de dirección IP y número de puerto. Un par de sockets, que consiste en las direcciones IP y los números de puerto de origen y de destino, también es exclusivo e identifica la conversación entre dos hosts. Por ejemplo, una solicitud de página Web HTTP que se envía a un servidor Web (puerto 80) y que se ejecuta en un host con una dirección IPv4 de Capa 3 192.168.1.20 será destinada al socket 192.168.1.20:80. Si el explorador Web que solicita la página Web se ejecuta en el host 192.168.100.48 y el número de puerto dinámico asignado al explorador Web es 49.152, el socket para la página Web será 192.168.100.48:49152. La Autoridad de números asignados de Internet (IANA) asigna números de puerto. IANA es un organismo de estándares responsable de la asignación de varias normas de direccionamiento.

Page 24: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Existen distintos tipos de números de puerto: Puertos bien conocidos (Números del 0 al 1 023): estos números se reservan para servicios y aplicaciones. Por lo general, se utilizan para aplicaciones como HTTP (servidor Web), POP3/SMTP (servidor de e-mail) y Telnet. Al definir estos puertos conocidos para las aplicaciones del servidor, las aplicaciones del cliente pueden ser programadas para solicitar una conexión a un puerto específico y su servicio asociado. Puertos Registrados (Números 1024 al 49151): estos números de puertos están asignados a procesos o aplicaciones del usuario. Estos procesos son principalmente aplicaciones individuales que el usuario elige instalar en lugar de aplicaciones comunes que recibiría un puerto bien conocido. Cuando no se utilizan para un recurso del servidor, estos puertos también pueden utilizarse si un usuario los selecciona de manera dinámica como puerto de origen. Puertos dinámicos o privados (Números del 49 152 al 65 535): también conocidos como puertos efímeros, suelen asignarse de manera dinámica a aplicaciones de cliente cuando se inicia una conexión. No es muy común que un cliente se conecte a un servicio utilizando un puerto dinámico o privado (aunque algunos programas que comparten archivos punto a punto lo hacen). Utilización de los dos protocolos TCP y UDP Algunas aplicaciones pueden utilizar los dos protocolos: TCP y UDP. Por ejemplo, el bajo gasto de UDP permite que DNS atienda rápidamente varias solicitudes de clientes. Sin embargo, a veces el envío de la información solicitada puede requerir la confiabilidad de TCP. En este caso, el número 53 de puerto conocido es utilizado por ambos protocolos con este servicio. Enlaces Se puede encontrar una lista actual de números de puertos en http://www.iana.org/assignments/port-numbers. El modelo TCP/IP describe la funcionalidad de los protocolos que forman la suite de protocolos TCP/IP. Esos protocolos, que se implementan tanto en el host emisor como en el receptor, interactúan para proporcionar la entrega de aplicaciones de extremo a extremo a través de una red. Un proceso completo de comunicación incluye estos pasos: 1. Creación de datos a nivel de la capa de aplicación del dispositivo final origen.

Page 25: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

2. Segmentación y encapsulación de datos cuando pasan por la stack de protocolos en el dispositivo final de origen. 3. Generación de los datos sobre el medio en la capa de acceso a la red de la stack. 4. Transporte de los datos a través de la internetwork, que consiste de los medios y de cualquier dispositivo intermediario. 5. Recepción de los datos en la capa de acceso a la red del dispositivo final de destino. 6. Desencapsulación y rearmado de los datos cuando pasan por la stack en el dispositivo final. 7. Traspaso de estos datos a la aplicación de destino en la capa de aplicación del dispositivo final de destino. Mientras los datos de la aplicación bajan al stack del protocolo y se transmiten por los medios de la red, varios protocolos le agregan información en cada nivel. Esto comúnmente se conoce como proceso de encapsulación. La forma que adopta una sección de datos en cualquier capa se denomina Unidad de datos del protocolo (PDU). Durante la encapsulación, cada capa encapsula las PDU que recibe de la capa superior de acuerdo con el protocolo que se utiliza. En cada etapa del proceso, una PDU tiene un nombre distinto para reflejar su nuevo aspecto. Aunque no existe una convención universal de nombres para las PDU, en este curso se denominan de acuerdo con los protocolos de la suite TCP/IP. Datos: el término general para las PDU que se utilizan en la capa de aplicación. Segmento: PDU de la capa de transporte. Paquete: PDU de la capa de Internetwork. Trama: PDU de la capa de acceso a la red. Bits: una PDU que se utiliza cuando se transmiten físicamente datos a través de un medio. Durante el proceso de encapsulación, se agregan identificadores de dirección a los datos mientras bajan al stack del protocolo en el host de origen. Así como existen múltiples capas de protocolos que preparan los datos para transmitirlos a sus destinos, existen múltiples capas de direccionamiento para asegurar la entrega. El primer identificador, la dirección física del host, aparece en el encabezado de la PDU de Capa 2, llamado trama. La Capa 2 está relacionada con la entrega de los mensajes en una red local única. La dirección de la Capa 2 es exclusiva en la red local y representa la dirección del dispositivo final en el medio físico. En una LAN que utiliza Ethernet, esta dirección se denomina dirección de Control de Acceso al medio (MAC). Cuando dos dispositivos se comunican en la red Ethernet local, las tramas que se intercambian entre ellos contienen las direcciones MAC de origen y de destino. Una vez que una trama se recibe satisfactoriamente por el host de destino, la información de la dirección de la Capa

Page 26: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

2 se elimina mientras los datos se desencapsulan y suben el stack de protocolos a la Capa 3. Los protocolos de Capa 3 están diseñados principalmente para mover datos desde una red local a otra red local dentro de una internetwork. Mientras las direcciones de Capa 2 sólo se utilizan para comunicar entre dispositivos de una red local única, las direcciones de Capa 3 deben incluir identificadores que permitan a dispositivos de red intermediarios ubicar hosts en diferentes redes. En la suite de protocolos TCP/IP, cada dirección IP host contiene información sobre la red en la que está ubicado el host. En los límites de cada red local, un dispositivo de red intermediario, por lo general un router, desencapsula la trama para leer la dirección host de destino contenida en el encabezado del paquete, la PDU de Capa 3. Los routers utilizan la porción del identificador de red de esta dirección para determinar qué ruta utilizar para llegar al host de destino. Una vez que se determina la ruta, el router encapsula el paquete en una nueva trama y lo envía por su trayecto hacia el dispositivo final de destino. Cuando la trama llega a su destino final, la trama y los encabezados del paquete se eliminan y los datos se suben a la Capa 4. Lección 2: Opciones para el transporte de IP

IP IP IP IPIP

ATM ATM PPP ETHERNET MAC

WDM

SDH SDH ETHERNET PHY

WDMWDMWDM

Alternativas para transmitir IP sobre capas más bajas

Existen diferentes alternativas para transmitir IP sobre capas más bajas y en la figura se recogen algunas de las posibles opciones:

1) La más empleada en la actualidad, consiste en introducir paquetes de IP en celdas de ATM y éstas, sucesivamente en contenedores de tramas de señal SDH que finalmente se transmite empleando una longitud de onda. Es una opción poco eficiente debido a la gran cantidad de “overead” de ATM incluyendo la necesaria para implementar AAL5, pero por el contrario proporciona QoS típica de ATM. SDH proporciona protección y reconfigurabilidad frente a fallos de la red.

Page 27: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

2) La segunda opción consiste en eliminar la capa de SDH. Es una opción

interesante para los operadores que ofrezcan un número considerable de servicios de tipo capa 2 (servicios de voz, líneas alquiladas, etc.). Tiene el mismo inconveniente que el caso anterior.

3) Otra opción consiste en transmitir los paquetes de IP directamente sobre contenedores de señal SDH. Esta opción se denomina “Packet Over Sonet” (POS) y requiere del empleo de una capa intermedia de acondicionamiento denominada “Point to Point Protocol” (PPP). Se eliminan los inconvenientes propios (pero también las ventajas de ATM). Puede emplearse para transportar al mismo tiempo telefonía tradicional.

Page 28: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

4) También puede insertarse los paquetes de IP en tramas de 10 GbE, empleando su mecanismo de acceso al medio y también su medio físico para codificar y enviarlas a través de una longitud de onda.

Lección 3: Router En el centro de la red se encuentra el router. En pocas palabras, un router conecta una red con otra red. Por lo tanto, el router es responsable de la entrega de paquetes a través de diferentes redes. El destino de un paquete IP puede ser un servidor Web en otro país o un servidor de correo electrónico en la red de área local. Es responsabilidad de los routers entregar esos paquetes a su debido tiempo. La efectividad de las comunicaciones de internetwork depende, en gran medida, de la capacidad de los routers de enviar paquetes de la manera más eficiente posible. En la actualidad, se están incorporando routers a los satélites en el espacio. Estos routers tendrán la capacidad de enrutar el tráfico IP entre los satélites del espacio de un modo muy similar al que se transportan los paquetes en la Tierra, reduciendo así los retardos y ofreciendo una mayor flexibilidad para el trabajo en red. Además del envío de paquetes, un router también proporciona otros servicios. Para satisfacer las demandas de las redes actuales, los routers también se utilizan para lo siguiente: Aseguran la disponibilidad las 24 horas del día, los 7 días de la semana. Para ayudar a garantizar la posibilidad de conexión de la red, los routers usan rutas alternativas en caso de que la ruta principal falle. Proveen servicios integrados de datos, video y voz en redes conectadas por cable o inalámbricas. Los routers dan prioridad a los paquetes IP según la calidad de servicio (QoS) a fin de asegurar que el tráfico en tiempo real, como la voz, el video y los datos esenciales, no se descarten ni retarden.

Page 29: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Disminuye el impacto de gusanos, virus y otros ataques en la red al permitir o denegar el reenvío de paquetes. Todos estos servicios se construyen en torno del router y de su responsabilidad principal de reenviar paquetes de una red a la siguiente. La comunicación entre los dispositivos de diferentes redes sólo se logra gracias a la capacidad del router de enrutar paquetes entre las redes. Este capítulo será una introducción al router, su función en las redes, sus principales componentes de hardware y software y el proceso de enrutamiento en sí. Un router conecta múltiples redes. Esto significa que tiene varias interfaces, cada una de las cuales pertenece a una red IP diferente. Cuando un router recibe un paquete IP en una interfaz, determina qué interfaz usar para enviar el paquete hacia su destino. La interfaz que usa el router para enviar el paquete puede ser la red del destino final del paquete (la red con la dirección IP de destino de este paquete), o puede ser una red conectada a otro router que se usa para alcanzar la red de destino. Generalmente, cada red a la que se conecta un router requiere una interfaz separada. Estas interfaces se usan para conectar una combinación de Redes de área local (LAN) y Redes de área extensa (WAN). Por lo general, las LAN son redes Ethernet que contienen dispositivos como PC, impresoras y servidores. Las WAN se usan para conectar redes a través de un área geográfica extensa. Por ejemplo, una conexión WAN comúnmente se usa para conectar una LAN a la red del Proveedor de servicios de Internet (ISP). La principal responsabilidad de un router es dirigir los paquetes destinados a redes locales y remotas al:

Determinar la mejor ruta para enviar paquetes Enviar paquetes hacia su destino

El router usa su tabla de enrutamiento para determinar la mejor ruta para reenviar el paquete. Cuando el router recibe un paquete, examina su dirección IP de destino y busca la mejor coincidencia con una dirección de red en la tabla de enrutamiento del router. La tabla de enrutamiento también incluye la interfaz que se utilizará para enviar el paquete. Cuando se encuentra una coincidencia, el router encapsula el paquete IP en la trama de enlace de datos de la interfaz de salida. Luego, el paquete se envía hacia su destino. Es muy probable que un router reciba un paquete encapsulado en un tipo de trama de enlace de datos, como una trama de Ethernet, y al enviar el paquete, el router lo encapsulará en otro tipo de trama de enlace de datos, como el Point-to-Point Protocol (PPP). La encapsulación de enlace de datos depende del tipo de interfaz del router y del tipo de medio al que se conecta. Las diferentes tecnologías de enlace de datos a las que se conecta un router pueden incluir tecnologías LAN, como Ethernet, y conexiones seriales WAN, como la conexión T1 que usa PPP, Frame Relay y Modo de transferencia asíncrona (ATM).

Page 30: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Enlaces "How Routers Work", Funcionamiento de los routers http://computer.howstuffworks.com/router.htm Componentes del router y sus funciones Al igual que una PC, un router también incluye: Unidad de procesamiento central (CPU) Memoria de acceso aleatorio (RAM) Memoria de sólo lectura (ROM) Las interfaces pertenecen a diferentes redes Como se muestra en la figura, cada interfaz en un router es miembro o host en una red IP diferente. Cada interfaz se debe configurar con una dirección IP y una máscara de subred de una red diferente. El IOS de Cisco no permitirá que dos interfaces activas en el mismo router pertenezcan a la misma red. Las interfaces de router pueden dividirse en dos grupos principales: Interfaces LAN, como Ethernet y FastEthernet Interfaces WAN, como serial, ISDN y Frame Relay Interfaces LAN Como su nombre lo indica, las interfaces LAN se utilizan para conectar el router a la LAN, así como una NIC Ethernet de la PC se utiliza para conectar la PC a la LAN Ethernet. Del mismo modo que la NIC Ethernet de la PC, la interfaz Ethernet del router también tiene una dirección MAC de Capa 2 y forma parte de la LAN Ethernet al igual que cualquier otro host en esa LAN. Por ejemplo, la interfaz Ethernet del router participa en el proceso ARP para esa LAN. El router mantiene un caché ARP para esa interfaz, envía solicitudes de ARP cuando es necesario y produce respuestas ARP cuando se requieren. La interfaz Ethernet del router normalmente usa un jack RJ-45 que admite un cableado de par trenzado no blindado (UTP). Cuando un router se conecta a un switch, se usa un cable de conexión directa. Cuando se conectan dos routers directamente a través de las interfaces Ethernet, o cuando una NIC de PC se conecta directamente a una interfaz Ethernet del router, se usa un cable cruzado. Interfaces WAN Las interfaces WAN se usan para conectar los routers a redes externas, generalmente a través de distancias geográficas más extensas. La encapsulación de Capa 2 puede ser de diferentes tipos, como PPP, Frame Relay y HDLC (Control de enlace de datos de alto

Page 31: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

nivel). Al igual que las interfaces LAN, cada interfaz WAN tiene su propia dirección IP y máscara de subred, que la identifica como miembro de una red específica. Nota: Las direcciones MAC se usan en interfaces LAN, como Ethernet, y no se usan en interfaces WAN. Sin embargo, las interfaces WAN usan sus propias direcciones de Capa 2 dependiendo de la tecnología. Las direcciones y los tipos de encapsulación WAN de Capa 2 se analizarán en otro curso. El router en la figura tiene cuatro interfaces. Cada interfaz tiene una dirección IP de Capa 3 y una máscara de subred que la configura para una red diferente. Las interfaces Ethernet también tienen direcciones MAC Ethernet de Capa 2. Las interfaces WAN usan encapsulaciones de Capa 2 diferentes. La Serial 0/0/0 usa HDLC y la Serial 0/0/1 usa PPP. Estos dos protocolos seriales punto a punto usan direcciones de broadcast para la dirección de destino de Capa 2 cuando encapsulan el paquete IP en una trama de enlace de datos.

Routers y capa de Red El objetivo principal de un router es conectar múltiples redes y enviar paquetes destinados ya sea a sus propias redes o a otras redes. Se considera al router como un dispositivo de Capa 3 porque su decisión principal de envío se basa en la información del paquete IP de Capa 3, específicamente la dirección IP de destino. Este proceso se conoce como enrutamiento. Cuando un router recibe un paquete, examina su dirección IP de destino. Si la dirección IP de destino no pertenece a ninguna de las redes del router conectadas directamente, el router debe enviar este paquete a otro router. En la figura, R1 analiza la dirección IP de destino del paquete. Después de buscar en la tabla de enrutamiento, R1 envía el paquete a R2. Cuando R2 recibe el paquete, también analiza la dirección IP de destino del paquete. Luego de buscar en su tabla de enrutamiento, R2 envía el paquete desde su red Ethernet conectada directamente a la PC2. Cuando cada router recibe un paquete, realiza una búsqueda en su tabla de enrutamiento para encontrar la mejor coincidencia entre la dirección IP de destino del paquete y una de las direcciones de red en la tabla de enrutamiento. Cuando se encuentra una coincidencia, el paquete se encapsula en la trama de enlace de datos de Capa 2 para esa interfaz de salida. El tipo de encapsulación de enlace de datos depende del tipo de interfaz, como por ejemplo Ethernet o HDLC. Finalmente, el paquete llega a un router que forma parte de una red que coincide con la dirección IP de destino del paquete. En este ejemplo, el router R2 recibe el paquete de R1. R2 envía el paquete desde su interfaz Ethernet, que pertenece a la misma red que el dispositivo de destino, PC2.

Page 32: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Esta secuencia de eventos se explicará con mayor profundidad más adelante en este capítulo. Los routers operan en las Capas 1, 2 y 3 Un router toma su decisión principal de envío en la Capa 3, pero como mencionamos antes, también participa en procesos de Capa 1 y Capa 2. El router puede enviar un paquete desde la interfaz adecuada hacia su destino después de examinar la dirección IP de destino del paquete y consultar su tabla de enrutamiento para tomar su decisión de envío. El router encapsula el paquete IP de Capa 3 en la porción de datos de una trama de enlace de datos de Capa 2 adecuada para la interfaz de salida. El tipo de trama puede ser una Ethernet, HDLC u otro tipo de encapsulación de Capa 2, cualquiera sea la encapsulación que se usa en esa interfaz específica. La trama de Capa 2 se codifica en señales físicas de Capa 1 que se usan para representar bits a través del enlace físico. Consulte la figura para comprender mejor este proceso. Observe que la PC1 opera en las siete capas, encapsulando los datos y enviando la trama como un stream de bits codificados a R1, su Gateway por defecto. R1 recibe el stream de bits codificados en su interfaz. Los bits se decodifican y se pasan a la Capa 2, donde R1 desencapsula la trama. El router examina la dirección de destino de la trama de enlace de datos para determinar si coincide con la interfaz receptora, lo cual incluye una dirección de broadcast o multicast. Si hay una coincidencia con la porción de datos de la trama, el paquete IP pasa a la Capa 3, donde R1 toma su decisión de enrutamiento. R1 luego vuelve a encapsular el paquete en una nueva trama de enlace de datos de Capa 2 y lo envía desde la interfaz de salida como un stream de bits codificados. R2 recibe el stream de bits y el proceso se repite. R2 desencapsula la trama y pasa la porción de datos de la trama, el paquete IP, a la Capa 3 donde R2 toma su decisión de enrutamiento. Luego, R2 vuelve a encapsular el paquete en una nueva trama de enlace de datos de Capa 2 y lo envía desde la interfaz de salida como un stream de bits codificados. R3 repite este proceso una vez más y envía el paquete IP, encapsulado dentro de una trama de enlace de datos y codificado en forma de bits, a la PC2. Cada router en la ruta desde el origen al destino realiza este mismo proceso de desencapsulación, búsqueda en la tabla de enrutamiento y nueva encapsulación. Este proceso es importante para comprender la manera en que los routers participan en las redes. Por lo tanto, retomaremos este análisis con mayor profundidad en una sección posterior. Lección 4: Encaminamiento IP La información en IP se transporta en forma de paquetes y el elemento clave de la red es el router. El router encamina los paquetes procedentes de un enlace a su entrada hacia

Page 33: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

un enlace a su salida. Para ello, cada router mantiene una tabla de encaminamiento que posee, en virtud del destino final, una o más asignaciones de valores de nodos adyacentes hacia los cuales puede enviarse el paquete a la salida del nodo actual. Así, cuando un paquete llega al router, éste inspecciona su cabecera donde se extrae la dirección del nodo de destino final del paquete. Con esta información se va a la tabla de encaminamiento y se determina el nodo adyacente al cual ha de enviarse el paquete y una vez determinado, se encamina el paquete hacia él, tal y como muestra la figura.

2

1

5

3 4

router

Destino

final

1

Nodo

siguiente

-

4

5

5

5

2

3

2

5

Destino

final

1

Nodo

siguiente

1

4

5

3

-

2

3

1

3

Destino

final

1

Nodo

siguiente

2

4

5

4

5

2

3

2

-

Un aspecto fundamental para el funcionamiento de la red IP es por tanto el mantenimiento de estas tablas de encaminamiento. Esta tarea se realiza en líneas generales de la forma que se describe a continuación. Los cambios en la red se producen de forma frecuente con el tiempo y son de muy diversos tipos; nodos y enlaces en la red que aparecen y desaparecen, enlaces y nodos nuevos que se añaden, etc. Los routers detectan instantáneamente y actualizan sus tablas de encaminamiento empleando un protocolo de encaminamiento distribuido y dinámico. Este protocolo funciona de la siguiente manera: cada router es capaz de verificar si los enlaces a sus routers vecinos están activos o no, cada vez que el router detecta un cambio en el estado de dichos enlaces genera un paquete de estado de enlace (“Link Status Packet”, LSP) y lo envía a todos los routers de la red (en realidad a los de su dominio como veremos más tarde) esta técnica se llama de inundación o “flooding” y se emplea para diseminar esta información por toda la red. Cada nodo al recibir un paquete de este tipo lo envía a través de los enlaces que le comunican con sus nodos adyacentes, excepto por aquel por donde le llega. Cada nodo emplea esta información para actualizar su tabla de encaminamiento y tener constancia en todo momento del estado de la red. Los paquetes de estado de red van numerados para evitar que se inviertan informaciones, cosa que puede ocurrir, si por culpa de los retardos en la red llega antes un LSP generado más tarde que otro. Con la información de los LSPs cada nodo tiene una visión de la topología de la red que emplea para computar los caminos más cortos que partiendo desde él llegan a los demás nodos. Este tipo de protocolos se denominan intradominio y dentro de ellos el “Open Shortest Path First” (OSPF) es el más conocido. Existen otros algoritmos llamados de Vector –Distancia para actualizar la información de encaminamiento. En éstos, cada router comienza con un conjunto de rutas para

Page 34: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

aquellas con las que está directamente conectado. Esta lista se guarda en una tabla de encaminamiento en la que cada entrada identifica una red o host de destino y a la “distancia” a ella. Esta distancia se denomina métrica y se mide típicamente en saltos. Periódicamente, cada router envía una copia de su tabla de encaminamiento a cualquier otro router que pueda alcanzar directamente. Cuando un informe le llega al router B del A, B examina el conjunto de destinos que recibe y la distancia a cada uno. B actualizará su tabla de encaminamiento si:

A conoce un camino más corto a cada destino.

A lista un destino que B no tiene en su tabla.

La distancia de A a un destino desde B pasando por A ha cambiado. El protocolo de implementación directa de los algoritmos de encaminamiento vector-distancia para LANs es el “routing Information Protocol” (RIP) y emplea UDP como protocolo de transporte para sus mensajes de información (datagramas UDP). Por cuestiones de tamaño y operatividad, la red se divide en múltiples dominios interconectados. Cada uno de ellos es un sistema autónomo. Para comunicar estos dominios entre sí se emplean protocolos de encaminamiento interdominio de entre los cuales destaca el BGP o “Border Gateway Protocol”. Direccionamiento sin clase CIDR reemplaza la sintaxis previa para nombrar direcciones IP, las clases de redes. En vez de asignar bloques de direcciones en los límites de los octetos, que implicaban prefijos naturales de 8, 16 y 24 bits, CIDR usa la técnica VLSM (Variable-Length Subnet Mask - Máscara de Subred de Longitud Variable), para hacer posible la asignación de prefijos de longitud arbitraria. CIDR engloba:

La técnica VLSM para especificar prefijos de red de longitud variable. Una dirección CIDR se escribe con un sufijo que indica el número de bits de longitud de prefijo, p.ej. 192.168.0.0/16 que indica que la máscara de red tiene 16 bits (es decir, los primeros 16 bits de la máscara son 1 y el resto 0). Esto permite un uso más eficiente del cada vez más escaso espacio de direcciones IPv4

La agregación de múltiples prefijos contiguos en superredes, reduciendo el número de entradas en las tablas de ruta globales.

Esta técnica es muy eficiente en el uso y manejo de redes de área local. Calculador de subred: http://vlsm-calc.net Bloques CIDR

CIDR es un estándar de red para la interpretación de direcciones IP. CIDR facilita el encaminamiento al permitir agrupar bloques de direcciones en una sola entrada de tabla de rutas. Estos grupos, llamados comúnmente Bloques CIDR, comparten una misma secuencia inicial de bits en la representación binaria de sus direcciones IP. Los bloques CIDR IPv4 se identifican usando una sintaxis similar a la de las direcciones IPv4: cuatro números decimales separados por puntos, seguidos de una barra de división y un número de 0 a 32; A.B.C.D/N.

Page 35: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Los primeros cuatro números decimales se interpretan como una dirección IPv4, y el número tras la barra es la longitud de prefijo, contando desde la izquierda, y representa el número de bits comunes a todas las direcciones incluidas en el bloque CIDR. Decimos que una dirección IP está incluida en un bloque CIDR, y que encaja con el prefijo CIDR, si los N bits iniciales de la dirección y el prefijo son iguales. Por tanto, para entender CIDR es necesario visualizar la dirección IP en binario. Dado que la longitud de una dirección IPv4 es fija, de 32 bits, un prefijo CIDR de N-bits deja 32 − N bits sin encajar, y hay 2

(32 − N) combinaciones posibles con los bits restantes. Esto quiere decir que 2

(32 − N)

direcciones IPv4 encajan en un prefijo CIDR de N-bits. Nótese que los prefijos CIDR cortos (números cercanos a 0) permiten encajar un mayor número de direcciones IP, mientras que prefijos CIDR largos (números cercanos a 32) permiten encajar menos direcciones IP. Una dirección IP puede encajar en varios prefijos CIDR de longitudes diferentes. CIDR también se usa con direcciones IPv6, en las que la longitud del prefijo varía desde 0 a 128, debido a la mayor longitud de bit en las direcciones, con respecto a IPv4. En el caso de IPv6 se usa una sintaxis similar a la comentada: el prefijo se escribe como una dirección IPv6, seguida de una barra y el número de bits significativos. Asignación de bloques CIDR

El bloque 208.128.0.0/11, un bloque CIDR largo que contenía más de dos millones de direcciones, había sido asignado por ARIN, (el RIR Norteamericano) a MCI.

Automation Research Systems, una empresa intermediaria del estado de Virginia, alquiló de MCI una conexión a Internet, y recibió el bloque 208.130.28.0/22, capaz de admitir 1024 direcciones IP (32 − 22 = 10; 2

10 = 1.024)

ARS utilizó un bloque 208.130.29.0/24 para sus servidores públicos, uno de los cuales era 208.130.29.33.

Todos estos prefijos CIDR se utilizaron en diferentes enrutadores para realizar el encaminamiento. Fuera de la red de MCI, el prefijo 208.128.0.0/11 se usó para encaminar hacia MCI el tráfico dirigido no solo a 208.130.29.33, sino también a cualquiera de los cerca de dos millones de direcciones IP con el mismo prefijo CIDR (los mismos 11 bits iniciales). En el interior de la red de MCI, 208.130.28.0/22 dirigiría el tráfico a la línea alquilada por ARS. El prefijo 208.130.29.0/24 se usaría sólo dentro de la red corporativa de ARS. CIDR y Máscaras de Subred Una máscara de subred es una máscara que codifica la longitud del prefijo de una forma similar a una dirección IP - 32 bits, comenzando desde la izquierda, ponemos a 1 tantos bits como marque la longitud del prefijo, y el resto de bits a cero, separando los 32 bits en cuatro grupos de ocho bits. CIDR usa máscaras de subred de longitud variable (VLSM) para asignar direcciones IP a subredes de acuerdo a las necesidades de cada subred. De esta forma, la división red/host puede ocurrir en cualquier bit de los 32 que componen la dirección IP. Este proceso puede ser recursivo, dividiendo una parte del espacio de direcciones en porciones cada vez menores, usando máscaras que cubren un mayor número de bits. Las direcciones de red CIDR/VLSM se usan a lo largo y ancho de la Internet pública, y en muchas grandes redes privadas. El usuario normal no ve este uso puesto en práctica, al

Page 36: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

estar en una red en la que se usarán, por lo general, direcciones de red privadas recogidas en el RFC 1918. Agregación de Prefijos Otro beneficio de CIDR es la posibilidad de agregar prefijos de encaminamiento, un proceso conocido como "supernetting". Por ejemplo, dieciséis redes /24 contiguas pueden ser agregadas y publicadas en los enrutadores de Internet como una sola ruta /20 (si los primeros 20 bits de sus respectivas redes coinciden). Dos redes /20 contiguas pueden ser agregadas en una /19, etc. Esto permite una reducción significativa en el número de rutas que los enrutadores en Internet tienen que conocer (y una reducción de memoria, recursos, etc.) y previene una explosión de tablas de encaminamiento, que podría sobrecargar a los routers e impedir la expansión de Internet en el futuro.

CIDR IPv4

CIDR No. de redes por clase Hosts* Máscara

/32 1/256 C 1 255.255.255.255

/31 1/128 C 2 255.255.255.254

/30 1/64 C 4 255.255.255.252

/29 1/32 C 8 255.255.255.248

/28 1/16 C 16 255.255.255.240

/27 1/8 C 32 255.255.255.224

/26 1/4 C 64 255.255.255.192

/25 1/2 C 128 255.255.255.128

/24 1/1 C 256 255.255.255.0

/23 2 C 512 255.255.254.0

/22 4 C 1,024 255.255.252.0

/21 8 C 2,048 255.255.248.0

/20 16 C 4,096 255.255.240.0

/19 32 C 8,192 255.255.224.0

/18 64 C 16,384 255.255.192.0

/17 128 C 32,768 255.255.128.0

/16 256 C, 1 B 65,536 255.255.0.0

/15 512 C, 2 B 131,072 255.254.0.0

/14 1,024 C, 4 B 262,144 255.252.0.0

/13 2,048 C, 8 B 524,288 255.248.0.0

/12 4,096 C, 16 B 1,048,576 255.240.0.0

/11 8,192 C, 32 B 2,097,152 255.224.0.0

/10 16,384 C, 64 B 4,194,304 255.192.0.0

/9 32,768 C, 128B 8,388,608 255.128.0.0

/8 65,536 C, 256B, 1 A 16,777,216 255.0.0.0

/7 131,072 C, 512B, 2 A 33,554,432 254.0.0.0

Page 37: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

/6 262,144 C, 1,024 B, 4 A 67,108,864 252.0.0.0

/5 524,288 C, 2,048 B, 8 A 134,217,728 248.0.0.0

/4 1,048,576 C, 4,096 B, 16 A 268,435,456 240.0.0.0

/3 2,097,152 C, 8,192 B, 32 A 536,870,912 224.0.0.0

/2 4,194,304 C, 16,384 B, 64 A 1,073,741,824 192.0.0.0

/1 8,388,608 C, 32,768 B, 128 A 2,147,483,648 128.0.0.0

/0 33,534,432 C, 65,536 B, 256 A 4,294,967,296 0.0.0.0

(*) En la práctica hay que restar 2 a este número. La dirección menor (más baja - todos los bits de host a 0) del bloque se usa para identificar a la propia red (toda la red), y la dirección mayor (la más alta - todos los bits de host a 1) se usa como dirección de broadcast. Por tanto, en un bloque CIDR /24 podríamos disponer de 2

8 − 2 = 254

direcciones IP para asignar a dispositivos. Los protocolos de enrutamiento sin clase incluyen RIPv2, EIGRP, OSPF, IS-IS y BGP. Estos protocolos de enrutamiento incluyen la máscara de subred con la dirección de red en sus actualizaciones de enrutamiento. Los protocolos de enrutamiento sin clase son necesarios cuando la máscara no puede suponerse ni determinarse con el valor del primer octeto. Lección 5: GIGA Ethernet Ethernet es el protocolo de conmutación de paquetes más empelado en la actualidad en LANs. Inicialmente operaba a 10 Mb/s pero se ha experimentado ampliaciones a 100Mb/s, 1 Gb/s y, recientemente a 10 Gb/s. Ethernet funciona mediante la técnica de acceso CSMA/CD y a mayor velocidad y más larga distancia su eficiencia decae. Gigabit Ethernet GbE se ha empelado de forma creciente en redes metropolitanas para interconectar múltiples redes de empresa y en 2002, el IEEE ratificó el estándar 10 Gigabit Ethernet (10 GbE) para su empleo en redes de larga distancia sobre fibra óptica. Contrariamente a los primeros sistemas Ethernet, 10-gigabit Ethernet está basado principalmente en el uso de cables de fibra óptica (con la excepción del 10 GBASE-CX4). Sin embargo, el IEEE está desarrollando un estándar de 10-gigabit Ethernet sobre par trenzado (10GBASE-T). Las especificaciones de 10 Gigabit Ethernet está definidas en la norma IEEE 802.3ae que complementa el estándar 802.3. en él se definen varias subcapas físicas conocidas como 10GBASE-X, 10GBASE-R y 10-GBASE-W así como material adicional para la gestión e interfaces como son el “10Gigabit Media Independent Interface” (XGMII), el “10 Gigabit Attachment Unit Interface” (XAUI) y el “10Gigabit Sixteen –Bit Interface” (XSBI). El sistema 10GBASE Gigabit Ethernet opera únicamente en modo full-duplex sobre fibra óptica de forma muy flexible pues puede implementarse sobre siete medios físicos distintos, que se describirán a lo largo del apartado, diseñados para trabajar en redes de área local (LAN), área metropolitana (MAN) o área amplia (WAN).

Page 38: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

10-Gigabit Ethernet emplea el conocido protocolo IEEE 802.3 Ethernet de control de acceso al medio (MAC) y el tamaño y formato de trama, aunque no requiere el protocolo CSMA/CD empleado en otros estándares. La figura muestra la arquitectura 10 Gigabit Ethernet. En la capa física, un dispositivo Ethernet de esta capa (PHY) conecta el medio óptico a la capa MAC. La arquitectura Ethernet divide la capa física en tres subcapas: Medio dependiente físico (“Physical Medium Dependent”, PMD), Medio físico anexo (“Physical Medium Attachment”, PMA) y Subcapa física de codificación (“Physical Coding Sublayer”, PCS). La primera provee la conexión física y conexión al medio (por ejemplo, los transceptores ópticos). La segunda provee de un medio independiente a la subcapa PCS para soportar diferentes medios físicos con bits orientados serialmente. Esta capa forma grupos de códigos seriales por transmisión y desensambla los códigos de grupos seriales cuando los bits son recibidos. La capa PCS contiene la codificación (64B/66B) y un serializador o multiplexor. El estándar IEEE 802.3ae estándar define dos tipos PHY: LAN PHY y WAN PHY, que proveen la misma funcionalidad pero el segundo incorpora conectividad con redes SONET STS-192c/SHD VC-4-64c en la subcapa PCS. La figura 27 muestra las partes de que constan las tramas empleadas en un sistema 10 Gigabit Ethernet:

7 1 6 6 2 46=<1500<b> 4

Pre SFD DA SA Length Type Data unit + pad FCS

Preámbulo (PRE): 7 bytes. Es un patrón alternante de unos y ceros que avisa a las estaciones receptoras de que una trama va a llegar y provee la sincronización de las distintas capas físicas con la trama de bits.

“Start-of-frame delimiter” (SFD)-1byte. El SOF es un patrón alternante de unos y ceros que finaliza con dos bits 1 consecutivos indicando que el siguiente bit es el primer bit de la izquierda en el primer byte de la dirección de destino.

“Destination adress” (DA)- 6 bytes. El campo DA idéntica qué estación/es debe/n recibir la trama.

“Source address” (SA)- 6 bytes. El campo SA identifica la estación emisora.

“Length/Type” – 2 bytes. Este campo indica el número de bytes de datos del cliente MAC- que contiene el campo de datos de la trama, o el ID del protocolo encapsulado en la trama si el valor del número es superior a 1536.

“Data” – Secuencia de bytes, con un número cualquiera entre 46 y 1500 (El mínimo para el total de la trama es 64 bytes).

“Frame check sequence” (FCS) - 4 bytes. Secuencia que contiene un valor de comprobación redundante cíclica de 32-bit (cyclic redundancy check, CRC) creada por el MAC emisor y recalculada por el MAC receptor para comprobar tramas erróneas.

Las capas físicas especificadas en la norma IEEE 802.3 incluyen la denominada 10GBASE-S, que emplea señal a 850nm y dos fibras multimodo; 10GBASE-L4, que emplea un transceptor WDM a 1310 nm con dos fibras multimodo o monomodo; 10GBASE-L, que emplea 1310 nm con dos fibras monomodo; y 10GBASE-E, que usa 1550nm con dos fibras monomodo.

Page 39: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Los medios físicos empleados en 10 Gigabit se denominan con varias letras que indican la longitud de onda empleada en el sistema óptico así como la señal de codificación empleada. La codificación incluye una subcapa de interfaz WAN (WAN “interface sublayer”, WIS) que compatibiliza cualquier equipo 10 Gigabit Ethernet con el formato de transmisión SONET STS-192c, dado que SONET se utiliza comúnmente para comunicaciones de datos a largas distancias y STS-192c ofrece una capacidad de la carga de 9.58464 Gbps. El subsistema WIS adapta la carga transportada por el sistema 10 Gigabit Ethernet a la capacidad de las tramas SONET STS-192c. En los medios 10GBASE-X, la “S” significa que se emplea la longitud de onda de 850 nm, la “L” hace referencia a 1310 NM, Y LA “E” se reserva para 1550nm. La letra “X” significa que la codificación de la señal es 8B/10B, mientras que “R” implica codificación 66B y “W” se refiere al interfaz WIS que encapsula las tramas Ethernet para su transmisión sobre un canal SONET STS-192c. Los medios 10GBASE-SR y 10GBASE-SW emplean la longitud de onda de 850nm y fibra óptica multimodo (MMF). El alcance de estos sistemas presenta un rango entre 2 y 300 metros de fibra, e incluso mayores, dependiendo del tipo y calidad de la misma. El primero se utiliza sobre una fibra oscura, o sea, que no está en uso ni conectado a ningún equipo. El segundo está diseñado para conectarse a equipos SONET que se utiliza típicamente para comunicaciones de larga distancia. Los medios 10GBASE-LR y 10GBASE-LW emplean la longitud de onda de 1310nm y fibra óptica monomodo (SMF), con un alcance en el rango entre 2m y 10 km de fibra y las mismas características que los anteriores. Los medios 10GBASE-ER y 10GBASE-EW emplean la longitud de onda de 1550nm y fibra óptica monomodo (SMF) y su alcance presenta un rango entre 2m y 40 km. Finalmente, el medio 10GBASE-LX4 emplea la tecnología WDM para enviar información sobre 4 canales distintos sobre un par de cables de fibra óptica. Está diseñado para trabajar a 1310nm sobre fibra oscura monomodo o multimodo. El alcance de estos sistemas presenta un rango entre 2 y 300 m de fibra si se emplea fibra multimodo, pero de 2 m a 10 km si se utiliza fibra monomodo.

Page 40: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

CAPITULO 3: REDES ATM Introducción Este capítulo muestra las redes frame relay y ATM como una interconexión de nodos de conmutación, proporciona la arquitectura, conexiones lógicas y estructura de la celda y la capa de adaptación de ATM. Lección 1: Frame Relay Frame Relay o (Frame-mode Bearer Service) es una técnica de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducida por la ITU-T a partir de la recomendación I.122 de 1988. Consiste en una forma simplificada de tecnología de conmutación de paquetes que transmite una variedad de tamaños de tramas o marcos (“frames”) para datos, perfecto para la transmisión de grandes cantidades de datos. La técnica Frame Relay se utiliza para un servicio de transmisión de voz y datos a alta velocidad que permite la interconexión de redes de área local separadas geográficamente a un coste menor. Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo haría una red privada punto a punto, esto quiere decir que es orientado a la conexión. Las conexiones pueden ser del tipo permanente, (PVC, Permanent Virtual Circuit) o conmutadas (SVC, Switched Virtual Circuit). De hecho, su gran ventaja es la de reemplazar las líneas privadas por un sólo enlace a la red. El uso de conexiones implica que los nodos de la red son conmutadores, y las tramas deben llegar ordenadas al destinatario, ya que todas siguen el mismo camino a través de la red, puede manejar tanto tráfico de datos como de voz. Frame Relay constituye un método de comunicación orientado a paquetes para la conexión de sistemas informáticos. Se utiliza principalmente para la interconexión de redes de área local (LANs, local area networks) y redes de área extensa (WANs, wide area networks) sobre redes públicas o privadas. La mayoría de compañías públicas de telecomunicaciones ofrecen los servicios Frame Relay como una forma de establecer conexiones virtuales de área extensa que ofrezcan unas prestaciones relativamente altas. Frame Relay es una interfaz de usuario dentro de una red de conmutación de paquetes de área extensa, que típicamente ofrece un ancho de banda comprendida en el rango de 56 Kbps y 1.544 Mbps. Frame Relay se originó a partir de las interfaces ISND y se propuso como estándar al Comité consultivo internacional para telegrafía y telefonía (CCITT) en 1984. El comité de normalización T1S1 de los Estados Unidos, acreditado por el Instituto americano de normalización (ANSI), realizó parte del trabajo preliminar sobre Frame Relay. Lección 2: ATM

Page 41: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Para la transmisión, ATM emplea celdas de tamaño fijo de 53 bytes que resulta de un compromiso entre los requisitos de las aplicaciones de voz (paquetes de tamaño reducido son preferibles para evitar retardos prolongados) y las aplicaciones de datos (son preferibles paquetes de tamaño mayor para rentabilizar el overead). A diferencia de SDH, la transmisión de tramas no es de naturaleza continua, sino que las celdas se transmiten sólo cuando hay información que enviar. De los 53 bytes, 5 se reservan para la cabecera (destino del paquete, etc.) y 48 bytes se reservan para la carga que transporta la celda tal y como se muestra en la figura.

La red ATM suele ser de tipo mallado, donde los elementos centrales son los conmutadores ATM que generalmente están interconectados entre sí a través de enlaces de tipo punto a punto e interfaces ATM. Esta conmutación se realiza a nivel de celda ATM. Por tanto, al ser éstas de tamaño fijo y reducido, puede garantizarse una transmisión extremo a extremo en la red con muy poco retardo, habilitando además la posibilidad de proporcionar calidad de servicio (QoS). En la mayoría de los casos, los conmutadores ATM se conectan a equipos SDH por medio de interfaces ópticos de características compatibles a las descritas en la capa física de SDH. Una red ATM está formada por conmutadores ATM y puntos finales ATM. El conmutador ATM es responsable del tránsito de celdas a través de la red ATM: acepta las celdas que le llegan de un punto final ATM o un conmutador ATM, lee y actualiza la información en la cabecera de la celda, y rápidamente conmuta la celda a una interfaz de salida hacia su destino. Un punto final ATM o sistema final, contiene un adaptador de interfaz a la red ATM, el cual sí lee los bytes de datos de la celda. Ejemplos de puntos finales son: las estaciones de trabajo, routers, unidades de servicio digitales, conmutadores LAN, y codificadores y decodificadores de vídeo. Los conmutadores ATM soportan dos tipos primarios de interfaces:

UNI (User to Network Interface). La interfaz UNI conecta sistemas finales ATM (tales como servidores y routers) a un conmutador ATM.

NNI (Network to Network Interface). Conecta dos conmutadores ATM. Los dispositivos ATM utilizan un formato de direcciones NSAP (Network Service Access Point) del modelo OSI de 20 bytes, en el caso de redes ATM privadas; y un formato de direcciones E.164 del ITU-T, semejante a números telefónicos, para las redes públicas B-ISDN. Cada sistema ATM necesita de una dirección ATM, independiente de los protocolos de nivel superior como IP. Lección 3: Arquitectura y modelos de capas ATM La arquitectura de ATM utiliza un modelo de referencia para describir la funcionalidad que soporta y que está relacionada con la capa física y la capa de enlace de datos del modelo OSI. El modelo ATM comprende tres planos y cada plano abarca a todas las capas: Plano de control: genera y gestiona las peticiones de señalización. Plano de usuario: gestiona la transferencia de datos. Plano de gestión: incluye la gestión de capas, que incluye las funciones específicas de cada capa y la gestión de planos, que también coordina las funciones del sistema completo.

Page 42: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Específicamente hablando, y tal y como se ilustra en la figura, las capas de ATM son: 1) Capa física: análoga al nivel físico del modelo OSI. Las celdas ATM pueden ser transportadas por cualquier nivel físico. ATM no limita el nivel físico a SDH, también se pueden emplear otras tecnologías, incluso inalámbricas. 2) La capa ATM: es análoga al nivel de enlace de datos de OSI. Se responsabiliza del establecimiento de las conexiones y del envío y transporte de las celdas ATM a través de la red. Para ello, precisa de la información de la cabecera de las celdas.

En cualquiera de las interfaces, la cabecera de 5 bytes es necesaria, aunque difiere ligeramente si la celda se transmite a través de un enlace con UNI o de un enlace con NNI. En la figura se muestran los campos de la cabecera para cada una de las dos opciones correspondientes. Estos campos son los siguientes. 1) GFC: “Generic Flow control”: 4 bytes en UNI, no está presente en NNI. 2) VPI: “Virtual Path Identifier”: 8 bits en UNI, 12 en NNI. 3) VCI: “Virtual Circuit Identifier”: 16 bits. 4) PT: “Payload Type”: 3 bits. 5) CLP: “Cell Loss Priority”: 1 bit 6) HEC: “Header Error Control”: 8 bits (CRC sobre los 5 bytes de cabecera). 3) La capa de adaptación a ATM (AAL): realiza funciones también análogas a la capa de enlace de datos de OSI y está fuertemente relacionada con la anterior. Su misión es aislar a los protocolos de orden superior de los detalles de los procesos de ATM. Es un nivel que adapta las tramas de formatos de protocolos superiores al formato de celda ATM. 4) Capas superiores: aceptan paquetes generados por los usuarios mediante otros formatos y los pasan a la capa AAL.

Page 43: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Los sistemas finales utilizan los tres niveles mientras que los conmutadores solo utilizan los dos niveles inferiores. Lección 4: Conexión y encaminamiento ATM Como hemos mencionado anteriormente, ATM funciona como un servicio orientado a conexión. Con antelación a la transferencia de datos se ha de establecer un canal y se han de reservar los recursos oportunos de la red. Las conexiones en ATM se denominan canales virtuales y a cada uno de ellos se les asigna un Identificador de Canal Virtual (VCI). El VCI de un canal virtual no tiene por qué mantenerse constante a lo largo de toda la trayectoria desde el nodo origen al destino. Más aún suele cambiarse en cada nodo intermedio, de forma que se modifica su valor en los diferentes enlaces intermedios. La tarea de un conmutador (“switch”) es inspeccionar el valor del VCI de la celda a su entrada, ir a una tabla de asignaciones que se encuentra disponible y actualizada en todo momento y obtener el puerto de salida de dicha celda y el valor de VCI que hay que poner como nuevo para el enlace siguiente. La tabla VCI es un elemento fundamental y muestra el establecimiento previo del circuito antes de la transmisión de datos propiamente dicha. Como se ha mencionado anteriormente dicha tabla ha de especificar para cada valor de VCI de entrada el enlace o puerto de salida y el valor de VCI nuevo que habrá de emplear la celda en dicho enlace. En la red puede haber un gran número (millones) de canales virtuales compartiendo el mismo enlace. De acuerdo con el procedimiento anterior, cada uno tendría VCIs diferentes y, al llegar a un nodo intermedio habría que consultar tablas de una envergadura considerable. De hecho, el mirar más de una tabla de más de 2

16 =65536

entradas para encaminar cada cédula supondría un gran consumo de tiempo. Si existiera un mecanismo para agrupar o agregar todos aquellos canales virtuales que al menos comparten un elevado porcentaje de enlaces en el camino extremo a extremo, esta propiedad podría emplearse para aliviar significativamente el proceso de encaminamiento. Esta propiedad para agregar canales virtuales se implementa por medio del uso de los identificadores de camino virtual o VPI (Virtual Path Identifier). Para entender el funcionamiento del VPI nos referimos al ejemplo de la figura. En el ejemplo, los dos canales virtuales comparten los enlaces 0- 1 y 1 – 2. Así el VPI=u se asigna a los dos canales en el enlace 0 – 1 y el VPI=v en el enlace 1-2. El conjunto de los dos enlaces es un camino virtual donde el nodo 0 es el origen del camino y el nodo 2 el final. Cualquier celda que pertenezca a un canal virtual agrupado a este camino virtual será enrutada a través de éste empleando el indicador VPI que es de menor tamaño que el VCI. Al llegar al final de su camino virtual, las celdas son enrutadas a partir de allí en virtud del valor de su VCI. Este esquema de dos niveles es más efectivo que emplear la suma de bits de ambos (24) para UNI y 28 para NNI) directamente para conmutar.

Page 44: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

El proceso de determinación de las rutas que seguirán las celdas en una conexión ATM extremo a extremo y el mantenimiento y cambio de las tablas de VCI, puertos y VPI en cada conmutador de ATM se realiza a través de un protocolo de encaminamiento. En el caso de ATM este protocolo se conoce por las siglas PNNI (Private Network to Network Interface) si la conexión es entre redes privadas y BCI (Broadband Carrier Interface) si la conexión es entre redes públicas. El funcionamiento del protocolo es el siguiente: cada enlace de la red viene caracterizado por una serie de parámetros que describen su estado (tasa de pérdida de celdas, retardo máximo, ancho de banda disponible, etc…) así como por otro parámetro de coste o factor de peso que indica el coste en que incurrirá la red por emplearlo. Cada conmutador ATM informa al resto de los demás del valor de estos parámetros para cada uno de los enlaces que parten de sus puertos de salida. Así, cada “switch” ATM obtiene una información global de la topología de la red y los estados de sus enlaces. El conmutador de entrada puede emplear esta información para calcular la ruta que mejor se ajusta a los requisitos de QoS establecidos y, al mismo tiempo minimizar el coste. Una vez que la ruta se ha calculado, cada “switch” incluido en ella es informado acerca de la nueva conexión y sus tablas de etiquetas VPI/VCI entrada/salida han de ser reconfiguradas. Una vez terminada esta tarea, finaliza el proceso de conexión y PNNI es invocado de nuevo. Lección 5: Capas de adaptación ATM (AAL) ATM emplea celdas de tamaño fijo. Sin embargo, las aplicaciones que emplean ATM o emplean paquetes de tamaño variable como IP o son de tipo flujo contínuo como la transmisión de vídeo o voz. La capa de Adaptación de ATM, AAL es la responsable, como ya vimos de transformar este diverso conjunto de diferentes tipos de señales cliente en celdas de ATM. Para transportar diversos tipos de tráfico se han definido

diferentes tipos de AAL, éstos transforman paquetes, largas cadenas de señales de vídeo, etc., en segmentos de 48 bytes susceptibles de incorporarse a la carga de celdas ATM.

La capa AAL se divide en dos subcapas o subtareas:

Capa de convergencia (adapta la información a múltiplos de octetos)

Capa de segmentación y re – ensamblaje o SAR, que segmenta la información en unidades de 48 octetos en la fuente y la re-ensambla en el

destino.

Características de los 5 tipos de AAL.

ATM Adaptation Layer 1 (AAL1): AAL Tipo 1 o clase A soporta CBR (Constant Bit Rate), síncrono, orientado a conexión. Su servicio es de alta prioridad y

Page 45: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

garantizado. Se utiliza, por ejemplo, para audio y video sin comprimir (videoconferencias, audio interactivo)

ATM Adaptation Layer 2 (AAL2): AAL Tipo 2 soporta rt-VBR (Variable Bit Rate in

real time), de circuito orientado a la conexión de tráfico síncrono. Su servicio es de baja prioridad y garantizado. Se utiliza en compresión de video.

ATM Adaptation Layer 3 y 4 (AAL3 y AAL4): Soportan al VBR, tráfico de datos,

circuitos orientados a la conexión, tráfico asíncrono (por ejemplo X.25 de datos) o a los paquetes de datos no orientados a la conexión (ej.: tráfico SMDS) con una cabecera (header) adicional de 4 bytes en el payload de la celda. Por ejemplo

Frame Relay y X.25. Su servicio es de alta prioridad y no garantizado.

ATM Adaptation Layer 5 (AAL5): Este AAL ha sido diseñado para utilizarse bajo TCP/IP y está normalizado en la RFC 1577. AAL Tipo 5 es similar a AAL 3/4 con un programa de simplificación de cabecera (header) de información. Este AAL asume que los datos son secuenciales desde el usuario final y usa el bit Payload Type Indicator (PTI) para indicar la última celda en transmitirse. Ejemplos de este

servicio son el clásico IP sobre ATM, Ethernet sobre ATM, SMDS, y emulación LAN (LANE). Su servicio es de baja prioridad y no garantizado. En el caso de AAL5 se definen 4 clases de servicio:

CBR (Constant Bit Rate): Tasa de velocidad constante. Divide la capacidad total del ancho de banda y se encarga de la parte con un flujo constante de tráfico. Se emplea como simulación de redes LAN o enlaces punto a punto. Es adecuado

para transmisiones de tiempo real como vídeo y voz. VBR (Variable Bit Rate): Tasa de velocidad variable. Se utiliza sobre la capacidad

no aprovechada por CBR y está pensando para permitir el tráfico a ráfagas y asegurar un caudal mínimo (similar a Frame Relay).

Se ofrecen 2 posibilidades. rt-VBR para aplicaciones de tiempo real y nrt-VBR para las de no tiempo real. Por ejemplo la transmisión de video MPEG utiliza rt-VBR.

El servicio nrt-VBR es el ofrecido por los operadores de acceso a Internet para usuarios. UBR (Unespecified Bit Rate): Tasa de velocidad no especificada. Utilizado en el

ancho de banda restante. El tráfico que utiliza este servicio es el susceptible de ser eliminado en caso de congestión en los conmutadores. Lo utilizan aplicaciones

tolerantes a pérdidas de paquetes, como conexiones TCP. ABR (Available Bit Rate): Tasa de velocidad libre. Se hace una mejor gestión de la

capacidad sobrante que con UBR. Se establece un caudal mínimo y existe una realimentación de paquetes para evitar la pérdida de celdas y la congestión.

Page 46: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

FUENTES DOCUMENTALES DE LA UNIDAD 1 Stallings, W. (2004). “Redes e Internet de Alta Velocidad, Rendimiento y Calidad de Servicio". 2ª Edición. Editorial Prentice Hall. Kurose, James F. Ross, Keith w. (2010). Redes de Computadoras (5ta Edición). Pearson Educación Forouzan, Behrouz A. (2006). Transmisión de datos y redes de comunicaciones / Behrouz A. Forouzan; traducción Jesús Carretero Pérez, Félix García Carballeira. Edición: 4a. ed. Editor Carmelo Sánchez González. Editorial: Madrid: McGraw-Hill. Capmany Francoy, José. (2007). Redes ópticas / José Capmany Francoy, Beatriz Ortega Tamarit. Editorial: México: Limusa: Universidad Politécnica de Valencia.

Page 47: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

UNIDAD 2

Nombre de la Unidad CONGESTION Y CALIDAD DE SERVICIO EN REDES DE ALTA VELOCIDAD

Introducción El control de congestión y la calidad de servicio son dos aspectos tan íntimamente relacionados que la mejora en uno significa la mejora del otro e ignorar uno normalmente significa ignorar el otro. La mayoría de las técnicas para prevenir o eliminar la congestión también mejoran la calidad de servicio en una red. Estos aspectos no están relacionados con un nivel, sino con tres: el nivel de enlace de datos, el nivel de red y el nivel de transporte. En esta unidad iniciamos con el control de congestión, calidad de servicio y terminamos con mecanismos de soporte para calidad de servicio en redes de alta velocidad.

Justificación Actualmente a las redes IP se les pide que soporte un gran volumen de tráfico, sobre enlaces de alta capacidad y la miscelánea de tráfico engloba aplicaciones en tiempo real o prácticamente en tiempo real, que son sensibles a los retardos y a las variaciones de rendimiento, así como a la perdida de paquetes. Los requisitos primordiales en el diseño de redes IP son: Control de congestión—si no se controla la congestión de manera adecuada, los buffers de conmutación o encaminamiento se llenan por completo y los paquetes han de ser descartados. Para aquellas aplicaciones que toleran la perdida de datos, el descartarlos significa que luego han de ser retransmitidos, lo cual incrementa la congestión. Para las aplicaciones que no toleran la perdida de datos, el descartar paquetes supone una pérdida en la calidad de servicio. Conseguir un bajo nivel de retardo—el retardo se ve reducido cuando no existe congestión y la longitud de las colas es muy breve. Sin embargo, para dar soporte a numerosas aplicaciones, el nivel de utilización de la red debe ser relativamente alto. Esto sugiere la necesidad de que exista al menos un cierto grado de congestión y en consecuencia, cierto retardo. Proporcionar un alto rendimiento—esto se consigue haciendo que parte de la capacidad quede reservada o dedicada. No obstante, para utilizar la red de manera eficaz, hay que permitir una cierta cantidad de multiplexación estadística, lo cual, hasta cierto punto, entra en conflicto con la provisión de un alto nivel de rendimiento. Ofrecer calidad de servicio – la provisión de distintos niveles de calidad de servicio a los diferentes flujos de tráfico requiere una gestión inteligente de los paquetes a medida que estos fluyen

Page 48: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

por la red. Proporcionar un servicio justo -- otro objetivo deseable es equidad. Aquí la palabra justicia hace referencia a la provisión de una cantidad similar de capacidad. Para todos los paquetes que confluyen con una misma calidad de servicio.

Intencionalidades Formativas

PROPÓSITOS

Examinar el rendimiento de una red de alta velocidad a través del estudio de los problemas de congestión y los mecanismos de control de la congestión.

Examinar los protocolos y mecanismos usados internamente en una red para controlar la congestión y ofrecer soporte para varios niveles de calidad de servicio a través de los importantes conceptos de los servicios integrados y los servicios diferenciados y varios protocolos que ofrecen soporte de QoS. .

OBJETIVOS

Examinar los problemas de congestión y los mecanismos de control de la congestión para obtener un mejor rendimiento en las redes de alta velocidad.

Examinar los protocolos de encaminamiento para satisfacer requisito de QoS.

Estudiar los conceptos de los servicios integrados y los servicios diferenciados y varios protocolos que ofrecen soporte de QoS para controlar la congestión y ofrecer soporte para varios niveles de calidad de servicio.

COMPETENCIAS

El estudiante describe los problemas de congestión y utiliza los mecanismos de control de la congestión para obtener un mejor rendimiento en las redes de alta velocidad.

El estudiante describe y utiliza los protocolos de encaminamiento para satisfacer requisito de QoS.

El estudiante describe y utiliza los elementos necesarios para introducir calidad de servicio (QoS) en las redes Internet.

METAS Al finalizar el curso:

Page 49: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

El estudiante evalúa y selecciona la red y los componentes más adecuados para la implementación de una red de alta velocidad.

El estudiante utiliza efectivamente la información proporcionada por las especificaciones técnicas de los fabricantes y la obtenida a través de buscadores en Internet.

El estudiante describe, explica y discute con otros compañeros las opciones de elección de un diseño y socializarla.

Denominación de capítulos

CAPITULO 1CONTROL DE CONGESTION CAPITULO 2 CALIDAD DE SERVICIO CAPITULO 3 SOPORTE PARA CALIDAD DE SERVICIO (QoS)

Page 50: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

CAPITULO 4: CONTROL DE CONGESTION Introducción El aspecto central del control de congestión y de la calidad de servicio es el tráfico de datos. En el control de congestión se intenta evitar la congestión del tráfico. En la calidad de servicio, se intenta crear un entorno apropiado para el tráfico. Lección 1: TRÁFICO DE DATOS Antes de hablar sobre el control de congestión y la calidad de servicio, se tratará el tráfico de datos. DESCRIPTORES DE TRÁFICO Los descriptores de tráfico son valores cualitativos que representan un flujo de datos. La figura muestra un flujo de tráfico con algunos de estos valores.

Tasa de datos media La tasa de datos media es el número de bits enviados durante un periodo de tiempo, dividido por el número de segundos de ese periodo. Se utiliza la siguiente ecuación: Tasa de datos media = cantidad de datos / tiempo La tasa de datos media es una característica muy útil del tráfico debido a que indica el ancho de banda medio que necesita el tráfico. Tasa de datos pico La tasa de datos pico define la máxima tasa de datos del tráfico. En la figura es el valor máximo del eje y. La tasa de datos pico es una medida muy importante debido a que indica el ancho de banda pico que la red necesita para que el tráfico pase por ella sin cambiar su flujo de datos. Tamaño de la ráfaga máxima Aunque la tasa de datos pico es un valor crítico para la red, puede normalmente ser ignorada si la duración del valor pico es muy corto. Por ejemplo, si los datos fluyen a una tasa de 1Mbps con un pico de datos repentino de 2 MBPS durante solo 1 ms, la red probablemente podrá tratar la situación. Sin embargo, si la tasa de datos pico dura 60

Page 51: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

ms, puede que haya problemas en la red. El tamaño de la ráfaga máxima normalmente se refiere a la duración máxima de tiempo en el que el tráfico se genera a la tasa pico. Ancho de banda efectivo El ancho de banda efectivo es el ancho de banda que la red necesita asignar al flujo de tráfico. El ancho de banda efectivo es una función de tres valores: tasa de datos media, tasa de datos pico y tamaño de la ráfaga máximo. El cálculo de este valor es muy complejo. PERFILES DE TRÁFICO Para el objetivo de este capítulo, un flujo de datos puede tener uno de los siguientes perfiles de tráfico: tasa de bits constante, tasa de bit variable o tasa de bit a ráfagas. Tasa de bits constante Un modelo de tráfico con una tasa de bits constante (CBR) o tasa de datos fija, tiene una tasa de datos que no cambia. En este tipo de flujo, la tasa de datos media y la tasa de datos pico son iguales. El tamaño de la ráfaga máximo no es aplicable. Este tipo de tráfico es muy sencillo de tratar para una red puesto que es predecible. La red conoce por adelantado cuanto ancho de banda necesita asignar para este tipo de flujo.

Tasa de bits variable En la categoría de tasa de bits variable (VBR), la tasa de datos cambia con el tiempo, siendo los cambios suaves y no repentinos. En este tipo de flujo, la tasa de datos media y la tasa de datos pico son diferentes. El tamaño de la ráfaga máxima tiene normalmente un valor pequeño. Este tipo de tráfico es más difícil de gestionar que el tráfico con tasa de bits constante, pero normalmente no necesita ser reajustado como se verá más tarde.

Datos a ráfagas En la categoría de datos a ráfagas, la tasa de datos cambia de forma repentina en un tiempo muy corto. Puede saltar de cero, por ejemplo, hasta 1 Mbps en unos pocos microsegundos y viceversa. Puede también permanecer en este valor durante un largo periodo. La tasa media de bits y la tasa pico son muy diferentes en este tipo de flujo. El tamaño de la ráfaga máxima es significativo. Este es el tipo de tráfico más difícil de tratar debido a que el perfil de tráfico es muy impredecible. Para manejar este tipo de tráfico, la red normalmente necesita reajustarse, utilizando técnicas de ajuste, como se verá en breve. El tráfico de datos a ráfaga es una de las principales causa de congestión en una red.

Page 52: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Lección 2: CONGESTIÓN Un aspecto importante en una red de conmutación de paquetes es la congestión. La congestión en una red puede ocurrir si la carga de la red (el número de paquetes enviados a la red) es mayor que la capacidad de la red (el número de paquetes que una red puede tratar). El control de congestión se refiere a los mecanismos y técnicas que permiten controlar la congestión y mantener la carga por debajo de la capacidad. Se puede preguntar por qué hay congestión en una red. La congestión en un sistema que involucra espera. Por ejemplo, la congestión ocurre en una autopista debido a que cualquier incidente en el flujo, como un accidente durante una hora punta, crea un bloqueo. La congestión en una red o interconexión de redes ocurre debido a que los routers y conmutadores tienen colas –búferes que almacenan los paquetes antes y después de su procesamiento. Un router, por ejemplo, tiene una cola de entrada y una cola de salida para cada interfaz. Cuando un paquete llega a la interfaz de entrada, se llevan a cabo tres etapas antes de su salida..

1. El paquete se coloca al final de la cola de entrada mientras espera a ser comprobado. 2. El módulo de procesamiento del router extrae el paquete de la cola de entrada cuando alcanza el frente de la cola y utiliza su tabla de encaminamiento y la dirección de destino para encontrar el camino. 3. El paquete se coloca en la cola de salida de la interfaz apropiada y espera su turno para ser enviado. Se necesita tener en cuenta dos aspectos. En primer lugar, si la tasa de llegada de paquetes es mayor que la tasa de procesamiento de paquetes, las colas de entrada se harán cada vez más largas. En segundo lugar, si la tasa de salida de paquetes es menor que la tasa de procesamiento de los paquetes, las colas de salida se harán cada vez más largas. PRESTACIONES DE UNA RED El control de congestión involucra dos factores que miden las prestaciones de una red: el retardo y la productividad. Retardo frente a carga

Page 53: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Observe que cuando la carga es mucho menor que la capacidad de la red, el retardo está al mínimo. El retardo mínimo se compone del retardo de propagación y del retardo de procesamiento, los cuales son insignificantes. Sin embargo, cuando la carga alcanza la capacidad de la red, el retardo se incrementa bruscamente debido a que ahora se necesita añadir el tiempo de espera en las colas (para todos los routers en el camino) al retardo total. Observe que el retardo se hace infinito cuando la carga es mayor que la capacidad. Si esto no es obvio, considere el tamaño de las colas cuando casi ningún paquete alcanza el destino, o alcanza el destino con un retardo de infinito; las colas se hacen cada vez más grandes. El retardo tiene un efecto negativo sobre la carga y consecuentemente sobre la congestión. Cuando un paquete es retrasado, el origen no recibe confirmación y retransmite el paquete, lo que empeora el retardo y la congestión.

Productividad frente a carga La productividad se define como el número de bits que pasan a través de un punto en un segundo. Se puede extender esa definición de bits a paquetes y de punto a red. Así se puede definir la productividad en una red como el número de paquetes que pasan a través de una red en una unidad de tiempo. Observe que cuando la carga está por debajo de la capacidad de la red, la productividad se incrementa proporcionalmente con la carga. Se espera que la productividad permanezca constante una vez que la carga alcanza la capacidad, pero en su lugar la productividad se reduce repentinamente. La razón se debe a los paquetes descartados por los routers. Cuando la carga excede a la capacidad, las colas se llenan y los routers descartan algunos paquetes. El hecho de descartar paquetes, sin embargo no reduce el número de paquetes en la red debido a que las fuentes retransmiten los paquetes, utilizando mecanismos de temporización, cuando los paquetes no alcanzan los destinos.

Page 54: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Lección 3: CONTROL DE CONGESTIÓN El control de congestión se refiere a las técnicas y mecanismos que o previenen la congestión, antes de que ocurra, o eliminan la congestión una vez que ha ocurrido. En general, se pueden dividir los mecanismos de control de congestión en dos amplias categorías: Control de congestión de bucle abierto (prevención) y control de congestión de bucle cerrado (eliminación).

CONTROL DE CONGESTIÓN DE BUCLE ABIERTO En el control de congestión de bucle abierto, las políticas se aplican para prevenir la congestión antes de que ocurra. En estos mecanismos, el control de congestión es manejado por el origen o por el destino. A continuación se muestra una breve lista delas políticas que pueden prevenir la congestión. Política de retransmisión La retransmisión en algunas ocasiones es inevitable. Si el emisor cree que un paquete enviado se ha perdido o se ha dañado, el paquete necesita ser retransmitido. La retransmisión en general, puede incrementar la congestión en la red. Sin embargo, una buena política de retransmisión puede prevenir la congestión. La política de retransmisión y los temporizadores de retransmisión se deben diseñar para optimizar la eficiencia y al mismo tiempo prevenir la congestión. Por ejemplo, la política de retransmisión utilizada por TCP (explicada más tarde) se ha diseñado para prevenir o aliviar la congestión. Política de la ventana El tipo de ventana en el emisor puede también afectar a la congestión. La ventana de repetición selectiva es mejor que la ventana. Adelante – atrás – N para el control de la congestión. En la ventana Adelante – atrás – N, cuando vence el temporizador para un paquete, se pueden reenviar varios paquetes, aunque algunos de ellos ya hayan llegado al receptor. Esta duplicación puede empeorar la congestión. La ventana de repetición selectiva, por otro lado, intenta evitar los paquetes concretos que se han perdido o dañado. Política de confirmación La política de confirmación impuesta por el receptor puede también afectar a la congestión. Si el receptor no confirma cada paquete que recibe, puede ralentizar al emisor y ayudar a prevenir la congestión. Se han utilizado varios enfoques en este caso. Un receptor puede enviar una confirmación sólo si tiene un paquete para enviar o vence un temporizador especial. Un receptor puede decidir confirmar sólo N paquetes cada vez. Se necesita conocer que las confirmaciones son también parte de la carga de la red. Enviar menos confirmaciones reduce la carga en la red. Política de descarte Una buena política de descarte en los routers pueden prevenir la congestión y al mismo tiempo puede no dañar la integridad dela transmisión. Por ejemplo, en la transmisión de audio, si la política es descartar los paquetes menos sensibles cuando es probable que

Page 55: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

ocurra la congestión, la calidad del sonido aún se mantiene y la congestión se previene o alivia. Política de admisión Una política de admisión, que es un mecanismo de calidad de servicio, puede también prevenir la congestión en redes de circuitos virtuales. Los conmutadores en un flujo pueden comprobar primero los requisitos de recursos del flujo antes de admitirlo en la red. Un router puede denegar el establecimiento de la conexión de un circuito virtual si hay congestión en la red o si existe la posibilidad de congestión en un futuro. CONTROL DE CONGESTIÓN DE BUCLE CERRADO El mecanismo de control de congestión de bucle cerrado intenta aliviar la congestión una vez que ésta ha ocurrido. Se han utilizado varios mecanismos en diferentes protocolos. A continuación se describen algunos de ellos. Presión hacia atrás La técnica de presión hacia atrás se refiere a un mecanismo de control de congestión en el que un nodo congestionado detiene la recepción de datos de un nodo o de los nodos inmediatos en el flujo ascendente. Esto puede causar que el nodo o nodos situados en el flujo ascendente se congestionen y a su vez, rechacen datos de su nodo o nodos situados en el flujo ascendente, y así sucesivamente. La presión hacia atrás es un mecanismo de control de congestión nodo a nodo que comienza con un nodo y se propaga en el sentido opuesto del flujo de datos, hacia el origen. La técnica de la presión hacia atrás se puede aplicar sólo a redes basadas en circuitos virtuales, en las que cada nodo conoce al nodo situado en el flujo ascendente por el que llega el flujo de datos. La figura muestra la idea de la presión hacia atrás. El nodo III de la figura tiene más datos de entrada de los que puede manejar. Descarta algunos paquetes de su búfer de entrada e informa al nodo II para que ralentice el envío. El nodo II, a su vez, puede estar congestionado debido a la ralentización en la salida de flujo de datos. Si el nodo II se congestiona, informa al nodo I para que ralentice el envío, el cual a su vez puede congestionarse. Si es así, el nodo I informa al emisor de los datos para que ralentice el envío. Esto alivia la congestión. Observe que la presión en el nodo III se mueve hacia atrás, hasta el origen para eliminar la congestión. Ninguna de las redes basadas en circuitos virtuales que se han estudiado en este libro utiliza esta técnica. Fue, sin embargo, implementada en la primera red basada en circuitos virtuales, X25. Esta técnica no se puede implementar en una red basada en datagrama, debido a que este tipo de redes, un nodo (router) no tiene conocimiento del router situado en el flujo ascendente.

Paquete de contención

Page 56: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Un paquete de contención es un paquete enviado por un nodo al origen para informarle de la congestión. Observe la diferencia entre esta técnica y la anterior. En la presión hacia atrás, la técnica se aplica de nodo a nodo, aunque eventualmente puede alcanzar a la estación origen. En este método, la advertencia se realiza directamente desde el router, que se encuentra congestionado, a la estación origen. Se ha visto un ejemplo de este tipo de control en el protocolo ICMP. Cuando un router en Internet se congestiona con diagramas IP, puede descartar algunos; pero informa al origen, utilizando un mensaje ICMP de tipo source quench. El mensaje de advertencia va directamente ala estación origen; los routers intermedios no realizan ninguna acción. La figura muestra la idea del paquete de contención.

Señalización implícita En la señalización implícita, no hay comunicación entre el nodo o nodos congestionados y el origen. El origen adivina que hay congestión en algún punto de la red a través de otros síntomas. Por ejemplo, cuando un origen envía paquetes y no hay confirmación durante un cierto tiempo, puede asumir que la red está congestionada. El retardo en la recepción de los mensajes de confirmación se puede interpretar como congestión en la red; el origen podría ralentizarse. Se verá este tipo de señalización cuando se describa el control de congestión de TCP más tarde en el capítulo. Señalización explícita El nodo que experimenta la congestión puede explícitamente enviar una señal al origen o al destino. El método de señalización explícita, sin embargo, es diferente del método que utiliza el paquete de contención. En el método del paquete de contención, se utiliza un paquete diferente para este objetivo. En el método de señalización explícita, la señal se incluye en los paquetes que transportan datos. La señalización explícita, como se verá en el control de congestión de Frame Relay, puede ocurrir hacia delante o hacia atrás. Señalización hacia atrás Se puede activar un bit en un paquete que se mueve en el sentido contrario a la congestión. Este bit puede advertir al emisor que hay congestión y que necesita ralentizar su envío para evitar el descarte de paquetes. Señalización hacia delante Se puede activar un bit en un paquete que va en la dirección dela congestión. Este bit puede advertir al destino de que hay congestión. El receptor en este caso puede utilizar políticas, como ralentizar las confirmaciones, para aliviar la congestión. Lección 4: CONTROL DE CONGESTIÓN EN TCP

Page 57: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Ahora veremos el control de congestión que utiliza TCP para evitar o aliviar la congestión de la red. Ventana de congestión Anteriormente se habló sobre el control de flujo y se intentaron describir soluciones a emplear cuando el receptor se sobrecarga con datos. Se dijo que el tamaño de la ventana del emisor viene determinada por el espacio disponible en el búfer del receptor (rwnd). En otras palabras, se asume que sólo el receptor puede dictar al emisor el tamaño de la ventana del emisor. Se ignoró a otra entidad – la red. Si la red no puede entregar los datos tan rápidamente como son originados por el emisor, debe decir al emisor que se ralentice. En otras palabras, además del receptor, la red es una segunda entidad que determina el tamaño de la ventana del emisor. Hoy en día, el tamaño de la ventana del emisor viene determinada sólo por el receptor pero también por la congestión de la red. El emisor tiene dos elementos de información: el tamaño de la ventana anunciado por el receptor y el tamaño de la ventana de congestión (cwnd). El tamaño real de la ventana es el mínimo de estos dos valores: Tamaño real de la ventana = mínimo (rwnd, cwnd) Se va a mostrar brevemente como se determina el tamaño de la ventana de congestión. Política de congestión La política general de TCP para tratar la congestión se basa en tres fases: comenzar lento, evitación de la congestión y detección de la congestión. En la fase de comienzo lento, el emisor comienza con una tasa de transmisión muy baja, pero la incrementa rápidamente hasta alcanzar un umbral. Cuando se alcanza el umbral, la tasa de datos se reduce para evitar la congestión. Finalmente si se detecta congestión, el emisor vuelve a tras a la fase de comienzo lento o a la fase de evitación de la congestión dependiendo de cómo se detecte la congestión. Comienzo lento: incremento exponencial Uno delos algoritmos utilizados por TCP en el control de congestión es el denominado comienzo = 2comienza con un tamaño de segmento máximo (MSS). El tamaño MSS se determina en la fase de establecimiento de la conexión utilizando una opción del mismo nombre. El tamaño de la ventana se incrementa en un MSS cada vez que se recibe una confirmación. Como su nombre implica, la ventana comienza lentamente, pero crece exponencialmente. Para mostrar la idea, observe la Figura 8. Observe que se han utilizado tres simplificaciones para que el ejemplo sea más sencillo. Se han utilizado números de segmentos en lugar de números de bytes. Se ha asumido que el valor rwnd es mucho más grande que el valor de cwnd, de forma que el tamaño de la ventana del emisor siempre iguale a cwnd. Se ha asumido que cada segmento se confirma de forma individual.

El emisor comienza con un valor para cwnd = 1 MSS. Esto significa que el emisor puede enviar sólo un segmento. Después de recibir la confirmación para el segmento 1, el tamaño de la ventana de congestión se incrementa en 1, lo que significa que el valor de

Page 58: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

cwnd ahora es 2. Ahora se pueden enviar dos segmentos. Cuando se recibe la confirmación, el tamaño de la ventana se incrementa en 1 MSS. Cuando se han confirmado todos los segmentos el valor de cwnd es 8. Si se ve el tamaño de cwnd en términos de rondas (confirmación de todos los segmentos de una ventana), se encuentra que la tasa es exponencial como se indica a continuación:

Comienzo cwnd = 1Después de la ronda 1 cwnd = 21

= 2

Después de la ronda 2 cwnd = 22 = 4

Después de la ronda 3 cwnd = 23 = 8

Es necesario mencionar que si hay un ACK retrasado, el incremento en el tamaño de la ventana es menor que la potencia de 2. El comienzo lento no puede continuar indefinidamente. Debe haber un umbral para parar esta fase. El emisor mantiene la pista de una variable denominada sstresh (umbral de comienzo lento). Cuando el tamaño de la ventana en bytes alcanza este umbral, el comienzo lento para y se pasa a la siguiente fase. En la mayoría de las implementaciones, el valor de sstresh es 65.536 bytes. En el algoritmo de comienzo lento, el tamaño de la ventana de congestión se incrementa exponencialmente hasta que alcanza un umbral. Evitación de la congestión: incremento aditivo Si se comienza con el algoritmo de comienzo lento, el tamaño de la ventana de congestión se incrementa exponencialmente. Para evitar la congestión antes de que ocurra, uno debe parar este crecimiento exponencial. TCP define otro algoritmo denominado evitación de la congestión, que lleva a cabo un incremento aditivo en lugar de uno exponencial. Cuando el tamaño de la ventana de congestión alcanza el umbral del comienzo lento, se para la fase de comienzo lento y se pasa a la fase aditiva. En este algoritmo, cada vez que la ventana completa es confirmada (una ronda), se incrementa el tamaño de la ventana en 1. Para mostrar la idea, se va a aplicar este algoritmo al mismo escenario anterior, aunque como se verá el algoritmo de evitación de la congestión normalmente comienza con un tamaño de la ventana mucho mayor que 1. La figura 9 muestra la idea.

En ese caso, una vez que el emisor ha recibido las confirmaciones para un tamaño de ventana completo, el tamaño de la ventana se incrementa en 1 segmento. Si se observa el tamaño de cwnd en términos de rondas, se ve que la tasa es aditiva como se muestra a continuación:

Page 59: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Comienzo cwnd = 1Después de la ronda 1 cwnd = 1 + 1 = 2

Después de la ronda 2 cwnd = 2 + 1 = 3

Después de la ronda 3 cwnd = 3 + 1 = 4

En el algoritmo de evitación de la congestión, el tamaño de la ventana de congestión se incrementa aditivamente hasta que se detecta la congestión. Detección de la congestión: reducción multiplicativa Si ocurre congestión, el tamaño de la ventana de congestión debe reducirse. La única forma que tiene el emisor para adivinar que ha ocurrido congestión es la necesidad de retransmitir un segmento. Sin embargo, la retransmisión puede ocurrir en dos casos: cuando vence un temporizador o cuando se han recibido tres mensajes ACK. En ambos casos, el tamaño del umbral se reduce a la mitad, una reducción multiplicativa. La mayor parte de las implementaciones de TCP tiene dos reacciones: 1. Si vence un temporizador, hay una alta probabilidad de congestión; un segmento probablemente ha sido descartado en la red y no hay noticias sobre los segmentos enviados. En este caso, TCP reacciona de una forma agresiva: a. Fija el valor del umbral a la mitad del tamaño actual. b. Fija el valor de cwnd al tamaño del segmento. c. Comienza de nuevo con la fase de comienzo lento. 1. Si se han recibido tres ACK hay una probabilidad baja de que haya una congestión;

se puede haber perdido un segmento, pero algunos segmentos ya han llegado puesto que se han recibido tres ACK. Esto se conoce como transmisión rápida y recuperación rápida. En este caso, TCP tiene una reacción menos agresiva:

a. Fija el valor del umbral a la mitad del tamaño de la ventana actual. b. Fija el valor de cwnd al valor del umbral (algunas implementaciones suman tres segmentos al umbral). c. Comienza con la fase de evitación de la congestión. Una implementación reacciona a la detección de la congestión con uno de los siguientes modos:

Si la detección se debe al vencimiento de un temporizador, comienza de nuevo la fase de comienzo lento.

Si la detección se debe a tres ACK, comienza una nueva fase de evitación de la congestión.

Lección 5: CONTROL DE CONGESTIÓN EN FRAME RELAY La congestión en una red Frame Relay reduce la productividad e incrementa el retardo. Una alta productividad y un bajo retardo son los principales objetivos del protocolo

Page 60: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Frame Relay. Frame Relay no tiene control de flujo. Además, Frame Relay permite al usuario transmitir datos a ráfagas. Esto significa que una red Frame Relay tiene una posibilidad real de congestionarse, por lo que requiere control de congestión. Evitación de la congestión Para evitar la congestión, Frame Relay utiliza dos bits de la trama para avisar de forma explícita al origen y al destino de la presencia de congestión. Notificación de congestión explícita hacia atrás (BECN) El bit de notificación de congestión explícita hacia atrás (BECN) avisa al emisor de que existe una situación de congestión en la red. La pregunta inmediata es cómo se puede hacer esto si las tramas parten del emisor. Existen dos métodos: el conmutador puede utilizar las tramas de respuesta del receptor (modo full-dúplex) o sino, el conmutador puede utilizar una conexión predefinida (DLCI=1023) para enviar tramas especiales para este propósito específico. El emisor puede responder a este aviso simplemente reduciendo la velocidad de transmisión. La figura muestra el empleo del BECN.

Notificación de congestión explícita hacia adelante (FECN) El bit de notificación de congestión explícita hacia adelante (FECN) se utiliza para avisar al receptor de que existe congestión en la red. Podría parecer que el receptor no puede hacer nada para aliviar la congestión. Sin embargo, el protocolo Frame Relay asume que el emisor y el receptor se están comunicando utilizando algún tipo de control de flujo en un nivel superior. Por ejemplo, si existe un mecanismo de confirmación en este nivel superior, el receptor puede retrasar la confirmación, forzando de esta forma al emisor a ralentizarse. La figura muestra el uso de FECN. Cuando dos puntos finales están comunicándose utilizando una red Frame Relay, existen cuatro situaciones relacionadas con la congestión. La figura muestra estas cuatro situaciones y los valores de FECN y BECN.

Page 61: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Page 62: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

CAPITULO 5: CALIDAD DE SERVICIO Introducción La calidad de servicio (QoS) es un aspecto de l as redes que s e ha tratado más que definido. Se puede definir informalmente la calidad de servicio como algo que un flujo busca alcanzar. Tradicionalmente, se han atribuido cuatro características a un flujo: fiabilidad, retardo, deriva o Jitter y ancho de banda.

Fiabilidad La fiabilidad es una característica que necesita un flujo. La falta de fiabilidad significa PERDER UN paquete o una confirmación, lo que provoca la retransmisión. Sin embargo, la sensibilidad de los programas de aplicación a la fiabilidad no es la misma. Por ejemplo, es más importante que el correo electrónico, la transferencia de archivos y el acceso a Internet sean más fiables que la telefonía. Retardo El retardo de fuente a destino es otra característica de un flujo. De nuevo las aplicaciones pueden tolerar el retardo en diferente grado. En este caso, la telefonía, la videoconferencia y el inicio de sesión remoto necesitan un mínimo retardo, mientras que en la transferencia de un archivo o el correo electrónico es menos importante. Deriva o jitter La deriva en la variación de retardo que sufren los paquetes que pertenecer a un mismo flujo. Por ejemplo, si cuatro paquetes salen en los instantes 0, 1,2 y 3 y llegan en los instantes 20, 21, 22 y 23, todos tienen el mismo retardo, 20 unidades de tiempo. Por otro lado, si los paquetes anteriores llegan en los instantes 21, 23, 21 y 28, todos tienen retardos diferentes de 21, 22, 19 y 24. Para aplicaciones como el audio o el sonido, el primer caso es completamente aceptable; el segundo no. Para estas aplicaciones, no importa si los paquetes llegan con un retardo pequeño o grande, siempre que el retado sea el mismo para todos los paquetes. La deriva se define como la variación en el retardo de un paquete. Una deriva alta significa que la diferencia entre los retardos de grandes; una deriva baja significa que la variación es pequeña. Ancho de banda Diferentes aplicaciones necesitan diferentes anchos de banda. En la transmisión de vídeo se necesita enviar millones de bits por segundo para representar una pantalla de color mientras que el número total de bits en un correo electrónico pueden no llegar al millón. Clase de flujos

Page 63: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

De acuerdo a las características de un flujo, se pueden clasificar los flujos en grupos, teniendo cada grupo niveles de características similares. Esta clasificación no es formal o universal, algunos protocolos como ATM han definido clases, como se verá más tarde. Lección 1: TÉCNICAS PARA MEJORAR LA CALIDAD DE SERVICIO En esta sección, se describe algunas técnicas que se pueden utilizar para mejorar la calidad de servicio. Se van para describir brevemente cuatro métodos comunes: la planificación, el ajuste de tráfico, el control de admisión y la reserva de recursos. PLANIFICACIÓN Los paquetes de diferentes flujos llegan a un conmutador o router para su procesamiento. Una buena técnica de planificación trata los flujos diferentes de manera apropiada. Se han enseñado varias técnicas de planificación para mejorar la calidad de servicio. Se van a describir tres de ellas: la planificación FIFO, la planificación basada en prioridades y la planificación con pesos. Planificación FIFO En la planificación FIFO (first-in-first-out), los paquete esperan en un búfer (cola) hasta que el (router o conmutador) está listo para procesarlos. Si la tasa de llegada es mayor que la tasa de procesamiento media, la cola se llenaran y los nuevos paquetes serán descartados. Una planificación FIFO es familiar para aquellos que tienen que esperar en una parada de autobús. La figura siguiente muestra una visión conceptual de la planificación FIFO.

Planificación basada en prioridades En la planificación basada en prioridades, los paquetes tienen asignada un nivel de prioridad. Cada nivel de prioridad tiene su propia cola. Los paquetes de la cola de mayor prioridad se procesan primero. Los paquetes de la cola de menor prioridad se procesan los últimos. Observe que el sistema no para de servir una cola, hasta que esta no esté vacía. La figura siguiente muestra una planificación que utiliza dos niveles de prioridad (por simplicidad. Una planificación basada en prioridades puede mejorar los QoS mejor que la planificación FIFO debido a que el tráfico con mayor prioridad, como el multimedia puede alcanzar el destino con menos retardo. Sin embargo, hay un posible problema. Si hay un flujo continuo, con una prioridad muy alta, los paquetes con prioridades más bajas nunca tendrán la oportunidad de ser procesados. Esta es una condición denominada inanición.

Page 64: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Planificación con pesos Una técnica mejor de planificación es la planificación con pesos. En esta técnica, los paquetes tienen asignadas clases diferentes y se admiten en colas distintas. Las colas, sin embargo, llevan asignadas unos pesos de acuerdo al nivel de prioridad de las colas. Las colas de mayor prioridad tienen pesos mayores. El sistema procesa los paquetes en cada cola de manera cíclica con el número de paquetes seleccionado para cada cola de acuerdo al peso correspondiente. Por ejemplo, si los pesos son 3, 2, 1, se procesarán tres paquetes en la primera cola, dos en la segunda y uno en la tercera. Si el sistema no impone prioridades a las clases, todos los presos todos los pesos son iguales. La figura siguiente muestra la técnica con tres clases.

AJUSTE DE TRÁFICO El ajuste de tráfico es un mecanismo para controlar la cantidad y tasa de tráfico enviado a la red. Existen dos técnicas de ajuste de tráfico: algoritmo del cubo de escape y algoritmo del cubo con testigo. Algoritmo del cubo con escape Si un cubo tiene un pequeño agujero su parte inferior, el agua deja el cubo a una velocidad constante mientras haya agua en el cubo. La velocidad con la que el agua deja el cubo no depende de la velocidad con la que el agua se introduce en él. La

Page 65: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

velocidad de entrada puede variar, pero la velocidad de salida permanece constante. De forma similar, en una red, una técnica denominada cubo con escape, puede suavizar la salida de tráfico a ráfagas. Los bloques a ráfagas se almacenan en un cubo y se envían a una tasa media. La figura siguiente muestra un cubo con escape y sus efectos.

La figura, se asume que la red ha comprometido un ancho de banda de 3 Mbps para una estación. El uso de un cubo con escape ajusta el tráfico de entrada para que se cumpla este compromiso. En la figura siguiente la estación envía una ráfaga de datos a una tasa de 12 Mbps durante 2 s, con un total de 24 Mbits. La estación está en silencio durante 5 s y envía datos a una taza de 2 Mbps durante 3 s, con un total de 6 Mbits de datos. En total, la estación enviado 30 Mbps de datos en 10 s. Sin un cubo con escape, la ráfaga inicial puede afectar a la red y consumir más ancho de banda del que está fijado para esta estación. Se puede también ver que el cubo con escape previene la congestión. La figura siguiente muestra una sencilla implementación de un cubo con escape. Una cola FIFO almacena los paquetes. Si el tráfico consta de paquetes de tamaño fijo (por ejemplo celdas de una red ATM), el proceso elimina un número fijo de paquetes de la cola en cada pulso de reloj. Si el tráfico consta de paquetes de longitud variable, la tasa de salida fija debe basarse en el número de bits o bytes.

Page 66: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

A continuación se muestra un algoritmo para paquetes de longitud variable: 1. Inicializar un contador a n en cada pulso de reloj. 2. Si n es mayor que el tamaño del paquete, enviar el paquete y restar al contador el tamaño del paquete. Repetir esta etapa hasta que n sea más pequeño que el tamaño del paquete. 3. Poner el contador a cero y volver al paso 1. Un algoritmo de cubo con escape ajusta el tráfico de ráfagas en un tráfico con tasa fija promediando la tasa de datos. Puede perder paquetes si el cubo está lleno. Cubo de testigos El cubo con escape es muy restrictivo. No da crédito a una estación inactiva. Por ejemplo, si una estación no envía datos durante un cierto tiempo, su cubo está vacío. Ahora sí la estación tiene datos a ráfagas, el cubo con escape sólo permite una tasa media. El tiempo en el que la estación está inactiva no se tiene en cuenta. Por otro lado, cubo de testigos, permite a la estación inactivas acumular crédito para que el futuro en forma de testigos. En cada pulso de reloj, el sistema envía n testigos al cubo. El sistema elimina un testigo para cada celda (o byte) de datos enviados. Por ejemplo, si n es 100 y la estación está inactiva durante 100 pulsos de reloj, el cubo tendrá 10.000 testigos. Ahora la estación puede consumir todos estos testigos en un pulso de reloj con 10.000 celdas o la estación tarda 1000 pulsos con 10 celdas por pulsos. En otras palabras, la estación puede enviar datos a ráfagas siempre que el cubo no esté vacío. En la figura siguiente se muestra la idea. El cubo de testigos se puede implementar de forma sencilla con un contador. El testigo se inicializa a cero. Cada vez que se añade un testigo se incremente el contador en uno. Cada vez que se envía una unidad de datos, al contador se le resta 1. Cuando el contador se hace cero, la estación no puede enviar datos.

Page 67: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

El cubo de testigos permite tráfico a ráfagas a una tasa máxima regulada Combinación del cubo de testigos y del cubo con escape Las dos técnicas anteriores se pueden combinar para dar crédito a una estación inactiva al mismo tiempo que se regula el tráfico. El cubo con escape se aplica después de cubo de testigos; la tasa del cubo con escape necesita ser mayor que la tasa de testigos descartados en el cubo de testigos. RESERVA DE RECURSOS Un flujo de datos necesita recursos como un búfer, ancho de banda, tiempo de CPU, etc. La calidad del servicio se mejora si estos recursos están reservados por adelantado. En esta sección se describe un modelo de calidad de servicio denominado servicios integrados, que depende de la reserva de recursos para mejorar la calidad del servicio. CONTROL DE ADMISIÓN El control de admisión se refiere al mecanismo utilizado por un router, o un conmutador para aceptar o rechazar un flujo de acuerdo a los parámetros predefinidos denominados especificaciones del flujo. Antes de que un router acepte un flujo para su procesamiento, comprueba las especificaciones del flujo para ver si su capacidad (en términos de ancho de banda, tamaño de búfer, velocidad de la CPU, etc.) y sus compromisos anteriores para otro flujos pueden tratar el nuevo flujo. Lección 2: SERVICIOS INTEGRADOS De acuerdo a los temas tratados se han diseñado dos modelos para mejorar la calidad de servicio de Internet: los servicios integrados y los servicios diferenciados. Ambos modelos enfatizan el uso de la calidad de servicio en el nivel de red (IP), aunque el

Page 68: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

modelo también se puede utilizar en otros niveles de enlace de datos. En esta sección se tratan los servicios integrados y en la sección siguiente se describen los servicios diferenciados. IP fue originalmente diseñado con una entrega lo mejor posible. Esto significa que cada usuario recibe al mismo nivel de servicio. Este tipo de entrega no garantiza el mínimo de servicios, como ancho de banda, a las aplicaciones que transmite audio o vídeo en tiempo real. Si una aplicación que necesita de forma accidental un ancho de banda extra, puede ir en detrimento de otras aplicaciones, dando lugar a situaciones de congestión. Los servicios integrados, conocidas también como IntServ, constituyen un modelo de QoS basada en flujo, lo que significa que un usuario necesita crear un flujo, un tipo de circuito virtual, desde el origen hasta el destino e informar a todos los routers de sus requisitos de recursos. Los servicios integrados constituyen un modelo de QoS basada en flujo diseñado para IP. SEÑALIZACIÓN El lector puede recordar que IP es un protocolo no orientado a conexión, basado en datagramas que utiliza conmutación de paquetes. ¿Cómo se puede implementar un modelo basado en flujo sobre un protocolo no orientado a conexión? La solución es un protocolo de señalización que ejecuta sobre IP que at ofrece el mecanismo de señalización por hacer la reserva. Este protocolo se denomina Protocolo de reservas de recursos (RVSP) y se describirá en breve. ESPECIFICACIÓN DEL FLUJO Cuando un origen hace una reserva, necesita definir una especificación de flujo. Una especificación de flujo tiene dos partes: Rspec (especificación del recurso) y Tspec (especificación de tráfico). Rspec define los recursos que necesita reservar el flujo (búfer, ancho de banda, etc.) Tspec define las características del tráfico del flujo. ADMISIÓN Cuando un router recibe la especificación del flujo de una aplicación, decide admitir o denegar el servicio. La decisión se basa en los compromisos previos del router y la disponibilidad actual de recursos. CLASES DE SERVICIOS Se han definido dos clases de servicios para los servicios integrados: servicios garantizados y servicios controlados por la carga. Clase de servicios garantizados Este tipo de servicio está diseñado para tráfico de tiempo real que necesita un retardo extremo a extremo mínimo garantizado. El retardo extremo a extremo es la suma de los

Page 69: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

retardos de todos los routers, retardo de propagación en el medio y el mecanismo de configuración. Sólo el primero, las sumas de los retardos en los routers, puede ser garantizado por el router. Este tipo de servicio garantiza que los paquetes llegarán dentro de un cierto tiempo y que no serán descartados si el tráfico del flujo se encuentra dentro del límite de Tspec. Se puede decir que los servicios garantizados son servicios cuantitativos, en los que la cantidad de retardo extremo a extremo y la tasa de datos deben ser definidas por la aplicación. Clase de servicio controlado por la carga Este tipo de servicio está diseñado para aplicaciones que pueden aceptar algunos retardos, pero que son sensibles a la sobrecarga de la red y al peligro por la pérdida de paquetes. Buenos ejemplos de este tipo de aplicaciones son la transferencia de archivos, el correo electrónico y el acceso a Internet. El servicio controlado por la carga es un servicio lo cualitativo en que la aplicación solicitar la posibilidad de bajar pérdida o no pérdida de paquetes. RVSP En el modelo de servicios integrados, un programa de aplicación necesita una reserva de recursos. Como se vio en la descripción del modelo IntServ, la reserva de recursos se realizada para un flujo. Esto significa que si se quiere utilizar el modelo IntServ en el nivel IP, se necesita crear un flujo, un tipo de red basada en circuitos virtuales, fuera del nivel IP, que fue originalmente diseñado como una red de conmutación de paquetes basada en datagramas. Una red basada en circuitos virtuales necesita un sistema de señalización para configurar el circuito virtual antes de que el tráfico de datos pueda comenzar. El protocolo de reserva de recursos (RSVP) es un protocolo de señalización que ayudar protocolo IP a crear un flujo y consecuentemente a hacer una reserva de recursos. Antes de describir el protocolo RVSP, es necesario mencionar que es un protocolo independiente y separado del modelo de servicios integrados. Se puede utilizar en otros modelos en el futuro. Árboles de multienvío RVSP es diferente de otros sistemas de señalización que se han visto antes en que es un sistema de señalización diseñado para multienvío. Sin embargo, el protocolo RVSP también se puede utilizar para envío unidestino debido a que éste es un caso especial de multienvío con sólo un miembro en el grupo de multienvío. La razón de este diseño permitir al protocolo RVSP ofrecer una reserva de recursos para todo tipo de tráfico de incluyendo multimedia que con frecuencia utiliza multienvío. Reserva basada en el receptor En el protocolo RVSP, los receptores, no el emisor, hacen la reserva. Esta estrategia coincide con otros protocolos de multienvío. Por ejemplo, en uno de los protocolos de encaminamiento de multienvío, los receptores, no el emisor, hacen la decisión de unirse o dejar el grupo de multienvío. Mensajes del protocolo RVSP RVSP tiene varios días tipos de mensajes. Sin embargo, se va a escribir sólo dos de ellos: Path y Resv.

Page 70: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Mensajes path. Recuerde que los receptores en un flujo hacen la reserva en el protocolo RVSP. Sin embargo, los receptores no saben el camino atravesado por los paquetes antes de que se haga la reserva. Es necesario el camino para hacer la reserva. Para solucionar este problema, el protocolo RVSP utiliza mensajes path. Un mensaje path viaja desde el emisor y alcanza a todos los receptores en el camino multienvío. Un mensaje path, almacena la información necesaria para los receptores. Un mensaje path se envía en un entorno de envío multidestino; un nuevo mensaje se crea cuando el camino diverge. La figura siguiente muestra mensajes de tipo path.

Mensajes resv. Una vez que el receptor ha recibido un mensaje path, envía un mensaje resv. El mensaje Resv viaja hacia el emisor (en el flujo ascendente) y hace la reserva de recursos en los routers que soportan RVSP. Si un router en el camino no soporta RVSP encamina el paquete de acuerdo a los métodos de mejor entrega posible. La figura siguiente muestra los mensajes resv.

Mezcla de reservas En el protocolo RVSP, los recursos no se reservan para cada receptor en un flujo; las reservas se mezclan. En la figura siguiente, Rc3 solicita un ancho de banda de 2 Mbps mientras que Rc2 solicita un ancho de banda de 1 Mbps. El router R3, necesita hacer una reserva de ancho de banda, mezcla las dos solicitudes. La reserva se hace para 2 Mbps, mayor de los dos, debido a que una reserva de 2 Mbps puede tratar ambas solicitudes. La misma situación es cierta para R2. El lector puede preguntarse por qué Rc2 y Rc3, ambos pertenecientes a un mismo flujo, los visitan diferentes cantidades de ancho de banda. La respuesta de que, en un entorno multimedia, diferentes receptores pueden tratar diferentes grados de calidad. Por ejemplo, Rc2 puede ser capaz de recibir vídeo sólo a 1 Mbps (baja calidad) mientras que Rc3 puede ser capaz de recibir vídeo a 2 Mbps (mayor calidad).

Page 71: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Estilos de reserva Cuando hay más de un flujo, el router necesita hacer la reserva para acomodar todos ellos. El protocolo RVSP define tres tipos de estilos de reserva. 1. Estilo de filtro will card. En este estilo, el router crea una única reserva para todos los emisores. La reserva se basa en la petición mayor. Este tipo de estilo que se utiliza cuando los flujos de diferentes emisores no ocurren al mismo tiempo. 2. Estilo de filtro fijo. En este estilo, el router crea una reserva distinta para cada flujo. Esto significa que si hay n flujos, se hace n diferentes reservas. Este tipo de estilo se utiliza cuando hay una alta probabilidad de que los flujos de diferentes emisores no ocurran al mismo tiempo. 3. Estilo explícito compartido. En este estilo, el router crea una única reserva que es compartida por todos los flujos. Estado de tipo soft La información de reserva (estado) almacenada en cada nodo para un flujo necesita ser refrescada periódicamente. Esto se conoce como un estado de tipo soft comparado con un estado de tipo hard utilizado en otros protocolos basados en circuitos virtuales como ATM o Frame Relay, donde la información sobre el flujo se mantiene hasta que se borra. El intervalo por defecto es actualmente de 30 s. PROBLEMAS CON LOS SERVICIOS INTEGRADOS Hay al menos dos problemas con los servicios Integrados que pueden evitar su completa implementación en Internet: la escalabilidad y la limitación del tipo de servicio. Escalabilidad El modelo de servicios integrados requiere que cada router mantenga información para cada flujo. Como Internet está creciendo día a día, esto es un serio problema. Limitación del tipo de servicio El modelo de servicios integrados proporciona sólo dos tipos de servicios, garantizado y controlado por la carga. Aquellos que se oponen a este modelo argumentan que las aplicaciones pueden necesitar más de estos dos tipos de servicios.

Page 72: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Lección 3: SERVICIOS DIFERENCIADOS Los servicios diferenciados (DS o DiffServ) fueron introducidos por el IETF (Internet Engering Task Force) para solucionar los problemas de los servicios integrados. Se hicieron dos cambios fundamentales: 1. El principal procesamiento fue movido del núcleo de la red al extremo de la red. Esto soluciona el problema de escalabilidad. Los encaminadores no tienen que almacenar la información sobre los flujos. Las aplicaciones, o estaciones, definen el tipo de servicio que ellos necesitan cada vez que envía un paquete. 2. El servicio por flujo se ha cambiado a un servicio por clase. El encaminador encamina el paquete de acuerdo a la clase de servicio definido en el paquete, no en el flujo. Esto soluciona el problema de limitación del tipo de servicio. Se pueden definir diferentes tipos de clases de acuerdo a las necesidades de las aplicaciones. Los servicios diferenciados un modelo QoS basada en clases diseñada para IP. CAMPO DS En DifServ, cada paquete contiene un campo denominado campo DS. El valor de este campo es fijado en los extremos de la red por las estaciones o por el primer encaminador designado como encaminador frontera. El IETF propone sustituir el campo TOS (tipo de servicio) existente en IPv4 o el campo de clase IPv6 por el campo DS, como se muestra en la figura siguiente.

El campo DS contiene dos subcampos: DSCP y CU. El campo de DSCP (punto de código de servicios diferenciados) es un subcampo de 6 bits que define el funcionamiento por salto (PHB). El campo CU en un campo de 2 bits que no se utiliza actualmente. Funcionamiento por salto El modelo DifServ define funcionamientos por salto (PHB) para cada nodo que recibe un paquete. Hasta ahora se han definido tres PDH: DE PHB, EF PHB y AF PHB. DE PHB. Este funcionamiento (PHB por defecto) es el mismo que la entrega mejor posible, que es compatible con el campo TOS. EF PHB. Este funcionamiento (PHB de reenvío rápido) ofrece los siguientes servicios:

Pérdida baja.

Latencia baja.

Ancho de banda asegurado. Esto es lo mismo que tener una conexión virtual entre el origen y el destino.

Page 73: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

AF PHB. Este funcionamiento (PHB de reenvío asegurado) entrega el paquete con una alta seguridad siempre que el tráfico no exceda el perfil de tráfico del nodo. Los usuarios de la red necesitan ser conscientes de que algunos paquetes pueden ser descartados. Acondicionador de tráfico Para implementar DifServ, el nodo DS utiliza acondicionadores de tráfico como contadores, marcadores, adaptadores y descartadores, como se muestra en la figura siguiente.

Contador. El contador comprueba si el flujo de entrada coincide con el perfil de tráfico negociado. El contador también envía este resultado a otros componentes. El contador puede utilizar varias herramientas como un cubo de testigos para comprobar el perfil. Marcador. Un marcador puede remarcar un paquete si está utilizando la entrega mejor posible (DSCP: 000000) o marcar por debajo un paquete de acuerdo a la información recibida por el contador. El marcado por debajo (marca a un nivel de servicio más bajo) ocurre si el flujo no coincide con el perfil. Un marcador no hace un marcado hacia arriba (eleva el nivel de servicio) de un paquete. Adaptador. Un adaptador utiliza la información recibida del contador para adaptar o ajustar el tráfico si no cumple con el perfil negociado. Descartador. Un descartador, que funciona como un adaptador sin búfer, descarta los paquetes si el flujo viola de forma severa el perfil negociado. Lección 4: QoS EN FRAME RELAY Se utilizan cuatro atributos diferentes para controlar el tráfico en Frame Relay: tasa de acceso, tamaño de la ráfaga comprometido Bc, tasa de información comprometida y tamaño de la ráfaga en exceso. Estos atributos se fijan durante la negociación entre el usuario y la red. Para conexiones PVC, se negocian sólo una vez; para conexiones SVC se negocian en cada conexión durante la fase de establecimiento de la conexión. La figura siguiente muestra las relaciones entre estas cuatro medidas.

Page 74: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Velocidad de acceso Para cada conexión se define una velocidad de acceso (en bits/segundo). La velocidad de acceso realmente depende del ancho de banda del canal que conecta al usuario con la red. El usuario no puede nunca exceder esta velocidad. Por ejemplo, si el usuario se conecta a una red Frame Relay mediante una línea T-1, la velocidad de acceso es de 1,544 Mbps y ésta no se puede sobrepasar. Tamaño de la ráfaga comprometido Para cada conexión, Frame Relay define un tamaño de ráfaga comprometido (Bc). Este es el número máximo de Bits durante un periodo predefinido de tiempo que la red se compromete a transferir sin descartar ninguna trama o activar el bit DE. Por ejemplo si se compromete un valor para Bc de 400 kbits durante un periodo de cuatro segundos, el usuario puede enviar hasta 400 kbits durante un u intervalo de cuatro segundos sin preocuparse de que se pierdan tramas. Observe que no se trata de una velocidad definida para cada segundo. Es una medida acumulativa. El usuario puede enviar 300 kbits durante el primer segundo, ningún dato durante los dos siguientes segundos y finalmente 100 kbits durante el cuarto segundo. Velocidad de información comprometida La velocidad de información comprometida (CIR) es similar al concepto de tamaño de ráfaga comprometido excepto que define una velocidad media de bits por segundo. Si el usuario mantiene esta velocidad, la red se compromete entregar la trama. Sin embargo debido a que es una medida media, un usuario puede enviar en algunos instantes datos a una velocidad mayor al CIR. Siempre que se cumpla la media para el período pre definido, las tramas serán entregadas. El número acumulativo de bits enviados durante el periodo predefinido no debería exceder de Bc Observe que el CIR no es una medida independiente; se puede calcular utilizando la siguiente fórmula:

Page 75: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

CIR =Bc/T bps Por ejemplo, si el Bc es de cinco kbits en un período de cinco segundos, el CIR es 5000/5 = 1kbps. Tamaño de la ráfaga en exceso Para cada conexión, Frame Relay define un tamaño de la ráfaga en exceso (Bc). Este valor es el número máximo de bits, que pueden exceder a Bc que un usuario puede enviar durante un periodo predefinido de tiempo. La red se compromete a transferir estos bits si no hay congestión. Observe que en este caso existe menos compromiso que en el caso de Bc. El compromiso de la red es condicional. Tasa del usuario La figura siguiente muestra cómo puede un usuario enviar datos a ráfagas. Si un usuario nunca excede Bc, la red se compromete a transferir las tramas sin descartarlas. Si el usuario excede el valor de Bc, en menos que Be (es decir, el número total de bits es menor que Bc + Be), la red se compromete a transferir todas las tramas si no hay congestión. Si existe congestión, algunas tramas serán descartadas. El primer conmutador que recibe las tramas del usuario tiene un contador y fija el bit DE para aquellas tramas que exceden el valor Bc. El resto de conmutadores descartarán esta trama si hay congestión. Observe que un usuario que necesita enviar datos más rápido puede exceder el nivel Bc. Siempre que el nivel no supere Bc + Be, existe la posibilidad de que las tramas alcancen el destino sin ser descartadas. Recuerde, sin embargo, que el momento en el que el usuario supere Bc + Be, todas las tramas enviadas después son descartadas por el primer conmutador.

Lección 5: QoS EN ATM La QoS en ATM se basa en las clases, los atributos relacionados con el usuario y los atributos relacionados con la red.

Page 76: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Clases El foro ATM define cuatro clases de servicios: CBR, VBR, ABR y UBR. CBR. La clase de tasa de bits constante (CBR) se ha diseñado para los clientes que necesitan servicios de vídeo y audio de tiempo real. El servicio es similar al ofrecido por una línea dedicada como la línea T. VBR. La clase de tasa de bits variable (VBR) se divide en dos subclases: tiempo real (VBR-NRT). VBR-RT se diseñó para los usuarios que necesitan servicio de tiempo real (como transmisión de audio y vídeo) y utilizan técnicas de compresión para crear una tasa de bits variable. VBR-NRT se diseñó para aquellos usuarios que no necesitan servicios de tiempo real de utilizan técnica de compresión para crear una tasa de bits variable. ABR. La clase de tasa de bits disponible (ABR) entrega las celdas a la mínima tasa. Si hay más capacidad de red, la tasa mínima puede incrementarse. ABR es particularmente adecuado para aplicaciones que utilizan por su naturaleza ráfagas. UBR. La clase de tasa de bits no especificada (UBR) es un servicio de mejor entrega posible que no garantiza nada. La figura 31 muestra la relación entre las diferentes clases y la capacidad total de la red. ATRIBUTOS RELACIONADOS CON EL USUARIO ATM define dos conjuntos de atributos. Los atributos relacionados con el usuario son aquellos que definen la velocidad con la que el usuario quiere enviar los datos. Estos atributos se negocian cuando se realiza el contrato entre un usuario y una red. A continuación se describen algunos atributos relacionados con el usuario. SCR. La tasa de celdas sostenida (SCR) es la tasa de celdas media en un intervalo de tiempo largo. La tasa de celdas real puede ser mayor o menor, pero la media debería ser igual o menor que la SCR. PCR. La tasa de celdas pico (PCR) define la máxima tasa de celdas del emisor. La tasa de celdas del usuario puede en algunas ocasiones alcanzar este pico, mientras que se mantenga la SCR MCR. La tasa de celdas mínima (MCR) define la tasa de celdas mínima aceptable para el emisor. Por ejemplo, si la MCR 50.000, la red debe garantizar que el emisor puede enviar al menos 50.000 celdas por segundo. CVDT. La tolerancia en el retardo a la variación de celdas (CVDT) es una medida de la variación en los instantes de transmisión de celdas. Por ejemplo, si la CVDT es de 5 ns, entonces la diferencia entre los retardos mínimos y máximos en la entrega de celdas no debería exceder los 5 ns.

Page 77: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

ATRIBUTOS RELACIONADOS CON LA RED Los atributos relacionados con la red son los que definen las características de la red. A continuación se definen algunos de estos atributos: CLR. La tasa de celdas perdidas (CLR) define la fracción de celdas perdidas (o entregadas demasiado tarde y que se consideran pérdidas) durante la transmisión. Por ejemplo, si el emisor envía 100 celdas y una se pierde, la CLR es: CLR = 1/100 = 10

-2

CTD. El retardo en la transferencia de celdas (CTD) es el tiempo medio necesario para que una celda viaje del origen al destino. También se consideran como atributos al CTD máximo y el CTD mínimo. CVD. La variación en el retardo de celdas (CVD) es la diferencia entre el CTD máximo y el CTD mínimo. CER. La tasa de celdas con error (CER) define la fracción de celdas entregadas con error.

Page 78: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

CAPITULO 6: SOPORTE PARA CALIDAD DE SERVICIO (QoS)

Introducción Internet y las intranets corporativas se enfrentan ahora a la necesidad de dar soporte para el tráfico multimedia y en tiempo real. Como respuestas a estas necesidades, están surgiendo dos cambios radicales en la arquitectura de las interredes: la Arquitectura de Servicios Integrados (ISA, Integrated Services Architecture) y los Servicios Diferenciados (DS, diffentiated Services). El uso de ISA y DS supone la actualización del hardware de los encaminadores (routers) para dar soporte al tráfico sensible a temporizaciones y para poder ofrecer funciones de QoS, e involucra a unos cuantos protocolos nuevos: IPv6: la nueva versión de IP se creó para la necesidad de ampliar el espacio de direcciones de internet, pero también ofrece características que son útiles para ISA y DS. RSVP: el protocolo de reserva de recursos (Resource ReSerVation Protocol) permite a los usuarios reservar capacidad en una interred, así como especificar los requisitos del tráfico, en términos del rendimiento deseado y de las características del retardo. RSVP es un elemento clave de ISA. RTP: el protocolo de transporte en tiempo real (Real-Time Transport Protocol) ofrece mecanismos para la entrega de video, audio y otros tipos de tráfico en tiempo real sobre una interred, de modo que se pueda reproducir de forma efectiva en el destino. Protocolo de encaminamiento para multidifusión: en muchos casos, el tráfico multimedia y en tiempo real se transmite a múltiples destinos simultáneamente (multidifusión). Se han desarrollado varios protocolos nuevos de encaminamiento dinámico para la gestión de encaminamiento para multidifusión. Usando estos nuevos protocolos, una interred basada en ISA o en DS es capaz de gestionar de forma efectiva tanto el tráfico a ráfagas tradicional como el tráfico multimedia y en tiempo real. En esencia, la diferencia entre ambos métodos es la siguiente: en ISA, una aplicación solicita un determinado nivel de QoS a la interred. Si los encaminadores, de forma colectiva, determinan que hay suficiente recursos disponibles para cumplir el requisito de QoS, la interred reserva dichos recursos, se compromete a ofrecer esa QoS y permite a las aplicaciones el uso de los recursos. E. DS, una aplicación indica sus requisitos de QoS marcando cada paquete con un código apropiado. La red proporciona distintos niveles de servicio a los distintos paquetes según estos códigos. No hay una reserva previa de recursos. LECCION 1: IPv6 El Internet Protocol version 6 (IPv6) (en español: Protocolo de Internet versión 6) es una versión del protocolo Internet Protocol (IP), definida en el RFC 2460 y diseñada para reemplazar a Internet Protocol version 4 (IPv4) RFC 791, que actualmente está implementado en la gran mayoría de dispositivos que acceden a Internet. Diseñado por Steve Deering de Xerox PARC y Craig Mudge, IPv6 está destinado a sustituir a IPv4, cuyo límite en el número de direcciones de red admisibles está empezando a restringir el crecimiento de Internet y su uso, especialmente en China, India, y otros países asiáticos densamente poblados. El nuevo estándar mejorará el

Page 79: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

servicio globalmente; por ejemplo, proporcionará a futuras celdas telefónicas y dispositivos móviles sus direcciones propias y permanentes. A principios de 2010, quedaban menos del 10% de IPs sin asignar.

[1] En la semana del 3

de febrero del 2011, la IANA (Agencia Internacional de Asignación de Números de Internet, por sus siglas en inglés) entregó el último bloque de direcciones disponibles (33 millones) a la organización encargada de asignar IPs en Asia, un mercado que está en auge y no tardará en consumirlas todas. IPv4 posibilita 4.294.967.296 (2

32) direcciones de red diferentes, un número inadecuado

para dar una dirección a cada persona del planeta, y mucho menos a cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6 admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2

128 o 340 sextillones de

direcciones) —cerca de 6,7 × 1017

(670 mil billones) de direcciones por cada milímetro cuadrado de la superficie de La Tierra. Otra vía para la popularización del protocolo es la adopción de este por parte de instituciones. El gobierno de los Estados Unidos ordenó el despliegue de IPv6 por todas sus agencias federales en el año 2008

[2]

Cambios y nuevas características En muchos aspectos, IPv6 es una extensión conservadora de IPv4. La mayoría de los protocolos de transporte -y aplicación- necesitan pocos o ningún cambio para operar sobre IPv6; las excepciones son los protocolos de aplicación que integran direcciones de capa de red, como FTP o NTPv3. IPv6 especifica un nuevo formato de paquete, diseñado para minimizar el procesamiento del encabezado de paquetes. Debido a que las cabeceras de los paquetes IPv4 e IPv6 son significativamente distintas, los dos protocolos no son interoperables. Algunos de los cambios de IPv4 a IPv6 más relevantes son: Capacidad extendida de direccionamiento

Una ilustración de una dirección IP (versión 6), en hexadecimal y binario. El interés de los diseñadores era que direcciones más largas permiten una entrega jerárquica, sistemática y en definitiva mejor de las direcciones y una eficiente agregación de rutas. Con IPv4, se desplegaron complejas técnicas de Classless Interdomain Routing (CIDR) para utilizar de mejor manera el pequeño espacio de direcciones. El esfuerzo requerido para reasignar la numeración de una red existente con prefijos de rutas distintos es muy grande, como se discute en RFC 2071 y RFC 2072. Sin embargo, con IPv6, cambiando el prefijo anunciado por unos pocos routers es posible en principio reasignar la numeración de toda la red, ya que los identificadores de nodos (los 64 bits

Page 80: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

menos significativos de la dirección) pueden ser auto-configurados independientemente por un nodo. El tamaño de una subred en IPv6 es de 2

64 (máscara de subred de 64-bit), el cuadrado

del tamaño de la Internet IPv4 entera. Así, las tasas de utilización del espacio de direcciones será probablemente menor en IPv6, pero la administración de las redes y el ruteo serán más eficientes debido a las decisiones de diseño inherentes al mayor tamaño de las subredes y la agregación jerárquica de rutas. Direccionamiento IPv6 El cambio más grande de IPv4 a IPv6 es la longitud de las direcciones de red. Las direcciones IPv6, definidas en el RFC 2373 y RFC 2374 pero fue redefinida en abril de 2003 en la RFC 3513 , son de 128 bits; esto corresponde a 32 dígitos hexadecimales, que se utilizan normalmente para escribir las direcciones IPv6, como se describe en la siguiente sección. El número de direcciones IPv6 posibles es de 2

128 ≈ 3.4 x 10

38. Este número puede

también representarse como 1632

, con 32 dígitos hexadecimales, cada uno de los cuales puede tomar 16 valores (véase combinatoria). En muchas ocasiones las direcciones IPv6 están compuestas por dos partes lógicas: un prefijo de 64 bits y otra parte de 64 bits que corresponde al identificador de interfaz, que casi siempre se genera automáticamente a partir de la dirección MAC de la interfaz a la que está asignada la dirección. Notación para las direcciones IPv6 Las direcciones IPv6, de 128 bits de longitud, se escriben como ocho grupos de cuatro dígitos hexadecimales. Por ejemplo, 2001:0db8:85a3:08d3:1319:8a2e:0370:7334 es una dirección IPv6 válida. Se puede comprimir un grupo de cuatro dígitos si éste es nulo (es decir, toma el valor "0000"). Por ejemplo, 2001:0db8:85a3:0000:1319:8a2e:0370:7344 ---- 2001:0db8:85a3::1319:8a2e:0370:7344 Siguiendo esta regla, si más de dos grupos consecutivos son nulos, también pueden comprimirse como "::". Si la dirección tiene más de una serie de grupos nulos consecutivos la compresión sólo se permite en uno de ellos. Así, las siguientes son representaciones posibles de una misma dirección: 2001:0DB8:0000:0000:0000:0000:1428:57ab 2001:0DB8:0000:0000:0000::1428:57ab 2001:0DB8:0:0:0:0:1428:57ab 2001:0DB8:0::0:1428:57ab 2001:0DB8::1428:57ab Son todas válidas y significan lo mismo, pero 2001::25de::cade -- -- No es válida porque no queda claro cuántos grupos nulos hay en cada lado. Los ceros iniciales en un grupo también se pueden omitir: 2001:0DB8:02de::0e13 2001:DB8:2de::e13

Page 81: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Si la dirección es una dirección IPv4 empotrada, los últimos 32 bits pueden escribirse en base decimal, así: ::ffff:192.168.89.9 ::ffff:c0a8:5909 No se debe confundir con: ::192.168.89.9 ::c0a8:5909 El formato ::ffff:1.2.3.4 se denomina dirección IPv4 mapeada, y el formato ::1.2.3.4 dirección IPv4 compatible. Las direcciones IPv4 pueden ser transformadas fácilmente al formato IPv6. Por ejemplo, si la dirección decimal IPv4 es 135.75.43.52 (en hexadecimal, 0x874B2B34), puede ser convertida a 0000:0000:0000:0000:0000:0000:874B:2B34 o ::874B:2B34. Entonces, uno puede usar la notación mixta dirección IPv4 compatible, en cuyo caso la dirección debería ser ::135.75.43.52. Este tipo de dirección IPv4 compatible casi no está siendo utilizada en la práctica, aunque los estándares no la han declarado obsoleta. Identificación de los tipos de direcciones Los tipos de direcciones IPv6 pueden identificarse tomando en cuenta los primeros bits de cada dirección. ::

La dirección con todo ceros se utiliza para indicar la ausencia de dirección, y no se asigna ningún nodo.

::1 La dirección de loopback es una dirección que puede usar un nodo para enviarse paquetes a sí mismo (corresponde con 127.0.0.1 de IPv4). No puede asignarse a ninguna interfaz física.

::1.2.3.4 La dirección IPv4 compatible se usa como un mecanismo de transición en las redes duales IPv4/IPv6. Es un mecanismo que no se usa.

::ffff:0:0 La dirección IPv4 mapeada se usa como mecanismo de transición en terminales duales.

fe80:: El prefijo de enlace local (en inglés link local) específica que la dirección sólo es válida en el enlace físico local.

fec0:: El prefijo de emplazamiento local (en inglés site-local prefix) específica que la dirección sólo es válida dentro de una organización local. La RFC 3879 lo declaró obsoleto, estableciendo que los sistemas futuros no deben implementar ningún soporte para este tipo de dirección especial. Se deben sustituir por direcciones Local IPv6 Unicast.

ff00:: El prefijo de multicast. Se usa para las direcciones multicast.

Hay que resaltar que no existen las direcciones de difusión (en inglés broadcast) en IPv6, aunque la funcionalidad que prestan puede emularse utilizando la dirección multicast FF01::1, denominada todos los nodos (en inglés all nodes) LECCION 2: RSVP

Page 82: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Una de las tareas primordiales, quizás la más importante, de una interred, es llevar los datos desde una fuente hasta su destino o destinos, con la calidad de servicio deseada (rendimiento, retardo, variabilidad de retardo, etc). Esta tarea se vuelve cada vez más complicada en cualquier interred que vea incrementarse el número de usuarios, la velocidad de transmisión de los datos de las aplicaciones y el empleo de la multidifusión. Ya hemos visto que una herramienta para hacer frente a esta fuerte demanda es el encaminamiento dinámico. Un esquema de encaminamiento dinámico, contemplado por protocolos OSPF y BGP, puede responder con rapidez a fallos en la interred, esquivando los puntos en donde se produzcan estos fallos. Más importante aún, un esquema de encaminamiento dinámico puede, hasta cierto punto, hacer frente a la congestión, en primer lugar equilibrando las cargas para suavizar la carga total de la interred, y en segundo lugar, encaminando el tráfico de manera que esquive las áreas en las que se esté desarrollando congestión, empleando para ello el encaminamiento de menor coste para la interred. En el caso de la multidifusión, los esquemas de encaminamiento para multidifusión (de una misma fuente a múltiples destinos), que aprovechan las rutas compartidas para minimizar el número de paquetes duplicados. Otra herramienta disponible para los encaminadores es la posibilidad de procesar los paquetes asignándoles un etiquetado referente a la calidad de servicio. Ya hemos visto que los encaminadores pueden: (1) utilizar una disciplina de colas que dé preferencias a los paquetes según la QoS establecida;(2)seleccionar una entre las diferentes rutas alternativas, según sean las características de QoS de cada ruta;y (3) cuando sea posible, invocar un tratamiento QoS en la subred del siguiente salto. Todas estas técnicas son medios de hacer frente al tráfico que se presenta en una interred, pero no suponen medidas preventivas en modo alguno. Basándose únicamente en la utilización del encaminamiento dinámico y en la QoS, un encaminador no puede anticipar la congestión y evitar que las aplicaciones originen una sobrecarga. En su lugar, el encaminador puede únicamente proporcionar un servicio de entrega de best-effort (de mayor esfuerzo), según el cual algunos paquetes pueden perderse y otros entregarse con una QoS menor de la solicitada. Según aumenta la demanda en una interred, parece que la prevención, así como una capacidad de reacción ante la congestión, son muy necesarias. Como muestra el título de esta sección, una forma de implementar una estrategia de prevención es la reserva de recursos.

La reserva de recursos en Internet difiere del tipo de reserva de recursos que puede ser implementado en una red orientada a conexión, como una ATM o Frame Relay. Un mecanismo de reserva de recursos en una interred debe actuar de manera conjunta con una estrategia de encaminamiento dinámica, que permita que la ruta seguida por los paquetes, en una determinada transmisión varíe. Cuando la ruta cambia, las reservas de recursos deben ser modificadas. Para manejar esta situación dinámica, se utiliza el concepto de estado no permanente. Un estado no permanente. Un estado no permanente es simplemente un conjunto de información de estado en un encaminador, que expira, a menos que sea generada de manera regular por la entidad que solicitó el estado. Si la ruta de una determinada transmisión varía, entonces algunos de los estados no permanentes expirarán y las

Page 83: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

nuevas reservas de recursos invocarán los estados no permanentes que resulten apropiados para la ruta. Así, los sistemas finales que soliciten recursos deben renovar periódicamente sus peticiones durante el curso de una transmisión de aplicaciones.

LECCION 3: MPLS CONMUTACIÓN DE ETIQUETAS MULTIPROTOCOLO Ya se ha contemplado diversos mecanismos basados en IP, que han sido diseñados para mejorar el rendimiento de las redes IP y para proporcionar diferentes niveles de QoS a diferentes usuarios del servicio. Aunque los protocolos de encaminamiento tienen como propósito fundamental encontrar dinámicamente una ruta entre cualquier fuente y cualquier destino dentro de una interred, también proporcionan soporte para objetivos relacionados con el rendimiento, de dos maneras: 1. Puesto que dichos protocolos son dinámicos y distribuidos, pueden reaccionar ante

la congestión modificando las rutas para evitar focos de tráfico lento. Esto tiende a suavizar y equilibrar la carga de la interred, mejorando el rendimiento general.

2. Las rutas pueden basarse en distintas métricas, como la contabilización de saltos o el retardo. Así pues, un algoritmo de encaminamiento desarrolla información que puede emplearse para determinar cómo manejar los paquetes con distintas necesidades de servicio.

De manera más concreta, los temas cubiertos hasta ahora sugieren mejoras para una interred IP que dé soporte explícitamente a la QoS. Sin embargo, ninguno de los mecanismos o protocolos analizados hasta ahora, abordan de manera directa la cuestión del rendimiento: Cómo mejorar el rendimiento global y las características de retardo de una interred MPLS supone un esfuerzo prometedor en la provisión del tipo de soporte QoS, orientado a conexión y a la gestión de tráfico, que se encuentra en las redes ATM, orientado a acelerar los procesos de envío de paquetes conservando la flexibilidad de un modelo de red IP. Soporte QoS orientado a conexión. Los administradores y usuarios de redes requieren un soporte QoS cada vez más sofisticados por una serie de razones. SIKE00 enumera los siguientes requisitos básicos: 1. Garantizar una cantidad fija de capacidad para aplicaciones específicas como vídeo y

audioconferencia. 2. Controlar la latencia y la fluctuación del tráfico y asegurar capacidad para la voz. 3. Proporcionar acuerdos de servicio o contratos de tráfico muy específicos,

garantizados y cuantificables. 4. Configurar diversos grados de QoS para múltiples usuarios de la red. Una red no orientada a conexión, como por ejemplo, una interred IP, no puede proporcionar unos compromisos de QoS verdaderamente firmes. Un marco de servicios diferenciados (DS) funciona solamente de una manera general y sobre los agregados de tráfico procedentes de varias fuentes. Un marco IS, empleando RSVP, tiene un cierto parecido con el enfoque orientado a conexión, aunque se ve no obstante limitado en cuanto a su flexibilidad y escalabilidad. Para servicios como los de voz y vídeo que requieren una red con un alto factor de predicción, los modelos DS e IS, por sí mismos,

Page 84: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

pueden resultar inadecuados en una red muy sobrecargada. En cambio, una red orientada a conexión, como ya hemos visto, cuenta con unas capacidades QoS y de gestión del tráfico muy potente. MPLS impone un marco orientado a conexión a una interred IP y, por tanto, proporciona el fundamento de unos contratos de tráfico con una QoS sofisticada y fiable. Ingeniería de tráfico. MPLS facilita conjugar los recursos de la red, para equilibrar el tráfico ante una determinada demanda y conjugar los diferentes niveles de soporte para satisfacer los diversos requisitos de tráfico del usuario. La capacidad de definir rutas dinámicamente, planificar entregas de tráfico según la demanda conocida y optimizar la utilización de la red es lo que se conoce como ingeniería de tráfico. Dentro del mecanismo básico de IP, hay una forma primitiva de ingeniería de tráfico automatizada. Concretamente, los protocolos de encaminamiento, como OSPF, permiten a los encaminadores modificar la ruta dinámicamente, basándose en una planificación paquete a paquete, para intentar equilibrar el tráfico. Pero tal encaminamiento dinámico reacciona de una manera muy simple ante la congestión y no proporciona manera alguna de soporte a la QoS. Todo el tráfico que circula entre dos extremos sigue una misma ruta, que puede modificarse si se produce congestión. MPLS, por otra parte, conoce no sólo los paquetes individuales, sino también los flujos de paquetes en los que cada flujo tiene ciertos requisitos QoS, así como una demanda de tráfico predecible. Con MPLS es posible establecer rutas en base a estos flujos individuales, aún en el caso de flujos diferentes entre unos mismos extremos finales que quizá sigan encaminadores distintos. Además, cuando la congestión amenaza, las rutas MPLS pueden reencaminarse de manera inteligente, es decir, en lugar de cambiar simple y llanamente la ruta, paquete a paquete, con MPLS, las rutas se modifican según un esquema flujo a flujo, aprovechando las demandas de tráfico conocidas de cada flujo. Un uso eficaz de la ingeniería de tráfico puede incrementar de manera sustancial la capacidad disponible de la red. Soporte para Redes Privadas Virtuales o VPN (Virtual Private Networks). MPLS proporciona un importante mecanismo de soporte para las redes privadas virtuales. En una VPN, el tráfico de una determinada empresa o grupo circula de modo transparente a través de la interred, de manera que se distinga eficazmente de otros tipos de paquetes de la interred, garantizando el rendimiento y la seguridad. Soporte multiprotocolo. MPLS puede emplearse con diversas tecnologías de redes. En la parte VI nos centrábamos en las interredes IP y éste parece ser el área principal de utilización. MPLS supone una mejora del funcionamiento de una red IP no orientada a conexión, siendo necesaria una actualización a los encaminadores IP para poder dar soporte a las características de MPLS. Los encaminadores activados por MPLS pueden coexistir con los encaminadores IP habituales, facilitando la introducción de una posible evolución a los esquemas MPLS. MPLS también ha sido diseñado para operar en redes ATM y Frame Relay. De nuevo, los conmutadores ATM con soporte para MPLS y los conmutadores Frame Relay con soporte para MPLS pueden ser configurados para que coexistan con los conmutadores habituales. Además, MPLS puede utilizarse en una red totalmente IP, totalmente ATM para que coexistan con los conmutadores habituales.

Page 85: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Además, MPLS puede utilizarse en una red totalmente IP, totalmente ATM, totalmente Frame Relay, o una interred que incluya dos o incluso las tres tecnologías. Esta naturaleza universal de MPLS podría resultar atractiva para usuarios que ya han mezclado varias tecnologías y que buscan maneras de optimizar recursos y ampliar el soporte QoS. Por lo que respecta al resto del presente tema, nos centraremos en la utilización de MPLS en redes IP, con algunos comentarios breves acerca de cuestiones de formato para redes ATM y Frame Relay. La Tabla 18.2. define los términos clave de MPLS empleados en nuestro estudio. Tabla 2. Terminología de MPLS

Clase de equivalencia de renvío (FEC). Grupo de paquetes IP que se reenvían de la misma forma (por ejemplo, por la misma ruta, con el mismo tratamiento de reenvío). Mezcla de tramas. Mezclado de etiquetas, cuando se aplica a la operación con medios basados en tramas, de modo que el problema potencial del intercalado de células deja de serlo. Etiqueta. Identificador corto, de longitud fija, y físicamente contiguo, que se usa para identificar una FEC normalmente de significación local. Mezcla de etiquetas. Sustitución de múltiples etiquetas entrantes de una FEC concreta por una única etiqueta saliente. Intercambio de etiquetas. Operación básica de reenvío, consistente en examinar una etiqueta entrante para determinar la etiqueta saliente, el encapsulado, el puerto, y otra información de gestión de datos. Salto conmutado por etiqueta. Salto entre dos nodos MPLS, en los que se realiza el reenvío mediante el uso de etiquetas. Ruta conmutada por etiqueta. Ruta a través de uno o más LSR de un nivel de la jerarquía, seguida por los paquetes de una FEC en particular. Encaminador de conmutación de etiquetas (LSR). Nodo MPLS que es capaz de reenviar paquetes nativos de nivel 3. Pila de etiquetas. Conjunto ordenado de

Punto de mezcla. Nodo en el que se realiza la mezcla de etiquetas. Dominio MPLS. Conjunto de nodos contiguos que operan con encaminamiento y reenvío MPLS y que se encuentran también en un dominio de encaminamiento o administrativo. Nodo frontera MPLS. Nodo MPLS que conecta un dominio MPLS con un nodo que está fuera del dominio, bien porque no funciona con MPLS, y/o porque se encuentra en otro dominio. Observe que si un LSR tiene un sistema vecino que no está ejecutando MPLS, entonces dicho LSR es un nodo frontera MPLS. Nodo de egresión MPLS. Nodo frontera MPLS cuyo rol es la gestión del tráfico que abandona el dominio MPLS. Nodo de ingreso MPLS. Nodo frontera MPLS cuyo rol es la gestión de tráfico que entra en un dominio MPLS. Etiqueta MPLS. Identificador corto, de longitud fija, y físicamente contiguo, que se usa para identificar una FEC, normalmente de significación local. Se transporta una etiqueta en la cabecera del paquete. Nodo MPLS. Nodo en el que funciona MPLS. Un nodo MPLS será consciente del uso de protocolos de control de MPLS, ejecutará uno o más protocolos de encaminamiento a nivel 3 y será capaz de reenviar paquetes según sus etiquetas. Un nodo MPLS puede, opcionalmente, ser también capaz de reenviar paquetes nativos de nivel 3.

Page 86: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

etiquetas.

FUNCIONAMIENTO DE MPLS Una red o interred MPLS se compone de un conjunto de nodos, denominados encaminadores de conmutación de etiquetas o LSR (label switched routers), capaces de conmutar y encaminar paquetes según cual sea la etiqueta que se haya asignado a cada paquete. Las etiquetas definen un flujo de paquetes entre dos extremos o, en el caso de la multidifusión, entre un extremo fuente y un grupo destino. Para cada flujo distinto se define un camino específico a través de la red de LSR, llamado clase de equivalencia de reenvío o FEC (forwarding equivalence class). Así pues, MPLS es una tecnología orientada a conexión. Asociada a cada FEC tenemos una caracterización del tráfico que define los requisitos QoS de ese flujo. Los LSR no necesitan examinar o procesar la cabecera IP, sino más bien enviar simplemente cada paquete basándose en el valor de su etiqueta. Por tanto, el proceso de envío es más simple que con un encaminador IP. La Figura 18.5., basada en lo que aparece en REDF00, describe el funcionamiento de MPLS dentro de un dominio de encaminadores MPLS. A continuación, vemos los elementos clave del funcionamiento: 1. Antes del encaminamiento y la entrega de paquetes en una determinada FEC, hay

que definir una ruta en la red, conocida como ruta conmutada de etiquetas o LSP (label switched path) y hay que establecer los parámetros QoS a lo largo de dicha ruta. Los parámetros QoS determinan: 1. Cuántos recursos asignar a la ruta, y 2. Que política de colas y de descarte de paquetes establecer en cada LSR para los paquetes de esta FEC. Para acometer dichas tareas, se emplean dos encaminadores que realizarán el intercambio de información necesaria entre encaminadores: a. Un protocolo de encaminamiento interior, como OSPF, que se emplea para

intercambiar información de encaminamiento y alcance. b. Las etiquetas deben ser asignadas a los paquetes para una FEC en particular.

Como la utilización de etiquetas únicas y globales impondría una carga añadida a la gestión de paquetes y limitaría el número de etiquetas de que se podría disponer, las etiquetas son de uso local únicamente, como ya se verá más adelante. Un operador de red puede especificar manualmente las rutas explícitas y asignar los valores oportunos de las etiquetas. También se puede emplear un protocolo alternativo para determinar el camino o ruta y establecer los valores de etiquetado entre los LSR adyacentes. Cualquiera de estos dos protocolos puede ser utilizado con esta finalidad: el protocolo de distribución de etiquetas o LDP (Label Distribution Protocol) o una versión mejorada de RSVP.

2. Un paquete entra en un dominio MPLS a través de un LSR de ingreso, donde es procesado para determinar qué servicios requiere a nivel de red, definiendo su QoS. El LSR asigna este paquete a una FEC en particular y, por tanto, a una LSP en particular; asigna la etiqueta adecuada al paquete y lo reenvía. Si no existe todavía una LSP para esta FEC, el LSR debe cooperar con los otros LSR en la definición de una nueva LSP.

3. Dentro del dominio MPLS, conforme cada LSR recibe un paquete etiquetado, éste: a. Retira la etiqueta entrante y asocia al paquete la etiqueta de salida apropiada. b. Reenvía el paquete al siguiente LSR a lo largo de la ruta LSP.

4. El nodo de egresión LSR extrae la etiqueta, la etiqueta de paquete IP y envía el paquete a su destino final.

Page 87: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

A continuación, pueden observarse varias de las características clave del funcionamiento de MPLS: 1. Un dominio MPLS se compone de un conjunto contiguo, o conectado, de

encaminadores MPLS. El tráfico puede entrar o salir del dominio desde un terminal de red conectado directamente, cómo se muestra en la esquina superior derecha de la Figura 18.5. El tráfico también puede provenir de un encaminador habitual que conecte con una parte de la interred que no está empleando MPLS, como aparece en la esquina superior izquierda de la figura 18.5.

2. La FEC de un paquete puede venir determinada por uno o más parámetros, según considere el administrador de red. Entre los posibles parámetros se encuentran los siguientes:

Direcciones IP de origen y / o destino o direcciones IP de red.

Números de puerto de origen y / o destino.

ID del protocolo IP.

Codepoint de servicios diferenciados.

Etiqueta de flujo IPv6. 3. El reenvío se logra realizando una simple búsqueda en una tabla predefinida que

asocia valores de etiquetas a las siguientes direcciones de saltos. No hay necesidad de examinar o procesar la cabecera IP o de tomar una decisión de encaminamiento basada en la dirección IP de destino.

4. Se puede definir un comportamiento específico por salto, o PHB (per-hop behavior), en un LSR; para una FEC en particular. El PHB define la prioridad de colas para los paquetes de dicha FEC, así como la política de descartes.

5. Los paquetes enviados entre los mismos extremos pueden pertenecer a FEC diferentes. Así es que recibirán un etiquetado diferente, experimentarán un PHB diferente en cada LSR y puede que sigan rutas distintas dentro de la interred.

La Figura 18.6. muestra las operaciones de gestión y reenvío de etiquetas con más detalle. Cada LSR custodia una tabla de reenvíos para cada LSP que atraviesa el LSR. Cuando llega un paquete etiquetado, el LSR indexa la tabla de reenvíos para determinar el próximo salto. Para una mejor escalabilidad, como ya se ha mencionado, las etiquetas tienen un radio de acción local únicamente. Así, el LSR retira la etiqueta del paquete entrante y adjunta la etiqueta de salida correspondiente antes de reenviar el paquete. El LSR de ingreso determina la FEC de cada paquete a una determinada LSP, adjunta la etiqueta correspondiente y reenvía el paquete. LECCION 4: RTP PROTOCOLO DE TRANSPORTE EN TIEMPO REAL El protocolo más utilizado a nivel de transporte es TCP. Aunque TCP ha demostrado su valía dando soporte a una amplia variedad de aplicaciones distribuidas en tiempo real. Por aplicación distribuida en tiempo real, entendemos una en que la fuente genera un flujo de datos a una velocidad constante y una o más direcciones de destino deben entregar dichos datos a una aplicación a esa misma velocidad constante. Ejemplos de tales aplicaciones los encontramos en la audio y videoconferencia, la distribución de vídeo en directo (no para almacenarlo sino para una reproducción inmediata), los entornos de trabajo compartidos, los diagnósticos médicos a distancia, la telefonía, los

Page 88: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

sistemas de comando y control, las simulaciones interactivas distribuidas, juegos y monitorización en tiempo real. Son varias las características de TCP que lo invalidan como protocolo de transporte para tales aplicaciones: 1. TCP es un protocolo punto a punto que establece una conexión entre dos extremos.

Por tanto no es adecuado para la multidifusión. 2. TCP posee mecanismos para la retransmisión de segmentos perdidos, que llegan

posteriormente fuera de orden. Tales segmentos no se pueden aprovechar fuera de su sitio en el caso de las aplicaciones en tiempo real.

3. TCP no dispone de un mecanismo adecuado que asocie la información sobre tiempos a los segmentos, que es otra de las exigencias del tiempo real.

El otro protocolo de transporte ampliamente utilizado, UDP, no posee las dos primeras características citadas pero, al igual que TCP, no suministra información sobre tiempos. Por sí mismo, UDP no proporciona herramienta alguna de empleo general que resulte útil para aplicaciones en tiempo real. Aunque cada aplicación en tiempo real podría incluir sus propios mecanismos para dar soporte al transporte en tiempo real, existen varias características básicas que garantizan la definición de un protocolo común. Un protocolo estándar diseñado con esta finalidad es el protocolo de transporte en tiempo real o RTP (Real-time Transport Protocol), definido por la RFC 1889. RTP es el más adecuado para la comunicación en tiempo real no estricto, pero carece de los mecanismos necesarios para dar soporte al tráfico en tiempo real estricto. Esta sección ofrece una visión panorámica de RTP. Comenzamos viendo los requisitos del transporte en tiempo real. A continuación, examinamos el enfoque teórico de RTP. El resto de la sección está dedicado a los dos protocolos que componen RTP: el primero se denomina simple y llanamente RTP y es un protocolo de transferencia de datos; el otro es un protocolo de control que se conoce como RTCP (Protocolo de Control RTP). LECCION 5: MULTIDIFUSION Generalmente, una dirección IP hace referencia a un host individual en una red particular. IP también considera direcciones que hacen referencia a un grupo de máquinas de una o más redes. Tales direcciones se denominan direcciones de multidifusión, y el hecho de enviar un paquete desde un origen a los miembros de un grupo de multidifusión se denomina multidifusión. La multidifusión tiene una serie de aplicaciones prácticas. Por ejemplo:

Multimedia: Un número de usuarios sintonizan una transmisión de vídeo o audio desde una estación origen multimedia.

Teleconferencia: Un grupo de estaciones de trabajo forman un grupo de multidifusión tal que una transmisión desde cualquier miembro es recibida por todos los demás miembros

Base de datos: Todas las copias de un fichero o base de datos replicados se actualizan a la vez.

Procesamiento distribuido: Los resultados intermedios se envían a todos los participantes.

Grupos de trabajo en tiempo real: Ficheros, gráficos y mensajes se intercambian entre los miembros activos del grupo en tiempo real.

Page 89: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

MULTIDIFUSION (MULTICAST): Transmisión, en un solo envío, desde un sistema final origen a todos los sistemas destinatarios o “miembros activos” de un grupo de multidifusión que comparten una misma dirección IP de multidifusión correspondiente al grupo. Las máquinas de un grupo de multidifusión no tienen por qué estar conectadas a la misma red de área local (LAN).

La comunicación es de “1” a “n” con entrega a “n” interfaces. Si hay “n” destinatarios en el grupo, solo se transmite una vez la información desde el sistema origen, es decir, solo envía un datagrama IP de multidifusión. Los ROUTERS DE MULTIDIFUSION por Internet manejan direcciones IP de multidifusión y hacen las copias necesarias. El envío es independiente del número de máquinas receptoras. Cada enlace transporta una única copia de la información. DIFUSION (BROADCAST) IPv6: Forma especial de multidifusión en donde todas las máquinas de una red de área local de difusión (Ethernet o Wifi) se consideran como un grupo de multidifusión. CORRESPONDENCIAS DE DIRECCIONES DE RED Y ENLACE: Todas las direcciones IP tienen su correspondencia en el nivel MAC. Una dirección de UNIDIFUSION MAC IEEE 802 es un identificador de 6 OCTETOS o 48 bits o 6 GRUPOS DE DOS DÍGITOS HEXADECIMALES. Los 3 primeros octetos identifican al fabricante de la tarjeta y los tres últimos octetos identifican al número de serie de la tarjeta. El nivel de Interfaz de la red de acceso tiene que ser capaz de transmitir tramas de unidifusión, difusión, solo para IPv4, y multidifusión.

Page 90: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Page 91: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

FUENTES DOCUMENTALES DE LA UNIDAD 2 Stallings, W. (2004). “Redes e Internet de Alta Velocidad, Rendimiento y Calidad de Servicio". 2ª Edición. Editorial Prentice Hall. Kurose, James F. Ross, Keith w. (2010). Redes de Computadoras (5ta Edición). Pearson Educación Forouzan, Behrouz A. (2006). Transmisión de datos y redes de comunicaciones / Behrouz A. Forouzan; traducción Jesús Carretero Pérez, Félix García Carballeira. Edición: 4a. ed. Editor Carmelo Sánchez González. Editorial: Madrid: McGraw-Hill. Capmany Francoy, José. (2007). Redes ópticas / José Capmany Francoy, Beatriz Ortega Tamarit. Editorial: México: Limusa: Universidad Politécnica de Valencia.

Page 92: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

UNIDAD 3

Nombre de la Unidad REDES DE TRANSPORTE OPTICO Y ACCESO

Introducción En esta unidad se describe las redes SDH, DWDM y sus elementos, también las principales redes de acceso fijas.

Justificación La explosión de la banda ancha en nuestros días ha obligado a las operadoras de telecomunicaciones a incrementar el tamaño y alcance de sus redes de transporte para poder soportar todo el tráfico generado en la red de acceso de sus clientes residenciales y empresariales. La demanda de capacidad de transporte es cada vez mayor, debido a la introducción y proliferación de servicios y aplicaciones con gran consumo de ancho de banda (Internet de banda ancha, vídeo bajo demanda, redes de almacenamiento, etc.), a partir de tecnologías en la red de acceso como: ADSL, HFC, FTTx, PLC, etc. En la actualidad, solo la tecnología de fibra y en concreto la basada en sistemas de transmisión de canales por multiplexacion densa de longitud de onda (DWDM) puede hacer frente a este incremento en la demanda.

Intencionalidades Formativas

PROPÓSITOS

Estudiar las redes de transporte a través de los elementos de interconexión y arquitectura SDH

Estudiar las redes DWDM a través de sus elementos de interconexión y su arquitectura

Reconocer cómo se conectan los usuarios finales a las redes de alta velocidad a través de la presentación de las redes de acceso que se utilizan actualmente.

OBJETIVOS

Describir el funcionamiento de una red SDH mediante el estudio de los componentes y sus interconexiones.

Describir el funcionamiento de una red DWDM mediante el estudio de los componentes y sus interconexiones.

Examinar el acceso a la redes de alta velocidad que es la más próxima al usuario final y proporciona conexión entre estos y la red de transporte.

COMPETENCIAS

El estudiante describe los componentes y sus interconexiones de una red SDH.

El estudiante describe los componentes y sus interconexiones de una red DWDM.

Page 93: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

El estudiante describe y diseña el acceso a la redes de alta velocidad que es la más próxima al usuario final y proporciona conexión entre estos y la red de transporte.

METAS Al finalizar el curso:

El estudiante evalúa y selecciona la red y los componentes más adecuados para la implementación de una red de alta velocidad.

El estudiante utiliza efectivamente la información proporcionada por las especificaciones técnicas de los fabricantes y la obtenida a través de buscadores en Internet.

El estudiante describe, explica y discute con otros compañeros las opciones de elección de un diseño y socializarla.

Denominación de capítulos

CAPITULO 1. REDES SDH CAPITULO 2 REDES DWDM CAPITULO 3 REDES DE ACCESO

CAPITULO 1. REDES SDH INTRODUCCIÓN La Jerarquía Digital Síncrona o SDH (Synchronous Digital Hierarchy) constituye el primer esfuerzo serio por estandarizar las comunicaciones de voz de forma que se eliminaran los inconvenientes presentados por PDH. El desarrollo se inició en principio en Estados Unidos por la ANSI con el estándar SONET (Synchronous Optical Network) seguido posteriormente por el SDH, desarrollado por ETSI (European Telecommunication Standarization Institute) y la ITU (International Telecommunication Union) y que se ha implementado en Europa y Japón. Posteriormente ambos estandartes (SDH y SONET) se han compatibilizado. Algunos de los principales inconvenientes que presenta PDH, a los que haremos referencia son superados por SDH, como son el acceso en SDH a todos los tributarios de baja velocidad, directamente en una señal agregada de mayor capacidad, sea cual sea ésta, y el hecho de que la multiplexación es directa, puesto que no hay bits de relleno. Estas dos propiedades son posibles ya que a principios de los 90 comenzó a ser tecnológica y económicamente viable tener sincronizados una serie de nodos de una red relativamente extensa.

Page 94: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Por otro lado, las estructuras de multiplexación son altamente recurrentes. Esto quiere decir que, por ejemplo, una señal de mayor velocidad tiene una forma similar a una menor, es decir, las mismas partes, aunque sean de tamaño diferente. Podremos comprobar esta propiedad un poco más adelante, cuando analicemos el proceso de multiplexación de SDH. En cuanto a la capacidad de operación, gestión y administración de red (OAM), SDH incluye información extra que viaja con los canales tributarios a través de toda la red. La flexibilidad que introduce el sincronismo, así como la sencillez que aporta la estructura recurrente de multiplexación, permite además que aparte de voz, puedan transmitirse datos empleando SDH. LECCION 1 PDH La jerarquía digital plesiócrona o PDH surge a finales de la década de los 60 del siglo XX. Hasta dicho momento la transmisión telefónica era de naturaleza analógica y es entonces cuando comienzan los primeros esfuerzos para digitalizar el canal de voz de 4 KHz que cristalizan en la aparición de PDH como una tecnología capaz de transmitir de forma simultánea múltiples canales telefónicos digitales. Como es bien sabido, la digitalización de un canal telefónico de 4KHz mediante muestras de 8 bits requiere una velocidad de trasmisión de 64 Kb/s que constituye la unidad básica de PDH. La transmisión multicanal se consigue agregando canales digitales o tributarios en grupos (tributarios de orden superior) y dichos grupos a su vez en otros mayores (ordenación jerárquica), empleando multiplexación por división de tiempo (TDM) por lo que cada vez se requiere una mayor velocidad binaria. se muestra mediante una tabla las diversas jerarquías de PDH tal y como han evolucionado en las tres regiones principales del mundo; Europa, América y Japón. Puede observarse como en todos los casos la unidad básica o nivel 0 de la jerarquía es el canal de 64 Kb/s y como a partir de éste se constituyen agregados (jerarquías superiores). La forma de agregar sin embargo difiere en las diversas regiones, ya que PDH nunca ha llegado a estar estandarizada de forma global.

Nivel

Norteamérica Europa/Colombia Japón

Circuitos

Kbit/s Denominación

Circuitos

Kbit/s Denominación

Circuitos

Kbit/s Denominación

1 24 1,544 (T1) 30 2,048 (E1) 24 1,544 (J1)

2 96 6,312 (T2) 120 8,448 (E2) 96 6,312 (J2)

3 672 44,736

(T3) 480 34,368

(E3) 480 32,064

(J3)

4 4032 274,176

(T4) 1920 139,264

(E4) 1440 97,728

(J4)

Los flujos de datos que llegan a los multiplexores se les suele llamar como tributarios, afluentes o cargas del múltiplex de orden superior.

Page 95: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Respecto a la construcción de jerarquías en la zona europea, es interesante observar cómo a partir de la agrupación de 32 canales de nivel 0 se obtiene un canal de nivel 1 a 2.048 Mb/s, cómo a partir de la agrupación de 4 canales de nivel 1 se obtiene uno de nivel 2 a 8.448 Mb/s y así sucesivamente hasta llegar al máximo nivel de la jerarquía, el nivel 4, que corresponde a una velocidad binaria de 139.264 Mb/s. El término plesiócrono significa casi síncrono, pues la multiplicación de canales en principio no es completamente síncrona. Por ejemplo, el lector puede observar que la velocidad correspondiente a la jerarquía de nivel 3 en el modelo europeo es de 34 Mb/s y no de 33.79 Mb/s como correspondería a multiplicar por 4 la velocidad correspondiente a la jerarquía de nivel 2. La explicación es sencilla, a finales de la década de los 60 y principios de los 70 del siglo XX era tecnológicamente muy difícil y caro económicamente obtener el sincronismo entre las diferentes fuentes de datos generadoras de los canales tributarios de una jerarquía que se habían de multiplicar para conseguir una señal de jerarquía que se habían de multiplexar para conseguir una señal de jerarquía superior. Así, a la entrada del multiplexor las señales que habían de combinarse llegaban por lo general con fases diferentes, es decir, desincronizadas. La forma más sencilla para ajustar las fases de las señales de la que se disponía en dicha época consistía en emplear una serie de bits de relleno, entre los bits de datos, de forma que se compensase en la señal agregada la diferencia de sincronismo entre las señales tributarias. La introducción de la técnica de sincronización mediante bits de relleno comporta un inconveniente fundamental ya que para acceder a un tributario de un determinado nivel dentro de una señal multiplexada, es necesario desmultiplexar todos los canales hasta dicho nivel, puesto que las sucesivas etapas de multiplexación insertan los bits de relleno en partes diferentes de la trama, según se necesite y por lo tanto es imposible determinar a priori dónde se encuentra un canal dentro de la trama con completa certeza. Por ejemplo, la figura muestra un esquema de enlace cerrado por dos equipos terminales de multiplexación en los que se agregan/desagregan canales de 2 Mb/s para formar/deshacer un múltiplex de 140 MB/s que se transmite entre ellos. Si en un determinado punto del enlace fuese necesario (por ejemplo por necesidades emergentes de tráfico) extraer/insertar el contenido de un canal de 2 Mb/s de la señal de línea de 140 Mb/s, ello sólo es posible si se desmultiplexan los 64 canales de 2Mb/s que transporta el múltiplex y se accede al canal deseado. Es evidente que ello comporta una gran desventaja, ya que en este caso habría que desmultiplexar 63 canales para no hacer nada con ellos (excepto volverlos a multiplexar para proseguir el camino de transmisión) con su coste asociado.

Las dos desventajas que se han presentado en los dos párrafos anteriores, es decir que la multiplexación/demultiplexación se realiza paso a paso (mediante justificación) y el hecho de que los tributarios no sean visibles directamente dentro de la señal multiplexada son quizás las más importantes del formato PDH, pero no las únicas. Así, la estructura de las tramas correspondientes a los diversos niveles o jerarquías es muy diferente entre sí, no existiendo ninguna similitud. A ello hay que añadir que PDH no incorpora capacidad añadida a la señal de datos para transmitir información relativa a la operación, mantenimiento y administración de la red. Por ello no es posible realizar

Page 96: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

tareas de monitorización, detección y corrección de errores, restauración, protección frente a fallos, etc. Otra desventaja importante de PDH es la total ausencia de estándares de naturaleza global. En su día, los diversos fabricantes introdujeron características propietarias en sus diversos productos, incluyendo códigos de línea, interfaces eléctricos y ópticos, etc. De forma que es imposible interconectar equipos PDH de fabricantes distintos. Por último, resaltar que PDH está concebida para su época, es decir, para redes de telecomunicación donde predominaba el tráfico debido a transmisión de voz, siendo muy dificultoso su empleo para la transmisión de datos. Los inconvenientes mencionados anteriormente, no han impedido una fuerte implantación de PDH en las redes telefónicas, si bien, hoy en día su uso se encuentra en la fase de decadencia por dos motivos. En primer lugar porque en las redes actuales predomina el tráfico de datos, y, en segundo, porque conscientes de sus limitaciones, los fabricantes promovieron a finales de los años 80 un nuevo formato de transmisión que si bien en principio fue concebido para el transporte de tráfico de voz, proporciona en su diseño soluciones a la gran mayoría de los inconvenientes de PDH. Este formato se conoce con el término de Jerarquía Digital Síncrona o SDH. LECCION 2 Modelos de capas SDH SDH se define para dar soporte principalmente a las redes de transporte a principios de los años 90. La ITU, organismo involucrado en su estandarización ha definido la arquitectura para este tipo de redes empleando un modelo de capas que repasaremos muy brevemente a continuación. Según el modelo ITU, una red de transporte está formada por tres capas, cada una de las cuales realiza una función general, de forma que una capa inferior presta servicios a la superior. De arriba hacia abajo en la jerarquía, la primera es la capa de circuito, y está encargada de las conexiones extremo a extremo. Coge la información del nodo origen A, le añade una información adicional, a la que nos referiremos un poco más adelante, que sirve para identificar la señal de A y ayudar a que esta atraviese la red, hasta el nodo destino B. Inmediatamente por debajo de la capa de circuito, se encuentra la capa de trayecto o camino (“path”) que es la encargada de establecer una ruta a través de los nodos de red, para dar servicio a un circuito y que puede ser común a varios circuitos (con el fin de optimizar recursos). Por ejemplo, si hubiera un circuito con origen en un nodo C próximo al A, con destino al B, la información viajaría por el mismo camino. Por último, está la capa de transmisión, que está formada por los elementos físicos, láseres, fibras, amplificadores, transmisores radio, antenas, etc… El modelo abstracto de capas de la red de transporte establecido por la ITU se concreta en SDH en la forma que se muestra en la figura en donde se ilustra la correspondencia entre las capas de SDH y las capas de dicho modelo.

Page 97: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

En la capa de circuito tenemos por ejemplo, los servicios que se pueden proporcionar hoy en día a través de SDH como conexiones extremo a extremo. Estos pueden ser por ejemplo la telefonía básica, acceso a Internet, servicio ATM, e incluso transporte de otras capas clientes de SDH. La capa de trayecto de SDH se divide en dos subcapas. Esta división está relacionada con la operación de agregación o multiplexación de flujos de información que se van a transportar y será objeto de comentario en breve. Finalmente, la capa de transmisión hace referencia a los medios físicos de transmisión que pueden ser cable o radio. Pasamos a continuación a estudiar con un poco más de detenimiento las estructuras correspondientes a las capas de trayecto y de transmisión. La capa de trayecto SDH se subdivide en dos subcapas que hacen referencia a los denominados trayectos de orden inferior (LOP, “low order path”) y los de orden superior (HOP, “high order path”), respectivamente. En el primer caso se trata de trayectos correspondientes a señales de baja velocidad que deben ser agrupados o multiplexados en señales de alta velocidad (pero todavía no de formato SDH) para constituir un trayecto de orden superior que ya puede introducirse o multiplexarse en una trama de tipo SDH antes de acceder a la capa de transmisión. Este proceso es bastante complejo, pero tendremos oportunidad de analizarlo con un poco más de detenimiento más adelante. Es posible también, si la aplicación a la que da soporte el circuito es de suficiente velocidad (como para poder incorporarse o multiplexarse directamente a la carga de una trama SDH) el acceder directamente desde la capa de circuito a la capa de trayecto de orden superior. Por debajo, en la capa de transmisión, existe otra subdivisión. En concreto, ésta se divide en los medios físicos en sí, abajo del todo, y en la capa de sección, que se subdivide a su vez en sección de multiplexación y sección entre regeneradores. Para comprender el cometido de cada una de estas subcapas vamos a elaborar un ejemplo ilustrativo que muestras los distintos segmentos de red que atraviesa un circuito SDH.

Page 98: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

La figura muestra los distintos segmentos de red que atraviesan los circuitos, nuestros circuitos, para llegar desde el nodo origen al nodo destino de la red SDH. La estructura de segmentos es más o menos simétrica, y por ello se muestras un eje de simetría. Los circuitos, contenidos en caminos de orden bajo y/o alto, llegan al multiplexor, que se encarga de juntar varios de estos caminos para su transmisión a través de la línea. La sección de multiplexación es aquella contenida entre multiplexores. Esta sección puede contener a su vez regeneradores que corrijan o arreglen las imperfecciones que pueda haber sufrido la señal al propagarse. La parte de red contenida entre dos regeneradores o entre un multiplexor y un regenerador se denomina sección de regeneración. Como puede observarse, una sección de multiplexación puede comprender una o más secciones de regeneración. El motivo de estructurar las capas en diversas secciones se explicará y justificará más adelante. LECCION 3 Multiplexación SDH La figura muestra la configuración de la trama elemental de SDH denominada STM-1 (“Synchronous Transport Mode”1). Como se puede observar está constituida por 270 columnas y 9 filas de bytes. Esta estructura de trama se repite cada 125 µ seg, por lo que corresponde a una velocidad de transmisión básica de 155.52Mb/s. Los bytes de la trama se transmiten en el tiempo de izquierda a derecha y de arriba abajo. La trama se divide en dos partes, la primera constituida por las 9 primeras columnas se conoce como cabecera y transporta la información diversa, necesaria para administrar la red, corregir errores, sincronizar y para acceder al contenido de la información real transportada por la trama que se encuentra en la parte de la carga de la trama constituida por las 261 columnas siguientes. La cabecera está dividida en tres partes. La primera que comprende las tres primeras filas se denomina RSOH (“Regenerator Section Overhead”), la segunda compuesta por la fila 4 está destinada a los punteros, cuya función se explicara a continuación y la tercera constituida por las filas 5 a 9 es la denominada MSOH (“Multiplexing SEction Overhead”). Los overheads (o taras) son “bytes” de información que se añaden a la carga con el fin de monitorizarla para la detección de errores. Incluyen además capacidad extra para señalización entre elementos de la sección, para envío de señales de alarma, sincronización, etc. Estas tareas pueden realizarse tanto entre regeneradores, mediante la RSOH, como entre multiplexores, mediante la MSOH. Una de las particularidades de SDH es que la carga no tiene por qué comenzar síncronamente con el principio de la zona de carga de la trama, sino que puede comenzar en cualquier punto de esta, desbordándose si es preciso a la zona de carga de la trama o tramas siguientes. Tal y como indica la figura, los punteros sirven para indicar en qué lugar de la zona de carga comienza la información. La ventaja fundamental de este mecanismo estriba en la reducción en el número de “buffers” en los nodos, y por lo tanto, del tiempo de espera que sufre una señal antes de que sea transportada. La información que se entrega en la zona de carga se encapsula previamente, como veremos más adelante en estructuras conocidas como Contenedores Virtuales (VC). En

Page 99: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

el caso de que el VC no comience al principio de la zona de carga obviamente se cortará al finalizar la trama continuando en el siguiente STM-1. Hemos comentado anteriormente que la unidad básica de transmisión SDH es la constituida por la transmisión de tramas STM-1 que corresponde a una velocidad de 155,52 Mb/s. Ahora bien, STM-1 no es el único modo de transferencia o velocidad de la jerarquía digital síncrona SDH. Para transmitir a mayor velocidad se forman agregados estándar tal y como se muestra en la figura, mediante la multiplexación entrelazada de las columnas de señales STM-1.

STM-1 = 8000*(270octeto s*9filas*8bits)= 155 Mbps STM-4 = 4*8000*(270octetos*9filas*8bits)= 622Mbps STM-16 = 16*8000*(270octetos*9filas*8bits)= 2.5Gbps STM-64 = 64*8000*(270octetos*9filas*8bits)= 10Gbps STM-256 = 256*8000*(270octetos*9filas*8bits)= 40Gbps

Señal eléctrica Portadora óptica Velocidad binaria (Mbps)

Equivalencia SDH

STS-1 OC-1 51,84 STM-0

STS-3 OC-3 155,52 STM-1

STS-9 OC-9 466,56 -

STS-12 OC-12 622,08 STM-4

STS-18 OC-18 933,12 -

STS-24 OC-24 1.244,16 -

STS-36 OC-36 1.866,24 -

STS-48 OC-48 2.488,32 STM-16

STS-96 OC-96 4.976,64 -

STS-192 OC-192 9.953,28 STM-64

STS-256 OC-256 13.271,04 -

STS-384 OC-384 19.906,56 -

STS-768 OC-768 39.813,12 STM-256

STS-1536 OC-1536 79.626,24 -

STS-3072 OC-3072 159.252,48 -

SONET/SDH

SONET Optical Carrier Level

SONET Formato de trama

SDH Nivel y formato de trama

Ancho de banda de carga (kbps)

Velocidad de línea (kbps)

OC-1 STS-1 STM-0 50.112 51.840

OC-3 STS-3 STM-1 150.336 155.520

OC-12 STS-12 STM-4 601.344 622.080

Page 100: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

OC-24 STS-24 – 1.202.688 1.244.160

OC-48 STS-48 STM-16 2.405.376 2.488.320

OC-192 STS-192 STM-64 9.621.504 9.953.280

OC-768 STS-768 STM-256 38.486.016 39.813.120

OC-3072 STS-3072 STM-1024 153.944.064 159.252.480

Se multiplexan tanto las cabeceras como la carga, por columnas en todos los casos. Ello implica que cada STM-1 conserva sus punteros, por lo que la carga de cada uno de ellos flota independientemente. Hay que resaltar también que toda la estructura se repite otra vez cada 125 microsegundos, por lo que al haber más bytes (bits) la velocidad de transmisión en línea será mayor. Así pues una trama STM-1 se obtiene al entrelazar N tramas STM-1. Sin embargo, el valor de N no puede ser cualquier sino que el estándar fija unos valores predeterminados. En la tabla vemos las combinaciones posibles, tanto para SDH, como para SONET en los EEUU. Las siglas STS significan “Synchronous Transfer Signal”, mientras que los STM corresponden a “Synchronous Transfer Mode”. Algunas de las velocidades de SONET no se recogen en SDH, por lo que están abocadas a desaparecer o ser de uso exclusivo en USA. También se puede encontrar para SONET, las siglas OC, de “Optical Carrier”, en vez de STS. La diferencia principal estriba en que la especificación STS hace referencia a la señal en el dominio eléctrico, mientras que a OC se refiere a la señal SONET en el dominio óptico. En SDH no existe esta distinción. Como se ha mencionado anteriormente, existe una compatibilidad entre SDH y SONET ya que la señal STS-3 de SONET corresponde a la STM-1 de SDH. A partir de ahí las señales múltiplos de ellas están relacionadas. Por ejemplo, OC-3 correspondería a STM-1, OC-12 a STM-4, OC-48, a STM-16 y OC-192 a STM-48. Proceso de encapsulamiento y multiplexación en SDH En el apartado anterior nos hemos ocupado de describir la estructura de la trama básica de SDH así como la forma de construir a partir de ella tramas de mayor velocidad o jerarquía, incluyendo el proceso en el que se incorpora la información que hay que transmitir a la zona de carga de la trama. Precisamente el proceso en el que se prepara la información para su incorporación en la zona de carga es el objeto de la presente sección. Este proceso tiene como origen el circuito o canal que se desea transmitir y como resultado la incorporación de éste junto con otros circuitos a una serie de estructuras conocidas como contenedores virtuales (VC) que son las aptas para ser introducidas en la zona de carga de la trama SDH. Las formas de encapsulamiento de circuito para obtener contenedores virtuales son muy diversas y en la parte superior de la figura se muestra un árbol con las diversas alternativas de empleo más frecuente. En el centro, se ilustra una barra en la que se muestra a qué capa de la red pertenecen los elementos que hay en la parte superior de la figura.

Page 101: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Procediendo de derecha a izquierda en la figura partimos de los circuitos, que como se ha especificado previamente son las señales y servicios que se quieren transportar extremo a extremo con SDH. Pueden ser de distintas velocidades, y para cada una de ellas se define un Contenedor (que aparece con la letra C en la figura), con un número que lo identifica y que hace referencia a la velocidad de la señal. Ese contenedor corresponde a la carga bruta. La carga bruta en SDH se etiqueta, añadiéndole información que es de utilidad posterior. Se forma así el Contenedor Virtual (CV-x), que no es más que un contenedor al que se le añade una partre que se denomina “Patj Over Head”, POH, (overead o tara de la capa de trayecto). Esa información sirve para monitorizar los datos transmitidos en el nivel de la capa de circuitos, es decir desde el extremo en el que se originan hasta el extremo al que van destinados. La primera operación que se realiza sobre los datos consiste pues en el encapsulado, que es la operación de añadir la tara de trayecto o el POH, a los datos que se van a transmitir. La siguiente etapa, que se muestra con las flechas punteadas sobre la figura consiste en el alineamiento del que nos ocuparemos en breve pero que en esencia consiste en añadir al contenedor virtual un Puntero que indica su posición dentro de la señal global y cuya misión es la de posibilitar el acceso a los tributarios o señales de baja velocidad dentro de la trama SDH. Un contenedor virtual VC, al que se añade un puntero, forma lo que se denomina Unidad Tributaria (TU) (en el caso de LOP) o Unidad Administrativa (UA) (en el caso de HOP). Finalmente, las TU´ s y las au´s se multiplexan para formar los grupos de tu´s ó au´s. veamos por último, un ejemplo de las opciones que tenemos de formar la señal en un contenedor que tiene una velocidad de unos 155 mbps. 1) La primera es coger una señal de 140 mbps, que se corresponde con el nivel 4 de señales PDH, encapsularla a ella sola. Con esto se tiene un total de 64 señales de 2 mbps en nuestro contenedor virtual, con la salvedad, de que no tenemos acceso directo a ninguna de esas señales de 2 mbps, si es que ese flujo fuese una señal PDH. 2) La segunda opción podría ser tres señales de 34 Mpbs que nos proporcionarían un agregado equivalente a 48 señales de 2 mbps. 3) La tercera y la cuarta son una combinación de señales de 2 mbps y 34 mbps. Son más o menos similares. 4) La quinta es emplear VC-12´s mbps, con lo que se obtiene un VC-4 que contiene 63 señales nde 2 mbps. Ahora bien, en este caso, sí que se tiene acceso a cada una de esos 63 flujos de 2 mbps directamente en el VC-4 sin necesidad de multiplexarlo todo. En definitiva, escoger una opción de encapsulado o mapeo, u otra, es función de la granularidad, del nivel a que queramos poder acceder dentro de la red SDH, a la señal tributaria. LECCION 4 Elementos de red SDH Una vez estudiado el esquema de tramas y procedimientos de multiplexación y encapsulado de tributarios de SDH vamos a proceder a estudiar qué tipos de equipos o nodos podemos encontrarnos en una red SDH. A continuación expondremos algunas

Page 102: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

de las funciones básicas, aunque la mayoría de las veces los nodos de equipos comerciales realizan varias de esta funciones. La primera y más sencilla es la de Terminal Multiplexer, TM, o Equipo terminal de línea y combinación lineal que es aquel elemento que se emplea en un enlace punto a punto. También se les denomina Line Terminating Equipment, LTE, por estar situados al final de un enlace. Si en algún punto de ese enlace lineal queremos extraer o agregar algún tributario al flujo, hemos de situar para ello un nodo que de inserción/extracción, denominado “Add / Drop Multiplexer” (ADM), o Insertor/extractor de canales. Tendremos entonces una configuración denominada combinación lineal. Los ADM poseen dos tipos de interfaces: Los troncales (“trunk”) se emplean para interconectar con multiplexores (MUX) y otros ADMs. Los tributarios (“tributary”) se emplean para conectar equipos de clientes, TM, routers IP, conmutadores ATM, y otro tipo de equipos de otras capas cliente de la SDH a los ADM. Una configuración muy típica en redes de fibra óptica SDH, es la de anillo, puesto que su topología física la hace robusta frente a cortes de los enlaces. En caso de emplear esta topología, los ADM incorporan funcionalidad extra para protección ante fallos. La configuración en anillo se puede emplear tanto en redes de acceso y metropolitanas, así como en el núcleo de la red. Hay dos tipos de anillos básicamente, el unidireccional, más usado en las redes de acceso, donde suele existir un nodo que actúa como hub o concentrador del tráfico que proviene o tiene como destino el resto, y el bidireccional de 2 ó 4 fibras, que se emplea más en el núcleo de la red, donde las velocidades son mayores y los nodos suelen ser de igual entidad jerárquica. Para interconectar anillos, ya sean de acceso, en el núcleo o una combinación de ambos, se utilizan los DXC, siglas de “Digital Cross Connect” (DCS en Estados Unidos) o Centrales de Conmutación Digitales en las centrales, CO´s de Central Office. Su función es interconectar flujos, y el control se realiza mediante software. Además, pueden monitorizar el tráfico que los atraviesa. Como se ha mencionado…..? Funciones. Los DXC pueden tener capacidad también de multiplexar y demultiplexar tributarios en los agregados que interconectan. Inicialmente los DCS sólo podían conmutar canales de tipo PDH, hoy en día pueden conmutar canales completos de SDH. Los centrales DCS pueden tener cientos y hasta miles de puertos de entrada/salida. La operación principal que realiza un DCS se denomina grooming y se trata del agrupamiento conjunto del tráfico de características similares en cuanto a destino, calidad de servicio, tipo de tráfico, etc. Incluye diferentes funciones entre las que podemos destacar: 1) La multiplexación de tramas de baja velocidad a tramas de alta velocidad. 2) La extracción de tramas de baja velocidad desde tramas de alta velocidad y su posterior combinación atendiendo a diversos criterios.

Page 103: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

El tipo de agrupamiento que realiza un DCS está relacionado con la granularidad (velocidad de los canales más bajos) a la cual conmuta el tráfico. Por ejemplo, un DCS que conmute canales a 2 Mb/s (E1) realizará grooming de señales E1. Así tenemos:

“Narrowband DCS”: realizan grooming de señales E0 (64 Kb/s)

“Wideband DCS”: grooming de señales E1 (2 Mb/s)

Broadband DCS”: grooming de señales E3 (34 Mb/s) Los DCS tienen por lo general interfaces que van desde su velocidad de grooming hasta velocidades muchos más elevadas. Un ejemplo genérico de una red SDH. Varios anillos de acceso, de baja velocidad, se conectan al núcleo de la red de más alta capacidad mediante una DXC en una CO. Dicho DXC aparece también realizando funciones de ADM en dos anillos de acceso. Los anillos de acceso sueles ser unidireccionales, mientras que los del núcleo, por donde se requiere mayor capacidad, son bidireccionales. En el DXC de la parte superior del dibujo podemos ver un equipo como TM en enlace punto a punto, y un enlace del tipo combinación lineal. LECCION 5 Capa física SDH Existe una gran variedad de interfaces de nivel o capa física para SDH. Se diferencian en: a) La capacidad que pueden soportar. b) La máxima distancia de transmisión. Para clasificar las aplicaciones que son susceptibles de ser soportadas por dichos interfaces se emplean generalmente criterios de distancia y máximo nivel de pérdidas, descritos a continuación: a) “Intraoffice connections” (I): distancia de transmission < 2 Km b) “Short-Haul INteroffice connections” (S): distancias de 15 Km a la longitud de onda de 1300 nm y 40 Km a 1550 nm. c) “Long-Haul Interoffice connections” (L): distancias hasta 40 Km a 1300 nm y 80 Km a 1550 nm. d) “Very-Long-Haul Interoffice connections” (V): distanciaS HASTA 60 Km al 300nm y 120 Km a 1550 nm. e) “Ultra-Long_Haul interoffice connections” (U): distancias hasta 160 Km. En la normativa se especifican empleando las letras anteriores seguidas de dos números separados por un punto (ver tabla). El primer número especifica la velocidad de transmisión. Así, 1,4, 16 y 64 identifican STM-1, STM-4, STM-16 y STM-64, respectivamente. El segundo específica el tipo de fibra óptica empleada. Por ejemplo, -blanco o 1 –

corresponde a λ=1300nm y fibra estándar G.652,2 se corresponde con λ=1550nm y

fibra estándar G.652, 3 con λ=1550nm y fibra de dispersión desplazada G.653 y 5 con

λ=1550nm y fibra de dispersión desplazada no nula G.655.

Page 104: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

La normativa también incluye la posibilidad de especificar el tipo de fuente: LED, MLM (láser multimodo FP), SLM (Láser monomodo). Finalmente, se incluye la máxima dispersión tolerable según sea la fuente elegida, reservándose el término ffs para los interfaces de estudio posterior (“for further study”).

CAPITULO 2 REDES DWDM Introducción La tecnología del multiplexaje por división de onda densa (DWDM) está diseñada para crear troncales ópticas de nueva generación, que operan a velocidades del orden de megabits o terabits. Dicho salto revolucionario en cuanto al desempeño está garantizado por este método de multiplexaje, el cual es básicamente distinto del que utilizan las redes SDH. En las redes DWDM, la información en la fibra óptica se transmite de manera simultánea mediante numerosas ondas luminosas: lambdas (la forma de

designar la longitud de onda adoptada por la física: λ). Las redes DWDM trabajan de acuerdo con el principio de conmutación de circuitos y cada onda luminosa constituye un canal espectral independiente. Cada onda transporta su propia información. El equipo DWDM no está involucrado en forma directa en la resolución de problemas relacionados con la transmisión de datos en cada longitud de onda, esto es, en la selección del método para codificar la información y el protocolo de su transmisión. Sus principales funciones son las operaciones de multiplexaje y demultiplexaje, es decir, la combinación de diferentes ondas dentro del mismo flujo de señales y la separación de la función de cada canal espectral de la señal agregada. Los dispositivos DWDM más avanzados pueden también conmutar ondas. La tecnología DWDM no sólo es innovadora porque incrementa el límite de velocidad de la transmisión de datos a través de la fibra óptica decena de veces, sino también porque inicia una nueva era en las técnicas de multiplexaje y conmutación, ya que lleva a cabo estas operaciones a través de señales luminosas sin transformarlas en señales eléctricas. Los demás tipos de tecnologías que utilizan señales luminosas para transmitir información a través de fibras ópticas, como SDH o Gigabit Ethernet, deben transformar las señales ópticas en eléctricas y solamente hasta entonces pueden llevar a cabo las operaciones de multiplexaje y conmutación. La primera aplicación de la tecnología DWDM fue en troncales de larga distancia diseñada para conectar dos redes SDH. Con esta topología punto a punto más simple, la capacidad de los dispositivos DWDM para llevar a cabo la conmutación de ondas es redundante. Sin embargo, a medida que la tecnología avanza y la topología de la redes DWDM se hace más compleja, esta función es cada vez más necesaria. LECCION 1 Principios de operación

Page 105: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

En la actualidad, el equipo DWDM permite la transmisión, mediante el uso de una fibra óptica, de 32 o más ondas de varias longitudes en la ventana de transmisión de 1550 nm, donde cada onda puede transportar información a una velocidad de hasta 10 Gbps (cuando se utilizan los protocolos de STM o 10 Gigabit Ethernet para transmitir información a cualquier longitud de onda). Las investigaciones actuales tienen como objetivo incrementar la velocidad de transmisión de información en cada longitud de onda dentro del rango de 40 a 80 Gbps. El predecesor de DWDM fue la tecnología de multiplexaje por división de longitud de onda (WDM) la cual utiliza cuatro canales espectrales en la ventana de transmisión de 1310 a 1550 nm, con un espaciamiento entre las portadoras de 800 y 400 GHz. (Debido a que no existe una clasificación WDM estándar se pueden encontrar dichos sistemas con otras características). El multiplexaje DWDM se le denomina como denso debido a que utiliza una distancia significativamente más pequeña entre longitudes de onda que las empleadas en WDM. En la actualidad, la recomendación G.692 de la ITU-T define dos rejillas de frecuencias (longitud de onda) (es decir, conjuntos de frecuencias separadas entre sí por cierto valor):

Rejilla de frecuencias con un espaciamiento entre canales adyacentes de

100 GHz (∆λ = 0.8 nm), de acuerdo con el cual se usan 41 ondas en el rango de 1528.77 nm (196.1 THz) a 1560.61 nm (192.1 THz).

Rejillas de frecuencias con un espaciamiento de 50 GHz (∆λ = 0.4 nm), que permiten transmitir longitudes de onda en el mismo rango.

Algunas compañías también fabrican equipo conocido con el nombre de WDM de alta densidad, capaz de trabajar con un paso de frecuencia de 25 GHz (por el momento, son en esencia dispositivos experimentales, por lo cual no se fabrican en forma masiva). La implementación de rejillas de frecuencias con pasos de 50 y 25 GHz determina requerimientos muy estrictos al equipo DWDM, en especial cuando cada onda transporta señales a una velocidad de modulación de 10 Gbps o mayor (STM-64, 10GE o STM-256). De nuevo, cabe hacer énfasis en que la tecnología DWDM (como la WDM) no está involucrada en forma directa en la codificación de la información que se transporta en cada longitud de onda. Este problema fue resuelto por las tecnologías de las capas superiores, las cuales utilizan las longitudes de onda reservadas conforme se necesitan para transmitir información analógica o digital. Dichas tecnologías pueden ser SDH o 10 Gigabit Ethernet. En teoría, las bandas de 50 GHz o aun la de 25 GHz entre longitudes de onda adyacentes permiten que los datos sean transmitidos a una velocidad de 10 Gbps. Sin embargo, en este caso, es necesario garantizar una alta precisión de frecuencia y un mínimo valor de ancho espectral; además, se debe reducir el nivel de ruido con el fin de minimizar el efecto del traslapamiento de los espectros.

LECCION 2 Amplificadores

Page 106: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

El éxito de la tecnología DWDM en la práctica, cuyo equipo trabaja como troncal en las redes de la mayoría de los prestadores de servicio de comunicaciones más avanzados, ha determinado en muchos aspectos la aparición de los amplificadores de fibra óptica. Dichos dispositivos ópticos amplifican directamente las señales de luz en el rango de 1550 nm, con lo que eliminan la necesidad de la conversión intermedia de dichas señales a señales eléctricas, como es el caso de los regeneradores que se utilizan en las redes SDH. Además, los sistemas de regeneración de señales eléctricas son costosos y dependen del protocolo debido a que necesitan percibir un método específico de codificación de las señales. Los amplificadores ópticos, los cuales transmiten información “de manera transparente” permiten aumentar la velocidad de transmisión en la troncal sin tener que utilizar las unidades amplificadoras. La longitud de la sección entre dos unidades de amplificación óptica puede alcanzar un valor de 150 km o más, lo cual garantiza la eficiencia económica de las troncales DWDM, en las que la longitud de una sección de multiplexaje es de 600 a 3000 km, siempre y cuando se utilicen de uno a siete amplificadores ópticos intermedios. La recomendación G.692 del ITU-T define tres tipos de secciones amplificadoras (es decir, secciones entre dos multiplexores DWDM vecinos):

Larga (L): la sección abarca ocho tramos de enlace de comunicaciones por fibra óptica y siete amplificadores ópticos. La distancia máxima entre amplificadores es de hasta 80 km, lo que hace una longitud máxima de la sección igual a 640 km.

Muy larga (V): la sección incluye no más de cinco tramos de línea de comunicación por fibra óptica y cuatro amplificadores ópticos. La distancia máxima entre amplificadores es de hasta 120 km y la longitud máxima de la sección es de 600 km.

Ultralarga (U): la sección no contiene amplificadores intermedios y tiene una longitud de 160 km.

Las limitaciones en cuanto al número de secciones pasivas y sus longitudes están relacionadas con la degradación de la señal óptica durante el proceso de amplificación óptica. A pesar de que el amplificador óptico EDFA restablece la potencia de la señal, no compensa por completo el efecto de la dispersión cromática y otros efectos no lineales. Debido a lo anterior, en la construcción de troncales de larga distancia, es necesario instalar multiplexores DWDM entre las secciones amplificadoras. Éstos se encargan de regenerar la señal y la convierten a su forma eléctrica y, después, de nueva cuenta a su forma óptica. Con la finalidad de reducir los efectos no lineales, los sistemas DWDM también implican una limitación en la potencia de la señal. Los amplificadores ópticos no sólo se utilizan para incrementar la distancia entre multiplexores, sino que también se usan dentro de los multiplexores. Aunque el multiplexaje y la conmutación cruzada se llevan a cabo exclusivamente con herramientas ópticas sin transformar las señales a su forma eléctrica, las señales pierden potencia en el proceso de las conversiones ópticas pasivas y éstas deben amplificarse antes de ser enviadas hacia la línea.

Page 107: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Investigaciones recientes en el campo de los amplificadores ópticos han dado como consecuencia de la aparición de amplificadores que trabajan en el rango L (la cuarta ventana de transmisión), que va de los 1570 a los 1605 nm. El uso de este rango, así como la reducción del espaciamiento entre longitudes de onda de 50 y 25 GHz permiten que el número de longitudes de onda transmitidas de manera simultánea se incremente a 80 o más. Esto significa que es posible garantizar la transmisión de tráfico a velocidades de 800 Gbps, 1.6 Tbps en una dirección a través de una sola fibra óptica. El éxito de DWDM ha dado pie a la aparición de otra área tecnológica muy prometedora: las redes totalmente ópticas. En dichas redes, todas las operaciones relacionadas con el multiplexaje/ demultiplexaje y conmutación cruzada/ enrutamiento de la información del usuario se realizan sin transformar la señal óptica a una eléctrica. La eliminación de las transformaciones de la señal a su equivalente eléctrico garantiza la posibilidad de reducir de manera significativa los costos de la red. Por desgracia, el nivel actual de las tecnologías ópticas no es suficiente para construir redes totalmente ópticas en gran escala. Por lo tanto, el uso práctico de dichas redes está limitando por los segmentos ópticos por completo a través de os cuales la señal se regenera a nivel eléctrico. LECCION 3 Topologías Desde el punto de vista cronológico, la primera área de aplicación de DWDM (de manera similar a SDH) fue la construcción de troncales de alta velocidad y de longitud enorme con topología de cadena punto a punto (figura). Para administrar dicha troncal, es suficiente instalar multiplexores DWDM terminales en sus puntos extremos. En los puntos de tránsito se deberán instalar amplificadores ópticos si la distancia entre los puntos terminales excede las limitaciones de distancia.

Page 108: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

SDH

SDH

SDHT

SDH

SDH

SDH

B A A P

P A A B

T

MU

X

MU

X

T

T

T

T

T

T

T

EQUIPO DE

INTERCONEXION DE RED

(ROUTER /SWITCH)

MULTIPLEXOR TERMINAL

DWDMMULTIPLEXOR TERMINAL

DWDM

AMPLIFICADOR

OPTICO

AMPLIFICADOR

OPTICO

Un multiplexor terminal está formado por:

Una unidad multiplexora/ demultiplexora.

Un amplificador de entrada o impulsores (B).

Un preamplificador.

Un conjunto de transpondedores (T). Los transpondedores convierten las señales de entrada de las fuentes cuyas longitudes de onda no corresponden a la malla de frecuencias del multiplexor en ondas con la longitud requerida. Cuando el dispositivo conectado a la red DWDM puede generar la señal a una de las longitudes de onda soportadas por el multiplexor DWDM (de acuerdo con la rejilla de frecuencias de la recomendación G.692 de la ITU-T o la rejilla de frecuencias de un fabricante específico), los transponedores no se utilizan. En este caso, se dice que el dispositivo conectado a la red DWDM tiene una interfaz de colores. En el método proporcionado con anterioridad, el intercambio dúplex entre los usuarios de la red se lleva a cabo a costa de la transmisión unidireccional de todas las ondas que pasan a través de las dos fibras. Existe otra variante de la operación de las redes DWDM cuando sólo se utiliza una fibra para realizar la comunicación entre nodos. El modo dúplex en este caso se garantiza por la transmisión de señales bidireccionales al emplear fibra: la mitad de las ondas del plan de frecuencias transmiten información en una dirección, y la otra mitad de las ondas utilizadas para la transmisión de datos en la dirección opuesta.

Page 109: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Red con conexión intermedia: la red en la que los nodos de transito llevan a cabo funciones de multiplexores de adicionar/quitar es un diseño natural de la topología anterior.

SDH

SDHSDH

A A

A A

MU

X

MU

X

OADM OADM

SDH

SDH

SDH

SDH

SDH

SDH

SDH

SDH

SDH

λK λM

λ2

λN

λ3

λ1

λI λJ

λ2

λN

λ3

λ1

Multiplexores ópticos de adicionar/quitar: los OADM pueden separar (quitar) una onda de una longitud especifica de la señal óptica agregada y adicionar ahí una señal de la misma longitud de onda de tal modo que el espectro de la señal de transito no cambie y la conexión pueda establecerse con uno de los abonados conectados a un multiplexor de tránsito. El OADM puede agregar o quitar ya sea por métodos ópticos o al convertir la señal a una forma eléctrica. Por lo general, los multiplexores de agregar/quitar totalmente ópticos (pasivos) puede eliminar un pequeño número de ondas. Esto se debe a que cada operación de remoción requiere que la señal óptica pase a través del filtro óptico, el cual incrementa la atenuación de la señal. Si el multiplexor utiliza regeneración eléctrica de la señal se podrá eliminar cualquier número de ondas dentro de los límites del grupo de longitudes de onda disponibles, ya que la señal óptica de transito fue totalmente demultiplexada con anterioridad.

Page 110: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Anillo: la topología de anillo garantiza la supervivencia de la red DWDM debido a la presencia de trayectorias reservadas. Los métodos para desproteger el tráfico que se utilizan en DWDM son similares a los SDH. Para resguardar una conexión específica se establecen dos trayectorias entre sus puntos terminales: el principal y el de protección. El multiplexor del punto terminal compara dos canales y selecciona la señal de mejor calidad (o la señal por omisión).

SDH

SDHSDH

SDH

SDH

SDH

OADM

OADM

OADM

OADM

Topología en malla: con la evolución de las redes DWDM, la topología en malla se utilizara en su diseño con más frecuencia debido a que esta asegura una flexibilidad, desempeño y tolerancia a fallas mayor que otras topologías. Sin embargo, implementar la topología en malla requiere del empleo de conexiones cruzadas ópticas (OXC). Las OXC no solamente agregan y quitan ondas a y de la señal de transito agregada, como lo hacen los multiplexores adicionar/quitar, sino también soportan la conmutación arbitraria entre las señales ópticas transmitidas por las ondas de diferentes longitudes.

LECCION 4 Multiplexores ópticos Un multiplexor óptico multiplexa varias longitudes de onda en una señal agregada común y va quitando las ondas de diferentes longitudes de la señal agregada.

Page 111: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Para la remoción de ondas, el multiplexor puede utilizar varios mecanismos ópticos. En los multiplexores ópticos que soportan un número relativamente pequeño de longitudes de onda, por lo general de 16 a 32, se utilizan filtros de película delgada, los cuales forman las placas con un recubrimiento multicapa. En la práctica, los extremos de las fibras ópticas inclinados en un ángulo de 30 y 45º y cubiertos con varias capas de recubrimiento se usan como filtros de película delgada. Para los sistemas con mayor número de longitudes de onda se requieren otros métodos de multiplexaje y filtrado. En los multiplexores DWDM se utilizan las rejillas de difracción de fase integrales o rejillas de arreglo de guías de onda (AWG). Las funciones de las placas las llevan a cabo las guías de onda óptica o las fibras. La señal entrante multiplexada es enviada al puerto de entrada. A continuación esta señal pasa a través de la guía de ondas de la placa y se distribuye hacia un conjunto de guías de onda que representan la difracción de la estructura AWG. La señal en cada guía de onda sigue siendo la multiplexada y cada

canal (λ1, λ2,…, λN) sigue presente en todas las guías de onda. Más adelante, las señales son reflejadas de la placa espejo y, por último, los rayos de luz se concentran de nuevo en la guía de onda de la placa. En este lugar, los rayos se enfocan y se lleva a cabo la interferencia. Como resultado, aparece la máxima interferencia, la cual se distribuye en el espacio. Dicha intensidad máxima corresponde a canales diferentes. La geometría de la guía de onda de placas – en particular, las posiciones de los polos de salida y los valores de las longitudes de las guías de onda AWG – se calcula para hacer que los máximos de interferencia coincidan con los polos de salida. El myltiplexaje se lleva a cabo siguiendo el proceso inverso. Otro método para construir el multiplexor se basa en el par de placas de guías de onda. El principio de operación de dicho dispositivo es similar al caso anterior, excepto por la placa adicional utilizada para efecto de enfoque e interferencia. Las rejillas AWG integrales (también conocidas como fasores) se convirtieron en uno de los elementos claves de los multiplexores DWDM. Por lo general, se emplean para el demultiplexaje total de las señales luminosas, pues estas pueden escalarse con éxito y son capaces de trabajar muy bien en sistemas con cientos de canales espectrales. LECCION 5 Conexiones cruzadas En las redes con topología en malla es necesario asegurar las características de flexibilidad para cambiar la ruta de las conexiones de las ondas entre los abonados de la red. Dichas características son garantizadas por los OXC, los cuales permiten que cualquiera de las ondas de la señal de entrada a cualquier puerto se envie a cualquiera de los puertos de salida (siempre y cuando ninguna otra señal de este puerto utilice dichas ondas; de otra forma, será necesario traducir la longitud de onda). Los OXC están dentro de las dos categorías siguientes

OXC con conversión intermedia de la señal a su forma eléctrica

OXC totalmente ópticos

Page 112: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Las conexiones cruzadas optoelectrónicas fueron las primeras en aparecer y se nombraron OXC. Por lo tanto, los fabricantes de dispositivos totalmente ópticos de este tipo trataron de usar diferentes nombres para sus productos, como switches fotonicos, ruteadores de ondas o ruteadores de lambda. Los OXC tienen una limitación principal: llevan a cabo su función de manera adecuada cuando trabajan a velocidades hasta 2,5 Gbps; sin embargo, al comenzar a una velocidad de 10 Gbps, los tamaños de estos dispositivos, los tamaños de estos dispositivos y su consumo de energía exceden todos los limites. En los switches fotonicos, esta limitación no existe. Con los switches fotonicos se utilizan varios mecanismos ópticos, incluidos las rejillas de difracción de fase y los sistemas micro electromecánicos (MEMS). Los MEMS son el conjunto de pequeños espejos en movimiento, con no más de 1mm de diámetro. El interruptor MEMS se usa después del demultiplexor, donde la señal fuente se ha dividido en ondas componentes. Mediante el giro de un pequeño espejo a un ángulo específico, el rayo de la fuente de una longitud de onda específica se envía hacia la fibra de salida que le corresponde. Después todos los rayos se multiplexan en la señal de salida agregada. En comparación con los OXC, los switches fotonicos son cerca de 30 veces más pequeños y consumen alrededor de 100 veces menos energía. Sin embargo, este tipo de dispositivo tiene sus desventajas y una de las más importantes es su lenta respuesta y su sensibilidad a la vibración; no obstante, los MEMS se usan ampliamente en nuevos modelos de switches fotonicos. En la actualidad, dichos dispositivos son capaces de garantizar la conmutación de canales espectrales de 256 × 256, y la aparición en el mercado de dispositivos que permitan conmutar 1024 × 1024 o mayores se espera en el corto plazo.

CAPITULO 3 REDES DE ACCESO Introducción LECCION 1 xDSL Las tecnologías DSL son tecnologías que permiten transmitir información digital a alta velocidad sobre las líneas telefónicas ya existentes en los hogares y los negocios. Ofrecen conexión permanente con velocidades que van desde los 100 Kbps hasta los 52 Mbps (descendentes). Pero su aplicación en un punto determinado está limitado por factores como la distancia entre la central telefónica local y la vivienda, el calibre del cable telefónico y el tipo de tecnología DSL, entre otros. Existen dos tipos de tecnologías DSL, asimétricas o simétricas en función de la capacidad de transmitir datos desde y hacia el usuario. Las ventajas de las diferentes tecnologías DSL dependen de su uso para un usuario final o comercial.

El factor común de todas las tecnologías DSL es que funcionan sobre el par trenzado del cable telefónico y usan la modulación para alcanzar elevadas velocidades de transmisión. Las diferentes tecnologías se caracterizan por la

Page 113: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

relación entre la distancia alcanzada entre módems, velocidad y simetrías entre el tráfico de descendente (red-usuario) y el ascendente (usuario-red).

ADSL : es un tipo de tecnología asimétrica, esto es, el ancho de banda de bajada es superior al de subida y, por tanto, se trata de una tecnología óptima para la navegación web y los usos más típicos de Internet, ofreciendo velocidades hasta los 8-10 Mbps de bajada y hasta 1Mbps de subida. Se trata de una tecnología adecuada para el uso residencial ya que posibilita a los usuarios llamar por teléfono y navegar por Internet de forma simultánea.

ADSL G.Lite es una tecnología que extiende el alcance de ADSL a costa de una menor velocidad. G.Lite puede alcanzar los 5.4Km de distancia pero su velocidad máxima está limitada a 1.3Mbps de bajada y los 512Kbps de subida. Habitualmente G.Lite se ha utilizado para conectar usuarios que eran inaccesibles por distancia previamente mediante el estándar ADSL.

VDSL es la modalidad más rápida de las tecnologías xDSL ya que puede alcanzar una velocidad de entre 13 y 52 Mbps desde la central hasta el abonado y de 1,5 a 2,3 Mbps en sentido contrario, por lo que se trata de un tipo de conexión también asimétrica. La máxima distancia que puede haber entre los dos módems VDSL no puede superar los 1.371 metros.

HDSL es una tecnología DSL de alta velocidad simétrica y bidireccional por lo que la velocidad desde la central al usuario y viceversa será la misma. Las conexiones HDSL son más apropiadas para servidores (web, FTP, ficheros) y otros usos comerciales, como la videoconferencia, que requieren altas velocidades en ambos sentidos. HDSL utiliza el par de cobre para enviar y recibir datos a través de dos bandas, lo que permite velocidades superiores a los 2.3Mbps en ambos sentidos. Incluyendo un segundo par de cobre, las tecnologías HDSL pueden proporcionar velocidades de hasta 4.6Mbps en cada sentido. Estas velocidades son posibles hasta una distancia de unos 3Km siendo los tasas de transferencia inferiores para distancias mayores. Las dos bandas de frecuencias utilizadas por las tecnologías SHDSL ocupan la zona de bajas frecuencias haciendo imposible el

Page 114: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

envío simultáneo de voz como en el caso de ADSL. La falta de la capacidad para proporcionar voz impone unos costes de instalación significativos en el lazo local. Así, HDSL está enfocado principalmente hacia usos empresariales (interconexión de nodos proveedores de Internet, redes privadas de datos, enlaces entre centralitas, etc.) más que hacia el usuario (cuyas necesidades se verán mejor cubiertas por las tecnologías ADSL y SDSL.

ADSL2 y ADSL2+ son actualmente las tecnologías de banda ancha más utilizadas en el mundo que han mejorado las características de velocidad, alcance y consumo energético de la versión ADSL original. ADSL2 puede proporcionar entre 8 y 12Mbps extendiendo el alcance de la tecnología ADSL original unos 300metros. ADSL2+ ofrece velocidades hasta los 16Mbps a una distancia de unos 1.5Km.

Ventajas: 1. Conexión ininterrumpida 2. Velocidad: se aprovecha al máximo el ancho de banda del par existente para

conseguir velocidades de varios Mbps en canal descendente 3. Flexibilidad: no son necesarios cableados adicionales como con otras tecnologías

dado que las tecnologías DSL se basan en las infraestructuras telefónicas existentes.

4. El operador propietario del bucle de abonado (líneas de pares de cobre) es capaz de ofrecer DSL en la mayor parte de sus líneas.

Limitaciones: 1. La velocidad de bajada depende de numerosos factores, entre otros: la distancia

a la central, el calibre del cable, la presencia de empalmes, interferencias, etc. 2. Existe un ahorro de costes inicial pero la infraestructura se explota al máximo y

puede ser limitada para el futuro. 3. Las redes existentes fueron creadas para transmitir voz. 4. Las diferentes opciones de DSL son incompatibles.

LECCION 2 HFC HFC es una tecnología de telecomunicaciones en la cual el cable de fibra óptica y el cable coaxial se utilizan en diversos tramos de la red para transportar el contenido de banda ancha (tales como vídeo, datos, y voz). Mediante HFC, las compañías de cable instalan fibra óptica desde la cabecera (centro de distribución) hasta nodos próximos a los abonados residenciales. Desde estos nodos se distribuye el contenido mediante cable coaxial a los hogares. Las redes de cable se diseñaron originalmente para la transmisión de vídeo. Las compañías de cable proporcionaban vídeo que era transmitido hasta los usuarios. Sin embargo, con el desarrollo de las redes, los nuevos equipos han hecho posible enviar datos en ambos sentidos sobre la red de cable, haciendo así posible el acceso a Internet sobre estas infraestructuras. Una red de acceso HFC está constituida por tres partes principales:

Elementos de red: dispositivos específicos para cada servicio que el operador conecta tanto en los puntos de origen de servicio como en los puntos de acceso al servicio.

Page 115: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Infraestructura HFC: incluye la fibra óptica y el cable coaxial, los transmisores ópticos, los nodos ópticos, los amplificadores de radiofrecuencia, taps y elementos pasivos.

Terminal de usuario: set-top-box, cablemodems y unidades para integrar el servicio telefónico.

Todos los usuarios de cable de un área pequeña comparten los mismos canales para enviar y recibir datos, y la cantidad de ancho de banda que dichos usuarios reciben está sujeto a la cantidad de ancho de banda que estén utilizando sus vecinos. En el caso hipotético de que ningún otro usuario estuviera usando un nodo de cable en un momento determinado, un usuario de cable podría teóricamente disponer de todo el ancho de banda combinado disponible para él y sus vecinos. Por el contrario, en el caso de un uso elevado, los usuarios de cable-modem podrían sufrir reducciones significativas de ancho de banda. Una cifra típica de transmisión puede ser una tasa binaria de 30 Mbps con un retorno variable de 128 kbps a 10 Mbps (dependiendo del sistema) [compartidos]. Ventajas

1. Redes muy fiables, de muy alta capacidad y capaces de prestar todo tipo de servicios interactivos.

2. Redes atractivas desde el punto de vista de negocio para entornos urbanos densos.

3. Ventajas derivadas del cableado: seguridad, robustez, resistencia a interferencias y no compartición de espectro con otros operadores.

4. Escalabilidad: oportunidad de aumentar la capacidad ofrecida al usuario acercando la fibra óptica al hogar a medida que crece la demanda de ancho de banda y bajan los costes de los equipos ópticos.

Limitaciones: 1. Complicaciones importantes en la en obra civil (zanjas, permisos, etc.) que

implican elevados costes. 2. Baja rentabilidad económica en zonas rurales y poblaciones muy dispersas. 3. Gran inversión inicial en infraestructura. 4. Canal de retorno, a través de la propia red de cable tiene altos niveles de ruido e

interferencias. Se requieren modulaciones poco eficientes pero robustas, códigos de corrección de errores y monitorización de canales.

5. La incorporación de nuevos usuarios condiciona el despliegue de red (hogares pasados).

LECCION 3 Fiber To The x (FTTx) La fibra óptica es, en la actualidad, la guía de onda comercial con mayor capacidad de transmisión en términos de ancho de banda y resistencia al ruido electromagnético. El acrónimo FTTx es conocido ampliamente como Fibre-to-the-x, donde x puede denotar distintos destinos. Los más importantes son: FTTH (home). En FTTH o fibra hasta el hogar, la fibra llega hasta el interior o fachada de la misma casa u oficina del abonado

Page 116: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

FTTE (Fiber To The Enclosure): fibra hasta el armario de distribución. FTTC (Fiber To The Curb): fibra hasta la acera. FTTB (building). En FTTB o fibra hasta el edificio, la fibra termina antes, típicamente en un punto de distribución intermedio en el interior o inmediaciones del edificio de los abonados. Desde este punto de distribución intermedio, se accede a los abonados finales del edificio o de la casa mediante la tecnología VDSL2 (Very high bit-rate Digital Subscriber Line 2) sobre par de cobre o Gigabit Ethernet sobre par trenzado CAT5. De este modo, el tendido de fibra puede hacerse de forma progresiva, en menos tiempo y con menor coste, reutilizando la infraestructura del abonado. FTTN (node o neighborhood). En FTTN o fibra hasta el vecindario, la fibra termina más lejos de los abonados que en FTTH y FTTB, típicamente en las inmediaciones del barrio.

Existen varias soluciones tecnológicas para ofrecer FTTx. Estas opciones suelen ser divididas en dos amplias categorías: PON (Passive Optical Networks), que no requieren de componentes electrónicos activos entre el usuario final y la central del operador; y ASON (Active Optical Network), donde hay instalados componentes electrónicos activos entre el usuario final y la central del operador. Las tecnologías PON (Passive Optical Networks) y, en especial GPON (Gigabit PON), son las que más atención han suscitado, pues al no requerir de dispositivos electrónicos u optoelectrónicos activos para la conexión entre el abonado y la central, suponen una inversión y unos costes de mantenimiento considerablemente menores que las tecnologías ASON. La selección de la tecnología de fibra óptica y arquitectura adecuada depende de varios factores: disponibilidad y calidad de cobre en esa área, densidad de usuarios, estado competitivo o de colaboración con otros operadores, qué servicios y ancho de banda se quieren ofrecer, cuantía de inversión disponible y periodo de retorno aceptable, entorno regulatorio, etc. LECCION 4 GPON Las redes ópticas pasivas (del inglés Passive Optical Network, conocida como PON) no tienen componentes activos entre el servidor y el cliente o abonado. En su lugar se encuentran (divisores ópticos pasivos) o splitters. La utilización de sistemas pasivos reduce considerablemente las inversiones y los costes de conservación. La arquitectura de GPON es conceptualmente similar a la de una recomendación anterior (BPON, Broadband PON). Se han mejorado aspectos referidos a la gestión de servicios y a la seguridad pero, sobre todo, GPON ofrece tasas de transferencia de hasta 1,25 Gbps en caudales simétricos o de hasta 2,5 Gbps para el canal descendente en caudales asimétricos. Estructura y funcionamiento de una red PON Una red óptica pasiva está formada básicamente por:

Un módulo OLT (Optical Line Terminal - Unidad Óptica Terminal de Línea) que se encuentra en el nodo central.

Page 117: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Uno o varios divisores ópticos (splitter) que sirven para ramificar la red de fibra óptica.

Tantas ONUs (Optical Network Unit - Unidad Óptica de Usuario) como viviendas. La transmisión se realiza entre la OLT y la ONU.

En definitiva, PON trabaja compartiendo la capacidad entre las ONU de los usuarios, para lo que necesita utilizar dos frecuencias, una para el canal ascendente y otra para el descendente.

Características técnicas Para que no se produzcan interferencias entre los contenidos en canal descendente y ascendente se utilizan dos longitudes de onda diferentes superpuestas utilizando técnicas WDM (Wavelength Division Multiplexing). Al utilizar longitudes diferentes es necesario, por lo tanto, el uso de filtros ópticos para separarlas. Finalmente, las redes ópticas pasivas han de estar ajustadas en función de la distancia entre el usuario y la central, el número de splitters y su atenuación; de tal manera, que para que el nivel luminoso que reciba cada ONU esté dentro de los márgenes, o bien se ajusta la el nivel del láser o la atenuación de los splitters.

Canal descendente En canal descendente, una red PON es va desde el OLT hacia el ONU de usuario, en forma de red punto-multipunto donde la OLT envía una serie de contenidos que pasan por los divisores y llegan a las unidades ONU, cuyo objetivo es el de filtrar los contenidos y enviar al usuario sólo aquellos que vayan dirigidos a él. Se utiliza una multiplexación en el tiempo (TDM) para enviar la información en diferentes instantes de tiempo. Canal ascendente En canal ascendente una PON es una red punto a punto donde las diferentes ONUs transmiten contenidos a la OLT. Por este motivo también es necesario el uso de TDMA para que cada ONU envíe la información en diferentes instantes de tiempo, controlados por la unidad OLT. Al mismo tiempo, todos las ONU se sincronizan a través de un proceso conocido como "Ranging". Ventajas de las redes ópticas pasivas (PON)

Aumenta el alcance hasta los 20 km (desde la central). Con tecnologías xDSL como máximo se alcanzan los 5,5 km

Ofrecen mayor ancho de banda Mejora la calidad del servicio debido a la inmunidad que presenta la fibra frente a

los ruidos electromagnéticos. Se simplifica el despliegue de fibra óptica gracias a su topología Se reduce el consumo por no haber equipos activos Más baratas que las punto a punto

LECCION 5 Metro Ethernet

Page 118: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

La Red Metro Ethernet, es una arquitectura tecnológica destinada a suministrar servicios de conectividad MAN/WAN de nivel 2, a través de UNIs Ethernet. Estas redes denominadas "multiservicio", soportan una amplia gama de servicios, aplicaciones, contando con mecanismos donde se incluye soporte a tráfico "RTP" (tiempo real), como puede ser Telefonía IP y Video IP, este tipo de tráfico resulta especialmente sensible a retardo, al jitter y al grudge. La utilización de las líneas de cobre (MAN BUCLE), garantiza el despliegue de un punto de red ethernet, en cualquier punto del casco urbano. Las redes Metro Ethernet, están soportadas principalmente por medios de transmisión guiados, como son el cobre (MAN BUCLE) y la fibra óptica, existiendo también soluciones de radio licenciada, los caudales proporcionados son de 10Mbps, 20Mbps, 34Mbps, 100Mbps, 1Gbps y 10Gbps. La tecnología de agregación de múltiples pares de cobre, (MAN BUCLE), permite la entrega de entre 10 Mbps, 20 Mbps, 34Mbps y 100Mbps, mediante la transmisión simultánea de múltiples líneas de cobre, además esta técnica cuenta con muy alta disponibilidad ya que imposible la rotura de todas las líneas de cobre y en caso de rotura parcial el enlace sigue transmitiendo y reduce el ancho de banda de forma proporcional. La fibra óptica y el cobre, se complementan de forma ideal en el ámbito metropolitano, ofreciendo cobertura total a cualquier servicio, a desplegar Los beneficios que Metro Ethernet ofrece son:

Presencia y capilaridad prácticamente "universal" en el ámbito metropolitano, en especial gracias a la disponibilidad de las líneas de cobre, con cobertura universal en el ámbito del urbano.

Muy alta fiabilidad, ya que los enlaces de cobre certificados Metro Ethernet, están constituidos por múltiples pares de en líneas de cobre (MAN BUCLE) y los enlaces de Fibra Óptica, se configuran mediante Spanning tree (activo-pasivo) o LACP (caudal Agregado).

Fácil uso: Interconectando con Ethernet se simplifica las operaciones de red, administración, manejo y actualización

Economía: los servicios Ethernet reducen el capital de suscripción y operación de tres formas:

o Amplio uso: se emplean interfaces Ethernet que son la más difundidas para las soluciones de Networking

o Bajo costo: Los servicios Ethernet ofrecen un bajo costo en la administración, operación y funcionamiento de la red.

o Ancho de banda: Los servicios Ethernet permiten a los usuarios acceder a conexiones de banda ancha a menor costo.

Flexibilidad: Las redes de conectividad mediante Ethernet permiten modificar y manipular de una manera más dinámica, versátil y eficiente, el ancho de banda y la cantidad de usuarios en corto tiempo.

El modelo básico de los servicios Metro Ethernet, está compuesto por una Red switcheada MEN (Metro Ethernet Network), ofrecida por el proveedor de servicios; los usuarios acceden a la red mediante CEs (Customer Equipment), CE puede ser un router; Bridge IEEE 802.1Q (switch) que se conectan a través de UNIs (User Network Interface) a velocidades de 10Mbps, 20Mbps, 34Mbps, 100Mbps, 1Gbps y 10Gbps.

Page 119: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

Los organismos de estandarización (IEEE, IETF, ITU) y los acuerdos entre fabricantes, están jugando un papel determinante en su evolución. Incluso se ha creado el MEF (Metro Ethernet Forum), organismo dedicado únicamente a definir Ethernet como servicio metropolitano. EVC (Ethernet Virtual Connection) Un EVC es la asociación entre una o más interfaces UNIs (User Network Interface). Es un tubo virtual que proporciona al usuario servicio extremo a extremo atravesando múltiples redes MEN (Metro Ethernet Network). Un EVC tiene dos funciones: • Conectar dos o más sitios (UNIs) habilitando la transferencia de tramas Ethernet entre ellos. • Impedir la transferencia de datos entre usuarios que no son parte del mismo EVC, permitiendo privacidad y seguridad. Un EVC puede ser usado para construir VPN (Virtual Private Network) de nivel 2. El MEF (Metro Ethernet Forum) ha definido dos tipos de EVC: • Punto a Punto (E-Line) • Multipunto a Multipunto (E-LAN) E-LINE El servicio E-Line proporciona un EVC punto a punto entre dos interfaces UNI (User Network Interface). Se utiliza para proporcionar una conexión Ethernet punto a punto. Dentro del tipo de servicio E-Line se incluye una amplia gama de servicios. El más sencillo consistente en un ancho de banda simétrico para transmisión de datos en ambas direcciones y no fiable, entre dos interfaces UNI a 10 Mbps. Un servicio más sofisticado considerado dentro del tipo de servicio E-Line sería, por ejemplo, una línea E-Line, que ofrezca una CIR concreta junto con una CBS, y una EIR junto con una EBS, y un retardo, variación del retardo y ver máximos asegurados entre dos interfaces UNI.

E-LAN El tipo de servicio E-LAN proporciona conectividad multipunto a multipunto. Conecta dos o más interfaces UNI (User Network Interface). Los datos enviados desde un UNI llegarán a 1 ó más UNI destino. Cada uno de ellos está conectado a un EVC multipunto. A medida que va creciendo la red y se van añadiendo más interfaces UNI, éstos se conectarán al mismo EVC multipunto, simplificando enormemente la configuración de la misma. Desde el punto de vista del usuario, la E-LAN se comporta como una LAN. Su estructura esta basa en modelo de capas, las capas que lo conforman son: Core, Distribución, y acceso. Atributos de los servicios Metro Ethernet Los atributos se definen como las capacidades de los diferentes tipos de servicio. Algunos atributos aplican a los puntos de acceso UNI (User Network Interface), mientras que otros a los canales virtuales (EVC). Para los puntos de acceso (UNI) aplican los siguientes atributos: - Medio físico: son los especificados en el estándar 802.3 – 2000. Ejemplos de medios físicos incluye 10Base-T, 100Base-T, 1000 Base-SX.

Page 120: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

- Velocidad: las velocidades son las especificadas en el estándar Ethernet son las características de la "negociación ethernet, añadiéndose algunos valores intermedios: 10Mbps, 20Mbps, 45Mbps, 100Mbps, 1Gbps y 10Gbps. - Modo: un enlace puede soportar Full Duplex, Half Duplex o auto negociación. - Capa MAC: las especificadas en IEEE 802.3 – 2000. Características del ancho de banda Para Metro Ethernet se tienen en cuenta los siguientes parámetros: • CIR (Committed Information Rate): es la cantidad promedio de información que se ha transmitido, teniendo en cuenta los retardos, pérdidas, etc. • CBS (Committed Burst Size): es el tamaño de la información utilizado para obtener el CIR respectivo. • EIR (Excess Information Rate): especifica la cantidad de información mayor o igual que el CIR, hasta el cual las tramas son transmitidas sin pérdidas. • EBS (Excess Burst Size): es el tamaño de información que se necesita para obtener el EIR determinado.

Page 121: universidad nacional abierta ya distancia escuela de ciencias ...

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS CONTENIDO DIDÁCTICO DEL CURSO: 208004 – REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II

FUENTES DOCUMENTALES DE LA UNIDAD 3 Stallings, W. (2004). “Redes e Internet de Alta Velocidad, Rendimiento y Calidad de Servicio". 2ª Edición. Editorial Prentice Hall. Kurose, James F. Ross, Keith w. (2010). Redes de Computadoras (5ta Edición). Pearson Educación Forouzan, Behrouz A. (2006). Transmisión de datos y redes de comunicaciones / Behrouz A. Forouzan; traducción Jesús Carretero Pérez, Félix García Carballeira. Edición: 4a. ed. Editor Carmelo Sánchez González. Editorial: Madrid: McGraw-Hill. Capmany Francoy, José. (2007). Redes ópticas / José Capmany Francoy, Beatriz Ortega Tamarit. Editorial: México: Limusa: Universidad Politécnica de Valencia.