Manual Redes Convergentes

206
Redes Convergentes

Transcript of Manual Redes Convergentes

Page 1: Manual Redes Convergentes

Redes Convergentes

Page 2: Manual Redes Convergentes

2

CARRERAS PROFESIONALES CIBERTEC

Page 3: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

3

CIBERTEC CARRERAS PROFESIONALES

INDICE

Presentación 5

Red de contenidos 6

Sesion de aprendizaje

Semana 1 : Requerimientos de Conectividad de Redes

Convergentes

7

Semana 2 : Implementación de Cisco VoIP 23

Semana 3 : Introducción a IP QoS 67

Semana 4 : Implementación del modelo QoS Servicios

Diferenciados

97

Semana 5 : Implementación de Cisco AutoQoS 167

Page 4: Manual Redes Convergentes

4

CARRERAS PROFESIONALES CIBERTEC

Page 5: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

5

CIBERTEC CARRERAS PROFESIONALES

PRESENTACIÓN

El presente manual correspondiente al curso de Redes Convergentes, ofrece una visión integral de las redes convergentes, tema de bastante actualidad debido a la tendencia cada vez mayor de las empresas, de utilizar las redes de datos para ofrecer a sus usuarios la posibilidad de comunicación de voz, video y datos. En este manual se detallan los requerimientos fundamentales para implementar este tipo de servicios, especialmente el transporte de Voz sobre IP, describiendo los elementos necesarios para la implementación y la arquitectura de esta red. Con el mismo objetivo, se describen los diferentes mecanismos de Calidad de Servicio (QoS) que se deben implementar en redes IP, sobre todo basándonos en el modelo de Servicios Diferenciados (DiffServ) y las diferentes modalidades de implementación, incluyendo la configuración automática o AutoQoS. En resumen, este manual es un importante aporte para el desarrollo del curso de Redes Convergentes y a su vez para realizar despliegues de red y servicios convergentes sobre redes IP.

Page 6: Manual Redes Convergentes

6

CARRERAS PROFESIONALES CIBERTEC

RED DE CONTENIDOS

Redes Convergentes

Requerimientos de Redes

Convergentes

Servicios de Red

Convergencia

sobre IP

Voz sobre IP

Señalización y

protocolos VoIP

Telefonía IP,

arquitectura y

topologias

Calidad de

Servicio

Introducción

Configuración y

AutoQoS

Page 7: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

7

CIBERTEC CARRERAS PROFESIONALES

REQUERIMIENTOS DE CONECTIVIDAD DE REDES CONVERGENTES

OBJETIVOS ESPECÌFICOS

• Describir el concepto de las redes convergentes que llevan voz, vídeo, y datos.

TEMARIO

• La primera lección describe la red telefónica tradicional y define muchos de los términos y los conceptos heredados que afectan las tecnologías de convergencia de red presentados en este curso.

• La segunda lección ilustra el concepto de redes convergentes con ejemplos

de arquitecturas y modelos de la red que acomodan los servicios integrados dentro de redes convergentes.

ACTIVIDADES PROPUESTAS

• Buscar información sobre términos desconocidos del mundo de la telefonía tradicional.

S E M A N A

1

Page 8: Manual Redes Convergentes

8

CARRERAS PROFESIONALES CIBERTEC

1.1 EVOLUCIÓN DE LA TELEFONÍA EN LAS EMPRESAS Los gobiernos y las organizaciones comerciales han utilizado los servicios

telefónicos por más de 100 años. Durante ese tiempo, las tecnologías han avanzado para proveer más servicios, más confiabilidad, y un costo más bajo al público y a los clientes. En la última década, con avances enormes en tecnología de computación y del establecimiento de una red, la capacidad para que las empresas utilicen las nuevas oportunidades exige que los servicios de voz, vídeo, y datos sean convergentes sobre una sola red.

1.1.1 Un sistema telefónico básico

Los negocios han utilizado el teléfono por más de 100 años. En este período, ha habido muchos cambios significativos al equipo que se utiliza y a las compañías que proporcionan los servicios. VoIP se está convirtiendo hoy rápidamente en la tecnología clave. Sin embargo, es importante repasar más allá de tecnologías puesto que pueden tener impacto significativo en el despliegue de la red dentro de la empresa. Un sistema telefónico consiste en cuatro elementos según las indicaciones de figura: • Cada abonado utiliza un sistema telefónico que convierte el

sonido en señales eléctricas y al otro extremo otra vez a sonido. La base tiene que marcar para iniciar la llamada y el timbrado que el otro dispositivo realiza para notificar al usuario que una llamada de otro usuario se está recibiendo.

• Unos o más grupos de centrales permite la interconexión de las

instalaciones de conmutación o los switches telefónicos de abonados locales. Los switches telefónicos modernos utilizan la multiplexación de división de tiempo (TDM) para convertir señales analógicas a digitales. Los switches asignan estas señales convertidas a digital a las ranuras de tiempo apropiadas. Los switches interconectan circuitos digitales de voz y datos a la vez.

• Las instalaciones inter-exchange de la red de transporte

conectan múltiples switches a través de redes telefónicas. • El cableado y los cables conectan a los abonados con el switch. Hay tres maneras para que un abonado conecte con el switch telefónico: • La utilización de conexiones físicas dedicadas o cables • Subterráneos implica consumos indirectos • Por radio (celular, satélite o radioteléfono) • Usando VoIP

Page 9: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

9

CIBERTEC CARRERAS PROFESIONALES

1.1.2 Servicios de las empresas telefónicas tradici onales

La red telefónica pública (PSTN) en Norteamérica y los servicios postales, del teléfono y del telégrafo (PTT), llevan voz analógica sobre cables de cobre. Este servicio telefónico básico a menudo se llama POTS. En algunos lugares, los POTS significan el servicio telefónico de la oficina de correos o el sistema telefónico de la oficina de correos. Sin embargo, como los servicios telefónicos fueron poco a poco quitados del control de los servicios de correo nacionales, el término se conocía más extensamente como “antiguo servicio telefónico plano.” Los POTS siguen siendo la forma básica de servicio telefónico de la empresa residencial y pequeña casi por todas partes en el mundo. Hasta la introducción de la telefonía móvil, los POTS eran el único servicio telefónico que la mayoría de la gente conocía. Los POTS han estado disponibles casi desde la introducción del sistema telefónico a fines del siglo diecinueve. El servicio telefónico seguía siendo el mismo sobre todo sin cambios al usuario medio desde mediados del siglo XX, a pesar de la introducción de los switches telefónico electrónicos en el PSTN y PTT. Aquí están algunos de los servicios de los POTS que están disponibles: • Señales bidireccionales o full dúplex que llevan el sonido de voz

humana en ambos sentidos inmediatamente: • Señalización de tono de marcado y timbrado • Marcación por abonado • Servicios de operador, por ejemplo asistencia de directorios,

larga distancia, y conferencias.

Page 10: Manual Redes Convergentes

10

CARRERAS PROFESIONALES CIBERTEC

• Alimentación eléctrica al teléfono

1.1.3 Tecnologías de Telefonía Digital

La red telefónica conmutada pública (PSTN) se ha desarrollado hacia la telefonía digital y la capacidad y la calidad de la red ha mejorado. En los años 70, las compañías telefónicas (telcos) comenzaron a modificar sus redes telefónicas analógicas aumentando las secciones de transmisión de sus redes con tecnología de fibra óptica. La transmisión digital permitió llevar múltiples circuitos convertidos a digital en un solo medio de la transmisión (conocido como multiplexación). Aunque el equipo del usuario sigue siendo análogo en gran parte, los switches en la central telefónica convierten las señales analógicas a las señales binarias. Recientemente, los telcos comenzaron a mover sus redes digitales más cerca al cliente. Generalmente, los telcos ofrecen servicios de transporte digitales en una de dos formás. Integrated Services Digital Network (ISDN) proporciona un lazo digital al switch (o sede) a las ubicaciones del cliente. En Norteamérica y Japón, la tecnología del portador de la transmisión 1 (T1) proporciona líneas interurbanas entre los switches. Europa 1 (E1), usada en Europa, es un portador similar, aunque los dos servicios diferencian de estas maneras: • Las líneas T1 y E1 son conexiones telefónicas dedicadas que

soportan altas tasas de datos. El portador T1 es el servicio de transmisión digital de mayor uso general en los Estados Unidos, Canadá y Japón. El estándar E1 se utiliza en Europa y otras partes del mundo.

o Una línea T1 tiene 24 canales individuales, es capaz de soportar una llamada telefónica analógica. La capacidad total de una línea T1 es 1.544 Mbps. Los Internet Service Provider grandes (ISPs) utilizan comúnmente las líneas de la transmisión 3 (T3) que proporcionan 44.736 Mbps. Los circuitos T3 ahora son arrendados comúnmente por negocios pequeños y medios.

o Una línea E1 tiene 32 canales de 64 kbps y soporta un agregado de 2.048 Mbps.

o El T1 y E1 utilizan señales de la modulación de código de pulso (PCM) con la multiplexación de división de tiempo (TDM). Cada canal de 64 kbps se puede configurar para llevar voz o los datos trafican. Muchas compañías telefónicas ofrecen a clientes los canales individuales o el acceso fraccionario T1. El T1 se alinea el cable de cobre originalmente usado pero ahora también incluye medios ópticos e inalámbricos.

o Las líneas T1 son una opción de línea arrendada para los negocios que se conectan con el Internet y para ISPs que conecta con el backbone de Internet. En los días iniciales de Internet, era común para que ISPs conecte con el Internet como punto-de-presencia (POP) sobre una línea T1 gestiónada por una red telefónica importante. Muchos

Page 11: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

11

CIBERTEC CARRERAS PROFESIONALES

negocios también utilizan las líneas T1 (y T3) para conectar con un proveedor de acceso de Internet.

• El ISDN provee transmisión digital sobre el cable de cobre

telefónico así como sobre otros medios. o Conceptualmente, ISDN integra ambos tráficos análogo o

de voz con datos digitales sobre la misma red. Los usuarios de hogar y de negocios reciben datos a velocidades de hasta dos veces la tasa de una conexión por módem.

o ISDN requiere adaptadores en ambos extremos de la transmisión (extremo del cliente y del proveedor de servicio). La mayoría de las compañías telefónicas en áreas urbanas en Norteamérica y Europa pueden proveer ISDN. En muchas áreas donde los proveedores de servicio ofrecen la línea digital del abonado (DSL) y el servicio del módem de cable, el ISDN no es más una opción popular.

o Hay dos niveles de servicio del ISDN. Ambas tasas incluyen un número de canales B y un canal D. Cada canal B lleva datos, voz, y otros servicios a una tasa de 64 kbps. Cada canal D lleva la información del control y de señalización:

o El interfaz de tasa básico (BRI) es para La aplicación de la empresa casera y pequeña. BRI contiene dos canales B y un canal D.

o El interfaz de tasa primario (PRI) es para usuarios más grandes. PRI incluye 23 canales B en Norteamérica y Japón (30 en Europa) y un canal D.

o Los proveedores de servicio transmiten generalmente servicio PRI a través de una línea T1 en Norteamérica y de una línea E1 en Europa.

o Desdel punto de vista del consumidor, y como un servicio de la conexión de datos, DSL substituye al ISDN.

o ISDN también se utiliza como tecnología de red prevista para agregar nuevos servicios a la PSTN dando a usuarios el acceso directo a los servicios digitales.

o El ISDN se utiliza debido a su servicio en tiempo real “garantizado” que no se logra en Internet y la fidelidad audio que es superior al servicio de los POTS. Algunas compañías utilizan equipos de videoconferencia combina 3 líneas de BRI (seis canales 64K), para lograr una imagen de buena calidad.

1.1.4 Servicios Telefónicos Digitales

Cuando la automatización de los switches telefónico electrónicos comenzó en los años 70 y los años 80, muchos nuevos servicios de red llegaron a estar disponibles. Aquí están algunos de los servicios telefónicos digitales que fueron desarrollados: • Correo de voz • Identificación de llamada • Llamada en espera • Llamadas recordatorios

Page 12: Manual Redes Convergentes

12

CARRERAS PROFESIONALES CIBERTEC

• Conferencias de tres vías • 911 mejorados (en E.E.U.U.) • Servicio de switch de intercambio local (Centrex)

1.1.5 Servicios de PBXs y de Centrex

Muchas empresas utilizan un central telefónica privada (PBX). Las compañías de tamaños medianos y más grandes utilizan una PBX porque es mucho menos costoso que conectar una línea telefónica externa con cada teléfono en la organización. Además, es más fácil hacer llamadas internas dentro de un PBX usando solamente tres o cuatro dígitos. Muchos teléfonos se pueden unir a un PBX, pero los usuarios pueden compartir solamente algunos líneas exteriores para llamar externo. Para asegurar generalmente una línea exterior, el usuario que inicia la llamada marca el dígito” 9” antes del número telefónico exterior completo. Para las compañías que no pueden dispuestas o a invertir en tecnología del PBX, muchas compañías telefónicas ofrecen el servicio de switch de sede (Centrex). Centrex es un PBX virtual con toda la conmutación que ocurre en la oficina del teléfono en vez de en la ubicación de la compañía. Típicamente, la compañía telefónica posee y maneja todo el equipo de comunicaciones que sea necesario poner el PBX en ejecución y después vende varios servicios a la compañía. Los clientes de Centrex pueden elegir de una variedad de servicios y de características especiales: • Centrex empaquetado: Ofrecen los clientes empaquetados de

Centrex un sistema fijo de características en diferentes paquetes. Estos paquetes se ofrecen en un costo relativamente bajo, pues se permite poco o nada de arreglo para requisitos particulares. La carencia del arreglo para requisitos particulares reduce al mínimo los costes operacionales de programar y de mantener los servicios.

• Datos de Centrex: Los servicios de datos de Centrex pueden

proveer servicios relativamente de poca velocidad de datos (de 56 y 64 kbps) usando la red telefónica con conmutador de circuito. Aunque ahora son eclipsados por Internet y otras redes de datos, los servicios de datos de Centrex pueden ofrecerse conexiones muy flexibles y gran alcance puesto que las conexiones se pueden hacer casi dondequiera dentro del alcance de la red telefónica.

• Centrex modificado para requisitos particulares: Centrex

modificado para requisitos particulares ofrece un sistema altamente personalizable de las opciones que requieren habilidades de programación y de localización de averías especializadas a mantener. Una disposición modificada para requisitos particulares típica de Centrex permite marcar de cuatro cifras entre la gente en la misma red, llamadas los “locales” (a veces los locales están situados en diferentes partes de una ciudad), encaminamiento modificado para requisitos

Page 13: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

13

CIBERTEC CARRERAS PROFESIONALES

particulares a través de la red telefónica, y los códigos modificados para requisitos particulares para invocar características. Centrex modificado para requisitos particulares es el ofrecimiento más flexible, pero generalmente más costoso del servicio.

1.1.6 Servicios interurbanos

Las empresas confían cada vez más en su capacidad de comunicarse directamente con los clientes, los proveedores, los socios, las sucursales, y los teletrabajadores. Los servicios interurbanos representan un costo significativo. Cuando los costes interurbanos eran relativamente altos, las compañías guardaron control sobre el acceso interurbano. Las líneas interurbanas interurbanas que conectan switches utilizan generalmente tecnologías de TDM y el transporte T1 o E1. El servicio interurbano más común que se ofrece en Norteamérica es el servicio telefónico del área amplia (WATS). Los planes WATS proporcionan acceso a las líneas telefónicas interurbanas para uso comercial con tasas reducidas. WATS puede ser exterior (OUT-WATS), interno (IN-WATS), o ambos: * Con WATS exterior, la parte que llama puede hacer un número

ilimitado de las llamadas interurbanas para un precio fijo dentro de rangos predeterminados de tiempo y de distancia. La mayoría de las compañías telefónicas ahora ponen OUT-WATS con algo llamado un plan global.

* Con IN-WATS, los abonados tienen un número telefónico gratuito.

El servicio de IN-WATS reduce el tiempo que los operadores pasan el proceso de encaminar las llamadas para los negocios. Los códigos de área de IN-WATS en Norteamérica son 800, 888, 877, y 866. Más 800 números son reservados para el futuro (855, 844, 833 y 822). Los usuarios del teléfono dentro de un área señalada pueden llamar el número telefónico de IN-WATS de una organización sin tener que pagar.

1.1.7 El concepto de la convergencia Antes de que las tecnologías avanzadas del establecimiento de una red permitieran convergencia, las empresas proveían las redes separadas para la voz, el vídeo, y las aplicaciones de datos. En la mayoría de los casos, voz, vídeo, y redes de datos desplegados autónomamente y funcionado aisladamente. En términos simples, el tráfico de voz utilizó PBXs y los datos utilizaron los routers. Las PBXs conectadas con las líneas arrendadas dedicadas. Los datos utilizaron una combinación de líneas arrendadas, conmutadas por paquetes, celdas o tramás. La figura representa un despliegue típico de estas redes redes. El vídeo utilizó una la línea arrendada especial y muy costosas conexiones.

Page 14: Manual Redes Convergentes

14

CARRERAS PROFESIONALES CIBERTEC

Este uso de instalaciones diferentes para cada red de transporte es extremadamente ineficaz. El volumen de tráfico de datos está creciendo más rápidamente que el volumen de tráfico de voz, desarrollando innovaciones tecnológicas tales como el World Wide Web (WWW), e-commerce, y aplicaciones tales como videoconferencia o vídeo multicast por IP. Mientras que las tasas de crecimiento varían por el país y el portador, es cierto que el transporte de datos pronto dominará redes de telefonía. Los datos han sobrepasado ya a la voz en algunas redes de proveedores de servicio en E.E.U.U. Los datos son la fuerza impulsora detrás del crecimiento de la red global. El desafío para la empresa es optimizar el establecimiento de una red para llevar datos, voz, y, lo más pronto posible, el tráfico de video.

Se acepta extensa y reconocidamente por las industrias de las comunicaciones y los analistas de industria en su totalidad que IP se convertirá en el transporte universal del futuro.

Page 15: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

15

CIBERTEC CARRERAS PROFESIONALES

Usar IP como la forma de transporte ofrece a la empresa aumentos estadísticos significativos en eficiencia y baja requisitos totales de ancho de banda, la facilidad de la administración y la capacidad para desplegar nuevas aplicaciones rápidamente. La convergencia también proporciona un estímulo económico a las compañías. Cuando las compañías suscriben a los servicios separados de la red, pagan a menudo servicios aun cuando no las están utilizando. En un ambiente convergente, el ancho de banda se comparte entre la voz, el vídeo y los datos. Por ejemplo, cuando la voz es inactiva, los datos pueden utilizar el ancho de banda disponible; cuando las aplicaciones de voz o del vídeo están activos, el ancho de banda requerido para estas operaciones está garantizado.

Page 16: Manual Redes Convergentes

16

CARRERAS PROFESIONALES CIBERTEC

1.2 Descripción de los requisitos de las redes conv ergentes

1.2.1 Modelo jerárquico de la red

A pesar de la inversión actual de la tecnología de información (IT), muchas organizaciones encuentran que los recursos, aplicaciones y la información siguen desconectados. De hecho, es común para las organizaciones tener cientos de aplicaciones y bases de datos que no pueden comunicarse entre si. Esto es debido en parte al aumento y a demandas a menudo inesperadas de clientes internos y externos. Muchas empresas tienen a desplegar nuevas tecnologías y aplicaciones rápidamente. Esto conduce a menudo al despliegue de sistemas diferentes. El resultado de estos nuevos despliegues es la inhabilidad de compartir la información eficientemente a través de la organización. Por ejemplo, las ventas, el servicio dal cliente o los departamentos de compras no pueden tener acceso a expedientes del cliente fácilmente sin crear diferentes redes que compartan las aplicaciones y la información.

La red de información inteligente de Cisco (IIN) le ayuda las organizaciones para solucionar estos problemas y para resolver nuevos desafíos incluyendo arquitecturas orientadas al servicio, servicios web y virtualización usando arquitecturas de red. IIN articula el papel de desarrollo de la red en facilitar la integración del hardware y del software que permitirá a las organizaciones que alineen mejor los recursos prioritarios del negocio.

Page 17: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

17

CIBERTEC CARRERAS PROFESIONALES

El modelo jerárquico divide redes o sus bloques modulares enÑ capa de acceso, capa de distribución, y la capa de núcleo. Cada capa tiene características específicas:

• Capa de acceso: La capa del acceso concedel acceso de

usuario a los dispositivos de la red. En una red del campus, la capa del acceso utiliza lo más a menudo posible los dispositivos conmutados de la LAN con los puertos que proporcionan conectividad a las estaciones de trabajo y a los servidores. La capa de acceso de la topología de la red corporativa es el sitio en donde son agregados los enlaces WAN asociados a los sitios y a los teletrabajadores.

• Capa de distribución: La capa de la distribución agrega los

armarios de cableado usando los switches para dividir grupos de trabajo en segmentos y aislar problemas de la red en un ambiente determinado del campus. Semejantemente, la capa de la distribución agrega conexiones WAN en el borde del campus y proporciona conectividad basada en políticas.

• Capa de núcleo: La capa de núcleo, o backbone, conmuta los

paquetes tan rápidamente como sea posible. Porque la capa de núcleo es crítica para la conectividad, esta capa debe proveer un de alto nivel de la disponibilidad y adaptarse a los cambios muy rápidamente.

Los diseñadores de la red pueden aplicar el modelo jerárquico a cualquier tipo de red incluyendo LANs, WANs, LANs inalambrica (WLANs), redes de área metropolitana (MAN) y redes privadas virtuales (VPNs).

1.2.2 Condiciones de tráfico en una red convergente

Las redes convergentes con voz, vídeo, y datos integrados contienen una mezcla de patrones y de requisitos de tráfico: • Tráfico de voz y del vídeo (por ejemplo, telefonía IP y difusión y

comunicación del vídeo) • Tráfico video, llevado con frecuencia como tráfico multicast de IP • Tráfico de aplicaciones de voz, generado por aplicaciones

relacionadas con la voz (tales como centros de contacto) • Tráfico de Misión-crítica, generado, por ejemplo, por aplicaciones

de la bolsa • Tráfico transaccional, generado por aplicaciones de e-commerce • Tráfico de la actualización de la encaminamiento de protocolos

de la encaminamiento tales como Routing Information Protocol (RIP), Open Shortest-Path First (OSPF), Enhanced Interior Gateway Routing Protocol (EIGRP), Intermediate System - Intermediate System (IS-IS), y Border Gateway Protocol (BGP)

• Tráfico de gestión de red • Transferencia por bloques (tal como transferencia de archivo o

HTTP), considerada tráfico best-effort • Scavenger (tal como tráfico ocasional), considerado tráfico

menos que el tráfico del mejor-esfuerzo.

Page 18: Manual Redes Convergentes

18

CARRERAS PROFESIONALES CIBERTEC

La diversidad de la mezcla del tráfico impone requisitos rigurosos del funcionamiento y de la seguridad ante la red. Los requisitos se diferencian perceptiblemente, dependiendo del tipo del tráfico. Por ejemplo, la voz y el vídeo requieren ancho de banda constante con bajo retardo e jitter, mientras que el tráfico transaccional requiere altas confiabilidad y seguridad con ancho de banda relativamente baja. Además, las aplicaciones de voz, tales como telefonía IP, requieren altas confiabilidad y disponibilidad, porque los usuarios esperan que señal para marcar en la red del IP esté iguales que en una red telefónica tradicional. Para resolver los requisitos del tráfico en la red, el tráfico de voz y del vídeo se debe tratar diferentemente del otro tráfico, tal como tráfico tela-basado (HTTP). La calidad de los mecanismos del servicio es obligatoria en redes convergentes.

La seguridad es una cuestión clave en redes fijas pero es aún más importante en movilidad inalámbrica, donde es posible el acceso a la red de virtualmente cualquier parte. Varias estrategias de seguridad, tales como dispositivo de control de acceso y autentificación, la protección de intrusión, la detección de intrusión, y protección del tráfico con el cifrado, pueden atenuar amenazas de la seguridad de la red.

1.2.3 Red de información inteligente La visión inteligente de la red de información de Cisco (IIN) es una estrategia que resuelve el papel de desarrollo de la red dentro de negocios y resuelve directamente la necesidad de alinear los recursos con prioridades del negocio. La visión de Cisco IIN tiene tres características claves:

• Integración de recursos y de activos de la información: Las redes

modernas con voz, vídeo, y datos integrados le permiten que los departamentos enlacen su infraestructura más de cerca a la red de información.

Page 19: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

19

CIBERTEC CARRERAS PROFESIONALES

• Inteligencia a través de productos múltiples y de capas de la infraestructura: La inteligencia que se extiende a cada componente de la red WAN y se aplica de extremo a extremo.

• Participación activa de la red en la entrega de servicios y de

aplicaciones: Con inteligencia agregada dentro de los dispositivos de la red, el IIN permite para que la red maneje, supervise , y optimice activamente entrega del servicio y de la aplicación a través del ambiente entero de la empresa.

Con estas características, el IIN ofrece conectividad más que básica, ancho de banda para los usuarios, y el acceso a las aplicaciones. La funcionalidad de extremo a extremo de las ofertas de IIN y un control centralizado, unificado que promueve la transparencia verdadera y la agilidad del negocio.

La visión de IIN ofrece un acercamiento evolutivo. La funcionalidad se puede agregar a la infraestructura existente de la red según lo requerido en tres fases: • Integración del transporte: IIN consolida datos, voz, y el vídeo en

una red IP para la convergencia segura de red. La integración de datos, voz, y video en una sola red, basada en estándares, modulares, pueden simplificar la gestión de red de las organizaciones y reducir costos de infraestructura. La convergencia de la red también pone las bases para una nueva clase de las aplicaciones IP desplegadas a través de soluciones de comunicaciones sobre IP de Cisco.

Page 20: Manual Redes Convergentes

20

CARRERAS PROFESIONALES CIBERTEC

• Integración de servicios: Cuando la convergencia es completa, las partes de la red comparten o virtualizan los recursos para resolver las necesidades cambiantes de la organización más flexiblemente. Los servicios integrados unifican elementos comunes incluyendo capacidad del servidor, del centro del almacenaje y de datos. Ampliando capacidades de la virtualización para abarcar el servidor, el almacenaje, y elementos de la red, una organización puede utilizar todos sus recursos más eficientemente. Además, los recursos compartidos a través del IIN proporcionan servicios en caso de un fallo de los sistemas local, que permite la continuidad del negocio.

• Integración de aplicaciones: La tercera fase es el establecimiento

de una red orientada a las aplicaciones (AON). AON se centra en crear una red “centrada en las aplicaciones” de modo que la red pueda optimizar funcionamiento de las aplicaciones y entregarlas a los usuarios más eficientemente. En la adición a las capacidades tales como caché de contenidos, balanceo de la carga, y seguridad a nivel de aplicaciones, Cisco AON permite para que la red simplifique la infraestructura de las aplicaciones integrando la gestión de mensaje de aplicaciones inteligentes, la optimización y la seguridad en la red existente.

Page 21: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

21

CIBERTEC CARRERAS PROFESIONALES

AUTOEVALUACIÓN

1. ¿Cuáles son los tres tipos de tráfico contenidos en una red convergente? 2. ¿Cuáles son las características de un enlace T1? 3. ¿Qué es el canal D de ISDN?

RESUMEN

Este módulo explica la historia y la situación actual de las compañías telefónicas y de los servicios que ofrecen. Las compañías han utilizado los servicios telefónicos por más de 100 años como parte de sus prácticas de negocio, y el módulo explica cómo los cambios en tecnología han afectado uso y seguridad de la compañía. El módulo también explica el modelo jerárquico tradicional de tres capas y la nueva arquitectura empresarial de Cisco que integra la red entera para proveer el acceso alejado seguro a todas las herramientas, procesos, y servicios a través de todos los sectores de la compañía.

Page 22: Manual Redes Convergentes

22

CARRERAS PROFESIONALES CIBERTEC

Page 23: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

23

CIBERTEC CARRERAS PROFESIONALES

IMPLEMENTACION DE VOZ SOBRE IP

OBJETIVOS ESPECÓFICOS

• Describir los conceptos que se emplean en VoIP • Presentar las ventajas de redes convergentes y las practicas iniciales en

implementaciones de Cisco VoIP. • Explicar el concepto teórico y fundamento práctico para digitalizar voz,

el encapsulamiento IP, y el consumo del ancho de banda a digital.

TEMARIO

• Introducción a las redes VoIP

• Digitalización y paquetización de voz

• Encapsulado de paquetes de voz para el transporte

• Requisitos de ancho de banda para VoIP

ACTIVIDADES PROPUESTAS

• Configuración de un router como central telefónica IP utilizando el Call Manager Express

S E M A N A

2

Page 24: Manual Redes Convergentes

24

CARRERAS PROFESIONALES CIBERTEC

2.1 Introducción a las redes de VoIP

2.1.1 Ventajas de las redes de VoIP

Las compañías actuales están utilizando redes convergentes, combinando datos y telefonía en una sola infraestructura de red IP. Hay muchas ventajas al usar las redes de VoIP:

• Uso eficiente del ancho de banda y del equipo : Las redes

tradicionales de telefonía utilizan un canal de 64 kbps para cada llamada de voz. VoIP comparte el ancho de banda entre conexiones lógicas múltiples.

• Bajos costos de transmisión : Una cantidad substancial de

equipos son necesarios para combinar canales de 64 kbps en los enlaces de alta velocidad para el transporte a través de la red. VoIP multiplexa estadísticamente el tráfico de voz junto a tráfico de datos. Esta consolidación proporciona ahorros considerables en equipos y costos operacionales.

• Costos consolidados de la red : En vez de funcionar las redes

separadas para la voz y los datos, las redes de voz se convierten para utilizar arquitectura packet-switched para crear una sola red de comunicaciones integrada con un sistema común de conmutación y transmisión. Esto da lugar a ahorros de costos significativos a largo plazo en el equipo y operaciones de red.

• El empleado mejora su productividad; a través de la s

características proporcionadas por la telefonía I P: Los teléfonos IP no son sólo teléfonos; son dispositivos completos de comunicaciones de negocios. Los teléfonos IP ofrecen operaciones de búsqueda del directorio y tienen acceso a las bases de datos con usos Extensible Markup Language (XML ). Estos usos permiten la integración de telefonía en cualquier uso de negocio. Por ejemplo, los empleados pueden utilizar el teléfono para mirar la información sobre un cliente quien llamó, la búsqueda de información del inventario, e incorporan órdenes. El empleado puede ser notificado de una edición (por ejemplo, un cambio de la fecha del envío) y, con un solo botón, puede llamar al cliente sobre el cambio. Además, los teléfonos basados-software o los teléfonos inalambricos ofrecen movilidad al usuario.

• Acceso a nuevos dispositivos de comunicación : La

tecnología de paquetes puede alcanzar dispositivos que son en gran parte inaccesibles a las infraestructuras de multiplexación por división de tiempo (TDM). Los ejemplos de tales dispositivos son computadoras, dispositivos inalambricos, aparatos electrodomésticos, accesorios digitales personales (PDAs). El acceso inteligente a tales dispositivos permiten a las compañías y a los abastecedores de servicios aumentar el volumen de las comunicaciones, la cantidad de los servicios que las compañías

Page 25: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

25

CIBERTEC CARRERAS PROFESIONALES

ofrecen, y el número de los abonados a que las compañías tienen. La tecnología de paquetes, por lo tanto, permite a las compañías utilizar los nuevos dispositivos, incluyendo los teléfonos video, los terminales multimedias, y los teléfonos avanzados del IP.

Aunque la tecnología de paquetes tiene ventajas claras, los negocios deben considerar los puntos siguientes cuidadosamente antes de emigrar a esta tecnología: • Retorno de la inversión (ROI, return on investment), cuando está

basada en las nuevas características de sistema, puede ser difícil de probar.

• Generalmente, el personal de voz y datos no utiliza la misma terminología. Estas diferencias pueden crear dificultades de la comunicación.

• Los componentes actuales de telefonía de voz todavía no se han depreciado completamente. Substituir el equipo que todavía tiene valor financiero puede disminuir el ROI.

2.1.2 Componentes de una red de VoIP

Los elementos más comunes de las redes de VoIP: • Teléfonos: Los teléfonos pueden ser teléfonos IP, teléfonos

basados-software funcionando en las PC, o teléfonos tradicionales (análogo o ISDN).

• Gateways : Las gateways interconectan la red de VoIP con los

dispositivos tradicionales de telefonía. Las gateways son usualmente habilitadores de voz al router y proporcionan las siguientes funciones:

o En un lado, la línea telefónica conectada al gateway. Los

gateways conectan a la PSTN y se comunican con cualquier teléfono en el mundo.

o Por otro lado, el Gateway se conecta con la red del IP y se comunica con cualquier computadora en el mundo.

o El gateway toma la señal estándar del teléfono, la convierte a digital (si no es ya digital), la comprime, la empaqueta usando IP, y lo encamina a un destino sobre la red del IP.

o El Gateway invierte la operación para los paquetes que vienen de la red y va a la salida de un teléfono.

o Ambas operaciones (de ida y vuelta; en la red telefónica) ocurren al mismo tiempo, permitiendo una conversación (de dos vías) full-duplex.

• Unidades de control múltipunto : Una unidad de control múltipunto (MCU) es requerida para las conferencias. Si más de dos participantes están implicados en una llamada, entonces todos los miembros de la conferencia envían sus medios al MCU. El MCU mezcla los medios y después envía los medios a todos los participantes.

Page 26: Manual Redes Convergentes

26

CARRERAS PROFESIONALES CIBERTEC

• Servidores de Aplicación : Los servidores de aplicación proporcionan servicios XML-basados en telefonía IP. Los usuarios de telefonía IP tienen acceso a los directorios y a las bases de datos a través de aplicaciones XML.

• Gatekeepers : Los gatekeepers son útiles, pero opcionales, Son

componentes de la red VoIP. Estos proporcionan la encaminamiento y la gestión central de todos los puntos finales (terminales, entradas, y MCUs) en una zona dada. El gatekeeper y los puntos finales administrados forman una zona de gestión. Los gatekeeper proporcionan el control de admisión de llamadas (CAC, call admissión control) para evitar que la red sea sobre suscrita. También, CAC traduce números telefónico o nombres a las direcciones IP, para el encaminamiento de la llamada en una red H.323.

• Agentes de llamada (Call agents) : Los agentes de llamada

proporcionan control de llamada, CAC, control del ancho de banda, y servicios de conversión de dirección a teléfonos IP o a Media Gateway Control Protocol (MGCP). Cisco CallManager es un agente de llamada. CallManager sigue todos los componentes activos de la red de VoIP incluyendo teléfonos, las gateways, los bridges de conferencia, recursos de transcodificación, y las casillas del voicemail entre otras. CallManager utiliza a menudo el protocolo skinny Client Control Protocol (SCCP) para señalización a las puntos finales del hardware del sistema, tales como teléfonos IP. H.323, MGCP, o Session Initiation Protocol (SIP) se utiliza para pasar señales de llamada a las entradas. En cierto modo, CallManager actúa como PBX IP.

• Video endpoints : Las puntos finales video proporcionan las características video de telefonía a los usuarios. Como en las llamadas audio-solamente, las llamadas video necesitan una unidad de control múltipunto para las conferencias. Para las videoconferencias, la unidad de control de múltipunto tiene que ser capaz de mezclar video y audio.

Los teléfonos análogos y los IP también coexisten en la misma red. Una vez que las compañías decidan emigrar a VoIP, las compañías pueden elegir una opción completamente IP o conservar todo o parte de sus redes analógicas. Mantener redes analógicas requiere la conversión de voz análoga a IP.

2.1.3 Interfaces análogos heredadas en las redes d e VoIP

Una red de VoIP que incluye el equipo heredado, tal como teléfonos análogos, necesita gateways para convertir señales analógicas en formato digital y encapsularlos en paquetes IP. Una red construida con dispositivos IP-permitidos no necesita ninguna conversión. Los gateways utilizan diferentes tipos de interfaces para conectarse con los dispositivos análogos, tales como teléfonos, máquinas de

Page 27: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

27

CIBERTEC CARRERAS PROFESIONALES

fax, o switches del PBX o PSTN. Los interfaces analógicas que se utilizan en las entradas incluyen estos tres tipos: • Foreign Exchange Station (FXS): FXS es un interfaz del

teléfono que proporciona energía de batería, envía señal para marcar, y genera voltaje de sonido. Un teléfono estándar se conecta en tal interfaz para recibir servicio telefónico. Un switch telefónico es un ejemplo de un FXS. En las implementaciones de VoIP, el interfaz de FXS se conecta con los sistemas finales análogos; el sistema final análogo utiliza el interfaz Foreign Exchange Office (FXO) en el lado del sistema de extremo. El interfaz FXS del router se comporta como un PSTN o un PBX sirviendo a los teléfonos, contestadores automáticos, o máquinas de fax con línea de energía, el voltaje del anillo, y señal para marcar. Si un PBX utiliza un interfaz de FXO, puede también conectarse con un interfaz de router FXS. En este caso, el PBX actúa como un teléfono.

• Foreign Exchange Office (FXO) : Un FXO es un interfaz de

teléfono que se conecta con el PSTN. FXO genera los indicadores on-hook y off-hook que se utilizan para señalar un loop closure en el FXO final del circuito. En las implementaciones de VoIP, el interfaz de FXO se conecta con el PSTN o un PBX; el PSTN y el PBX utilizan el interfaz de FXS en su lado. El router FXO se comporta como un teléfono, obteniendo la línea energía, el voltaje de ring, y señal para marcar del otro lado del interfaz. Según lo mencionado, un PBX puede también utilizar un interfaz de FXO hacia el router (que entonces utilizará un interfaz de FXS) si el PBX toma el papel del teléfono.

• Ear and Mouth (E&M): El interfaz de E&M proporciona

señalización para los trunks análogos. Los trunks análogos interconectan dos dispositivos del PBX-estilo, tales como cualquier combinación de un gateway (que actúa como PBX), una PBX, y un switch PSTN. E&M se define a menudo como el “oído y la boca,” esto deriva del término “earth and magnet.” La “earth” representa la tierra eléctrica, y el “magnet” representa el electroimán usado para generar tonos.

En figura, el Gateway se conecta a un teléfono y una máquina de fax usando dos interfaces de FXS. Para estos dos dispositivos, el router actúa como un PBX o un switch PSTN. El router se conecta con el PSTN usando un interfaz de FXO. Para esta conexión, el router actúa como un teléfono hacia el PSTN. Otra interfaz de FXO conecta con un PBX (PBX-1). Una vez más el router actúa como un sistema de extremo hacia el PBX, y por lo tanto utiliza el mismo tipo portuario que el teléfono y el fax que conectan con La aplicación PBX-1. Un segundo PBX (PBX-2) conecta con el interfaz del router FXS. Para esta conexión, el PBX se comporta como un teléfono hacia el router, y el router actúa como un switch PSTN. Finalmente, el router se conecta con otro PBX (PBX-3), este vez usando un interfaz de E&M. En esta conexión de trunk, el router y PBX-3 actúan como PBX.

Page 28: Manual Redes Convergentes

28

CARRERAS PROFESIONALES CIBERTEC

2.1.4 Interfaces Digitales

Los gateways pueden utilizar interfaces digitales para conectarse con el equipo de voz. Desde una perspectiva de hardware, hay interfaces BRIs, T1 y E1 disponibles. Todas las interfaces utilizan TDM para soportar los canales lógicos múltiples. Los interfaces T1 y E1 pueden utilizar canal señalización asociado (CAS) o canal común que señalización (CCS), mientras que un BRI utiliza siempre CCS. ISDN PRIs. Usa T1 o E1 CCS

La figura muestra un router que sirve a un teléfono ISDN usando un interfaz de voz BRI. Además, el router tiene dos líneas T1 o E1: uno a una PBX y otro al PSTN. Dependiendo del tipo del interfaz (T1 o E1) y el método que señalización (CAS o CCS), un máximo de 23, 24, o 30 canales de voz están disponibles en estos trunks. El PSTN y el PBX también sirven los teléfonos ISDN a través de conexiones de BRI.

Page 29: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

29

CIBERTEC CARRERAS PROFESIONALES

2.1.5 Etapas para completar una llamada telefónica VoIP

Aunque diferentes protocolos se ocupan de control de llamada de diferentes maneras, todos los protocolos proporcionan un sistema común de servicios. Hay tres componentes de control básico de la llamada: • Call Setup (Disposición de llamada) : La disposición de llamada

comprueba la configuración del call-routing para determinar el destino de una llamada.

La configuración especifica el ancho de banda requerido para la llamada. Sabiendo los requisitos del ancho de banda, CAC determina si es suficiente el ancho de banda disponible para soportar la llamada. Si el ancho de banda está disponible, la disposición de llamada genera un mensaje de disposición y envía el mensaje al destino. Si el ancho de banda no está disponible, la disposición de llamada presenta el iniciador de la llamada con un busy signal. Diferentes protocolos de control de llamada, por ejemplo H.323, MGCP, y el protocolo de la iniciación de la sesión (SIP), definen diferentes mensajes a los dispositivos durante la disposición. Sin embargo, todos los mensajes consultan la misma información básica: o Las direcciones IP de los dos dispositivos que

intercambiarán VoIP o Los números de acceso del User Datagram Protocol ( UDP)

que serán utilizados por el Protocolo de Transporte en Tiempo Real (RTP) que llevan el tráfico de voz

o El formato (por ejemplo, el algoritmo de la compresión)

usado para la voz convertida a digital

Page 30: Manual Redes Convergentes

30

CARRERAS PROFESIONALES CIBERTEC

• Call maintenance (Mantenimiento de llamada): el mantenimiento de llamada sigue la cuenta de paquetes, paquetes perdidos, jitter, y delay durante la llamada.La información es pasada a los dispositivos voz-permitidos para determinarse si la calidad de la conexión es buena o ha deteriorado al punto donde entrada descartará la llamada.

• Call teardown (Desmontaje de llamada): El desmontaje de la

llamada notifica los dispositivos con soporte de voz para tomar recursos disponibles para otras llamadas y para hacerlas disponibles para otras llamadas cuando cualquier otro termina una llamada.

2.1.6 Control distribuido de llamada

Hay dos tipos de control de llamada: distribuido y centralizado. En el pasado, todas las redes de voz utilizaron una arquitectura centralizada en la cual las puntos finales nodos (teléfonos) fueron controladas por switches centralizados. Aunque este modelo trabajó bien para los servicios básicos de telefonía. Una de las ventajas de la tecnología de VoIP es que permite que las redes utilicen una arquitectura centralizada o distribuida. Esta flexibilidad permite que las compañías construyan las redes caracterizadas por una gestión simplificada y la innovación del punto final, dependiendo del protocolo usado.

La figura muestra el modelo distribuido en el cual los componentes múltiples en la red controlan manualmente la llamada. La configuración del dispositivo voz soporta llamadas de control directamente habilitadas con el control de llamada usando protocolos como el H.323 o SIP. Con control distribuido de la llamada, los dispositivos realizan la disposición de llamada, llamadas de mantenimiento, y desmontaje de la llamada sin la implicación de la compañía del teléfono:

Page 31: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

31

CIBERTEC CARRERAS PROFESIONALES

• Procese los dígitos marcados y encamine la llamada (secuencia

demostrada en figura): 1. Después de detectar una petición del servicio (el teléfono se

descuelga), la primera entrada (R1) inicia la señal para marcar.

2. Después, R1 recoge los dígitos los diales del usuario que inicia la llamada.

3. R1 entonces mira el número llamado en la tabla de encaminamiento de la llamada local R1. Según la tabla de encaminamiento de la llamada, el número llamado utiliza la segunda entrada (R2).

4. R1 ahora incorpora la primera etapa de una llamada, disposición de llamada, enviando el mensaje apropiado a R2.

5. R2 recibe el mensaje de disposición de llamada de R1. 6. R2 entonces mira para arriba el número llamado en su tabla

de encaminamiento de la llamada local. Según la tabla de encaminamiento de la llamada, el número llamado utiliza un puerto local de voz.

7. R2 envía la llamada al puerto local de voz aplicando el voltaje del ring.

En este ejemplo del modelo distribuido del control de llamada, R1 tomó una decisión local para enviar el mensaje de disposición de llamada a R2 basado en la tabla de encaminamiento de la llamada de R1. R2 tomó otra vez una decisión local (que usa la tabla de encaminamiento de la llamada R2) que el dispositivo llamado se podría alcanzar en cierto puerto físico.

• Supervision de la llamada : Durante la llamada, el R1 y el R2

ambas monitorean la calidad de la llamada. En el modelo distribuido del control de llamada, si una de los gateways detecta que la calidad no es aceptable, el Gateway localmente termina la llamada. La supervisión de la llamada ocurre durante la segunda etapa de la llamada, mantenimiento de la llamada.

• Terminación de la llamada : Si el usuario que inicia la llamada

que está conectado con R1 acaba la llamada, R1 informa a R2 la terminación. En el modelo distribuido del control de llamada, el gateway inicia la tercera etapa de una llamada, llamada desmontaje. El gateway termina la llamada y libera los recursos que fueron utilizados por la llamada.

Cada Gateway usa control de llamada distribuido y toma decisiones autónomás que no dependen de la disponibilidad del otro (centralizado) para proporcionar servicios de encaminamiento de llamada. Porque cada gateway tiene su propia inteligencia. Sin embargo, cada entrada necesita tener una tabla de encaminamiento de la llamada local, que necesita la configuración manual. Esta necesidad hace la administración del modelo distribuido del control de llamada menos escalable.

Page 32: Manual Redes Convergentes

32

CARRERAS PROFESIONALES CIBERTEC

Para desarrollos más grandes que usan el modelo con control de llamada distribuida, se gestionan dispositivos especiales para centralizar números. Los gateways y los puntos finales utilizan los gatekeepers H.323 o servidores de red SIP para encontrar los números que no se saben localmente. En tal desarrollo, no hay necesidad de todos los (o aún cualquiera) números de ser almacenado en las entradas o las puntos finales; los números se almacenan solamente en los dispositivos centralizados.

2.1.7 Control centralizado de llamada

La figura demuestra un ambiente donde un solo componente en la red, un agente de la llamada, control manual de llamada. Tal control centralizado de la llamada se aplica cuando el dispositivo voz no soporta control de llamada en si mismo sino usando un agente de llamada. En este ejemplo, ambas gateways de voz tienen el protocolo de MGCP permitido. Con el control de llamada de MGCP permitido, los gateways utilizan el agente de llamada (call agent) para realizar estas funciones: • Procese los dígitos marcados y encamine la llamada (secuencia demostrada en figura): 1. Después de detectar una petición del servicio (el teléfono se

descuelga), la primera entrada (R1) informa a su agente de la llamada la petición.

2. El agente de la llamada dice R1 iniciar tono para marcar y recibir los dígitos marcados del usuario.

3. R1 pasa cada dígito recibido (uno por uno) al agente de la llamada.

4. El agente de la llamada mira la tabla de encaminamiento de la llamada del agente. Según la tabla de encaminamiento de la llamada, se alcanza el número telefónico solicitado usando la segunda entrada (R2). Este agente de la llamada también controla R2 y, por lo tanto, sabe qué números telefónico R2 puede alcanzar. Por lo tanto, el agente de la llamada sabe qué puerto en R2 tiene que ser encaminada la llamada.

5. El agente de la llamada ahora envía un mensaje a R2 que solicita que el paso de la llamada a cierto puerto (el puerto que conecta con el número telefónico de la Destino).

Ambos llaman las decisiones de encaminamiento, cada Gateway lo usa para llamar a R1 que la entrada para utilizar después de recibir la llamada en R1 y cómo pasar el invitar en esa entrada siguiente (R2), es hecha por el agente de la llamada. Éste es un ejemplo del modelo centralizado del control de llamada, donde todo llama la inteligencia de la encaminamiento (requerida para la primera etapa de una llamada, de la disposición de llamada) está en el agente de la llamada. El agente de la llamada entonces manda a las entradas en cómo manejar la llamada. Tan solamente el agente de la llamada tiene una tabla de encaminamiento de la llamada.

Page 33: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

33

CIBERTEC CARRERAS PROFESIONALES

• Supervisión de la llamada : Durante la llamada, el R1 y el R2 ambas monitorean la calidad de la llamada. En el modelo centralizado del control de llamada, si una de las entradas detecta que la calidad es no adecuada, pasará esa información al agente de la llamada. El agente de la llamada entonces termina la llamada. La supervisión de la llamada ocurre durante la segunda etapa de una llamada, manteniendo la llamada.

• Terminación de la llamada : Si el usuario que está conectado

con R1 acaba la llamada, R1 informa al agente de la llamada la terminación. El agente de la llamada notifica ambas entradas para terminar la llamada de VoIP y para lanzar los recursos que fueron utilizados por la llamada. En el modelo centralizado del control de llamada, el agente de la llamada inicia la tercera etapa de una llamada, llamada desmontaje.

Según lo mostrado en el ejemplo, con control centralizado de llamada, las gateways no toman ninguna decisión local. En lugar, informan al agente de la llamada sobre acontecimientos (tales como llamadas entrantes o caídas). Solamente los call agent toman las decisiones de encaminamiento, y los gateways dependen de la disponibilidad de su agente de llamada. La disponibilidad del agente de llamada es crítica, porque el agente de llamada es un solo punto de fallo. Sin embargo, solamente el agente de llamada necesita tener una tabla de encaminamiento de llamada. Esto hace que la administración del modelo centralizado del control de llamada más escalable.

Page 34: Manual Redes Convergentes

34

CARRERAS PROFESIONALES CIBERTEC

El control centralizado de llamadas permite a un dispositivo externo (call agent) la señalización y el procesamiento de llamadas, saliendo del gateway para traducir señales de audio a paquetes de voz después de la disposición de llamada. Después de que se instale la llamada, la trayectoria de voz funciona directamente entre las dos entradas y no implica el agente de llamada. La diferencia entre el control distribuido y centralizado de llamada se aplica solamente a señalización y nunca al intercambio de medios, siempre es directamente entre los dos gateways.

Page 35: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

35

CIBERTEC CARRERAS PROFESIONALES

2.2 Digitalizacion y paquetización de voz

2.2.1 Codificación de voz básica: Señales analógica s que convierten a las señales numéricas

Los sistemas de VoIP se basan en los procesadores de la señal numérica (DSPs). DSPs convierten señales analógicas a formatos digitales y viceversa. También proporcionan funciones tales como compresión de voz, transcodificación (cambiando entre diferentes formatos de voz convertida a digital), y conferencia. DSPs son componentes hardware establecidos a menudo en los módulos de voz dentro de los gateways. El muestreo es la técnica que se utiliza para convertir la información a digital analógica. Por ejemplo, los productores convierten la música a digital para los CDs muestreando el sonido vivo frecuentemente y después convirtiendo cada muestra a digital. El muestreo es la reducción de una señal continua a una señal discreta. El convertir las ondas acústicas de la música analógica (una señal del continuo-tiempo), estructura de DSPs a una secuencia de las muestras (una señal del tiempo discreto) de las cuales la señal analógica se puede reconstruir para tocar en un lector de cd. DSPs tiene un papel similar en convertir señales de voz a digital en con tráfico de voz habilitados en routers.

La figura ilustra cómo las routers habilitados para voz convierten señales de voz analógica al formato digital para el encapsulamiento en paquetes IP y transportan redes sobre IP. En el ejemplo, una llamada se está realizando de un teléfono análogo (Phone1), que está conectado con un router (R1), a un teléfono análogo (Phone2) que esté conectado con otra router (R2). Las dos routers se conectan con una red del IP. El usuario en Phone1 habla en el micrófono del teléfono, y el teléfono envía una señal analógica al puerto de FXS de la router R1. El router R1 convierte la señal analógica recibida a una señal numérica y encapsula los bits en los paquetes IP. La red del IP lleva los paquetes IP al router R2.

Page 36: Manual Redes Convergentes

36

CARRERAS PROFESIONALES CIBERTEC

DSPs en las tarjetas de interfaz de voz del router realiza la conversión de analógico a digital. La figura resume los pasos: Paso 1 Muestreo : El DSP muestrea periódicamente la señal analógica. La salida del muestreo es una señal de la modulación de amplitud de pulso (PAM) medida en voltios. Paso 2 Cuantificación : El DSP empareja la señal del PAM a una escala digital dividida en segmentos. Esta escala mide la amplitud (altura o voltaje) de la señal del PAM. Paso 3 Compresión: El DSP comprime muestras de voz para reducir requerimientos de ancho de banda.

2.2.2 Codificación básica de voz: Conversión de señ ales

Digitales a Señales analógicas

Cuando un router recibe voz a la entrada en formato digital, tiene que convertirlo de nuevo a señales analógicas antes de enviarlo hacia fuera a los interfaces análogos de voz. En un escenario en donde una llamada de un teléfono análogo (Phone1), que está conectada con un router (R1), a un teléfono análogo (Phone2) que esté conectado con otra router (R2). Los dos routers se conectan con una red IP. Cuando el router R2 recibe los paquetes IP que llevan voz convertida a digital, el router convierte los paquetes de nuevo a señales analógicas. Las señales analógicas van a Phone2 y luego a través del altavoz del teléfono; el usuario en Phone2 oye el discurso original. El proceso de digital a analógico es al revés de la conversión de analógico a digital. Los DSPs en las tarjetas de interfaz de voz de los routers convierten señales numéricas a las señales analógicas. Paso 1 Descompresión : Cualquier muestra comprimida de voz primero se descomprime. Esto es un paso opcional en convertir señales analógicas. Paso 2 Decodificación : El DSPs en la tarjeta de interfaz de voz descifra las muestras digitales de voz al valor de la amplitud de las muestras y después reconstruye una señal del PAM de la amplitud original. Paso 3 Reconstrucción de la señal analógica : El DSP pasa la señal del PAM a través de un filtro correctamente diseñado que quite los pasos digitales discretos de la salida y produzca la señal que refleja la forma de onda analógica original de la señal digital codificada.

Page 37: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

37

CIBERTEC CARRERAS PROFESIONALES

2.2.3 Muestreo

Cuando un DSP convierte una señal analógica a la forma digital, el DSP muestrea la señal analógica primero. El tasa del muestreo afecta la calidad de la señal convertida a digital. Si la tasa del muestreo es demásiado baja, el DSP procesa demásiado poca información y se degrada la calidad resultante. El teorema de Nyquist es la base de la conversión de analógico a digital. En términos simples, el teorema de Nyquist nos dice que la reconstrucción de una señal de las muestras de la señal es posible si la frecuencia de muestreo es mayor que dos veces el ancho de banda de la señal. En términos prácticos, la reconstrucción no es perfecta ni exacta. Los ingenieros seleccionan tasas del muestreo para resolver los requisitos prácticos de usos específicos. Este asunto describe cómo seleccionar una tasa práctica del muestreo.

El teorema de Nyquist predice cómo un DSP trabaja; cuando el DSP muestrea una señal instantáneamente en los intervalos regulares y en un índice por lo menos dos veces de la frecuencia más alta del canal, entonces las muestras contienen la suficiente información para permitir una reconstrucción exacta de la señal en el receptor.

2.2.4 Cuantificación

Las aplicaciones de telefonía utilizan un índice del muestreo de 8000 megaciclos para convertir una señal analógica a un formato digital. El DSP debe redondear el valor de cada muestra al número entero más cercano en una escala que varíe según la resolución de la señal. El DSP entonces convierte los números enteros a los números binarios. La cuantificación es el proceso de seleccionar esos números binarios para representar el nivel voltaje de cada muestra (el valor de la modulación de amplitud de pulso [PAM]). En un sentido, se usan los DSPs para aproximar sonidos análogos al valor binario más cercano que está disponible. El DSP debe seleccionar un número entero que esté más cercano al nivel de la señal que el DSP está leyendo, en ese instante se muestrea la señal. Los

Page 38: Manual Redes Convergentes

38

CARRERAS PROFESIONALES CIBERTEC

valores del PAM se redondean para arriba o abajo al paso que está el más cercano a la señal analógica original. La diferencia entre la señal analógica original y el nivel de la cuantificación asignados se llama error de la cuantificación o ruido de cuantificación. Esta diferencia es origende la distorsión en sistemas digitales de la transmisión.

Nota El ruido y la distorsión son diferentes fenómenos. La distorsión es cualquier cambio en la señal son los resultados en la salida que son diferentes a la original. El ruido es información/señales adicionales agregadas a la original. El ruido es una forma de error que no esté según lo relacionado directamente con la señal de entrada. Es decir el ruido es sin correlación con la señal de entrada. El ruido es también al azar en lo referente a la distorsión porque viene fuera de la señal de entrada. En términos de medida, la distorsión suena a menudo “significativa” aun cuando él no está, y como tal, distorsión es difícil a parte del ruido. Por esta razón, la distorsión puede ser de distracción en una señal de audio que ruido. El ruido del término es de uso frecuente en lugar de la distorsión. En la telefonía las aplicaciones generalmente son de cuantificación 8-bit. DSPs representa todos los valores posibles de la forma de onda analógica con 256 valores distintos del voltaje, cada uno representada por un número binario de 8 bits. Estas aproximaciones no son una duplicación exacta de la forma de onda analógica y no contienen los errores de la cuantificación (ruido). Para la comparación, los discos compactos utilizan la cuantificación de 16 bits que permite 65.536 niveles voltaicos distintos. Aunque la cuantificación de 8 bits es crudo e introduce ruido substancial de la cuantificación en la señal, el resultado sigue siendo más que adecuado representar voz humana en usos de telefonía. Otro término importante es el cociente Señal a Ruido (signal-to-noise). El cociente SNR es el cociente de una señal transmitida dada al ruido de fondo del medio de la transmisión. Una realidad desafortunada de la cuantificación es que SNR es más grande en las amplitudes de la señal porque la señal está utilizando una parte más pequeña de la gama dinámica disponible. Esto significa que

Page 39: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

39

CIBERTEC CARRERAS PROFESIONALES

los errores son proporcional grandes concerniente a la señal. Para evitar estas ediciones de SNR, los ingenieros utilizan una escala logarítmica para proporcionar una graduación para señales más pequeñas, dando por resultado uno más uniforme SNR para todas las señales.

2.2.5 Codificación Digital de voz

Las muestras de voz Digital son representadas por 8 bits por muestra. Cada muestra se codifica así: • Un bit de polaridad: Indica señales positivas o negativas • Tres segmentos de bits: Identifica logarítmicamente el tamaño

del segmento clasificado (0-7) • Cuatro bits de step: Identifique el step lineal dentro de un

segmento Porque el muestreo de telefonía toma 8000 muestras por segundo, el ancho de banda que es necesaria por llamada es 64 kbps. Esta necesidad del ancho de banda es por La aplicación con redes conmutadas de circuitos, combinando los canales múltiples de 64 kbps cada uno (el nivel 0 [DS-0] de la señal numérica) en un solo interfaz físico.

2.2.6 Companding

El termino Companding se refiere al proceso de comprimir una señal analógica en origeny en seguida de ampliar esta señal de nuevo a su tamaño original cuando alcanza su destino. El término companding viene de combinar dos términos, de la compresión y de ampliarse, en una palabra. Un compansor comprime muestras de la señal analógica de entrada en segmentos logarítmicos. El compansor después cuantifica y cifra cada segmento usando la cuantificación uniforme. Los sistemas de Bell definieron el método de la a-law de cuantificación que se utiliza en los sistemas digitales de la telecomunicación de América del norte y de Japón. Este método de cuantificación fue adoptado como el algoritmo de a-law para La aplicación en Europa y muchos del resto del mundo. Después de la idea de permitir funciones más pequeñas del paso en amplitudes más bajas más bien que en amplitudes más altas, la mu-law y la a-law proporcionan una escala cuasi-logarítmica. La gama del voltaje tiene 16 segmentos (0 a la negativa 7 positivos y 0 a 7). Cada segmento tiene 16 pasos para un total de 256 puntos en la escala. Comenzando con el segmento 0, que está el más cercano a la amplitud cero, los segmentos crecen más grandes hacia las amplitudes máximás y el tamaño de los pasos aumenta. Dentro de un segmento, sin embargo, el tamaño de los pasos es lineal. El resultado de usar mu-law y a-law es un valor más exacto para amplitudes más pequeñas y un cociente signal-to-noise uniforme de la cuantificación (SQR) a través de la gama de entrada.

Page 40: Manual Redes Convergentes

40

CARRERAS PROFESIONALES CIBERTEC

Los estándares del sector de la estandarización de la telecomunicación de ITU (ITU-T) para el companding incluyen la a-law y la mu-law en la recomendación G.711. Nota Por convención, cuando el PSTN se comunica entre un país de la mu-law y un país de la a-law, el país de la mu-law debe cambiar su señalización para acomodar el país de la a-law.

2.2.7 Características comunes del Codec de voz

La compresión de datos comprime datos de modo que los datos requieran menos ancho de banda en los canales de transmisión de datos. La mayoría de los esquemas de la compresión aprovechan el hecho de que los data streams tienen muchas repeticiones. Por ejemplo, mientras que un código de 7 bits ASCII representa caracteres alfanuméricos, un esquema de la compresión puede utilizar un código de 3 bits para representar las ocho letras más comunes. En voz, hay los stretches de silencio que se pueden substituir por un valor que indique cuánto silencio hay allí, o cuánto tiempo existe el silencio. Semejante, a las técnicas gráficas de la compresión, un valor puede substituir los espacios blancos en una imagen indicando la cantidad de espacio blanco que se substituya. El antiguo servicio telefónico (POTS) trabajó íntegramente en una infraestructura analógica. El llamar interurbano era desafiador sobre todo debido a la atenuación y la línea ruido de la señal. La amplificación periódica solucionó problemas hasta cierto punto pero también amplificó el ruido. Cuando las compañías del teléfono convirtieron sus líneas interurbanas a la modulación de código de pulso digital y usando (PCM) para convertir las señales a digital, estos problemas desaparecieron virtualmente. La técnica básica del PCM es utilizar un codificador-decodificador (códec) para muestrear la amplitud de una señal de voz 8000 veces por segundo y después para almacenar el valor de la amplitud como 8 bits de datos. Hay una fórmula en este procedimiento de almacenamiento: 8000 muestras/segundos x 8 bits/muestra = 64.000 bits/sec El resultado es la base para sistema telefónico digital Jerárquico. La modulación diferencial (o delta) de modulación pulso-código (DPCM) codifica los valores del PCM como diferencias entre la corriente y el valor anterior. Para el audio, este tipo de codificación reduce el número de los bits requeridos por muestra del 25 por ciento comparados al PCM. DPCM adaptante (ADPCM) es una variante de DPCM que varía el tamaño de espacio de la cuantificación para permitir la reducción adicional del ancho de banda requerida para un cociente signal-to-noise dado. En gran parte, ADPCM ha substituido el PCM. ADPCM utiliza una técnica de codificación especial que reduce los datos que se requieren para almacenar por cada muestra,

Page 41: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

41

CIBERTEC CARRERAS PROFESIONALES

transmitiendo solamente la diferencia entre una muestra y el siguiente. Un algoritmo adaptante del predictor predice por adelantado cómo la señal cambiará. La predicción es generalmente muy exacta. Mientras que las muestras varían, el predictor se adapta rápidamente a los cambios. ADPCM proporciona 48 canales de voz en una línea T1, que beneficia a clientes que utilizan tales líneas para interconectar sus oficinas alejadas o para conectar su sistema telefónico internos con los switches de la compañía del teléfono. Se muestra las técnicas más populares de la codificación por sus índices binarios que sean estandardizados para la telefonía por el ITU-T en sus recomendaciones de las series G: • G.711: Describe la técnica de la codificación de voz del PCM de

64 kbit/sec. En G.711, la voz codificada está ya en el formato correcto para la entrega digital de voz en el PSTN o con PBXs.

• G.726: Describe la codificación de ADPCM en 40, 32, 24, y 16

kbps. la voz ADPCM-codificada se puede intercambiar entre la voz de paquetes, las redes del PSTN, y del PBX si las redes del PBX se configuran para soportar ADPCM.

• G.728: Describe 16 kbps bajo-retardo la variación de la

compresión linear excitada código de voz de la predicción (CELP). La codificación de voz de CELP se debe traducir a un formato público de telefonía para la entrega o a través del PSTN.

• G.729: Describe la compresión de CELP que los códigos

expresan en 8 corrientes de los kbps, o conjuga la predicción linear excitada código algebraico de la estructura (CS-ACELP).

• G.729A: Describe el algoritmo audio de la compresión de datos

para la voz que comprime audio de voz en secciokj’’’’’’’’’’’’’nes del ms 10. G.729A es compatible con G.729 (que también utilice CS-ACELP), pero G.729A requiere menos cómputo. Esta complejidad más baja tiene la desventaja marginal de empeorar ¿< kkkkkkklra los algoritmos de la codificación. La medida de calidad perceptiva del discurso (PSQM), según ITU P.861 estándar, proporciona un grado en una escala de 0 a 6.5, donde está el mejor 0 y 6.5 es los peores. Muchos vendedores ponen PSQM en ejecución en el equipo de prueba y sistemas de supervisión. El equipo de prueba de algún PSQM convierte las 0 escalas to-6.5 a las 0 escalas to-5 al correlativo al MOS. PSQM trabaja comparando el discurso transmitido a la entrada original y rindiendo una cuenta. El equipo de prueba de varios vendedores es capaz ahora de proporcionar una cuenta de PSQM para una llamada de voz de la prueba sobre una red particular de paquetes.

2.2.9 Una mirada más cercana en un DSP

En un módulo típico de DSP que se pudo utilizar en un router de con tráfico de voz habilitado Cisco. Un procesador de la señal

Page 42: Manual Redes Convergentes

42

CARRERAS PROFESIONALES CIBERTEC

numérica (DSP) es un procesador especializado usado para las aplicaciones de telefonía: • Terminación de voz : DSPs termina las llamadas a la entrada de

las cuales se han recibido o se han colocado a los interfaces tradicionales de voz. Estos interfaces pueden ser interfaces digitales o análogos. Por ejemplo, cuando un teléfono del análogo pone una llamada al PSTN (sobre un tronco digital) o a un dispositivo de VoIP, un recurso de DSP se utiliza para acomodar esta llamada. El DSP convierte la señal analógica a digital (y viceversa) y proporciona la cancelación del eco, la compresión, la detección de la actividad de voz (VAD), la generación de ruido de comodidad (CNG), la reducción del jitter y otras funciones similares.

• Conferencia : En la comunicación audio, la voz de la mezcla de

DSPs fluye de participantes múltiples en una sola corriente de la llamada de conferencia. Todos los participantes envían su audio al puente de la conferencia (es decir, el DSP), donde las corrientes se mezclan y después se juegan de nuevo a todos los participantes.

• Transcodificación : DSP toma una corriente de voz de un tipo

del codec y la convierte a otro tipo del codec. Por ejemplo, la transcodificación toma una corriente de voz de un codec G.711 y transcodifica la corriente en tiempo real a una corriente del codec G.729.

Un DSP que se utiliza para las conferencias permite que los participantes de la conferencia utilicen diferentes codecs. En este caso, las corrientes de las mezclas de DSP no solamente con el mismo tipo del codec pero pueden mezclar las corrientes de diferentes tipos del codec. El DSP también proporciona funciones de transcodificación. Debido a esta funcionalidad adicional, las multiconferencias son más intensivas en uso de DSPs y soportan pocas conferencias que en modo simple.

Un DSP que se utiliza para las conferencias unimodales soporta solamente un codec que todos los participantes de la conferencia deban utilizar. En este caso, el DSP puede mezclar flujos con el mismo tipo del codec solamente. Si los dispositivos con diferentes codecs ensamblan la conferencia, se requiere la transcodificación usando DSPs separado.

Page 43: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

43

CIBERTEC CARRERAS PROFESIONALES

2.3 Encapsulado de paquetes de voz para el transpor te

2.3.1 Transporte de voz en redes con conmutador de circuito

En ambientes del PSTN, los teléfonos residenciales conectan con los switches de sede (CO) en los circuitos análogos. La red de la base se compone de los switches que son interconectados por los troncos digitales, según lo ilustrado en figura. Cuando un usuario que inicia la llamada pone una llamada a un segundo teléfono, la etapa de la disposición de llamada ocurre primero. Esto instala un circuito dedicado de extremo a extremo (DS-0) para la llamada. El switch del CO entonces convierte las señales analógicas recibidas en formato digital usando el codec G.711. Durante la etapa de la transmisión, la transmisión síncrona envía los bits G.711 en una tasa fija con un muy bajo pero constante retardo. El circuito dedica el ancho de banda entera (64 kbps) a la llamada, y porque todos los bits siguen la misma trayectoria, todas las muestras de voz permanecen en orden. Cuando la llamada acaba, los switches lanzan los circuitos individuales DS-0, haciéndolos disponibles para uso de otras llamadas.

2.3.2 Transporte de voz en redes IP

En las redes de VoIP, los teléfonos análogos conectan con las entradas de VoIP a través de interfaces análogos. Las entradas conectan a través de una red del IP, según las indicaciones de figura. Los telefonos IP conectan con los switches, y los switches alternadamente conectan directamente con los routers. Cuando un usuario que inicia la llamada pone una llamada a partir de un teléfono a otro teléfono, la etapa de la disposición de llamada fija el llamar lógicamente, pero no se asocia ningunos circuitos dedicados (líneas) a la llamada. La entrada entonces convierte las señales analógicas recibidas en formato digital usando un codec, tal como G.711 o G.729 con la compresión de voz. Durante la etapa de la transmisión, las entradas de voz insertan los paquetes de voz en los paquetes de datos y después envían los

Page 44: Manual Redes Convergentes

44

CARRERAS PROFESIONALES CIBERTEC

paquetes de datos, uno por uno, hacia fuera a la red. El ancho de banda de los enlaces entre los routers individuales no son de división de tiempo multiplexadas en los circuitos separados sino son solos circuitos de alto consumo de ancho de banda, llevando los paquetes IP de varios dispositivos. Los paquetes de voz incorporan la red en una tasa constante (que sea más baja que la línea velocidad física, dejando el espacio para otros paquetes). Sin embargo, los paquetes pueden llegar su Destino las tasas que varían. Cada paquete encuentra diferente retardo en la ruta a destinoy los paquetes pueden incluso llevar diferentes rutas la misma Destino. La condición donde paquetes llegan variar, las tasas imprevisibles se llama jitter. Para la voz a la parte en el otro extremo, el router de destino tiene dos tareas. Los routers deben reinsertar los intervalos correctos de tiempo y debe asegurarse de que los paquetes están en el orden correcto después que la llamada sea completada.

2.3.3 Protocolos usados en el encapsulamiento de vo z

El IP no está bien adaptado a la transmisión de voz. Las aplicaciones en tiempo real tales como voz y vídeo requieren una conexión fiable garantizada con retardo constante. IP no garantiza confiabilidad, control de flujo, la detección de error, o la corrección de error. El resultado es que los paquetes (o los datagramas) pueden llegar destinofuera de secuencia o con errores o no llegar todos. Dos protocolos de capa de transporte están disponibles para ayudar superan las debilidades inherentes del IP. Los TCP y el UDP permiten la transmisión de la información entre los procesos correctos (o las aplicaciones) en los ordenadores huesped. Estos procesos se asocian a números de acceso únicos (por ejemplo, La aplicación del HTTP se asocia generalmente al puerto 80). Sin embargo, solamente el UDP es conveniente para las aplicaciones de VoIP. El TCP ofrece la transmisión orientada a la conexión y confiable. El TCP establece una trayectoria de comunicaciones antes de datos que transmiten. El TCP maneja la detección el ordenar y de error para asegurarse de que La aplicación de Destino recibe una corriente confiable de datos. Sin embargo, la voz es un uso en tiempo real. Si un paquete de voz se pierde, una retransmisión de TCP accionada por la expiración de un contador de tiempo de la retransmisión llega demásiado tarde para una retransmisión eficaz de ese paquete de voz. En tal situación, es mejor perder algunos paquetes (que degrada brevemente calidad) más bien que volver a enviar los segundos después de paquetes. Al usar VoIP, es más importante que los paquetes llegan La aplicación de Destino en la secuencia correcta y confiable El UDP, como el IP, es un protocolo sin conexión. Los datos de las rutas del UDP a su puerto correcto de destinopero no procuran realizar ordenar o asegurar confiabilidad de datos. Dos protocolos, protocolo en tiempo real del transporte (RTP) y manija del protocolo del control de RTP (RTCP) estas tareas:

Page 45: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

45

CIBERTEC CARRERAS PROFESIONALES

• RTP transporta las muestras convertidas a digital de la

información en tiempo real. • RTCP proporciona la regeneración en la calidad de enlace de la

transmisión. Nota Observe que RTP y RTCP no reducen el total retardon de la información en tiempo real. Ni hacen cualquier garantía referente a la calidad del servicio. RTP tiene otra función importante: paquetes reordering. En una red del IP, los paquetes pueden llegar en un diferente orden del que fueron transmitidos. Las aplicaciones en tiempo real deben saber la época relativa de la transmisión de paquetes. Paquetes de los time-stamps de RTP para proporcionar estas ven Para TCP es necesario proporcionar transporte confiable y debe acomodar los paquetes recibidos que son reconocidos, enviado los paquetes que son mantenidos un almacenador intermedio de retransmisión hasta que el receptor reconoce el recibo, y así sucesivamente. La cabecera grande de TCP (20 octetos) consume más ancho de banda que la cabecera más pequeño del UDP (8 octetos). También, la transmisión de voz no necesita la funcionalidad de la retransmisión de TCP una vez que la disposición de llamada sea completa. Porque las cabeceras del UDP y de RTP son más pequeños que encabezados de TCP, las cabeceras del UDP y de RTP no proporcionan transporte confiable. Un dispositivo de VoIP puede tener llamadas activas múltiples. El dispositivo debe seguir qué paquetes pertenecen a cada llamada. Proveer del dispositivo de VoIP esto necesitó multiplexar capacidad, los números de acceso del UDP identifican la llamada que el paquete pertenece a y sigue los paquetes a las llamadas específicas. Durante la disposición de llamada, el dispositivo de VoIP negocia los números de acceso del UDP para cada llamada y se asegura de que los números de acceso son únicos para todas las llamadas actualmente activas. Los números de acceso del UDP que se utilizan para RTP están en la gama de 16.384 a 32.767.

2.3.4 Encapsulación Codecs de voz

Los dispositivos de VoIP encapsulan voz en RTP y el UDP antes de agregar la cabecera del IP. El tamaño de paquetes entero de VoIP depende del codec se utiliza que y la cantidad de voz que es packetized. La longitud de las muestras puede variar, pero para la voz, las muestras que representan al ms 20 son la duración máxima para la carga útil. La selección de esta duración de la carga útil es un compromiso entre los requisitos del ancho de banda y la calidad. Cargas útiles más pequeñas exigen un ancho de banda proporcionalmente más alta por venda del canal porque sigue habiendo la longitud de la cabecera en 40 octetos. Sin embargo, si las cargas útiles aumentan, el total retardo en los

Page 46: Manual Redes Convergentes

46

CARRERAS PROFESIONALES CIBERTEC

aumentos del sistema, y el sistema es más susceptible a la pérdida de paquetes individuales por la red.

2.3.5 Reducción de consumos indirectos de la cabece ra con el cRTP

Los consumos indirectos combinados de las cabeceras IP, del UDP, y de RTP son enormemente altos, especialmente porque la voz viaja en paquetes relativamente pequeños y en las altas tasas de paquetes. Cuando se utiliza G.729, las cabeceras son dos veces el tamaño de la carga útil de voz.

2.3.6 Cuándo utilizar la compresión de RTP El cRTP reduce por encima para el tráfico de las multimedias RTP. La reducción en los consumos indirectos para el tráfico de las multimedias RTP da lugar a una reducción correspondiente en retardo; el cRTP es beneficioso cuando el tamaño de la carga útil de RTP es pequeño, por ejemplo las cargas útiles audio. Utilice la compresión de la cabecera de RTP en cualquier interfaz WAN donde usted se refiere sobre ancho de banda y donde hay una parte elevada de tráfico de RTP. A pesar de las ventajas, hay algunas desventajas a considerar antes de permitir el cRTP. Considere los factores siguientes antes de permitir el cRTP: • Utilice el cRTP cuando usted necesita conservar ancho de banda

en sus enlaces WAN, pero permita el cRTP solamente en los enlaces lentos (menos de 2 Mbps).

• Considere las desventajas del cRTP:

Page 47: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

47

CIBERTEC CARRERAS PROFESIONALES

• El cRTP de o agrega a procesar consumos indirectos; compruebe los recursos disponibles en sus routers antes de dar vuelta en cRTP.

• El cRTP de o introduce adicional retardo debido al tiempo que toma para realizar la compresión y la descompresión.

• cRTP de la consonancia limitando el número de las sesiones que se comprimen en el interfaz. El defecto es 16 sesiones. Si su CPU del router no puede manejar 16 sesiones, baje el número de las sesiones del cRTP. Si el router hace que bastante energía y usted de la CPU deseen comprimir más de 16 sesiones sobre un enlace, fije el parámetro a un valor más alto.

2.4 Requisitos de ancho de banda para VoIP

2.4.1 Impacto del tamaño de las muestras y de paque tes de voz en ancho de banda

Cuando un dispositivo de VoIP envía voz sobre redes de paquetess, el dispositivo encapsula la información convertida a digital de voz en los paquetes IP. Estos consumos indirectos de el encapsulamiento requieren ancho de banda adicional según lo determinado por estos elementos: • Tasa de paquetes: La tasa de paquetes especifica el número

de paquetes que se envían en cierto intervalo del tiempo. La tasa de paquetes se especifica generalmente en paquetes por el segundo (pps). La tasa de paquetes es lo contrario multiplicative del período del packetización. El período del packetización es la cantidad de voz (tiempo) que será encapsulada por paquete y se especifica generalmente en milisegundos.

• Tamaño de Packetización: especifica el número de los bytes

que son necesarios representar la información de voz que será encapsulada por paquete. El tamaño de Packetización depende del período del packetización y del ancho de banda del codec que se utiliza.

• IP overhead: Los consumos indirectos IP especifican el

número de los bytes que se agregan a la información de voz durante el encapsulamiento IP. Cuando la voz se encapsula en RTP, el UDP, y el IP, los consumos indirectos del IP son la suma los consumos indirectos de todas estas cabeceras.

• Enlace de datos overhead: especifican el número de los bytes

que se agregan durante el encapsulamiento de enlace de datos. Los consumos indirectos de enlace de datos dependen del protocolo usado de enlace de datos, que puede ser diferente para cada enlace.

• Tunneling overhead: especifican el número de los bytes que

son agregados por cualquier seguridad o protocolo el hacer un túnel, tal como hacer un túnel de 802.1Q, IPSec,

Page 48: Manual Redes Convergentes

48

CARRERAS PROFESIONALES CIBERTEC

encapsulación genérica de la ruta (GRE), o conmutación Multiprotocol de la etiqueta (MPLS).

2.4.2 Impacto de Codecs en ancho de banda

Un codec transforma señales analógicas en formato digital. Diferentes codecs tienen diferentes requisitos del ancho de banda:

• G.711: El codec G.711 utiliza la mayoría del ancho de banda. Codifica cada uno de las 8000 muestras que se toman cada segundo en 8 bits, dando por resultado una ancho de banda del codec de 64 kbps.

• G.722: El codec G.722 parte la señal de entrada en dos sub-

bandas y utiliza una versión modificada de la modulación de código de pulso diferenciado adaptante (ADPCM). El ancho de banda de G.722 es 64, 56, o 48 kbps.

• G.726: Los esquemas de codificación de G.726 ADPCM utilizan

menos ancho de banda. Estos esquemas de codificación codifican cada uno de las 8000 muestras que se toman cada segundo usando 4, 3, o 2 bits, dando por resultado anchos de banda de 32, 24, o de 16 kbps.

• G.728: El G.728 utiliza muestras lineares excitadas con codificación

por predicción (LDCELP). Las formás de onda de cinco muestras son representadas por una palabra de 10 bits, que identifica el mejor patrón obtenido. Debido a la compresión de cinco muestras (digno de 40 bits en el PCM) a 10 bits, el ancho de banda de LDCELP es 16 kbps.

• G.729: La estructura G.729 basado en código algebraico excitado

con esquema de codificación lineal de predicción (CS-ACELP) también ofrece la compresión basada en patrones. Las formás de onda de 10 bits son representadas por un palabra de 10 bits, reduciendo el ancho de banda a 8 kbps. El ancho de banda del codec, sin embargo, indica solamente el ancho de banda que se requiere para la voz convertida a digital. No incluye ningun consumos indirectos de packetización.

2.4.3 Cómo la paquetización afecta el tamaño y tasa de

paquetes de VoIP

El overhead de paquetización que un dispositivo de VoIP agrega al ancho de banda del codec depende del tamaño de las cabeceras agregadas y de la tasa de paquetes. Enviar más paquetes agrega más cabeceras IP, del UDP, y de RTP a la carga útil de voz. El requisito total del ancho de banda de VoIP incluye el paquete entero de VoIP (las cabeceras y carga útil de voz) y el índice que envía de paquetes de VoIP. En los dispositivos de VoIP, usted puede especificar, en la adición al codec, la cantidad de voz encapsulada por paquete.

Page 49: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

49

CIBERTEC CARRERAS PROFESIONALES

Generalmente, este valor se configura por el período del packetización (en milisegundos). Un tiempo más alto del packetización da lugar a un tamaño más grande de paquetes del IP debido a la carga útil más grande (las muestras convertidas a digital de voz). Sin embargo, un tiempo más alto del packetización da lugar a una tasa más baja de paquetes, reduciendo los consumos indirectos IP debido al número más pequeño de paquetes que deben ser generados.

2.4.4 Overhead de enlace de datos

Cuando un dispositivo de VoIP envía los paquetes IP sobre un enlace dentro de una red IP, el dispositivo encapsula los paquetes usando el protocolo de enlace de datos para ese enlace. Cada enlace puede utilizar un diferente protocolo de enlace de datos.

En un escenario donde un un paquete IP que vaya a partir de un teléfono IP a otro. Los dos telefonos IP están situados en diferente LANs y separados por una red dFrame Relay. Antes de que el teléfono que envía transmita el paquete de VoIP sobre el LAN, el teléfono tiene que encapsula el paquete en una trama Ethernet. El router que recibe la trama quita la cabecera de Ethernet y encapsula el paquete de VoIP antes de enviar el paquete hacia fuera al WAN. El routres que recibe el paquete de VoIP de la red quita la cabecera y encapsula el paquete de VoIP en un trama Ethernet otra vez antes de pasar el paquete al teléfono de recepción IP.

Page 50: Manual Redes Convergentes

50

CARRERAS PROFESIONALES CIBERTEC

Los consumos indirectos de los protocolos de enlace de datos de uso general para VoIP son 18 bytes para Ethernet, 22 bytes para las tramas de Ethernet 802.1Q-tagged, y duando usted calcule la anchos de banda de una llamada de VoIP para cierto enlace, usted debe considerar los consumos indirectos apropiados del protocolo de enlace de datos.

2.4.5 Seguridad y el overhead de tunelización

Los paquetes IP, y por lo tanto también los paquetes de VoIP, se pueden asegurar usando IPSec. Hay dos modos de IPSec: modo del transporte y modo del túnel. En cualquier modo, los paquetes se pueden proteger por la cabecera de autentificación (AH), la cabecera de encapsulado de la carga útil de la seguridad (ESP), o ambos cabeceras. En modo del túnel, se genera una cabecera adicional IP, permitiendo La aplicación de las redes privadas virtuales (VPNs). Además, los paquetes IP o las tramas de enlace de datos 1º Pueden ser tunelizados sobre una variedad de protocolos. Los ejemplos para tales protocolos del túnel incluyen éstos: � GRE, que puede transportar los paquetes de la capa de red o los

paquetes excesivos del IP de las tramas del dato-enlace � La expedición de la capa 2 (L2F) y acoda el protocolo el hacer un

túnel 2 (L2TP), que hacen un túnla tramas del PPP sobre redes del IP

� Ethernet excesiva del PPP (PPPoE), que permite que el PPP sea utilizado sobre Ethernet

� 802.1Q que hace un túnel, que transporta las tramas 802.1Q dentro de otro VLAN.

Los protocolos IPSec el hacer un túnel tienen algunas características comunes. Todos encapsulan el paquete o la trama original en otro protocolo. La adición de la cabecera del protocolo el hacer un túnel aumenta el tamaño de paquetes original, dando por resultado necesidades más altas del ancho de banda. El ancho de banda adicional puede ser crítico, ESP para los paquetes de voz, debido a altas tasas de la transmisión de paquetes y tamaño pequeño de paquetes. Cuanto más grandel tamaño es de las cabeceras adicionales, mayor la necesidad es para el ancho de banda adicional para los paquetes de VoIP.

2.4.6 Cabeceras adicionales en protocolos de seguri dad e implementación de un túnel IPSec y los protocolos el hacer un túnel agregan las cabeceras de diferentes tamaños. Los consumos indirectos de IPSec dependen de la aplicación de las cabeceras disponibles (AH y ESP), el cifrado o los algoritmos de la autentificación que se utilizan en estas cabeceras, y el modo de IPSec (transporte o modo del túnel). Porque AH soporta solamente la autentificación mientras que soporta ESP la autentificación y el cifrado, se utiliza ESP más a

Page 51: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

51

CIBERTEC CARRERAS PROFESIONALES

menudo. Con el estándar de cifrado de datos (DES) o DES triple (3DES) usado para el resumen 5 (MD5) del cifrado y del mensaje o el algoritmo seguro 1 (SHA-1) del picadillo usado para la autentificación, la cabecera agrega ESP 30 a 37 octetos en modo del transporte. Cuando se utiliza el estándar avanzado del cifrado (AES) mientras que el algoritmo del cifrado y el bloque AES-extendido de la cifra que encadenan (AES-XCBC) se utiliza para la autentificación, 38 a 53 octetos se agregan en modo del transporte. ESP el DES y 3DES requieren que la carga útil esté redondeada hasta múltiplos de 8 octetos (dando por resultado 0 a 7 octetos de acolchado), mientras que la carga útil de AES se redondea ESP hasta múltiplos de 16 octetos (dando por resultado 0 a 15 octetos de espacio). En modo del túnel, un suplemento 20 octetos se debe agregar para la cabecera adicional del IP.

L2TP o GRE agregan 24 octetos a la trama original PPP, MPLS agrega 4 octetos al paquete original del IP, y PPPoE agrega un suplemento encabezado de PPPoE de 8 octetos entre la trama Ethernet y el paquete del IP.

2.4.7 Calcular el ancho de banda total para una lla mada de VoIP Cuando usted está diseñando las redes para VoIP, es crucial saber el ancho de banda total de una llamada de VoIP que ocurra a través del enlace. La figura representa una red simple de VoIP. Esta información es necesaria determinar la capacidad de enlaces físicos y desplegar correctamente CAC y QoS. CAC limita el número de las llamadas de voz concurrentes; este límite evita el oversubscription del enlace, que causa la degradación de la calidad. El QoS da la prioridad a los paquetes de voz, el evitar demásiado-alto retardo que son causados haciendo cola, que afecta otra vez calidad de voz. Para calcular el ancho de banda total de una llamada de VoIP, realice estos pasos: Paso 1

Page 52: Manual Redes Convergentes

52

CARRERAS PROFESIONALES CIBERTEC

Información requerida frunce del paquetización: Primero, usted debe determinar el ancho de banda del codec que se utiliza para convertir las señales a digital analógicas. El ancho de banda del codec se especifica en kilobits por segundo y está generalmente en la gama de aproximadamente 8 a 64 kbps. Usted también necesita el período del paquetización (especificado en milisegundos) o el tamaño del paquetización (especificado en octetos). Si usted tiene el ancho de banda del codec y la que está de estos dos valores, usted puede calcular el valor restante. Paso 2 Información requerida sobre el enlace: La cantidad de consumos indirectos que será agregada por paquete en cada enlace es el pedazo de información siguiente que usted necesita. La cantidad de consumos indirectos usada depende encendido si o no el cRTP está utilizado, que el protocolo del dato-enlace es funcionando, y cuál son los consumos indirectos del dato-enlace por paquete. Los consumos indirectos del IP, del UDP, y de RTP son 40 octetos a menos que se utilice el cRTP. Si se utiliza el cRTP, los consumos indirectos son 2 (el defecto) o 4 octetos. Haga seguro incluir los consumos indirectos (en octetos) del protocolo del dato-enlace se utiliza que. Finalmente, usted debe saber si se están utilizando algunas otras características que causan consumos indirectos adicionales y cuánto sean utilizando las características de arriba. Las características adicionales pueden ser características de la seguridad, tales como VLANs, IPSec, o cualquier uso especial el hacer un túnel. Paso 3 Calcule el tamaño o el período del paquetización: Dependiendo del dispositivo de voz, usted puede ser que sepa el período del paquetización o el tamaño del paquetización (determinado en el paso 1). Calcule la información que falta basada en el valor conocido más el ancho de banda del codec, también conocida en el paso 1. El tamaño del paquetización se expresa en octetos; el período del paquetización se expresa en milisegundos. Paso 4 Agregue junto el tamaño del paquetización y todos las cabeceras y acoplados: Agregue los consumos indirectos del IP, UDP, y RTP (o cRTP), protocolo del dato-enlace, y cualquier otro protocolo que usted observara en el paso 2 a la carga útil de voz (tamaño del paquetización), que usted determinó en el paso 1 o el paso 3. Todos los valores deben estar en octetos. Paso 5 Calcule la tasa de paquetes: Calcule cuántos paquetes serán enviados por segundo usando lo contrario multiplicative del período del paquetización. Porque la tasa de paquetes se especifica en paquetes por segundo, cerciórese de convertir el valor de los milisegundos del período del paquetización a los segundos. Paso 6 Calcule el ancho de banda total: Multiplique el tamaño total de paquetes o del bastidor por la tasa de paquetes para calcular el

Page 53: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

53

CIBERTEC CARRERAS PROFESIONALES

ancho de banda total. Porque el tamaño de paquetes se especifica en octetos y el ancho de banda se especifica en kilobits por segundo, usted necesita convertir octetos a los kilobits. De acuerdo con este procedimiento, usted puede calcular el ancho de banda que es utilizada por un VoIP invita un enlace específico. Para planear la capacidad de enlaces físicos, considere el número máximo de las llamadas que son probables ser hechas inmediatamente y del ancho de banda que es necesaria para las aplicaciones con excepción de VoIP. Además, usted debe asegurarse de que bastante ancho de banda esté disponible para señalar del desmontaje de la disposición de llamada y de la llamada. Aunque los mensajes de señalización necesitan relativamente poco ancho de banda, usted no debe olvidarse a la disposición del ancho de banda para los protocolos de señalización (especialmente en su configuración de QoS).

Resumen Si se asume que usted sabe el período del paquetización (en milisegundos por paquete), las fórmulas para calcular el ancho de banda total se agregan y después se simplifican a esto: Ancho de banda [kbps] = (8 * (dato-enlace de arriba [octetos por paquete] + el otro de arriba [octetos por paquete] + IP de arriba [octetos por paquete]) + período del paquetización [ms por paquete] * ancho de banda del codec [kpbs])/período de paquetización [ms por paquete] Si el tamaño del paquetización (en octetos por paquete) se sabe en vez del período del paquetización (milisegundos por paquete), la manera más simple de calcular el ancho de banda total es utilizar esta fórmula:

Page 54: Manual Redes Convergentes

54

CARRERAS PROFESIONALES CIBERTEC

Ancho de banda [kbps] = (ancho de banda del Codec [kbps]/tamaño del paquetización [octetos por paquete]) * (tamaño del paquetización [octetos por paquete] + dato-enlace de arriba [octetos por paquete] + el otro de arriba [octetos por paquete] + IP de arriba [octetos por paquete])

2.4.8 Cálculo rápido del ancho de banda

Recuerde que el cociente del requisito total del ancho de banda al ancho de banda nominal para la carga útil es igual que el cociente del tamaño total de paquetes al tamaño de la carga útil. El tamaño de la carga útil depende del intervalo de la muestra y del codec que se utiliza y es generalmente 20 octetos para G.729 y 160 octetos para G.711, si se asume que un intervalo de la muestra de 20 ms. Las cabeceras son siempre 40 octetos para las cabeceras del IP, del UDP, y de RTP, más el tamaño de la cabecera de la capa 2. El tamaño de la capa 2 es 6 octetos para Frame Relay o el PPP o 18 octetos para Ethernet.

Para calcular el ancho de banda total, encuentre el tamaño total de paquetes, incluyendo todas las cabeceras más la carga útil y divídase por el tamaño de la carga útil. Multiplique el resultado por el ancho de banda nominal para el codec. El resultado es el requisito total del ancho de banda.

Page 55: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

55

CIBERTEC CARRERAS PROFESIONALES

2.4.9 Efectos de VAD en ancho de banda

En una red con conmutador de circuito de telefonía, debido a la naturaleza de la red, el ancho de banda de una llamada es permanentemente disponible y dedicado a esa llamada. No hay manera de tomar la ventaja de las pausas del discurso, de la transmisión audio unidireccional, o de casos similares cuando un enlace no se está utilizando. En una red de paquetes, sin embargo, la detección de la actividad de voz (VAD) puede aprovecharse del hecho de que una mitad de la llamada de voz media consiste en silencio. VAD detecta el silencio causado, para el caso, por pausas del discurso o por la transmisión audio unidireccional mientras que un usuario que inicia la llamada está escuchando la música en el asimiento (MoH) al ser transferido. VAD suprime la transmisión del silencio y, por lo tanto, ahorra ancho de banda.

La cantidad de ancho de banda ahorrada por VAD depende de varios factores: � Tipo de audio: Durante una conversación humana, las dos partes

no hablan generalmente al mismo tiempo. Cuando se reproduce MoH, la llamada se convierte generalmente en una llamada unidireccional. Debido a la música que constantemente se reproduce, ningun ancho de banda se puede ahorrar en esta dirección de llamada..

� Nivel del ruido de fondo: VAD necesita detectar silencio para

poder realizar la supresión del silencio. Si el ruido de fondo es demásiado alto, VAD no puede detectar silencio y no continúa la transmisión.

� Otros factores: Las diferencias en el idioma tiene un impacto en

la cantidad de silencio que se detecte en una llamada. Algo llama, por ejemplo conferencias o las difusiones donde los

Page 56: Manual Redes Convergentes

56

CARRERAS PROFESIONALES CIBERTEC

solamente un o algún participantes están hablando y la mayor parte de los participantes están escuchando permiten ahorros más altos de ancho de banda que otras llamadas.

En promedio, La aplicación de VAD puede ahorrar cerca de 35 por ciento del ancho de banda. Debido a los factores mencionados, hay desviación considerable entre cada llamada individual. Por lo tanto, el promedio de 35 por ciento asume cierta distribución estadística de los tipos de la llamada, que se alcanza generalmente solamente si un enlace lleva por lo menos 24 llamadas. Si usted está calculando el ancho de banda para menos llamadas, usted no debe tomar VAD en consideración.

2.5 Implementación de VoIP en una red corporativa

2.5.1 Puesta en marcha de redes de voz de la empre sa

Las puestas en práctica de redes de voz de la empresa utilizan componentes tales como gateways, gatekeepers, Cisco Unified CallManager y telefonos IP. Cisco unificó las ofertas de CallManager PBX-como características a los telefonos IP. Las gateways interconectan sistemas tradicionales de telefonía, tales como teléfonos análogos o digitales, PBXs, o el PSTN a la solución de telefonía IP. Los gatekeepers pueden ser utilizados para el escalabilidad de los planes de marcado y para la gestión del ancho de banda al usar el protocolo H.323. Si tenemos una empresa con jefaturas en Chicago, dos oficinas en el área de San Francisco, y una oficina más pequeña en Dallas. En Chicago, tres localizaciones de las jefaturas conectan vía un Metropolitan Area Network (MAN). La oficina del oeste principal de la costa en San Francisco conecta con la oficina del San Jose vía una MAN. Dallas tiene un solo sitio. Las tres localizaciones principales de la interconexión de la compañía (área de la bahía de Chicago, San Francisco, y Dallas) vía un IP WAN. Las localizaciones cada uno de Chicago, de San Francisco, y de Dallas tienen un racimo unificado Cisco de CallManager el servir de los teléfonos locales del IP y de los telefonos IP situados en los sitios MAN-conectados. En el campus del aeropuerto en Chicago, los telefonos IP no se utilizan porque la compañía está utilizando un servicio manejado de telefonía que sea ofrecido por el dueño del edificio. Sin embargo, una entrada de voz conecta con el PBX manejado, permitiendo VoIP llama a y desde los teléfonos de la oficina del aeropuerto a través de entrada.

Page 57: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

57

CIBERTEC CARRERAS PROFESIONALES

Los sitios de las jefaturas de Chicago utilizan el router WAN del IP como gatekeeper que proporcione CAC y gestión del ancho de banda para H.323 llama. Además, cada sitio principal tiene una gateway de voz que se conecta con la PSTN, permitiendo las llamadas. Estos routers de gateway se equipan de los procesadores de la señal digital (DSPs) que proporcione la comunicación y los recursos de transcodificación. Dentro de cada área, se utiliza el codec G.711, mientras que las llamadas entre las tres áreas utilizan el codec G.729. Todas las llamadas dentro de la empresa deben utilizar el IP WAN. Si el IP WAN falla, o si las llamadas son negadas por CAC, las llamadas se reencaminan a través del PSTN.

2.5.2 Despliegue de CAC

Las soluciones de telefonía IP ofrecen CAC para limitar el número de las llamadas de voz concurrentes permitidas para prevenir el oversubscription de recursos WAN. Sin CAC, si demasiadas llamadas son activas y demásiado tráfico de voz se envía inmediatamente, retardo y las descartes de paquetes ocurren. Incluso dando a paquetes de RTP el excedente absoluto de la prioridad el resto del tráfico no elimina problemas cuando el ancho de banda física no es suficiente llevar todos los paquetes de voz. Los mecanismos de QoS no asocian los paquetes individuales de RTP a llamadas individuales; por lo tanto, todos los paquetes de RTP se tratan igualmente. Todos los paquetes de RTP experimentarán retardon, y cualquier paquete de RTP puede ser caído. El efecto de este comportamiento es que todas las llamadas de voz experimentan la degradación de la calidad de voz cuando ocurre el oversubscription. Una idea falsa común es que solamente las llamadas que están más allá del límite del ancho de banda sufren de la degradación de calidad. CAC es el único método que previene la degradación general de la calidad de voz que es causada por también muchas llamadas activas concurrentes.

Page 58: Manual Redes Convergentes

58

CARRERAS PROFESIONALES CIBERTEC

2.5.3 Funciones de gateway de voz en un router Cisc o

Los routers de Cisco, especialmente los routers de servicios integrados (ISR), por ejemplo, la serie 3800 de Cisco, son capaces de procesar voz. Estos routers se pueden equipar de los interfaces tradicionales de telefonía para actuar como entradas para los dispositivos análogos y digitales incluyendo los teléfonos, faxes, PBXs, y el PSTN, permitiendo que esos dispositivos obren recíprocamente con las redes de VoIP. Los routers soportan numerosos interfaces análogos, interfaces digitales, y protocolos de señalización: • Foreign Exchange Station (FXS) • Foreign Exchange Office (FXO) • Ear / Mouth (E&M) • T1 o E1 (CAS) de canal asociado y T1 o E1 de canal común

(CCS) con el ISDN • Protocolo de señalización (Q.SIG) Las entradas con los interfaces análogos convierten señales analógicas en formato digital antes de encapsular voz en los paquetes IP. Los gateways pueden comprimir voz convertida a digital antes de que suceda el encapsulamiento. Esta compresión reduce el ancho de banda que cada llamada necesita. Los routers con IOS de Cisco soportan H.323, el protocolo de la iniciación de la sesión (SIP), y el protocolo del control de entrada de los medios (MGCP) para señalar de VoIP. Además, las entradas se pueden equipar de DSPs, que proporcionan la comunicación y recursos de transcodificación. En ambientes de telefonía IP, las entradas soportan los panoramás del retardo para los telefonos IP que han perdido conectividad del IP a su agente de la llamada (es decir, CallManager unificado Cisco). Esta característica, llamada Cisco Survivable Remote Site Telephony (SRST), permite a la entrada tomar el papel del agente de la llamada durante falta WAN. Las llamadas locales pueden entonces proceder aunque conectividad del IP a CallManager unificado Cisco están quebradas. Además, Cisco SRST puede encaminar dice en voz alta al PSTN y, así, utiliza el PSTN como la ruta de reserva para las llamadas hacia cualquier sitio que no sea accesible vía el IP. Además, los routers con IOS de Cisco pueden actuar permanentemente como agente de la llamada para los teléfonos IP. La característica que proporciona esta funcionalidad es CallManager Unificado Cisco Express. Con este, el router provee funcionalidad unificada de CallManager. Si el router es también una gateway de voz, el router combina funcionalidad de telefonía IP y de gateway de VoIP en una sola caja.

Page 59: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

59

CIBERTEC CARRERAS PROFESIONALES

2.5.4 Funciones de Cisco Unified CallManager

Cisco Unified CallManager es la central PBX basada en IP para una solución de telefonía IP. Cisco unificó las caracteristicas de CallManager como agente de llamadas para los telefonos IP y las gateways MGCP y puede también trabajar recíprocamente con H.323 o dispositivos del SIP usando el IOS de Cisco. Para compartir la carga y ofrecer redundancia, múltiples servidores unificados de CallManager pueden funcionar en un cluster. De una perspectiva de la administración, el cluster entero es un solo caso lógico.

Hay seis funciones principales realizadas por Cisco Unified CallManager: • Procesamiento de llamadas: Cisco unificó llamadas de los

procesos de CallManager entre los dispositivos del extremo y las entradas. El Procesamiento de llamadas incluye decisiones de la encaminamiento de la llamada, señalando entre los dispositivos afectados, y la contabilidad de llamadas. Además, la clase del servicio y la gestión del ancho de banda se pueden configurar para influenciar el Procesamiento de llamadas.

• Administración del plan de marcación: Cisco unificó las

características de CallManager como un agente de la llamada para los telefonos IP y las entradas de MGCP y elimina así la necesidad de tablas de encaminamiento de la llamada local en estos dispositivos. Solamente las necesidades del agente de la llamada (es decir, Cisco Unified CallManager) de saber el plan de marcación. Esto significa que toda la administración del plan de marcación está realizada en el CallManager unificado Cisco. H.323 y los dispositivos del SIP siguen el modelo de llamar-proceso distribuido y requieren localmente planes disponibles y administrados de marcado.

• La señalización y control de dispositivos: En el papel como

agente de la llamada, Cisco unificó los controles de los telefonos IP a los controles de CallManager y de MGCP diciendo a estos dispositivos qué hacer en ciertos acontecimientos. Por ejemplo, cuando un teléfono IP informa a Cisco Unified CallManager que

Page 60: Manual Redes Convergentes

60

CARRERAS PROFESIONALES CIBERTEC

el usuario ha cambiado a off-hook, Cisco Unified CallManager dice el teléfono IP actualizar la pantalla y reproducir señal para marcado.

• Administración de la característica del teléfono: La configuración

entera del teléfono IP se incorpora y se almacena en Cisco Unified CallManager. El teléfono IP carga su archivo de configuración durante el booteo después de una revisión del dispositivo. La administración del teléfono IP se centraliza completamente.

• Servicios de Directorio y de Extensible Markup Language (XML):

Cisco Unified CallManager proporciona el acceso a los directorios. Los telefonos IP se pueden utilizar para realizar operaciones de búsqueda en los directorios disponibles. También, los telefonos IP pueden utilizar las aplicaciones XML-basados que son accesibles y configurados como servicios de telefonía IP.

• Interfaz de programación a las aplicaciones externos: A través de

un interfaz de programación, las aplicaciones externos se pueden integrar con la solución Cisco Unified CallManager de telefonía IP. Los ejemplos de tales usos son la respuesta interactiva de voz del IP del comunicador, de Cisco del IP de Cisco (IVR), ayudante personal de Cisco, y consola unificada. El IP Communicator de Cisco tiene una mención especial. Este producto es un teléfono virtual, representado por una pantalla interactiva en una PC. Una variedad de productos de terceros que Cisco unificó a las interfaces de programación de CallManager.

2.5.5 Modelos de despliegue de telefonía IP de la e mpresa

Las empresas tienen estas opciones para desplegar CallManager unificado Cisco: • Un único sitio: Una empresa puede desplegar la solución de

telefonía IP en un solo sitio solamente. En este despliegue, hay un local con un Cisco Unified CallManager que sirve a los teléfonos locales solamente.

Page 61: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

61

CIBERTEC CARRERAS PROFESIONALES

• Multisite con el Procesamiento de llamadas centralizado: La

empresa puede desplegar la solución de telefonía IP en los sitios múltiples con el Procesamiento de llamadas centralizado. Con el despliegue centralizado del Procesamiento de llamadas, hay un grupo de Cisco Unified CallManager que están situado en cada uno de los sitios. Cisco unificó los grupos de CallManager para atender a los teléfonos IP locales y remotos.

• Multisite con procesamiento de llamadas distribuido: La empresa puede desplegar la solución de telefonía IP en los sitios múltiples con el procesamiento de llamadas distribuido. Con el despliegue distribuido del procesamiento de llamadas, hay Cisco Unified CallManager en cada sitio. Cada Cisco Unified CallManager atiende a los teléfonos IP locales del grupo de CallManager.

Page 62: Manual Redes Convergentes

62

CARRERAS PROFESIONALES CIBERTEC

• Solución con cluster: Una empresa puede desplegar la solución de telefonía IP en los sitios múltiples. En este despliegue, los servidores Cisco Unified CallManager están situado en más de un sitio. Sin embargo, todos los servidores Cisco Unified CallManager pertenecen a un solo grupo. Un IP WAN separan a los miembros del grupo. Los telefonos IP utilizan generalmente los servidores locales como sus agentes de la llamada.

2.5.6 Configuraciones del IOS de Cisco para VoIP Los routers con IOS de Cisco pueden usarse como gateway para VoIP. Para una configuración básica de VoIP, dos gateways son necesarios. Ambos necesitan una conexión a un dispositivo tradicional de telefonía, tal como un teléfono análogo. Las entradas ellos mismos deben tener conectividad del IP. Si el primer router tiene estos ajustes de la configuración: • Nombre: R1 • IP address: 10.1.1.1 /24 • Interfaz del IP: FastEthernet 0/0 • Puerto de voz: 1/0/0 • La extensión del teléfono conectado con el puerto de voz: 1111 El segundo router se configura con los ajustes similares: • Nombre: R2

Page 63: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

63

CIBERTEC CARRERAS PROFESIONALES

• IP address: 10.2.2.2 /24 • Interfaz del IP: FastEthernet 0/0 • Puerto de voz: 1/0/0 • La extensión del teléfono conectado con el puerto de voz: 2222 De acuerdo con esta información, esta configuración se aplica al primer router: hostname R1 interface FastEthernet 0/0 Dirección IP10.1.1.1 255.255.255.0 ! dial-peer voice 1 pots destination-pattern 1111 port 1/0/0 ! dial-peer voice 2 voip destination-pattern 2222 session target ipv4:10.2.2.2 ! El segundo router tiene estos comandos de la configuración: hostname R2 interface FastEthernet 0/0 Dirección IP10.2.2.2 255.255.255.0 ! dial-peer voice 1 pots destination-pattern 2222 port 1/0/0 ! dial-peer voice 2 voip destination-pattern 1111 session target ipv4:10.1.1.1 ! Los comandos de voz específicados en las configuraciones (dos dial peers en cada configuración) se destacan en gris. Un dial peer describe donde encontrar un número telefónico, y la colección de todos los dial peers compone la tabla de encaminamiento de la llamada de una entrada de voz. Dos tipos de dial peers se demuestran en este ejemplo: Dial peers de los POTS y dial peers de VoIP. Los dial peers de los POTS indican que el número telefónico que se especifica en el dial peer está encontrado en un puerto físico. Un dial peer de VoIP refiere al Dirección IPde un dispositivo de VoIP. Las figuras y enumeran los comandos usados para los dial peers.

Page 64: Manual Redes Convergentes

64

CARRERAS PROFESIONALES CIBERTEC

Page 65: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

65

CIBERTEC CARRERAS PROFESIONALES

RESUMEN

Este módulo describe las redes de VoIP y los diferentes componentes uso de estas redes para poder permitir confiablemente llamadas de voz. Que convierte la voz analógica señales al formato digital y las señales numéricas de nuevo a formato análogo se explica, junto con los módulos de DSP que se pueden utilizar para realizar la conversión muestreando, la cuantificación y la codificación. También se explica la opción de la compresión. Se describen el transporte de voz y el encapsulamiento de voz y las fórmulas de las listas del módulo para calcular el ancho de banda total requerida para las llamadas de VoIP. El ancho de banda total depende de los diferentes codecs que se utilizan. El módulo explica los diferentes modelos disponibles del despliegue de telefonía IP en términos de funciones de voz y la puesta en práctica en la empresa del router Cisco, funciones unificadas Cisco de CallManager, y control de admisión de llamadas.

AUTOEVALUACIÓN

1. ¿Cuáles son tres funciones asociadas a Cisco Call Manager? 2. ¿Qué componentes se deben considerar para calcular el ancho de

banda que genera una llamada de VoIP? 3. ¿Cuál es la función de un gatekeeper en una red de VoIP?

Page 66: Manual Redes Convergentes

66

CARRERAS PROFESIONALES CIBERTEC

Page 67: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

67

CIBERTEC CARRERAS PROFESIONALES

INTRODUCCIÓN A IP QOS

OBJETIVOS ESPECÍFICOS

• Introducir el concepto de QoS • Proporcionar QoS en la red (mejor esfuerzo, servicios integrados [IntServ], y los

servicios diferenciados [DiffServ]) • Describir los varios métodos para QoS.

TEMARIO

• Introducción a QoS • Implementación de Qos en Cisco IOS • Selección de un modelo apropiado de QoS • Usando MQC para implementar QoS

ACTIVIDADES PROPUESTAS

• Implementar IP QoS bajo el modelo de servicios diferenciados en nuestra red de prueba

E M A N A

3

Page 68: Manual Redes Convergentes

68

CARRERAS PROFESIONALES CIBERTEC

3.1 Introducción a QoS

3.1.1 Convergencia de la calidad de la red

Antes de la convergencia de la red, la ingeniería de red se centró en la conectividad. En la figura mostrada se observa como redes no convergentes resuelven el tráfico simplemente conectando enlaces dedicados de datos a datos, voz a voz, y el vídeo a vídeo. Las tasas de datos entregadas a los enlaces de la red pueden dar lugar a congestiónes esporádicas de datos. El acceso al ancho de banda en estas redes está en base al principio de primero-entra, primero-servido. La tasa de datos disponible para cualquier usuario varía dependiendo de cantidad de los usuarios que tienen acceso a la red en ese momento.

Los protocolos se utilizan dentro de redes no convergentes para manejar la naturaleza de ráfagas de las redes de datos. Las redes de datos pueden sobrellevar las breves interrupciones. Por ejemplo, cuando usted recupera E-mail, retardado en algunos segundos no es generalmente sensible. Pero si se retardó varios minutos eso es molestoso, pero no serio. Las redes tradicionales también tenían ciertos requisitos para La aplicación de datos, vídeo, y Systems Network Architecture (SNA). Puesto que cada uno tiene diferentes características y requisitos del tráfico, los diseñadores de la red desarrollaron redes no integradas. Estas redes no integradas tienen tipos de tráfico específicos: red de datos, redes SNA, red de voz y red de video. La figura ilustra una red convergente en la cual voz, vídeo, y usan el mismo tráfico de datos en las mismás instalaciones de red. La combinación de estas corrientes del tráfico con requisitos diferentes puede conducir a problemas. La forma de resolver estos

Page 69: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

69

CIBERTEC CARRERAS PROFESIONALES

problemas es que el tráfico de la voz y el vídeo deben tener prioridad porque son sensibles en el tiempo.

En una red convergente, flujos de pequeños paquete de voz compite con flujos de datos. Aunque los paquetes que llevan tráfico de voz en una red convergida son muy pequeños, los paquetes no pueden tolerar retardos. Cuando los retrazos varian entonces la voz es incomprensible. Es posible retransmitir parte de un fichero de datos perdidos, pero no es factible retransmitir parte de una conversación de voz. El tráfico crítico de voz y del vídeo debe tener prioridad sobre tráfico de datos. Los mecanismos de la red deben proporcionar esta prioridad. Aunque una transferencia de archivo o un paquete del E-mail pueden esperar hasta que una red caída se recupere y el retardo es casi transparente, los paquetes de voz y del vídeo no pueden esperar. Las redes convergentes deben proporcionar servicios seguros, fiables, mesurables, y, a veces, garantizados.

3.1.2 Requisitos de calidad en redes convergentes

Cuando una red esta mal configurada, donde la transmisión de voz es irregular, y el espacio entre la conversación ofrece segmentos de silencio, estos son motivos de mala calidad en las redes convergentes y además causa molestia en el usuario, retardos causados por el usuario que inicia la llamada, pueden causar eco y traslapar al transmisor. El eco es el efecto de la señal que refleja la voz del altavoz del equipo far-end del teléfono nuevamente dentro del oído del altavoz. El transmisor que causa el traslape cuando es unidireccional retardo hasta más de 250 ms. Cuando ocurre este retardo largo; un transmisor ingresa dentro del discurso del otro transmisor. Un resultado extremo de mala calidad es que la llamada se cuelgue.

Page 70: Manual Redes Convergentes

70

CARRERAS PROFESIONALES CIBERTEC

Casos: • Capacidad de ancho de banda : Uso grande de los archivos de

gráficos, uso de las aplicaciones multimedias, y del aumento de video y voz , son los problemas de la capacidad del ancho de banda

• Retardos De extremo a extremo (fijo y variable) : Retardos es

el tiempo que toma para que un paquete alcance la punto final de recepción después de ser transmitido. Este período del tiempo se llama “retardo de extremo a extremo” y consiste en dos componentes:

• Retardo fijo : Son retardos de serialización y la

propagación. La serialización es el proceso de poner bits en el circuito. Mientras más alta es la velocidad de circuito, menor es el tiempo que toma para poner los bits en el circuito. El retardo de propagación es el tiempo que lleva el frame transmitirse por el medio físico.

• Retardo variable : Es el tiempo requerido por un dispositivo

para el establecimiento de encaminamiento hacia una red, para cambiar la cabecera, y para terminar otras tareas de conmutación.

• La variación de retardo (también llamado jitter) : el jitter la

diferencia, de valores de retardos de extremo a extremo de dos paquetes de voz en un flujo de datos

• Pérdida de paquetes : La congestión de la WAN es la causa

generalmente de la pérdida de paquetes. En el caso de tráfico de voz, la pérdida de paquetes causa caída de comunicación. Las conversaciones son difíciles de seguir y las comunicaciones son confusas.

3.1.3 Medición del ancho de banda disponible

La figura muestra una red con cuatro saltos entre un servidor y un cliente. Cada salto utiliza diferentes medios con diferentes anchos de banda. El ancho de banda disponible máximo es igual al ancho de banda de enlace más lento:

Page 71: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

71

CIBERTEC CARRERAS PROFESIONALES

Bandwidth max = minuto (10 Mbps, 256 kbps, 512 kbps, 100 Mbps) = 256 kbps El cálculo del ancho de banda disponible, sin embargo, es mucho más complejo. Un flujo de IP es una serie unidireccional de paquetes IP, dado que viaja entre una Origen y un destino dentro de cierto período. Cuando hay flujos múltiples, utilizar esta fórmula para calcular el ancho de banda media disponible por flujo :

Bandwidthavail = Bandwidthmax / flujos

3.1.4 Incremento del Ancho de banda disponible

El ancho de banda es uno de los factores claves que afectan la calidad de servicio; QoS en una red; cuanto más ancho de banda es mejor el QoS. Sin embargo, el ancho de banda simplemente aumentandolo no solucionará necesariamente todos los problemas de congestión y del flujo. Intuitivamente, la manera más fácil de aumentar el ancho de banda podria parecer ser aumentar la capacidad de enlace de la red. Aunque esta solución suena simple, el aumento del ancho de banda es costosa y toma tiempo para ponerlo en ejecución. Hay a menudo limitaciones tecnológicas en el aumento de un ancho de banda.

La figura ilustra un acercamiento más racional de usar técnicas avanzadas el encolamiento y de la compresión. Medios de encolamiento de clasificar tráfico en las clases de QoS y después de dar la prioridad a cada clase según su importancia relativa. El mecanismo de encolamiento básico está primero en entrar, primero en salir. El software del IOS QoS de Cisco proporciona una variedad de mecanismos que se pueden utilizar para asignar prioridad del ancho de banda a las clases del tráfico específicas:ç • FIFO • Priority queuing (PQ) o custom queuing (CQ) • Modified deficit round robin (MDRR) • Weighted fair queuing (WFQ) basado en ToS distribuido y

basado en grupos de QoS

Page 72: Manual Redes Convergentes

72

CARRERAS PROFESIONALES CIBERTEC

• Class-based weighted fair queuing (CBWFQ) • Low-latency queuing (LLQ) Una manera de aumentar el ancho de banda disponible del enlace es optimizando por compresión de la carga útil de los frames (virtualmente). La compresión, sin embargo, también aumenta retraos debido a la complejidad de los algoritmos. El Stracker y Predictor son dos algoritmos de la compresión. Otro mecanismo que se utiliza para la eficiencia del ancho de banda de enlace es compressión de la cabecera; es especialmente eficaz en las redes donde la mayoría de paquetes llevan cantidades pequeñas de datos. Los ejemplos típicos de la compresión de cabecera son compresión de cabecera TCP y compresión en tiempo real de la cabecera del protocolo del transporte (RTP).

3.1.5 Efectos de retardo de extremo a extremo y ji tter

Los retardos de extremo a extremo y jitter tienen un impacto severo de la calidad en la red como sigue: • El retardo de extremo a extremo es la suma de todos los tipos

de retardo. • Cada salto en la red tiene su propio sistema variable

procesamiento y el retardo de cola, que puede dar lugar al jitter.

La figura muestra cuatro tipos de retardos: • El Retardo de procesamiento: Es el tiempo que toma para un

router (o switch capa 3) para tomar el paquete de un interfaz de entrada y poner el paquete en la interfaz de salida. El retardo de procesamiento depende de los siguientes factores: • velocidad de la CPU • uso de la CPU • modo de la conmutación IP • arquitectura del router • características de configuración de interfaces de entrada o

salida o ambos.

Page 73: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

73

CIBERTEC CARRERAS PROFESIONALES

• Retardos de cola: Es el tiempo que un paquete reside en la cola de salida de un router. Esto depende del número de paquetes, también depende del ancho de banda de la interfaz. • Retardos de serialización: Es el tiempo que lleva transportar el

frame a traves del medio de transporte físico. Esto retardo es típicamente inversamente proporcional al ancho de banda de enlace.

• Retardos de Propagación: Es el tiempo que toma el paquete de

cruzar el enlace de un extremo a otro.. Por ejemplo, los enlaces basados en los satélites producen grandes retardos de propagación debido a la distancia a los satélites de comunicaciones.

La figura resume el impacto de retardos y jitter en la calidad de redes.

3.1.6 La reducción del impacto del retardo en la c alidad

Cuando se consideren soluciones de retardo, hay dos cosas a tomar en cuenta: • Procesamiento y retardos de cola ser relacionan con los

dispositivos y están limitados al comportamiento del sistema operativo.

• Los retardos de propagación y la serialización están realcionados

con los medios. Hay muchas maneras de reducir retardos en un router. Si se asume que el router es rápido en la toma de decisiones, los factores siguientes tienen la mayoría de la influencia en hacer retardos de cola y la serialización: • Longitud media de la cola • Longitud media de paquetes en la cola • Ancho de banda de enlace

Page 74: Manual Redes Convergentes

74

CARRERAS PROFESIONALES CIBERTEC

En la figura se muestra como se puede mejorar el envio de paques en una red. • Aumentando la capacidad del enlace • Priorizando paquetes • Repriorizando paquetes • Compresión de Carga útil • Usando compresion de cabeceras

3.1.7 Pérdida de paquetes

Después de los retardos, la preocupación más seria es la perdidad de paquetes. Generalmente, la pérdida de paquetes ocurre cuando los routers funcionan como intermedios de interfaces (cola de salida).

Page 75: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

75

CIBERTEC CARRERAS PROFESIONALES

La figura ilustra una cola llena a la interfaz de salida, que hace los paquetes que llegan son caidos. El término que se utiliza para tales caídas es “caída de salida” o “caida de la cola” (los paquetes se descartan en la cola). Los routers pudieron también descartar los paquetes por otras razones menos comunes:

• Caida de cola entrante: La CPU está ocupada y no puede

procesar los paquetes (la cola de entrada esta llena). • No existe espacio en los buffers : Los routers funciona de

intermedio de almacenamiento • Overrun: La CPU está ocupada y no puede asignar un buffer

intermedio libre al paquete nuevo. • Errores de frame: El hardware detecta un error en un frame; por

ejemplo, controles por redundancia cíclicos (CRCs), runt, y giant.

3.1.8 Gestión de congestión: Maneras de evitar las pérdidas de paquetes

Las pérdidas de paquetes es generalmente el resultado de congestión en una interfaz. Muchas aplicaciones utilizan TCP porque este se ajusta automáticamente a la congestión de red. Los segmentos caídos de TCP hacen sesiones de TCP reduciendo sus tamaños de ventana. Algunos aplicaiones no utilizan el TCP y no pueden manejar las caidas (flujos frágiles). Como evitar las caídas:

• Aumente la capacidad de enlace para facilitar o de prevenir la congestión.

• Garantízar buen ancho de banda intermedio. Hay varios mecanismos disponibles en el software del IOS QoS de Cisco. Ejemplos que son WFQ, CBWFQ, y LLQ.

• Prevención de congestión para paquetes caidos de baja prioridad

antes de que ocurra la congestión. El IOS QoS de Cisco proporciona los mecanismos que permiten evitar la caída de

Page 76: Manual Redes Convergentes

76

CARRERAS PROFESIONALES CIBERTEC

paquetes antes que ocurra la congestión. Un ejemplo es detección temprana al azar por pesos (WRED). El software IOS QoS de Cisco también proporciona los mecanismos siguientes para prevenir la congestión: • Políticas de tráfico: Cuando la tasa del tráfico alcanza la máxima

configurada, entonces se descarta el exceso. El resultado es una tasa de salida que aparece como segura y confiable.

• Conformación de tráfico: En contraste con aplicar políticas, la

conformación de tráfico el tráfico conserva el exceso de paquetes en una cola y después programa el exceso para una transmisión última sobre incrementos del tiempo.

La conformación implica la existencia de una cola y de la suficiente memoria para proteger los paquetes retardodos, mientras que no lo hace el aplicar políticas. El encolamiento es un concepto de salida; los paquetes que van hacia fuera en un interfaz. Solamente el aplicar políticas se puede aplicar al tráfico de entrada en un interfaz.

Page 77: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

77

CIBERTEC CARRERAS PROFESIONALES

3.2 Implementación de QoS en Cisco IOS

3.2.1 ¿Qué es QoS?

QoS es un término genérico que refiere a los algoritmos que proporcionan diferentes niveles de la calidad a diferentes tipos de tráfico de la red. QoS maneja las características siguientes de la red: • Ancho de banda: La tasa en la cual el tráfico es llevado por la

red. • Latencia: Retardo en la transmisión de datos del origen al

destino. • Jitter: La variación de la latencia. • Confiabilidad: El porcentaje de paquetes descartado por un

router. Las redes simples procesan tráfico con una cola FIFO. Sin embargo, QoS le permite proporcionar un servicio mejor a ciertos flujos elevando la prioridad de un flujo o limitando la prioridad de otro. Es también importante asegurar que proporcione la prioridad para unos. Por ejemplo, hacer que la red retrase los paquetes del E-mail por varios minutos sin que uno lo note, pero no se puede retardor los paquetes de VoIP por más que un décimo de segundo antes que usuario note el retardo. Gestión de congestión El hecho de enviar tráfico de voz, video y datos a veces excede a la velocidad de enlace. En este caso que hace el router?, Las herramientas incluyen PQ, la CQ, WFQ, y CBWFQ. Gestión de cola Debido a que las colas tienen un tamaño determinado, se pueden llenar y desbordar, cuando una cola esta llena, ningún paquete acidional se puede ingresar entonces la cola Descarta. Esto se llama caída de cola. Los routers no pueden evitar que los paquetes se caigan, incluso con paquetes prioritarios, por lo tanto es necesario estableces ciertos mecanismos: 1. Intentar cerciorarse de que la cola no se llene, de modo que

haya sitio para los paquetes prioritarios. 2. Utilizar cierta clase de criterios para los paquetes de descarten

que están de una prioridad más baja antes de descartar los paquetes de prioridad alta.

WRED proporciona ambos mecanismos. Eficiencia de enlace Muchas veces, los enlaces de poca velocidad presentan un caso para paquetes pequeños. Por ejemplo, El retardo de serialización de un paquete de 1500 octetos en un enlace de 56 kbps es 214

Page 78: Manual Redes Convergentes

78

CARRERAS PROFESIONALES CIBERTEC

ms. Si un paquete de voz fuera detrás de este paquete grande. La fragmentación y la interpolación del enlace permiten que este paquete grande sea dividido en segmentos en paquetes más pequeños que interpolan el paquete de voz. La interpolación es tan importante como la fragmentación. No hay razón de hacer fragmentos de paquetes y de hacer que el paquete de voz vaya luego de todos los paquetes hechos fragmentos. El retardo de serialización es el tiempo que toma un paquete en el enlace. El ejemplo apenas dado, este las matemáticas solicitan: Tamaño de paquetes: Paquete de 1500-bytes x 8 bits/byte = 12,000 bits Tasa de Línea: 56,000 bps Resultado: 12,000 bits/56,000bps = .214 sec o 214 ms Otro método eficaz es eliminando bits de cabecera. Por ejemplo, las cabeceras de RTP tienen una cabecera de 40 bytes. Con una carga útil de solo 20 bytes, los costos indirectos pueden ser dos veces el de la carga útil en algunos casos. Conformación y políticas de tráfico La conformación de tráfico se utiliza muchas veces de prevenir el problema del desbordamiento mencionado en la introducción. La conformación de tráfico es una manera de establecer el paso de tráfico más cercano a 384 Kbps para evitar el desbordamiento de enlace. Las políticas de tráfico es similar a la conformación, pero a diferencia de una manera muy importante: El tráfico que excede a la tasa configurada no se protege (y se desecha normalmente).

3.2.2 Herramientas de Gestión de congestión

Una manera que los elementos de la red manejan un desbordamiento del tráfico que llega es utilizar un algoritmo de encolamiento para clasificar el tráfico y después para determinar un cierto método de darle la prioridad sobre un enlace de la salida. El software del IOS de Cisco incluye las herramientas que realizan los siguientes encolamientos: • FIFO • Priority queuing (PQ) • Custom queuing (CQ) • Flow-based weighted fair queuing (WFQ) • Class-based weighted fair queuing (CBWFQ) Nota Los algoritmos de encolamiento toman efecto cuando la congestión es experimentada. Por la definición, si el enlace no se congestióna, entonces no hay necesidad de encolamiento los paquetes. En

Page 79: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

79

CIBERTEC CARRERAS PROFESIONALES

ausencia de congestión, todos los paquetes se entregan directamente al interfaz. FIFO: Encolamiento básico Store-and-Forward En su forma más simple, el encolamiento del primero en entrar, primero en salir implica el almacenamiento de paquetes cuando se congestióna la red y expedición ellos en el orden de la llegada cuando la red se congestión. El primero en entrar, primero en salir es el algoritmo de encolamiento por default, así no requerir ninguna configuración, pero la tiene varios defectos. El encolamiento del primero en entrar, primero en salir era un primer paso necesario en controlar tráfico de la red, Además, una cola llena causa caidas de cola. Esto es indeseable porque el paquete caído podría ser un paquete prioritario. Los routers no pueden evitar que este paquete sea caído porque no hay sitio en la cola para ella. El software del IOS de Cisco pone los algoritmos en ejecución de encolamiento que evitan los defectos de encolamiento del primero en entrar, primero en salir. PQ: Priorizacion de tráfico PQ se asegura de que el tráfico importante consiga la dirección más rápida en cada punto donde se utiliza. Fue diseñado da prioridad terminante al tráfico importante. El encolamiento de la prioridad puede dar la prioridad fexiblemente según el protocolo de red (por ejemplo IP, IPX, o Appletalk), interfaz entrante, tamaño de paquetes, Origen/dirección de Destino, y así sucesivamente. En PQ, cada paquete se coloca en una de cuatro colas alta, media, normal, o baja; se basa en una prioridad asignada. Los paquetes que no se clasifican en la lista de la prioridad se envían a la cola normal. Durante la transmisión, el algoritmo da a colas de prioridad alta el tratamiento preferencial absoluto sobre colas de baja prioridad.

Page 80: Manual Redes Convergentes

80

CARRERAS PROFESIONALES CIBERTEC

CQ: Ancho de Banda Garantizado CQ permite que varias aplicaciones u organizaciones compartan la red entre aplicaciones con requisitos mínimos específicos de ancho de banda o latencia. En estos escenarios, el ancho de banda se debe compartir proporcionalmente entre las aplicaciones y los usuarios. Se puede utilizar la característica de CQ para proporcionar ancho de banda en un punto potencial de congestión, asegurando al tráfico especificado un de parte fija de ancho de banda disponible y dejando el ancho de banda restante al otro tráfico.

WFQ basado en flujos: Creando flujos imparciales Para las situaciones en las cuales es deseable proporcionar tiempo de reacción constante a los usuarios sin la adición de ancho de banda, la solución es WFQ flujo-basado. Es un algoritmo de encolamiento flujo-basado crea la imparcialidad permitiendo que cada cola sea mantenida en términos de bytes. Por ejemplo, si la cola 1 tiene 100-byte y la cola 2 tiene 50-bytes, el algoritmo de WFQ tomará dos paquetes de la cola 2 para cada un paquete de la cola 1. Esto hace servicio justo para cada cola: 100 bytes.

Page 81: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

81

CIBERTEC CARRERAS PROFESIONALES

WFQ asegura de que las colas mantengan su ancho de banda y de que el tráfico sea fiable. Los flujos de poco volumen del tráfico que abarcan a la mayoría de tráfico, reciben el servicio transmitiendo el mismo número de bytes que flujos de grandes flujos de volumen. Este comportamiento da lugar creer ser el tratamiento preferencial para el tráfico de poco volumen, cuando en realidad se está creando la imparcialidad. WFQ basado en clases: Ancho de banda de red asegura do CBWFQ es una de las herramientas recientes de gestión de congestión de Cisco para proporcionar mayor flexibilidad. Proporcionará una cantidad mínima de ancho de banda a una clase según lo opuesto a proveer de una cantidad máxima de ancho de banda para formar del tráfico. CBWFQ permite que un administrador de la red cree clases garantizadas mínimás de ancho de banda. En vez de proporcionar una cola para cada flujo individual, el administrador define una clase que consista en uno o más flujos, cada clase con una cantidad mínima garantizada de ancho de banda. CBWFQ evita que flujos múltiples de baja-prioridad. Por ejemplo: WFQ proporcionará un flujo de video que necesite la mitad del ancho de banda del T1 si hay dos flujos. Pero, si se agregan más flujos, la corriente video consigue menos de ancho de banda porque el mecanismo de WFQ crea la imparcialidad. Si hay 10 flujos, la corriente video conseguirá solamente 1/10 del ancho de banda, que no es bastante. CBWFQ proporciona el mecanismo necesitado para proporcionar la mitad del ancho de banda que el vídeo necesita. El administrador de la red define una clase, coloca el flujo de video en la clase, y le indica al router proporcionar el servicio de 768 kbps (mitad de un T1) para la clase. El vídeo por lo tanto consigue el ancho de banda que necesita. El resto de flujos recibe una clase por defecto. La clase por defecto utiliza los esquemas flujos-basados de WFQ que asignan el resto del ancho de banda (mitad del T1, en este ejemplo).

3.2.3 Gestión de colas (herramientas de Evitamiento de

Congestión)

El evitamiento de congestión es una forma de gestión de cola. las técnicas de congestión-evitamiento supervisan las cargas del tráfico de la red en un esfuerzo de anticipar y de evitar la congestión en los embotellamientos comunes de la red, en comparación con las técnicas de la Gestión-congestión que funcionan para controlar la congestión después que esta ocurra. La herramienta principal del evitamiento de congestión del IOS de Cisco es WRED. Los algoritmos aleatorios de detección (RED) permite la detección temprana evitando la congestión en interredes antes de que se

Page 82: Manual Redes Convergentes

82

CARRERAS PROFESIONALES CIBERTEC

convierta en un problema. El RED trabaja supervisión la carga del tráfico en los puntos de la red y desecha aleatoriamente los paquetes si la congestión comienza a aumentar. El resultado de la caída es que origendetecta el tráfico caído y retarda su transmisión. El RED se diseña sobre todo para trabajar con el TCP en ambientes de la red IP interna.

WRED combina las capacidades del algoritmo RED con precedencia IP. Esta combinación prevee la dirección de tráfico preferencial para los paquetes de prioridad alta.

3.2.4 Preparando la implementación QoS

Hay tres pasos básicos: Paso 1 Identifique los tipos de tráfico y de sus requisitos: Estudie la red para determinar el tipo de tráfico que esté funcionando en la red y después para determinar los requisitos de QoS necesitados para los diferentes tipos de tráfico. Paso 2 Defina las clases del tráfico: Esta actividad agrupa el tráfico con los requisitos similares de QoS en clases. Por ejemplo, tres clases del tráfico se pudieron definir como esfuerzo de voz , misión-crítica, y de best effort. Paso 3 Defina las políticas de QoS: Las políticas de QoS resuelven los requisitos de QoS para cada clase de tráfico.

Page 83: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

83

CIBERTEC CARRERAS PROFESIONALES

3.2.5 Paso 1: Identifique los tipos de tráfico y de sus requisitos

El primer paso en poner QoS en ejecución es identificar el tráfico en la red y después determinar los requisitos de QoS y la importancia de los varios tipos del tráfico. Este paso proporciona algunas pautas de alto nivel para poner QoS en ejecución en las redes para aplicaciones múltiples, incluyendo aplicaciones retardos-sensibles y ancho de banda-intensivos. Estas aplicaciones pueden realzar procesos de intercambio, pero agrandar recursos de la red. QoS puede proporcionar seguridad, fiabilidad mensurabilidad, y los servicios garantizados a estas aplicaciones manejando retardos, variación de retardo (jitter), ancho de banda y pérdida de paquetes en una red. Actividades en este paso 1:

• Determine los problemas de QoS en los usuarios. Medir el tráfico en la red durante períodos congestiónados. Hacer un reporte de uso del CPU, sobre cada uno de los dispositivos de la red durante períodos, para determinarse dónde pudieron ocurrir los problemas.

• Determine el modelo y las metas del negocio y obtenga una lista de

los requisitos del negocio. Esta actividad ayuda a definir el número de las clases que son necesarias y permite que usted determine los requisitos del negocio para cada clase de tráfico.

• Defina los porcentajes de disponibilidad requeridos por diferentes

clases del tráfico en términos de tiempo y disponibilidad de reacción. Las preguntas para considerar cuando definen porcentajes de disponibilidad incluyen cuál es el impacto en negocio si la red retardo una transacción por dos o tres segundos. Una asignación del porcentaje de disponibilidad incluirá la prioridad y el tratamiento que un paquete recibirá. Por ejemplo, usted asignaría a usos de voz un alto porcentaje de disponibilidad (prioritario, compresión de LLQ y de RTP). Usted asignaría a datos

Page 84: Manual Redes Convergentes

84

CARRERAS PROFESIONALES CIBERTEC

bajos de la prioridad un porcentaje de disponibilidad más bajo (una prioridad más baja, compresión de la cabecera de WFQ , de TCP). Las herramientas para analizar los patrones de tráfico en la red incluyen a la contabilidad de NetFlow, al reconocimiento Red-basado de la aplicación (NBAR), y a encargado de dispositivo de QoS (QDM).

3.2.6 Paso 2: Defina las clases del tráfico

Después de identificar y de medir tráfico de la red, utilice los requisitos del negocio para realizar el segundo paso: defina las clases del tráfico. Una clase es un grupo de los flujos de la red que comparten características similares. Por ejemplo, una ISP pudo definir clases para representar los diferentes porcentajes de disponibilidad ofrecidos a los clientes. Una empresa pudo definir los acuerdos del porcentaje de disponibilidad (SLAs) esos da diferentes niveles del servicio a los varios usos.

Cisco ha desarrollado los mecanismos específicos de QoS, tales como LLQ, para asegurarse de que la voz recibe siempre el excedente del tratamiento de prioridad el resto del tráfico. Después de que usted defina las aplicaciones con los requisitos más críticos, se definen las clases restantes del tráfico usando requisitos del negocio.

Page 85: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

85

CIBERTEC CARRERAS PROFESIONALES

3.2.7 Paso 3: Defina la política de QoS

En el tercer paso, defina una política de QoS para cada clase de tráfico. Una política de QoS define típicamente lo siguiente: • Grupos discretos del tráfico de la red (clases de servicio, CoS). • Métrica para regular la cantidad de tráfico de la red para cada

clase. Estas métricas gobiernan el proceso tráfico. • Acciones que se aplicarán a un flujo de paquetes (por salto

[PHB]). • Cualquier de la estadística requerida para una CoS (por ejemplo,

tráfico que es generado por un cliente o un aplicación particular). Cuando los paquetes pasan a su red, QoS evalúa las cabeceras de paquetes. La política de QoS determina la acción que se toma Definir una política de QoS implica una o más de las actividades siguientes: • Fijar una garantía mínima del ancho de banda • Fijar un límite máximo del ancho de banda • Asignar prioridades a cada clase • Usando las tecnologías de QoS, tales como encolamiento

avanzado, para manejar la congestión

Page 86: Manual Redes Convergentes

86

CARRERAS PROFESIONALES CIBERTEC

3.3 Seleccionar un modelo apropiado de la política de QoS

3.3.1 Tres modelos de QoS

Los siguientes son tres modelos para poner QoS en ejecución en una red: • Modelo del Best-effort: El modelo no utiliza QoS. Cuando no es

importante cuando o cómo llegan los paquetes, el modelo best-effort es el indicado.

• Servicios integrados (IntServ): IntServ puede proporcionar QoS

muy alto a los paquetes IP. Esencialmente, IntServ define un proceso que señala para que las aplicaiones señalen a la red que requieren QoS especial por un período y que el ancho de banda sea reservada. Con IntServ, la entrega de paquetes está garantizado. Sin embargo, La aplicación de IntServ puede limitar seriamente la escalabilidad de una red.

• Servicios diferenciados (DiffServ): DiffServ proporciona

escalabilidad y la flexibilidad más grande al poner QoS en ejecución en una red. Los dispositivos de la red reconocen clases del tráfico y proporcionan diferentes niveles de QoS a diferentes clases del tráfico.

Page 87: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

87

CIBERTEC CARRERAS PROFESIONALES

3.3.2 Modelo de Best-Effort

El diseño básico del Internet prevee la entrega de paquetes de best-effort y no proporciona ninguna garantía. Esto sigue siendo preclave en el Internet hoy y sigue siendo apropiado para la mayoría de los propósitos. El modelo de best-effort trata todos los paquetes de la red de la misma forma, así que un mensaje de voz de emergencia se trata la misma manera que una fotografía digital unida a un E-mail. Sin QoS, la red no puede decir la diferencia entre los paquetes y, consecuentemente, no puede tratar los paquetes preferencial. Se resume las ventajas y las desventajas de Best-effort: Ventajas: • Escalabilidad casi ilimitado. La única manera de alcanzar límites

del escalabilidad es alcanzar límites de ancho de banda, en este caso todo el tráfico se afecta igualmente.

• No necesita emplear los mecanismos especiales de QoS para utilizar el modelo Best-effort

Desventajas: • No es ninguna garantía de la entrega. Los paquetes llegarán a

siempre que ellos puedan y en cualquier orden posible, si llegan todos.

• Ningún paquete tienen tratamiento preferencial. Los datos críticos se tratan iguales que el E-mail ocasional.

Page 88: Manual Redes Convergentes

88

CARRERAS PROFESIONALES CIBERTEC

3.3.3 Modelo de IntServ

Las necesidades de usos en tiempo real, tales como vídeo remoto, de la comunicación de las multimedias, visualización, y realidad virtual, motivaron el desarrollo del modelo de la arquitectura de IntServ (RFC 1633, junio de 1994). IntServ proporciona una manera de entregar el QoS de extremo a extremo que las aplicaciones requieren explícitamente manejando recursos de la red para proporcionar QoS a los flujos llamado los microflows. Mecanismos de la reservación y del admisión-control del recurso de las aplicaciones para establecer y para mantener QoS. Esta práctica es similar a un concepto conocido como “hard QoS.” Hard QoS garantiza características del tráfico, tales como ancho de banda, retardos tasas de paquetes perdidos. Hard QoS duro asegura los porcentajes de disponibilidad fiables y garantizados para las aplicaciones en cuestiones críticas. IntServ utiliza el protocolo RSVP explícitamente para señalar las necesidades de QoS del tráfico de aplicaciones a lo largo de los dispositivos en la trayectoria de extremo a extremo a través de la red. Si los dispositivos de la red a lo largo de la trayectoria pueden reservar el ancho de banda necesario, la aplicación puede comenzar a transmitir. Si la reservación solicitada falla a lo largo de la trayectoria, la aplicación no envía ningun dato. En el modelo de IntServ, La aplicación solicita una clase específica de servicio de la red antes de enviar datos. La aplicación informa a la red su perfil del tráfico y solicita una clase particular de servicio que pueda abarcar su ancho de banda. La aplicación envía datos solamente después que recibe la confirmación para el ancho de banda y retardo requisitos de la red.

3.3.4 RSVP y el modelo de IntServ QoS

La arquitectura de Cisco QoS utiliza RSVP asi, como un método para proporcionar el control de admisión de llamada (CAC) para la voz en una red de VoIP. El método de RSVP para CAC es el único método que hace una reservación real del ancho de banda para cada llamada de voz. Otros métodos de CAC pueden tomar solamente una decisión que es basada en el estado de la red en la iniciación de la llamada. La aplicación de RSVP proporciona no solamente CAC, él también garantiza QoS para la duración de la llamada sin importar condiciones de la red que cambian. RSVP es el método usado por Cisco Unified CallManager 5.0 para realizar CAC. Si los recursos están disponibles, RSVP acepta una reservación e instala un clasificador del tráfico para asignar una clase temporal de QoS para esa circulación en la trayectoria de la expedición de QoS. RSVP es un protocolo del control de red que permite a las aplicaciones obtener QoS preceptivo para los flujos de datos. Tal capacidad reconoce que diferentes aplicaciones tienen diferentes requisitos de funcionamiento de la red. RSVP fue pensado para proveer de redes del IP la capacidad de soportar los requisitos de

Page 89: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

89

CIBERTEC CARRERAS PROFESIONALES

funcionamiento divergentes de los tipos de la aplicación que diferenciaban. RSVP se centra en los dos tipos principales siguientes del tráfico: • Tráfico sensible a la velocidad: requiere una tasa garantizada y

constante de la transmisión de su origen al destino. Un ejemplo es la videoconferencia H.323. RSVP permite servicio de tasas de bit constante en redes de conmutación de paquetes. Este servicio se refiere a veces como servicio de tasa de bits garantizado.

• Tráfico sensible a retardos: Tráfico que requiere la puntualidad

de la entrega y por consiguiente su tasa variable. El vídeo de MPEG-II, por ejemplo, hace un promedio de 3 a 7 Mbps, dependiendo de la tasa la cual está cambiando.

3.3.5 Operación de RSVP

A diferencia de los protocolos de encaminamiento, RSVP maneja flujos de datos. Los flujos de datos consisten en sesiones discretas entre origenespecífica y las máquinas de destino. La definición de una sesión es un flujo datagramas a un protocolo de capa de transporte. Los datos siguientes identifican las sesiones: dirección de destino, identificación del protocolo, y puerto destino. RSVP soporta el unicast y sesiones del simplex del multicast. Para iniciar una sesión del multicast de RSVP, un receptor primero ensambla el grupo del multicast especificado por una dirección de Destino del IP usando el protocolo de la calidad de miembro de grupo del Internet (IGMP). Después de que el receptor ensamble a grupo, un remitente potencial comienza a enviar mensajes de la trayectoria de RSVP a la dirección de Destino del IP.

Page 90: Manual Redes Convergentes

90

CARRERAS PROFESIONALES CIBERTEC

¿Cómo trabaja RSVP? Cada nodo que utiliza RSVP tiene dos módulos locales de la decisión: • Control de admisión: El control de admisión no pierde de vista

los recursos de sistema y se determina si el nodo tiene suficientes recursos para proveer el QoS solicitado. El demonio de RSVP supervisa ambas acciones de comprobación. Si cualquier chequeo falla, el programa de RSVP vuelve un mensaje de error a la aplicación en uso que originó la petición. Si ambos chequeos tienen éxito, el demonio de RSVP fija parámetros en el clasificador de paquetes y el planificador de paquetes para obtener el QoS solicitado.

• Politicas de Control: La politica de control se determina si el

usuario tiene permiso administrativo de hacer la reservación. Si el control de admisión y el control de política tienen éxito, el

demonio después fija parámetros en dos entidades, clasificadores de paquetes y planificadores de paquetes.

• Clasificador de paquetes: El clasificador de paquetes de RSVP

determina la ruta y la clase de QoS para cada paquete. • Planificador de paquetes: El planificador de paquetes de RSVP

pide la transmisión de paquetes para alcanzar el QoS prometido para cada flujo. El planificador asigna los recursos para la transmisión en el medio particular de la capa de trasmisión de datos usado por cada interfaz.

• Proceso de encaminamiento: El demonio de RSVP también se

comunica con el proceso de encaminamiento para determinar la trayectoria para enviar sus peticiones de la reservación y para manejar calidades de miembro que cambian y las rutas.

3.3.6 El modelo de DiffServ

La arquitectura de los servicios diferenciados (DiffServ) especifica un mecanismo simple, escalable, DiffServ puede proporcionar el servicio garantizado baja-latencia (GS) al tráfico crítico de la red tal como voz o vídeo mientras que proporciona garantías simples del tráfico de best-effort a los servicios no críticos tales como transferencias del tráfico o de transferencia de archivos. El diseño de DiffServ supera las limitaciones de best-effort y de los modelos de IntServ. El modelo de DiffServ se describe en RFC 2474 del Internet Engineering Task Force (IETF) y RFC 2475. DiffServ puede proporcionar un QoS “casi garantizad o” DiffServ divide tráfico de la red en las clases basadas en requisitos del negocio. Cada uno de las clases se puede entonces asignar un diferente nivel del servicio. Pues los paquetes atraviesan una red, cada uno de los dispositivos de la red identifica la clase de

Page 91: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

91

CIBERTEC CARRERAS PROFESIONALES

paquetes y mantiene el paquete según esa clase. Es posible elegir muchos niveles del servicio con DiffServ. Por ejemplo, el tráfico de voz de los telefonos IP generalmente se da a excedente del tratamiento preferencial el resto del tráfico de la aplicación, el E-mail se da generalmente servicio del mejor esfuerzo, y el tráfico del non-business se puede dar servicio muy pobre o bloquear enteramente.

DiffServ trabaja como un servicio de entrega de paquetes. Usted solicita un nivel del servicio cuando usted envía su paquete. A través de la red de paquetes, el nivel del servicio se reconoce y su paquete se da servicio preferencial o normal, dependiendo de lo que usted solicitó. DiffServ tiene varias ventajas y algunas desventajas: Ventajas: • Altamente escalable • Proporciona diferentes niveles de la calidad Desventajas: • Ninguna garantía absoluta de la calidad del servicio • Requiere un sistema de mecanismos complejos trabajar en la red

Page 92: Manual Redes Convergentes

92

CARRERAS PROFESIONALES CIBERTEC

3.4 Usando MQC para implementar QoS 3.4.1 Métodos para implementar políticas de QoS

Hace pocos años, la única manera de poner QoS en ejecución en una red estaba usando la comando-línea interfaz (CLI) para configurar las políticas individuales de QoS en cada interfaz. Cisco introdujo el QoS modular CLI (MQC) para simplificar la configuración de QoS haciendo configuraciones modulares. MQC proporciona building-block para aplicar una política a los interfaces múltiples. Cisco AutoQoS representa la tecnología innovadora que simplifica los desafíos de la administración de la red reduciendo la complejidad de QoS, el tiempo del despliegue, y el coste a las redes de la empresa.

3.4.2 Configuración de QoS en CLI

Cisco no recomienda el método CLI para inicialmente implementar políticas de QoS El método de CLI sigue siendo la opción para algunos administradores, ESP para sintonía fina y ajustar las características de QoS. El método de puesta en práctica de QoS tiene las limitaciones siguientes: • Es la manera más pesada y más toma de tiempo de configurar

QoS • Tiene pocas opciones de afinamiento y hay menos

características soportadas de QoS que en otras técnicas de configuración de QoS.

• Las funcionalidades de QoS han limitado opciones; por ejemplo, usted no puede separar completamente la clasificación del tráfico de los mecanismos de QoS.

Para poner QoS en ejecución utiliza la consola o el telnet para tener acceso al CLI. Usar el CLI es simple pero solo permite que las características básicas sean configuradas. Para poner QoS en ejecución de esta manera, usted debe primero construir una política de QoS (política del tráfico) y en seguida aplicar la política al interfaz. Calcule las listas estas pautas para construir una política de QoS (política del tráfico): • Identifique los patrones de tráfico en su red usando un

analizador de paquetes. • Después de que usted haya realizado la identificación del

tráfico, comience a clasificar el tráfico. Por ejemplo, separe la clase de tráfico de voz de clase negocio-crítica del tráfico.

Page 93: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

93

CIBERTEC CARRERAS PROFESIONALES

• Para cada clase de tráfico, especifique la prioridad para cada clase. Por ejemplo, a la voz se asigna una prioridad más alta que tráfico de datos críticos.

• Después de aplicar las prioridades a las clases del tráfico,

seleccione un mecanismo apropiado de QoS, tal como encolamiento, compresión, o una combinación de ambos. Esta opción se determina qué tráfico sale del dispositivo primero y cómo el tráfico sale del dispositivo.

3.4.3 Modulo QoS CLI

Cisco MQC permite que los usuarios creen políticas del tráfico y después que asocien estas políticas a los interfaces. Una política de QoS contiene unas o más clases del tráfico y unas o más características de QoS.

Cisco MQC ofrece ventajas significativas sobre el método de CLI para implementar QoS. Usando MQC, un administrador de la red puede reducir perceptiblemente el tiempo y el esfuerzo que toma para configurar QoS en una red compleja. Con la configuración por medio de CLI se ordena la configuración por interfaz y el administrador desarrolla un sistema uniforme de clases del tráfico y las políticas de QoS que se aplican en interfaces.

Page 94: Manual Redes Convergentes

94

CARRERAS PROFESIONALES CIBERTEC

3.4.4 Paso 1 de QoS CLI: Mapas de configuración de clase

Requiere decirle al router el tráfico y que grado de QoS. Un ACL es la manera tradicional de definir cualquier tráfico para un router. Un clase de mapa define el tráfico en grupos con las plantillas de la clasificación que se utilizan en los mapas de la política donde los mecanismos de QoS están limitados a las clases. Usted puede configurar hasta 256 mapas de clase en un router. Por ejemplo, usted puede que asigne las aplicaciones video a un mapa de clase llamado Video, y el tráfico de la aplicación del E-mail a un mapa de clase llamó a Correo. Usted podría también crear un mapa de clase llamado tráfico VoIP y e incluir todos los protocolos de VoIP. Utilice el comando class-map en configuración global para crear un mapa de clase. Identifique los mapas de clase con nombres caso-sensibles. Todas las referencias subsecuentes al mapa de clase deben utilizar el mismo nombre. Cada mapa de clase contiene unas o más condiciones que definan qué paquetes pertenecen a la clase.

3.4.5 Paso 2: configuración de mapas de política

El comando del policy-map crea una política de tráfico. El propósito de una política del tráfico es configurar las características de QoS que se deben asociar al tráfico que entonces se clasifican en una clase o clases del tráfico. Usted puede después asignar tanto ancho de banda o fijar cualquier prioridad. Una política del tráfico contiene tres elementos: un nombre caso-sensible, una clase de tráfico (especificada con el comando de clase), y las políticas de QoS. El comando del policy-map especifica el nombre de una política del tráfico (por ejemplo, publicando el comando del policy-map

Page 95: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

95

CIBERTEC CARRERAS PROFESIONALES

class1 crearía una política del tráfico nombrada class1). Después de usted publique el comando del policy-map , usted entran en modo de la configuración del policy-map . Usted puede entonces incorporar el nombre de una clase de tráfico.

3.4.6 Paso 3: Adjuntando un servicio de Politica a una interface

Como un ACL, usted debe aplicar el mapa de la política ala interfaz que usted quisiera configurar. Usted puede aplicar el mapa de la política en modo in ú out. Usando el comando de la service-policy . El routres verifica inmediatamente los parámetros que se utilizan en el mapa. Si hay un error en la configuración del mapa de la política, el router muestra explicado con un mensaje el error

Page 96: Manual Redes Convergentes

96

CARRERAS PROFESIONALES CIBERTEC

3.4.7 Comandos básicos de la verificación de MQC

Para exhibir y para verificar las clases básicas y las políticas de QoS configuradas usando Cisco MQC.

AUTOEVALUACIÓN

1. ¿Qué funciones deben estar disponibles para implementar IntServ? 2. ¿Cuáles son los comandos necesarios para implementar QoS basado

en clases? 3. ¿Cuál es la característica mas importante que ofrece la QoS?

Page 97: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

97

CIBERTEC CARRERAS PROFESIONALES

IMPLEMENTACIÓN DEL MODELO DE QOS DE SERVICIOS DIFERENCIADOS

OBJETIVOS ESPECÍFICOS

• Identificar las tareas básicas para implementar calidad de QoS en una red convergente.

TEMARIO

• Introducción a la clasificación y marcado de paquetes • Usando NBAR para la clasificación • Introducción a implementación de encolamiento • Configuración de WFQ, CBWFQ y LLQ • Evitamiento de congestión • Introducción a políticas y conformación de tráfico • Implementación de QoS en VPNs • Despliegue de QoS de extremo a extremo

ACTIVIDADES PROPUESTAS

• Desarrollar los laboratorios de QoS según el avance de los temas planteados en el curso.

S E M A N A

4

Page 98: Manual Redes Convergentes

98

CARRERAS PROFESIONALES CIBERTEC

4.1 Introdución a la clasificación y marcado de paq uetes

4.1.1 Clasificación

La clasificación es el proceso de identificar tráfico y de categorizar ese tráfico en clases. La clasificación utiliza un descriptor del tráfico para categorizar un paquete dentro de un grupo específico para definir ese paquete. Los descriptores del tráfico que se utilizan típicamente son: • Interfaz entrante • Precedencia IP • Servicio Diferenciado de código punto (DSCP) • Dirección origen y destino • Aplicación Después de que se haya clasificado o identificado el paquete, entonces accesible por QoS que se especifica en la red. Usando la clasificación, los administradores de la red pueden particionar el tráfico de la red en clases del servicio múltiples (CoS). Cuando los descriptores del tráfico se utilizan para clasificar tráfico, el origen asume los términos contraídos y la red ofrece QoS. Hay varios mecanismos de QoS, tales como políticas de tráfico, formás de tráfico y técnicas de colas usando del descriptor de tráfico de paquetes, (esto es la clasificación de paquetes). La clasificación debe llevarse a cabo en entorno a la red, típicamente puede ser calbleada hacia un closet, con teléfonos IP o cualquier otro punto de la red. Cisco recomienda clasificación se lleve a cabo lo más cerca del origine del tráfico como sea posible

4.1.2 Marca

La marca se relaciona con la clasificación. La marca permite que los dispositivos de la red clasifiquen un paquete o un frame basado en un descriptor específico de tráfico. Las herramientas de la clasificación de QoS categorizan los paquetes examinando el contenido del frame, la celda, y de las cabeceras de paquetes; mientras que la marca permita el cambio de las cabeceras en el paquete haciendo una clasificación sencilla. Muchas herramientas de QoS confían en una función de la clasificación para determinarse a qué tráfico se aplica. Para hacer que la voz y datos viajen en colas separadas, por ejemplo, usted debe utilizar una cierta forma de clasificación para diferenciar los dos tipos de tráfico y poner el tráfico identificado en la cola apropiada. La marca proporciona herramientas de tal manera que los bits en la cabecera indiquen un nivel de servicio. Aunque las herramientas de la clasificación y de la marca no afectan directamente el ancho de banda, retardo, jitter, o la pérdida de tráfico en la red,

Page 99: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

99

CIBERTEC CARRERAS PROFESIONALES

Los descriptores que se utilizan típicamente son: Capa de enlace de datos:

o CoS (inter-Switching Link ISL , 802.1p) o Multiprotocol Label Switching (MPLS) o Experimental (EXP)bits o Frame Relay

Capa de red:

o DSCP o Precedencia IP

La marca se puede utilizar para fijar datos en el frame de la capa 2 o para fijar cabeceras en los paquetes en la capa 3 Marcar un paquete o un frame con su clasificación permite que los dispositivos subsecuentes de la red distingan fácilmente el paquete marcado o lo enmarquen como perteneciencia de una clase específica. Después de paquetes o de los frames os se identifican como pertenencia a una clase especifica, mecanismos de QoS se puede aplicar uniformemente para asegurar conformidad con las políticas administrativas de QoS.

4.1.3 Clasificación y marca en la capa de enlace

El estándar 802.1Q es una especificación de IEEE para poner en ejecución VLANs en redes switched de la capa 2. La especificación 802.1Q define dos campos de 2 bytes (Tag protocol identifier (TPID), y tag control information (TCI)) que se inserten dentro de un frame Ethernet en el campo de dirección origen. El campo de TPID está fijado en el valor 0x8100. La figura muestra la estructura del frame Ethernet.

Page 100: Manual Redes Convergentes

100

CARRERAS PROFESIONALES CIBERTEC

El campo de TCI se compone de tres campos: • Bits de prioridad de usuario (PRI) (3 bits): Las especificaciones

de este campo es de 3 bits, son definidas en el estándar de IEEE 802.1p. Estos bits se pueden utilizar para marcar los paquetes como pertenencia de una CoS específica. La CoS utiliza los tres bits de prioridad del usuario 802.1p y permite que un frame de Ethernet de la capa 2 sea marcado con ocho niveles de prioridad (valores 0-7). permitiendo una correspondencia directa con la versión 4 (IPv4) tipo de valores del servicio (TOS). La tabla enumera las definiciones estándares que el IEEE 802.1p especifica para cada CoS

. Definiciones estándares de CoSs Una desventaja de usar las CoS es que los frames pierden sus marcas de CoS cuando son transmitidas en non-802.1Q a un enlace non-802.1p.

CoS Definicion CoS 7 (111) Network CoS 6 (110) Internet CoS 5 (101) Crítical CoS 4 (100) Flash- override CoS 3 (011) Flash CoS 2 (010) Immediate CoS 1 (001) Pririty CoS 0 (000) Routine

Page 101: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

101

CIBERTEC CARRERAS PROFESIONALES

• Canonical Format Indicator (CFI) (1 bit): Este bit indica si es canónica o no canonica. El bit de CFI se utiliza para la compatibilidad entre las redes de Ethernet y del token ring.

• Identificador VLAN de VLAN ID (12 bits): El campo de la identificación de VLAN es un campo de 12 bits que define el VLAN usado por 802.1Q. El hecho de que el campo es 12 bits restringe el número de VLANs soportado por 802.1Q a 4096. Para la mayoría de los clientes de la empresa, 4096 VLANs es suficiente . Para las aplicaciones del prveedor de servicio, 4096 VLANs pueden no ser muchas.

Clasificación y marca según las instituciones de estandarización Antes de que el Internet Engineering Task Force (IETF) definiera los métodos de QoS para la capa de red, el ITU-T y el foro del frame relay (FRF) habían derivado ya los estándares para la capa de enlace QoS en redes Frame Relay. Frame relay proporciona un sistema simple de mecanismos de QoS para asegurar una tasa confiable de información (CIR): notificaciones de congestión llamado Forward Explicit Congestión notification (FECN) y backward explicit congestión notification (BECN), además de la fragmentación de los frames de datos cuando los frames de voz están presentes, según lo descrito en el foro FRF.12. Marcas en MPLS Cuando un cliente transmite los paquetes IP de un sitio a otro, el campo de la precedencia IP especifica la CoS (los primeros tres bits del campo de DSCP en la cabecera de un paquete IP). De acuerdo con la marca de la precedencia IP, al paquete se da el tratamiento deseado, tal como ancho de banda o latencia garantizada. Los bits experimentales de MPLS abarcan un campo de 3 bits que usted pueda utilizar una etiqueta de MPLS. Esto permite que las routers MPLS realicen las características de QoS basadas indirectamente en el campo original de la precedencia IP dentro de paquetes IP encapsulados por MPLS. Sin embargo, el proveedor de servicio puede fijar un paquete QoS de MPLS a un valor que es determinado por el ofrecimiento del servicio. El campo de MPLS EXP permite que el proveedor de servicio proporcione QoS sin sobreescribir el valor en el campo de la precedencia IP del cliente. El resto de la cabecera IP disponible para la aplicación del cliente y la marca del paquete IP no cambia mientras que el paquete viaja a través de la red de MPLS. • MPLS utiliza un campo de la etiqueta de 32 bits, que se inserta

entre las cabeceras de la capa 2 y de la capa 3 (modo frame). • MPLS EXP bit soporta hasta ocho CoSs. • Por defecto, el software del IOS de Cisco copia los 3 bits más

significativos del DSCP o la precedencia del paqute IP al campo de EXP.

• Los bits de EXP se conservan de la red de MPLS.

Page 102: Manual Redes Convergentes

102

CARRERAS PROFESIONALES CIBERTEC

4.1.4 Modelo DiffServ

La arquitectura de DiffServ se basa en un modelo simple en el cual los paquetes de datos se coloquen en un número limitado de las clases del tráfico, más bien que diferenciar el tráfico de la red basado en los requisitos de un flujo individual. Cada router en la red se configura para diferenciar el tráfico basado en su clase. Cada clase de tráfico se puede manejar diferentemente, asegurando el tratamiento preferencial para el tráfico de alta-prioridad. Los routers DiffServ-aware implementan entonnos por saltos (PHBs), que definen las características de la expedición de paquete asociadas a una clase de tráfico. Se pueden definir diferentes PHBs El DSCP valora los paquetes de la marca para seleccionar un PHB. Dentro de la base de la red, los paquetes se remiten según el PHB que se asocia al DSCP. Uno de los principios primarios de DiffServ es que usted debe marcar los paquetes tan cerca al borde de la red como sea posible. Es a menudo una tarea difícil y tiempo para determinarse qué clase de tráfico pertenece un paquete de datos. Usted desea clasificar los datos las menos veces posibles. Marcando el tráfico en el borde de la red, los dispositivos de la red de la base y otros dispositivos a lo largo de la trayectoria de la expedición podrán determinar rápidamente la CoS apropiada. Una ventaja clave de DiffServ es la escalabilidad con respecto a IntServ. DiffServ se utiliza para las aplicaciones misión-críticos y para proporcionar QoS de extremo a extremo. Típicamente, DiffServ es apropiado para los flujos agregados porque realiza un nivel relativamente pesado de la clasificación del tráfico. DiffServ describe servicios y permite que muchos servicios definidos por el usario sean utilizados en una red DiffServ-permitida.

4.1.5 Precedencia IP y compatibilidad con DSCP

La introducción de DSCP substituye la precedencia IP, un campo de 3 bits en el byte ToS de la cabecera original IP usado para clasificar y para dar la prioridad a tipos de tráfico. Sin embargo, DiffServ mantiene la interoperabilidad con los dispositivos no-DiffServ-compliant. Debido a esta compatibilidad, DiffServ se puede desplegar gradualmente en redes grandes. Originalmente, el campo fue referido como el campo ToS, y los primeros tres bits del campo (bits 7 a 5) definieron un valor de la la precedencia IP de paquetes. Un paquete se podría asignar una de seis prioridades basadas en el valor de la la precedencia IP (ocho valores totales menos dos unos reservados). La precedencia 5 (101) de IP era la prioridad más alta que podría ser asignada (RFC 791).

Page 103: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

103

CIBERTEC CARRERAS PROFESIONALES

En el diciembre de 1998, el RFC 2474 substituyó el campo de ToS por el campo de DiffServ, en el cual una gama de ocho valores (selector de clase) se utiliza para la compatibilidad con precedencia IP. No hay compatibilidad con otros bits usados por el campo ToS.

4.2 Usando NBAR para la clasificación

4.2.1 Reconocimiento de Redes-Basada en aplicacion es

Network-based Aplication Recognition (NBAR) es una característica de la clasificación y del descubrimiento del protocolo del software del IOS de Cisco que reconoce una variedad amplia de aplicaciones, incluyendo aplicaciones web-basados y aplicaciones cliente/del servidor que asignan dinámicamente puertos TCP o UDP. Después de que NBAR reconozca un aplicacion, la red puede invocar los servicios específicos para ese aplicación en particular. Estas características incluyen la capacidad de garantizar el ancho de banda a las aplicaciones críticos, ancho de banda límitadas y otras aplicaciones.

Page 104: Manual Redes Convergentes

104

CARRERAS PROFESIONALES CIBERTEC

NBAR trabaja con las características de QoS. NBAR se asegura de que el ancho de banda de la red sea utilizada eficientemente clasificando los paquetes y después aplicando QoS al tráfico. Algunos ejemplos de las características clase-basadas de QoS que se pueden utilizar en tráfico después de que el tráfico sea clasificado por NBAR incluyen: • Class-Based Marking (comando set ) • Class-Based Weighted Fair Queueing (comando bandwidth y

queue-limit ) • Low latency Queueing (comando priority ) • Traffic Policing (comando police) • Traffic Shaping (comando Shape ) NBAR realiza las dos funciones siguientes: • Identificación de aplicaciones y protocolos (capa 4 a capa 7) • Descubrimiento del protocolo Características de la clasificación NBAR introduce varias nuevas características de la clasificación que identifiquen usos y la capa 4 de los protocolos a la capa 7: • Asingnacion estática de números de puertos TCP y UDP. • Protocolo IP no-UDP y no-TCP. • Asignacion dinámica de números de puertos TCP y UDP. • Clasificación de Sub-puerto.

Page 105: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

105

CIBERTEC CARRERAS PROFESIONALES

NBAR puede clasificar protocolos de puertos estáticos. Aunque las listas del control de acceso (ACLs) se pueden también utilizar para este propósito, NBAR es más fácil de configurar y puede proporcionar la estadística de la clasificación que no está disponible al usar ACLs.

4.2.2 Aplicaciones soportadas por NBAR

NBAR puede clasificar tráfico de aplicaciones por los números de puerto de TCP/UDP de un paquete. Ésta es clasificación de subport. NBAR observa la carga útil a sí mismo de TCP/UDP y clasifica los paquetes en contenido dentro de la carga útil tal como identificador de la transacción, tipo de mensaje, u otros datos similares. La clasificación del HTTP por el URL, host, o internet, Multipurpose internet mail extensión (MIME) es un ejemplo de la clasificación. NBAR reconoce los paquetes que pertenecen a diferentes tipos de aplicaciones: • Las aplicaciones estáticos establecen sesiones por los

números de puerto del destino conocida TCP o del UDP. Tales aplicaciones como Simple Mail Transfer Protocol (smtp), podrían también ser clasificados usando las listas del control de acceso (ACLs).

• Sesiones múltiples de aplicaciones dinámicas de las aplicaciones que utilizan números de puerto dinámicos de TCP o del UDP. Típicamente, hay una sesión del control a un número de acceso bien conocido, y las otras sesiones se establecen a los números de acceso de destinonegociados con las sesiones del control, tales como ésos usados con el ftp. NBAR examina el switch del número de acceso con la sesión del control.

• Algunos protocolos no-IP, tales como Internetwork Packet Exchange de Novell (IPX), se pueden también reconocer por NBAR.

• NBAR también tiene la capacidad para examinar algunos usos para saber si hay otra información y a clasificarlos basado en esa información. Por ejemplo, NBAR puede clasificar las sesiones del HTTP basadas en el URL solicitado, incluyendo tipo del MIME o nombre de host.

Page 106: Manual Redes Convergentes

106

CARRERAS PROFESIONALES CIBERTEC

Protocolos Estaticos TCP y UDP soportados por NBAR Protocol Network Protocol Protocol ID Description BGP TCP/UDP 179 Border Gateway

Protocol CU-SeeMe TCP/UDP 7648, 7649 Desktop

videoconferencing CU-SeeMe UDP 24032 Desktop

videoconferencing DHCP/ BOOTP UDP 67, 68 DHCP, Bootstrap

Protocol

DNS TCP/UDP 53 Domain Name System Finger TCP 79 Finger user information

protocol Gopher TCP/UDP 70 Internet Gopher

protocol HTTP TCP 80 http

HTTPS TCP 443 Secure http IMAP TCP/UDP 143, 220 Internet Message

Access Protocol IRC TCP/UDP 194 Internet Relay Chat Kerberos TCP/UDP 88, 749 Kerberos Network

Authentication Service

L2TP UDP 1701 Layer 2 Tunneling Protocol

LDAP TCP/UDP 389 Lightweight Directory Access Protocol

MS-PPTP TCP 1723 Microsoft Point-to-Point Tunneling Protocol for VPN

MS-SQLServer TCP 1433 Microsoft SQL Server Desktop Videoconferencing

NetBIOS TCP 137, 139 NetBIOS over IP (Microsoft Windows)

NetBIOS UDP 137, 138 NetBIOS over IP (Microsoft Windows)

NFS TCP/UDP 2049 Network File System NNTP TCP/UDP 119 Network News

Transfer Protocol Notes TCP/UDP 1352 Lotus Notes Novadigm TCP/UDP 3460–3465 Novadigm Enterprise

Desktop Manager (EDM)

NTP TCP/UDP 123 Network Time Protocol PCAnywhere TCP 5631, 65301 Symantec

PCAnywhere PCAnywhere UDP 22, 5632 Symantec

Page 107: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

107

CIBERTEC CARRERAS PROFESIONALES

PCAnywhere POP3 TCP/UDP 110 Post Office Protocol

Printer TCP/UDP 515 Printer RIP UDP 520 Routing Information

Protocol RSVP UDP 1698,17 Resource Reservation

Protocol SFTP TCP 990 Secure FTP

SHTTP TCP 443 Secure HTTP (see also HTTPS)

SIMAP TCP/UDP 585, 993 Secure IMAP SIRC TCP/UDP 994 Secure IRC SLDAP TCP/UDP 636 Secure LDAP

SNNTP TCP/UDP 563 Secure NNTP SMTP TCP 25 Simple Mail Transfer

Protocol

SNMP TCP/UDP 161, 162 Simple Network Management Protocol

SOCKS TCP 1080 Firewall security protocol

SPOP3 TCP/UDP 995 Secure POP3 SSH TCP 22 Secured Shell Protocol

STELNET TCP 992 Secure Telnet

Syslog UDP 514 System logging utility Telnet TCP 23 Telnet protocol

X Window TCP 6000-6003 X11, X Window

Page 108: Manual Redes Convergentes

108

CARRERAS PROFESIONALES CIBERTEC

Protocolos No-TCP y No-UDP soportados por NBAR Protocol Network Protocol Protocol ID Description

EGP IP 8 Exterior Gateway Protocol

GRE IP 47 Generic Routing Encapsulation

ICMP IP 1 Internet Control Message Protocol

IPIP IP 4 IP in IP

IPSec IP 50, 51 IP Encapsulating Security Payload (ESP = 50) and Authentication Header (AH = 51)

EIGRP IP 88 Enhanced Interior Gateway Routing Protocol

Protocolos dinámicos (stateful) soportados por NBAR Stateful Protocol Transport Protocol Description FTP TCP File Transfer Protocol Exchange TCP MS-RPC for Microsoft Exchange

HTTP TCP HTTP with URL, MIME, or host classification NetShow TCP/UDP Microsoft NetShow

RealAudio TCP/UDP RealAudio streaming protocol r-commands TCP rsh, rlogin, rexec StreamWorks UDP Xing Technology StreamWorks audio and

video SQL*NET TCP/UDP SQL*NET for Oracle

SunRPC TCP/UDP Sun Remote Procedure Call TFTP UDP Trivial File Transfer Protocol VDOLive TCP/UDP VDOLive streaming video

4.2.3 Módulo de Descripción de Lenguaje de Paquetes (PDLM)

NBAR soporta actualizaciones dinámicas sin tener que cambiar la versión de Cisco IOS o reiniciar el router. El PDLM contiene las reglas que son usadas por NBAR para reconocer una aplicación por coincidencia de paquetes externos en paquetes de datos, que pueden ser usados para dar nuevas funcionalidades a NBAR.

4.2.4 Protocolo de Descubrimiento

Para desarrollar y aplicar políticas de QoS, NBAR incluye una característica de descubrimiento de protocolo que provee una

Page 109: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

109

CIBERTEC CARRERAS PROFESIONALES

forma fácil de descubrir protocolos de aplicación que transitan a través de una interface. La característica descubre cualquier tráfico soportado por NBAR. NBAR captura estadísticas importantes asociadas con cada protocolo enuna red (cantidad de paquetes generados, cantidad de bytes y velocidad de bits) en cada interface. Estas estadísticas definen clases de tráfico y políticas de QoS para cada clase de tráfico. NBAR puede aplicarse a interface diferentes ya sea a la entrada o a la salida.

4.2.5 Configuración y monitoreando el protocolo de descubrimiento

NBAR

NBAR tiene dos componentes básicos: • Un componente monitorea aplicaciones que atraviesan la red • El otro componente clasifica el tráfico por protocolo. Para monitorear aplicaciones que atraviesan una red se debe habilitar NBAR. Para clasificar el tráfico por protocolo usando NBAR y entonces aplicar QoS al tráfico clasificado. Utilice el comando: ip nbar protocol-discovery Para configurar NBAR y realizar estadísticas de tráfico para todos los protocolos conocidos por NBAR. Luego podemos utilizar el comando: Show ip nbar protocol-discovery Para mostrar las estadísticas en todas las interfaces en las que se haya habilitado NBAR.

4.2.6 Configuración NBAR para protocolos estáticos

La capacidad de NBAR de clasificar tráfico por protocolo y después de aplicar QoS a ese tráfico, requiere utilizar el criterio del MQC llamados class-map. Utilice el comando: Match protocol protocol-name Algunos protocolos pueden usar adicionalmente los puertos TCP o UDP ip nbar port-map

Page 110: Manual Redes Convergentes

110

CARRERAS PROFESIONALES CIBERTEC

Para extender o mejorar la lista de protocolos reconocidos por NBAR use el comando: ip nbar pdlm

4.2.7 Configuración de NBAR para protocolos dinámi cos

Utilice el MQC para configurar la capacidad de clasificar tráfico por protocolo usando NBAR y después de aplicar QoS al tráfico clasificado.

Puede clasificar los paquetes que pertenecen a los flujos del HTTP basados en lo siguiente:

o La parte del URL después del nombre de host, que aparece en la petición GET de la sesión HTTP

o El nombre de host especificado en la petición GET El ejemplo siguiente clasifica, dentro del mapa de clase llamado “class1,” los paquetes HTTP basados en cualquier URL que contiene la secuencia “whatsnew/latest” seguidos por cero o más carácteres: class-map class1 match protocol http url whatsnew /latest* El ejemplo siguiente clasifica, dentro del class map llamado “class2,” los paquetes basados en cualquier nombre de host que contiene la secuencia “cisco” seguida por cero o más carácteres:

Page 111: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

111

CIBERTEC CARRERAS PROFESIONALES

class-map class2 match protocol http host cisco* NBAR soporta una amplia gama de protocolos de red, incluyendo los protocolos stateful que eran difíciles de clasificar antes. Los protocolos stateful tales como HTTP o FastTrack necesitan la configuración especial para utilizar la característica de NBAR. Aplicaciones que utilizan el protocolo peer-to-peer FastTrack incluyen Kazaa, Grokster y Morpheus, asi como el Gnutella.

4.3 Introducción a implementaciones de encolamiento

4.3.1 Congestión y encolamiento

La congestión puede ocurrir en cualquier lugar dentro de una red donde se encuentran diferencias de velocidad (por ejemplo, un enlace 1000-Mbps que alimenta un enlace 100-Mbps), agregación (por ejemplo, multiples enlaces de 100-Mbps que alimentan un enlace upstream de 100-Mbps), o la confluencia (el ensamblar dos o más corrientes del tráfico).

La administración de congestión ofrece controlarla cuando ocurre. Una forma que los elementos de la red manejan un desbordamiento del tráfico es utilizar un algoritmo que clasifique el tráfico y después para determinar un cierto método de darle prioridad sobre un enlace de salida. Cada algoritmo que realiza el encolamiento fue diseñado para solucionar un problema específico del tráfico de la red y tiene un efecto particular en el funcionamiento de la red.

Page 112: Manual Redes Convergentes

112

CARRERAS PROFESIONALES CIBERTEC

4.3.2 Administración de congestión - algoritmos de encolamiento

El encolamiento está diseñado para acomodar la congestión temporal en un interfaz de un dispositivo de la red almacenando paquetes en exceso en buffers intermedios hasta que el ancho de banda llegue a estar disponible o hasta que se agote la profundidad de cada cola y los paquetes tienen que ser descartados. El encolamiento es un mecanismo de administración de congestión que permite que usted controle la congestión determinando el orden en el cual identificó los paquetes salientes por una interface, basado en las prioridades asignadas a esos paquetes. El mecanismo por defecto en la mayoría de las interfaces es el muy sencillo FIFO (primero en entrar, primero en salir). Algunos tipos de tráfico, tales como voz y vídeo son muy exigentes con los requisitos de retardos y jitter, por lo tanto se deben implementar mecanismos de encolamiento más sofisticados en los interfaces usados para tráfico de voz y vídeo.

Congestión y encolamiento El encolamiento complejo sucede generalmente en interfaces de salida solamente. Un router encola los paquetes que envia por una interface. Durante períodos con cargas bajas del tráfico, cuando no ocurre ninguna congestión, los paquetes dejan la interfaz tan pronto como llegan. Durante períodos de congestión en el interfaz saliente, los paquetes llegan más rápidamente que lo que la interface puede enviarlos. Cuando usted utiliza características de la administración de congestión, los paquetes que se acumulan en un interfaz se colocan en colas de software según su prioridad asignada y el mecanismo de encolamiento configurado para el interfaz. Entonces se programa la transmisión cuando el buffer intermedio del hardware del interfaz está libre para enviarlos. El router determina

Page 113: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

113

CIBERTEC CARRERAS PROFESIONALES

el orden de la transmisión de paquetes controlando qué paquetes entran cada cola y cómo las colas se mantienen con respecto de una a otra. Introducción a los algoritmos de encolamiento

• Primero en entrar, primero en salir: el algoritmo más simple • Priority Queuning (PQ): Permite que el tráfico sea basado en

prioridades • Round Robin: Permite que varias colas compartan el ancho de

banda • Round Robin:(WRR): Permite compartir de ancho de banda con el

priorización

4.3.3 Primero en entrar, primero en salir

El primero en entrar, primero en salir es el algoritmo de encolamiento más simple. El primero en entrar, primero en salir proporciona capacidad store-and-forward básica según las indicaciones de figura. El primero en entrar, primero en salir es el algoritmo de encolamiento por defecto en algunos casos, no requiriendo ninguna configuración.

El primero en entrar, primero en salir no incorpora ningún concepto de prioridad o de clases del tráfico y por lo tanto no toma ninguna decisión sobre prioridades de los paquete. Hay solamente una cola, y todos los paquetes se tratan igualmente. Los paquetes se colocan en una sola cola y se en el cual llegan. Los paquetes de alta prioridad no se transmiten más rápidamente que los paquetes de baja prioridad. Nota Las interfaces seriales E1 (2.048 Mbps) e inferiores se utiliza la cola justa por pesos (WFQ) por defecto.

4.3.4 Encolamiento con prioridad

PQ permite que usted dé la prioridad al tráfico en la red. Usted configura cuatro prioridades del tráfico. Usted puede definir una serie de filtros basados en características de paquetes para hacer el router poner tráfico en estas cuatro colas; la cola con la prioridad más alta se mantiene primero hasta que esté vacía, entonces las colas más bajas se mantiene en ese orden.

Page 114: Manual Redes Convergentes

114

CARRERAS PROFESIONALES CIBERTEC

Durante la transmisión, PQ da a colas de la prioridad el tratamiento preferencial absoluto sobre colas de baja prioridad. Se clasifican los paquetes basaron en criterios especificados por el usuario y colocados en una de las cuatro colas en la prioridad asignada. Los paquetes que no se clasifican se asignan a la cola normal. Una lista de prioridades es un sistema de reglas que describen cómo los paquetes se deben asignar a las colas de la prioridad. Una lista de la prioridad puede también describir la prioridad por defecto o los límites del tamaño de la cola de las cuatro colas con prioridad. Los paquetes se pueden clasificar por los siguientes criterios:

• Tipo del protocolo • Interfaz entrante • Tamaño de paquetes • Fragmentos • Access Control List (ACL)

4.3.5 Round Robin

El Round Robin refiere a un arreglo que implica el elegir de todos los elementos en un grupo igualmente en cierto orden racional, generalmente a partir del inicio al final de una lista y después de comenzar otra vez en al inicio de la lista y así sucesivamente.

Page 115: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

115

CIBERTEC CARRERAS PROFESIONALES

Si todos los paquetes son del mismo tamaño, todas las colas comparten el ancho de banda igualmente. Si los paquetes que son puestos en una cola son más grandes, esa cola recibirá una parte más grande del ancho de banda. Ninguna aplicación de la cola “muere de inanición” con el encolamiento Round Robin porque todas las colas reciben una oportunidad de enviar un paquete cada vuelta. Una limitación de encolamiento del Round Robin es la inhabilidad de dar la prioridad a tráfico. Round Robin con Pesos (WRR) WRR proporciona la capacidad del priorización para el encolamiento Round Robin. En WRR, los paquetes son reenviados usando Round Robin, pero las colas se pueden priorizadas por “pesos.” Por ejemplo, en una sola vuelta, cuatro paquetes de una clase prioritaria se pudieron enviar, seguido por dos paquetes de una clase de la prioridad media y entonces uno de una clase de la prioridad baja.

Algunas puestas en práctica del algoritmo de WRR proporcionan la priorización enviando un número configurable de octetos de cada más bien que un número de paquetes.

Page 116: Manual Redes Convergentes

116

CARRERAS PROFESIONALES CIBERTEC

4.3.6 Componentes de encolamiento del router

El encolamiento en los routers es necesario realizarlo cuando el índice de llegada de paquetes es mayor que la de la salida, generalmente debido a una de dos razones:

o El interfaz de entrada es más rápido que el interfaz de la salida.

o El interfaz de la salida está recibiendo los paquetes de múltiples interfaces.

Las puestas en marcha iniciales de encolamiento utilizaron la única estrategia del primero en entrar, primero en salir. Mejores mecanismos de encolamiento fueron introducidos cuando se requirieron que los routers distingan entre paquetes de diversa importancia. El encolamiento tiene dos partes:

o Cola del hardware: Utiliza la estrategia del primero en entrar, primero en salir, que es necesaria para los conductores del interfaz transmitir los paquetes uno por uno. La cola del hardware se refiere a veces como la cola de transmisión.

o Cola de software: Programación para colocar los paquetes en la cola del hardware basada en los requisitos de calidad de servicio (QoS).

Las acciones que deben ocurrir antes de transmitir un paquete pueden ser:

• La mayoría de los mecanismos de encolamiento incluyen la clasificación de paquetes.

• Después de que se clasifique un paquete, un router tiene que determinar si puede colocar el paquete en la cola o descartar el paquete. La mayoría de los mecanismos de encolamiento descartarán un paquete solamente si la cola correspondiente está llena. Algunos mecanismos utilizan un esquema de descarte más inteligente, tal como el encolamiento justo por pesos (WFQ), o un esquema de descarte al azar, tal como detección temprana al azar por pesos (WRED).

Page 117: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

117

CIBERTEC CARRERAS PROFESIONALES

• Si el paquete se es encolado, se pone en la cola FIFO para esa clase particular.

• Los paquetes después se toman de las colas individuales por clases y ponen en la cola del hardware.

4.4. Configuración WFQ

4.4.1 Weighted Fair Queing

Para las situaciones en las cuales es deseable proporcionar tiempo de reacción constante a los usuarios pesados y ligeros de la red igualmente sin la adición de ancho de banda excesiva, la solución es WFQ. Utiliza un algoritmo que hace el encolamiento basado en dos criterios simultáneamente:

• Programar tráfico interactivo al inicio de la cola para reducir tiempo de reacción.

• Compartir el ancho de banda restante entre los varios flujos para evitar que los flujos en grandes cantidades monopolicen el interfaz saliente.

Page 118: Manual Redes Convergentes

118

CARRERAS PROFESIONALES CIBERTEC

La base de WFQ es tener una cola dedicada para cada flujo sin retardos o jitter dentro de la cola. Además, WFQ permite justicia y asignación exacta de ancho de banda entre todos los flujos con el mínimo retardo. Se usan las marcas de WFQ mediante la precedencia IP como peso al asignar ancho de banda. Las corrientes de poco volumen del tráfico, que abarcan la mayoría de tráfico, reciben el servicio preferencial, transmitiendo sus cargas ofrecidas enteras en una manera oportuna. El tráfico en grandes cantidades fluye por la capacidad restante proporcional entre ellos. WFQ soluciona los problemas inherentes en los mecanismos de encolamiento siguientes:

• El problema del excesivo retardo y jitter del encolamiento primero en entrar, primero en salir.

• El problema del encolamiento por prioridad (PQ) que causa la “muerte por inanición” de las clases de baja prioridad y sufre de los problemas del primero en entrar, primero en salir dentro de cada uno de las cuatro colas que utiliza para la priorización.

4.4.2 Arquitectura y ventajas de WFQ

WFQ es un método dinámico que proporciona la asignación justa de ancho de banda a todo el tráfico de la red. WFQ aplica pesos al tráfico identificado, clasifica tráfico en los flujos, y determina cuánto ancho de banda no se prohibe cada flujo, concerniente a otros flujos. WFQ es un algoritmo que permite simultáneamente tráfico interactivo de una cola del hardware para reducir tiempo de reacción y comparte bastante ancho de banda restante entre flujos de alto consumo de ancho de banda. Según las indicaciones de figura, WFQ le permite da tráfico de poco volumen, tal como

Page 119: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

119

CIBERTEC CARRERAS PROFESIONALES

sesiones del telnet, tráfico en grandes cantidades del excedente de la prioridad, tal como sesiones ftp.

El método WFQ trabaja como el modo de encolamiento por defecto en las interfaces seriales configuradas para funcionar en o debajo de las velocidades E1 (2.048 Mbps). WFQ proporciona la solución para las situaciones en las cuales es deseable proporcionar tiempos de reacción constantes a los usuarios pesados y ligeros de la red igualmente, sin la adición de ancho de banda excesiva. Además, WFQ puede manejar los flujos de datos full duplex y flujos de datos half duplex, tales como voz o vídeo. Aunque WFQ se adapta automáticamente a las condiciones del tráfico de la red cambiante, no ofrece el grado exacto de control sobre la asignación de ancho de banda. La limitación significativa de WFQ es que no está soportada con hacer un túnel y el cifrado porque estas características modifican la información del contenido de paquetes requerida por WFQ para la clasificación.

4.4.3 Clasificación de WFQ

La clasificación de WFQ puede identificar flujos individuales. La figura demuestra cómo se identifica un flujo basado en la información siguiente tomada de la cabecera del IP y de las cabeceras de TCP o del User Datagram Protocol (UDP):

• Dirección IP de origen • Dirección IP de destino • Número del protocolo (identificando el TCP o el UDP) • Tipo de campo del servicio • Origen TCP o número de acceso del UDP • Destino TCP o número de acceso del UDP

Page 120: Manual Redes Convergentes

120

CARRERAS PROFESIONALES CIBERTEC

Estos parámetros son generalmente fijos para un solo flujo, aunque hay algunas excepciones. Por ejemplo, una calidad del diseño del servicio (QoS) puede marcar los paquetes con diferentes valores del bit de la la precedencia IP aunque que pertenecen al mismo flujo. Usted debe evitar tal marca al usar WFQ.

Si hay una gran cantidad de flujos del concurrente, es probable que dos flujos puedan terminar para arriba en la misma cola. Usted debe tener varias veces tantas colas como flujos (en promedio).

4.4.4 Inserción de WFQ y política de descarte

El sistema de WFQ tiene una capacidad de cola representada por la profundidad de la cola, significa el número de paquetes que se pueden retener en la cola. WFQ utiliza los dos parámetros siguientes que afectan descartar de paquetes:

• El umbral de descarte por congestión (CDT) se utiliza para comenzar a descartar los paquetes del flujo más agresivo, incluso antes de que se alcanza el límite de la cola.

• El límite de la cola define el número máximo de paquetes que se pueden retener en el sistema de WFQ en cualquier momento.

Hay dos excepciones a la política de la inserción y de descarte de WFQ:

• Si el sistema de WFQ está sobre el límite de CDT, el paquete todavía es encolado si la cola específicada para el flujo está vacío.

• La estrategia de descarte no está influenciada directamente por la precedencia IP.

4.4.5 Ventajas y desventajas de WFQ

El mecanismo de WFQ proporciona configuración simple (no hay clasificación manual necesaria) y garantiza rendimiento de

Page 121: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

121

CIBERTEC CARRERAS PROFESIONALES

procesamiento a todos los flujos. Descarta los paquetes de los flujos más agresivos. Debido a que WFQ es un mecanismo de encolamiento estándar, la mayoría de las plataformás y la mayoría de las versiones del IOS de Cisco soportan WFQ.

Si bien WFQ es bueno, tiene sus desventajas:

• Los flujos múltiples pueden terminar en una sola cola. • WFQ no permite que un ingeniero de la red configure

manualmente la clasificación. La clasificación y la calendarización son determinados por el algoritmo de WFQ.

• WFQ se soporta solamente en enlaces con un ancho de banda inferior o igual a 2 Mb.

• WFQ no puede proporcionar entregas garantizadas a los flujos.

4.4.6 Configuración de WFQ

Los routers de Cisco permiten automáticamente WFQ en todos los interfaces que tengan un ancho de banda por defecto de menos de 2.048 Mbps. El comando fair-queue permite WFQ en los interfaces donde no está permitido por el defecto ni fue previamente deshabilitado.

Configuración del límite máximo de WFQ

El sistema de WFQ generalmente nunca alcanzará el límite de la cola porque CDT comienza a descartar los paquetes de flujos agresivos en la cola del software. Bajo circunstancias especiales, puede ser que sea posible saturar el sistema de WFQ. Por ejemplo, un ataque de denegación-de-servicio que inunda el interfaz con un gran número de paquetes (cada uno diferente) podría llenar todas las colas a la misma velocidad.

4.4.7 Supervisión de WFQ

El comando show interface, se puede utilizar para determinar la estrategia de encolamiento. La salida también exhibe resumen de estadísticas.

Page 122: Manual Redes Convergentes

122

CARRERAS PROFESIONALES CIBERTEC

El sistema permite hasta 1000 paquetes (límite de la cola) con un CDT de 64. WFQ está por defecto utiliza 256 colas. El número máximo de los flujos del concurrente (conversaciones, o de las colas activas) es cuatro. El comando show queue se utiliza para exhibir el contenido de paquetes dentro de una cola para un interfaz particular, incluyendo estadística de flujo (conversación): • La profundidad de la cola. es el número de paquetes en la cola. • El peso es 4096/(la precedencia IP + 1), o 32.384/(la

precedencia IP + 1), dependiendo de la versión del IOS de Cisco.

• En la salida del comando, los descartes se utilizan para

epresentar el número de las perdidas debido al límite de CDT. • En la salida del comando, las descartes de la cola se utilizan

para representar el número de las perdidas debido al límite de la cola.

Page 123: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

123

CIBERTEC CARRERAS PROFESIONALES

4.5 Configuración de CBWFQ y LLQ

4.5.1 Combinación de métodos de encolamiento

Ni los métodos de encolamiento básicos ni los métodos de encolamiento más avanzados (WFQ) solucionan totalmente la calidad de los problemas del servicio (QoS) resultado de tráfico convergente en la red. Siguen existiendo los problemas siguientes: • Si solamente prioridad de colas (PQ) se utiliza para una red

con tráfico de voz habilitado, la voz consigue la prioridad necesaria. Sin embargo, el tráfico de datos sufriría.

• Si solamente el encolamiento personalizado (CQ) se utiliza

para una red con tráfico de voz habilitado, el tráfico de datos se asegura de cierto ancho de banda. Sin embargo, el tráfico de voz sufriría retardo.

• Si se utiliza WFQ, la voz todavía experimenta retardo aun

cuando es bien tratado por WFQ. • En PQ y CQ, toda la clasificación, marca, y mecanismos de

encolamiento son complicados de usar y desperdician tiempo cuando está aplicada sobre cada interface.

Mecanismos más nuevos de encolamiento combinan los mejores aspectos de métodos de encolamiento existentes. El estado de baja latencia de encolamiento (LLQ) es una combinación del encolamiento justo por pesos basado en clases (CBWFQ), que asigna pesos según consumo de ancho de banda, y de un sistema de la prioridad basado en clase que da prioridad que requiere la voz mientras que se asegura de que los datos sean mantenidos eficientemente.

Page 124: Manual Redes Convergentes

124

CARRERAS PROFESIONALES CIBERTEC

4.5.2 El encolamiento justo por pesos basado en cla ses (CB-WFQ)

CBWFQ amplía la funcionalidad estándar de WFQ para proporcionar la ayuda para las clases definidas por el usario del tráfico. Con CBWFQ, el usuario define las clases del tráfico basadas en criterios de coincidencias, incluyendo protocolos, ACLs, e interfaces de entrada. Los paquetes que satisfacen los criterios de coincidencias para una clase constituyen el tráfico para esa clase. Una cola es reservada para cada clase, y el tráfico que pertenece a una clase se dirige a esa cola de clase. Después de que se haya definido una clase y se han formulado sus criterios de coincidencias, usted puede asignar características a la clase. Para caracterizar una clase, usted le asigna un ancho de banda y un límite máximo de paquetes. Ancho de banda asignado a una clase es ancho de banda mínimo entregado a la clase durante la congestión. Para caracterizar una clase, usted también especifica el límite de la cola para esa clase, que es el número máximo de paquetes permitidos acumular en la cola de clase. El encolamiento garantiza ancho de banda mínimo, pero también da a la clase el acceso ilimitado de más ancho de banda si más está disponible. Usted puede configurar hasta 64 clases discretas en una política del servicio.

4.5.3 Arquitectura, clasificación y calendarización de CBWFQ

CBWFQ soporta mapas múltiples de clase para clasificar tráfico en sus colas correspondientes del primero en entrar, primero en salir. Las clases de CBWFQ utilizan descarte de la cola a menos que usted configure explícitamente una política para que una clase utilice la detección temprana al azar por pesos (WRED) para descartar los paquetes como medio para evitar la congestión. Observe que si usted utiliza descarte de paquetes de WRED en vez de descarte de la cola para unas o más clases en una política mapeada, usted debe asegurarse de que WRED no esté configurado para el interfaz al cual usted une esa política del servicio.

Page 125: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

125

CIBERTEC CARRERAS PROFESIONALES

Clasificación Usted puede utilizar cualquier opción de la clasificación para CBWFQ, dependiendo de disponibilidad en la versión del IOS de Cisco, del soporte en el interfaz seleccionado, y de el encapsulamiento. Mecanismos de calendarización El mecanismo de CBWFQ calcula los pesos basados en ancho de banda disponible. Estos pesos entonces son utilizados por el mecanismo de calendarización de CBWFQ para enviar los paquetes.

Usted puede configurar garantías de ancho de banda usando uno de los comandos siguientes: • El comando bandwidth asigna una cantidad fija de ancho de

banda especificando la cantidad en kilobits por segundo. Ancho de banda reservado se resta del ancho de banda disponible del interfaz donde se utiliza la política del servicio. El ancho de banda asignado debe también estar dentro del límite reservable configurado (75 por ciento de ancho de banda del interfaz por defecto).

• El comando bandwidth percent se puede utilizar para asignar

un porcentaje de ancho de banda disponible total de un interfaz. Ancho de banda total del interfaz es definida usando el comando bandwidth interface. Se recomienda que el comando de ancho de banda refleje la velocidad verdadera de enlace. El ancho de banda asignado se resta del ancho de banda disponible del interfaz donde se utiliza la política del servicio.

• Se utiliza el comando bandwidth remaining percent para

asignar la cantidad de ancho de banda garantizada basada en

Page 126: Manual Redes Convergentes

126

CARRERAS PROFESIONALES CIBERTEC

un porcentaje relativo de ancho de banda disponible. Cuando se configura el comando bandwidth remaining percent, las garantías de ancho de banda no pueden ser proporcionadas, y solamente se aseguran las anchos de banda relativas por clase. Es decir, los anchos de banda de clase son siempre proporcionadas a los porcentajes especificados de ancho de banda del interfaz. Cuando el ancho de banda del enlace es fijo, las garantías de ancho de banda de clase están en base a los porcentajes configurados. Si el ancho de banda de enlace es desconocido o variable, las garantías de ancho de banda de clase en kilobits por segundo no pueden ser calculadas.

Una sola política del servicio no puede mezclar los comandos bandwidth (fijada, en kilobits por segundo) y bandwidth percent (excepto con colas de prioridad estricta). Los pesos necesitados para calendarizar son calculados por el CBWFQ basado en el ancho de banda configurado o su porcentaje.

Ventajas y desventajas de CBWFQ CBWFQ permite que usted defina las clases del tráfico basadas en criterios personalizados basados en coincidencias tales como ACLs, interfaces de entrada, y tipo del protocolo. La figura demuestra las ventajas y la desventaja de CBWFQ descrito como sigue: • Clasificación: CBWFQ permite las clasificaciones

personalizadas basadas en muchos parámetros, tales como ACLs, interfaces entrados, cuenta de octetos, y así sucesivamente.

• Asignación de ancho de banda: CBWFQ permite que usted

especifique ancho de banda mínima exacta que se asignará

Page 127: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

127

CIBERTEC CARRERAS PROFESIONALES

para una clase de tráfico específica. Considerando el ancho de banda disponible en el interfaz, usted puede configurar hasta 64 clases y controlar la distribución entre ellas, que no es el caso con los flujos basados en WFQ. Estos aplican pesos al tráfico para clasificarlo en las conversaciones y se determina cuánto ancho de banda cada conversación tiene permitida, concerniente a otras conversaciones. Para flujos basados en WFQ, estos pesos y la clasificación del tráfico, son dependientes y limitados a los niveles de la precedencia IP.

• Un granularidad y un escalabilidad más finos: CBWFQ permite

que usted defina qué constituye una clase basada en los criterios que exceden los límites del flujo. Usted no necesita mantener la clasificación del tráfico en base a flujos. Por otra parte, usted puede configurar hasta 64 clases discretas en una política del servicio.

• La desventaja es que el tráfico de voz puede sufrir de

inaceptable retardo si usted utiliza CBWFQ como el único mecanismo de encolamiento.

4.5.4 Configuración y supervisión CBWFQ

El comando bandwidth dentro del comando de la configuración policy-map class se utiliza para especificar o modificar el ancho de banda asignada para una clase que pertenece a un policy-map. Todas las clases que pertenecen a una política mapeada deben utilizar el mismo tipo de garantía de ancho de banda, en kilobits por segundo, el porcentaje de ancho de banda del interfaz, o el porcentaje de ancho de banda disponible. La configuración del ancho de banda en porcentajes es la más útil cuando el ancho de banda del enlace es desconocido o se saben las distribuciones relativas de ancho de banda entre las clases. Supervisión de CBWFQ El comando de interface show policy-map muestra todas las políticas de servicio aplicadas a la interface.

Page 128: Manual Redes Convergentes

128

CARRERAS PROFESIONALES CIBERTEC

4.5.5 El encolamiento de baja latencia

Aunque WFQ proporciona una forma justa de compartir el ancho de banda a cada flujo y proporciona programar de la feria de sus colas, no puede proporcionar ancho de banda garantizado y el bajo retardo a las aplicaciones seleccionadas. Por ejemplo, el tráfico de voz puede competir con otros flujos agresivos en el sistema de encolamiento de WFQ porque el sistema de WFQ carece de prioridades para las clases de tráfico críticas en el tiempo. Para CBWFQ, el peso para un paquete que pertenece a una clase específica se deriva de ancho de banda que usted asignó a la clase cuando usted la configuró. Por lo tanto, el ancho de banda asignado a los paquetes de una clase determina el orden en la cual se envían los paquetes. Todos los paquetes son servidos con justicia por este peso interno; ninguna clase de paquetes se puede conceder estricta prioridad. Este esquema plantea los problemas para el tráfico de voz, del cual es en gran parte intolerante al retardo, especialmente a la variación en retardo. Para el tráfico de voz, las variaciones en retardo introducen las irregularidades de la transmisión oídas como jitter en la conversación.

LLQ reduce el jitter en conversaciones de voz. Para encolar tráfico en tiempo real a una cola de prioridad estricta, usted configura el comando priority para la clase después de que usted especifique la clase nombrada dentro de una política mapeada. Usted puede dar a uno o más clases el estado de prioridad. Cuando las clases múltiples dentro de una única política mapeada se configuran como clases con prioridad, todo el tráfico de estas clases son encoladas por igual, a una única cola, de prioridad estricta.

Page 129: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

129

CIBERTEC CARRERAS PROFESIONALES

4.5.6 Arquitectura y ventajas de LLQ

LLQ amplía CBWFQ agregando encolamiento por estricta prioridad. El encolamiento por estricta prioridad permite que los datos sensibles a retardos tales como la voz sean quitados de la cola y enviados primero. Los paquetes que ingresan al sistema de LLQ se envían a la cola de la prioridad, donde tienen una asignación fija de ancho de banda y donde se sirven primero. Los paquetes de datos ingresan al sistema de CBWFQ directamente donde se asignan los pesos específicamente los que determinan cómo se tratan. Sin LLQ, CBWFQ provee de encolamiento basado en pesos definiendo el ancho de banda por clase sin ninguna cola por estricta prioridad disponible para el tráfico en tiempo real. CBWFQ permite que usted defina clases del tráfico y después que asigne características a esa clase. Por ejemplo, usted puede señalar ancho de banda mínima entregada a la clase durante la congestión. Ventajas de LLQ Una ventaja de LLQ está teniendo una configuración constante a través de todos los tipos de medios, con independencia de los medios usados. También, usar LLQ como los criterios de entrada para una clase puede ser tan granular como usted desee porque la define por un ACL. Usted no está limitado, como con la característica de la prioridad del IP RTP, a una gama de puertos UDP. El tráfico de VoIP utiliza un conjunto de puertos bien conocido de UDP, de 16384 a 32767. Mientras que los puertos reales usados se negocian dinámicamente entre los dispositivos de extremo a extremo o las entradas.

4.5.7 Configuración y supervisión LLQ

Cuando usted especifica el comando priority para una clase, usted puede utilizar el argumento de ancho de banda para especificar el ancho de banda máximo en kilobits por segundo. Usted utiliza este parámetro para especificar la cantidad máxima de ancho de banda asignada para los paquetes que pertenecen a la clase configurada con el comando priority. El parámetro de ancho de banda garantiza ancho de banda a la clase de la prioridad y frena el flujo de paquetes desde la clase con prioridad. Sintaxis: priority { bandwidth | percent percentage} [ burst]

El parámetro percent percentage especifica el total de ancho de banda disponible para ser asignado a una clase, puede especificarse un valor de 1 a 100. Sin embargo solo puede reservarse el 75 por ciento como máximo.

Page 130: Manual Redes Convergentes

130

CARRERAS PROFESIONALES CIBERTEC

Supervisión de LLQ El comando show policy-map interface muestra la estadística de paquetes de todas las clases que usted configuró para todas las políticas del servicio en el interfaz especificado.

Page 131: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

131

CIBERTEC CARRERAS PROFESIONALES

4.6 Evitamiento de congestión

4.6.1 Manejo de congestión en la interface con desc arte de la cola

Cuando un interfaz en un router no puede transmitir un paquete inmediatamente, el paquete se va a la cola, ya sea en un interfaz de transmisión (Tx) o en la cola de salida del interfaz, dependiendo de la trayectoria de conmutación utilizada. Los paquetes entonces se toman de la cola y se transmiten eventualmente por el interfaz. Si la tasa de llegada de paquetes al interfaz de la salida excede la capacidad del router de almacenar y de reenviar tráfico, las colas aumentan a su longitud máxima y el interfaz se congestióna. El descarte de la cola es la respuesta del encolamiento por defecto a la congestión. El descarte de la cola trata todo el tráfico igualmente y no lo distingue entre clases del servicio. Cuando la cola de salida está llena y el descarte de la cola está en acción, todos los paquetes que intentan ingresar a la cola se descartan hasta que la cola no está más llena.

4.6.2 Limitaciones de descarte de la cola

El esquema simple de descarte de la cola no trabaja muy bien en ambientes con un número grande de flujos TCP o en los ambientes en los cuales se requiere el descartar selectivo. Entender la interacción de la red entre la inteligencia del apilado de TCP y el descarte se requiere para poner un esquema de descarte más eficiente en ejecución y ferias, ESP en ambientes del proveedor de servicio. El descarte de la cola tiene los defectos siguientes: • Normalmente, cuando ocurre la congestión, el descarte afecta la

mayor parte de las sesiones TCP, que retroceden y después recomienzan simultáneamente otra vez. Este proceso causa la utilización ineficaz de enlace en el punto de congestión (sincronización global de TCP). Para evitar descartar de paquetes de TCP, el TCP reduce el tamaño de la ventana.

Page 132: Manual Redes Convergentes

132

CARRERAS PROFESIONALES CIBERTEC

• La inanición de TCP ocurre, cuando todos los buffers

intermedios son utilizados temporalmente por flujos agresivos. • No hay mecanismo diferenciado de descarte, y por lo tanto el

tráfico de la prioridad alta se descarta de la misma forma que el tráfico del mejor esfuerzo.

Sincronización de TCP Un router puede manejar sesiones múltiples TCP concurrentes. Sin embargo, el tráfico de ráfagas de la red podría hacer a un router fallar si el tráfico excedel límite de la cola. Si el router de recepción descarta todo el tráfico que exceda el límite de la cola (la acción de descarte de la cola por defecto), muchas sesiones de TCP entonces empiezan simultáneamente a ralentizarse. El tráfico temporalmente desciendo a niveles muy bajos, y entonces todos los flujos se tornan lentos otra vez. Esta actividad crea una condición llamada sincronización global. La sincronización global ocurre como ondas de cresta de congestión, sólo para ser seguida por los canales durante los cuales el enlace de la transmisión no se utiliza completamente. La sincronización global de los hosts TCP puede ocurrir porque los paquetes se descartan de una vez. La sincronización global ocurre cuando los múltiples hosts TCP reducen sus tasas de la transmisión en respuesta al descarte de paquetes. Cuando se reduce la congestión, se aumentan sus tasas de la transmisión. El retardo, jitter e inanición en TCP La congestión es otro nombre para las pérdidas de la cola. Cuando la cola de salida está llena, el descarte de la cola descarta los paquetes para eliminar la congestión. Esto causa retardo. Además, el encolamiento introduce desigual retardo para los paquetes del mismo flujo, dando por resultado jitter.

Otro fenómeno relacionado a TCP que reduce el rendimiento de procesamiento óptimo de las aplicaciones de la red es la inanición de TCP. Cuando los flujos múltiples se están transmitiendo a través

Page 133: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

133

CIBERTEC CARRERAS PROFESIONALES

de un router, algunos de estos flujos pueden ser mucho más agresivos que otros flujos. Estos paquetes llenan inmediatamente la cola en el router, y los otros, los flujos menos agresivos pueden estar “hambrientos”. Consecuentemente, los flujos menos agresivos se descartan en el interfaz de la salida. El descarte de la cola no es el mecanismo óptimo para el evitamiento de congestión y por lo tanto no debe ser utilizada. En su lugar, mecanismos más inteligentes del evitamiento de congestión deben ser utilizados que son capaces de retardar tráfico antes de que ocurra la congestión.

4.6.3 Detección temprana al azar

La detección temprana al azar (RED) es un mecanismo de descarte de descarte aleatoriamente los paquetes antes de que una cola sea llena. La base de la estrategia de descarte es la longitud media de la cola que es, cuando el tamaño medio de la cola aumenta, para RED es más probable descartar un paquete entrante que cuando la longitud media de la cola es más corta. Porque el RED descarta los paquetes aleatoriamente, no tiene ningúna inteligencia por flujos. El análisis razonado es que un flujo agresivo representará la mayor parte del tráfico que llega, y es probable que el RED caiga un paquete de una sesión agresiva. El RED por lo tanto castiga sesiones más agresivas con una probabilidad estadística más alta y puede retardar algo selectivamente la causa más significativa de congestión. Ordenar una sesión de TCP a la vez para retardor permite la utilización completa de ancho de banda más bien que la utilización que se manifiesta como crestas y canales del tráfico. Como resultado de poner RED en ejecución, la sincronización global de TCP es mucho menos probable que ocurra, y el TCP puede utilizar el ancho de banda del enlace más eficientemente. En puestas en práctica de RED, el tamaño medio de la cola también disminuye perceptiblemente porque la posibilidad de la cola que se llene se reduce. Esto es porque el RED es muy agresivo en el descarte de cola cuando ocurren ráfagas de tráfico y la cola está ya absolutamente llena. Perfiles de descarte RED El RED utiliza el perfil del tráfico para determinar la estrategia de descarte de paquete basada en la longitud media de la cola. La probabilidad de descarte de paquetes se basa en el umbral mínimo, el umbral máximo, y el denominador de la probabilidad de marca. Cuando la profundidad media de la cola está sobre el umbral mínimo, el RED comienza a descartar los paquetes. El índice de descarte de paquetes aumenta linealmente mientras que el tamaño medio de la cola aumenta hasta que su tamaño alcanza el umbral máximo.

Page 134: Manual Redes Convergentes

134

CARRERAS PROFESIONALES CIBERTEC

Modos RED Existen tres modos de descarte RED usados en los flujos TCP que se basan en el tamaño medio de la cola: Cuando el tamaño medio de la cola está entre 0 y el umbral mínimo configurado, ningunas descartes ocurren y se hacen cola todos los paquetes. Cuando el tamaño medio de la cola está entre el umbral mínimo configurado y el umbral máximo configurado, los descartes al azar ocurren, que es linealmente proporcional al denominador de la probabilidad de la marca y a la longitud media de la cola. Cuando el tamaño medio de la cola está en o superior al umbral máximo, el RED realiza descarte total en la cola.

4.6.4 Detección temprana al azar por pesos (WRED)

Interesante, Cisco no soporta RED. En su lugar, Cisco soporta la detección temprana al azar por pesos (WRED) que combina RED con la precedencia IP o DSCP y realiza descarte de paquetes basado en la precedencia IP o marcas de DSCP. Por ejemplo, un paquete con un valor de la la precedencia IP de 0 pudo tener un umbral mínimo de 20 paquetes, mientras que un paquete con una la precedencia IP de 1 pudo tener un umbral mínimo de 25 paquetes. En este ejemplo, los paquetes con una la precedencia IP de 0 comenzarían a ser desechados antes de paquetes con una la precedencia IP de 1. Como con RED, WRED supervisa la longitud media de la cola en el router y se determina cuando comenzar a desechar los paquetes basados en la longitud de la cola del interfaz. Cuando la longitud media de la cola excedel umbral mínimo user-specified, WRED comienza a descartar aleatoriamente los paquetes con cierta probabilidad. Si la longitud media de la cola continúa aumentando de modo que llegue a ser más grande que el umbral máximo user-specified, WRED invierte a una cola-descarte paquete-desecha la estrategia, en la cual se Descartan todos los paquetes entrantes. La idea detrás de usar WRED es mantener la longitud de la cola en un nivel en alguna parte debajo del umbral máximo y poner diferentes políticas de descarte en ejecución para diferentes clases del tráfico. WRED puede desechar selectivamente tráfico de baja prioridad cuando el interfaz se congestióna y puede proporcionar las características de funcionamiento distinguidas para diferentes clases del servicio. WRED se puede también configurar para producir comportamiento sin pesos como RED. Para los interfaces configurados para utilizar el protocolo de la reservación del recurso (RSVP), WRED elige los paquetes de otros flujos al descarte más bien que los flujos de RSVP. También, la la precedencia IP o las ayudas de DSCP se determina se Descartan qué paquetes, porque el tráfico en una prioridad más baja tiene una tasa más alta de descarte que tráfico en una prioridad más alta (y,

Page 135: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

135

CIBERTEC CARRERAS PROFESIONALES

por lo tanto, tráfico de baja prioridad es más probable ser sofocado detrás). Además, WRED descarta estadístico más paquetes de usuarios grandes que de usuarios pequeños. Los origenes del tráfico que generan la mayoría del tráfico son más probables ser retardadas que los origenes que generan poco tráfico. WRED reduce las ocasiones de descarte de la cola selectivamente cayendo los paquetes cuando el interfaz de la salida comienza a demostrar muestras de congestión. Cayendo algunos paquetes temprano más bien que esperando hasta que la cola es llena, WRED evita de descartar números grandes de paquetes inmediatamente y reduce al mínimo las ocasiones de la sincronización global. Consecuentemente, las ayudas de WRED maximizan la utilización de las líneas de la transmisión. WRED trata el tráfico no-IP como precedencia 0, la precedencia más baja. Por lo tanto, el tráfico no-IP, es generalmente más probable ser caído que tráfico del IP. WRED debe ser utilizado dondequiera que haya un enlace congestionado potencial (embotellamiento), que podría muy bien ser un enlace del acceso o del borde; sin embargo, WRED se utiliza normalmente en los routers de la base de una red más bien que en el borde de la red. Los routers del borde asignan la precedencia IP o DSCP a los paquetes mientras que incorporan la red. WRED utiliza estos valores asignados para determinarse cómo tratar diferentes tipos de tráfico. Observe que Cisco no recomienda WRED para ninguna cola de voz, aunque usted puede permitir WRED en un tráfico de voz del interfaz que lleva. WRED no sofocará tráfico de voz porque el tráfico de voz es basado en User Datagram Protocol (UDP).

Construcción de Bloques WRED El router pone al día constantemente el algoritmo de WRED con la longitud media calculada de la cola, que se basa en la historia reciente de las longitudes de la cola.

Page 136: Manual Redes Convergentes

136

CARRERAS PROFESIONALES CIBERTEC

Se configuran en el perfil del tráfico los parámetros que definen las características de descarte usadas por WRED (umbral mínimo, umbral máximo, y denominador de la probabilidad de la marca). Estos parámetros definen las cuestas de la probabilidad de WRED. Cuando un paquete llega la cola de salida, la la precedencia IP o el valor de DSCP se utiliza para seleccionar el perfil correcto de WRED para el paquete. El paquete entonces se pasa a WRED para procesar. De acuerdo con el perfil seleccionado del tráfico y la longitud media de la cola, WRED calcula la probabilidad para descartar el paquete actual y Descarta el paquete o lo pasa a la cola de salida. Si la cola es ya llena, se Descarta el paquete. Si no, el paquete se transmite eventual hacia fuera al interfaz. Si la longitud media de la cola es mayor que el umbral mínimo pero menos que el umbral máximo, basado en la probabilidad de descarte, WRED hace cola el paquete o realiza una descarte al azar. WRED basado en clases Tradicionalmente, el software del IOS de Cisco utilizó mecanismos independientes del RED y de WRED para evitar la congestión en un interfaz. Esos mecanismos pueden realizar una descarte distinguida basada en la la precedencia IP o el valor de DSCP. El sistema de encolamiento CBWFQ soporta la aplicación de WRED dentro del sistema de encolamiento, de tal modo poniendo WRED en ejecución basado en clases (CBWRED). Cada clase se encola por separada y tiene un límite de la cola, realizando descarte de la cola por defecto. WRED se puede configurar como el método de descarte preferido en una cola, poniendo una descarte en ejecución distinguida basada en clase de tráfico o en la precedencia IP o el valor de DSCP. Nota La combinación de CBWFQ y de WRED en un solo dispositivo es actualmente la única manera de poner el Assured Forwarding (AF) de los servicios diferenciados (DiffServ) que usa software del IOS de Cisco.

4.6.5 Perfiles de descarte de WRED Un comportamiento por salto (PHB) es el comportamiento externamente observable de reenvío aplicado en un nodo DiffServ a un comportamiento agregado DiffServ (BA). Con la capacidad del sistema de marcar los paquetes según el ajuste de DSCP, las colecciones de paquetes (cada uno con el mismo ajuste de DSCP y enviado en una dirección particular) se pueden agrupar en un BA de DiffServ. Los paquetes de origenes o aplicaciones múltiples pueden pertenecer al mismo BA de DiffServ.

Page 137: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

137

CIBERTEC CARRERAS PROFESIONALES

WRED Basado en DSCP (Expedited Forwarding) PHB EF se sugiere para las aplicaciones que requieren una garantía en retardo y jitter. Típicamente, las aplicaciones de misión crítica requerirían este servicio y serían asignados un porcentaje pequeño de la capacidad total de la red. En DSCP, se identifica la expedición apresurada PHB (EF) basado en estos parámetros:

• Una tasa baja de la salida se asegura para proporcionar punto bajo retardo a las aplicaciones sensibles a retardos.

• Ancho de banda está garantizada para prevenir la inanición de la aplicación si hay múltiples aplicaciones usando PHB EF.

• Ancho de banda se basa en políticas para prevenir la inanición de otras aplicaciones o clases que no estén utilizando este PHB.

• Los paquetes que requieran EF se deben marcar con el valor binario 101110 (46) de DSCP.

Para la clase EF del tráfico de DiffServ, WRED se configura por el defecto de modo que el umbral mínimo sea muy alto, aumentando la probabilidad de ningunas descartes que son aplicadas a esa clase de tráfico. Se espera que el tráfico EF sea caído muy tarde, comparado al otro tráfico clasifica, y el tráfico EF por lo tanto se da la prioridad en caso de congestión.

4.6.6 Configuración DE CBWRED

Se utiliza el comando de random-detect para habilitar WRED en un interfaz. Por defecto, WRED se basa en precedencia IP y utiliza ocho perfiles por defecto WRED, uno para cada valor de precedencia IP. Dentro del sistema de CBWFQ, WRED se utiliza para realizar el descarte dentro de las colas de clase. Por lo tanto, cada cola de clase tiene su propio método de WRED, que se puede basar en la la precedencia IP o el valor de DSCP. Cada cola se puede por lo tanto configurar con una política separada de descarte para poner diferentes políticas en ejecución para cada clase de tráfico.

Page 138: Manual Redes Convergentes

138

CARRERAS PROFESIONALES CIBERTEC

WRED trata todo el tráfico no-IP como precedencia 0. Consecuentemente, el tráfico no-IP es más probable ser caído que tráfico del IP. WRED no se puede configurar en el mismo interfaz que encolamiento personalizado (CQ), encolamiento con prioridad (PQ), o el WFQ. Sin embargo, CBWRED se puede configurar conjuntamente con CBWFQ.

4.6.7 Perfiles de WRED: WRED DSCP-Basado (AF)

En DSCP, los parámetros siguientes identifican el Assured Forwarding (AF) basada en PHB:

• Garantiza cierta cantidad de ancho de banda a una clase del AF.

• Permite el acceso a ancho de banda adicional, si está disponible.

Los paquetes que requieren AF PHB se deben marcar con el valor aaadd0 de DSCP, donde está el número el aaa de clase y la DD es la probabilidad de descarte, o la preferencia de descarte, de la clase de tráfico.

Page 139: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

139

CIBERTEC CARRERAS PROFESIONALES

Hay cuatro clases definidas del AF. Cada clase debe ser tratada independientemente y tener ancho de banda asignado según la política de QoS. Para la clase de tráfico del AF DiffServ, WRED se configura por el defecto para tres diferentes perfiles, dependiendo de los bits de marca de la preferencia DSCP de descarte. Por lo tanto, el tráfico del AF se debe clasificar en las tres clases posibles, tales como AF de alto descarte, AF de descarte medio y AF de bajo descarte. Estas tres clases se basan en la sensibilidad a los descartes de paquetes de la aplicación o de las aplicaciones representadas por la clase. El comando random-detect dscp-based es utilizado para habilitar WRED basado en DSCP en una interface. Cambiando los pesos a los valores basados en DSCP, se incrementa el número de perfiles de tráfico WRED a 64, comparado con los 8 perfiles para WRED basado en precedencia IP.

4.6.8 Supervisión de CBWRED

El comando show policy-map interface exhibe la configuración de todas las clases configuradas para todas las políticas de servicio en la interface especificada. Esto incluye todos los parámetros de WRED que ponen la política de descarte en ejecución en el interfaz especificado.

Page 140: Manual Redes Convergentes

140

CARRERAS PROFESIONALES CIBERTEC

4.7 Introducción a políticas y conformación de tráfico

4.7.1 Descripción de las políticas y la conformació n de tráfico

Las políticas y conformación de tráfico son mecanismos que se utilizan en una red para controlar la tasa del tráfico. Ambos mecanismos utilizan la clasificación de modo que puedan diferenciar tráfico. Miden el índice del tráfico y comparan esa tasa a la política o conformación de tráfico configurada. La diferencia entre la conformación de tráfico y la política se puede describir en términos de su ejecución. Las políticas de tráfico descartan el exceso de tráfico para controlar la circulación dentro de límites especificados de tasa. Las politicas de tráfico no introducen retardo para conformar políticas de tráfico. Las politicas de tráfico pueden causar más retransmisiones de TCP, porque el tráfico superior a límites especificados se descarta.

Page 141: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

141

CIBERTEC CARRERAS PROFESIONALES

Los mecanismos de políticas de tráfico tales como aplicar políticas basadas en clases o tasa de acceso comprometida (CAR) también tienen capacidades de marca además de capacidades limitadoras de tráfico. En vez de descartar exceso del tráfico, las politicas de tráfico pueden marcar y después enviar exceso de tráfico. Esta característica permite que el tráfico excesivo sea marcado con una prioridad más baja antes de que se envíe el exceso de tráfico. La conformación de tráfico almacena el tráfico excesivo de modo que el tráfico permanezca dentro de la tasa deseada. Con el conformador de tráfico, las ráfagas tráfico son soportadas encolando el exceso del tráfico para producir un flujo más constante de datos. La reducción de tráfico ayuda a reducir la congestión en la red. Conformadores de tráfico tales como conformadores de tráfico basado en clases, conformador de tráfico de Frame Relay (FRTS), o IP virtual (VIP) – conformador de tráfico distribuido (DTS) basado en software del IOS de Cisco no tienen la capacidad de marcar tráfico. ¿Por qué utilizar políticas? Las politicas de tráfico se utilizan típicamente para satisfacer uno de estos requisitos según lo resumido en figura:

• Limitación de la tasa de acceso en un interfaz cuando la infraestructura física de alta velocidad se utiliza en transporte. La limitación de la tasa es utilizada típicamente por los proveedores de servicio para ofrecer a clientes el acceso. Por ejemplo, un cliente puede tener una conexión óptica Carrier-3 (OC-3) al proveedor de servicio sino pagar solamente una tasa del acceso T1. El proveedor de servicio puede límitar la tasa de tráfico del cliente a la velocidad de un T1.

• Ingeniería de ancho de banda, de modo que los índices del

tráfico de ciertos usos o las clases del tráfico sigan una política especificada de tasa de tráfico. Por ejemplo, el tráfico de aplicaciones que comparten archivos puede ser limitado a una tasa de 64 kbps máximos.

• Marcando el exceso de tráfico con una prioridad más baja

en la capa 2 y la capa 3 o ambos antes de enviar exceso del tráfico hacia fuera. El aplicar políticas clase-basado Cisco del tráfico se puede configurar para marcar los paquetes en la capa 2 y la capa 3. Por ejemplo, exceso del tráfico puede ser marcado a un valor diferenciado más bajo del punto de código de los servicios (DSCP) y también hacer el bit elegible del descarte de Frame Relay (DE) fijo antes de que se envíe el paquete.

¿Por qué utilizar conformación de tráfico ? La conformación de tráfico del tráfico se utiliza típicamente para prevenir y para manejar la congestión en ATM, Frame Relay, o las redes Metro Ethernet, donde las anchos de banda asimétricas se utilizan a lo largo de la trayectoria del tráfico. Si la conformación de

Page 142: Manual Redes Convergentes

142

CARRERAS PROFESIONALES CIBERTEC

tráfico no se utiliza, entonces el almacenamiento temporal puede ocurrir (generalmente en el extremo lento remoto), que puede conducir a encolamiento y causar retardos, y el desbordamiento, que puede causar descartes de paquetes. La conformación de tráfico del tráfico es una tentativa de controlar tráfico en ATM, Frame Relay, o redes Metro Ethernet para optimizar o para garantizar funcionamiento, baja latencia, o ancho de banda. La conformación de tráfico negocia con los conceptos de la clasificación, mecanismos de colas, políticas, gestión de congestión y la calidad del servicio (QoS).

4.7.2 ¿Por qué utilizar los condicionadores de tráf ico?

Los condicionadores de tráfico son mecanismos de QoS que limitan ancho de banda, e incluyen aplicar políticas y conformación de tráfico. Ambos teman limitan el ancho de banda, pero cada uno tiene diferentes características, como sigue: Aplicación de políticas: Típicamente limita ancho de banda desechando el tráfico que excede una tasa especificada. Sin embargo, el aplicar políticas también puede incluir el tráfico que excede la tasa y la tentativa de enviar el tráfico de todos modos. Debido al comportamiento de descarte al aplicar políticas, se debe utilizar en interfaces de la alta velocidad. El aplicar políticas puede ser de entrada o de salida aplicado en un interfaz.

La conformación de tráfico: La conformación de tráfico limita exceso de tráfico, no descartándolo sino almacenándolo. Este buffering del tráfico de exceso, puede conducir a retardo. Como contraste final, la conformación de tráfico se puede aplicar solamente en la dirección de salida en un interfaz.

Page 143: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

143

CIBERTEC CARRERAS PROFESIONALES

.

4.7.3 Aplicación de políticas vs. Conformación de t ráfico

La aplicación de políticas se puede aplicar a la dirección de entrada o de salida, mientras que la conformación de tráfico se puede aplicar solamente en la dirección de salida. La aplicación de políticas descarta tráfico no conforme en vez de encolar el tráfico como lo realiza la conformación.

La aplicación de políticas también soporta la marca de tráfico. Las politicas de tráfico son más eficientes en términos de utilización de la memoria que la conformación de tráfico porque el encolamiento adicional de paquetes no es necesario.

4.7.4 Aplicación de politicas de tráfico

Típicamente, las capas de acceso o distribución emplean políticas de tráfico para limitar ciertas clases del tráfico antes que salgan del campus sobre el WAN. La conformación de tráfico del tráfico se pone en ejecución a menudo en el borde WAN cuando hay uniones mal hechas o sobresuscripción de la velocidad.

Page 144: Manual Redes Convergentes

144

CARRERAS PROFESIONALES CIBERTEC

4.8 Mecanismos WAN de la eficiencia de enlace que entienden

4.8.1 Mecanismos de eficiencia de enlace

Aunque hay muchos mecanismos de calidad de servicio (QoS) para el rendimiento de procesamiento óptimo y la reducción del retardo del tráfico de red, los mecanismos de QoS no crean ancho de banda. Los mecanismos de QoS optimizan recursos existentes y permiten la diferenciación del tráfico según una política. Los enlaces WAN pueden utilizar los mecanismos óptimos de QoS de eficiencia de enlace tales como compresión de la carga útil, compresión de la cabecera, y fragmentación e interpolación de enlace (LFI). Estos tres mecanismos, están disponibles en el software del IOS de Cisco. Estas características son aplicables a los interfaces WAN de poca velocidad y están emergiendo para aplicaciones en interfaces de alta velocidad de Ethernet:

• Compresión de la carga • Compresión de cabecera • Link Fragmentarion e Interleaving (LFI)

4.8.2 Descripción de la compresión

La compresión de datos trabaja identificando patrones en corrientes de datos. La compresión de datos elige un método más eficiente para representar la misma información. Esencialmente, un algoritmo de la compresión quita tanta redundancia como sea posible. El cociente de la compresión mide la eficiencia y la eficiencia de un cociente del esquema- de la compresión del tamaño de datos sin comprimir a los datos comprimidos. Un cociente de la compresión de 2:1 (que es relativamente común) significa que los datos comprimidos son mitad del tamaño de datos originales. Varios algoritmos de la compresión existen. Algunos algoritmos se aprovechan de un medio específico y de las redundancias encontradas en él. Sin embargo, hacen un trabajo pobre cuando están aplicados a otros origenes de datos. Por ejemplo, el estándar del MPEG se aprovecha de la diferencia relativamente pequeña entre una trama y otro en datos de video. Hace un trabajo excelente en la compresión de las películas, pero no comprime el texto bien. Para la compresión del texto, el algoritmo de la compresión de Huffmann es mejor. Uno de los conceptos más importantes de la teoría de la compresión es que hay un límite teórico, conocido como límite de Shannon, que describe hasta dónde un origen de datos puede ser comprimido. Los algoritmos modernos de la compresión adicionalmente a los procesadores rápidos permiten que la compresión acerque al límite de Shannon.

Page 145: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

145

CIBERTEC CARRERAS PROFESIONALES

La compresión del hardware y de software se refieren al sitio en el router a la cual se aplica el algoritmo de compresión. En la compresión del software, la compresión se pone en ejecución en el CPU principal como proceso del software. En la compresión del hardware, los cómputos de la compresión son cargados a un módulo de hardware secundario. Esto libera la CPU central de la tarea de cómputo intensiva de la compresión calculadora. Si usted asume que el router tiene los ciclos de reloj disponibles realizar la compresión cálculo-para el ejemplo, sigue teniendo a la utilización del CPU en un nivel razonable allí no es ninguna diferencia entre la eficiencia de la compresión del hardware y de la compresión del software. El cociente alcanzado de la compresión es una función del algoritmo de la compresión seleccionado y de la cantidad de redundancia en los datos que se comprimirán, no donde ocurren los cálculos de la compresión.

Los métodos de compresión de cabecera trabajan no transmitiendo la información repetida en encabezados de paquetes a través de una sesión. Los dos puntos en una conexión de la capa 2 del PPP (un enlace de marcado) acuerdan en los índices de la sesión que ponen en un índice un diccionario de las cabeceras de paquetes. El diccionario se construye al principio de cada sesión y se utiliza para los paquetes subsecuentes. Solamente cambiando, los parámetros en las cabeceras se envían realmente junto con el índice de la sesión. La compresión de la cabecera no se puede realizar a través de los routers múltiples porque los routers necesitan la información de encabezado completa de la capa 3 poder encaminar los paquetes al salto siguiente. La compresión aumenta la cantidad de datos enviados a través de un recurso de la transmisión. La mayoría de los esquemas de la compresión de la carga útil trabajan en tramas de la capa 2. Esto da lugar a comprimir el paquete entero de la capa 3. Los métodos de la compresión de la carga útil de la capa 2 incluyen éstos:

• Stacker • Predictor

Page 146: Manual Redes Convergentes

146

CARRERAS PROFESIONALES CIBERTEC

• Compresión del Point-to-Point de Microsoft (MPPC) Estos algoritmos diferencian sumamente en su eficiencia de la compresión y en su uso de los recursos del router. La compresión elimina redundancia. La cabecera del protocolo es un artículo de datos repetidos. La información de encabezado del protocolo en cada paquete en el mismo flujo no cambia mucho sobre el curso de la vida de ese flujo. Usando mecanismos de la encabezado-compresión, la mayoría de la información de encabezado se puede enviar solamente al principio de la sesión, almacenar en un diccionario, y después referir a paquetes posteriores por un índice del diccionario. Los métodos de la compresión de encabezado incluyen:

• TCP • Protocolo de transporte en tiempo real (RTP) • TCP basado en clases • RTP basado en clases

4.8.3 Compresión de la carga útil de la capa 2

Cuando un router remite un paquete, el paquete se sujeta al método de compresión de capa 2 después de que se haya encapsulado en salida. El método de la compresión comprime la carga útil del de la capa 2 (el paquete entero de la capa 3), y transmite el paquete en el interfaz.

La compresión de la carga útil de la capa 2 es una tarea intensiva en CPU y puede agregar retardos de compresión por paquete debido a la aplicación del método de la compresión a cada trama. El retardo de serialización, sin embargo, se reduce, porque la trama que resulta es más pequeña. Dependiendo de la complejidad del algoritmo de la compresión de la carga útil de la capa 2, la latencia total se pudo reducir, especialmente en enlaces de poca velocidad. Los routers de Cisco soportan la compresión asistida por hardware para reducir la carga de la CPU y el retardo por compresión de la carga útil de capa 2. La compresión de carga útil de la capa 2 implica la compresión de la carga útil de un protocolo del WAN de la capa 2, tal como PPP, Frame Relay, control de trasmisión de datos de alto nivel (HDLC),

Page 147: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

147

CIBERTEC CARRERAS PROFESIONALES

X.25, y procedimiento de acceso de enlace, balanceado (LAPB). La cabecera de la capa 2 no realiza la compresión. Sin embargo, el contenido entero de la carga útil (que incluyen encabezados del protocolo de capas superiores) se comprime. Se comprimen usando una forma del algoritmo del (basado en el algoritmo estándar de la industria (LZ) o del algoritmo Predictor, que es un algoritmo más antiguo que se utiliza sobre todo en configuraciones usuales.

4.8.4 Compresión de la cabecera

La compresión de la cabecera aumenta rendimiento de procesamiento y reduce retardo comprimiendo las cabeceras del protocolo. La compresión de la cabecera es la más útil para las aplicaciones que generan las cargas útiles pequeñas porque las cabeceras del protocolo de tales usos utilizan un porcentaje significativo de ancho de banda en un enlace concerniente a su carga útil. La compresión de la cabecera basada en técnicas del diccionario de la sesión trabaja substituyendo frases en la secuencia de entrada por índices de una tabla del diccionario.

Cuando la compresión de la cabecera se aplica en un encabezado de TCP/IP, algunos de los campos redundantes en la cabecera de una conexión de TCP/IP se quitan. La compresión de la cabecera guarda una copia de la cabecera original de cualquier lado de enlace, quita los campos enteramente redundantes, y diferenciado cifra los campos restantes para permitir la compresión de 40 octetos de encabezado a un promedio de 5 octetos. Este proceso utiliza un algoritmo muy específico diseñado alrededor de la estructura constante de la cabecera de TCP/IP. No toca la carga útil de paquetes de TCP de ninguna manera. La compresión de la cabecera de TCP y de RTP se aplica a todo el flujo TCP y RTP. Por ejemplo, si la compresión de TCP se habilita en un enlace, no hay mecanismo para restringir su función a los tipos específicos de la aplicación. La compresión de la cabecera de TCP para la transferencia de datos rinde pocos ahorros de ancho de banda. la compresión Clase-basada de la cabecera de TCP se puede realizar en clases específicas del tráfico, tales como la clase de tráfico del telnet.

Page 148: Manual Redes Convergentes

148

CARRERAS PROFESIONALES CIBERTEC

4.8.5 Los paquetes grandes “congelan” voz en enlace s WAN lentos

En la consideración de retardo entre dos saltos en una red, el retardo por encolamiento en un router se debe considerar porque puede ser comparable a, o aún excederse, el retardo de serialización y el retardo de propagación retardo en un enlace. En una red sin tráfico, una sesión interactiva o de voz experimenta bajo o ningún retardo de encolamiento, porque la sesión no compite con otras aplicaciones en la cola de salida del interfaz. En una red congestionada, las aplicaciones interactivos de datos y de voz compiten en la cola del router con otras aplicaciones. Los mecanismos de encolamiento pueden dar la prioridad a tráfico de voz en la cola del software, pero la cola del hardware (TxQ) utiliza siempre un mecanismo de calendarización basado en “primero en entrar, primero en salir”. Después de que los paquetes de diferentes aplicaciones salgan de la cola del software, los paquetes se mezclarán con otros paquetes en la cola del hardware, aunque su proceso de la cola del software fueron rápidos. Así, un paquete de voz se puede enviar inmediatamente a la cola del hardware donde dos paquetes grandes ftp están esperando la transmisión. El paquete de voz debe esperar hasta que se transmiten los paquetes de ftp, así producen un inaceptable retardo en la trayectoria de voz.

4.8.6 Fragmentación e interpolación de enlace

La aplicación de un método de encolamiento híbrido tal como encolamiento de baja latencia (LLQ) puede proporcionar estado baja latencia y bajo jitter para los paquetes de VoIP mientras que mantiene otros paquetes de datos son tratados de una manera justa. Pero, aunque los paquetes de VoIP se envían siempre al frente de la cola del software, allí todavía se aplica el retardo de serialización. Un paquete grande puede estar en la cola de hardware de salida, que utiliza “primero en entrar, primero en salir”. Cuando un paquete de VoIP se reenvía desde la cola de software, la serialización de paquetes grandes en la cola de hardware de

Page 149: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

149

CIBERTEC CARRERAS PROFESIONALES

transmisión puede hacer el paquete de VoIP esperar un de largo tiempo antes de que pueda ser transmitida hacia fuera. La solución es hacer fragmentos de paquetes grandes de modo que nunca hagan un paquete de VoIP esperar más que una cantidad de tiempo predefinida. Los paquetes de VoIP se deben también permitir transmitir entre los fragmentos de paquetes más grandes (interpolación), o no habrá sentido de hacer fragmentos.

Cuando usted realiza esta configuración, el tamaño apropiado del fragmento sobre un enlace debe permitir una meta típica de serialización máxima retardo de alrededor de 10 a 15 ms. Dependiendo de los mecanismos de LFI que son configurados, el tamaño del fragmento se configura en octetos o en milisegundos.

4.8.7 Aplicación de mecanismos de la eficiencia de enlace

Utilice las pautas siguientes para aplicar mecanismos de la eficiencia de enlace:

• Identifique los enlaces lentos para ayudar a determinar dónde los embotellamientos en la red se localizan y decidir cómo aplicar mecanismos de la eficiencia de enlace en las interfaces apropiadas.

• Calcule el tráfico de capa 2 y de capa 3 para cada tipo de medios que transporte el tráfico crítico para su negocio. Este proceso le ayudará a elegir el tipo correcto de la compresión.

• Decida qué tipo de compresión debe ser utilizado. • Habilite la compresión en los interfaces WAN.

Page 150: Manual Redes Convergentes

150

CARRERAS PROFESIONALES CIBERTEC

4.9 Implementación de QoS en VPNs

4.9.1 Redes privadas virtuales

Una red privada virtual (VPN) se define como conectividad de red desplegada en una infraestructura (pública) compartida con las mismás políticas de seguridad que una red privada. Un VPN se establece entre dos sistemas de extremo o entre dos o más redes. Un VPN se puede construir usando los túneles, cifrado, o ambos, en esencialmente cualquier capa de la pila de protocolos de OSI. Un VPN es una infraestructura WAN alternativa que substituye o aumenta las redes privadas que utilizan lineas dedicadas.

VPNs proporciona tres funciones críticas:

• Secreto (cifrado): El remitente puede cifrar los paquetes antes de transmitirlos a través de una red, prohibiendo cualquier persona de escuchar detras de las puertas en la comunicación. Si está interceptada, la comunicación no puede ser leída.

• Integridad de datos: El receptor puede verificar que los datos fueran transmitidos a través del Internet sin ser cambiado o el ser alterado de cualquier manera.

• Autentificación del origen: El receptor puede authenticar origende paquetes, garantizando y certificando origende la información.

Tipos de VPN Hay varios tipos de VPN. Hay dos tipos de VPNs de acceso remoto:

• Iniciado en el Cliente: Los usuarios remotos utilizan a clientes para establecer un túnel seguro a través de un Internet Service Provider (ISP) a la red de la empresa.

• Servidor del acceso de red (NAS): Marcado remoto de los usuarios a una ISP. La NAS establece un túnel seguro a la red privada de la empresa que pudo soportar sesiones usuario-iniciadas alejadas múltiples.

Page 151: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

151

CIBERTEC CARRERAS PROFESIONALES

Las VPN Sitio-a-sitio incluye dos tipos principales:

• Intranet VPNs: Conecte las jefaturas corporativas, las oficinas alejadas, y las sucursales sobre una infraestructura pública

• Extranet VPNs: Ligue a los clientes, a los surtidores, a los socios, o a comunidades del interés a un Intranet corporativo sobre una infraestructura pública

Descripción del cifrado Varios métodos para la protección de VPN se ponen en acción en diferentes capas según las indicaciones de figura. La provisión de confidencialidad y de otros servicios criptográficos en la capa de uso era muy popular en el pasado, y en algunas situaciones todavía se hace hoy. Por ejemplo, el protocolo seguro de Shell (SSH) ofrece tecnologías y soluciones Internet-basadas de la dato-seguridad, ESP para la criptografía y los productos de la autentificación. El Internet Engineering Task Force (IETF) ha definido un protocolo estándar-basado llamado las extensiones del correo del Internet Secure Multipurpose (S/MIME) para las aplicaciones de VPN generados por un número de componentes del sistema de comunicación (por ejemplo, agentes de transferencia de mensaje, protectores, y entradas). Sin embargo, la seguridad de la uso-capa es application-specific, y los métodos de la protección se deben poner en ejecución de nuevo en cada uso. Una cierta estandardización ha sido lograda en la capa 4 (transporte) del modelo de OSI, con protocolos por ejemplo Secure Socket Layer (SSL) que proporcionaba confidencialidad, la autenticidad, y la integridad a las aplicaciones basados en TCP. El SSL es popular en sitios modernos del e-comercio, pero no puede tratar las aplicaciones la flexibilidad, la facilidad de la puesta en práctica, y la independencia de la aplicación. La protección en los niveles inferiores de OSI, especialmente la capa de trasmisión de datos, también fue utilizada en sistemas de

Page 152: Manual Redes Convergentes

152

CARRERAS PROFESIONALES CIBERTEC

comunicación, porque proporciona la protección de la independencia del protocolo enlaces confiables. Sin embargo, la protección de la capa de trasmisión de datos es costosa de desplegar en escala grande (que protege cada enlace por separado), potencialmente permitiendo los ataques como el “secuestro de una sesión de red”, contra las estaciones intermedias (routers). Debido a estas limitaciones, la capa 3 se ha convertido en el nivel más popular en el cual aplicar la protección criptográfica al tráfico de red.

Protocolos de VPN

La tabla en figura describe tres protocolos el hacer un túnel de VPN: Layer 2 Tunneling Protocol (L2TP), el encapsulamiento genérica de la encaminamiento (GRE), e IPSec:

• L2TP: L2TP actúa como un protocolo de la capa de trasmisión de datos (capa 2 del modelo de OSI) para el tráfico de la red el hacer un túnel entre dos puntos sobre una red existente (generalmente el Internet). L2TP es de hecho una capa de sesión del protocolo de la capa 5, y utiliza el puerto registrado 1701 del UDP. El paquete entero de L2TP, incluyendo la carga útil y la cabecera de L2TP, se envía dentro de un datagrama UDP.

• GRE: Este transporte multiprotocolo encapsula el IP y

cualquier otro paquete de capa 3 dentro de los túneles del IP. Con GRE haciendo un túnel, un router Cisco en cada sitio encapsula los paquetes en un encabezado del IP, creando un enlace virtual punto a punto. GRE no proporciona el cifrado y se puede supervisar con un analizador del protocolo.

• IPSec: IPSec es la opción para VPNs corporativo seguro.

IPSec es un marco de estándares abiertos que proporciona secreto de datos, integridad de datos, y la autentificación de datos entre los pares que participan. IPSec proporciona servicios de seguridad a la negociación de la manija de los protocolos y de los algoritmos basados en la política local y generar llaves del cifrado y de la autentificación.

4.9.2 Implementar QoS con Preclassification

La calidad del servicio (QoS) preclassify se diseña para los interfaces del túnel. Cuando se habilita la característica, las características de QoS en el interfaz de la salida clasifican los paquetes antes del cifrado, permitiendo que la circulación sea manejada en ambientes congestionados. El resultado es el hacer un túnel más eficaz de paquetes. La característica QoS preclassify proporciona una solución para hacer servicios del IOS QoS de Cisco que funcionen conjuntamente

Page 153: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

153

CIBERTEC CARRERAS PROFESIONALES

con túneles y cifrado en un interfaz. El software del IOS de Cisco puede clasificar los paquetes y aplicar el servicio apropiado de QoS antes de datos se cifre y tunelice. Esto permite que los proveedores y las empresas de servicio traten voz, el vídeo, y el tráfico de misión crítica con una prioridad más alta a través de redes del proveedor de servicio mientras que usa VPNs para el transporte seguro.

4.9.3 Aplicaciones de QoS Preclassify

Cuando los paquetes son encapsulados por un protocolo por túnelizacion o cifrado, la cabecera original de paquetes no está más disponible para la examinación. De la perspectiva de QoS, la provisión de niveles diferenciados del servicio es extremadamente difícil sin la capacidad de examinar la cabecera original de los paquetes. Los marcadores de QoS encontrados normalmente en la cabecera de paquetes del IP deben también ser visibles en la cabecera de paquetes del túnel, sin importar el tipo de túnel funcionando. IPSec y GRE son los dos protocolos primarios el hacer un túnel relevantes a VPNs.

Tunelización GRE

Los túneles de GRE permiten que cualquier protocolo sea tunelizado en un paquete del IP. Cisco ofrece soporte para el encapsulamiento de datos usando IPSec o GRE. En cualquiera de estos panoramas, el software del IOS de Cisco omite el copiado del tipo del IP de valores del servicio (ToS) de la cabecera de paquetes en la cabecera del túnel. Esta característica permite que los bits de TOS sean copiados al encabezado del túnel cuando el router encapsula los paquetes. Un túnel GRE permite que los routers entre los puntos finales del túnel GRE consideren la marca de paquete. Las tecnologías de QoS del IOS de Cisco tales como política de encaminamiento, WFQ y detección temprana al azar por pesos (WRED) pueden operar en routers intermedios entre los extremos del túnel de GRE.

Page 154: Manual Redes Convergentes

154

CARRERAS PROFESIONALES CIBERTEC

Los túneles de GRE son comunmente utilizados para proporcionar resilencia dinámica de encaminamiento sobre IPSec. Las configuraciones normales de IPSec no pueden transferir protocolos del encaminamiento, tales como EIGRP y OSPF, o el tráfico no-IP, tal como Internetwork Packet Exchange (IPX) y Appletalk.

IPSec AH

IPSec no define los algoritmos específicos de la seguridad para utilizar; IPSec proporciona un marco de trabajo abierto para implementar algoritmos estandares. La cabecera de la autentificación (AH), un protocolo clave en la arquitectura de IPSec (seguridad del Internet), proporciona la autentificación sin conexión del origen de la integridad y de datos para los datagramas IP, y proporciona la protección contra reintentos. AH puede también proporcionar el no repudio.

El Internet Assigned Numbers Authority (IANA) ha asignado el protocolo número 51 a AH. Así, en presencia de AH en un encabezado en modo túnel y modo transporte, la cabecera del IP utiliza un valor de 51 en el campo del protocolo. IPSec AH se puede aplicar solamente, conjuntamente con el IP que encapsula la carga útil de la seguridad (ESP), o en una manera jerarquizada usando modo del túnel. Con modo del túnel, el valor del octeto ToS se copia automáticamente de la cabecera original del IP al encabezado del túnel.

Page 155: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

155

CIBERTEC CARRERAS PROFESIONALES

IPSec ESP

El encapsulado de la carga útil de la seguridad (ESP) es un protocolo clave en la arquitectura de IPSec, diseñada para proporcionar una mezcla de los servicios de seguridad en IPv4 e IPv6. Puede proporcionar el cifrado y la autentificación. ESP busca proporcionar secreto e integridad cifrando datos para ser protegido y poniendo los datos cifrados en la parte de datos de ESP Dependiendo de los requisitos de seguridad del usuario, este mecanismo se puede utilizar para cifrar un segmento de la capa de transportar (e.g., TCP, UDP, ICMP, IGMP) o un datagrama IP entero. El encapsulado de datos protegidos es necesario proporcionar secreto para el datagrama original entero.

Como con AH, soporta ESP los algoritmos de hashing SHA y MD5 para la autentificación. ESP soporta el cifrado estándar de datos (DES) y Triple-DES (3DES) como protocolos del cifrado. La cabecera es ESP por lo menos de 8 octetos. El Internet asignado la autoridad de los números (IANA) ha asignado el protocolo número 50 a ESP. Con modo del túnel, el valor del octeto ToS se copia automáticamente de la cabecera original del IP al encabezado del túnel.

4.9.4 Opciones del despliegue de QoS Preclassificat ion

La clasificación define el proceso de emparejar unos o más campos en un encabezado de paquetes en la capa 2, 3, o 4 y después la colocación de ese paquete en un grupo o una clase de tráfico. Usando la clasificación de paquetes, el tráfico de red se puede repartir en niveles múltiples de prioridad o clases de servicio. Al configurar IPSec con GRE, el acercamiento más simple de la clasificación es emparejar con la precedencia IP o valores diferenciados del punto de código de los servicios (DSCP). Además, con la característica de la preservación del octeto del TOS, el router copia automáticamente el valor de la cabecera del TOS del paquete IP original al encabezado del paquete IP encapsulado al usar IPSec en modo túnel.

Page 156: Manual Redes Convergentes

156

CARRERAS PROFESIONALES CIBERTEC

La preservación del octeto TOS también se aplica a AH. ESP en modo transporte conserva la cabecera original IP, y el valor original de TOS se transmite incluso sin la preservación del octeto TOS. Si los paquetes llegan sin la precedencia IP o valores de DSCP, la marca basada en clases se utiliza para marcar las cabeceras de paquetes antes del cifrado o del encapsulamiento. Cuando los paquetes alcanzan el interfaz de la salida, la política de la salida de QoS puede emparejarse y actuar segun los valores marcados.

Alternativamente, el tráfico puede necesitar ser clasificado basado en valores con excepción de la precedencia IP o de DSCP. Por ejemplo, los paquetes pueden necesitar ser clasificados basados en flujos IP, tal como IP origen o dirección IP de destino. Para hacerlo así, utilice el QoS para la característica de VPNs permitida con los comandos qos pre-classify.

Page 157: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

157

CIBERTEC CARRERAS PROFESIONALES

Usted puede aplicar una política del servicio al interfaz del túnel o al interfaz físico subyacente. La decisión sobre donde aplicar la política depende de los objetivos de QoS y sobre qué encabezado usted necesita utilizar para la clasificación, como sigue:

• Aplique la política al interfaz del túnel sin qos pre-

classify cuando usted desea clasificar los paquetes basados en la cabecera del pre-tunel.

• Aplique la política al interfaz físico sin qos pre-classify cuando usted desea clasificar los paquetes basados en la cabecera del post-túnel. Además, aplique la política al interfaz físico cuando usted desea formar o aplicar políticas a todo el tráfico que pertenece a un túnel y al interfaz físico si soporta varios túneles.

• Aplique la política a un interfaz y habilite qos pre-

classify cuando usted desea clasificar los paquetes basados en la cabecera del pre-tunel.

4.10 Despliegue de QoS de Extremo a Extremo

4.10.1 QoS SLAs Un acuerdo de nivel de servicio (SLA) estipula la entrega y la tasación de los porcentajes de disponibilidad y expecifica las penas para los incumplimientos de dicho acuerdo.

La mejor manera de entender un SLA es dividirlo en dos partes:

• Negociación del acuerdo de la tecnología • Verificación y conformidad con el acuerdo

Page 158: Manual Redes Convergentes

158

CARRERAS PROFESIONALES CIBERTEC

Calidad del servicio (QoS) SLA proporciona típicamente el aseguramiento contractual para los parámetros por ejemplo retardo, jitter, pérdida de paquetes, rendimiento de procesamiento, y disponibilidad. Con el crecimiento rápido de las aplicaciones en tiempo real y aplicaciones multimedia tales como telefonía IP, conferencias y e-learning, el IP QoS SLAs está llegando a ser cada vez más importante para las redes de la empresa.

4.10.2 Requisitos típicos de SLA para la voz

Para resolver los requisitos de QoS para los diferentes tipos del tráfico, la empresa y el SP deben poner los mecanismos apropiados de QoS en ejecución para proporcionar QoS de extremo a extremo, para los paquetes que atraviesan una red de IP.

Page 159: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

159

CIBERTEC CARRERAS PROFESIONALES

4.10.3 Desplieque de QoS

Para resolver los requisitos de QoS para diferentes tipos del tráfico, la empresa y el SP deben poner los mecanismos apropiados del IP en ejecución QoS para proporcionar QoS de extremo a extremo para los paquetes que atraviesan una red del SP. Según lo ilustrado en figura, esto significa que en ambas localizaciones del cliente, las clasificaciones del tráfico y la marca necesitan ser realizadas (por ejemplo, VoIP, datos). Dependiendo de la conexión del cliente al SP, estas marcas se pueden traz en bits experimentales Multiprotocol de la conmutación de la etiqueta (M PLS) (EXP), por ejemplo, y prioridades dadas. El proveedor ahora debe garantizar transferencia correcta sobre la base a la sucursal. El tráfico llega allí con las mismás marcas que fueron fijadas en la oficina central, permitiendo otra vez la clasificación que es necesaria para QoS de extremo a extremo. Para proporcionar QoS de extremo a extremo, la empresa y el SP deben poner los mecanismos apropiados de QoS en ejecución para asegurar el comportamiento correcto del por-salto (PHB) para cada clase de tráfico a través de la red entera. En el pasado, el IP QoS no era una edición en una red del campus de la empresa, donde está abundante ancho de banda. Pero como más usos, tales como telefonía IP, videoconferencia, e-learning, y usos misión-críticos de datos, se ponen en ejecución en el campus, ha llegado a ser evidente que la gestión de almacenador intermedio, ancho de banda no justa, es una edición que debe ser tratada. El IP QoS funciona por ejemplo la clasificación, calendarización, y el aprovisionamiento ahora se requiere dentro del campus manejar

Page 160: Manual Redes Convergentes

160

CARRERAS PROFESIONALES CIBERTEC

ancho de banda y los buffers intermedios para reducir al mínimo pérdida, retardos y jitter.

4.10.4 Puestas en marcha de QoS en el campus de la empresa

La telefonía IP, la videoconferencia, el e-learning y las aplicaciones de misión-crítica de datos están llegando a ser más comunes en redes de la empresa. El IP QoS funciona por ejemplo la clasificación, programar, y el aprovisionamiento se requiere dentro del campus manejar los buffers intermedios de la salida del switch para reducir al mínimo pérdida de paquetes, retardo y jitter. Algunas de las pautas generales a seguir al poner el campus en ejecución QoS, según las indicaciones de figura, incluyen lo siguiente:

• Clasificación y marcado de tráfico lo más cerca al orígen. • Realice siempre QoS en hardware en lugar de software

cuando existe esa opción. • Establezca los límites apropiados de confianza de CoS. • Clasifique la voz y el vídeo en tiempo real como tráfico de

prioridad alta. • Utilice las colas múltiples en los interfaces de transmisión. Puesta en práctica de QoS de la capa del acceso y d e la distribución del campus Las configuraciones típicas de QoS se requieren en los switches de la capa del acceso y de la distribución.

En condiciones de funcionamiento normales es absolutamente raro que las redes del campus sufran congestión. Si ocurre la

Page 161: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

161

CIBERTEC CARRERAS PROFESIONALES

congestión, es generalmente momentánea y no sostenida, como en un borde WAN. Sin embargo, las aplicaciones críticos como VoIP requieren garantías del servicio sin importar condiciones de la red. La única manera de proporcionar garantías del servicio es permitir encolamiento en cualquier nodo que tenga el potencial para la congestión -cueste lo que cueste de cómo raramente, de hecho, la congestión puede ocurrir. El potencial para la congestión existe en uplinks del campus debido a cocientes del oversubscription y uniones mal hechas de la velocidad en los downlinks del campus (por ejemplo, Ethernet del gigabit a ayunar los enlaces de Ethernet). La única manera a las garantías del servicio de la disposición en estos casos es permitir encolamiento en estos puntos. El encolamiento ayuda a resolver requisitos de la red bajo condiciones de funcionamiento normales, pero permitir QoS dentro del campus es condiciones anormales inferiores aún más críticas de la red, tales como ataques del DOS y del gusano. Durante tales condiciones, el tráfico de la red puede aumentar exponencial hasta que los enlaces se utilizan completamente. Sin QoS, el tráfico gusano-generado ahoga hacia fuera usos y causa la negación del servicio con la indisponibilidad. Permitiendo las políticas de QoS dentro del campus, según lo detallado más adelante en esta lección, mantiene disponibilidad de la red por usos críticos de protección y de mantenimiento, tales como VoIP, e incluso tráfico del mejor-esfuerzo. Las interdependencias intrínsecas de la red QoS, de la alta disponibilidad, y de la seguridad son claramente manifestas en tales panoramás a lo peor.

¿Donde se requiere QoS en campus? Los switches de acceso utilizan las características siguientes de QoS: • Clasificación basada en paquete • Conformación y políticas de tráfico • Fragmentación • Compresión • Gestión de congestión • Evitamiento de congestión Los switches de distribución y de core utilizan las características siguientes de QoS: • Clasificación basada en paquetes • Marcas • Gestión de congestión • Evitamiento de congestión

Page 162: Manual Redes Convergentes

162

CARRERAS PROFESIONALES CIBERTEC

4.10.5 Puesta en marcha de QoS WAN en routers de bo rde

Los routers que terminan el enlace WAN entre el borde del cliente (CE) y el borde del proveedor (el PE) requieren un esfuerzo significativo de configuración por parte del administrador de red.

Requisitos del router del CE y del PE para el tráfi co saliente de la empresa Primero, considere el tráfico que sale de la red de la empresa. Los requisitos de QoS en los routers del borde del cliente y del borde del proveedor diferenciarán, dependiendo si el SP maneja el borde del cliente. Para el tráfico que sale del router de borde del cliente de la empresa y que se mueve hacia el router del borde del SP, los requisitos generales de QoS en los routers del borde del cliente y del borde del proveedor son:

• Para el servicio administrador por el borde del cliente, el SP manejará y configurará la política WAN de QoS de la salida del borde en el borde del cliente.

• Para servicio no administrado del borde del cliente, el cliente de la empresa manejará y configurará la política WAN de QoS de la salida del borde en el borde del cliente.

4.10.6 Diseño WAN del borde

Para la clase de tráfico en tiempo real, los paquetes de VoIP serán marcados con EF y entrarán a LLQ con estos parámetros:

Page 163: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

163

CIBERTEC CARRERAS PROFESIONALES

• El LLQ se basará en política y tendrá un ancho de banda

máximo de 35 por ciento de la tasa de información comprometida (CIR)..

• Todo el exceso de tráfico será descartado. • El tráfico de señalización de llamadas (5 por ciento)

compartirá el LLQ con el tráfico del portador de VoIP.

Para el tráfico de datos críticos, los paquetes serán marcados con el reenvío asegurado (AF) 31 y entrará al CBWFQ con estos parámetros de clase:

• La clase se basará en políticas y tendrá una garantía

mínima de ancho de banda de 40 por ciento del ancho de banda disponible restante.

• Todo el tráfico excedente y violación de tráfico será re-marcado y después enviado.

• WRED será utilizado en esta clase de tráfico para optimizar rendimiento de procesamiento de TCP.

Para la clase de tráfico best-effort, los paquetes serán marcados con el selector de clase 0 (CS0) y entrarán a CBWFQ con estos parámetros de clase:

• La clase se basará en políticas y tendrá una garantía

mínima de ancho de banda de 23 por ciento del ancho de banda disponible restante.

• WRED será utilizado en esta clase de tráfico para optimizar el rendimiento del procesamiento TCP.

Para la clase de tráfico del limpiador, los paquetes serán marcados con CS1, con estos parámetros de clase:

• La clase no se basará en políticas y tiene una garantía

mínima del 2 por ciento del ancho de banda del ancho de banda disponible restante.

4.10.7 Politica del plano de control (CoPP)

Los ataques de la infraestructura se están convirtiendo en cada vez más comunes, destacando la necesidad de la protección de la infraestructura. La característica CoPP permite que los usuarios configuren un filtro de QoS que maneje la circulación de paquetes del plano del control para proteger el plano del control de los routers y de los switches del IOS de Cisco contra reconocimiento y ataques del DOS. De esta manera, el plano del control puedel soporter a mantener estados de protocolos a pesar de un ataque o una carga de la circulación densa en el router o el switch. Protegiendo el procesador del router, CoPP ayuda a asegurar la estabilidad del router de red durante un ataque. Por esta razón, una recomendación es desplegar CoPP como mecanismo clave de la protección.

Page 164: Manual Redes Convergentes

164

CARRERAS PROFESIONALES CIBERTEC

La característica de CoPP fue introducida en la revisión del programa del IOS de Cisco 12.2 (18) S. Planos del router Cisco Un router tiene cuatro componentes funcionales o planos: • Plano de datos • Plano de gestión • Plano de control • Plano de servicios La mayoría de tráfico viaja a través del router vía el plano de datos; sin embargo, el procesador de la ruta debe manejar ciertos paquetes, tales como actualizaciones de encaminamiento, keepalives, y direcciones de la red, referido al plano de control y gestión de tráfico. Dado que el procesador del router es crítico a las operaciones de la red, cualquier interrupción del servicio del procesador del router o los planos de control y de gestión pueden dar lugar a interrupciones de negocio o impactos en la red. Un ataque del DOS que apunta el procesador del router, que se puede perpetrar inadvertidamente o maliciosamente, implica típicamente altos índices del tráfico que dan lugar al uso excesivo del procesador del router. Este tipo de ataque, que puede ser devastador a la estabilidad y a la disponibilidad de red, puede exhibir los síntomás siguientes: • Alto uso de la CPU del procesador de la ruta (cerca de 100 por

ciento) • Pérdida de mensajes keepalives y mensajes de actualización del

protocolo de enrutamiento • Sesiones interactivas lentas o totalmente insensibles vía línea de

comandos (CLI) debido al alto uso de la CPU • Adescartemiento de los recursos del procesador de rutas, tal

como memoria y buffers intermedios que son inaccesbles para paquetes IP de datos legítimos.

• Cola de paquetes de reserva, que conduce a caídas indistintas (debido a la carencia de los recursos de buffers intermedios) de otros paquetes entrantes.

Page 165: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

165

CIBERTEC CARRERAS PROFESIONALES

CoPP trata la necesidad de proteger los planos del control y de gestión, asegurando la estabilidad del encaminamiento, disponibilidad, y entrega de paquetes. Utiliza el comando dedicado de la configuración del plano de control vía Cisco Modular QoS CLI (MQC) encargado de proporcionar el filtrado y limitación de tráfico para el control de paquetes.

Page 166: Manual Redes Convergentes

166

CARRERAS PROFESIONALES CIBERTEC

RESUMEN

La clasificación de paquetes es el proceso de identificar tráfico y categorizarlo en diferentes clases. La clasificación de paquetes permite que algunos paquetes sean manejados más rápidamente o con una prioridad más alta que otros paquetes. El modelo de servicios diferenciados (DiffServ) permite la clasificación de paquetes basada en valores diferenciados del punto de código de los servicios (DSCP). Dependiendo de las tecnologías de la capa 2 y de la capa 3, estas clasificaciones se pueden realizar en el campo apropiado. Para facilitar el proceso de la clasificación y de la marca de paquetes, el reconocimiento de aplicaciones de red (NBAR) puede ser utilizado. Después de la clasificación y de la marca, los paquetes necesitan ser encolados con un sistema básico de colas FIFO (primero en entrar, primero en salir, prioridad de colas [PQ], o round Round Robin) o un sistema que maneja colas avanzadas (Encolamiento Justo por Pesos [WFQ], encolamiento justo por pesos basado en clases [CBWFQ], o el encolamiento de baja latencia [LLQ]). Cada uno de estos sistemas de encolamiento tiene su propio alcance. La detección temprana al azar (RED), la detección temprana al azar por pesos (WRED), y los mecanismos de clase basados de WRED (CBWRED) se utilizan para supervisar cargas del tráfico de la red para anticipar y para evitar la congestión antes de que se convierta en un problema. Para seguir el acuerdo de nivel de servicios (SLAs) entre proveedores de Internet (ISPs) y los clientes, se utilizan de conformación de tráfico. Los algoritmos de compresión pueden optimizar La aplicación de enlaces WAN lentos. Cuando los paquetes se transportan en IPSec o túneles genéricos del encapsulamiento de encaminamiento (GRE), necesitan ser preclasificados para hacer uso QoS y sus ventajas. La estrategia recomendada para desplegar la cobertura completa de QoS es despliegue de extremo a extremo de QoS.

Page 167: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

167

CIBERTEC CARRERAS PROFESIONALES

AUTOEVALUACIÓN

1. ¿Cómo describiría correctamente el encolamiento por prioridades o PQ? 2. ¿Cuáles son los tres descriptores de tráfico usados para clasificación y

QoS? 3. ¿Cuáles son las características de CB-WFQ comparados con la NFQ.?

Page 168: Manual Redes Convergentes

168

CARRERAS PROFESIONALES CIBERTEC

Page 169: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

169

CIBERTEC CARRERAS PROFESIONALES

IMPLEMENTACIÓN CISCO AUTOQOS

OBJETIVOS ESPECÍFICOS

• Simplificar el despliegue de QoS automatizando las características del IOS QoS de Cisco para el tráfico de voz.

• Considerar funciones avanzadas del software IOS de Cisco para QoS.

TEMARIO

• Introducción a Cisco AutoQoS

• Mitigando los problemas comunes de Cisco AutoQoS

ACTIVIDADES PROPUESTAS

• Desarrollar las prácticas de implementación de AutoQoS en routers y switches Cisco

S E M A N A

5

Page 170: Manual Redes Convergentes

170

CARRERAS PROFESIONALES CIBERTEC

5.1 Introducción a Cisco AutoQoS 5.1.1 Cisco AutoQoS

Los desafíos importantes de QoS de la empresa incluyen lo siguiente: • Calidad de voz para las aplicaciones de telefonía IP • Ancho de banda garantizada para los aplicaciones críticas • Despliegues más simples de QoS (que reducen errores del

operador) • Despliegues de bajo costo de QoS (que reducen costos) • Despliegues rápidos de QoS (que reducen tiempo del

despliegue) Cisco AutoQoS automatiza el despliegue de las políticas de QoS en un ambiente de negocio general, particularmente para las compañías medianas y las sucursales de compañías más grandes. Según lo resumido en figura, Cisco AutoQoS ofrece varias ventajas incluyendo el siguiente: • Cisco AutoQoS incorpora inteligencia de valor añadido en

software del IOS de Cisco y de sistema operativo Catalyst de Cisco para aprovisionar y manejar los despliegues de QoS.

• Cisco AutoQoS protege usos aplicaciones de datos críticos de

negocios en la empresa para maximizar su disponibilidad. • Cisco AutoQoS proporciona el aprovisionamiento de QoS para

los routers y switches individuales, simplificando el despliegue de QoS, requeridas para la voz, el vídeo, y el tráfico de datos sin un conocimiento profundizado de las tecnologías subyacentes (PPP, Frame Relay, ATM, políticas del servicio, y mecanismos para eficiencia en enlaces, tales como fragmentación de enlace e interpolación [LFI]).

• Cisco AutoQoS simplifica la implementación de QoS y aceleró el

aprovisionamiento de la tecnología de QoS sobre una red de Cisco. Esto reduce el potencial error humano y reduce los costos del entrenamiento.

• Cisco AutoQoS crea los “class-map” y los “policy-map” basados

en la experiencia de Cisco y la metodología de las mejores prácticas. AutoQoS, en la creación de la configuración de QoS, sigue estándares de la industria, tales como el modelo de servicios diferenciados (DiffServ), para alcanzar un entorno interoperable.

• Los clientes pueden también utilizar comandos existentes del

IOS de Cisco de modificar las configuraciones generadas automáticamente por Cisco AutoQoS, según se tengan requerimientos específicos.

Page 171: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

171

CIBERTEC CARRERAS PROFESIONALES

Automatización de los elementos claves del desplieg ue de QoS Cisco AutoQoS trata los cinco elementos principales del despliegue de QoS. Lo que sigue describe estos cinco elementos detalladamente: • Clasificación de la aplicación: Cisco AutoQoS utiliza la

clasificación inteligente en los routers, utilizando el reconocimiento de aplicaciones basadas en Red (NBAR) para proveer la inspección profunda y estado de paquetes. Cisco AutoQoS utiliza el protocolo del descubrimiento de Cisco (CDP) para el reconocimiento del dispositivo, ayudando se asegurar de que el dispositivo unido al LAN es realmente un teléfono IP de Cisco.

• Generación de la política: Cisco AutoQoS evalúa el ambiente de

la red y genera una política inicial. Determina automáticamente los ajustes WAN para la fragmentación, la compresión, el encapsulamiento, la interacción ATM con Frame Relay, eliminando la necesidad de entender prácticas de la teoría y del diseño de QoS en varios panoramás. Los clientes pueden resolver requisitos adicionales o especiales modificando la política inicial.

• Configuración: Con un comando, Cisco AutoQoS configura el

interfaz para dar la prioridad a tráfico crítico mientras que todavía ofrece la flexibilidad de ajustar la configuracion QoS para cumplir los requerimientos de la red. Cisco AutoQoS no sólo detecta automáticamente el teléfono IP de Cisco y permite los ajustes de QoS para el puerto del teléfono, también inhabilitará esos ajustes de QoS para prevenir actividad malévola cuando usted mueve o vuelve a poner un teléfono IP de Cisco.

Page 172: Manual Redes Convergentes

172

CARRERAS PROFESIONALES CIBERTEC

• Monitoreo y Reporte: Cisco AutoQoS proporciona visibilidad en las clases del servicio desplegadas usando el sistema que logging y el Protocolo Simple de Administración de la Red (SNMP) por medio de “traps”, con la notificación de acontecimientos anormales (por ejemplo, el bloqueo de paquetes de VoIP). El administrador de politicas Cisco QoS (QPM) que es la plataforma de monitoreo de QoS, que utiliza la red inteligente IP de Cisco para proveer visibilidad en operaciones de la red. Usted puede medir el rendimiento de procesamiento del tráfico para las aplicaciones y clases de servicio más usadas. Usted puede también localizar problemas en tiempo real e histórico de QoS. AutoQoS exhibe tráfico y las estadísticas de QoS en graficos de barras, en bits o paquetes por segundo, por interfaz o política. Cisco QPM le permite ver la QoS de los gráficos antes y después, relacionandolos para filtrar tráfico y políticas, así como resultados de acciones realizadas por la política de QoS.

• Consistencia: Las políticas de Cisco AutoQoS trabajan juntas a

través de los dispositivos de Cisco, ayudando a asegurar consistentemente la QoS punto a punto. Cisco QPM permite a usuarios ver lo siguiente:

• La estadística de coincidencia de políticas y filtros

específicos, incluyendo La aplicación de filtros NBAR. • Medida del tráfico antes de cualquier acción de alguna política

QoS, del tráfico transmitido después de realizar acciones de la política de QoS, y del tráfico bloqueado (o bien el transmitido) debido a acciones de bloqueo de la política de QoS, estadística de acciones de QoS: detección temprana aleatoria por peso (WRED), políticas, conformación de tráfico, y encolamiento.

5.1.2 Evolución de Cisco AutoQoS

Cisco AutoQoS se ha desarrollado en dos puestas en práctica: Cisco AutoQoS VoIP y Cisco AutoQoS para la empresa. Cisco AutoQoS VoIP Cisco AutoQoS VoIP ofrece capacidades directas para automatizar los despliegues de VoIP para los clientes que desean desplegar la telefonía IP, pero carecen del conocimiento o el personal para planear y entregar servicios QoS IP y servicios IP. Cisco AutoQoS VoIP es el primer lanzamiento de Cisco AutoQoS y automatiza los ajustes de QoS para los despliegues de VoIP solamente. Esta característica genera automáticamente configuraciones del interfaz, policy-map, class-map, y las listas del control de acceso (ACLs). Cisco AutoQoS VoIP emplea automáticamente el reconocimiento Red-Basado Cisco de la aplicación (NBAR) para clasificar tráfico de voz y para marcarlo con el valor apropiado de código de los servicios diferenciados (DSCP). Usted puede mandar a Cisco AutoQoS VoIP para aplicar al encendido, con la confianza, las marcas de DSCP aplicadas previamente a los paquetes.

Page 173: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

173

CIBERTEC CARRERAS PROFESIONALES

Cisco AutoQoS para la empresa Cisco AutoQoS para la empresa amplía sus capacidades más allá de VoIP y trata los requisitos de QoS de la empresa de redes convergentes. Cisco AutoQoS para la empresa agrega los paso importantes a usarse puede observar el descubrimiento de aplicaciones en la fase de la observación (auto- descubrimiento) y revisar las políticas de QoS que Cisco AutoQoS para la empresa sugiere sin desplegar esa política. Cisco AutoQoS para la empresa mezcla el diseño y la puesta en práctica de QoS, basados en los panoramás empresariales más comunes, en dos pasos importantes:

• Usando técnicas del descubrimiento de NBAR, Cisco AutoQoS descubre automáticamente qué aplicaciones utiliza la red de la empresa y genera una política óptima. Este paso emplea el mecanismo del descubrimiento de NBAR.

• Cisco AutoQoS entonces pone la política en ejecución generada.

5.1.3 AutoQoS en los switches

Desplegando Cisco AutoQoS VoIP en los switches Hay varios comandos del LAN, dependiendo de la plataforma y del sistema operativo (software del IOS de Cisco contra software de sistema operativo del Catalyst de Cisco). Para el IOS de Cisco basado en software Catalyst 2960 y el Catalyst de los switches de la serie 3560, allí son dos comandos de la configuración de Cisco AutoQoS: Un comando está para las conexiones telefónica IP, y el otro está para las conexiones de confianza a otros dispositivos de la red. Sin embargo, un solo comando es bastante para habilitar Cisco AutoQoS VoIP. Cisco AutoQoS VoIP en la LAN satisface estos requisitos de QoS:

Page 174: Manual Redes Convergentes

174

CARRERAS PROFESIONALES CIBERTEC

• Un solo comando habilita Cisco AutoQoS VoIP en un LAN, y otro comando proporciona el soporte para el teléfono IP de Cisco y el IP Comunicator de Cisco.

• Cisco AutoQoS configura automáticamente los parámetros de

QoS para el funcionamiento óptimo de voz basada sobre recomendaciones de las mejores prácticas de Cisco, extensa prueba de laboratorio, y la entrada de una amplia base de clientes con instalaciones de comunicaciones unificadas de Cisco.

• Cisco AutoQoS VoIP determina trust y ajustes de trust

extendidos ajustando el límite del trust automáticamente. Un usuario puede puentear el teléfono IP y conectar una PC directamente con un switch, pero el trust es deshabilitado cuando usted quita el teléfono IP.

• Cisco AutoQoS VoIP configura la clase del servicio (CoS) a

DSCP (a la cola de salida).

• Cisco AutoQoS VoIP determina la prioridad óptima de encolamiento (PQ) y cargado alrededor de los ajustes de la configuración de la ronda basada en carga (WRR) para configuración de acceso estático, dinámico, la VLAN de voz (VVLAN), y los puertos troncales.

Para configurar los ajustes de QoS y la característica de confianza limitada para los telefonos IP de Cisco, usted debe habilitar la versión 2 de CDP o superior en el puerto del switch, dondel teléfono IP está conectado. Si usted habilita la característica de confianza limitada, se muestra en un syslog un mensaje de alerta si el CDP no se habilita o si el CDP es la versión 1. Usted necesita habilitar el CDP solamente para la configuración de QoS del teléfono IP de Cisco. El CDP no afecta los otros componentes de las características automáticas de QoS. Configuración de AutoQoS en los switches Catalyst d e Cisco Para los switches basados en IOS del Catalyst, allí son dos comandos de la configuración de Cisco AutoQoS VoIP. La figura demuestra la sintaxis de órdenes. Un comando es para las conexiones de confianza a otros dispositivos de la red, y el otro está para las conexiones a telefonía IP de Cisco: • El comando auto qos voip trust en el modo de

configuración de interfaz activa Cisco AutoQoS VoIP en un switch basado en IOS y fija el interfaz del ingreso para la confianza de CoS QoS del ingreso recibida en el paquete. También configura la salida en las colas de la interfaz.

Page 175: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

175

CIBERTEC CARRERAS PROFESIONALES

• El comando auto qos voip cisco-phone en el modo de

configuración de interfaz habilita la característica confianza limitada. La característica de confianza limitada utiliza el CDP para detectar la presencia o la ausencia de un teléfono IP de Cisco. Cuando AutoQoS detecta un teléfono IP de Cisco, la clasificación del ingreso en el interfaz se fija para confiar en la etiqueta de QoS recibida en el paquete.

Cuando un teléfono IP de Cisco está ausente, AutoQoS fija la clasificación del ingreso para no confiar en la etiqueta de QoS en el paquete. También configura de nuevo las colas de la salida en el interfaz. Este comando amplía el límite de la confianza si se detecta un teléfono IP.

No utilice estos comandos si hay configuraciones anteriores de QoS en el switch. Sin embargo, usted puede afinar los parámetros generados de la configuración de Cisco AutoQoS (plantilla de Cisco AutoQoS) después de usar estos comandos.

Page 176: Manual Redes Convergentes

176

CARRERAS PROFESIONALES CIBERTEC

Nota Ambos comandos, en el mismo formato, también aplican a los switches Cisco Catalyst serie 4500. Como con los switches del Catalyst 2960 (E-I) y 3560 de Cisco, Catalyst de Cisco los switches de 4500 series no soportan la opción de Cisco SoftPhone. Cuando Cisco AutoQoS VoIP se habilita en el primer interfaz, QoS es globalmente habilitado (mls qos en modo de configuración global).

5.1.4 Cisco AutoQoS para la empresa: Restricciones del

despliegue en el router Restricciones generales La característica de VoIP se soporta en los interfaces siguientes, los identificadores de conexión de enlace de datos (DLCIs), y los circuitos virtuales permanentes (PVCs) solamente: • Interfaces seriales con el Protocolo Punto a Punto (PPP) o el

control de trasmisión de datos de alto nivel (HDLC) • Frame Relay (subinterfaces del punto a punto solamente) • PVCs ATM de poca y alta velocidad en subinterfaces del punto

a punto. • Enlace de redes Frame Relay a ATM Nota Las interfaces seriales síncronas se clasifican como de poca velocidad si el ancho de banda es menor o igual a 768 kbps. Una interfaz seriales síncrona se clasifica como veloz si su ancho de banda es mayor que 768 kbps. Esta clasificación es también valida para PVCs ATM.

Restricciones de la interface serial Para una interfaz seriales con un enlace de poca velocidad, Multilink PPP (MLP) se configura automáticamente. La interfaz seriales debe tener una dirección IP. Cuando usted configura MLP, este dirección IP se quita y se pone en la interfaz multilink de MLP. Usted debe resolver estas condiciones para asegurarse de que el tráfico pasa por un enlace de poca velocidad: � Usted debe tener Cisco AutoQoS para empresa configurada en

los ambos extremos finales de enlace. � La cantidad de ancho de banda configurada debe estar igual en

ambos extremos finales de enlace.

Page 177: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

177

CIBERTEC CARRERAS PROFESIONALES

5.1.5 Consideraciones del diseño de la plataforma d el route r

Cuando usted está configuración Cisco AutoQoS, tome las consideraciones del diseño para las plataformás de la router Cisco, resumidas en figura en consideración como sigue: • Requerimiento general de QoS: Se recomiendan métodos y

valores para resolver los requisitos de QoS para el tráfico en tiempo real. Cisco AutoQoS toma el tipo y el ancho de banda del interfaz en consideración al poner estas características de QoS en ejecución:

• Cola de baja latencia (LLQ) con prioridad: Es aplicada a los

paquetes de voz para resolver los requisitos de latencia. LLQ da una prioridad a los paquetes de tiempo real del protocolo del transporte de voz (RTP) sobre otros tipos del tráfico de datos cuando él comparte un enlace de la salida con voz.

• Protocolo de transporte de tiempo real comprimido (cRTP): Con

el cRTP, la cabecera del paquete IP de 40 octetos de los paquetes de voz se reduce a 2 o 4 octetos, reduciendo requisitos de la ancho de banda para la voz. Este mecanismo se utiliza en enlaces seriales de poca velocidad para mejorar eficiencia de enlace y para disminuir la sobrecarga de paquetes de RTP causados por los cabecera extensa de paquetes de voz. Usted debe aplicar el cRTP en los extremos finales de enlace de la red.

• Fragmentación e interpolación de enlace (LFI): LFI reduce la

variación de retardo (jitter) para los paquetes de voz evitando que los paquetes de voz sean retardodos por los paquetes grandes de datos en la cola, cuando la voz en tiempo real y los datos viajan en el mismo enlace de poca velocidad en salida. Usted debe aplicar LFI en ambos extremos de un enlace de la red.

• Implicaciones de la ancho de banda: El ancho de banda de la

interfaz serial determina la velocidad de enlace. La velocidad de enlace, alternadamente, determina las configuraciones generadas por Cisco AutoQoS. Note que el cambio del ancho de banda durante la configuración de Cisco AutoQoS no se recomienda.

• Cisco AutoQoS utiliza el ancho de banda asignado en el

momento en que las características están configuradas. Cisco AutoQoS no responde a los cambios realizados al ancho de banda después de que se configure las características.

• Fragmentación para las redes Frame Relay: Para las redes de

Frame Relay, se configura la fragmentación basada en el codec G.729 con retardo de 10ms y de un tamaño mínimo del fragmento de 60 bytes. Esta configuración se asegura de que los paquetes de VoIP no sean fragmentados. Sin embargo, cuando el codec G.711 es usado en enlaces de poca velocidad, el tamaño del fragmento configurado por Cisco AutoQoS podría ser

Page 178: Manual Redes Convergentes

178

CARRERAS PROFESIONALES CIBERTEC

más pequeño que el tamaño de paquetes de G.711 VoIP. Para solucionar este problema potencial, elija una de estas opciones:

o Cambia el tamaño del fragmento al valor requerido. o Substituye el codec G.711 por un codec más conveniente

para los enlaces de poco ancho de banda; por ejemplo, G.729.

5.1.6 Requisitos previos del router

Antes de configurar Cisco AutoQoS, usted debe cumplir los requisitos previos enumerados. Los detalles de estos requisitos previos son los siguientes: • Usted debe asegurar que la interfaz no tenga ninguna política

de QoS (políticas QoS) adjuntada. Usted no puede configurar Cisco AutoQoS si el interfaz tiene una política de QoS habilitada.

• Usted debe habilitar Cisco Express Forwarding (CEF). Cisco

AutoQoS utiliza NBAR para identificar varias aplicaciones y tipos de tráfico, y CEF es un requisito previo para NBAR.

• Cisco AutoQoS clasifica enlaces de poca velocidad dependiendo de la ancho de banda del enlace. Recuerde que en una interfaz serial, si usted no especifica el ancho de banda, el ancho de banda por defecto será de 1.544 Mbps. Por lo tanto, es importante que el ancho de banda correcta esté especificado en el interfaz o el subinterface donde está ser habilitado Cisco AutoQoS:

• Para todos los interfaces o subinterfaces, utiliza el

comando bandwidth para configurar la ancho de banda correctamente. Base la cantidad de ancho de banda en la velocidad de enlace del interfaz.

• Si el interfaz o el subinterface tiene una velocidad de

enlace de 768 kbps o menor, usted debe configurar una dirección IP en la interfaz o la subinterface usando el comando ip address. Por defecto, Cisco AutoQoS habilita MLP y copia la dirección IP configurada a la interfaz del multilink.

En adición a los requisitos previos de Cisco AutoQoS, hay otras recomendaciones y requisitos para configurar Cisco AutoQoS. Esté enterado que éstos pueden cambiar con las revisiones del software IOS de Cisco. Verifique los requisitos previos antes de ejecutar AutoQoS en cualquier entorno: • Cisco AutoQoS es soportado en las siguientes interfaces y

PVCs:

o ATM PVCs o Interfaces seriales con PPP o HDLC

Page 179: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

179

CIBERTEC CARRERAS PROFESIONALES

o DLCIs Frame Relay (subinterfaces Point-to-Point solamente, porque Cisco AutoQoS no soporta interfaces multipunto de Frame Relay).

• Una plantilla de la configuración generada AutoQoS en un

interfaz o un PVC se puede ajustar manualmente (vía la configuración de CLI) si se desea.

• Para incluir las traps de SNMP (monitoreo de eventos), usted

debe habilitar SNMP en el router. Se entregan las traps de SNMP de Cisco AutoQoS solamente cuando usted utilize un servidor del SNMP conjuntamente AutoQoS y el router “conoce” al servidor de SNMP.

• La comunidad SNMP “AutoQoS” debe tener el permiso de

escritura.

• Si usted reinicia el dispositivo con la configuración guardada después de configurar AutoQoS y de guardar la configuración en la NVRAM, los comandos de monitoreo remoto (RMON) pueden generar algunos mensajes de alerta. Usted puede no hacer caso de estos mensajes de alerta. (Para evitar otros mensajes de alerta, guarde la configuración NVRAM otra vez sin realizar ningún cambio a la configuración de QoS).

• Por defecto, los routers de Cisco reservan hasta 75 por ciento

del ancho de banda del interfaz para las clases definidas por el usuario. El ancho de banda restante se guarda para la clase por defecto. Sin embargo, el ancho de banda restante entero no está garantizado a la clase por defecto. La clase por defecto y el exceso de tráfico de otras clases de ancho de banda comparten esta ancho de banda proporcionalmente.

5.1.7 Desplegando AutoQoS para la empresa en los r outers:

Configuración en dos etapas

Cisco AutoQoS para la empresa consiste en dos fases de la configuración según las indicaciones: 1. Auto-descubrimiento (colección de datos) 2. Generación e instalación de la plantilla de Cisco AutoQoS La fase del auto descubrimiento utiliza descubrimiento basado en el protocolo NBAR para detectar las aplicaciones en la red y para realizar análisis estadístico en el tráfico de la red.

Page 180: Manual Redes Convergentes

180

CARRERAS PROFESIONALES CIBERTEC

Los datos recogidos deben ser un muestreo representativo del volumen y del tipo de voz, de vídeo, y de datos sobre su red. Por lo tanto, la cantidad de tiempo dedicado a la colección de datos varía de red a la red. La fase de auto descubrimiento puede tomar tiempo según sea necesario. La magnitud del tiempo necesario varía, dependiendo del volumen y de la naturaleza del tráfico en su red. Por defecto, el auto descubrimiento funciona por tres días.

La fase de la generación y de la instalación de la plantilla de Cisco AutoQoS genera plantillas de datos recogidos durante la fase de auto descubrimiento, e instala las plantillas en el interfaz. Cisco AutoQoS entonces utiliza estas plantillas como la base para crear los mapas de clase y los mapas de la política para su red. Después de crear los mapas de clase y los mapas de la política, Cisco instala auto-qos en la interface. Cisco AutoQoS para VoIP omite la fase del auto descubrimiento y va derecho a la generación y a la instalación de la plantilla. Fase 1: Perfil del tráfico en los routers con auto descubrimiento Inicie la fase del auto descubrimiento usando el comando auto discovery qos en la interfaz seleccionada. Antes de usar el comando auto discovery qos en la interfaz o el PVC ATM, reuna estos requisitos previos según las indicaciones: • Confirme que CEF esté habilitado. • Si el interfaz o el subinterface tiene una velocidad de enlace de

768 kbps o menor, configure la dirección IP primario o secundaria del interfaz usando el comando ip address.

Page 181: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

181

CIBERTEC CARRERAS PROFESIONALES

• Para todos los interfaces o subinterfaces, configure la cantidad de ancho de banda usando el comando de bandwidth. Asigne la cantidad de la ancho de banda basada en la velocidad de enlace del interfaz.

• Para los PVCs ATM, configure la tasa de bits variable (VBR) usando el comando vbr-nrt o el comando vbr-rt, o configure la tasa de bits constante (CBR) usando el comando cbr.

Al funcionar el auto descubrimiento, observe estas restricciones: • El comando auto discovery qos no es soportado en

subinterfaces. • No cambie el ancho de banda del interfaz al usar el comando

auto discovery qos. • Usted debe quitar todas las políticas previamente unidas del

interfaz. La palabra opcional trust indica que las marcas de DSCP de un paquete están de confianza (es decir, marcados) para la clasificación de voz, el vídeo, y el tráfico de datos. Si usted no especifica la palabra opcional trust, Cisco AutoQoS clasifica la voz, vídeo, y el tráfico de datos con NBAR, y los paquetes serán marcados con el valor apropiado de DSCP. Observe estos puntos sobre la fase del auto descubrimiento: • Si usted desea parar el auto descubrimiento, utilice el comando

no auto discovery qos. Este comando detiene la colección de datos y quita cualquier reporte de la colección de datos que se haya generado.

• Si usted desea ver los resultados temporales del auto descubrimiento mientras que el descubrimiento está en progreso, utilice el comando show auto discovery qos. Este comando exhibe los resultados de datos recogidos hasta ese punto durante la fase del auto descubrimiento.

Fase 2: Políticas de configuración de QoS en los routers El comando auto qos genera Cisco AutoQoS para la empresa, las plantillas basadas en los datos recogidos durante la fase del auto descubrimiento y después instala las plantillas en el interfaz. AutoQoS utiliza estas plantillas para crear mapas de clase y política de clase para su red y después los instala en el interfaz. La figura demuestra la sintaxis de los comandos para configurar Cisco AutoQoS. Para quitar Cisco AutoQoS del interfaz, utilice la forma no del comando auto qos. Usted puede también utilizar el comando auto qos para habilitar Cisco AutoQoS VoIP, que no beneficia el auto descubrimiento anterior. Si usted está utilizando revisiones de software anteriores del IOS de Cisco en los routers conectados que soportan solamente Cisco AutoQoS VoIP, utilice la palabra clave del voip para generar las plantillas de Cisco AutoQoS VoIP.

Page 182: Manual Redes Convergentes

182

CARRERAS PROFESIONALES CIBERTEC

Para Cisco AutoQoS VoIP, la palabra clave opcional trust se utiliza para confiar (es decir, marcar) las marcas de DSCP para la clasificación del tráfico de voz. Si usted no especifica la palabra clave opcional trust, Cisco AutoQoS clasifica tráfico de voz usando NBAR, y marca los paquetes con el valor apropiado de DSCP. La palabra opcional fr-atm habilita Cisco AutoQoS VoIP para los enlaces interredes Frame Relay-ATM. Esta opción está disponible en los DLCIs Frame Relay para enlaces interredes Frame Relay-ATM solamente. Ejemplo: Configuración del router con Cisco AutoQoS para la la empresa El procedimiento correcto de la configuración es como sigue: Paso 1 En el interfaz, primero configure la ancho de banda ofrecida usando el comando bandwidth, configure la direccion IP usando el comando ip address, y configure la dirección de DLCI usando el comando frame-relay interface dlci si usted está configuración un subinterface con Frame Relay. Paso 2 Active la fase del auto descubrimiento usando el comando auto-discovery qos. Para el análisis de tráfico más exacto, deje la fase del auto descubrimiento que se ejecute tanto tiempo como sea posible, preferiblemente varios días. En la fase del auto descubrimiento, la política generada se puede revisar opcionalmente usando show auto discovery qos. Paso 3 Aplique la política generada de Cisco AutoQoS al interfaz usando el comando auto qos En este punto, la configuración de Cisco AutoQoS se completó, pero usted puede afinar la clasificación autogenerada y políticas en caso de ser necesario.

5.1.8 Verificar Cisco AutoQoS

El principio detrás del procedimiento es igual para las routers y los switches, con excepción del hecho que no hay fase del auto descubrimiento en los switches y por lo tanto no es requerido para verificar sus resultados. El comando principal usado para la verificación en routers e switches es show auto qos. La configuración interfaz-específica se examina luego. Porque los switches Catalyst de Cisco utilizan mapeo CoS-DSCP para la cola de salida de paquete, usted puede utilizar show mls qos maps para verificar cómo Cisco AutoQoS definió estos mapas.

Page 183: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

183

CIBERTEC CARRERAS PROFESIONALES

Supervisión de Cisco AutoQoS en las routers Siga estos tres pasos para supervisar Cisco AutoQoS en las routers de Cisco: Paso 1 Exhiba los datos recogidos durante la fase del auto descubrimiento: • Utilice el comando show auto discovery qos para exhibir

los datos recogidos durante la fase del auto descubrimiento de Cisco AutoQoS para la empresa. La figura demuestra la sintaxis de comandos y un ejemplo.

• La política de salida sugerida deja ver mapas de clase de antemano y los mapas de la política antes de usted ejecute el comando auto qos en el interfaz. Usted puede entonces continuar con la fase del auto descubrimiento recopilando más datos (se recomienda que usted deje el descubrimiento de Cisco AutoQoS por varios días), o usted puede copiar los resultados existentes del descubrimiento en un editor de textos y modificar la clasificación autogenerada y políticas según lo deseado.

• La palabra clave opcional del interfaz indica que solamente las configuraciones para el tipo específico del interfaz están exhibidas.

Paso 2 Examine las plantillas de Cisco AutoQoS y la configuración inicial: • El comando show auto qos se usa para exhibir las plantillas

del interfaz de Cisco AutoQoS, “class-map”, “policy-map”, y ACLs. La figura muestra la salida al ejecutar el comando show auto qos.

• Cuando el comando interface se utiliza junto con el correspondiente argumento interface type, el comando exhibe las configuraciones creadas por Cisco AutoQoS en el interfaz especificada. Cuando se utiliza el comando interface pero el tipo del interfaz no se especifica, el comando exhibe las

Page 184: Manual Redes Convergentes

184

CARRERAS PROFESIONALES CIBERTEC

configuraciones creadas por el AutoQoS en todos los interfaces o PVCs en los cuales se ha habilitado el AutoQoS.

• El comando show auto qos interface se puede también utilizar con el DLCIs Frame Relay y PVCs ATM.

Paso 3 Exhiba los datos recogidos durante la fase del auto descubrimiento: • Para mostrar las estadísticas de paquetes de todas las clases,

que se configuren para todas las políticas del servicio en el interfaz o el subinterface especificado, o en un PVC específico en el interfaz; utilice el comando show policy-map interface según lo demostrado en figura.

• Los contadores exhibidos después de que usted ingrese el comando show policy-map interface son actualizados solamente si hay congestión en el interfaz. El comando también exhibirá la información de la política sobre el PVCs Frame Relay, pero solamente si el tráfico formado Frame Relay (FRTS) también se habilita en el interfaz (manualmente o por Cisco AutoQoS).

Supervisión de Cisco AutoQoS en los switches

Siga estos tres pasos para supervisar Cisco AutoQoS en los switches del Catalyst de Cisco: Paso 1 Examine las plantillas de Cisco AutoQoS y la configuración inicial: • Utilice el comando show auto qos para exhibir la

configuración inicial de Cisco AutoQoS VoIP en el switch. La figura demuestra la sintaxis de comandos y un ejemplo. Para exhibir cualquier cambio hecho por del usuario a esa configuración, utilice el comando show running-config. El show auto qos y show running-config se pueden comparar para identificar los ajustes definidos por el usuario, adicionales de QoS.

• De la salida del comando show, usted puede ver que el switch

tiene cuatro colas hechas salir de WRR disponibles con los

Page 185: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

185

CIBERTEC CARRERAS PROFESIONALES

pesos 20, 1, 80 y 0 para las colas 1, 2, 3, y 4 respectivamente. El comando wrr-queue cos muestra el mapeo de CoS para cada cola como sigue (el primer número es la identificador de la cola, el segundo es el identificación del umbral, los otros números son valores de CoS).

• La cola 4 se utiliza para el tráfico prioritario (un valor de 0 con

el comando wrr-queue bandwidth y mapear CoS 5 para la cola 4 usando el comando wrr-queue cos-map).

• La cola 2 no se utiliza (un valor de 1 con el wrr-queue

bandwidth y no mapear el CoS para la cola 2 usando el comando wrr-queue cos-map).

• La cola 1 consigue 20 por ciento de cualquier ancho de banda

que no es utilizada por la cola 4 y proporciona CoS 0, 1, 2, y 4. La cola 3 consigue 80 por ciento de cualquier ancho de banda que no es utilizada por la cola 4 y proporciona CoS 3, 6, y 7.

• Se muestra el mapeo CoS a DSCP, al igual que la confianza

de la conexión del teléfono IP. Paso 2 Observe los parámetros autogenerados a nivel de interfaz de QoS:

• Utilice el comando show mls qos interface según lo mostrado en la figura para mostrar la información de QoS en el switch Catalyst de Cisco a nivel de interfaz, incluyendo la configuración de las colas de la salida y el mapeo de colas de salida - CoS, los interfaces que tienen configurado políticas, y las estadísticas de ingreso y salida (incluyendo los bytes bloqueados).

• Si no se especifica ninguna palabra clave con el comando

show mls qos interface, el modo del puerto de QoS (confianza DSCP, confianza CoS, sin confianza, y así sucesivamente), valor de CoS por defecto, el mapa de mutación DSCP-a-DSCP (o cualquiera) que se adjunta al puerto, y el policy-map (si hubiera) que se une al interfaz será visualizada. Si un interfaz particular no se especifica, la información para todos los interfaces se exhibe.

Paso 3 Examine el mapeo CoS--DSCP: • Utilice el comando show mls qos maps, según las

indicaciones de figura exhibiendo los mapeos actuales de DSCP y CoS. Todos los mapeos son globalmente definidos.

• La palabra clave cos-dscp representa el mapeo CoS--DSCP.

Los valores soportados de CoS son 0 a 7.

Page 186: Manual Redes Convergentes

186

CARRERAS PROFESIONALES CIBERTEC

• La palabra clave de dscp-CoS representa el mapeo DSCP-a-CoS. Los valores soportados de DSCP son 0, 8, 10, 16, 18, 24, 26, 32, 34, 40, 46, 48, y 56.

• Después de que un mapeo por defecto es aplicado, usted

puede definir el mapeo CoS-DSCP o DSCP-a-CoS ingresando el comando mls qos map.

Page 187: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

187

CIBERTEC CARRERAS PROFESIONALES

5.2 Mitigando los problemas comunes de Cisco AutoQo S 5.2.1 Automatización con Cisco AutoQoS

La figura muestra los requerimientos de QoS para empresas típicas. Cisco AutoQoS automatiza el despliegue de QoS para los panoramás más comunes de la empresa y habilita varios mecanismos del IOS QoS de Cisco para resolver los requerimientos de QoS de varias aplicaciones y de tipos del tráfico descubiertos en la red de la empresa. Los requerimientos de la empresa incluyen lo siguiente: • Identifique el límite de la confianza y límite de la confianza

extendida y los protocolos de interés. • Determine el número de los servicios diferenciados (DiffServ)

que serán definidos para la red de la empresa. • Marca el tráfico basado en requerimiento de políticas locales. • Determine los métodos de encolamiento que deben ser

permitidos. • Defina el ancho de banda individual por clase necesario para

satisfacer requisitos en tiempo real del tráfico y para proveer el ancho de banda mínimo requerido para otras aplicaciones.

• Defina las características de QoS para transporte especifico (la forma de tráfico, Multilink PPP [MLP], y configuración de anillo de transmisión [tx-anillo]).

• Para los enlaces de poco ancho de banda (menos de 768 kbps), especifique las características necesarias de QoS (protocolo de transporte en tiempo real comprimido [cRTP], MLP fragmentación de enlace e interpolación [LFI], o fragmentación del Frame Relay [FRF.12]).

• Defina las alarmás y del acontecimientos con propósitos de monitoreo.

� En la adición, en un entorno de LAN, Cisco AutoQoS también tiene estos requerimientos:

• Determine la clase de servicio (CoS) - punto de código de servicios diferenciados (DSCP) y mapeo IP precedence--DSCP.

• Valores de mapeo CoS a diferentes colas de la salida (vía mapeo CoS--DSCP).

• Fije los tamaños de la cola y y la ronda basada en carga (WRR) (es decir, los ajustes apropiados de WRR para las interfaces rápidas de Ethernet contra interfaces de gigabit Ethernet).

5.2.2 Mecanismos de DiffServ QoS permitidos por Cis co AutoQoS

Usando recomendaciones de las mejores prácticas de Cisco, Cisco AutoQoS habilita a varios mecanismos de QoS para asegurar el funcionamiento óptimo del auto descubrimiento de aplicaciones de la empresa. Cisco AutoQoS proporciona automáticamente seis mecanismos de QoS usando la tecnología de DiffServ según las indicaciones de figura y descrita detalladamente abajo.

Page 188: Manual Redes Convergentes

188

CARRERAS PROFESIONALES CIBERTEC

Clasificación La clasificación de paquetes proporciona la capacidad de particionar el tráfico de la red en múltiples niveles de prioridad o clases del servicio. Por ejemplo ,el Grupo de Trabajo en Ingeniería de Internet (IETF) – definió los valores DSCP especificados en los estándares de DiffServ RFC 2474 y 2475, las redes pueden categorizar tráfico de aplicaciones en un máximo de 64 clases del tráfico. Cisco AutoQoS define hasta 10 clases. Cuando se clasifican los paquetes, utilice varias características de QoS en el IOS de Cisco para asignar la apropiada política de direccionamiento de tráfico para cada clase de tráfico. Cisco AutoQoS reutiliza la clasificación basada en DSCP o precedencia IP y CoS del dispositivo adyacente (por ejemplo, la router o el switch más cercano al borde de la red) en modo de confianza o activa el reconocimiento de aplicaciones basado en Red (NBAR) para clasificar el tráfico en un interfaz de ingreso modo sin confianza. En cualquier caso, Cisco AutoQoS define las clases que usan los mapas modulares de clase de Cisco QoS CLI (MQC). Marca La herramienta de marcado marca un paquete o un flujo con una prioridad específica. Esta marca se realiza con confianza limitada. La clasificación y la marca deben ocurrir en el borde de la red, típicamente en los gabinetes de switches, en los teléfonos IP de Cisco, o en los puntos finales de voz.

Page 189: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

189

CIBERTEC CARRERAS PROFESIONALES

Los paquetes se pueden marcar como importantes usando los ajustes de CoS de la capa 2 en los bits de prioridad de usuario de la parte 802.1p, parte de la cabecera 802.1Q o de la precedencia IP o de los bits de DSCP en el byte de tipo de servicio (TOS) de la cabecera de la versión 4 de IP (IPv4). Por ejemplo, todos los paquetes de protocolo de transporte en tiempo real del teléfono IP de Cisco (RTP) se deben marcar con etiqueta con cualquiera de estos valores: • Valor de CoS de 5 para los ajustes 802.1p de la capa 2 y un

valor de DSCP de envio rapido (EF) • Valor de precedencia IP de 5 • Además, todos los paquetes del control se deben marcar con

etiqueta con un valor de CoS de capa 2 en 3 y un valor de la capa 3 DSCP con valor de 24-31 (o precedencia IP de 3)

Cisco AutoQoS emplea el mecanismo de marcado basado en clase MQC para todas tramás de capa 2 y paquetes de capa 3 según las indicaciones de figura. Administración de congestión Las herramientas de administración de congestión asignan un paquete o flujo a una de varias colas, basado en la clasificación, para su tratamiento apropiado en la red. Cuando los datos, la voz, y el vídeo se ponen en la misma cola, la pérdida de paquetes y variación de retardo son más probables ocurrir. Usted puede aumentar la previsibilidad del comportamiento de la red y de la calidad de voz usando colas múltiples en interfaces de la salida y colocando los paquetes de voz en una cola de la estricta prioridad (encolamiento de baja latencia [LLQ]) con ancho de banda garantizado, setaprado de paquetes de datos. La salida WAN congestionada hace congestión de encolamiento y retardo de serialización en enlaces WAN de poca velocidad (enlace con menos de 768 kbps) puede dar lugar a retardo variable e impactar el tráfico de voz. El retardo de serialización está en función de la velocidad de enlace y del tamaño de paquetes. Los E-mails grandes y las descargas de datos pueden causar la degradación de la calidad de voz, incluso en entornos LAN. Para aliviar los efectos de congestión y para proveer a las aplicaciones de la empresa ancho de banda garantizado y la menor latencia posible, Cisco AutoQoS habilita a estas herramientas de encolamiento en el IOS de Cisco: • LLQ para que aplicaciones en tiempo real para experimentar la

menor latencia en colas de la salida y aseguren suficiente ancho de banda en el enlace de la salida para el funcionamiento óptimo de voz. LLQ procesa el tráfico clasificado en la clase de envio prioritario (EF) DiffServ (voz) como la prioridad más alta y ser un tráfico separado, cola de estricta prioridad. Se trata el resto del tráfico usando clases de encolamiento basado en carga (CBWFQ).

Page 190: Manual Redes Convergentes

190

CARRERAS PROFESIONALES CIBERTEC

• CBWFQ para las aplicaciones de datos se utiliza para proveer suficiente ancho de banda y para reducir interferencia entre las aplicaciones de alta y baja prioridad durante períodos de congestión. CBWFQ procesa el tráfico clasificado en las clases de envío aseguradas DiffServ (AF) (video y datos clasificados) y la clase por defecto para el tráfico sin clasificar (mejor esfuerzo).

• Round Robin basada en pesos (WRR) con prioridad de

encolamiento (PQ) en switchs Catalyst de Cisco procesando tráfico en la salida de los puertos del switch usando DiffServ (DSCP es mapeado a CoS para su ingreso automáticamente), asegurando la prioridad para el tráfico en tiempo real y la ancho de banda fiable para otros tipos del tráfico.

Cisco AutoQoS utiliza las políticas basadas en porcentaje para el incrementar la escalabilidad y flexibilidad. El mismo policy-map se puede aplicar en múltiples interfaces y en interfaces con ancho de banda que varía. Conformación de tráfico La conformación del tráfico es un mecanismo de QoS usado para enviar tráfico como explosiones cortas en una medida configurada de transmisión. Esto es comúnmente usado en entornos de Frame Relay dondel ancho de banda garantizada no es igual al periodo del reloj en la interfaz o la media confiable de información (CIR). La forma de tráfico Frame Relay (FRTS) es la aplicación más común de formación de tráfico en ambientes de VoIP. Los entornos de Frame Relay tienen generalmente un esquema centralizado (hub-and-spoke) dondel enlace del concentrador tiene la más alta velocidad que velocidades de los extremos de enlace. En algunos casos, la suma de las velocidades de los enlaces es más alta que la velocidad de enlace del concentrador, causando sobre subscripción. Sin FRTS, el concentrador puede intentar enviar tráfico en cantidades más altas de la que los enlaces alejados pueden recibir, haciendo la red del Frame Relay bloquear tráfico arbitrariamente. Sin embargo, los enlaces alejados podrían todos enviar en medida agregada que en suma es más alta que la que el concentrador puede recibir, haciendo otra vez la red Frame Relay bloquear arbitrariamente tráfico. Porque la red del Frame Relay no tiene ninguna capa 3 que proporcione inteligencia, puede bloquear el tráfico de VoIP si se violan los limitantes. Por lo tanto, usted necesita controlar cantidades de la transmisión en una nube del Frame Relay de modo que usted pueda controlar se bloqueen qué paquetes y qué paquetes reciben el tratamiento de prioridad. Cisco AutoQoS, dependiendo del auto descubrimiento del ambiente de la red de la empresa, habilita clase-basado en forma (para los ambientes de Frame Relay) o mecanismos de FRTS. Evitamiento de congestión Las técnicas para evitar la congestión supervisan la carga del tráfico de la red en un esfuerzo de anticipar y de evitar la

Page 191: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

191

CIBERTEC CARRERAS PROFESIONALES

congestión en los embotellamientos comunes de la red. Al descartarse el paquete se alcanza evitar la congestión. Por defecto el router utiliza un mecanismo de descarte de paquetes llamado tail drop. Con esto, los paquetes se descartan durante períodos de congestión si no caben en la cola de la salida, que afecta igualmente todos los tipos del tráfico, incluyendo tráfico prioritario. La sincronización global es otro efecto de tail drop y ocurre como oleadas de congestión, sólo para ser seguida intervalos durante los cuales el enlace de la transmisión no se utiliza completamente. La sincronización global de los host TCP, por ejemplo, puede ocurrir porque los paquetes se descartan de una vez. Se manifiesta la sincronización global cuando los múltiples hosts TCP reducen la medida de la transmisión en respuesta al paquete que se descarta, entonces aumenta sus tasas de la transmisión cuando se reduce la congestión. Cisco AutoQoS utiliza la detección temprana al azar por pesos (WRED) para evitar el descarte de paquetes prioritarios y de la sincronización global. WRED aumenta la probabilidad que la congestión será evitada descartando paquetes de baja prioridad y no los paquetes prioritarios. Eficiencia de enlace Los enlaces WAN de poca velocidad pueden degradar enormemente calidad de voz. El tráfico de voz podría sufrir gran retardo antes de alcanzar el extremo de la línea de salida con gran tiempo de transmisión y poco ancho de banda. Cuando Cisco AutoQoS detecta enlaces de poca velocidad durante la fase del auto descubrimiento, reduce al mínimo estos problemas permitiendo dos mecanismos para hacer más eficiente el enlace. La fragmentación de enlace y la interpolación (LFI) es el método usado para mejorar el retardo por serialización. Aun cuando el encolamiento está trabajando bien y se prioriza el tráfico de voz, hay las momentos en que la cola de prioritaria está vacía y paquetes de otras clases están en servicio. Los paquetes de las clases con ancho de banda garantizados deben tratarse según los pesos configurados. Si un paquete con prioridad voz llega en la cola de salida mientras que se están manteniendo estos paquetes, el paquete de VoIP podría esperar una longitud del tiempo substancial antes de ser enviado. Si un paquete de VoIP espera detrás de un paquete de datos, y el paquete de datos es, a lo más, igual de tamaño de la Unidad Máxima de Transmisión (MTU) (1.500 octetos para las interfaces seriales y 4.470 octetos para las interfaces seriales de alta velocidad), el tiempo de la espera se puede calcular basado en velocidad de enlace. Por ejemplo, esta fórmula calcula el tiempo de espera para una velocidad de enlace de 64 kbps y el tamaño del MTU de 1500 octetos:

Serialization delay = (1500 bytes * 8 bits per byte) / (64,000 bps)= 187.5 ms

Por lo tanto, un paquete de VoIP puede necesitar esperar hasta 187.5 ms antes de que pueda ser enviado si se retardo detrás de un solo paquete de 1500 octetos en un enlace de 64 kbps. Los paquetes de VoIP generalmente se envían cada ms 20. Con un reatardo punto a punto estimado de ms 150 y y requerimientos de

Page 192: Manual Redes Convergentes

192

CARRERAS PROFESIONALES CIBERTEC

variación de retardo (jitter), un umbral de mayor a 180 ms son inaceptables. Un cierto mecanismo es necesario que asegure que el tamaño de una unidad de transmisión sea 10 ms o menos. Cualquier paquete que tenga retardo de serialización mayor 10 ms necesita ser fragmentado en trozos menores a 10 ms. Un pedazo o el fragmento de 10 ms es el número de bytes que se pueden enviar sobre el enlace de 10 ms. Para una serialización con retardo de 10 ms, el tamaño correspondiente de un paquete o el fragmento transmitido sobre un enlace de 64 kbps sería 80 octetos. Cisco AutoQoS habilita a uno de dos mecanismos de LFI para hacer fragmentos de paquetes grandes para proteger voz, cuando son los enlaces de poca velocidad son autodescubiertas: • Multilink PPP (MLP) con la interpolación para los enlaces del

PPP • Fragmentación del Frame Relay (FRF.12) para los circuitos

virtuales permanentes del Frame Relay (PVCs) El protocolo en tiempo real comprimido del transporte (cRTP) reduce a 40 bytes IP + el protocolo del datagrama de usuario (UDP) + cabeceras RTP de 2 a 4 bytes, reduciendo la ancho de banda requerida por voz en enlaces Punto a punto. La cabecera se comprime en un extremo de enlace y se descomprime en el otro extremo. Cisco AutoQoS habilita la compresión de cabeceras cRTP cuando la voz se transmite en enlaces de poca velocidad.

5.2.3 Aprovisionamiento automatizado de clase AutoQ oS

DiffServ de Cisco

Cisco AutoQoS para la empresa define hasta diez clases de DiffServ diseñados para acomodarse a varias aplicaciones de la empresa. La tabla enumera el nombre de clase, el tipo de tráfico definido para la clase, y el valor de DSCP para el tipo de tráfico, si fuera aplicable. Calcule resume esta tabla y proporciona un número de prioridad correspondiente de CoS.

Nombre de Clase Tipo de Tráfico Valor DSCP

Enrutamiento IP Control de tafico de red, asi como protocolos de enrutamiento

CS6

Voz interactiva Tráfico interactivo de voz entre portadores

EF

Video interactivo Tráfico interactivo de datos y video AF41

Video streaming Tráfico de tramás de video CS4

Señalización telefónica

Señalización telefónica y control de tráfico

CS3

Transacciones Interactivas

Transacción natural de aplicaciones de base de datos

AF21

Page 193: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

193

CIBERTEC CARRERAS PROFESIONALES

Administracion de la Red

Administración del tráfico de la Red CS2

Datos comunes Transferencia de datos comunes tráfico web, servicio general de datos

AF11

Scavenger Entretenimiento, tráfico si se puede; tratamiento de tráfico menor al major esfuerzo entra en esta categoria

CS1

Mejor esfuerzo Clases por defecto; todo el tráfico no crítico, HTTP, tráfico variado

0

Estas clases se utilizan con el MQC para definir mapas de clase después de que se determinen los criterios de la clasificación. Estas clases también se eligen para resolver requerimientos de programación de acuerdo con las recomendaciones de DiffServ. Nota El número real de las clases creadas corresponde al número de las aplicaciones descubiertas durante la fase del auto descubrimiento.

5.2.4 Problemas comunes con Cisco AutoQoS

Aunque Cisco AutoQoS automatiza el despliegue de QoS, apunta solamente los panoramás más comunes de la red empresarial. Las clases y las plantillas de QoS que Cisco AutoQoS genera no satisfarán cada requisito de la red. Los tres problemas más comunes que pueden presentarse cuando usted está utilizando Cisco AutoQoS para generar políticas de la empresa: • Cisco AutoQoS genera demasiadas clases y sobreingenieria de

la clasificación: Cisco AutoQoS genera hasta 10 clases de DiffServ, dependiendo del número y de los tipos de usos y de protocolos que detectó durante la fase del auto descubrimiento. La vasta mayoría de redes empresariales de hoy en dia entregan solamente de tres a un máximo de seis clases para mantener la flexibilidad de la configuración. No hay ajuste en Cisco AutoQoS para disminuir el número de clases que se generen. La única solución es consolidar clases similares de forma manual para producir el número requerido de clases al final.

• Cisco AutoQoS genera las plantillas de QoS basándose en las

condiciones de la hora de auto descubrimiento: El auto descubrimiento debe funcionar por varios días para maximizar la probabilidad que Cisco AutoQoS genere las políticas basadas en condiciones cerca a la realidad diaria de la red. Todas las configuraciones que Cisco AutoQoS genera se relacionan solamente con qué fueron preconfiguradas (por ejemplo, la ancho de banda configurada en el interfaz) y qué fue detectada a la hora de descubrimiento auto. Si las condiciones de la red cambian después de que Cisco AutoQoS tenga autogenerada las plantillas de QoS, la fase del auto descubrimiento y la fase

Page 194: Manual Redes Convergentes

194

CARRERAS PROFESIONALES CIBERTEC

del despliegue de la plantilla de QoS se deben repetir para adaptar la configuración a las nuevas condiciones del tráfico.

• Cisco AutoQoS, incluso después de que se ha repetido y el auto

descubrimiento sea extenso, no genere las plantillas previstas de QoS: La inteligencia incorporada de Cisco AutoQoS se basa en las mejores prácticas de Cisco y la experiencia ganada en la amplia base de cliente de la empresa. Sin embargo, puede haber algunas excepciones especiales; particularmente, los requisitos del despliegue pueden ir más allá de las capacidades o de las circunstancias actuales que son simplemente imperceptibles porque requieren inteligencia humana. Para el caso, la clasificación puede necesitar ser basado en una mezcla de parámetros complejos, específicos. En estas situaciones especiales, Cisco AutoQoS se puede utilizar para generar los mapas de clase iniciales y los mapas de la política, para luego ser afinados manualmente para resolver los requisitos específicos. La configuración autogenerada es completamente manipulable por Cisco MQC, y prácticamente cualquier mecanismo de MQC se puede utilizar para suplir la clasificación o para ampliar una política.

5.2.5 Interpretando las configuraciones de Cisco Au toQoS

Para examinar las plantillas de QoS que resultan después de que usted aplique Cisco AutoQoS, utilice el comando show auto qos. Este comando proporciona la última información sobre todos los mecanismos de QoS y sus parámetros que Cisco AutoQoS habilito basado en los resultados del auto descubrimiento o generado simplemente para mejorar QoS. El comando es específicamente utilizado para examinar lo siguiente: • ¿Cuántas clases Cisco AutoQoS identifica? Este valor es visible

en la cantidad de los mapas de clase. • ¿Qué opciones de clasificación de tráfico Cisco AutoQoS

selecciona? Este parámetro es visible como comando match dentro del respectivo mapa de clase.

• ¿Qué opciones de la marcado de tráfico Cisco AutoQoS seleccionó? Usted puede ver estas opciones en los mapas de política después del comando set.

• ¿Qué mecanismos de encolamiento Cisco AutoQoS designó y qué parámetros de encolamiento fueron proyectados? Usted puede ver esta información en los mapas de la política como opciones del comando bandwidth o del comando priority como parámetro individual.

• ¿Eran otros mecanismos de QoS designados para servir a las clase? El contenido de los mapas de política puede enumerar algunos otros mecanismos que Cisco AutoQoS señala para manejar el tráfico de clase para el mejor funcionamiento de las aplicaciones (por ejemplo, los mecanismos de la eficiencia de enlace o formación de tráfico).

• Cisco AutoQoS puede también sugerir algunos parámetros del tráfico tales como explosiones de confianza y CIR en redes de Frame Relay, vistas en mapa de clase de Frame Relay.

Page 195: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

195

CIBERTEC CARRERAS PROFESIONALES

• ¿Cómo Cisco AutoQoS aplica la política autogenerada a la configuración existente de la router? Cisco AutoQoS puede aplicar la política autogenerada a una interfaz serial, a una subinterface, a un identificador de la conexión de enlace de datos (DLCI), o a un PVC. Esta información también se proporciona en la salida del show auto qos.

Cómo interpretar el comando show auto qos La salida detallada el comando auto show auto qos varía dependiendo de las condiciones de la red y del tráfico donde Cisco AutoQoS fue habilitado, pero tiene siempre algunos elementos comunes: • La salida del comando exhibe la política autogenerada, aplicada

bajo la forma de mapa de la política de MQC. En esta sección, los mecanismos de encolamiento seleccionados serán evidentes (LLQ o CBWFQ), pero esta sección puede también muestra el marcado basado en clase, formado basado en clase, el evitamiento de congestión (WRED), y mecanismos de la eficiencia de enlace (cRTP o LFI). Cada mecanismo de QoS aparece en la salida generada en la misma forma que tendría si fue configurado manualmente con el MQC.

• La otra sección importante en la salida del comando de show

auto qos es la clasificación, mostrada bajo la forma de mapa de clase de MQC. El mapa de clase puede utilizar la opción de la clasificación de NBAR o la opción de la precedencia IP o DSCP de cuando Cisco AutoQoS fue habilitado en el modo de

Page 196: Manual Redes Convergentes

196

CARRERAS PROFESIONALES CIBERTEC

confianza. En cualquier caso, el comando match se utiliza dentro de mapas de clase individuales con los parámetros apropiados.

• En algunas situaciones especiales, tales como shown para un PVC del Frame Relay, Cisco AutoQoS puede construir dos mapas de la política, uno jerarquizado en el otro. El propósito es utilizar la formación basada en clases para que pueda caber el tráfico dentro de parámetros específicos del tráfico del PVC mientras que se maneja la congestión usando técnicas de encolamiento apropiadas.

Se hacen referencia a los mapas individuales de la política y los mapas de clase usando los nombres generados por Cisco AutoQoS. RMON Inundan a los clientes a menudo con gran cantidad de datos, pero la información relevante que les ayuda a identificar la raíz de un problema o de cualquier tendencia importante es muy pequeña (tal como patrones y excepciones de tráfico). La obtención de la información adecuada puede ser absolutamente costosa, y llega a menudo demásiado tarde para ser útil. Un ejemplo clásico es averiguar “quién” (es decir, que usuario o dirección IP) está causando la congestión o está creando cargas anormales en un enlace. Sin la automatización, puede tomar muchos meses para establecer un proceso de supervisión eficiente. Cisco AutoQoS proporciona visibilidad en las clases del servicio desplegadas vía el sistema de logging y el Protocolo Simple de Administración de Red (SNMP) via traps, con la notificación de acontecimientos anormales (por ejemplo, descarte de paquetes VoIP). Una vez que se afine AutoQoS, las trampas del SNMP generadas por Cisco AutoQoS se entregan solamente si un servidor del SNMP se habilita explícitamente y se da la secuencia “AutoQoS” de la comunidad el permiso de escritura. En el caso del Frame Relay/ATM y de enlaces seriales con poca velocidad, Cisco AutoQoS se debe habilitar en ambos extremos de la conexión para que funcione correctamente. También, porque los parámetros de la fragmentación son derivados del ancho de banda, el parámetro ancho de banda en ambos extremos de enlace debe ser idéntico.

Page 197: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

197

CIBERTEC CARRERAS PROFESIONALES

La salida del comando show auto qos muestra la información de los traps del monitoreo remoto (RMON) que registran si el descarte de paquetes de voz es habilitado. Esta salida se utiliza para supervisar y localizar averías. AutoQoS activa umbrales en la tabla de alarmás RMON para supervisar descartes en LLQ. Por el defecto, el umbral de descarte es fijado a 1 bps. La figura demuestra un ejemplo de una alarma activado por los paquetes descartados. En algunas situaciones, según las indicaciones de la salida del comando show para Frame Relay, Cisco AutoQoS también proyecta nuevos parámetros del tráfico. En la figura, Cisco AutoQoS genera la nueva mapa de clase Frame Relay, que mapea para determinado DLCI usando el nombre inventado mapa de clase. Finalmente, la salida del comando show auto qos muestra cómo la política de QoS fue aplicada en la configuración. En este caso, la política del servicio fue aplicada al nuevo mapa de clase Frame Relay, que alternadamente mapea a DLCI. En la adición para el contenido de la configuración de interfaz, usted puede también ver mapas de política y los mapas de clase que son utilizados con el comando show auto qos. Las listas del control de acceso (ACLs) también se exhiben si Cisco AutoQoS las genera.

5.2.6 Modificación de la configuración activa de Ci sco

AutoQoS con MQC Si el mapa de políticas y los mapas de clase creados, basados en las plantillas generadas por Cisco AutoQoS para la empresa no resuelve las necesidades de la red de la empresa, utilice los comandos apropiados del IOS de Cisco de realizar los cambios necesarios.

Page 198: Manual Redes Convergentes

198

CARRERAS PROFESIONALES CIBERTEC

Esta edición ocurre generalmente en dos situaciones: • La nueva configuración generada AutoQoS de Cisco no

resuelve expectativas específicas de la empresa. • Las condiciones de la red o del tráfico han cambiado mientras

que Cisco AutoQoS generaba la configuración, y los administradores de la red tienen las habilidades necesarias para adaptar la configuración existente de QoS que está en funcionamiento con el procedimiento entero del despliegue de Cisco AutoQoS otra vez.

Modificación de la configuración activa de Cisco AutoQoS con MQC: Clasificación Mayormente, Cisco AutoQoS utiliza NBAR y ACLs para la clasificación del tráfico. Sin embargo, cualquier mecanismo de la clasificación de Cisco MQC puede suplir o substituir la configuración generada por Cisco AutoQoS.

Las habilidades a tenerse y el conocimiento de MQC es requerido para realizar la modificación, pero este procedimiento puede adaptar la clasificación con reglas más complejas de clasificación. La clasificación se puede modificar después del descubrimiento de Cisco AutoQoS pero antes de que se apliquen las plantillas generadas de la política o después de las plantillas de la política generadas por Cisco AutoQoS. Hay varias maneras de afinar y de modificar los mapas existentes de clase:

Page 199: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

199

CIBERTEC CARRERAS PROFESIONALES

• Directamente en la línea de comando de interfaz (CLI) del router que usa MQC.

• Usando el administrador de políticas de Cisco QoS (QPM)

• Sin embargo, la manera más fácil de afinar los mapas

existentes de clase es copiarlos en un editor de textos y modificar la configuración fuera de línea. Agregue la nueva clasificación deseada y quite la clasificación existente indeseada. Cuando la modificación es completa, copie la nueva clasificación del editor de texto y péguela en la ventana de configuración de la router para agregar las reglas al router.

Si es requerido, usted puede repetir el procedimiento de afinación en un proceso iterativo hasta que usted alcanza la configuración óptima. Cisco MQC ofrece una amplia gama de las opciones de clasificación, para usarse cuando se agregan las reglas de mapa de clase generadas por Cisco AutoQoS. La figura resume estos puntos y la tabla enumera las opciones más comunes de la clasificación y sus comandos respectivos match. Además de estas opciones de clasificación, cualquier clasificación soportada por Cisco MQC se puede utilizar en cualquier combinación para requerimientos de clasificación específica. Ejemplo: Clasificación con el MQC Lo que sigue es un ejemplo de la clasificación afinada con el MQC: 1. Comience el proceso del descubrimiento de Cisco AutoQoS.

Router# configure terminal Router(config)# interface serial0/1/0 Router(config-if)# bandwidth 384 Router(config-if)# auto discovery qos Router(config-if)# end

2. Deje el descubrimiento de Cisco AutoQoS que funciona por varios días.

3. Revise los resultados del descubrimiento de Cisco AutoQoS e

identifique los cambios de la clasificación requeridos (solamente se muestra la parte de la clasificación).

Router# show auto discovery qos <output omitted> ! Suggested AutoQoS Policy for the current uptime: class-map match-any AutoQoS-Voice-Se0/1/0 match protocol rtp audio ! class-map match-any AutoQoS-Signaling-Se0/1/0 match protocol h323 !

Page 200: Manual Redes Convergentes

200

CARRERAS PROFESIONALES CIBERTEC

class-map match-any AutoQoS-Transactional-Se0/1/0 match protocol sqlnet match protocol citrix ! class-map match-any AutoQoS-Bulk-Se0/1/0 match protocol exchange match protocol ftp ! class-map match-any AutoQoS-Scavenger-Se0/1/0 match protocol kazaa2 ! class-map match-any AutoQoS-Management-Se0/1/0 match protocol ldap Los cambios necesarios de la clasificación incluyen: Paso 1 También, clasifique el protocolo de inicio de sesión (SIP) y del protocolo del control de Gateway (MGCP). Paso 2 Clasifique el tráfico del telnet como clase transaccional. Paso 3 Mueva la clasificación SQL desde clase transaccional a la clase datos comunes. Paso 4 Clasifique todo el tráfico SNMP que viene de la subred 193.87.95.0 del IP como clase administración.

4. Aplique la plantilla generada de la política de Cisco AutoQoS al

interfaz para una modificación más actual.

Router# configure terminal Router(config)# interface serial0/1/0 Router(config-if)# auto qos Router(config-if)# end

5. Modifique la clasificación generada por Cisco AutoQoS según los requisitos. Paso 1 También, clasifique la señalización SIP y de MGCP. Router# configure terminal Router(config)# class-map AutoQoS-Signaling-Se0/1/0 Router(config-cmap)# match protocol sip Router(config-cmap)# match protocol mgcp Router(config-cmap)# exit

Paso 2 Clasifique el tráfico del telnet como transaccional.

Page 201: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

201

CIBERTEC CARRERAS PROFESIONALES

Router(config)# class-map AutoQoS-Transactional-Se0/1/0 Router(config-cmap)# match protocol telnet Router(config-cmap)# exit Paso 3 Mueva la clasificación del SQL desde clase transaccional a la clase datos comunes. Router(config)# class-map AutoQoS-Transactional-Se0/1/0 Router(config-cmap)# no match protocol sqlnet Router(config-cmap)# exit Router(config)# class-map AutoQoS-Bulk-Se0/1/0 Router(config-cmap)# match protocol sqlnet Router(config-cmap)# exit

Paso 4 Clasifique todo el tráfico del SNMP que viene de la subred IP 193.87.95.0 como clase de administración. Router (config)# access-list 101 permit udp 193.87.95.0 0.0.0.255 any eq snmp Router(config)# class-map AutoQoS-Management-Se0/1/0 Router(config-cmap)# match access-group 101 Router(config-cmap)# end

6. Revise la nueva política de la clasificación (solamente se muestra la parte de clasificación).

Router# show auto qos <output omitted> ! Suggested AutoQoS Policy for the current uptime: class-map match-any AutoQoS-Voice-Se0/1/0 match protocol rtp audio ! class-map match-any AutoQoS-Signaling-Se0/1/0 match protocol h323 match protocol sip match protocol mgcp ! class-map match-any AutoQoS-Transactional-Se0/1/0 match protocol telnet match protocol citrix ! class-map match-any AutoQoS-Bulk-Se0/1/0 match protocol exchange match protocol ftp match protocol sqlnet ! class-map match-any AutoQoS-Scavenger-Se0/1/0 match protocol kazaa2

Page 202: Manual Redes Convergentes

202

CARRERAS PROFESIONALES CIBERTEC

! class-map match-any AutoQoS-Management-Se0/1/0 match protocol ldap match access-group 101 ! access-list 101 permit udp 193.87.95.0 0.0.0.255 any eq snmp

5.2.7 Política generada AutoQoS para modificación c on MQC

Cuando usted está generando plantillas de la política de QoS, Cisco AutoQoS habilita varios mecanismos del IOS QoS de Cisco. Los mecanismos del IOS QoS de Cisco que Cisco AutoQoS habilita incluyen: � El programación del tráfico y manejo de congestión usando LLQ,

CBWFQ, o WRR � Marca del tráfico usando la marcado basado en clases � Formación de tráfico usando formación basada en clases o FRTS � Eficaciencia de enlace usando el cRTP y LFI (MLP o FRF.12) � Evitar la congestión usando WRED Además de estas políticas seleccionadas por Cisco AutoQoS, la configuración de la política que resulta generada se puede afinar con cualquier opción disponible de política del IOS MQC de Cisco. El software IOS de Cisco soporta una amplia gama de opciones para implementar la ejecución de DiffServ por comportamiento de saltos (PHBs) y adaptarse a cualquier política de la empresa. El procedimiento para modificar una existente, política activa generada por Cisco AutoQoS es similar al procedimiento para la clasificación. Lo que sigue es un ejemplo de la modificación de la política: 1. Revise la política existente de QoS, identifique los nuevos

requerimientos, y realize las modificaciones de la configuración necesarias (el ejemplo muestra solamente la parte de la política).

Router# show auto discovery qos <output omitted> ! Suggested AutoQoS Policy for the current uptime: policy-map AutoQoS-Policy-Se0/1/0 class AutoQoS-Voice-Se0/1/0 priority percent 10 compress header ip set dscp ef class AutoQoS-Signaling-Se0/1/0 bandwidth remaining percent 4 set dscp cs3 class AutoQoS-Transactional-Se0/1/0 bandwidth remaining percent 40

Page 203: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

203

CIBERTEC CARRERAS PROFESIONALES

random-detect dscp-based set dscp af21 class AutoQoS-Bulk-Se0/1/0 bandwidth remaining percent 19 random-detect dscp-based set dscp af11 class AutoQoS-Scavenger-Se0/1/0 bandwidth remaining percent 1 set dscp cs1 class AutoQoS-Management-Se0/1/0 bandwidth remaining percent 6 set dscp cs2 class class-default fair-queue Los cambios de politica necesarios incluyen: Paso 1 Marcar el tráfico que señala de voz con DSCP AF31, en vez del CS3 actual. Paso 2 La tasa limite del tráfico scavenger máximo de 64 kbps. Paso 3 Garantizar como mínimo 10 por ciento de la ancho de banda disponible del interfaz al tráfico del mejor-esfuerzo. Paso 4 Marque el tráfico de administración de red con DSCP AF21, en vez del CS2 actual.

2. Modifique la política generada por Cisco AutoQoS según los

nuevos requisitos.

Paso 1 Marque el tráfico que señala de voz con DSCP AF31, en vez del CS3 actual.

Router#configure terminal Router(config)# policy-map AutoQoS-Policy-Se0/1/0 Router(config-pmap)# class AutoQoS-Signaling-Se0/1/0 Router(config-pmap-c)# no set dscp cs3 Router(config-pmap-c)# set dscp af31 Router(config-pmap-c)# exit

Paso 2 Tasa-límite el tráfico scavenger máximo de 64 kbps.

Router(config-pmap)# class AutoQoS-Scavenger-Se0/1/0 Router(config-pmap-c)# police 64000 conform-

Page 204: Manual Redes Convergentes

204

CARRERAS PROFESIONALES CIBERTEC

action transmit exceed-action drop Router(config-pmap-c)# exit

Paso 3 Garantice como mínimo 10 por ciento de la ancho de banda disponible del interfaz al tráfico del mejor-esfuerzo.

Router(config-pmap)# class class-default Router(config-pmap-c)# bandwidth remaining percent 10 Router(config-pmap-c)# exit

Paso 4 Marque el tráfico de administracion con DSCP AF21, en vez del CS2 actual.

Router(config-pmap)# class AutoQoS-Management-Se0/1/0 Router(config-pmap-c)# no set dscp cs2 Router(config-pmap-c)# set dscp af21 Router(config-pmap-c)# end

4. Revise la nueva política del servicio (el ejemplo muestra solamente la parte de la política).

Router# show auto qos <output omitted> ! Suggested AutoQoS Policy for the current uptime: policy-map AutoQoS-Policy-Se0/1/0 class AutoQoS-Voice-Se0/1/0 priority percent 10 compress header ip set dscp ef class AutoQoS-Signaling-Se0/1/0 bandwidth remaining percent 4 set dscp af31 class AutoQoS-Transactional-Se0/1/0 bandwidth remaining percent 40 random-detect dscp-based set dscp af21 class AutoQoS-Bulk-Se0/1/0 bandwidth remaining percent 19 random-detect dscp-based set dscp af11 class AutoQoS-Scavenger-Se0/1/0 bandwidth remaining percent 1 set dscp cs1 police 64000 conform-action transmit exceed-action drop class AutoQoS-Management-Se0/1/0 bandwidth remaining percent 6 set dscp af21

Page 205: Manual Redes Convergentes

NUEVAS TECNOLOGÍAS

205

CIBERTEC CARRERAS PROFESIONALES

class class-default bandwidth remaining percent 10

Page 206: Manual Redes Convergentes

206

CARRERAS PROFESIONALES CIBERTEC

AUTOEVALUACIÓN

1. ¿Cuáles son los requisitos para implementar AutoQoS? 2. ¿Cuáles son los dos pasos más importantes para implementar AutoQoS en la

red de la empresa? 3. ¿Cuáles son las tres reglas para utilizar Cisco AutoDiscovery en la red de la

empresa?

RESUMEN

La opción Cisco AutoQoS simplifica la configuración de QoS. La mayoría de routers Cisco y switches Cisco Catalyst soportan Cisco AutoQoS. La configuración de QoS requiere una profunda comprensión de varias características de QoS, incluyendo encolamiento, descarte, condicionamiento de tráfico, profundidad de colas, umbral de descarte, parámetros de ráfagas, LFI y c-RTP, asi como las complejidades de realizar las configuraciones con muchos parámetros asociados a estas características. Cisco AutoQoS ayuda a superar estas dificultades configurando automáticamente el dispositivo Cisco con las características y variables de QoS necesarias y correctas. El mecanismo toma en cuenta el ancho de banda de la interface, el patrón de tráfico descubierto y las mejores prácticas de Cisco cuando se configura QoS. Tipicamente, el diseño y la implementación de QoS sobre una red compuesta de multiples sites LAN y WAN se convierte en una labor mucho más sencilla.