Semestre1 Ccna

323
Semestre 1 CCNA Descargar en PDF Módulo 1: Introducción a networking Descripción general Para entender el rol que los computadores juegan en un sistema de networking, considere la Internet. La Internet es un recurso valioso y estar conectado a ella es fundamental para la actividad empresarial, la industria y la educación. La creación de una red que permita la conexión a Internet requiere una cuidadosa planificación. Aun para conectar computadores personales individuales (PC) a lnternet, se requiere alguna planificación y la toma de ciertas decisiones. Se deben considerar los recursos computacionales necesarios para la conexión a Internet. Esto incluye el tipo de dispositivo que conecta el PC a Internet, tal como una tarjeta de interfaz de red (NIC) o modem. Se deben configurar protocolos o reglas antes que un computador se pueda conectar a Internet. También es importante la selección correcta de un navegador de web. Los estudiantes que completen esta lección deberán poder: * Comprender la conexión física que debe producirse para que un computador se conecte a Internet. * Reconocer los componentes que comprende el computador. * Instalar y diagnosticar las fallas de las NIC y los módems. * Configurar el conjunto de protocolos necesarios para la conexión a Internet. * Probar la conexión a Internet mediante procedimientos de prueba básicos. * Demostrar una comprensión básica del uso de los navegadores de Web y plug-ins. 1.1 Conexión a la Internet 1.1.1 Requisitos para la conexión a Internet La Internet es la red de datos más importante del mundo. La Internet se compone de una gran cantidad de redes grandes y pequeñas interconectadas. Computadores individuales son las fuentes y los destinos de la información a través de la Internet. La conexión a Internet se puede dividir en conexión física, conexión lógica y aplicaciones. Se realiza una conexión física conectando un tarjeta adaptadora, tal como un módem o una NIC, desde un PC a una red. La conexión física se utiliza para transferir las señales entre los distintos PC dentro de la red de área local (LAN) y hacia los dispositivos remotos que se encuentran en Internet. La conexión lógica aplica estándares denominados protocolos. Un protocolo es una descripción formal de un conjunto de reglas y convenciones que rigen la manera en que se comunican los dispositivos de una red; las conexiones a Internet pueden utilizar varios protocolos. El conjunto Protocolo de control de transporte/protocolo Internet (TCP/IP) es el principal conjunto de protocolos que se utiliza en Internet. Los protocolos del conjunto TCP/IP trabajan juntos para transmitir o recibir datos e información. La aplicación que interpreta los datos y muestra la información en un formato comprensible es la última parte de la conexión. Las aplicaciones trabajan junto con los protocolos para enviar y recibir datos a través de Internet. Un navegador Web muestra el código HTML como una página Web. Ejemplos de navegadores Web incluyen Internet Explorer y Netscape. . El Protocolo de transferencia de archivos (FTP) se utiliza para descargar archivos y programas de Internet. Los navegadores de Web también utilizan aplicaciones plug-in propietarias para mostrar tipos de datos especiales como, por ejemplo, películas o animaciones flash. Esta es simplemente una introducción a Internet y, por la forma en que lo presentamos aquí, puede parecer un proceso sumamente simple. A medida que exploremos el tema con mayor profundidad, se verá que el envío de datos a través de la Internet es una tarea complicada. 1.1.2 Principios básicos de los PC Como los computadores son importantes elementos básicos de desarrollo de redes, es necesario poder reconocer y nombrar los principales componentes de un PC. Muchos dispositivos de networking son de por sí computadores para fines especiales, que poseen varios de los mismos componentes que los PC normales. Para poder utilizar un computador como un medio confiable para obtener información, por ejemplo para acceder al currículum basado en Web, debe estar en buenas condiciones. Para mantener un PC en buenas condiciones es necesario realizar de vez en cuando el diagnóstico simple de fallas del hardware y del software del

Transcript of Semestre1 Ccna

Page 1: Semestre1 Ccna

Semestre 1 CCNA

Descargar en PDF Módulo 1: Introducción a networking Descripción general Para entender el rol que los computadores juegan en un sistema de networking, considere la Internet. La Internet es un recurso valioso y estar conectado a ella es fundamental para la actividad empresarial, la industria y la educación. La creación de una red que permita la conexión a Internet requiere una cuidadosa planificación. Aun para conectar computadores personales individuales (PC) a lnternet, se requiere alguna planificación y la toma de ciertas decisiones. Se deben considerar los recursos computacionales necesarios para la conexión a Internet. Esto incluye el tipo de dispositivo que conecta el PC a Internet, tal como una tarjeta de interfaz de red (NIC) o modem. Se deben configurar protocolos o reglas antes que un computador se pueda conectar a Internet. También es importante la selección correcta de un navegador de web. Los estudiantes que completen esta lección deberán poder: * Comprender la conexión física que debe producirse para que un computador se conecte a Internet. * Reconocer los componentes que comprende el computador. * Instalar y diagnosticar las fallas de las NIC y los módems. * Configurar el conjunto de protocolos necesarios para la conexión a Internet. * Probar la conexión a Internet mediante procedimientos de prueba básicos. * Demostrar una comprensión básica del uso de los navegadores de Web y plug-ins. 1.1 Conexión a la Internet 1.1.1 Requisitos para la conexión a Internet La Internet es la red de datos más importante del mundo. La Internet se compone de una gran cantidad de redes grandes y pequeñas interconectadas. Computadores individuales son las fuentes y los destinos de la información a través de la Internet. La conexión a Internet se puede dividir en conexión física, conexión lógica y aplicaciones. Se realiza una conexión física conectando un tarjeta adaptadora, tal como un módem o una NIC, desde un PC a una red. La conexión física se utiliza para transferir las señales entre los distintos PC dentro de la red de área local (LAN) y hacia los dispositivos remotos que se encuentran en Internet. La conexión lógica aplica estándares denominados protocolos. Un protocolo es una descripción formal de un conjunto de reglas y convenciones que rigen la manera en que se comunican los dispositivos de una red; las conexiones a Internet pueden utilizar varios protocolos. El conjunto Protocolo de control de transporte/protocolo Internet (TCP/IP) es el principal conjunto de protocolos que se utiliza en Internet. Los protocolos del conjunto TCP/IP trabajan juntos para transmitir o recibir datos e información. La aplicación que interpreta los datos y muestra la información en un formato comprensible es la última parte de la conexión. Las aplicaciones trabajan junto con los protocolos para enviar y recibir datos a través de Internet. Un navegador Web muestra el código HTML como una página Web. Ejemplos de navegadores Web incluyen Internet Explorer y Netscape. . El Protocolo de transferencia de archivos (FTP) se utiliza para descargar archivos y programas de Internet. Los navegadores de Web también utilizan aplicaciones plug-in propietarias para mostrar tipos de datos especiales como, por ejemplo, películas o animaciones flash. Esta es simplemente una introducción a Internet y, por la forma en que lo presentamos aquí, puede parecer un proceso sumamente simple. A medida que exploremos el tema con mayor profundidad, se verá que el envío de datos a través de la Internet es una tarea complicada. 1.1.2 Principios básicos de los PC Como los computadores son importantes elementos básicos de desarrollo de redes, es necesario poder reconocer y nombrar los principales componentes de un PC. Muchos dispositivos de networking son de por sí computadores para fines especiales, que poseen varios de los mismos componentes que los PC normales. Para poder utilizar un computador como un medio confiable para obtener información, por ejemplo para acceder al currículum basado en Web, debe estar en buenas condiciones. Para mantener un PC en buenas condiciones es necesario realizar de vez en cuando el diagnóstico simple de fallas del hardware y del software del

Page 2: Semestre1 Ccna

computador. Por lo tanto, es necesario reconocer los nombres y usos de los siguientes componentes de PC: Componentes pequeños separados * Transistor: Dispositivo que amplifica una señal o abre y cierra un circuito * Circuito integrado: Dispositivo fabricado con material semiconductor que contiene varios transistores y realiza una tarea específica * Resistencia: Un componente eléctrico que limita o regula el flujo de corriente eléctrica en un circuito electrónico. * Condensador: Componente electrónico que almacena energía bajo la forma de un campo electroestático; se compone de dos placas de metal conductor separadas por material aislante. * Conector: Parte de un cable que se enchufa a un puerto o interfaz * Diodo electroluminiscente (LED): Dispositivo semiconductor que emite luz cuando la corriente lo atraviesa Subsistemas del PC * Placa de circuito impreso (PCB, Printed Circuit Board): Una placa que tiene pistas conductoras superpuestas o impresas, en una o ambas caras. También puede contener capas internas de señal y planos de alimentación eléctrica y tierra. Microprocesadores, chips, circuitos integrados y otros componentes electrónicos se montan en las PCB. * Unidad de CD-ROM: Unidad de disco compacto con memoria de sólo lectura, que puede leer información de un CD-ROM * Unidad de procesamiento central (CPU): La parte de un computador que controla la operación de todas las otras partes. Obtiene instrucciones de la memoria y las decodifica. Realiza operaciones matemáticas y lógicas y traduce y ejecuta instrucciones. * Unidad de disquete: Una unidad de disco que lee y escribe información a una pieza circular con un disco plástico cubierto de metal de 3.5 pulgadas. Un disquete estándar puede almacenar aproximadamente 1 MB de información. * Unidad de disco duro: Un dispositivo de almacenamiento computacional que usa un conjunto discos rotatorios con cubierta magnética para almacenar datos o programas. Los discos duros se pueden encontrar en distintas capacidades de almacenamiento. * Microprocesador: Un microprocesador es un procesador que consiste en un chip de silicio diseñado con un propósito especial y físicamente muy pequeño. El microprocesador utiliza tecnología de circuitos de muy alta integración (VLSI , Very Large-Scale Integration) para integrar memoria , lógica y señales de control en un solo chip. Un microprocesador contiene una CPU. * Placa madre: La placa de circuito impreso más importante de un computador. La placa madre contiene el bus, el microprocesador y los circuitos integrados usados para controlar cualquier dispositivo tal como teclado, pantallas de texto y gráficos, puertos seriales y paralelos, joystick e interfaces para el mouse. * Bus: Un conjunto de pistas eléctricas en la placa madre a través del cual se transmiten señales de datos y temporización de una parte del computador a otra. * Memoria de acceso aleatorio (RAM): También conocida como memoria de lectura/escritura; en ella se pueden escribir nuevos datos y se pueden leer los datos almacenados. La RAM requiere energía eléctrica para mantener el almacenamiento de datos. Si el computador se apaga o se le corta el suministro de energía, todos los datos almacenados en la RAM se pierden. * Memoria de sólo lectura (ROM): Memoria del computador en la cual hay datos que han sido pregrabados. Una vez que se han escrito datos en un chip ROM, estos no se pueden eliminar y sólo se pueden leer. * Unidad del sistema: La parte principal del PC, que incluye el armazón, el microprocesador, la memoria principal, bus y puertos. La unidad del sistema no incluye el teclado, monitor, ni ningún otro dispositivo externo conectado al computador. * Ranura de expansión: Un receptáculo en la placa madre donde se puede insertar una placa de circuito impreso para agregar capacidades al computador, La figura muestra las ranuras de expansión PCI (Peripheral Component Interconnect/Interconexión de componentes periféricos) y AGP (Accelerated Graphics Port/Puerto de gráficos acelerado). PCI es una conexión de alta velocidad para placas tales como NIC, módems internos y tarjetas de video. El puerto AGP provee una conexión de alta velocidad entre dispositivos gráficos y la memoria del sistema. La ranura AGP provee una conexión de alta velocidad para gráficos 3-D en sistemas computacionales. * Fuente de alimentación: Componente que suministra energía a un computador Componentes del backplane * Backplane: Un backplane es una placa de circuito electrónico que contiene circuitería y sócalos en los cuales se pueden insertar dispositivos electrónicos adicionales en otras placas de circuitos; en un computador, generalmente sinónimo de o parte de la tarjeta madre. * Tarjeta de interfaz de red (NIC): Placa de expansión insertada en el computador para que se pueda conectar a la red. * Tarjeta de video: Placa que se introduce en un PC para otorgarle capacidades de visualización * Tarjeta de sonido: Placa de expansión que permite que el computador manipule y reproduzca sonidos * Puerto paralelo: Interfaz que puede transferir más de un bit simultáneamente y que se utiliza para conectar dispositivos externos tales como impresoras * Puerto serial: Interfaz que se puede utilizar para la comunicación serial, en la cual sólo se puede transmitir un bit a la vez.

Page 3: Semestre1 Ccna

* Puerto de ratón: Puerto diseñado para conectar un ratón al PC * Cable de alimentación: Cable utilizado para conectar un dispositivo eléctrico a un tomacorrientes a fin de suministrar energía eléctrica al dispositivo. * Puerto USB: Un conector de Bus Serial Universal (Universal Serial Bus). Un puerto USB conecta rápida y fácilmente dispositivos tales como un mouse o una impresora * Firewire: Una norma de interfaz de bus serial que ofrece comunicaciones de alta velocidad y servicios de datos isócronos de tiempo real. Piense en los componentes internos de un PC como una red de dispositivos, todos los cuales se conectan al bus del sistema. En cierto sentido, un PC es un pequeña red informática. 1.1.3 Tarjeta de interfaz de red Una tarjeta de interfaz de red (NIC), o adaptador LAN, provee capacidades de comunicación en red desde y hacia un PC. En los sistemas computacionales de escritorio, es una tarjeta de circuito impreso que reside en una ranura en la tarjeta madre y provee una interfaz de conexión a los medios de red. En los sistemas computacionales portátiles, está comunmente integrado en los sistemas o está disponible como una pequeña tarjeta PCMCIA, del tamaño de una tarjeta de crédito. PCMCIA es el acrónimo para Personal Computer Memory Card International Association (Asociación Internacional de Tarjetas de Memoria de Computadores Personales). Las tarjetas PCMCIA también se conocen como tarjetas PC. La NIC se comunica con la red a través de una conexión serial y con el computador a través de una conexión paralela. La NIC utiliza una Petición de interrupción (IRQ), una dirección de E/S y espacio de memoria superior para funcionar con el sistema operativo. Un valor IRQ (petición de interrupción) es número asignado por medio del cual donde el computador puede esperar que un dispositivo específico lo interrumpa cuando dicho dispositivo envía al computador señales acerca de su operación. Por ejemplo, cuando una impresora ha terminado de imprimir, envía una señal de interrupción al computador. La señal interrumpe momentáneamente al computador de manera que este pueda decidir que procesamiento realizar a continuación. Debido a que múltiples señales al computador en la misma línea de interrupción pueden no ser entendidas por el computador, se debe especificar un valor único para cada dispositivo y su camino al computador. Antes de la existencia de los dispositivos Plug-and-Play (PnP), los usuarios a menudo tenían que configurar manualmente los valores de la IRQ, o estar al tanto de ellas, cuando se añadía un nuevo dispositivo al computador. Al seleccionar una NIC, hay que tener en cuenta los siguientes factores: * Protocolos: Ethernet, Token Ring o FDDI * Tipos de medios: Cable de par trenzado, cable coaxial, inalámbrico o fibra óptica * Tipo de bus de sistema: PCI o ISA 1.1.4 Instalación de NIC y módem La conectividad a Internet requiere una tarjeta adaptadora, que puede ser un módem o NIC. Un módem, o modulador-demodulador, es un dispositivo que ofrece al computador conectividad a una línea telefónica. El módem convierte (modula) los datos de una señal digital en una señal analógica compatible con una línea telefónica estándar. El módem en el extremo receptor demodula la señal, convirtiéndola nuevamente en una señal digital. Los módems pueden ser internos o bien, pueden conectarse externamente al computador una interfaz de puerto serie ó USB. La instalación de una NIC, que proporciona la interfaz para un host a la red, es necesaria para cada dispositivo de la red. Se encuentran disponibles distintos tipos de NIC según la configuración del dispositivo específico. Los computadores notebook pueden tener una interfaz incorporada o utilizar una tarjeta PCMCIA. La Figura muestra una PCMCIA alámbrica, tarjetas de red inalámbricas, y un adaptador Ethernet USB (Universal Serial Bus /Bus Serial Universal). Los sistemas de escritorio pueden usar un adaptador de red interno llamado NIC, o un adaptador de red externo que se conecta a la red a través del puerto USB. Las situaciones que requieren la instalación de una NIC incluyen las siguientes: * Instalación de una NIC en un PC que no tiene una. * Reemplazo de una NIC defectuosa. * Actualización desde una NIC de 10 Mbps a una NIC de 10/100/1000 Mbps. * Cambio a un tipo diferente de NIC tal como una tarjeta wireless. * Instalación de una NIC secundaria o de respaldo por razones de seguridad de red. Para realizar la instalación de una NIC o un módem se requieren los siguientes recursos: * Conocimiento acerca de cómo debe configurarse el adaptador, incluyendo los jumpers y el software plug-and-play * Disponibilidad de herramientas de diagnóstico * Capacidad para resolver conflictos de recursos de hardware

Page 4: Semestre1 Ccna

1.1.5 Descripción general de la conectividad de alta velocidad y de acceso telefónico A principios de la década de 1960, se introdujeron los módems para proporcionar conectividad desde las terminales no inteligentes a un computador central Muchas empresas solían alquilar tiempo en sistemas de computación, debido al costo prohibitivo que implicaba tener un sistema en sus propias instalaciones. La velocidad de conexión era muy lenta, 300 bits por segundo (bps), lo que significaba aproximadamente 30 caracteres por segundo. A medida que los PC se hicieron más accesibles en la década de 1970, aparecieron los Sistemas de tableros de boletín (BBS). Estos BBS permitieron que los usuarios se conectaran y enviaran o leyeran mensajes en un tablero de discusiones La velocidad de 300 bps era aceptable, ya que superaba la velocidad a la cual la mayoría de las personas pueden leer o escribir. A principios de la década de 1980 el uso de los tableros de boletín aumentó exponencialmente y la velocidad de 300 bps resultó demasiado lenta para la transferencia de archivos de gran tamaño y de gráficos. En la década de 1990, los módems funcionaban a 9600 bps y alcanzaron el estándar actual de 56 kbps (56.000 bps) para 1998. Inevitablemente, los servicios de alta velocidad utilizados en el entorno empresarial, tales como la Línea de suscriptor digital (DSL) y el acceso de módem por cable, se trasladaron al mercado del consumidor. Estos servicios ya no exigían el uso de un equipo caro o de una segunda línea telefónica. Estos son servicios "de conexión permanente" que ofrecen acceso inmediato y no requieren que se establezca una conexión para cada sesión. Esto brinda mayor confiabilidad y flexibilidad y ha permitido que pequeñas oficinas y redes hogareñas puedan disfrutar de la comodidad de la conexión a Internet. 1.1.6 Descripción y configuración TCP/IP El Protocolo de control de transporte/protocolo Internet (TCP/IP) es un conjunto de protocolos o reglas desarrollados para permitir que los computadores que cooperan entre sí puedan compartir recursos a través de una red. Para habilitar TCP/IP en la estación de trabajo, ésta debe configurarse utilizando las herramientas del sistema operativo. Ya sea que se utilice un sistema operativo Windows o Mac, el proceso es muy similar. 1.1.7 Probar la conectividad con ping Ping es un programa básico que verifica que una dirección IP particular existe y puede aceptar solicitudes. El acrónimo computacional ping es la sigla para Packet Internet or Inter-Network Groper. El nombre se ajustó para coincidir el término usado en la jerga de submarinos para el sonido de un pulso de sonar que retorna desde un objeto sumergido. El comando ping funciona enviando paquetes IP especiales, llamados datagramas de petición de eco ICMP (Internet Control Message Protocol/Protocolo de mensajes de control de Internet) a un destino específico. Cada paquete que se envía es una petición de respuesta. La pantalla de respuesta de un ping contiene la proporción de éxito y el tiempo de ida y vuelta del envío hacia llegar a su destino. A partir de esta información, es posible determinar si existe conectividad a un destino. El comando ping se utiliza para probar la función de transmisión/recepción de la NIC, la configuración TCP/IP y la conectividad de red. Se pueden ejecutar los siguientes tipos de comando ping: * ping 127.0.0.1: Este es un tipo especial de ping que se conoce como prueba interna de loopback. Se usa para verificar la configuración de red TCP/IP. * ping direcciónc IP del computador host: Un ping a un PC host verifica la configuración de la dirección TCP/IP para el host local y la conectividad al host. * ping dirección IP de gateway por defecto: Un ping al gateway por defecto verifica si se puede alcanzar el router que conecta la red local a las demás redes. * ping dirección IP de destino remoto: Un ping a un destino remoto verifica la conectividad a un host remoto. 1.1.8 Navegadores de Web y plug-ins Un navegador de Web realiza las siguientes funciones: * Inicia el contacto con un servidor de Web * Solicita información * Recibe información * Muestra los resultados en pantalla Un navegador de Web es un software que interpreta el lenguaje de etiquetas por hipertexto (HTML), que es uno de los lenguajes que se utiliza para codificar el contenido de una página Web. Otros lenguajes de etiqueta con funciones más avanzadas son parte de la tecnología emergente. HTML el lenguaje de etiquetas más común, puede mostrar gráficos en pantalla, ejecutar sonidos, películas y otros archivos multimediales. Los hipervínculos están integrados en una página web y permiten establecer un vínculo rápido con otra ubicación en la misma página web o en una totalmente distinta. Dos de los navegadores de Web de mayor popularidad son Internet Explorer (IE) y Netscape Communicator. Aunque son idénticos en el tipo de tareas que realizan, existen algunas diferencias entre estos dos

Page 5: Semestre1 Ccna

navegadores. Algunos sitios Web no admiten el uso de uno o del otro y puede resultar útil tener ambos programas instalados en el computador. Netscape Navigator: * Primer navegador popular * Ocupa menos espacio en disco * Pone en pantalla archivos HTML, realiza transferencias de correo electrónico y de archivos y desempeña otras funciones Internet Explorer (IE): * Sólidamente integrado con otros productos de Microsoft * Ocupa más espacio en disco * Pone en pantalla archivos HTML, realiza transferencias de correo electrónico y de archivos y desempeña otras funciones También existen algunos tipos de archivos especiales, o propietarios, que no se pueden visualizar con los navegadores de Web estándar. Para ver estos archivos, el navegador debe configurarse para utilizar aplicaciones denominadas plug-in. Estas aplicaciones trabajan en conjunto con el navegador para iniciar el programa que se necesita para ver los archivos especiales. * Flash: Reproduce archivos multimediales, creados con Macromedia Flash * Quicktime: Reproduce archivos de video; creado por Apple * Real Player: Reproduce archivos de audio Para instalar el plug-in de Flash, siga estos pasos: 1. Vaya al sitio Web de Macromedia. 2. Descargue el archivo .exe. (flash32.exe) 3. Ejecute e instale en Netscape o Internet Explorer (IE). 4. Verifique la instalación y la correcta operación accediendo al sitio Web de la Academia Cisco Además de establecer la configuración del computador para visualizar el currículum de la Academia Cisco, los computadores permiten realizar muchas tareas de gran utilidad. En el campo empresarial, los empleados usan regularmente un conjunto de aplicaciones de productividad o "de oficina", tal como el Microsoft Office. Las aplicaciones de oficina normalmente incluyen lo siguiente: * Un software de hoja de cálculo contiene tablas compuestas por columnas y filas que se utilizan con frecuencia con fórmulas, para procesar y analizar datos. * Un procesador de texto es una aplicación que se utiliza para crear y modificar documentos de texto. Los procesadores de texto modernos permiten crear documentos sofisticados, que incluyen gráficos y texto con riqueza de formato. * El software de gestión de bases de datos se utiliza para almacenar, mantener, organizar, seleccionar y filtrar registros. Un registro es un conjunto de información que se identifica con un tema común como puede ser el nombre del cliente. * El software de presentación se utiliza para diseñar y desarrollar presentaciones destinadas a reuniones, clases o presentaciones de ventas. * Los administradores de información personal incluyen elementos como utilidades de correo electrónico, listas de contacto, una agenda y una lista de tareas a realizar. Las aplicaciones de oficina forman parte en la actualidad de la vida laboral diaria, tal como ocurría con las máquinas de escribir antes de la llegada de los computadores personales. 1.1.9 Diagnóstico de los problemas de conexión a Internet En esta práctica de laboratorio de diagnóstico de fallas, los problemas se encuentran en el hardware, en el software y en las configuraciones de red. El objetivo es ubicar y solucionar problemas en un lapso predeterminado de tiempo, lo que con el tiempo permitirá el acceso al currículum. Esta práctica de laboratorio demostrará lo compleja que puede resultar la configuración incluso del sencillo proceso de acceder a la web. Esto incluye los procesos y procedimientos relacionados con el diagnóstico de fallas de hardware, software y sistemas de red de un computador. 1.2 Matemática de redes 1.2.1 Representación binaria de datos Los computadores manipulan y almacenan los datos usando interruptores electrónicos que están

Page 6: Semestre1 Ccna

ENCENDIDOS o APAGADOS. Los computadores sólo pueden entender y usar datos que están en este formato binario, o sea, de dos estados. Los unos y los ceros se usan para representar los dos estados posibles de un componente electrónico de un computador. Se denominan dígitos binarios o bits. Los 1 representan el estado ENCENDIDO, y los 0 representan el estado APAGADO. El Código americano normalizado para el intercambio de información (ASCII) es el código que se usa más a menudo para representar los datos alfanuméricos de un computador. ASCII usa dígitos binarios para representar los símbolos que se escriben con el teclado. Cuando los computadores envían estados de ENCENDIDO/APAGADO a través de una red, se usan ondas eléctricas, de luz o de radio para representar los unos y los ceros. Observe que cada carácter tiene un patrón exclusivo de ocho dígitos binarios asignados para representar al carácter. Debido a que los computadores están diseñados para funcionar con los interruptores ENCENDIDO/APAGADO, los dígitos y los números binarios les resultan naturales. Los seres humanos usan el sistema numérico decimal, que es relativamente simple en comparación con las largas series de unos y ceros que usan los computadores. De modo que los números binarios del computador se deben convertir en números decimales. A veces, los números binarios se deben convertir en números Hexadecimales (hex), lo que reduce una larga cadena de dígitos binarios a unos pocos caracteres hexadecimales. Esto hace que sea más fácil recordar y trabajar con los números. 1.2.2 Bits y bytes Un número binario 0 puede estar representado por 0 voltios de electricidad (0 = 0 voltios). Un número binario 1 puede estar representado por +5 voltios de electricidad (1 = +5 voltios). Los computadores están diseñados para usar agrupaciones de ocho bits. Esta agrupación de ocho bits se denomina byte. En un computador, un byte representa una sola ubicación de almacenamiento direccionable. Estas ubicaciones de almacenamiento representan un valor o un solo carácter de datos como, por ejemplo, un código ASCII. La cantidad total de combinaciones de los ocho interruptores que se encienden y se apagan es de 256. El intervalo de valores de un byte es de 0 a 255. De modo que un byte es un concepto importante que se debe entender si uno trabaja con computadores y redes. 1.2.3 Sistema numérico de Base 10 Los sistemas numéricos están compuestos por símbolos y por las normas utilizadas para interpretar estos símbolos. El sistema numérico que se usa más a menudo es el sistema numérico decimal, o de Base 10. El sistema numérico de Base 10 usa diez símbolos: 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9. Estos símbolos se pueden combinar para representar todos los valores numéricos posibles. El sistema numérico decimal se basa en potencias de 10. Cada posición de columna de un valor, pasando de derecha a izquierda, se multiplica por el número 10, que es el número de base, elevado a una potencia, que es el exponente. La potencia a la que se eleva ese 10 depende de su posición a la izquierda de la coma decimal. Cuando un número decimal se lee de derecha a izquierda, el primer número o el número que se ubica más a la derecha representa 100 (1), mientras que la segunda posición representa 101 (10 x 1= 10) La tercera posición representa 102 (10 x 10 =100). La séptima posición a la izquierda representa 106 (10 x 10 x 10 x 10 x 10 x 10 =1.000.000). Esto siempre funciona, sin importar la cantidad de columnas que tenga el número. Ejemplo: 2134 = (2x103) + (1x102) + (3x101) + (4x100) Hay un 4 en la posición correspondiente a las unidades, un 3 en la posición de las decenas, un 1 en la posición de las centenas y un 2 en la posición de los miles. Este ejemplo parece obvio cuando se usa el sistema numérico decimal. Es importante saber exactamente cómo funciona el sistema decimal, ya que este conocimiento permite entender los otros dos sistemas numéricos, el sistema numérico de Base 2 y el sistema numérico hexadecimal de Base 16. Estos sistemas usan los mismos métodos que el sistema decimal. 1.2.4 Sistema numérico de Base 2 Los computadores reconocen y procesan datos utilizando el sistema numérico binario, o de Base 2. El sistema numérico binario usa sólo dos símbolos, 0 y 1, en lugar de los diez símbolos que se utilizan en el sistema numérico decimal. La posición, o el lugar, que ocupa cada dígito de derecha a izquierda en el sistema numérico binario representa 2, el número de base, elevado a una potencia o exponente, comenzando desde 0. Estos valores posicionales son, de derecha a izquierda, 20, 21, 22, 23, 24, 25, 26 y 27, o sea, 1, 2, 4, 8, 16, 32, 64 y 128, respectivamente. Ejemplo: 101102 = (1 x 24 = 16) + (0 x 23 = 0) + (1 x 22 = 4) + (1 x 21 = 2) + (0 x 20 = 0) = 22 (16 + 0 + 4 + 2 + 0)

Page 7: Semestre1 Ccna

Al leer el número binario (101102) de izquierda a derecha, se nota que hay un 1 en la posición del 16, un 0 en la posición del 8, un 1 en la posición del 4, un 1 en la posición del 2 y un 0 en la posición del 1, que sumados dan el número decimal 22. 1.2.5 Conversión de números decimales en números binarios de 8 bits Existen varios métodos para convertir números decimales en números binarios. El diagrama de flujo que se muestra en la Figura describe uno de los métodos. El proceso intenta descubrir cuáles de los valores de la potencia de 2 se suman para obtener el número decimal que se desea convertir en un número binario. Este es uno de varios métodos que se pueden usar. Es mejor seleccionar un método y practicarlo hasta obtener siempre la respuesta correcta. Ejercicio de conversión Utilice el ejemplo siguiente para convertir el número decimal 168 en un número binario. * 128 entra en 168. De modo que el bit que se ubica más a la izquierda del número binario es un 1. 168 - 128 es igual a 40. * 64 no entra en 40. De modo que el segundo bit desde la izquierda es un 0. * 32 entra en 40. De modo que el tercer bit desde la izquierda es un 1. 40 - 32 es igual a 8. * 16 no entra en 8, de modo que el cuarto bit desde la izquierda es un 0. * 8 entra en 8. De modo que el quinto bit desde la izquierda es un 1. 8 - 8 es igual a 0. De modo que, los bits restantes hacia la derecha son todos ceros. Resultado: Decimal 168 = 10101000 Para adquirir más práctica, trate de convertir el decimal 255 en un número binario. La respuesta correcta es 11111111. La actividad de conversión de números que se suministra en la Figura le permitirá adquirir más práctica. 1.2.6 Conversión de números binarios de 8 bits en números decimales Existen dos formas básicas para convertir números binarios en decimales. El diagrama de flujo que se muestra en la Figura describe uno de estos métodos. También se pueden convertir los números binarios en decimales multiplicando los dígitos binarios por el número base del sistema, que es de Base 2, y elevados al exponente de su posición. Ejemplo: Convierta el número binario 01110000 en decimal. NOTA: La operación debe realizarse de derecha a izquierda. Recuerde que cualquier número elevado a la potencia 0 es igual a 1. Por lo tanto, 20 = 1 0 x 20 = 0 0 x 21 = 0 0 x 22 = 0 0 x 23 = 0 1 x 24 = 16 1 x 25 = 32 1 x 26 = 64 + 0 x 27= 0 =112 NOTA: La suma de las potencias de 2 que tienen un 1 en su posición La actividad de conversión de números le permitirá adquirir más práctica. 1.2.7 Representación en notación decimal separada por puntos de cuatro octetos de números binarios de 32 bits

Page 8: Semestre1 Ccna

Actualmente, las direcciones que se asignan a los computadores en Internet son números binarios de 32 bits. Para facilitar el trabajo con estas direcciones, el número binario de 32 bits se divide en una serie de números decimales. Para hacer esto, se divide el número binario en cuatro grupos de ocho dígitos binarios. Luego, se convierte cada grupo de ocho bits, también denominados octetos, en su equivalente decimal. Haga esta conversión exactamente como se indica en la explicación de conversión de binario a decimal que aparece en la página anterior. Una vez que está escrito, el número binario completo se representa como cuatro grupos de dígitos decimales separados por puntos. Esto se denomina notación decimal separada por puntos y ofrece una manera compacta y fácil de recordar para referirse a las direcciones de 32 bits. Esta representación se usará frecuentemente con posterioridad durante este curso, de modo que es necesario comprenderla bien. Al realizar la conversión de binario a decimal separado por puntos, recuerde que cada grupo, que está formado por uno a tres dígitos decimales, representa un grupo de ocho dígitos binarios. Si el número decimal que se está convirtiendo es menor que 128, será necesario agregar ceros a la izquierda del número binario equivalente hasta que se alcance un total de ocho bits. Ejemplo: Convierta 200.114.6.51 en su equivalente binario de 32 bits. Convierta 10000000 01011101 00001111 10101010 en su equivalente decimal separado por puntos. 1.2.8 Hexadecimal El sistema numérico hexadecimal (hex) se usa frecuentemente cuando se trabaja con computadores porque se puede usar para representar números binarios de manera más legible. El computador ejecuta cálculos en números binarios, pero hay varios casos en los que el resultado del computador en números binarios se expresa en números hexadecimales para facilitar su lectura. La conversión de un número hexadecimal en binario, y de un número binario en hexadecimal, es una tarea común cuando se trabaja con el registro de configuración de los routers de Cisco. Los routers de Cisco poseen un registro de configuración de 16 bits de longitud. El número binario de 16 bits se puede representar como un número hexadecimal de cuatro dígitos. Por ejemplo, 0010000100000010 en números binarios es igual a 2102 en números hexadecimales. La palabra hexadecimal a menudo se abrevia como 0x cuando se utiliza con un valor como el que aparece en el número anterior. 0x2102. Al igual que los sistemas binario y decimal, el sistema hexadecimal se basa en el uso de símbolos, potencias y posiciones. Los símbolos que se usan en hexadecimal son los números 0 - 9 y las letras A, B, C, D, E y F. Observe que todas las combinaciones posibles de cuatro dígitos binarios tienen sólo un símbolo hexadecimal, mientras que en el sistema decimal se utilizan dos. La razón por la que se utiliza el sistema hexadecimal es que dos dígitos hexadecimales, al contrario de lo que ocurre en el sistema decimal que requiere hasta cuatro dígitos, pueden representar eficientemente cualquier combinación de ocho dígitos binarios. Al permitir que se usen dos dígitos decimales para representar cuatro bits, el uso de decimales también puede provocar confusiones en la lectura de un valor. Por ejemplo, el número binario de ocho bits 01110011 sería 115 si se convirtiera en dígitos decimales. ¿Eso significa 11-5 ó 1-15? Si se usa 11-5, el número binario sería 10110101, que no es el número que se convirtió originalmente. Al usar hexadecimales, la conversión da como resultado 1F, que siempre se vuelve a convertir en 00011111. El sistema hexadecimal reduce un número de ocho bits a sólo dos dígitos hexadecimales. Esto reduce la confusión que se puede generar al leer largas cadenas de números binarios y la cantidad de espacio que exige la escritura de números binarios. Recuerde que "hexadecimal" a veces se abrevia como 0x, de modo que hexadecimal 5D también puede aparece escrito como "0x5D". Para realizar la conversión de números hexadecimales a binarios, simplemente se expande cada dígito hexadecimal a su equivalente binario de cuatro bits. 1.2.9 Lógica booleana o binaria La lógica booleana se basa en circuitos digitales que aceptan uno o dos voltajes entrantes. Basándose en los voltajes de entrada, se genera el voltaje de salida. Para los fines de los computadores, la diferencia de voltaje se asocia con dos estados, activado (encendido) o desactivado (apagado). Estos dos estados, a su vez, se asocian como un 1 o un 0, que son los dos dígitos del sistema numérico binario. La lógica booleana es una lógica binaria que permite que se realice una comparación entre dos números y que se genere una elección en base a esos dos números. Estas elecciones son las operaciones lógicas AND, OR y NOT. Con la excepción de NOT, las operaciones booleanas tienen la misma función. Aceptan dos números, que pueden ser 1 ó 0, y generan un resultado basado en la regla de lógica. La operación NOT toma cualquier valor que se le presente, 0 ó 1, y lo invierte. El uno se transforma en cero, y el cero se transforma en uno. Recuerde que las compuertas lógicas son dispositivos electrónicos creados

Page 9: Semestre1 Ccna

específicamente con este propósito. La regla de lógica que siguen es que cualquiera sea la entrada, el resultado será lo opuesto. La operación AND toma dos valores de entrada. Si ambos valores son 1, la compuerta lógica genera un resultado de 1. De lo contrario, genera un 0 como resultado. Hay cuatro combinaciones de valores de entrada. Tres de estas combinaciones generan un 0, y sólo una combinación genera un 1. La operación OR también toma dos valores de entrada. Si por lo menos uno de los valores de entrada es 1, el valor del resultado es 1. Nuevamente, hay cuatro combinaciones de valores de entrada. Esta vez tres combinaciones generan un resultado de 1 y la cuarta genera un resultado de 0. Las dos operaciones de networking que utilizan la lógica booleana son las máscaras wildcard y de subred. Las operaciones de máscara brindan una manera de filtrar direcciones. Las direcciones identifican a los dispositivos de la red y permiten que las direcciones se agrupen o sean controladas por otras operaciones de red. Estas funciones se explicarán en profundidad más adelante en el currículum. 1.2.10 Direcciones IP y máscaras de red Las direcciones binarias de 32 bits que se usan en Internet se denominan direcciones de Protocolo Internet (IP). En esta sección se describe la relación entre las direcciones IP y las máscaras de red. Cuando se asignan direcciones IP a los computadores, algunos de los bits del lado izquierdo del número IP de 32 bits representan una red. La cantidad de bits designados depende de la clase de dirección. Los bits restantes en la dirección IP de 32 bits identifican un computador de la red en particular. El computador se denomina host. La dirección IP de un computador está formada por una parte de red y otra de host que representa a un computador en particular de una red en particular. Para informarle al computador cómo se ha dividido la dirección IP de 32 bits, se usa un segundo número de 32 bits denominado máscara de subred. Esta máscara es una guía que indica cómo se debe interpretar la dirección IP al identificar cuántos de los bits se utilizan para identificar la red del computador. La máscara de subred completa los unos desde la parte izquierda de la máscara de forma secuencial. Una máscara de subred siempre estará formada por unos hasta que se identifique la dirección de red y luego estará formada por ceros desde ese punto hasta el extremo derecho de la máscara. Los bits de la máscara de subred que son ceros identifican al computador o host en esa red. A continuación se suministran algunos ejemplos de máscaras de subred: 11111111000000000000000000000000 escrito en notación decimal separada por puntos es 255.0.0.0 O bien, 11111111111111110000000000000000 escrito en notación decimal separada por puntos es 255.255.0.0 En el primer ejemplo, los primeros ocho bits desde la izquierda representan la parte de red de la dirección y los últimos 24 bits representan la parte de host de la dirección. En el segundo ejemplo, los primeros 16 bits representan la parte de red de la dirección y los últimos 16 bits representan la parte de host de la dirección. La conversión de la dirección IP 10.34.23.134 en números binarios daría como resultado lo siguiente: 00001010.00100010.00010111.10000110 La ejecución de una operación AND booleana de la dirección IP 10.34.23.134 y la máscara de subred 255.0.0.0 da como resultado la dirección de red de este host: 00001010.00100010.00010111.10000110 11111111.00000000.00000000.00000000 00001010.00000000.00000000.00000000 00001010.00100010.00010111.10000110 11111111.11111111.00000000.00000000 00001010.00100010.00000000.00000000 Convirtiendo el resultado a una notación decimal separada por puntos, se obtiene 10.0.0.0 que es la parte de red de la dirección IP cuando se utiliza la máscara 255.0.0.0. La ejecución de una operación AND booleana de la dirección IP 10.34.23.134 y la máscara de subred 255.255.0.0 da como resultado la dirección de red de este host: Convirtiendo el resultado a una notación decimal separada por puntos, se obtiene 10.34.0.0 que es la parte de

Page 10: Semestre1 Ccna

red de la dirección IP cuando se utiliza la máscara 255.255.0.0. La siguiente es una ilustración breve del efecto que tiene la máscara de red sobre una dirección IP. La importancia de las máscaras se hará mucho más evidente a medida que se trabaje más con las direcciones IP. Por el momento, sólo hay que comprender el concepto de lo que es una máscara. Módulo 2: Aspectos básicos de Networking Descripción general El ancho de banda es un componente fundamental de networking. Las decisiones sobre el ancho de banda figuran entre las más importantes al diseñar una red. En este módulo se analiza la importancia del ancho de banda, y se explica cómo calcularlo y cómo medirlo. Las funciones de networking se describen usando modelos divididos en capas. Este módulo abarca los dos modelos más importantes, que son el modelo de Internetworking de Sistemas Abiertos (OSI) y el modelo de Protocolo de control de transmisión/Protocolo Internet (TCP/IP). En el módulo también se exponen las diferencias y similitudes entre ambos modelos. Además, este módulo presenta una breve historia de networking. También describe los dispositivos de red, al igual que las disposiciones físicas, lógicas y del cableado. Este modulo además define y compara las LAN, MAN, WAN, SAN y VPN. Los estudiantes que completen este módulo deberán poder: * Explicar la importancia del ancho de banda en networking. * Explicar lo que es el ancho de banda a partir de una analogía basada en su propia experiencia. * Identificar bps, kbps, Mbps, y Gbps como unidades de ancho de banda. * Explicar la diferencia entre ancho de banda y tasa de transferencia. * Calcular velocidades de transferencia de datos. * Explicar por qué se utilizan modelos divididos en capas para describir la comunicación de datos. * Explicar el desarrollo del modelo de Internetworking de Sistemas Abiertos (OSI). * Detallar las ventajas de un enfoque dividido en capas. * Identificar cada una de las siete capas del modelo OSI. * Identificar las cuatro capas del modelo TCP/IP. * Describir las similitudes y diferencias entre ambos modelos. * Poder relatar brevemente la historia de networking. * Identificar los dispositivos utilizados en networking. * Comprender la función de los protocolos en networking. * Definir LAN, WAN, MAN y SAN. * Explicar las VPN y sus ventajas. * Describir las diferencias entre redes internas y externas. 2.1 Terminología de networking 2.1.1 Redes de datos Las redes de datos se desarrollaron como consecuencia de aplicaciones comerciales diseñadas para microcomputadores. Por aquel entonces, los microcomputadores no estaban conectados entre sí como sí lo estaban las terminales de computadores mainframe, por lo cual no había una manera eficaz de compartir datos entre varios computadores. Se tornó evidente que el uso de disquetes para compartir datos no era un método eficaz ni económico para desarrollar la actividad empresarial. La red a pie creaba copias múltiples de los datos. Cada vez que se modificaba un archivo, había que volver a compartirlo con el resto de sus usuarios. Si dos usuarios modificaban el archivo, y luego intentaban compartirlo, se perdía alguno de los dos conjuntos de modificaciones. Las empresas necesitaban una solución que resolviera con éxito los tres problemas siguientes: * Cómo evitar la duplicación de equipos informáticos y de otros recursos * Cómo comunicarse con eficiencia * Cómo configurar y administrar una red Las empresas se dieron cuenta de que la tecnología de networking podía aumentar la productividad y ahorrar gastos. Las redes se agrandaron y extendieron casi con la misma rapidez con la que se lanzaban nuevas tecnologías y productos de red. A principios de la década de 1980 networking se expandió enormemente, aun cuando en sus inicios su desarrollo fue desorganizado. A mediados de la década de 1980, las tecnologías de red que habían emergido se habían creado con implementaciones de hardware y software distintas. Cada empresa dedicada a crear hardware y software para redes utilizaba sus propios estándares corporativos. Estos estándares individuales se desarrollaron como consecuencia de la competencia con otras empresas. Por lo tanto, muchas de las nuevas tecnologías no eran compatibles entre sí. Se tornó cada vez más difícil la comunicación entre redes que usaban distintas

Page 11: Semestre1 Ccna

especificaciones. Esto a menudo obligaba a deshacerse de los equipos de la antigua red al implementar equipos de red nuevos. Una de las primeras soluciones fue la creación de los estándares de Red de área local (LAN - Local Area Network, en inglés). Como los estándares LAN proporcionaban un conjunto abierto de pautas para la creación de hardware y software de red, se podrían compatibilizar los equipos provenientes de diferentes empresas. Esto permitía la estabilidad en la implementación de las LAN. En un sistema LAN, cada departamento de la empresa era una especie de isla electrónica. A medida que el uso de los computadores en las empresas aumentaba, pronto resultó obvio que incluso las LAN no eran suficientes. Lo que se necesitaba era una forma de que la información se pudiera transferir rápidamente y con eficiencia, no solamente dentro de una misma empresa sino también de una empresa a otra. La solución fue la creación de redes de área metropolitana (MAN) y redes de área amplia (WAN). Como las WAN podían conectar redes de usuarios dentro de áreas geográficas extensas, permitieron que las empresas se comunicaran entre sí a través de grandes distancias. La Figura resume las dimensiones relativas de las LAN y las WAN. 2.1.2 Historia de las redes informáticas La historia de networking informática es compleja. Participaron en ella muchas personas de todo el mundo a lo largo de los últimos 35 años. Presentamos aquí una versión simplificada de la evolución de la Internet. Los procesos de creación y comercialización son mucho más complicados, pero es útil analizar el desarrollo fundamental. En la década de 1940, los computadores eran enormes dispositivos electromecánicos que eran propensos a sufrir fallas. En 1947, la invención del transistor semiconductor permitió la creación de computadores más pequeños y confiables. En la década de 1950 los computadores mainframe, que funcionaban con programas en tarjetas perforadas, comenzaron a ser utilizados habitualmente por las grandes instituciones. A fines de esta década, se creó el circuito integrado, que combinaba muchos y, en la actualidad, millones de transistores en un pequeño semiconductor. En la década de 1960, los mainframes con terminales eran comunes, y los circuitos integrados comenzaron a ser utilizados de forma generalizada. Hacia fines de la década de 1960 y durante la década de 1970, se inventaron computadores más pequeños, denominados minicomputadores. Sin embargo, estos minicomputadores seguían siendo muy voluminosos en comparación con los estándares modernos. En 1977, la Apple Computer Company presentó el microcomputador, conocido también como computador personal. En 1981 IBM presentó su primer computador personal. El equipo Mac, de uso sencillo, el PC IBM de arquitectura abierta y la posterior microminiaturización de los circuitos integrados dieron como resultado el uso difundido de los computadores personales en hogares y empresas. A mediados de la década de 1980 los usuarios con computadores autónomos comenzaron a usar módems para conectarse con otros computadores y compartir archivos. Estas comunicaciones se denominaban comunicaciones punto-a-punto o de acceso telefónico. El concepto se expandió a través del uso de computadores que funcionaban como punto central de comunicación en una conexión de acceso telefónico. Estos computadores se denominaron tableros de boletín. Los usuarios se conectaban a los tableros de boletín, donde depositaban y levantaban mensajes, además de cargar y descargar archivos. La desventaja de este tipo de sistema era que había poca comunicación directa, y únicamente con quienes conocían el tablero de boletín. Otra limitación era la necesidad de un módem por cada conexión al computador del tablero de boletín. Si cinco personas se conectaban simultáneamente, hacían falta cinco módems conectados a cinco líneas telefónicas diferentes. A medida que crecía el número de usuarios interesados, el sistema no pudo soportar la demanda. Imagine, por ejemplo, que 500 personas quisieran conectarse de forma simultánea. A partir de la década de 1960 y durante las décadas de 1970, 1980 y 1990, el Departamento de Defensa de Estados Unidos (DoD) desarrolló redes de área amplia (WAN) de gran extensión y alta confiabilidad, para uso militar y científico. Esta tecnología era diferente de la comunicación punto-a-punto usada por los tableros de boletín. Permitía la internetworking de varios computadores mediante diferentes rutas. La red en sí determinaba la forma de transferir datos de un computador a otro. En lugar de poder comunicarse con un solo computador a la vez, se podía acceder a varios computadores mediante la misma conexión. La WAN del DoD finalmente se convirtió en la Internet. 2.1.3 Dispositivos de networking Los equipos que se conectan de forma directa a un segmento de red se denominan dispositivos. Estos dispositivos se clasifican en dos grandes grupos. El primer grupo está compuesto por los dispositivos de usuario final. Los dispositivos de usuario final incluyen los computadores, impresoras, escáneres, y demás dispositivos que brindan servicios directamente al usuario. El segundo grupo está formado por los dispositivos de red. Los dispositivos de red son todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su intercomunicación. Los dispositivos de usuario final que conectan a los usuarios con la red también se conocen con el nombre de hosts. Estos dispositivos permiten a los usuarios compartir, crear y obtener información. Los dispositivos host pueden existir sin una red, pero sin la red las capacidades de los hosts se ven sumamente limitadas. Los

Page 12: Semestre1 Ccna

dispositivos host están físicamente conectados con los medios de red mediante una tarjeta de interfaz de red (NIC). Utilizan esta conexión para realizar las tareas de envío de correo electrónico, impresión de documentos, escaneado de imágenes o acceso a bases de datos. Un NIC es una placa de circuito impreso que se coloca en la ranura de expansión de un bus de la motherboard de un computador, o puede ser un dispositivo periférico. También se denomina adaptador de red. Las NIC para computadores portátiles o de mano por lo general tienen el tamaño de una tarjeta PCMCIA. Cada NIC individual tiene un código único, denominado dirección de control de acceso al medio (MAC). Esta dirección se utiliza para controlar la comunicación de datos para el host de la red. Hablaremos más sobre la dirección MAC más adelante. Tal como su nombre lo indica, la NIC controla el acceso del host al medio. No existen símbolos estandarizados para los dispositivos de usuario final en la industria de networking. Son similares en apariencia a los dispositivos reales para permitir su fácil identificación. Los dispositivos de red son los que transportan los datos que deben transferirse entre dispositivos de usuario final. Los dispositivos de red proporcionanel tendido de las conexiones de cable, la concentración de conexiones, la conversión de los formatos de datos y la administración de transferencia de datos. Algunos ejemplos de dispositivos que ejecutan estas funciones son los repetidores, hubs, puentes, switches y routers. Todos los dispositivos de red que aquí se mencionan, se tratarán con mayor detalle más adelante en el curso. Por ahora se brinda una breve descripción general de los dispositivos de networking. Un repetidor es un dispositivo de red que se utiliza para regenerar una señal. Los repetidores regeneran señales analógicas o digitales que se distorsionan a causa de pérdidas en la transmisión producidas por la atenuación. Un repetidor no toma decisiones inteligentes acerca del envío de paquetes como lo hace un router o puente. Los hubs concentran las conexiones. En otras palabras, permiten que la red trate un grupo de hosts como si fuera una sola unidad. Esto sucede de manera pasiva, sin interferir en la transmisión de datos. Los hubs activos no sólo concentran hosts, sino que además regeneran señales. Los puentes convierten los formatos de transmisión de datos de la red además de realizar la administración básica de la transmisión de datos. Los puentes, tal como su nombre lo indica, proporcionan las conexiones entre LAN. Los puentes no sólo conectan las LAN, sino que además verifican los datos para determinar si les corresponde o no cruzar el puente. Esto aumenta la eficiencia de cada parte de la red. Los switches de grupos de trabajo agregan inteligencia a la administración de transferencia de datos. No sólo son capaces de determinar si los datos deben permanecer o no en una LAN, sino que pueden transferir los datos únicamente a la conexión que necesita esos datos. Otra diferencia entre un puente y un switch es que un switch no convierte formatos de transmisión de datos. Los routers poseen todas las capacidades indicadas arriba. Los routers pueden regenerar señales, concentrar múltiples conexiones, convertir formatos de transmisión de datos, y manejar transferencias de datos. También pueden conectarse a una WAN, lo que les permite conectar LAN que se encuentran separadas por grandes distancias. Ninguno de los demás dispositivos puede proporcionar este tipo de conexión. 2.1.4 Topología de red La topología de red define la estructura de una red. Una parte de la definición topológica es la topología física, que es la disposición real de los cables o medios. La otra parte es la topología lógica, que define la forma en que los hosts acceden a los medios para enviar datos. Las topologías físicas más comúnmente usadas son las siguientes: * Una topología de bus usa un solo cable backbone que debe terminarse en ambos extremos. Todos los hosts se conectan directamente a este backbone. * La topología de anillo conecta un host con el siguiente y al último host con el primero. Esto crea un anillo físico de cable. * La topología en estrella conecta todos los cables con un punto central de concentración. * Una topología en estrella extendida conecta estrellas individuales entre sí mediante la conexión de hubs o switches. Esta topología puede extender el alcance y la cobertura de la red. * Una topología jerárquica es similar a una estrella extendida. Pero en lugar de conectar los hubs o switches entre sí, el sistema se conecta con un computador que controla el tráfico de la topología. * La topología de malla se implementa para proporcionar la mayor protección posible para evitar una interrupción del servicio. El uso de una topología de malla en los sistemas de control en red de una planta nuclear sería un ejemplo excelente. Como se puede observar en el gráfico, cada host tiene sus propias conexiones con los demás hosts. Aunque la Internet cuenta con múltiples rutas hacia cualquier ubicación, no adopta la topología de malla completa. La topología lógica de una red es la forma en que los hosts se comunican a través del medio. Los dos tipos más comunes de topologías lógicas son broadcast y transmisión de tokens. La topología broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red. No existe una orden que las estaciones deban seguir para utilizar la red. Es por orden de llegada. Ethernet funciona así, tal como se explicará en el curso más adelante.

Page 13: Semestre1 Ccna

La segunda topología lógica es la transmisión de tokens. La transmisión de tokens controla el acceso a la red mediante la transmisión de un token electrónico a cada host de forma secuencial. Cuando un host recibe el token, ese host puede enviar datos a través de la red. Si el host no tiene ningún dato para enviar, transmite el token al siguiente host y el proceso se vuelve a repetir. Dos ejemplos de redes que utilizan la transmisión de tokens son Token Ring y la Interfaz de datos distribuida por fibra (FDDI). Arcnet es una variación de Token Ring y FDDI. Arcnet es la transmisión de tokens en una topología de bus. El diagrama en la Figura muestra diferentes topologías conectadas mediante dispositivos de red. Muestra una LAN de complejidad moderada que es típica de una escuela o de una pequeña empresa. Tiene muchos símbolos, y describe varios conceptos de networking que lleva cierto tiempo aprender. 2.1.5 Protocolos de red Los conjuntos de protocolos son colecciones de protocolos que posibilitan la comunicación de red desde un host, a través de la red, hacia otro host. Un protocolo es una descripción formal de un conjunto de reglas y convenciones que rigen un aspecto particular de cómo los dispositivos de una red se comunican entre sí. Los protocolos determinan el formato, la sincronización, la secuenciación y el control de errores en la comunicación de datos. Sin protocolos, el computador no puede armar o reconstruir el formato original del flujo de bits entrantes desde otro computador. Los protocolos controlan todos los aspectos de la comunicación de datos, que incluye lo siguiente: * Cómo se construye la red física * Cómo los computadores se conectan a la red * Cómo se formatean los datos para su transmisión * Cómo se envían los datos * Cómo se manejan los errores Estas normas de red son creadas y administradas por una serie de diferentes organizaciones y comités. Entre ellos se incluyen el Instituto de Ingeniería Eléctrica y Electrónica (IEEE), el Instituto Nacional Americano de Normalización (ANSI), la Asociación de la Industria de las Telecomunicaciones (TIA), la Asociación de Industrias Electrónicas (EIA) y la Unión Internacional de Telecomunicaciones (UIT), antiguamente conocida como el Comité Consultivo Internacional Telegráfico y Telefónico (CCITT). 2.1.6 Redes de área local (LAN) Las LAN constan de los siguientes componentes: * Computadores * Tarjetas de interfaz de red * Dispositivos periféricos * Medios de networking * Dispositivos de networking Las LAN permiten a las empresas aplicar tecnología informática para compartir localmente archivos e impresoras de manera eficiente, y posibilitar las comunicaciones internas. Un buen ejemplo de esta tecnología es el correo electrónico. Los que hacen es conectar los datos, las comunicaciones locales y los equipos informáticos. Algunas de las tecnologías comunes de LAN son: * Ethernet * Token Ring * FDDI 2.1.7 Redes de área amplia (WAN) Las WAN interconectan las LAN, que a su vez proporcionan acceso a los computadores o a los servidores de archivos ubicados en otros lugares. Como las WAN conectan redes de usuarios dentro de un área geográfica extensa, permiten que las empresas se comuniquen entre sí a través de grandes distancias. Las WAN permiten que los computadores, impresoras y otros dispositivos de una LAN compartan y sean compartidas por redes en sitios distantes. Las WAN proporcionan comunicaciones instantáneas a través de zonas geográficas extensas. El software de colaboración brinda acceso a información en tiempo real y recursos que permiten realizar reuniones entre personas separadas por largas distancias, en lugar de hacerlas en persona. Networking de área amplia también dio lugar a una nueva clase de trabajadores, los empleados a distancia, que no tienen que salir de sus hogares para ir a trabajar. Las WAN están diseñadas para realizar lo siguiente: * Operar entre áreas geográficas extensas y distantes

Page 14: Semestre1 Ccna

* Posibilitar capacidades de comunicación en tiempo real entre usuarios * Brindar recursos remotos de tiempo completo, conectados a los servicios locales * Brindar servicios de correo electrónico, World Wide Web, transferencia de archivos y comercio electrónico Algunas de las tecnologías comunes de WAN son: * Módems * Red digital de servicios integrados (RDSI) * Línea de suscripción digital (DSL - Digital Subscriber Line) * Frame Relay * Series de portadoras para EE.UU. (T) y Europa (E): T1, E1, T3, E3 * Red óptica síncrona (SONET ) 2.1.8 Redes de área metropolitana (MAN) La MAN es una red que abarca un área metropolitana, como, por ejemplo, una ciudad o una zona suburbana. Una MAN generalmente consta de una o más LAN dentro de un área geográfica común. Por ejemplo, un banco con varias sucursales puede utilizar una MAN. Normalmente, se utiliza un proveedor de servicios para conectar dos o más sitios LAN utilizando líneas privadas de comunicación o servicios ópticos. También se puede crear una MAN usando tecnologías de puente inalámbrico enviando haces de luz a través de áreas públicas. 2.1.9 Redes de área de almacenamiento (SAN) Una SAN es una red dedicada, de alto rendimiento, que se utiliza para trasladar datos entre servidores y recursos de almacenamiento. Al tratarse de una red separada y dedicada, evita todo conflicto de tráfico entre clientes y servidores. La tecnología SAN permite conectividad de alta velocidad, de servidor a almacenamiento, almacenamiento a almacenamiento, o servidor a servidor. Este método usa una infraestructura de red por separado, evitando así cualquier problema asociado con la conectividad de las redes existentes. Las SAN poseen las siguientes características: * Rendimiento: Las SAN permiten el acceso concurrente de matrices de disco o cinta por dos o más servidores a alta velocidad, proporcionando un mejor rendimiento del sistema. * Disponibilidad: Las SAN tienen una tolerancia incorporada a los desastres, ya que se puede hacer una copia exacta de los datos mediante una SAN hasta una distancia de10 kilómetros (km) o 6,2 millas. * Escalabilidad: Al igual que una LAN/WAN, puede usar una amplia gama de tecnologías. Esto permite la fácil reubicación de datos de copia de seguridad, operaciones, migración de archivos, y duplicación de datos entre sistemas. 2.1.10 Red privada virtual (VPN) Una VPN es una red privada que se construye dentro de una infraestructura de red pública, como la Internet global. Con una VPN, un empleado a distancia puede acceder a la red de la sede de la empresa a través de Internet, formando un túnel seguro entre el PC del empleado y un router VPN en la sede. 2.1.11 Ventajas de las VPN Los productos Cisco admiten la más reciente tecnología de VPN. La VPN es un servicio que ofrece conectividad segura y confiable en una infraestructura de red pública compartida, como la Internet. Las VPN conservan las mismas políticas de seguridad y administración que una red privada. Son la forma más económica de establecer una conexión punto-a-punto entre usuarios remotos y la red de un cliente de la empresa. A continuación se describen los tres principales tipos de VPN: * VPN de acceso: Las VPN de acceso brindan acceso remoto a un trabajador móvil y una oficina pequeña/oficina hogareña (SOHO), a la sede de la red interna o externa, mediante una infraestructura compartida. Las VPN de acceso usan tecnologías analógicas, de acceso telefónico, RDSI, línea de suscripción digital (DSL), IP móvil y de cable para brindar conexiones seguras a usuarios móviles, empleados a distancia y sucursales. * Redes internas VPN: Las redes internas VPN conectan a las oficinas regionales y remotas a la sede de la red interna mediante una infraestructura compartida, utilizando conexiones dedicadas. Las redes internas VPN difieren de las redes externas VPN, ya que sólo permiten el acceso a empleados de la empresa. * Redes externas VPN: Las redes externas VPN conectan a socios comerciales a la sede de la red mediante una infraestructura compartida, utilizando conexiones dedicadas. Las redes externas VPN difieren de las redes internas VPN, ya que permiten el acceso a usuarios que no pertenecen a la empresa. 2.1.12 Redes internas y externas Una de las configuraciones comunes de una LAN es una red interna, a veces denominada "intranet". Los

Page 15: Semestre1 Ccna

servidores de Web de red interna son distintos de los servidores de Web públicos, ya que es necesario que un usuario público cuente con los correspondientes permisos y contraseñas para acceder a la red interna de una organización. Las redes internas están diseñadas para permitir el acceso por usuarios con privilegios de acceso a la LAN interna de la organización. Dentro de una red interna, los servidores de Web se instalan en la red. La tecnología de navegador se utiliza como interfaz común para acceder a la información, por ejemplo datos financieros o datos basados en texto y gráficos que se guardan en esos servidores. Las redes externas hacen referencia a aplicaciones y servicios basados en la red interna, y utilizan un acceso extendido y seguro a usuarios o empresas externas Este acceso generalmente se logra mediante contraseñas, identificaciones de usuarios, y seguridad a nivel de las aplicaciones. Por lo tanto, una red externa es la extensión de dos o más estrategias de red interna, con una interacción segura entre empresas participantes y sus respectivas redes internas. 2.2 Ancho de banda 2.2.1 Importancia del ancho de banda El ancho de banda se define como la cantidad de información que puede fluir a través de una conexión de red en un período dado Es esencial comprender el concepto de ancho de banda al estudiar networking, por las siguientes cuatro razones: 1. El ancho de banda es finito. En otras palabras, independientemente del medio que se utilice para construir la red, existen límites para la capacidad de la red para transportar información. El ancho de banda está limitado por las leyes de la física y por las tecnologías empleadas para colocar la información en los medios. Por ejemplo, el ancho de banda de un módem convencional está limitado a alrededor de 56 kpbs por las propiedades físicas de los cables telefónicos de par trenzado y por la tecnología de módems. No obstante, las tecnologías empleadas por DSL utilizan los mismos cables telefónicos de par trenzado, y sin embargo DSL ofrece un ancho de banda mucho mayor que los módems convencionales. Esto demuestra que a veces es difícil definir los límites impuestos por las mismas leyes de la física. La fibra óptica posee el potencial físico para proporcionar un ancho de banda prácticamente ilimitado. Aun así, el ancho de banda de la fibra óptica no se puede aprovechar en su totalidad, en tanto no se desarrollen tecnologías que aprovechen todo su potencial. 2. El ancho de banda no es gratuito. Es posible adquirir equipos para una red de área local (LAN) capaz de brindar un ancho de banda casi ilimitado durante un período extendido de tiempo. Para conexiones de red de área amplia (WAN), casi siempre hace falta comprar el ancho de banda de un proveedor de servicios. En ambos casos, comprender el significado del ancho de banda, y los cambios en su demanda a través del tiempo, pueden ahorrarle importantes sumas de dinero a un individuo o a una empresa. Un administrador de red necesita tomar las decisiones correctas con respecto al tipo de equipo y servicios que debe adquirir. 3. El ancho de banda es un factor clave a la hora de analizar el rendimiento de una red, diseñar nuevas redes y comprender la Internet. Un profesional de networking debe comprender el fuerte impacto del ancho de banda y la tasa de transferencia en el rendimiento y el diseño de la red. La información fluye en una cadena de bits de un computador a otro en todo el mundo. Estos bits representan enormes cantidades de información que fluyen de ida y de vuelta a través del planeta en segundos, o menos. En cierto sentido, puede ser correcto afirmar que la Internet es puro ancho de banda. 4. La demanda de ancho de banda no para de crecer. No bien se construyen nuevas tecnologías e infraestructuras de red para brindar mayor ancho de banda, se crean nuevas aplicaciones que aprovechan esa mayor capacidad. La entrega de contenidos de medios enriquecidos a través de la red, incluyendo video y audio fluido, requiere muchísima cantidad de ancho de banda. Hoy se instalan comúnmente sistemas telefónicos IP en lugar de los tradicionales sistemas de voz, lo que contribuye a una mayor necesidad de ancho de banda. Un profesional de networking exitoso debe anticiparse a la necesidad de mayor ancho de banda y actuar en función de eso. 2.2.2 El escritorio El ancho de banda se define como la cantidad de información que puede fluir a través de una red en un período dado. La idea de que la información fluye, sugiere dos analogías que podrían facilitar la visualización del ancho de banda en una red. Ya que se dice que el agua y el tráfico fluyen, vea las siguientes analogías: 1. El ancho de banda es similar al diámetro de un caño. Una red de tuberías trae agua potable a los hogares y las empresas y se lleva las aguas servidas. Esta red de agua está compuesta de tuberías de diferentes diámetros. Las principales tuberías de agua de una ciudad pueden medir dos metros de diámetro, en tanto que la tubería de un grifo de cocina puede medir apenas dos centímetros. El ancho de la tubería determina su capacidad de transporte de agua. Por lo tanto, el agua es como los datos, y el ancho de la tubería es como el ancho de banda. Muchos expertos en networking dicen que necesitan poner tuberías más grandes si desean agregar capacidad para transportar información. 2. El ancho de banda también puede compararse con la cantidad de carriles de una autopista. Una red de caminos sirve a cada ciudad o pueblo. Las grandes autopistas con muchos carriles se conectan a caminos más pequeños con menor cantidad de carriles. Estos caminos llevan a otros aún más pequeños y estrechos, que

Page 16: Semestre1 Ccna

eventualmente desembocan en las entradas de las casas y las oficinas. Cuando hay poco tráfico en el sistema de autopistas, cada vehículo puede moverse con libertad. Al agregar más tráfico, cada vehículo se mueve con menor velocidad. Esto es particularmente verdadero en caminos con menor cantidad de carriles disponibles para la circulación del tráfico. Eventualmente, a medida que se suma tráfico al sistema de autopistas, hasta aquéllas con varios carriles se congestionan y vuelven más lentas. Una red de datos se parece mucho al sistema de autopistas. Los paquetes de datos son comparables a los automóviles, y el ancho de banda es comparable a la cantidad de carriles en una autopista. Cuando uno piensa en una red de datos en términos de un sistema de autopistas, es fácil ver cómo las conexiones con ancho de banda reducido pueden provocar congestiones de tráfico en toda la red. 2.2.3 Medición En los sistemas digitales, la unidad básica del ancho de banda es bits por segundo (bps). El ancho de banda es la medición de la cantidad de información, o bits, que puede fluir desde un lugar hacia otro en un período de tiempo determinado, o segundos. Aunque el ancho de banda se puede describir en bits por segundo, se suelen usar múltiplos de bits por segundo. En otras palabras, el ancho de banda de una red generalmente se describe en términos de miles de bits por segundo (kbps), millones de bits por segundo (Mbps), miles de millones de bits por segundo (Gbps) y billones de bits por segundo (Tbps). A pesar de que las expresiones ancho de banda y velocidad a menudo se usan en forma indistinta, no significan exactamente lo mismo. Se puede decir, por ejemplo, que una conexión T3 a 45Mbps opera a una velocidad mayor que una conexión T1 a 1,544Mbps. No obstante, si sólo se utiliza una cantidad pequeña de su capacidad para transportar datos, cada uno de estos tipos de conexión transportará datos a aproximadamente la misma velocidad. Por ejemplo, una cantidad pequeña de agua fluirá a la misma velocidad por una tubería pequeña y por una tubería grande. Por lo tanto, suele ser más exacto decir que una conexión T3 posee un mayor ancho de banda que una conexión T1. Esto es así porque la conexión T3 posee la capacidad para transportar más información en el mismo período de tiempo, y no porque tenga mayor velocidad. 2.2.4 Limitaciones El ancho de banda varía según el tipo de medio, además de las tecnologías LAN y WAN utilizadas. La física de los medios fundamenta algunas de las diferencias. Las señales se transmiten a través de cables de cobre de par trenzado, cables coaxiales, fibras ópticas, y por el aire. Las diferencias físicas en las formas en que se transmiten las señales son las que generan las limitaciones fundamentales en la capacidad que posee un medio dado para transportar información. No obstante, el verdadero ancho de banda de una red queda determinado por una combinación de los medios físicos y las tecnologías seleccionadas para señalizar y detectar señales de red. Por ejemplo, la actual comprensión de la física de los cables de cobre de par trenzado no blindados (UTP) establece el límite teórico del ancho de banda en más de un gigabit por segundo (Gbps). Sin embargo, en la realidad, el ancho de banda queda determinado por el uso de Ethernet 10BASE-T, 100BASE-TX, o 1000BASE-TX. En otras palabras, el ancho de banda real queda determinado por los métodos de señalización, las tarjetas de interfaz de red (NIC) y los demás equipos de red seleccionados. Por lo tanto, el ancho de banda no sólo queda determinado por las limitaciones de los medios. La figura muestra algunos tipos comunes de medios de networking y los límites de distancia y ancho de banda al usar la tecnología de networking indicada. La figura resume los servicios WAN comunes y el ancho de banda asociado con cada servicio. 2.2.5 Tasa de transferencia El ancho de banda es la medida de la cantidad de información que puede atravesar la red en un período dado de tiempo. Por lo tanto, la cantidad de ancho de banda disponible es un punto crítico de la especificación de la red. Una LAN típica se podría construir para brindar 100 Mbps a cada estación de trabajo individual, pero esto no significa que cada usuario pueda realmente mover cien megabits de datos a través de la red por cada segundo de uso. Esto sólo podría suceder bajo las circunstancias más ideales. El concepto de tasa de transferencia nos ayudará a entender el motivo. La tasa de transferencia se refiere a la medida real del ancho de banda, en un momento dado del día, usando rutas de Internet específicas, y al transmitirse un conjunto específico de datos. Desafortunadamente, por varios motivos, la tasa de transferencia a menudo es mucho menor que el ancho de banda digital máximo posible del medio utilizado. A continuación se detallan algunos de los factores que determinan la tasa de transferencia: * Dispositivos de internetworking * Tipo de datos que se transfieren * Topología de la red * Cantidad de usuarios en la red * Computador del usuario * Computador servidor * Estado de la alimentación

Page 17: Semestre1 Ccna

El ancho de banda teórico de una red es una consideración importante en el diseño de la red, porque el ancho de banda de la red jamás será mayor que los límites impuestos por los medios y las tecnologías de networking escogidos. No obstante, es igual de importante que un diseñador y administrador de redes considere los factores que pueden afectar la tasa de transferencia real. Al medir la tasa de transferencia regularmente, un administrador de red estará al tanto de los cambios en el rendimiento de la red y los cambios en las necesidades de los usuarios de la red. Así la red se podrá ajustar en consecuencia. 2.2.6 Cálculo de la transferencia de datos A menudo se convoca a los diseñadores y administradores de red para tomar decisiones con respecto al ancho de banda. Una decisión podría ser sobre la necesidad de incrementar el tamaño de la conexión WAN para agregar una nueva base de datos. Otra decisión podría ser si el ancho de banda del actual backbone de la LAN alcanza para un programa de capacitación con video fluido. Las respuestas a este tipo de problemas no siempre son fáciles de hallar, pero se puede comenzar con un cálculo sencillo de transferencia de datos. Aplicando la fórmula tiempo de transferencia = tamaño del archivo / ancho de banda (T=Tm/AB), un administrador de red puede estimar varios de los importantes componentes del rendimiento de una red. Si se conoce el tamaño típico de un archivo para una aplicación dada, al dividir el tamaño del archivo por el ancho de banda de la red, se obtiene una estimación del tiempo más rápido en el cual se puede transferir el archivo. Hay dos puntos importantes a considerar al realizar este cálculo: * El resultado no es más que un estimado, porque el tamaño del archivo no incluye el gasto agregado por el encapsulamiento. * Es probable que el resultado sea el tiempo de transferencia en el mejor de los casos, ya que el ancho de banda disponible casi nunca está en el máximo teórico para el tipo de red. Se puede obtener un estimado más preciso sustituyendo el ancho de banda por la tasa de transferencia en la ecuación. Aunque el cálculo de transferencia de datos es muy sencillo, es importante asegurarse de usar las mismas unidades a lo largo de toda la ecuación. En otras palabras, si el ancho de banda se mide en megabits por segundo (Mbps), el tamaño del archivo debe expresarse en megabits (Mb), y no en megabytes (MB). Como el tamaño de los archivos se suele expresar en megabytes, es posible que sea necesario multiplicar la cantidad de megabytes por ocho para convertirla a megabits. Intente responder la siguiente pregunta, aplicando la fórmula T=Tm/AB. Asegúrese de convertir las unidades de medida según sea necesario. ¿Llevaría menos tiempo enviar el contenido de un disquete (1,44 MB) lleno de datos a través de una línea RSDI, o enviar el contenido de un disco duro de 10 GB lleno de datos a través de una línea OC-48? 2.2.7 Digital versus analógico Hasta hace poco, las transmisiones de radio, televisión y teléfono se enviaban por aire y por cables utilizando ondas electromagnéticas. Estas ondas se denominan analógicas porque poseen la misma forma que las ondas de luz y sonido producidas por los transmisores. A medida que las ondas de luz y sonido cambian de tamaño y forma, la señal eléctrica que transporta la transmisión cambia proporcionalmente. En otras palabras, las ondas electromagnéticas son análogas a las ondas de luz y sonido. El ancho de banda analógico se mide en función de la cantidad de espectro magnético ocupada por cada señal. La unidad de medida básica del ancho de banda analógico es el hercio (Hz), o ciclos por segundo. Por lo general, se usan múltiplos de esta unidad de medida básica para anchos de banda analógicos, al igual que para los anchos de banda digitales. Las unidades de medida más comúnmente usadas son el kilohercio (KHz), el megahercio (MHz), y el gigahercio (GHz). Estas unidades se utilizan para describir las frecuencias de los teléfonos inalámbricos, que generalmente operan a 900 MHz o a 2,4 GHz. También son las unidades que se usan para describir las frecuencias de las redes inalámbricas 802.11a y 802.11b, que operan a 5GHz y 2,4 GHz. Aunque las señales analógicas pueden transportar una amplia gama de información, presentan algunas desventajas significativas en comparación con las transmisiones digitales. La señal de video analógico que requiere una amplia margen de frecuencia para la transmisión, no puede ser comprimida en una banda más pequeña. Por lo tanto, si no se dispone del ancho de banda analógico necesario, no se puede enviar la señal. En la señalización digital, toda la información se envía como bits, independientemente del tipo de información del cual se trate. Voz, video y datos se convierten todos en corrientes de bits al ser preparados para su transmisión a través de medios digitales. Este tipo de transmisión confiere al ancho de banda digital una importante ventaja sobre el ancho de banda analógico. Es posible enviar cantidades ilimitadas de información a través de un canal digital con el ancho de banda más pequeño o más bajo. Independientemente de lo que la información digital demore en llegar a su destino y reensamblarse, puede ser vista, oída, leída o procesada en su forma original. Es importante comprender las diferencias y similitudes entre el ancho de banda digital y analógico. Ambos tipos de ancho de banda existen en el campo de la tecnología informática. No obstante, como este curso trata

Page 18: Semestre1 Ccna

principalmente el networking digital, la expresión ‗ancho de banda‘ se referirá al ancho de banda digital. 2.3 Modelos de networking 2.3.1 Uso de capas para analizar problemas en un flujo de materiales El concepto de capas se utiliza para describir la comunicación entre dos computadores. La figura muestra un conjunto de preguntas relacionadas con flujo, que se define como el movimiento de objetos físicos o lógicos, a través de un sistema Estas preguntas muestran cómo el concepto de capas ayuda a describir los detalles del proceso de flujo. Este proceso puede referirse a cualquier tipo de flujo, desde el flujo del tráfico en un sistema de autopistas, al flujo de datos a través de una red. La figura muestra varios ejemplos de flujo, y formas en las que se puede desglosar el proceso de flujo en detalles o en capas. La conversación entre dos personas es un buen ejemplo para aplicar un enfoque en capas para analizar el flujo de información. En una conversación, cada persona que desea comunicarse comienza creando una idea. Luego se toma una decisión respecto de cómo comunicar la idea correctamente. Por ejemplo, una persona podría decidir si hablar, cantar o gritar, y qué idioma usar. Finalmente, la idea es comunicada. Por ejemplo, la persona crea el sonido que transmite el mensaje. Se puede desglosar este proceso en distintas capas aplicables a todas las conversaciones. La capa superior es la idea que se comunicará. La capa intermedia es la decisión respecto de cómo se comunicará la idea. La capa inferior es la creación del sonido que transmitirá la comunicación. El mismo método de división en capas explica cómo una red informática distribuye la información desde el origen al destino. Cuando los computadores envían información a través de una red, todas las comunicaciones se generan en un origen y luego viajan a un destino. Generalmente, la información que se desplaza por una red recibe el nombre de datos o paquete. Un paquete es una unidad de información, lógicamente agrupada, que se desplaza entre los sistemas de computación. A medida que los datos atraviesan las capas, cada capa agrega información que posibilita una comunicación eficaz con su correspondiente capa en el otro computador. Los modelos OSI y TCP/IP se dividen en capas que explican cómo los datos se comunican de un computador a otro. Los modelos difieren en la cantidad y la función de las capas. No obstante, se puede usar cada modelo para ayudar a describir y brindar detalles sobre el flujo de información desde un origen a un destino. 2.3.2 Uso de capas para describir la comunicación de datos Para que los paquetes de datos puedan viajar desde el origen hasta su destino a través de una red, es importante que todos los dispositivos de la red hablen el mismo lenguaje o protocolo. Un protocolo es un conjunto de reglas que hacen que la comunicación en una red sea más eficiente. Por ejemplo, al pilotar un avión, los pilotos obedecen reglas muy específicas para poder comunicarse con otros aviones y con el control de tráfico aéreo. Un protocolo de comunicaciones de datos es un conjunto de normas, o un acuerdo, que determina el formato y la transmisión de datos. La Capa 4 del computador de origen se comunica con la Capa 4 del computador de destino. Las normas y convenciones utilizadas para esta capa reciben el nombre de protocolos de la Capa 4. Es importante recordar que los protocolos preparan datos en forma lineal. El protocolo en una capa realiza un conjunto determinado de operaciones sobre los datos al prepararlos para ser enviados a través de la red. Los datos luego pasan a la siguiente capa, donde otro protocolo realiza otro conjunto diferente de operaciones. Una vez que el paquete llega a su destino, los protocolos deshacen la construcción del paquete que se armó en el extremo de origen. Esto se hace en orden inverso. Los protocolos para cada capa en el destino devuelven la información a su forma original, para que la aplicación pueda leer los datos correctamente. 2.3.3 Modelo OSI En sus inicios, el desarrollo de redes sucedió con desorden en muchos sentidos. A principios de la década de 1980 se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnología de networking, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red. Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de networking privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controla todo uso de la tecnología. Las tecnologías de networking que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.

Page 19: Semestre1 Ccna

Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional de Normalización (ISO) investigó modelos de networking como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. En base a esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes. El modelo de referencia de Interconexión de Sistemas Abiertos (OSI) lanzado en 1984 fue el modelo de red descriptivo creado por ISO. Proporcionó a los fabricantes un conjunto de estándares que aseguraron una mayor compatibilidad e interoperabilidad entre los distintos tipos de tecnología de red producidos por las empresas a nivel mundial. El modelo de referencia OSI se ha convertido en el modelo principal para las comunicaciones por red. Aunque existen otros modelos, la mayoría de los fabricantes de redes relacionan sus productos con el modelo de referencia de OSI. Esto es en particular así cuando lo que buscan es enseñar a los usuarios a utilizar sus productos. Se considera la mejor herramienta disponible para enseñar cómo enviar y recibir datos a través de una red. 2.3.4 Las capas del modelo OSI El modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la información a través de una red. El modelo de referencia OSI explica de qué manera los paquetes de datos viajan a través de varias capas a otro dispositivo de una red, aun cuando el remitente y el destinatario poseen diferentes tipos de medios de red. En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función de red específica. - La división de la red en siete capas permite obtener las siguientes ventajas: * Divide la comunicación de red en partes más pequeñas y fáciles de manejar. * Normaliza los componentes de red para permitir el desarrollo y el soporte de los productos por diferentes fabricantes.z * Permite a los distintos tipos de hardware y software de red comunicarse entre sí. * Evita que los cambios en una capa afecten las otras capas. * Divide la comunicación de red en partes más pequeñas para simplificar el aprendizaje. 2.3.5 Comunicaciones de par a par Para que los datos puedan viajar desde el origen hasta su destino, cada capa del modelo OSI en el origen debe comunicarse con su capa par en el lugar destino. Esta forma de comunicación se conoce como de par-a-par. Durante este proceso, los protocolos de cada capa intercambian información, denominada unidades de datos de protocolo (PDU). Cada capa de comunicación en el computador origen se comunica con un PDU específico de capa, y con su capa par en el computador destino, como lo ilustra la figura . Los paquetes de datos de una red parten de un origen y se envían a un destino. Cada capa depende de la función de servicio de la capa OSI que se encuentra debajo de ella. Para brindar este servicio, la capa inferior utiliza el encapsulamiento para colocar la PDU de la capa superior en su campo de datos, luego le puede agregar cualquier encabezado e información final que la capa necesite para ejecutar su función. Posteriormente, a medida que los datos se desplazan hacia abajo a través de las capas del modelo OSI, se agregan encabezados e información final adicionales. Después de que las Capas 7, 6 y 5 han agregado su información, la Capa 4 agrega más información. Este agrupamiento de datos, la PDU de la Capa 4, se denomina segmento. La capa de red presta un servicio a la capa de transporte y la capa de transporte presenta datos al subsistema de internetwork. La tarea de la capa de red consiste en trasladar esos datos a través de la internetwork. Ejecuta esta tarea encapsulando los datos y agregando un encabezado, con lo que crea un paquete (la PDU de la Capa 3). Este encabezado contiene la información necesaria para completar la transferencia, como, por ejemplo, las direcciones lógicas origen y destino. La capa de enlace de datos suministra un servicio a la capa de red. Encapsula la información de la capa de red en una trama (la PDU de la Capa 2). El encabezado de trama contiene la información (por ejemplo, las direcciones físicas) que se requiere para completar las funciones de enlace de datos. La capa de enlace de datos suministra un servicio a la capa de red encapsulando la información de la capa de red en una trama. La capa física también suministra un servicio a la capa de enlace de datos. La capa física codifica los datos de la trama de enlace de datos en un patrón de unos y ceros (bits) para su transmisión a través del medio (generalmente un cable) en la Capa 1. 2.3.6 Modelo TCP/IP El estándar histórico y técnico de la Internet es el modelo TCP/IP. El Departamento de Defensa de EE.UU. (DoD) creó el modelo de referencia TCP/IP porque necesitaba diseñar una red que pudiera sobrevivir ante cualquier circunstancia, incluso una guerra nuclear. En un mundo conectado por diferentes tipos de medios de

Page 20: Semestre1 Ccna

comunicación, como alambres de cobre, microondas, fibras ópticas y enlaces satelitales, el DoD quería que la transmisión de paquetes se realizara cada vez que se iniciaba y bajo cualquier circunstancia. Este difícil problema de diseño dio origen a la creación del modelo TCP/IP. A diferencia de las tecnologías de networking propietarias mencionadas anteriormente, el TCP/IP se desarrolló como un estándar abierto. Esto significaba que cualquier persona podía usar el TCP/IP. Esto contribuyó a acelerar el desarrollo de TCP/IP como un estándar. El modelo TCP/IP tiene las siguientes cuatro capas: * Capa de aplicación * Capa de transporte * Capa de Internet * Capa de acceso a la red Aunque algunas de las capas del modelo TCP/IP tienen el mismo nombre que las capas del modelo OSI, las capas de ambos modelos no se corresponden de manera exacta. Lo más notable es que la capa de aplicación posee funciones diferentes en cada modelo. Los diseñadores de TCP/IP sintieron que la capa de aplicación debía incluir los detalles de las capas de sesión y presentación OSI. Crearon una capa de aplicación que maneja aspectos de representación, codificación y control de diálogo. La capa de transporte se encarga de los aspectos de calidad del servicio con respecto a la confiabilidad, el control de flujo y la corrección de errores. Uno de sus protocolos, el protocolo para el control de la transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear comunicaciones de red confiables, sin problemas de flujo y con un nivel de error bajo. TCP es un protocolo orientado a conexión. Mantiene un diálogo entre el origen y el destino mientras empaqueta la información de la capa de aplicación en unidades denominadas segmentos. Orientado a conexión no significa que existe un circuito entre los computadores que se comunican. Significa que segmentos de la Capa 4 viajan de un lado a otro entre dos hosts para comprobar que la conexión exista lógicamente para un determinado período. El propósito de la capa Internet es dividir los segmentos TCP en paquetes y enviarlos desde cualquier red. Los paquetes llegan a la red de destino independientemente de la ruta que utilizaron para llegar allí. El protocolo específico que rige esta capa se denomina Protocolo Internet (IP). En esta capa se produce la determinación de la mejor ruta y la conmutación de paquetes. La relación entre IP y TCP es importante. Se puede pensar en el IP como el que indica el camino a los paquetes, en tanto que el TCP brinda un transporte seguro. El nombre de la capa de acceso de red es muy amplio y se presta a confusión. También se conoce como la capa de host a red. Esta capa guarda relación con todos los componentes, tanto físicos como lógicos, necesarios para lograr un enlace físico. Incluye los detalles de tecnología de networking, y todos los detalles de las capas física y de enlace de datos del modelo OSI. La figura ilustra algunos de los protocolos comunes especificados por las capas del modelo de referencia TCP/IP. Algunos de los protocolos de capa de aplicación más comúnmente usados incluyen los siguientes: * Protocolo de Transferencia de Archivos (FTP) * Protocolo de Transferencia de Hipertexto (HTTP) * Protocolo simple de transferencia de correo (SMTP) * Sistema de denominación de dominios (DNS) * Protocolo Trivial de Transferencia de Archivos (TFTP) Los protocolos de capa de transporte comunes incluyen: * Protocolo para el Control del Transporte (TCP) * Protocolo de Datagrama de Usuario (UDP) El protocolo principal de la capa Internet es: * Protocolo Internet (IP) La capa de acceso de red se refiere a cualquier tecnología en particular utilizada en una red específica. Independientemente de los servicios de aplicación de red que se brinden y del protocolo de transferencia que se utilice, existe un solo protocolo de Internet, IP. Esta es una decisión de diseño deliberada. IP sirve como protocolo universal que permite que cualquier computador en cualquier parte del mundo pueda comunicarse en cualquier momento.

Page 21: Semestre1 Ccna

Comparando el modelo OSI con los modelos TCP/IP, surgen algunas similitudes y diferencias. Las similitudes incluyen: * Ambos se dividen en capas. * Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos. * Ambos tienen capas de transporte y de red similares. * Ambos modelos deben ser conocidos por los profesionales de networking. * Ambos suponen que se conmutan paquetes. Esto significa que los paquetes individuales pueden usar rutas diferentes para llegar al mismo destino. Esto se contrasta con las redes conmutadas por circuito, en las que todos los paquetes toman la misma ruta. Las diferencias incluyen: * TCP/IP combina las funciones de la capa de presentación y de sesión en la capa de aplicación. * TCP/IP combina la capa de enlace de datos y la capa física del modelo OSI en la capa de acceso de red. * TCP/IP parece ser más simple porque tiene menos capas. * Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló la Internet, de modo que la credibilidad del modelo TCP/IP se debe en gran parte a sus protocolos. En comparación, por lo general las redes no se desarrollan a partir del protocolo OSI, aunque el modelo OSI se usa como guía. Aunque los protocolos TCP/IP representan los estándares en base a los cuales se ha desarrollado la Internet, este currículum utiliza el modelo OSI por los siguientes motivos: * Es un estándar genérico, independiente de los protocolos. * Es más detallado, lo que hace que sea más útil para la enseñanza y el aprendizaje. * Al ser más detallado, resulta de mayor utilidad para el diagnóstico de fallas. Los profesionales de networking tienen distintas opiniones con respecto al modelo que se debe usar. Dada la naturaleza de esta industria, es necesario familiarizarse con ambos. A lo largo de todo el currículum se hará referencia a ambos modelos, el OSI y el TCP/IP. Se hará énfasis en lo siguiente: * TCP como un protocolo de Capa 4 OSI * IP como un protocolo de Capa 3 OSI * Ethernet como una tecnología de Capa 2 y Capa 1 Recuerden que hay una diferencia entre un modelo y un protocolo que realmente se utiliza en networking. Se utilizará el modelo OSI para describir protocolos TCP/IP. 2.3.7 Proceso detallado de encapsulamiento Todas las comunicaciones de una red parten de un origen y se envían a un destino. La información que se envía a través de una red se denomina datos o paquetes de datos. Si un computador (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse a través de un proceso denominado encapsulamiento. El encapsulamiento rodea los datos con la información de protocolo necesaria antes de que se una al tránsito de la red. Por lo tanto, a medida que los datos se desplazan a través de las capas del modelo OSI, reciben encabezados, información final y otros tipos de información. Para ver cómo se produce el encapsulamiento, examine la forma en que los datos viajan a través de las capas como lo ilustra la figura . Una vez que se envían los datos desde el origen, viajan a través de la capa de aplicación y recorren todas las demás capas en sentido descendente. El empaquetamiento y el flujo de los datos que se intercambian experimentan cambios a medida que las capas realizan sus funciones para los usuarios finales. Como lo muestra la figura , las redes deben realizar los siguientes cinco pasos de conversión a fin de encapsular los datos: 1. Crear los datos. Cuando un usuario envía un mensaje de correo electrónico, sus caracteres alfanuméricos se convierten en datos que pueden recorrer la internetwork. 2. Empaquetar los datos para ser transportados de extremo a extremo. Los datos se empaquetan para ser transportados por la internetwork. Al utilizar segmentos, la función de transporte asegura que los hosts de mensaje en ambos extremos del sistema de correo electrónico se puedan comunicar de forma confiable. 3. Agregar la dirección de red IP al encabezado. Los datos se colocan en un paquete o datagrama que contiene un encabezado de paquete con las direcciones lógicas de origen y de destino. Estas direcciones ayudan a los dispositivos de red a enviar los paquetes a través de la red por una ruta seleccionada. 4. Agregar el encabezado y la información final de la capa de enlace de datos. Cada dispositivo de la red debe poner el paquete dentro de una trama. La trama le permite conectarse al próximo dispositivo de red conectado

Page 22: Semestre1 Ccna

directamente en el enlace. Cada dispositivo en la ruta de red seleccionada requiere el entramado para poder conectarse al siguiente dispositivo. 5. Realizar la conversión a bits para su transmisión. La trama debe convertirse en un patrón de unos y ceros (bits) para su transmisión a través del medio. Una función de temporización permite que los dispositivos distingan estos bits a medida que se trasladan por el medio. El medio en la internetwork física puede variar a lo largo de la ruta utilizada. Por ejemplo, el mensaje de correo electrónico se puede originar en una LAN, atravesar el backbone de una universidad y salir por un enlace WAN hasta llegar a su destino en otra LAN remota. Módulo 3: Medios de Networking Descripción general El cable de cobre se utiliza en casi todas las LAN. Hay varios tipos de cable de cobre disponibles en el mercado, y cada uno presenta ventajas y desventajas. La correcta selección del cableado es fundamental para que la red funcione de manera eficiente. Debido a que el cobre transporta información utilizando corriente eléctrica, es importante comprender algunos principios básicos de la electricidad a la hora de planear e instalar una red. La fibra óptica es el medio utilizado con mayor frecuencia en las transmisiones de punto a punto de mayor distancia y alto ancho de banda que requieren los backbones de LAN y las WAN. En los medios ópticos, se utiliza la luz para transmitir datos a través de una delgada fibra de vidrio o de plástico. Las señales eléctricas hacen que el transmisor de fibra óptica genere señales luminosas que son enviadas por la fibra. El host receptor recibe las señales luminosas y las convierte en señales eléctricas en el extremo opuesto de la fibra. Sin embargo, no hay electricidad en el cable de fibra óptica en sí. De hecho, el vidrio utilizado en el cable de fibra óptica es un muy buen aislante eléctrico. La conectividad física permitió un aumento en la productividad permitiendo que se compartan impresoras, servidores y software. Los sistemas tradicionales de red requieren que las estaciones de trabajo permanezcan estacionarias permitiendo movimientos sólo dentro del alcance de los medios y del área de la oficina. La introducción de la tecnología inalámbrica elimina estas limitaciones y otorga portabilidad real al mundo de la computación. En la actualidad, la tecnología inalámbrica no ofrece las transferencias a alta velocidad, la seguridad o la confiabilidad de tiempo de actividad que brindan las redes que usan cables. Sin embargo, la flexibilidad de no tener cables justifica el sacrificio de estas características. A menudo, los administradores tienen en cuenta las comunicaciones inalámbricas al instalar una nueva red o al actualizar una red existente. Una red inalámbrica puede empezar a funcionar sólo unos pocos minutos después de encender las estaciones de trabajo. Se proporciona la conectividad a Internet a través de una conexión con cable, router, cablemódem o módem DSL y un punto de acceso inalámbrico que sirve de hub para los nodos inalámbricos. En el entorno residencial o de una pequeña oficina, es posible combinar estos dispositivos en una sola unidad. Los estudiantes que completen este módulo deberán poder: * Discutir las propiedades eléctricas de la materia. * Definir voltaje, resistencia, impedancia, corriente y circuitos. * Describir las especificaciones y el rendimiento de los distintos tipos de cable. * Describir el cable coaxial y sus ventajas y desventajas en comparación con otros tipos de cable. * Describir el cable de par trenzado blindado (STP) y sus usos. * Describir el cable de par trenzado no blindado (UTP) y sus usos. * Discutir las características de los cables derechos, cruzados y transpuestos y dónde se utiliza cada uno. * Explicar los principios básicos del cable de fibra óptica. * Describir cómo las fibras pueden guiar la luz a través de largas distancias. * Describir la fibra monomodo y multimodo. * Describir cómo se instala la fibra. * Describir el tipo de conectores y equipos que se utilizan con el cable de fibra óptica. * Explicar cómo se prueba la fibra para asegurarse de que funcione correctamente. * Discutir los temas de seguridad relacionados con la fibra óptica. 3.1 Medios de cobre 3.1.1 Átomos y electrones Toda la materia del universo está constituida por átomos. La Tabla Periódica de los Elementos enumera todos los tipos conocidos de átomos y sus propiedades. El átomo está compuesto de tres partículas básicas: * Electrones: Partículas con carga negativa que giran alrededor del núcleo * Protones: Partículas con carga positiva. * Neutrones: Partículas sin carga (neutras). Los protones y los neutrones se combinan en un pequeño grupo llamado núcleo.

Page 23: Semestre1 Ccna

Para poder comprender mejor las propiedades eléctricas de los elementos/materiales, busque "helio" (He) en la tabla periódica. El número atómico del helio es 2, lo que significa que tiene 2 protones y 2 electrones. Su peso atómico es 4. Si se le resta el número atómico (2) al peso atómico (4), se puede determinar que el helio también tiene 2 neutrones. El físico danés Niels Bohr desarrolló un modelo simplificado para ilustrar el átomo. El gráfico muestra el modelo correspondiente al átomo de helio Si los protones y los neutrones de un átomo tuvieran el tamaño de una pelota de fútbol Nro. 5, en el medio de un estadio de fútbol, la única cosa más pequeña que la pelota serían los electrones. Los electrones tendrían el tamaño de una cereza, y estarían orbitando cerca de los últimos asientos del estadio. En otras palabras, el volumen total de este átomo, incluido el recorrido de los electrones, tendría el tamaño del estadio. El núcleo del átomo donde se encuentran los protones y los neutrones tendría el tamaño de la pelota de fútbol. Una de las leyes de la naturaleza, denominada Ley de la Fuerza Eléctrica de Coulomb, especifica que las cargas opuestas reaccionan entre sí con una fuerza que hace que se atraigan. Las cargas de igual polaridad reaccionan entre sí con una fuerza que hace que se repelan. En el caso de cargas opuestas y de igual polaridad, la fuerza aumenta a medida que las cargas se aproximan. La fuerza es inversamente proporcional al cuadrado de la distancia de separación. Cuando las partículas se encuentran muy cerca una de la otra, la fuerza nuclear supera la fuerza eléctrica de repulsión y el núcleo se mantiene unido. Por esta razón, las partículas del núcleo no se separan. Examine el modelo de Bohr del átomo de helio. Si la ley de Coulomb es verdadera, y si el modelo de Bohr describe los átomos de helio como estables, entonces deben intervenir otras leyes de la naturaleza. ¿Cómo es posible que ambas sean verdaderas? * Ley de Coulomb: Las cargas opuestas se atraen y las cargas iguales se repelen. * Modelo de Bohr: Los protones tienen cargas positivas y los electrones tienen cargas negativas. Hay más de 1 protón en el núcleo. Los electrones se mantienen en órbita aun cuando los protones atraen a los electrones. Los electrones tienen la velocidad justa y necesaria para mantenerse en órbita y para no caer en el núcleo, tal como ocurre con la Luna con respecto a la Tierra. Los protones no se repelen entre sí porque existe una fuerza nuclear que está relacionada con los neutrones. La fuerza nuclear es una fuerza increíblemente poderosa que actúa como si fuera un pegamento que mantiene unidos a los protones. Los protones y los neutrones permanecen unidos entre sí mediante una fuerza muy poderosa. Sin embargo, una fuerza mucho más débil es la que mantiene a los electrones en su órbita alrededor del núcleo. Los electrones de algunos átomos, como los de los metales, pueden liberarse del átomo y ponerse en movimiento. Este mar de electrones, débilmente unidos a los átomos, es lo que hace que la electricidad sea posible. La electricidad es un flujo libre de electrones. Se denomina electricidad estática a los electrones libres que permanecen en un lugar, sin moverse y con una carga negativa. Si estos electrones estáticos tienen la oportunidad de saltar hacia un conductor, se puede producir una descarga electrostática (ESD). La explicación sobre los conductores aparece más adelante en este capítulo. La ESD, aunque por lo general no es peligrosa para las personas, puede producir graves problemas en los equipos electrónicos sensibles. Una descarga electrostática puede dañar los chips o los datos del computador, o ambas cosas, de forma aleatoria. Los circuitos lógicos de los chips de los computadores son sumamente sensibles a las descargas electrostáticas. Tenga cuidado al trabajar en el interior de un computador, router u otro dispositivo. Se puede hacer referencia a los átomos, o a los grupos de átomos denominados moléculas, como materiales. Los materiales pueden clasificarse en tres grupos, según la facilidad con la que la electricidad, o los electrones libres, fluya a través de ellos. La base de todo dispositivo electrónico es el conocimiento de cómo los aislantes, los conductores y los semiconductores controlan el flujo de los electrones y trabajan juntos en distintas combinaciones. 3.1.2 Voltaje El voltaje se denomina a veces "fuerza electromotriz" (EMF) La EMF es una fuerza eléctrica o presión que se produce cuando los electrones y protones se separan. La fuerza que se crea va empujando hacia la carga opuesta y en dirección contraria a la de la carga de igual polaridad. Este proceso se produce en una batería, donde la acción química hace que los electrones se liberen de la terminal negativa de la batería. Entonces, los electrones viajan a la terminal opuesta, o positiva, a través de un circuito EXTERNO. Los electrones no viajan a través de la batería en sí. Recuerde que el flujo de electricidad es, en realidad, el flujo de los electrones. También es posible crear voltaje de tres otras formas: La primera es por fricción o electricidad estática. La

Page 24: Semestre1 Ccna

segunda es por magnetismo o un generador eléctrico. La última forma en que se puede crear voltaje es por medio de la luz o las células solares. El voltaje está representado por la letra V y, a veces, por la letra E, en el caso de la fuerza electromotriz. La unidad de medida del voltaje es el voltio (V). El voltio es la cantidad de trabajo por unidad de carga necesario para separar las cargas. 3.1.3 Resistencia e impedancia Los materiales a través de los cuales fluye la corriente presentan distintos grados de oposición, o resistencia, al movimiento de los electrones. Los materiales que presentan muy poca o ninguna resistencia se denominan conductores. Aquellos que no permiten que la corriente fluya, o que restringen severamente el flujo, se denominan aislantes. El grado de resistencia depende de la composición química de los materiales. Todos los materiales que conducen electricidad presentan un cierto grado de resistencia al movimiento de electrones a través de ellos. Estos materiales también tienen otros efectos denominados capacitancia e inductancia, asociados a la corriente de electrones. Las tres características constituyen la impedancia, que es similar a e incluye la resistencia. El término atenuación es fundamental a la hora de aprender sobre redes. La atenuación se relaciona a la resistencia al flujo de electrones y la razón por la que una señal se degrada a medida que recorre el conducto.

La letra R representa la resistencia. La unidad de medición de la resistencia es el ohmio (&#937 . El símbolo proviene de la letra griega "Ω", omega. Los aislantes eléctricos, o aislantes, son materiales que no permiten que los electrones fluyan a través de ellos sino con gran dificultad o no lo permiten en absoluto. Ejemplos de aislantes eléctricos son el plástico, el vidrio, el aire, la madera seca, el papel, el caucho y el gas helio. Estos materiales poseen estructuras químicas sumamente estables, en las que los electrones orbitan fuertemente ligados a los átomos. Los conductores eléctricos, generalmente llamados simplemente conductores, son materiales que permiten que los electrones fluyen a través de ellos con gran facilidad. Pueden fluir con facilidad porque los electrones externos están unidos muy débilmente al núcleo y se liberan con facilidad. A temperatura ambiente, estos materiales poseen una gran cantidad de electrones libres que pueden proporcionar conducción. La aplicación de voltaje hace que los electrones libres se desplacen, lo que hace que la corriente fluya. La tabla periódica clasifica en categorías a algunos grupos de átomos ordenándolos en columnas. Los átomos de cada columna forman familias químicas específicas. Aunque tengan distintas cantidades de protones, neutrones y electrones, sus electrones externos tienen órbitas similares y se comportan de forma similar, al interactuar con otros átomos y moléculas. Los mejores conductores son metales como el cobre (Cu), la plata (Ag) y el oro (Au), porque tienen electrones que se liberan con facilidad. Entre los demás conductores se incluyen la soldadura, una mezcla de plomo (Pb) y estaño (Sn), y el agua ionizada. Un ion es un átomo que tiene una cantidad de electrones que es mayor o menor que la cantidad de protones en el núcleo del átomo. Aproximadamente un 70% del cuerpo humano consta de agua ionizada, lo que significa que el cuerpo humano también es conductor. Los semiconductores son materiales en los que la cantidad de electricidad que conducen puede ser controlada de forma precisa. Estos materiales se agrupan en una misma columna de la tabla periódica. Entre los ejemplos de estos materiales se incluyen el carbono (C), el germanio (Ge) y la aleación de arseniuro de galio (GaAs). El semiconductor más importante, que permite fabricar los mejores circuitos electrónicos microscópicos, es el silicio (Si). El silicio es muy común y se puede encontrar en la arena, el vidrio y varios tipos de rocas. La región alrededor de San José, California, se denomina Silicon Valley (Valle del Silicio) porque la industria informática, que depende de los microchips de silicio, se inició en esta área. 3.1.4 Corriente La corriente eléctrica es el flujo de cargas creado cuando se mueven los electrones. En los circuitos eléctricos, la corriente se debe al flujo de electrones libres. Cuando se aplica voltaje, o presión eléctrica, y existe un camino para la corriente, los electrones se desplazan a lo largo del camino desde la terminal negativa hacia la terminal positiva. La terminal negativa repele los electrones y la terminal positiva los atrae. La letra ―I‖ representa la corriente. La unidad de medición de la corriente es el Amperio (A). Un Amperio se define como la cantidad de cargas por segundo que pasan por un punto a lo largo de un trayecto. Si se piensa en el amperaje o corriente como la cantidad o volumen de tránsito de electrones que fluyen, entonces, se puede pensar que el voltaje es la velocidad del tránsito de los electrones. La combinación de amperaje y voltaje es equivalente al vatiaje. Los dispositivos eléctricos tales como las ampolletas, los motores y las fuentes de alimentación para computadores se clasifican en términos de vatios. Un vatio es la cantidad de energía que un dispositivo consume o produce.

Page 25: Semestre1 Ccna

Es la corriente o el amperaje de un circuito eléctrico la que en realidad hace el trabajo. Por ejemplo, la electricidad estática tiene un voltaje muy alto, tanto que puede saltar una brecha de una pulgada o más. Sin embargo, tiene muy bajo amperaje y, como resultado, puede producir un choque pero no daños permanentes. El motor de arranque de un automóvil opera a tan sólo 12 voltios pero requiere un amperaje muy alto para generar la energía suficiente para hacer que el motor del auto arranque. Un rayo tiene un voltaje muy alto y un amperaje alto y así puede causar graves daños o lesiones. 3.1.5 Circuitos La corriente fluye en bucles cerrados denominados circuitos. Estos circuitos deben estar compuestos por materiales conductores y deben tener fuentes de voltaje. El voltaje hace que la corriente fluya, mientras que la resistencia y la impedancia se oponen a ella. La corriente consiste en electrones que fluyen alejándose de las terminales negativas y hacia las terminales positivas. El conocimiento de estos hechos permite controlar el flujo de la corriente. La electricidad fluye naturalmente hacia la tierra cuando existe un recorrido. La corriente también fluye a lo largo de la ruta de menor resistencia. Si el cuerpo humano provee la ruta de menor resistencia, la corriente pasará a través de él. Cuando un artefacto eléctrico tiene un enchufe con tres espigas, una de las tres espigas sirve como conexión a tierra, o de cero voltios. La conexión a tierra proporciona una ruta conductora para que los electrones fluyan a tierra, ya que la resistencia que presenta el cuerpo suele ser mayor que la resistencia que opone la vía que conduce directamente a tierra. Por lo general, una conexión a tierra significa un nivel cero de voltios, al realizar las mediciones eléctricas. El voltaje se crea mediante la separación de las cargas, lo que significa que las mediciones de voltaje se deben realizar entre dos puntos. La analogía del sistema de suministro de agua ayuda a explicar los conceptos de la electricidad. Cuanto mayor sea la altura del agua, y cuanto mayor sea la presión, mayor será el flujo de agua. La corriente de agua también depende del tamaño del espacio que debe atravesar. De igual manera, cuanto mayor sea el voltaje y cuanto mayor sea la presión eléctrica, más corriente se producirá. La corriente eléctrica se encuentra entonces con una resistencia que, al igual que el grifo, reduce el flujo. Si la corriente se produce en un circuito de CA, entonces la cantidad de corriente dependerá de la cantidad de impedancia presente. Si la corriente se produce en un circuito de CC, entonces la cantidad de corriente dependerá de la cantidad de resistencia presente. La bomba de agua es como una batería. Suministra presión para que el flujo continúe en movimiento. La relación entre el voltaje, la resistencia y la corriente es voltaje (V) = corriente (I) multiplicada por resistencia (R). En otras palabras, V=I*R. Esta es la Ley de Ohm, llamada así en honor al científico que investigó estos temas. Las dos formas en que fluye la corriente son: Corriente Alterna (CA) y Corriente Continua (CC). La corriente alterna (CA) y sus correspondientes voltajes varían con el tiempo, cambiando su polaridad o dirección. La CA fluye en una dirección, luego invierte su dirección y fluye en sentido contrario para luego repetir el proceso. El voltaje de la CA es positivo en una terminal y negativo en otra. Entonces, el voltaje de la CA invierte su polaridad, de modo que la terminal positiva se convierte en negativa y la terminal negativa en positiva. Este proceso se repite de forma continua. La corriente continua (CC) siempre fluye en la misma dirección, y los voltajes de CC siempre tienen la misma polaridad. Una terminal es siempre positiva y la otra es siempre negativa. Estas direcciones no se modifican ni se invierten. El osciloscopio es un dispositivo electrónico que se utiliza para medir las señales eléctricas en relación al tiempo. Un osciloscopio expresa las ondas, los pulsos y los patrones eléctricos en forma de gráfico. Tiene un eje "x" que representa el tiempo y un eje "y" que representa el voltaje. Generalmente existen dos ejes "y" que corresponden a dos voltajes de entrada para que se puedan observar y medir dos ondas al mismo tiempo. Las líneas de alimentación transportan electricidad en forma de CA porque ésta puede ser conducida por largas distancias, de forma eficiente. La CC se encuentra en las baterías para linternas, baterías de automóviles y como energía para los microchips de la motherboard de un computador, donde sólo necesita recorrer una corta distancia. Los electrones fluyen en circuitos cerrados, o bucles completos. La Figura muestra un circuito simple. Los procesos químicos que se producen en la batería causan una acumulación de cargas. Esto proporciona un voltaje o presión eléctrica que permite que los electrones fluyan a través de los distintos dispositivos. Las líneas representan un conductor, que por lo general es un cable de cobre. Se puede considerar a un interruptor como dos extremos de un solo cable que se puede abrir o interrumpir para evitar que los electrones fluyan. Cuando los dos extremos están cerrados, fijos o puestos en cortocircuito, los electrones pueden fluir. Por último, la lamparilla presenta resistencia al flujo de electrones, lo que hace que liberen energía, en forma de luz. Los circuitos que participan en networking usan una versión mucho más compleja de este simple circuito. En los sistemas eléctricos de CA y CC, los electrones siempre fluyen desde una fuente con una carga negativa hacia una fuente con una carga positiva. Sin embargo, para que se produzca un flujo controlado de electrones, es

Page 26: Semestre1 Ccna

necesario que haya un circuito completo. La Figura muestra parte de un circuito eléctrico que lleva energía a un hogar u oficina. 3.1.6 Especificaciones de cables Los cables tienen distintas especificaciones y generan distintas expectativas acerca de su rendimiento. * ¿Qué velocidad de transmisión de datos se puede lograr con un tipo particular de cable? La velocidad de transmisión de bits por el cable es de suma importancia. El tipo de conducto utilizado afecta la velocidad de la transmisión. * ¿Qué tipo de transmisión se planea? ¿Serán las transmisiones digitales o tendrán base analógica? La transmisión digital o de banda base y la transmisión con base analógica o de banda ancha son las dos opciones. * ¿Qué distancia puede recorrer una señal a través de un tipo de cable en particular antes de que la atenuación de dicha señal se convierta en un problema? En otras palabras, ¿se degrada tanto la señal que el dispositivo receptor no puede recibir e interpretar la señal correctamente en el momento en que la señal llega a dicho dispositivo? La distancia recorrida por la señal a través del cable afecta directamente la atenuación de la señal. La degradación de la señal está directamente relacionada con la distancia que recorre la señal y el tipo de cable que se utiliza. Algunos ejemplos de las especificaciones de Ethernet que están relacionadas con el tipo de cable son: * 10BASE-T * 10BASE5 * 10BASE2 10BASE-T se refiere a la velocidad de transmisión a 10 Mbps. El tipo de transmisión es de banda base o digitalmente interpretada. T significa par trenzado. 10BASE5 se refiere a la velocidad de transmisión a 10 Mbps. El tipo de transmisión es de banda base o digitalmente interpretada. El 5 representa la capacidad que tiene el cable para permitir que la señal recorra aproximadamente 500 metros antes de que la atenuación interfiera con la capacidad del receptor de interpretar correctamente la señal recibida. 10BASE5 a menudo se denomina "Thicknet". Thicknet es, en realidad, un tipo de red, mientras que 10BASE5 es el cableado que se utiliza en dicha red. 10BASE2 se refiere a la velocidad de transmisión a 10 Mbps. El tipo de transmisión es de banda base o digitalmente interpretada. El 2, en 10BASE2, se refiere a la longitud máxima aproximada del segmento de 200 metros antes que la atenuación perjudique la habilidad del receptor para interpretar apropiadamente la señal que se recibe. La longitud máxima del segmeto es en reallidad 185 metros. 10BASE2 a menudo se denomina ―Thinnet‖. Thinnet es, en realidad, un tipo de red, mientras que 10BASE2 es el cableado que se utiliza en dicha red. 3.1.7 Cable coaxial El cable coaxial consiste de un conductor de cobre rodeado de una capa de aislante flexible. El conductor central también puede ser hecho de un cable de aluminio cubierto de estaño que permite que el cable sea fabricado de forma económica. Sobre este material aislante existe una malla de cobre tejida u hoja metálica que actua como el segundo hilo del circuito y como un blindaje para el conductor interno. Esta segunda capa, o blindaje, también reduce la cantidad de interferencia electromagnética externa. Cubriendo la pantalla está la chaqueta del cable. Para las LAN, el cable coaxial ofrece varias ventajas. Puede tenderse a mayores distancias que el cable de par trenzado blindado STP, y que el cable de par trenzado no blindado, UTP, sin necesidad de repetidores. Los repetidores regeneran las señales de la red de modo que puedan abarcar mayores distancias. El cable coaxial es más económico que el cable de fibra óptica y la tecnología es sumamente conocida. Se ha usado durante muchos años para todo tipo de comunicaciones de datos, incluida la televisión por cable. Al trabajar con cables, es importante tener en cuenta su tamaño. A medida que aumenta el grosor, o diámetro, del cable, resulta más difícil trabajar con él. Recuerde que el cable debe pasar por conductos y cajas existentes cuyo tamaño es limitado. Se puede conseguir cable coaxial de varios tamaños. El cable de mayor diámetro es de uso específico como cable de backbone de Ethernet porque tiene mejores características de longitud de transmisión y de limitación del ruido. Este tipo de cable coaxial frecuentemente se denomina thicknet o red gruesa. Como su apodo lo indica, este tipo de cable puede ser demasiado rígido como para poder instalarse con facilidad en algunas situaciones. Generalmente, cuanto más difícil es instalar los medios de red, más costosa resulta la instalación. El cable coaxial resulta más costoso de instalar que el cable de par trenzado. Hoy en día el cable thicknet casi nunca se usa, salvo en instalaciones especiales. En el pasado, el cable coaxial con un diámetro externo de solamente 0,35 cm (a veces denominado thinnet o red fina) se usaba para las redes Ethernet. Era particularmente útil para las instalaciones de cable en las que era necesario que el cableado tuviera que hacer muchas vueltas. Como la instalación de thinnet era más sencilla, también resultaba más económica. Por este motivo algunas personas lo llamaban cheapernet (red

Page 27: Semestre1 Ccna

barata). El trenzado externo metálico o de cobre del cable coaxial abarca la mitad del circuito eléctrico. Se debe tener especial cuidado de asegurar una sólida conexión eléctrica en ambos extremos, brindando así una correcta conexión a tierra. La incorrecta conexión del material de blindaje constituye uno de los problemas principales relacionados con la instalación del cable coaxial. Los problemas de conexión resultan en un ruido eléctrico que interfiere con la transmisión de señales sobre los medios de networking. Por esta razón, thinnet ya no se usa con frecuencia ni está respaldado por los estándares más recientes (100 Mbps y superiores) para redes Ethernet. 3.1.8 Cable STP El cable de par trenzado blindado (STP) combina las técnicas de blindaje, cancelación y trenzado de cables. Cada par de hilos está envuelto en un papel metálico. Los dos pares de hilos están envueltos juntos en una trenza o papel metálico. Generalmente es un cable de 150 ohmios. Según se especifica para el uso en instalaciones de redes Token Ring, el STP reduce el ruido eléctrico dentro del cable como, por ejemplo, el acoplamiento de par a par y la diafonía. El STP también reduce el ruido electrónico desde el exterior del cable, como, por ejemplo, la interferencia electromagnética (EMI) y la interferencia de radiofrecuencia (RFI). El cable de par trenzado blindado comparte muchas de las ventajas y desventajas del cable de par trenzado no blindado (UTP). El cable STP brinda mayor protección ante toda clase de interferencias externas, pero es más caro y de instalación más difícil que el UTP. Un nuevo híbrido de UTP con STP tradicional se denomina UTP apantallado (ScTP), conocido también como par trenzado de papel metálico (FTP). El ScTP consiste, básicamente, en cable UTP envuelto en un blindaje de papel metálico. ScTP, como UTP, es también un cable de 100 Ohms. Muchos fabricantes e instaladores de cables pueden usar el término STP para describir el cable ScTP. Es importante entender que la mayoría de las referencias hechas a STP hoy en día se refieren en realidad a un cable de cuatro pares apantallado. Es muy improbable que un verdadero cable STP sea usado durante un trabajo de instalación de cable. Los materiales metálicos de blindaje utilizados en STP y ScTP deben estar conectados a tierra en ambos extremos. Si no están adecuadamente conectados a tierra o si hubiera discontinuidades en toda la extensión del material del blindaje, el STP y el ScTP se pueden volver susceptibles a graves problemas de ruido. Son susceptibles porque permiten que el blindaje actúe como una antena que recoge las señales no deseadas. Sin embargo, este efecto funciona en ambos sentidos. El blindaje no sólo evita que ondas electromagnéticas externas produzcan ruido en los cables de datos sino que también minimiza la irradiación de las ondas electromagnéticas internas. Estas ondas podrían producir ruido en otros dispositivos. Los cables STP y ScTP no pueden tenderse sobre distancias tan largas como las de otros medios de networking (tales como el cable coaxial y la fibra óptica) sin que se repita la señal. El uso de aislamiento y blindaje adicionales aumenta de manera considerable el tamaño, peso y costo del cable. Además, los materiales de blindaje hacen que las terminaciones sean más difíciles y aumentan la probabilidad de que se produzcan defectos de mano de obra. Sin embargo, el STP y el ScTP todavía desempeñan un papel importante, especialmente en Europa o en instalaciones donde exista mucha EMI y RFI cerca de los cables. 3.1.9 Cable UTP El cable de par trenzado no blindado (UTP) es un medio de cuatro pares de hilos que se utiliza en diversos tipos de redes. Cada uno de los 8 hilos de cobre individuales del cable UTP está revestido de un material aislante. Además, cada par de hilos está trenzado. Este tipo de cable cuenta sólo con el efecto de cancelación que producen los pares trenzados de hilos para limitar la degradación de la señal que causan la EMI y la RFI. Para reducir aún más la diafonía entre los pares en el cable UTP, la cantidad de trenzados en los pares de hilos varía. Al igual que el cable STP, el cable UTP debe seguir especificaciones precisas con respecto a cuánto trenzado se permite por unidad de longitud del cable. El estándar TIA/EIA-568-B.2 especifica los componentes de cableado, transmisión, modelos de sistemas, y los procedimientos de medición necesarios para verificar los cables de par trenzado balanceado. Exige el tendido de dos cables, uno para voz y otro para datos en cada toma. De los dos cables, el cable de voz debe ser UTP de cuatro pares. El cable Categoría 5 es el que actualmente se recomienda e implementa con mayor frecuencia en las instalaciones. Sin embargo, las predicciones de los analistas y sondeos independientes indican que el cable de Categoría 6 sobrepasará al cable Categoría 5 en instalaciones de red. El hecho que los requerimientos de canal y enlace de la Categoría 6 sean compatibles con la Categoría 5e hace muy fácil para los clientes elegir Categoría 6 y reemplazar la Categoría 5e en sus redes. Las aplicaciones que funcionan sobre Categoría 5e también lo harán sobre Categoría 6. El cable de par trenzado no blindado presenta muchas ventajas. Es de fácil instalación y es más económico que los demás tipos de medios para networking. De hecho, el UTP cuesta menos por metro que cualquier otro tipo de cableado para LAN. Sin embargo, la ventaja real es su tamaño. Debido a que su diámetro externo es tan pequeño, el cable UTP no llena los conductos para el cableado tan rápidamente como sucede con otros tipos de cables. Esto puede ser un factor sumamente importante a tener en cuenta, en especial si se está instalando una red en un edificio antiguo. Además, si se está instalando el cable UTP con un conector RJ-45, las fuentes potenciales de ruido de la red se reducen enormemente y prácticamente se garantiza una conexión sólida y de buena calidad. El cableado de par trenzado presenta ciertas desventajas. El cable UTP es más susceptible al ruido eléctrico y a la interferencia que otros tipos de medios para networking y la distancia que puede abarcar la señal sin el uso de repetidores es menor para UTP que para los cables coaxiales y de fibra óptica.

Page 28: Semestre1 Ccna

En una época, el cable de par trenzado era considerado más lento para transmitir datos que otros tipos de cables. Sin embargo, hoy en día ya no es así. De hecho, en la actualidad, se considera que el cable de par trenzado es el más rápido entre los medios basados en cobre. Para que sea posible la comunicación, la señal transmitida por la fuente debe ser entendida por el destino. Esto es cierto tanto desde una perspectiva física como en el software. La señal transmitida necesita ser correctamente recibida por la conexión del circuito que está diseñada para recibir las señales. El pin de transmisión de la fuente debe conectarse en fin al pin receptor del destino. A continuación se presentan los tipos de conexiones de cable utilizadas entre dispositivos de internetwork. En la Figura , un switch de LAN se conecta a un computador. El cable que se conecta desde el puerto del switch al puerto de la NIC del computador recibe el nombre de cable directo. En la Figura , dos switch aparecen conectados entre sí. El cable que conecta un puerto de un switch al puerto de otro switch recibe el nombre de cable de conexión cruzada. En la Figura , el cable que conecta el adaptador de RJ-45 del puerto COM del computador al puerto de la consola del router o switch recibe el nombre de cable rollover. Los cables están definidos por el tipo de conexiones o la disposición de pines, de un extremo al otro del cable. Ver imágenes , y . Un técnico puede comparar ambos extremos de un mismo cable poniendo uno al lado del otro, siempre que todavía no se haya embutido el cable en la pared. El técnico observa los colores de las dos conexiones RJ-45 colocando ambos extremos con el clip en la mano y la parte superior de ambos extremos del cable apuntando hacia afuera. En un cable directo, ambos extremos deberían tener idénticos patrones de color. Al comparar los extremos de un cable de conexión cruzada, el color de los pins nº 1 y nº 2 aparecerán en el otro extremo en los pins nº 3 y nº 6, y viceversa. Esto ocurre porque los pins de transmisión y recepción se encuentran en ubicaciones diferentes. En un cable transpuesto, la combinación de colores de izquierda a derecha en un extremo debería ser exactamente opuesta a la combinación de colores del otro extremo. 3.2 Medios de fibra óptica 3.2.1 El espectro electromagnético La luz que se utiliza en las redes de fibra óptica es un tipo de energía electromagnética. Cuando una carga eléctrica se mueve hacia adelante y hacia atrás, o se acelera, se produce un tipo de energía denominada energía electromagnética. Esta energía, en forma de ondas, puede viajar a través del vacío, el aire y algunos materiales como el vidrio. Una propiedad importante de toda onda de energía es la longitud de onda. La radio, las microondas, el radar, la luz visible, los rayos x y los rayos gama parecen ser todos muy diferentes. Sin embargo, todos ellos son tipos de energía electromagnética. Si se ordenan todos los tipos de ondas electromagnéticas desde la mayor longitud de onda hasta la menor, se crea un continuo denominado espectro electromagnético. La longitud de onda de una onda electromagnética es determinada por la frecuencia a la que la carga eléctrica que genera la onda se mueve hacia adelante y hacia atrás. Si la carga se mueve lentamente hacia adelante y hacia atrás, la longitud de onda que genera es una longitud de onda larga. Visualice el movimiento de la carga eléctrica como si fuera una varilla en una charca. Si la varilla se mueve lentamente hacia adelante y hacia atrás, generará movimientos en el agua con una longitud de onda larga entre las partes superiores de las ondas. Si la varilla se mueve rápidamente hacia adelante y hacia atrás, los movimientos en el agua tendrán una longitud de onda mas corta. Como todas las ondas electromagnéticas se generan de la misma manera, comparten muchas propiedades. Todas las ondas viajan a la misma velocidad en el vacío. La velocidad es aproximadamente 300.000 kilometros por segundo o 186.283 millas por segundo. Esta es también la velocidad de la luz. Los ojos humanos están diseñados para percibir solamente la energía electromagnética de longitudes de onda de entre 700 y 400 nanómetros (nm). Un nanómetro es la mil millonésima parte de un metro (0,000000001 metro) de longitud. La energía electromagnética con longitudes de onda entre 700 y 400 nm recibe el nombre de luz visible. Las longitudes de onda de luz más largas que se encuentran cerca de los 700 nm se perciben como el color rojo. Las longitudes de onda más cortas que se encuentran alrededor de los 400 nm aparecen como el color violeta. Esta parte del espectro magnético se percibe como los colores del arco iris. Las longitudes de onda que invisibles al ojo humano son utilizadas para transmitir datos a través de una fibra óptica. Estas longitudes de onda son levemente más larga que las de la luz roja y reciben el nombre de luz infrarroja. La luz infrarroja se utiliza en los controles remotos de los televisores. La longitud de onda de la luz en la fibra óptica es de 850 nm, 1310 nm o 1550 nm. Se seleccionaron estas longitudes de onda porque pasan por la fibra óptica más fácilmente que otras. 3.2.2 Modelo de rayo de luz

Page 29: Semestre1 Ccna

Cuando las ondas electromagnéticas se alejan de una fuente, viajan en líneas rectas. Estas líneas rectas que salen de la fuente reciben el nombre de rayos. Piense en los rayos de luz como delgados haces de luz similares a los generados por un láser. En el vacío del espacio, la luz viaja de forma continua en línea recta a 300.000 kilómetros por segundo. Sin embargo, la luz viaja a velocidades diferentes y más lentas a través de otros materiales como el aire, el agua y el vidrio. Cuando un rayo de luz, denominado rayo incidente, cruza los límites de un material a otro, se refleja parte de la energía de la luz del rayo. Por esta razón, uno puede verse a sí mismo en el vidrio de una ventana. La luz reflejada recibe el nombre de rayo reflejado. La energía de la luz de un rayo incidente que no se refleja entra en el vidrio. El rayo entrante se dobla en ángulo desviándose de su trayecto original. Este rayo recibe el nombre de rayo refractado. El grado en que se dobla el rayo de luz incidente depende del ángulo que forma el rayo incidente al llegar a la superficie del vidrio y de las distintas velocidades a la que la luz viaja a través de las dos sustancias. Esta desviación de los rayos de luz en los límites de dos sustancias es la razón por la que los rayos de luz pueden recorrer una fibra óptica aun cuando la fibra tome la forma de un círculo. La densidad óptica del vidrio determina la desviación de los rayos de luz en el vidrio. La densidad óptica se refiere a cuánto la velocidad del rayo de luz disminuye al atravesar una sustancia. Cuanto mayor es la densidad óptica del material, más se desacelera la luz en relación a su velocidad en el vacío. El índice de refracción se define como la velocidad de la luz en el vacío dividido por la velocidad de la luz en el medio. Por lo tanto, la medida de la densidad óptica de un material es el índice de refracción de ese material. Un material con un alto índice de refracción es ópticamente más denso y desacelera más la luz que un material con menor índice de refracción. En una sustancia como el vidrio, es posible aumentar el Índice de Refracción o densidad óptica, agregando productos químicos al vidrio. Si se produce un vidrio muy puro, se puede reducir el índice de refracción . Las siguientes lecciones proporcionan mayor información sobre la reflexión y la refracción y su relación con el diseño y funcionamiento de la fibra óptica. 3.2.3 Reflexión Cuando un rayo de luz (el rayo incidente) llega a la superficie brillante de una pieza plana de vidrio, se refleja parte de la energía de la luz del rayo. El ángulo que se forma entre el rayo incidente y una línea perpendicular a la superficie del vidrio, en el punto donde el rayo incidente toca la superficie del vidrio, recibe el nombre de ángulo de incidencia. Esta línea perpendicular recibe el nombre de normal. No es un rayo de luz sino una herramienta que permite la medición de los ángulos. El ángulo que se forma entre el rayo reflejado y la normal recibe el nombre de ángulo de reflexión. La Ley de la Reflexión establece que el ángulo de reflexión de un rayo de luz es equivalente al ángulo de incidencia. En otras palabras, el ángulo en el que el rayo de luz toca una superficie reflectora determina el ángulo en el que se reflejará el rayo en la superficie. 3.2.4 Refracción Cuando la luz toca el límite entre dos materiales transparentes, se divide en dos partes. Parte del rayo de luz se refleja a la primera sustancia, con un ángulo de reflexión equivalente al ángulo de incidencia. La energía restante del rayo de luz cruza el límite penetrando a la segunda sustancia. Si el rayo incidente golpea la superficie del vidrio a un ángulo exacto de 90 grados, el rayo entra directamente al vidrio. El rayo no se desvía. Por otro lado, si el rayo incidente no golpea la superficie con un ángulo exacto de 90 grados respecto de la superficie, entonces, el rayo transmitido que entra al vidrio se desvía. La desviación del rayo entrante recibe el nombre de refracción. El grado de refracción del rayo depende del índice de refracción de los dos materiales transparentes. Si el rayo de luz parte de una sustancia cuyo índice de refracción es menor, entrando a una sustancia cuyo índice de refracción es mayor, el rayo refractado se desvía hacia la normal. Si el rayo de luz parte de una sustancia cuyo índice de refracción es mayor, entrando a una sustancia cuyo índice de refracción es menor, el rayo refractado se desvía en sentido contrario de la normal. Considere un rayo de luz que pasa con un ángulo que no es de 90 grados por el límite entre un vidrio y un diamante. El vidrio tiene un índice de refracción de aproximadamente 1,523. El diamante tiene un índice de refracción de aproximadamente 2,419. Por lo tanto, el rayo que continúa su trayecto por el diamante se desviará hacia la normal. Cuando ese rayo de luz cruce el límite entre el diamante y el aire con un ángulo que no sea de 90 grados, se desviará alejádose de la normal. La razón es que el aire tiene un índice de refracción menor, aproximadamente 1,000, que el índice de refracción del diamante. 3.2.5 Reflexión interna total Un rayo de luz que se enciende y apaga para enviar datos (unos y ceros) dentro de una fibra óptica debe permanecer dentro de la fibra hasta que llegue al otro extremo. El rayo no debe refractarse en el material que envuelve el exterior de la fibra. La refracción produciría una pérdida de una parte de la energía de la luz del rayo. Es necesario lograr un diseño de fibra en el que la superficie externa de la fibra actúe como espejo para el rayo de luz que viaja a través de la fibra. Si un rayo de luz que trata de salir por el costado de la fibra se refleja hacia dentro de la fibra a un ángulo tal que lo envíe hacia el otro extremo de la misma, se formaría un buen "conducto" o "guía de ondas" para las ondas de luz.

Page 30: Semestre1 Ccna

Las leyes de reflexión y de refracción ilustran cómo diseñar una fibra que guíe las ondas de luz a través de la fibra con una mínima pérdida de energía. Se deben cumplir las dos siguientes condiciones para que un rayo de luz en una fibra se refleje dentro de ella sin ninguna pérdida por refracción. * El núcleo de la fibra óptica debe tener un índice de refracción (n) mayor que el del material que lo envuelve. El material que envuelve al núcleo de la fibra recibe el nombre de revestimiento. * El ángulo de incidencia del rayo de luz es mayor que el ángulo crítico para el núcleo y su revestimiento. Cuando se cumplen estas dos condiciones, toda la luz que incide en la fibra se refleja dentro de ella. Esto se llama reflexión interna total, que es la base sobre la que se construye una fibra óptica. La reflexión interna total hace que los rayos de luz dentro de la fibra reboten en el límite entre el núcleo y el revestimiento y que continúen su recorrido hacia el otro extremo de la fibra. La luz sigue un trayecto en zigzag a lo largo del núcleo de la fibra. Resulta fácil crear una fibra que cumpla con esta primera condición. Además, el ángulo de incidencia de los rayos de luz que entran al núcleo puede ser controlado. La restricción de los siguientes dos factores permite controlar el ángulo de incidencia: * La apertura numérica de la fibra: La apertura numérica del núcleo es el rango de ángulos de los rayos de luz incidente que ingresan a la fibra y que son reflejados en su totalidad. * Modos: Los trayectos que puede recorrer un rayo de luz cuando viaja por la fibra. Al controlar ambas condiciones, el tendido de la fibra tendrá reflexión interna total. Esto sirve de guía a la onda de luz que puede ser utilizada para las comunicaciones de datos. 3.2.6 Fibra multimodo La parte de una fibra óptica por la que viajan los rayos de luz recibe el nombre de núcleo de la fibra. Los rayos de luz sólo pueden ingresar al núcleo si el ángulo está comprendido en la apertura numérica de la fibra. Asimismo, una vez que los rayos han ingresado al núcleo de la fibra, hay un número limitado de recorridos ópticos que puede seguir un rayo de luz a través de la fibra. Estos recorridos ópticos reciben el nombre de modos. Si el diámetro del núcleo de la fibra es lo suficientemente grande como para permitir varios trayectos que la luz pueda recorrer a lo largo de la fibra, esta fibra recibe el nombre de fibra "multimodo". La fibra monomodo tiene un núcleo mucho más pequeño que permite que los rayos de luz viajen a través de la fibra por un solo modo. Cada cable de fibra óptica que se usa en networking está compuesto de dos fibras de vidrio envueltas en revestimientos separados. Una fibra transporta los datos transmitidos desde un dispositivo A a un dispositivo B. La otra transporta los datos desde el dispositivo B hacia el dispositivo A. Las fibras son similares a dos calles de un solo sentido que corren en sentido opuesto. Esto proporciona una comunicación full-duplex. El par trenzado de cobre utiliza un par de hilos para transmitir y un par de hilos para recibir. Los circuitos de fibra óptica usan una hebra de fibra para transmitir y una para recibir.. En general, estos dos cables de fibra se encuentran en un solo revestimiento exterior hasta que llegan al punto en el que se colocan los conectores. Hasta que se colocan los conectores, no es necesario blindar ya que la luz no se escapa del interior de una fibra. Esto significa que no hay problemas de diafonía con la fibra óptica. Es común ver varios pares de fibras envueltos en un mismo cable. Esto permite que un solo cable se extienda entre armarios de datos, pisos o edificios. Un solo cable puede contener de 2 a 48 o más fibras separadas. En el caso del cobre, sería necesario tender un cable UTP para cada circuito. La fibra puede transportar muchos más bits por segundo y llevarlos a distancias mayores que el cobre. En general, un cable de fibra óptica se compone de cinco partes. Estas partes son: el núcleo, el revestimiento, un amortiguador, un material resistente y un revestimiento exterior. El núcleo es el elemento que transmite la luz y se encuentra en el centro de la fibra óptica. Todas las señales luminosas viajan a través del núcleo. El núcleo es, en general, vidrio fabricado de una combinación de dióxido de silicio (sílice) y otros elementos. La fibra multimodo usa un tipo de vidrio denominado vidrio de índice graduado para su núcleo. Este vidrio tiene un índice de refracción menor hacia el borde externo del núcleo. De esta manera, el área externa del núcleo es ópticamente menos densa que el centro y la luz puede viajar más rápidamente en la parte externa del núcleo. Se utiliza este diseño porque un rayo de luz que sigue un modo que pasa directamente por el centro del núcleo no viaja tanto como un rayo que sigue un modo que rebota en la fibra. Todos los rayos deberían llegar al extremo opuesto de la fibra al mismo tiempo. Entonces, el receptor que se encuentra en el extremo de la fibra, recibe un fuerte flash de luz y no un pulso largo y débil. Alrededor del núcleo se encuentra el revestimiento. El revestimiento también está fabricado con sílice pero con un índice de refracción menor que el del núcleo. Los rayos de luz que se transportan a través del núcleo de la fibra se reflejan sobre el límite entre el núcleo y el revestimiento a medida que se mueven a través de la fibra por reflexión total interna. El cable de fibra óptica multimodo estándar es el tipo de cable de fibra óptica que más se utiliza en las LAN. Un cable de fibra óptica multimodo estándar utiliza una fibra óptica con núcleo de 62,5 ó 50 micrones y un revestimiento de 125 micrones de diámetro. A menudo, recibe el nombre de fibra óptica de

Page 31: Semestre1 Ccna

62,5/125 ó 50/125 micrones. Un micrón es la millonésima parte de un metro (1µ). Alrededor del revestimiento se encuentra un material amortiguador que es generalmente de plástico. El material amortiguador ayuda a proteger al núcleo y al revestimiento de cualquier daño. Existen dos diseños básicos para cable. Son los diseños de cable de amortiguación estrecha y de tubo libre. La mayoría de las fibras utilizadas en la redes LAN son de cable multimodo con amortiguación estrecha. Los cables con amortiguación estrecha tienen material amortiguador que rodea y está en contacto directo con el revestimiento. La diferencia más práctica entre los dos diseños está en su aplicación. El cable de tubo suelto se utiliza principalmente para instalaciones en el exterior de los edificios mientras que el cable de amortiguación estrecha se utiliza en el interior de los edificios. El material resistente rodea al amortiguador, evitando que el cable de fibra óptica se estire cuando los encargados de la instalación tiran de él. El material utilizado es, en general, Kevlar, el mismo material que se utiliza para fabricar los chalecos a prueba de bala. El último elemento es el revestimiento exterior. El revestimiento exterior rodea al cable para así proteger la fibra de abrasión, solventes y demás contaminantes. El color del revestimiento exterior de la fibra multimodo es, en general, anaranjado, pero a veces es de otro color. Los Diodos de Emisión de Luz Infrarroja (LED) o los Emisores de Láser de Superficie de Cavidad Vertical (VCSEL) son dos tipos de fuentes de luz utilizadas normalmente con fibra multimodo. Se puede utilizar cualquiera de los dos. Los LED son un poco más económicos de fabricar y no requieren tantas normas de seguridad como los láser. Sin embargo, los LED no pueden transmitir luz por un cable a tanta distancia como los láser. La fibra multimodo (62,5/125) puede transportar datos a distancias de hasta 2000 metros (6.560 pies). 3.2.7 Fibra monomodo La fibra monomodo consta de las mismas partes que una multimodo. El revestimiento exterior de la fibra monomodo es, en general, de color amarillo. La mayor diferencia entre la fibra monomodo y la multimodo es que la monomodo permite que un solo modo de luz se propague a través del núcleo de menor diámetro de la fibra óptica. El núcleo de una fibra monomodo tiene de ocho a diez micrones de diámetro. Los más comunes son los núcleos de nueve micrones. La marca 9/125 que aparece en el revestimiento de la fibra monomodo indica que el núcleo de la fibra tiene un diámetro de 9 micrones y que el revestimiento que lo envuelve tiene 125 micrones de diámetro. En una fibra monomodo se utiliza un láser infrarrojo como fuente de luz. El rayo de luz que el láser genera, ingresa al núcleo en un ángulo de 90 grados. Como consecuencia, los rayos de luz que transportan datos en una fibra monomodo son básicamente transmitidos en línea recta directamente por el centro del núcleo. Esto aumenta, en gran medida, tanto la velocidad como la distancia a la que se pueden transmitir los datos. Por su diseño, la fibra monomodo puede transmitir datos a mayores velocidades (ancho de banda) y recorrer mayores distancias de tendido de cable que la fibra multimodo. La fibra monomodo puede transportar datos de LAN a una distancia de hasta 3000 metros. Aunque está distancia distancia se considera un estándar, nuevas tecnologías han incrementado esta distancia y serán discutidas en un módulo posterior. La fibra multimodo sólo puede transportar datos hasta una distancia de 2000 metros. Las fibras monomodo y el láser son más costosos que los LED y la fibra multimodo. Debido a estas características, la fibra monomodo es la que se usa con mayor frecuencia para la conectividad entre edificios. ADVERTENCIA: La luz de láser que se utiliza con la fibra monomodo tiene una longitud de onda mayor que la de la luz visible. El láser es tan poderoso que puede causar graves daños a la vista. Nunca mire directamente al interior del extremo de una fibra conectada a un dispositivo en su otro extremo. Nunca mire directamente hacia el interior del puerto de transmisión en una NIC, switch o router. Recuerde mantener las cubiertas protectoras en los extremos de la fibra e insertarlos en los puertos de fibra óptica de switches y routers. Tenga mucho cuidado. La Figura compara los tamaños relativos del núcleo y el revestimiento para ambos tipos de fibra óptica en distintos cortes transversales. Como la fibra monomodo tiene un núcleo más refinado y de diámetro mucho menor, tiene mayor ancho de banda y distancia de tendido de cable que la fibra multimodo. Sin embargo, tiene mayores costos de fabricación. 3.2.8 Otros componentes ópticos La mayoría de los datos que se envían por una LAN se envían en forma de señales eléctricas. Sin embargo, los enlaces de fibra óptica utilizan luz para enviar datos. Hace falta algún elemento para convertir la electricidad en luz y, en el otro extremo de la fibra, para convertir la luz nuevamente en electricidad. Esto significa que se requiere un transmisor y un receptor.

Page 32: Semestre1 Ccna

El transmisor recibe los datos que se deben transmitir desde los switches y routers. Estos datos tienen forma de señales eléctricas. El transmisor convierte las señales electrónicas en pulsos de luz equivalentes. Existen dos tipos de fuentes de luz que se utilizan para codificar y transmitir los datos a través del cable: * Un diodo emisor de luz (LED) que produce luz infrarroja con longitudes de onda de 850 nm o 1310 nm. Se utilizan con fibra multimodo en las LAN. Para enfocar la luz infrarroja en el extremo de la fibra, se utilizan lentes. * Amplificación de la luz por radiación por emisión estimulada (LASER) una fuente de luz que produce un fino haz de intensa luz infrarroja, generalmente, con longitudes de onda de 1310nm o 1550 nm. Los láser se usan con fibra monomodo para las grandes distancias de los backbones de universidades y WAN. Se debe tener sumo cuidado a fin de evitar daños a la vista. Cada una de estas fuentes de luz puede ser encendida y apagada muy rápidamente para así enviar datos (unos y ceros) a un elevado número de bits por segundo. En el otro extremo de la fibra óptica conectada al transmisor se encuentra el receptor. El receptor funciona casi como una célula fotoeléctrica en una calculadora a energía solar. Cuando la luz llega al receptor, se genera electricidad. La primera tarea del receptor es detectar el pulso de luz que llega desde la fibra. Luego, el receptor convierte el pulso de luz nuevamente en la señal eléctrica original tal como ingresó al transmisor al otro extremo de la fibra. Ahora, la señal nuevamente adquiere la forma de cambios de voltaje. La señal está lista para ser enviada por el cable de cobre al dispositivo electrónico receptor, como por ejemplo, un computador, switch o router. Los dispositivos semiconductores que se utilizan generalmente como receptores con enlaces de fibra óptica reciben el nombre de diodos p-intrínsecos–n (fotodiodos PIN). Los fotodiodos PIN están fabricados para ser sensibles a 850; 1310 ó 1550 nm de luz que el transmisor genera al otro extremo de la fibra. Cuando un pulso de luz de la longitud de onda adecuada da en el fotodiodo PIN, éste rápidamente genera una corriente eléctrica de voltaje apropiado para la red. Cuando la luz deja de iluminar el fotodiodo PIN, éste deja de generar voltaje al instante. Esto genera cambios de voltaje que representan los unos y ceros de los datos en el cable de cobre. Hay conectores unidos a los extremos de las fibras de modo que éstas puedan estar conectadas a los puertos del transmisor y del receptor. El tipo de conector que se usa con mayor frecuencia con la fibra multimodo es el Conector Suscriptor (conector SC). En una fibra monomodo, el conector de Punta Recta (ST) es el más frecuentemente utilizado. Además de los transmisores, receptores, conectores y fibras que siempre son necesarios en una red óptica, a menudo también se ven repetidores y paneles de conexión de fibra. Los repetidores son amplificadores ópticos que reciben pulsos de luz atenuante que recorren largas distancias y los convierte a su forma, fuerza y sincronización originales. Las señales restauradas pueden entonces enviarse hasta el receptor que se encuentra en el extremo final de la fibra. Los paneles de conexión de fibra son similares a los paneles de conexión que se usan con el cable de cobre. Estos paneles aumentan la flexibilidad de una red óptica permitiendo que se realicen rápidos cambios en la conexión de los dispositivos, como por ejemplo, switches o routers con distintos tendidos de fibra o enlaces de cable disponibles. 3.2.9 Señales y ruido en las fibras ópticas El cable de fibra óptica no se ve afectado por las fuentes de ruido externo que causan problemas en los medios de cobre porque la luz externa no puede ingresar a la fibra salvo en el extremo del transmisor. El manto está cubierto por un material amortiguador y una chaqueta exterior que impide que la luz entre o abandone el cable. Además, la transmisión de la luz en la fibra de un cable no genera interferencia que afecte la transmisión en cualquier otra fibra. Esto significa que la fibra no tiene el problema de diafonía que sí tienen los medios de cobre. De hecho, la calidad de los enlaces de fibra óptica es tan buena que los estándares recientes para Gigabit y 10 Gigabit Ethernet establecen distancias de transmisión que superan de lejos el tradicional alcance de 2 kilómetros de la Ethernet original. La transmisión por fibra óptica permite que se utilice el protocolo de Ethernet en las Redes de Área Metropolitana (MANs) y en las Redes de Área Amplia (WAN). Aunque la fibra es el mejor de todos los medios de transmisión a la hora de transportar grandes cantidades de datos a grandes distancias, la fibra también presenta dificultades. Cuando la luz viaja a través de la fibra, se pierde parte de la energía de la luz. Cuanto mayor es la distancia a la que se envía una señal a través de una fibra, más fuerza pierde la señal. Esta atenuación de la señal se debe a diversos factores implícitos en la naturaleza de la fibra en sí. El factor más importante es la dispersión. La dispersión de la luz dentro de una fibra es producida por defectos microscópicos en la uniformidad (distorsiones) de la fibra que reflejan y dispersan parte de la energía de la luz. La absorción es otra causa de pérdida de la energía de la luz. Cuando un rayo de luz choca algunos tipos de impurezas químicas dentro de una fibra, estas impurezas absorben parte de la energía. Esta energía de la luz se convierte en una pequeña cantidad de energía calórica. La absorción hace que la señal luminosa sea un

Page 33: Semestre1 Ccna

poco más débil. Otro factor que causa atenuación en la señal luminosa son las irregularidades o asperezas de fabricación en el límite entre el núcleo y el revestimiento. Se pierde potencia en la señal luminosa debido a que la reflexión interna total no es perfecta en el área áspera de la fibra. Cualquier imperfección microscópica en el espesor o simetría de la fibra reducirá la reflexión interna total y el revestimiento absorberá parte de la energía de la luz. La dispersión de un destello de luz también limita las distancias de transmisión de una fibra. Dispersión es el término técnico para la difusión de los pulsos de luz a medida que viajan a través de la fibra. La fibra multimodo de índice graduado está diseñada para compensar las diferentes distancias que los distintos modos de luz deben recorrer en un núcleo de gran diámetro. La fibra monomodo no presenta el problema de trayectos múltiples que una señal luminosa puede recorrer. Sin embargo, la dispersión cromática es una característica de tanto la fibra multimodo como la monomodo. Cuando las longitudes de onda de la luz viajan a través del vidrio a velocidades levemente distintas a las de otras longitudes de onda, se produce la dispersión cromática. Es por eso que un prisma separa las longitudes de onda de la luz. Lo ideal es que la fuente de luz Láser o LED emita luz de una sola frecuencia. Entonces, la dispersión cromática no sería un problema. Lamentablemente, los láser y, en especial, los LED generan una gama de longitudes de onda de modo que la dispersión cromática limita la distancia hasta que se pueden alcanzar en una fibra. Si se transmite una señal a una distancia demasiado grande, lo que comenzó como un pulso brillante de energía de luz llegará al receptor dispersa, difusa y débil. El receptor no podrá diferenciar un uno de un cero. 3.2.10 Instalación, cuidado y prueba de la fibra óptica Una de las causas principales de la atenuación excesiva en el cable de fibra óptica es la instalación incorrecta. Si se estira o curva demasiado la fibra, se pueden producir pequeñas fisuras en el núcleo que dispersan los rayos de luz. Al curvar demasiado la fibra se puede cambiar el ángulo de incidencia de los rayos de luz que llegan al límite entre el núcleo y el revestimiento. Entonces, el ángulo de incidencia del rayo será menor que el ángulo crítico para la reflexión interna total. En lugar de reflejarse siguiendo la zona del doblez, parte de los rayos de luz se refractarán en el revestimiento y se perderán. Para evitar que la curvatura de la fibra sean demasiado pronunciada, generalmente, se introduce la fibra a un tipo de tubo instalado que se llama de interducto. El interducto es mucho más rígido que la fibra y no se puede curvar de forma pronunciada, de modo que la fibra en el interducto tampoco puede curvarse en exceso. El interducto protege la fibra, hace que sea mucho más sencillo el tendido y asegura que no se exceda el radio de la curvatura (límite de curva) de la fibra. Una vez que se ha tendido la fibra, se debe partir (cortar) y pulir adecuadamente los extremos de la fibra para asegurarse de que estén lisos. Se utiliza un microscopio o un instrumento de prueba con una lupa incorporada para examinar el extremo de la fibra y verificar que tenga la forma y pulido correctos. Entonces, con cuidado, se fija el conector al extremo de la fibra. Los conectores incorrectamente instalados, empalmes no apropiados y el empalme de dos cables de diferentes tamaños de núcleo reducirán drásticamente la fuerza de la señal luminosa. Una vez que el cable de fibra óptica y los conectores han sido instalados, los conectores y los extremos de las fibras deben mantenerse totalmente limpios. Los extremos de las fibras deben cubrirse con cubiertas protectoras para evitar daños. Cuando estas cubiertas son retiradas, antes de conectar la fibra a un puerto en un switch o router, se deben limpiar los extremos de las fibras. Se deben limpiar los extremos de la fibra con paño especial sin pelusa para limpiar lentes, humedecido con alcohol isopropílico puro. Los puertos de fibra de un switch o router también deben mantenerse cubiertos cuando no se encuentran en uso y limpiarse con paño especial para limpiar lentes y alcohol isopropílico antes de realizar la conexión. La suciedad en los extremos de una fibra disminuirá gravemente la cantidad de luz que llega al receptor. La dispersión, absorción, difusión, incorrecta instalación y los extremos de fibra sucios son factores que disminuyen la fuerza de la señal luminosa y se conocen como ruido de fibra. Antes de usar un cable de fibra óptica, es importante probarlo para asegurarse de que suficiente luz llegue al receptor para que éste pueda detectar los ceros y los unos en la señal. Al planear un enlace de fibra óptica, es necesario calcular la pérdida tolerable de la potencia de la señal. Esto se conoce como presupuesto de pérdida del enlace óptico. Piense en un presupuesto financiero mensual. Una vez que todos los gastos son sustraídos del ingreso inicial, debe quedar dinero suficiente para todo el mes. El decibel (dB) es la unidad utilizada para medir la cantidad de pérdida de potencia. Mide el porcentaje de potencia que sale del transmisor y realmente llega al receptor. Es de suma importancia probar los enlaces de fibra y se deben mantener registros de los resultados de estas pruebas. Se utilizan varios tipos de equipo de prueba para fibra óptica. Dos de los instrumentos más importantes son los Medidores de Pérdida Óptica y los Reflectómetros Ópticos de Dominio de Tiempo (OTDR). Estos medidores prueban el cable óptico para asegurar que el cable cumpla con los estándares TIA para la

Page 34: Semestre1 Ccna

fibra. También verifican que la pérdida de potencia del enlace no caiga por debajo del presupuesto de pérdida del enlace óptico. Los OTDR pueden brindar mucha información detallada de diagnóstico sobre el enlace de fibra. Pueden utilizarse para detectar las fallas de un enlace cuando se produce un problema. 3.3 Medios inalámbricos 3.3.1 Estándares y organizaciones de las LAN inalámbricas Una comprensión de las reglamentaciones y los estándares que se aplican a la tecnología inalámbrica permitirá la interoperabilidad y cumplimiento de todas las redes existentes. Como en el caso de las redes cableadas, la IEEE es la principal generadora de estándares para las redes inalámbricas. Los estándares han sido creados en el marco de las reglamentaciones creadas por el Comité Federal de Comunicaciones (Federal Communications Commission - FCC). La tecnología clave que contiene el estándar 802.11 es el Espectro de Dispersión de Secuencia Directa (DSSS). El DSSS se aplica a los dispositivos inalámbricos que operan dentro de un intervalo de 1 a 2 Mbps. Un sistema de DSSS puede transmitir hasta 11 Mbps, pero si opera por encima de los 2 Mbps se considera que no cumple con la norma. El siguiente estándar aprobado fue el 802.11b, que aumentó las capacidades de transmisión a 11 Mbps. Aunque las WLAN de DSSS podían interoperar con las WLAN de Espectro de Dispersión por Salto de Frecuencia (FHSS), se presentaron problemas que motivaron a los fabricantes a realizar cambios en el diseño. En este caso, la tarea del IEEE fue simplemente crear un estándar que coincidiera con la solución del fabricante. 802.11b también recibe el nombre de Wi-Fi™ o inalámbrico de alta velocidad y se refiere a los sistemas DSSS que operan a 1, 2; 5,5 y 11 Mbps. Todos los sistemas 802.11b cumplen con la norma de forma retrospectiva, ya que también son compatibles con 802.11 para velocidades de transmisión de datos de 1 y 2 Mbps sólo para DSSS. Esta compatibilidad retrospectiva es de suma importancia ya que permite la actualización de la red inalámbrica sin reemplazar las NIC o los puntos de acceso. Los dispositivos de 802.11b logran un mayor índice de tasa de transferencia de datos ya que utilizan una técnica de codificación diferente a la del 802.11, permitiendo la transferencia de una mayor cantidad de datos en la misma cantidad de tiempo. La mayoría de los dispositivos 802.11b todavía no alcanzan tasa de transferencia de 11 Mbps y, por lo general, trabajan en un intervalo de 2 a 4 Mbps. 802.11a abarca los dispositivos WLAN que operan en la banda de transmisión de 5 GHZ. El uso del rango de 5 GHZ no permite la interoperabilidad de los dispositivos 802.11b ya que éstos operan dentro de los 2,4 GHZ. 802.11a puede proporcionar una tasa de transferencia de datos de 54 Mbps y con una tecnología propietaria que se conoce como "duplicación de la velocidad" ha alcanzado los 108 Mbps. En las redes de producción, la velocidad estándar es de 20-26 Mbps. 802.11g ofrece tasa de transferencia que 802.11a pero con compatibilidad retrospectiva para los dispositivos 802.11b utilizando tecnología de modulación por Multiplexión por División de Frecuencia Ortogonal (OFDM). Cisco ha desarrollado un punto de acceso que permite que los dispositivos 802.11b y 802.11a coexistan en la misma WLAN. El punto de acceso brinda servicios de ‗gateway‘ que permiten que estos dispositivos, que de otra manera serían incompatibles, se comuniquen. 3.3.2 Dispositivos y topologías inalámbricas Una red inalámbrica puede constar de tan sólo dos dispositivos. - Los nodos pueden ser simples estaciones de trabajo de escritorio o computadores de mano. Equipada con NIC inalámbricas, se puede establecer una red ‗ad hoc‘ comparable a una red cableada de par a par. Ambos dispositivos funcionan como servidores y clientes en este entorno. Aunque brinda conectividad, la seguridad es mínima, al igual que la tasa de transferencia. Otro problema de este tipo de red es la compatibilidad. Muchas veces, las NIC de diferentes fabricantes no son compatibles. Para resolver el problema de la compatibilidad, se suele instalar un punto de acceso (AP) para que actúe como hub central para el modo de infraestructura de la WLAN. El AP se conecta mediante cableado a la LAN cableada a fin de proporcionar acceso a Internet y conectividad a la red cableada. Los AP están equipados con antenas y brindan conectividad inalámbrica a un área específica que recibe el nombre de celda. Según la composición estructural del lugar donde se instaló el AP y del tamaño y ganancia de las antenas, el tamaño de la celda puede variar enormemente. Por lo general, el alcance es de 91,44 a 152,4 metros (300 a 500 pies). Para brindar servicio a áreas más extensas, es posible instalar múltiples puntos de acceso con cierto grado de superposición. Esta superposición permite pasar de una celda a otra (roaming). Esto es muy parecido a los servicios que brindan las empresas de teléfonos celulares. La superposición, en redes con múltiples puntos de acceso, es fundamental para permitir el movimiento de los dispositivos dentro de la WLAN. Aunque los estándares del IEEE no determinan nada al respecto, es aconsejable una superposición de un 20-30% . Este índice de superposición permitirá el roaming entre las celdas y así la actividad de desconexión y reconexión no tendrá interrupciones. Cuando se activa un cliente dentro de la WLAN, la red comenzará a "escuchar" para ver si hay un dispositivo compatible con el cual "asociarse". Esto se conoce como "escaneo" y puede ser activo o pasivo.

Page 35: Semestre1 Ccna

El escaneo activo hace que se envíe un pedido de sondeo desde el nodo inalámbrico que busca conectarse a la red. Este pedido de sondeo incluirá el Identificador del Servicio (SSID) de la red a la que se desea conectar. Cuando se encuentra un AP con el mismo SSID, el AP emite una respuesta de sondeo. Se completan los pasos de autenticación y asociación. Los nodos de escaneo pasivo esperan las tramas de administración de beacons (beacons) que son transmitidas por el AP (modo de infraestructura) o nodos pares (ad hoc). Cuando un nodo recibe un beacon que contiene el SSID de la red a la que se está tratando de conectar, se realiza un intento de conexión a la red. El escaneo pasivo es un proceso continuo y los nodos pueden asociarse o desasociarse de los AP con los cambios en la potencia de la señal. 3.3.3 Cómo se comunican las LAN inalámbricas Una vez establecida la conectividad con la WLAN, un nodo pasará las tramas de igual forma que en cualquier otra red 802.x. Las WLAN no usan una trama estándar 802.3. Por lo tanto, el término "Ethernet inalámbrica" puede resultar engañoso. Hay tres clases de tramas: de control, de administración y de datos. Sólo la trama de datos es parecida las tramas 802.3. Las tramas inalámbricas y la 802.3 cargan 1500 bytes; sin embargo una trama de Ethernet no puede superar los 1518 bytes mientras que una trama inalámbrica puede alcanzar los 2346 bytes. En general, el tamaño de la trama de WLAN se limita a 1518 bytes ya que se conecta, con mayor frecuencia, a una red cableada de Ethernet. Debido a que la radiofrecuencia (RF) es un medio compartido, se pueden producir colisiones de la misma manera que se producen en un medio compartido cableado. La principal diferencia es que no existe un método por el que un nodo origen pueda detectar que ha ocurrido una colisión. Por eso, las WLAN utilizan Acceso Múltiple con Detección de Portadora/Carrier y Prevención de Colisiones (CSMA/CA). Es parecido al CSMA/CD de Ethernet. Cuando un nodo fuente envía una trama, el nodo receptor devuelve un acuse de recibo positivo (ACK). Esto puede consumir un 50% del ancho de banda disponible. Este gasto, al combinarse con el del protocolo de prevención de colisiones reduce la tasa de transferencia real de datos a un máximo de 5,0 a 5,5 Mbps en una LAN inalámbrica 802.11b con una velocidad de 11 Mbps. El rendimiento de la red también estará afectado por la potencia de la señal y por la degradación de la calidad de la señal debido a la distancia o interferencia. A medida que la señal se debilita, se puede invocar la Selección de Velocidad Adaptable (ARS). La unidad transmisora disminuirá la velocidad de transmisión de datos de 11 Mbps a 5,5 Mbps, de 5,5 Mbps a 2 Mbps o de 2 Mbps a 1 Mbps. 3.3.4 Autenticación y asociación La autenticación de la WLAN se produce en la Capa 2. Es el proceso de autenticar el dispositivo no al usuario. Este es un punto fundamental a tener en cuenta con respecto a la seguridad, detección de fallas y administración general de una WLAN. La autenticación puede ser un proceso nulo, como en el caso de un nuevo AP y NIC con las configuraciones por defecto en funcionamiento. El cliente envía una trama de petición de autenticación al AP y éste acepta o rechaza la trama. El cliente recibe una respuesta por medio de una trama de respuesta de autenticación. También puede configurarse el AP para derivar la tarea de autenticación a un servidor de autenticación, que realizaría un proceso de credencial más exhaustivo. La asociación que se realiza después de la autenticación, es el estado que permite que un cliente use los servicios del AP para transferir datos. Tipos de autenticación y asociación * No autenticado y no asociado * El nodo está desconectado de la red y no está asociado a un punto de acceso. * Autenticado y no asociado * El nodo ha sido autenticado en la red pero todavía no ha sido asociado al punto de acceso. * Autenticado y asociado * El nodo está conectado a la red y puede transmitir y recibir datos a través del punto de acceso. Métodos de Autenticación IEEE 802.11 presenta dos tipos de procesos de autenticación. El primer proceso de autenticación es un sistema abierto. Se trata de un estándar de conectividad abierto en el que sólo debe coincidir el SSID. Puede ser utilizado en un entorno seguro y no seguro aunque existe una alta capacidad de los ‗husmeadores‘ de red de bajo nivel para descubrir el SSID de la LAN. El segundo proceso es una clave compartida. Este proceso requiere el uso de un cifrado del Protocolo de

Page 36: Semestre1 Ccna

Equivalencia de Comunicaciones Inalámbricas (WEP). WEP es un algoritmo bastante sencillo que utiliza claves de 64 y 128 bits. El AP está configurado con una clave cifrada y los nodos que buscan acceso a la red a través del AP deben tener una clave que coincida. Las claves del WEP asignadas de forma estática brindan un mayor nivel de seguridad que el sistema abierto pero definitivamente no son invulnerables a la piratería informática. El problema del ingreso no autorizado a las WLAN actualmente está siendo considerado por un gran número de nuevas tecnologías de soluciones de seguridad. 3.3.5 Los espectros de onda de radio y microondas Los computadores envían señales de datos electrónicamente. Los transmisores de radio convierten estas señales eléctricas en ondas de radio. Las corrientes eléctricas cambiantes en la antena de un transmisor generan ondas de radio. Estas ondas de radio son irradiadas en líneas rectas desde la antena. Sin embargo, las ondas de radio se atenúan a medida que se alejan de la antena transmisora. En una WLAN, una señal de radio medida a una distancia de sólo 10 metros (30 pies) de la antena transmisora suele tener sólo 1/100mo de su potencia original. Al igual que lo que sucede con la luz, las ondas de radio pueden ser absorbidas por ciertos materiales y reflejadas por otros. Al pasar de un material, como el aire, a otro material, como una pared de yeso, las ondas de radio se refractan. Las gotas de agua que se encuentran en el aire también dispersan y absorben las ondas de radio. Es importante recordar estas cualidades de las ondas de radio cuando se está planificando una WLAN para un edificio o en un complejo de edificios. El proceso de evaluar la ubicación donde se instala una WLAN se conoce como inspección del sitio. Como las señales de radio se debilitan a medida que se alejan del transmisor, el receptor también debe estar equipado con una antena. Cuando las ondas de radio llegan a la antena del receptor, se generan débiles corrientes eléctricas en ella. Estas corrientes eléctricas, producidas por las ondas de radio recibidas, son equivalentes a las corrientes que originalmente generaron las ondas de radio en la antena del transmisor. El receptor amplifica la fuerza de estas señales eléctricas débiles. En un transmisor, las señales eléctricas (datos) que provienen de un computador o de una LAN no son enviadas directamente a la antena del transmisor. En cambio, estas señales de datos son usadas para alterar una segunda señal potente llamada señal portadora. El proceso de alterar una señal portadora que ingresará a la antena del transmisor recibe el nombre de modulación. Existen tres formas básicas en las que se puede modular una señal portadora de radio. Por ejemplo: las estaciones de radio de Amplitud Modulada (AM) modulan la altura (amplitud) de la señal portadora. Las estaciones de Frecuencia Modulada (FM) modulan la frecuencia de la señal portadora según lo determina la señal eléctrica proveniente del micrófono. En las WLAN, se utiliza un tercer tipo de modulación llamado modulación de fase para superponer la señal de los datos a la señal portadora enviada por el transmisor. En este tipo de modulación, los bits de datos de una señal eléctrica cambian la fase de la señal portadora. Un receptor demodula la señal portadora que llega desde su antena. El receptor interpreta los cambios de fase de estos la señal portadora y la reconstruye a partir de la señal eléctrica de datos original. 3.3.6 Señales y ruido en una WLAN En una red Ethernet cableada, a menudo, resulta simple diagnosticar la causa de una interferencia. Cuando se utiliza una tecnología de RF es necesario tener en cuenta varios tipos de interferencia. La banda estrecha es lo opuesto a la tecnología de espectro de dispersión. Como su nombre lo indica, la banda estrecha no afecta al espectro de frecuencia de la señal inalámbrica. Una solución para el problema de interferencia en la banda estrecha consiste en simplemente cambiar el canal que utiliza el AP. En realidad, diagnosticar la causa de interferencia en la banda estrecha puede ser una experiencia costosa y que consume tiempo. Identificar la fuente requiere el uso de un analizador de espectro que resulta relativamente costoso, aunque se trate de un modelo económico. La interferencia en la banda completa afecta toda la gama del espectro. Las tecnologías Bluetooth™ saltan a través de los 2.4 GHz completo, varias veces por segundo y pueden producir una interferencia significativa en una red 802.11b. Es común ver carteles en instalaciones que usan redes inalámbricas solicitando que se desconecten todos los dispositivos Bluetooth™ antes de entrar. En los hogares y las oficinas, un dispositivo que, a menudo, se pasa por alto y que causa interferencia es el horno de microondas estándar. Un microondas que tenga una pérdida de tan sólo un watt que ingrese al espectro de RF puede causar una importante interferencia en la red. Los teléfonos inalámbricos que funcionan en el espectro de 2.4GHZ también pueden producir trastornos en la red. Las condiciones climáticas, inclusive las más extremas, por lo general no afectan la señal de RF. Sin embargo, la niebla o condiciones de humedad elevada pueden afectar y afectan las redes inalámbricas. Los rayos también pueden cargar la atmósfera y alterar el trayecto de una señal transmitida.

Page 37: Semestre1 Ccna

La primera fuente de problemas de señal, y la más obvia, es la estación transmisora y el tipo de antena. Una estación de mayor potencia transmitirá la señal a mayor distancia y una antena parabólica que concentre la señal aumentará el alcance de la transmisión. En un entorno SOHO, la mayoría de los puntos de acceso utilizan antenas omnidireccionales gemelas que transmiten la señal en todas las direcciones reduciendo así el alcance de la comunicación. 3.3.7 Seguridad de la transmisión inalámbrica Como ya se ha tratado en este capítulo, la seguridad de las transmisiones inalámbricas puede ser difícil de lograr. Donde existen redes inalámbricas, la seguridad es reducida. Esto ha sido un problema desde los primeros días de las WLAN. En la actualidad, muchos administradores no se ocupan de implementar prácticas de seguridad efectivas. Están surgiendo varios nuevos protocolos y soluciones de seguridad tales como las Redes Privadas Virtuales (VPN) y el Protocolo de Autenticación Extensible (EAP). En el caso del EAP, el punto de acceso no brinda autenticación al cliente, sino que pasa esta tarea a un dispositivo más sofisticado, posiblemente un servidor dedicado, diseñado para tal fin. Con un servidor integrado, la tecnología VPN crea un túnel sobre un protocolo existente, como por ejemplo el IP. Esta forma una conexión de Capa 3, a diferencia de la conexión de Capa 2 entre el AP y el nodo emisor. * Desafío EAP-MD5: El Protocolo de Autenticación Extensible (EAP) es el tipo de autenticación más antiguo, muy parecido a la protección CHAP con contraseña de una red cableada. * LEAP (Cisco): El Protocolo Liviano de Autenticación Extensible es el tipo más utilizado en los puntos de acceso de las WLAN de Cisco. LEAP brinda seguridad durante el intercambio de credenciales, cifra utilizando claves dinámicas WEP y admite la autenticación mutua. * Autenticación del usuario: Permite que sólo usuarios autenticados se conecten, envíen y reciban datos a través de la red inalámbrica. * Cifrado: Brinda servicios de cifrado que ofrecen protección adicional de los datos contra intrusos. * Autenticación de datos: Asegura la integridad de los datos, autenticando los dispositivos fuente y destino. La tecnología VPN cierra efectivamente la red inalámbrica ya que una WLAN irrestricta envía tráfico automáticamente entre los nodos que parecen estar en la misma red inalámbrica. Las WLAN a menudo se extienden por afuera del perímetro del hogar o de la oficina donde se las instala y, si no hay seguridad, sin mucho esfuerzo los intrusos pueden infiltrarse en la red. Por otra parte, es poco el esfuerzo necesario de parte del administrador de la red para brindar seguridad de bajo nivel a la WLAN. Módulo 4: Prueba del cable Descripción general Los medios de redes constituyen literal y físicamente la columna vertebral de una red. La baja calidad de un cableado de red provocará fallas en la red y un desempeño poco confiable. Todos los medios de redes, de cobre, fibra óptica e inalámbricos, requieren una prueba para asegurar que cumplen con estrictas pautas de especificación. Estas pruebas se basan en ciertos conceptos eléctricos y matemáticos y expresiones tales como señal, onda, frecuencia y ruido. La comprensión de este vocabulario es útil para el aprendizaje de redes, cableado y prueba de cables. El objetivo de la primera lección de este módulo es brindar algunas definiciones básicas que servirán para comprender los conceptos sobre pruebas de cables que se presentan en la segunda sección. La segunda lección de este módulo describe los temas relacionados con la prueba de los medios utilizados para la conectividad de la capa física en las redes de área local (LAN). Para que la LAN funcione correctamente, el medio de la capa física debería cumplir con las especificaciones de los estándares industriales. La atenuación, que es el deterioro de la señal, y el ruido, que es la interferencia que sufre la señal, pueden causar problemas en las redes porque los datos enviados pueden ser interpretados incorrectamente o no ser reconocidos en absoluto después de haber sido recibidos. La terminación correcta de los conectores de cables y la instalación correcta de cables son importantes. Si se siguen los estándares durante la instalación, se deberían minimizar las reparaciones, los cambios, la atenuación y los niveles de ruido. Una vez instalado el cable, un instrumento de certificación de cables puede verificar que la instalación cumple las especificaciones TIA/EIA. Este módulo también describe las muchas e importantes pruebas que se realizan. Los estudiantes que completen este módulo deberán poder: * Distinguir entre ondas sinoidales y ondas rectangulares. * Definir y calcular exponentes y logaritmos. * Definir y calcular decibelios. * Definir terminología básica relacionada con tiempo, frecuencia y ruido. * Distinguir entre ancho de banda digital y ancho de banda analógico.

Page 38: Semestre1 Ccna

* Comparar y contrastar niveles de ruido en distintos tipos de cableado. * Definir y describir los efectos de la falta de concordancia entre atenuación e impedancia. * Definir diafonía, paradiafonía, telediafonía y paradiafonía de suma de potencia. * Describir cómo los pares trenzados contribuyen a reducir el ruido. * Describir las diez pruebas de cable de cobre definidas en TIA/EIA-568-B. * Describir la diferencia entre un cable de Categoría 5 y un cable de Categoría 6 4.1 Información básica para el estudio de pruebas de cables basadas en frecuencia 4.1.1 Ondas Una onda es energía que circula de un lugar a otro. Hay muchos tipos de ondas, pero es posible describirlas todas con vocabulario similar. Es útil pensar en las ondas como disturbios. Un cubo de agua completamente quieto no tiene ondas, porque no hay disturbios. Por el contrario, el océano siempre presenta algún tipo de onda (las olas) detectable debido a los disturbios provocados por el viento y la marea. Las olas del océano se pueden describir en función de su altura, o amplitud, que se podría medir en metros. También se pueden describir en función de la frecuencia con la que llegan a la orilla, usando período y frecuencia. El período de las olas es el tiempo que transcurre entre cada ola, medida en segundos. La frecuencia es la cantidad de olas que llega a la orilla por segundo, medida en hertz. Un hercio equivale a una ola por segundo, o un ciclo por segundo. Experimente con estos conceptos, ajustando la amplitud y la frecuencia en la Figura . Los profesionales de redes están particularmente interesados en las ondas de voltaje en medios de cobre, las ondas de luz en fibras ópticas, y los campos alternos eléctricos y magnéticos que se denominan ondas electromagnéticas. La amplitud de una señal eléctrica también representa su altura, pero se mide en voltios (V) en lugar de metros (m). El período es la cantidad de tiempo que lleva cumplir un ciclo, medida en segundos. La frecuencia es la cantidad de ciclos completos por segundo, medida en hertz. Si se general deliberadamente un disturbio con una duración fija y predecible, éste se llama pulso. Los pulsos son una parte importante de las señales eléctricas porque son la base de la transmisión digital. El patrón de los pulsos representa el valor de los datos que están siendo transmitidos. 4.1.2 Ondas sinoidales y ondas rectangulares Las ondas sinoidales, son gráficos de funciones matemáticas. Las ondas sinoidales poseen ciertas características. Las ondas sinoidales son periódicas, o sea que repiten el mismo patrón a intervalos regulares. Las ondas sinoidales varían continuamente, o sea que no existen dos puntos adyacentes en el gráfico con el mismo valor. Las ondas sinoidales son representaciones gráficas de muchas ocurrencias naturales que varían regularmente a lo largo del tiempo. Algunos ejemplos de estas ocurrencias son la distancia de la tierra al sol, la distancia al suelo en un paseo en la Rueda de la Fortuna, y la hora a la que sale el sol. Debido a que las ondas sinoidales varían continuamente, son ejemplos de ondas analógicas. Las ondas rectangulares, al igual que las ondas sinoidales, son periódicas. Sin embargo, los gráficos de las ondas rectangulares no varían continuamente en el tiempo. La onda conserva un valor durante un tiempo, y luego cambia repentinamente a otro valor. Este valor se conserva durante cierto tiempo, y luego cambia rápidamente de vuelta a su valor original. Las ondas rectangulares representan señales digitales, o pulsos. Como ocurre con todas las ondas, las ondas rectangulares se pueden describir en función de su amplitud, período y frecuencia. 4.1.3 Exponentes y logaritmos En de redes, existen tres sistemas numéricos importantes: * Base 2: binario * Base 10: decimal * Base 16: hexadecimal Recuerde que la base de un sistema numérico se refiere a la cantidad de diferentes símbolos que pueden ocupar una posición. Por ejemplo, en el sistema binario sólo existen dos valores posibles, 0 y 1. En el sistema decimal, existen diez valores posibles, los números del 0 al 9. En el sistema hexadecimal existen 16 valores posibles, los números del 0 al 9 y las letras de la A a la F. Recuerde que 10x10 se puede escribir como 102. 102 significa diez al cuadrado o elevado a la segunda potencia. Escrito de esta manera, se dice que 10 es la base del número y 2 es el exponente del número. 10x10x10 se puede escribir como 103. 103 significa diez al cubo o diez elevado a la tercera potencia. La base sigue siendo 10, pero el exponente ahora es tres. Use las Actividades de Medios a continuación para practicar

Page 39: Semestre1 Ccna

el cálculo de exponentes. Ingrese "x" y se calculará "y", o bien, ingrese "y" y se calculará "x". La base de un sistema numérico también se refiere al valor de cada dígito. El dígito menos significativo posee un valor de base0, o uno. El siguiente dígito posee un valor de base1. Esto equivale a 2 para números binarios, 10 para números decimales y 16 para números hexadecimales. Los números con exponentes se utilizan para representar fácilmente cifras muy grandes o muy pequeñas. Es mucho más fácil y menos propenso a errores representar mil millones numéricamente como 109 que como 1000000000. Muchos de los cálculos de las pruebas de cables implican el uso de cifras muy grandes, por eso se prefiere el formato exponencial. Se pueden explorar exponentes en la actividad flash. Una forma de trabajar con las cifras muy grandes y muy pequeñas que ocurren en las redes es trasformar las cifras conforme a la regla, o función matemática, conocida como logaritmo. Logaritmo se abrevia como "log". Se puede usar cualquier número como base para un sistema de logaritmos. Sin embargo, la base 10 tiene muchas ventajas que no se pueden obtener en los cálculos ordinarios con otras bases. Para cálculos ordinarios se usa casi exclusivamente la base 10. Los logaritmos con 10 como base se conocen como logaritmos comunes. No es posible obtener el logaritmo de un número negativo. Para calcular el ―log‖ de un número, use una calculadora o la actividad flash. Por ejemplo, log (109) es igual a 9, log (10-3) = -3. También se puede calcular el logaritmo de números que no son potencias de 10, pero no se puede calcular el logaritmo de un número negativo. El estudio de los logaritmos está fuera de los objetivos de este curso. Sin embargo, la terminología se usa a menudo para calcular decibelios y para medir la intensidad de la señal en medios de cobre, ópticos e inalámbricos. 4.1.4 Decibelios El decibelio (dB) es una unidad de medida importante para la descripción de señales de redes. El decibelio se relaciona con los exponentes y logaritmos descritos en secciones anteriores. Hay dos fórmulas para calcular los decibelios: dB = 10 log10 (Pfinal / Pref) dB = 20 log10 (Vfinal / Vref) Las variables representan los siguientes valores: dB mide la pérdida o ganancia de la potencia de una onda. Los decibelios pueden ser valores negativos lo cual representaría una pérdida de potencia a medida que la onda viaja o un valor positivo para representar una ganancia en potencia si la señal es amplificada. log10 implica que el número entre paréntesis se transformará usando la regla del logaritmo en base 10 Pfinal es la potencia suministrada, medida en vatios Pref es la potencia original, medida en vatios Vfinal es el voltaje suministrado, medido en voltios Vreferencia es el voltaje original, medido en voltios La primera fórmula describe los decibelios en función de la potencia (P), y la segunda en función del voltaje (V). Normalmente, las ondas de luz en las fibras ópticas y las ondas de radio en el aire se miden usando la fórmula de potencia. Las ondas electromagnéticas en los cables de cobre se miden usando la fórmula del voltaje. Estas fórmulas poseen muchas cosas en común. En la formula dB = 10 log10 (Pfinal / Pref), ingrese valores para dB y Pref para encontrar la potencia entregada. Esta fórmula se puede utilizar para saber cuánta potencia queda en una onda de radio después de recorrer cierta distancia a través de diferentes materiales, y a través de varias etapas de sistemas electrónicos, como un radio. Para mayor exploración de los decibelios, intente con los siguientes ejemplos en las actividades flash: Si la potencia de la fuente del laser original, o Pref es siete microwatts (1 x 10-6 Watts), y la pérdida total de un enlace de fibra es 13 dB, cuanto potencia es entregada? Si la pérdida total de un enlace de fibra óptica es 84 dB y la potencia fuente del láser original (Pref) es un miliVatio (1 x 10-3 Vatios), ¿cuánta potencia se está suministrando? Si se miden dos microVoltios (2 x 10-6 Voltios) en el extremo de un cable y el voltaje fuente es de un voltio, ¿cuál es la pérdida o ganancia en decibelios? ¿Este valor es positivo o negativo? ¿Este valor representa una ganancia o un pérdida de voltaje? 4.1.5 Visualización de señales en tiempo y frecuencia

Page 40: Semestre1 Ccna

Uno de los hechos más importantes de la era informática es que los datos que simbolizan caracteres, palabras, fotografías, videos o música se pueden representar electrónicamente mediante configuraciones de voltaje en cables y dispositivos electrónicos. Los datos representados por estos patrones de voltaje se pueden convertir en ondas de luz o de radio, y luego de vuelta en ondas de voltaje. Piense en el ejemplo de un teléfono analógico. Las ondas de sonido de la voz del que llama ingresan a un micrófono en el teléfono. El micrófono convierte los patrones de energía sonora en patrones de voltaje de energía eléctrica que representan la voz. Si los patrones de voltaje se graficaran en función del tiempo, se verían los distintos patrones que representan la voz. Un osciloscopio es un dispositivo electrónico importante que se utiliza para observar señales eléctricas como, por ejemplo, las ondas de voltaje y pulsos. El eje "x" en el gráfico representa el tiempo y el eje "y" representa el voltaje o la corriente. Generalmente existen dos ejes "y", de modo que se pueden observar y medir dos ondas al mismo tiempo. El análisis de las señales con un osciloscopio se denomina análisis de dominio temporal, porque el eje ―x‖, o dominio de la función matemática, representa el tiempo. Los ingenieros también utilizan el análisis de dominio de frecuencia para estudiar señales. En el análisis de dominio de frecuencia, el eje ―x‖ representa la frecuencia. Un dispositivo electrónico denominado analizador de espectro genera gráficos para este tipo de análisis. Las señales electromagnéticas usan diferentes frecuencias para la transmisión, para que las diferentes señales no interfieran entre sí. Las señales de radio de Frecuencia Modulada (FM) usan frecuencias distintas de las señales de televisión o satélite. Cuando los oyentes cambian de estación de radio, están cambiando la frecuencia que recibe la radio. 4.1.6 Señales analógicas y digitales en tiempo y frecuencia Para entender la complejidad de las señales de redes y de las pruebas de cable, examine cómo las señales analógicas varían en función del tiempo y de la frecuencia. Primero, piense en una onda sinusoidal eléctrica de una sola frecuencia, cuya frecuencia es detectable por el oído humano. Si esta señal se transmite a un orador, es posible oír un tono. A continuación, imagine la combinación de varias ondas sinoidales. La onda resultante es más compleja que una onda sinusoidal pura. Se oirían varios tonos. El gráfico de varios tonos muestra varias líneas individuales que corresponden a la frecuencia de cada tono. Finalmente, imagine una señal compleja, como una voz o un instrumento musical. Si hay presentes muchos tonos diferentes, se representaría un espectro continuo de tonos individuales. 4.1.7 El ruido en tiempo y frecuencia El ruido es un concepto importante en los sistemas de comunicación, incluyendo las LAN. Cuando se habla de ruido, normalmente se hace referencia a sonidos indeseables; sin embargo, cuando se habla de comunicaciones se entiende por ruido señales indeseables. El ruido puede provenir de fuentes naturales y tecnológicas, y se agrega a las señales de datos en los sistemas de comunicación. Todos los sistemas de comunicación tienen cierta cantidad de ruido. Aunque es imposible eliminar el ruido, se pueden minimizar sus efectos si se comprenden los orígenes del ruido. Son muchas las posibles fuentes de ruido: * Cables cercanos que transportan señales de datos * Interferencia de radiofrecuencia (RFI), que es el ruido de otras señales que se están transmitiendo en las proximidades * Interferencia electromagnética (EMI), que es el ruido que proviene de fuentes cercanas como motores y luces * Ruido de láser en la transmisión o recepción de una señal óptica El ruido que afecta por igual a todas las frecuencias de transmisión se denomina ruido blanco. El ruido que afecta únicamente a pequeños intervalos de frecuencia se denomina interferencia de banda estrecha. Al detectarse en un receptor de radio, el ruido blanco interfiere con todas las estaciones de radio. La interferencia de banda estrecha afectaría sólo a algunas estaciones cuyas frecuencias estuvieran próximas entre sí. Al detectarse en una LAN, el ruido blanco podría afectar a todas las transmisiones de datos, pero la interferencia de banda estrecha puede interferir quizás sólo en algunas señales. 4.1.8 Ancho de banda El ancho de banda es un concepto sumamente importante para los sistemas de comunicación. Dos formas de considerar el ancho de banda, que resultan importantes en el estudio de las LAN, son el ancho de banda analógico y el ancho de banda digital. El ancho de banda analógico normalmente se refiere a la gama de frecuencias de un sistema electrónico analógico. El ancho de banda analógico se podría utilizar para describir la gama de frecuencias transmitidas por una estación de radio o un amplificador electrónico. La unidad de medida para el ancho de banda analógico es el hercio, al igual que la unidad de frecuencia.

Page 41: Semestre1 Ccna

El ancho de banda digital mide la cantidad de información que puede fluir desde un punto hacia otro en un período de tiempo determinado. La unidad de medida fundamental para el ancho de banda digital es bits por segundo (bps). Como las LAN son capaces de velocidades de miles o millones de bits por segundo, la medida se expresa en kbps o Mbps. Los medios físicos, las tecnologías actuales y las leyes de la física limitan el ancho de banda. Durante el proceso de prueba de los cables, se usa el ancho de banda analógico para determinar el ancho de banda digital de un cable de cobre. Las formas de onda digitales están compuestas de muchas ondas sinusoidales (ondas análogas). Las frecuencias analógicas se transmiten desde un extremo y se reciben en el extremo opuesto. Luego, ambas señales se comparan y se calcula la atenuación de la señal. En general, los medios capaces de admitir anchos de banda analógicos más altos sin niveles elevados de atenuación, también admiten anchos de banda digitales más altos. 4.2 Señales y ruido 4.2.1 Señales en cables de cobre y fibra óptica En los cables de cobre, las señales de datos se representan por niveles de voltaje que representan unos y ceros binarios. Los niveles de voltaje se miden respecto de un nivel de referencia de cero voltios tanto en el transmisor como en el receptor. Este nivel de referencia se denomina tierra de señal. Es importante que tanto el dispositivo transmisor como el receptor hagan referencia al mismo punto de referencia de cero voltios. Cuando es así, se dice que están correctamente conectados a tierra. Para que una LAN funcione correctamente, el dispositivo receptor debe poder interpretar con precisión los unos y ceros binarios transmitidos como niveles de voltaje. Como la tecnología actual de Ethernet admite velocidades de miles de millones de bits por segundo, cada bit debe ser reconocido, aun cuando su duración sea muy breve. Esto significa que es necesario retener lo más posible la potencia original de la señal, a medida que la señal recorre el cable y atraviesa los conectores. Anticipándonos a protocolos de Ethernet cada vez más veloces, las nuevas instalaciones de cables se deben hacer con los mejores cables, conectores y dispositivos de interconexión disponibles, tales como bloques de empuje y paneles de conexión. Existen dos tipos básicos de cables de cobre: blindados y no blindados. En los cables blindados, el material de blindaje protege la señal de datos de las fuentes externas de ruido, así como de ruido generado por señales eléctricas dentro del cable. El cable coaxial es un tipo de cable blindado. Se compone de un conductor de cobre sólido recubierto con material aislante, y luego con un blindaje conductor trenzado. En las aplicaciones LAN, el blindaje trenzado está conectado a tierra eléctricamente para proteger el conductor interno del ruido eléctrico externo. El blindaje contribuye además a eliminar la pérdida de la señal, evitando que la señal transmitida se escape del cable. Esto ayuda a que el cable coaxial sea menos sujeto al ruido que los otros tipos de cableado de cobre, pero también lo hace más caro. La necesidad de conectar el blindaje a tierra, así como el tamaño voluminoso del cable coaxial, dificultan su instalación en comparación con otros cables de cobre. Existen dos tipos de cables de par trenzado: par trenzado blindado (STP) y par trenzado no blindado (UTP). El cable STP contiene un blindaje conductivo externo conectado eléctricamente a tierra para aislar las señales del ruido eléctrico externo. El STP utiliza además blindajes metálicos internos que protegen cada par de cables del ruido generado por los otros pares. Al cable STP a veces se lo llama por error par trenzado apantallado (ScTP). ScTP se refiere generalmente a un cable de par trenzado de Categoría 5 o 5E, mientras que STP se refiere a un cable propietario de IBM que contiene solo dos pares de conductores. El cable ScTP es más caro, más difícil de instalar, y se usa con menos frecuencia que el UTP. El UTP no tiene blindaje y es más susceptible al ruido externo, pero se usa con más frecuencia por ser económico y más fácil de instalar. El cable de fibra óptica se usa para transmitir señales de datos mediante una tecnología que aumenta y disminuye la intensidad de la luz para representar unos y ceros binarios. La intensidad de una señal luminosa no disminuye tanto como la intensidad de una señal eléctrica sobre una tramo de igual longitud. Las señales ópticas no se ven afectadas por el ruido eléctrico, y no es necesario conectar la fibra óptica a tierra a menos que la chaqueta contenga un miembro de tensión metálico. Por lo tanto, se suele usar fibra óptica entre edificios y entre pisos de un mismo edificio. A medida que disminuyen los costos y aumenta la demanda de velocidad, es posible que la fibra óptica se use cada vez más en los medios LAN. 4.2.2 Atenuación y pérdida de inserción en medios de cobre La atenuación es la disminución de la amplitud de una señal sobre la extensión de un enlace. Los cables muy largos y las frecuencias de señal muy elevadas contribuyen a una mayor atenuación de la señal. Por esta razón, la atenuación en un cable se mide con un analizador de cable, usando las frecuencias más elevadas que dicho cable admite. La atenuación se expresa en decibelios (dB) usando números negativos. Los valores negativos de dB más bajos indican un mejor rendimiento del enlace.

Page 42: Semestre1 Ccna

Son muchos los factores que contribuyen a la atenuación. La resistencia del cable de cobre convierte en calor a parte de la energía eléctrica de la señal. La señal también pierde energía cuando se filtra por el aislamiento del cable y como resultado de la impedancia provocada por conectores defectuosos. La impedancia mide la resistencia del cable a la corriente alterna (CA) y se mide en ohmios. La impedancia normal, o característica, de un cable Cat5 es de 100 ohmios. Si un conector no está instalado correctamente en Cat5, tendrá un valor de impedancia distinto al del cable. Esto se conoce como discontinuidad en la impedancia o desacoplamiento de impedancias. La discontinuidad en la impedancia provoca atenuación porque una porción de la señal transmitida se volverá a reflejar en el dispositivo transmisor en lugar de seguir su camino al receptor, como si fuera un eco. Este efecto se complica si ocurren múltiples discontinuidades que hacen que porciones adicionales de la señal restante se vuelvan a reflejar en el transmisor. Cuando el retorno de este reflejo choca con la primera discontinuidad, parte de la señal rebota en dirección de la señal original, creando múltiples efectos de eco. Los ecos chocan con el receptor a distintos intervalos, dificultando la tarea de detectar con precisión los valores de datos de la señal. A esto se lo conoce como fluctuación, y genera errores en los datos. La combinación de los efectos de una señal atenuada con las discontinuidades en la impedancia en un enlace de comunicación se conoce como pérdida de inserción. El correcto funcionamiento de una red depende de una impedancia característica y constante en todos los cables y conectores, sin discontinuidades en la impedancia a lo largo de todo el sistema de cables. 4.2.3 Fuentes de ruido en medios de cobre El ruido consiste en cualquier energía eléctrica en el cable de transmisión que dificulte que un receptor interprete los datos enviados por el transmisor. En la actualidad, la certificación TIA/EIA-568-B de un cable exige que se hagan pruebas de varios tipos de ruido. La diafonía es la transmisión de señales de un hilo a otro circundante. Cuando cambia el voltaje en un hilo, se genera energía electromagnética. El hilo transmisor irradia esta energía como una señal de radio de un transmisor. Los hilos adyacentes del cable funcionan como antenas que reciben la energía transmitida, lo que interfiere con los datos transmitidos en esos hilos. Las señales de cables diferentes pero circundantes también pueden causar diafonía. Cuando la diafonía es provocada por una señal de otro cable, se conoce como acoplamiento de diafonía. La diafonía es más destructiva a frecuencias de transmisión elevadas. Los instrumentos de prueba de cables miden la diafonía aplicando una señal de prueba a un par de hilos. El analizador de cables mide la amplitud de las señales diafónicas no deseadas inducidas sobre los otros pares de hilos del cable. Los cables de par trenzado están diseñados para aprovechar los efectos de la diafonía para minimizar el ruido. En los cables de par trenzado, se utiliza un par de hilos para transmitir una señal. El par de hilos está trenzado de tal modo que cada hilo experimenta una diafonía similar. Como una señal de ruido en un hilo aparecerá en forma idéntica en el otro hilo, es fácil detectar este ruido y filtrarlo en el receptor. Trenzar un par de hilos en un cable, contribuye además a reducir la diafonía en las señales de datos o de ruido provenientes de un par de hilos adyacentes. En las categorías de UTP más altas, hacen falta más trenzas en cada par de hilos del cable para minimizar la diafonía a frecuencias de transmisión elevadas. Al colocar conectores en los extremos de los cables UTP, se debe minimizar el destrenzado de los pares de hilos para asegurar una comunicación confiable en la LAN. 4.2.4 Tipos de diafonía Existen tres tipos distintos de diafonía: * Paradiafonía (NEXT) * Telediafonía (FEXT) * Paradiafonía de suma de potencia (PSNEXT) La paradiafonía (NEXT) se computa como la relación entre la amplitud de voltaje de la señal de prueba y la señal diafónica, medida en el mismo extremo del enlace. Esta diferencia se expresa como un valor negativo en decibelios (dB). Los números negativos bajos indican más ruido, de la misma forma en que las temperaturas negativas bajas indican más calor. Tradicionalmente, los analizadores de cables no muestran el signo de menos que indica los valores NEXT negativos. Una lectura NEXT de 30 dB (que en realidad indica –30 dB) indica menos ruido NEXT y una señal más limpia que una lectura NEXT de 10 dB. El NEXT se debe medir de par en par en un enlace UTP, y desde ambos extremos del enlace. Para acortar los tiempos de prueba, algunos instrumentos de prueba de cables permiten que el usuario pruebe el desempeño NEXT de un enlace utilizando un intervalo de frecuencia mayor que la especificada por el estándar TIA/EIA. Las mediciones resultantes quizás no cumplan con TIA/EIA-568-B, y pasen por alto fallas en el enlace. Para verificar el correcto desempeño de un enlace, NEXT se debe medir desde ambos extremos del enlace con un

Page 43: Semestre1 Ccna

instrumento de prueba de buena calidad. Este es también un requisito para cumplir con la totalidad de las especificaciones para cables de alta velocidad. Debido a la atenuación, la diafonía que ocurre a mayor distancia del transmisor genera menos ruido en un cable que la NEXT. A esto se le conoce como telediafonía, o FEXT. El ruido causado por FEXT también regresa a la fuente, pero se va atenuando en el trayecto. Por lo tanto, FEXT no es un problema tan significativo como NEXT. La Paradiafonía de suma de potencia (PSNEXT) mide el efecto acumulativo de NEXT de todos los pares de hilos del cable. PSNEXT se computa para cada par de hilos en base a los efectos de NEXT de los otros tres pares. El efecto combinado de la diafonía proveniente de múltiples fuentes simultáneas de transmisión puede ser muy perjudicial para la señal. En la actualidad, la certificación TIA/EIA-568-B exige esta prueba de PSNEXT. Algunos estándares de Ethernet, como 10BASE-T y 100 BASE-TX, reciben datos de un solo par de hilos en cada dirección. No obstante, para las tecnologías más recientes como 1000 BASE-T, que reciben datos simultáneamente desde múltiples pares en la misma dirección, las mediciones de suma de potencias son pruebas muy importantes. 4.2.5 Estándares de prueba de cables El estándar TIA/EIA-568-B especifica diez pruebas que un cable de cobre debe pasar si ha de ser usado en una LAN Ethernet moderna de alta velocidad. Se deben probar todos los enlaces de cables a su calificación más alta aplicable a la categoría de cable que se está instalando. Los diez parámetros de prueba principales que se deben verificar para que un enlace de cable cumpla con los estándares TIA/EIA son: * Mapa de cableado * Pérdida de inserción * Paradiafonía (NEXT) * Paradiafonía de suma de potencia (PSNEXT) * Telediafonía del mismo nivel (ELFEXT) * Telediafonía del mismo nivel de suma de potencia (PSELFEXT) * Pérdida de retorno * Retardo de propagación * Longitud del cable * Sesgo de retardo El estándar de Ethernet especifica que cada pin de un conector RJ-45 debe tener una función particular. Una NIC (tarjeta de interfaz de red) transmite señales en los pins 1 y 2, y recibe señales en los pins 3 y 6. Los hilos de los cables UTP deben estar conectados a los correspondientes pins en cada extremo del cable. El mapa de cableado asegura que no existan circuitos abiertos o cortocircuitos en el cable. Un circuito abierto ocurre cuando un hilo no está correctamente unido al conector. Un cortocircuito ocurre cuando dos hilos están conectados entre sí. El mapa del cableado verifica además que la totalidad de los ocho cables estén conectados a los pins correspondientes en ambos extremos del cable. Son varias las fallas de cableado que el mapa de cableado puede detectar. La falla de par invertido ocurre cuando un par de hilos está correctamente instalado en un conector, pero invertido en el otro conector. Si el hilo blanco/naranja se termina en el pin 1 y el hilo naranja se termina en el pin 2 en uno de los extremos de un cable, pero de forma invertida en el otro extremo, entonces el cable tiene una falla de par invertido. Este ejemplo se ilustra en el gráfico. Una falla de cableado de par dividido ocurre cuando un hilo de un par se cruza con un hilo de un par diferente. Esta mezcla entorpece el proceso de cancelación cruzada y hace el cable más susceptible a la diafonía y la interferencia. Observe con atención los números de pin en el gráfico para detectar la falla de cableado. Un par dividido da lugar a dos pares transmisores o receptores, cada uno con dos hilos no trenzados entre sí. Las fallas de cableado de pares transpuestos se producen cuando un par de hilos se conecta a pins completamente diferentes en ambos extremos. Compare esto con un par invertido, en donde el mismo par de pins se usa en ambos extremos. 4.2.6 Otros parámetros de prueba La combinación de los efectos de una señal atenuada con las discontinuidades en la impedancia en un enlace de comunicación se conoce como pérdida de inserción. La pérdida de inserción se mide en decibelios en el extremo más lejano del cable. El estándar TIA/EIA exige que un cable y sus conectores pasen una prueba de pérdida de inserción antes de que se pueda usar dicho cable en una LAN, como enlace para comunicaciones. La diafonía se mide en cuatro pruebas distintas. Un analizador de cable mide la NEXT aplicando una señal de prueba a un par de cables y midiendo la amplitud de las señales de diafonía recibidas por los otros pares de cables. El valor NEXT, expresado en decibelios, se computa como la diferencia de amplitud entre la señal de prueba y la señal diafónica medidas en el mismo extremo del cable. Recuerde, como el número de decibelios

Page 44: Semestre1 Ccna

que muestra el analizador de cables es un número negativo, cuanto mayor sea ese número, menor será la NEXT en ese par de hilos. Tal como se había mencionado previamente, la prueba PSNEXT es en realidad un cálculo basado en los efectos NEXT combinados. La prueba de telediafonía de igual nivel (ELFEXT) mide FEXT. La ELFEXT de par a par se expresa en dB como la diferencia entre la pérdida FEXT medida y la pérdida de inserción del par de hilos cuya señal está perturbada por la FEXT. La ELFEXT es una medición importante en redes Ethernet que usan tecnología 1000BASE-T. La telediafonía de igual nivel de suma de potencia (PSELFEXT) es el efecto combinado de ELFEXT de todos los pares de hilos La pérdida de retorno es una medida en decibelios de los reflejos causados por discontinuidades en la impedancia en todos los puntos del enlace. Recuerde que el mayor impacto de la pérdida de retorno no es la pérdida de la potencia de señal. El problema significativo es que los ecos de señal producidos por los reflejos originados en discontinuidades en la impedancia, afectarán al receptor a diferentes intervalos, causando la fluctuación de las señales. 4.2.7 Parámetros basados en tiempo El retardo de propagación es una medición simple del tiempo que tarda una señal en recorrer el cable que se está probando. El retardo en un par de hilos depende de su longitud, trenzado y propiedades eléctricas. Los retardos se miden con una precisión de centésimas de nanosegundos. Un nanosegundo es una mil millonésima parte de un segundo, o 0,000000001 segundo. El estándar TIA/EIA-568.B establece un límite para el retardo de propagación para las diversas categorías de UTP. Las mediciones de retardo de propagación son la base para las mediciones de longitud de cable. El TIA/EIA-568-B.1 especifica que la longitud física del enlace se calcula usando el par de hilos con el menor retardo eléctrico. Los analizadores de cables miden la longitud del hilo en base al retardo eléctrico según la medición de una prueba de Reflectometría en el dominio del tiempo (TDR), y no por la longitud física del revestimiento del cable. Ya que los hilos adentro del cable están trenzados, las señales en realidad recorren una distancia mayor que la longitud del cable. Cuando un analizador de cables realiza una medición TDR, envía una señal de pulso por un par de hilos y mide el tiempo requerido para que el pulso regrese por el mismo par de hilos. La prueba TDR se utiliza no sólo para determinar la longitud, sino también para identificar la distancia hasta las fallas de cableado, tales como cortocircuitos y circuitos abiertos. Cuando el pulso encuentra un circuito abierto, un cortocircuito o una conexión deficiente, la totalidad o una parte de la energía del pulso se vuelve a reflejar al analizador de cables. Esto puede ser usado para calcular la distancia aproximada a la falla. La distancia aproximada es útil a la hora de localizar un punto de conexión defectuoso en el recorrido de un cable, como un jack de pared. Los retardos de propagación de los distintos pares de hilos en un solo cable pueden presentar leves diferencias debido a diferencias en la cantidad de trenzas y propiedades eléctricas de cada par de cables. La diferencia de retardos entre pares se denomina sesgo de retardo. El sesgo de retardo es un parámetro crítico en redes de alta velocidad en las que los datos se transmiten simultáneamente a través de múltiples pares de hilos, tales como Ethernet 1000BASE-T. Si el sesgo de retardo entre los pares es demasiado grande, los bits llegan en momentos diferentes y los datos no se vuelven a ensamblar correctamente. A pesar de que un enlace de cable no es lo que más se ajusta a este tipo de transmisión de datos, la prueba de sesgo de retardo ayuda a garantizar que el enlace admitirá futuras actualizaciones a redes de alta velocidad. Todos los enlaces de cable en una LAN deben pasar todas las pruebas antes mencionadas, según lo especificado por el estándar TIA/EIA-568.B para ser considerados dentro de los estándares. Se debe usar un instrumento de certificación para asegurar que se pasan todas las pruebas para ser considerado dentro de los estándares. Estas pruebas garantizan que los enlaces de cable funcionarán de manera confiable a velocidades y frecuencias altas. Las pruebas de cables se deben realizar en el momento de instalar el cable, y a partir de ahí de forma periódica para garantizar que el cableado de la LAN cumpla con los estándares industriales. Se deben utilizar correctamente instrumentos de prueba para cables de buena calidad para garantizar la precisión de dichas pruebas. Además, se deben documentar cuidadosamente los resultados de las pruebas. 4.2.8 Prueba de fibra óptica Un enlace de fibra óptica consta de dos fibras de vidrio separadas que funcionan como recorridos de datos independientes. Una fibra transporta las señales transmitidas en una dirección, en tanto que la otra transporta señales en dirección contraria. Cada fibra de vidrio está cubierta por un revestimiento que no permite el paso de la luz, por lo tanto los cables de fibra óptica no presentan problemas de diafonía. La interferencia eléctrica desde el exterior, o ruido, no afecta los cableados de fibra óptica. Se produce atenuación en los enlaces de fibra óptica, pero en menor medida que en los cables de cobre. Los enlaces de fibra óptica están sujetos al equivalente óptico de la discontinuidad en la impedancia de UTP. Cuando la luz encuentra una discontinuidad óptica, tal como una impureza en el vidrio o una microfractura, parte de la señal de luz se refleja en la dirección opuesta. Esto significa que sólo una fracción de la señal de luz original continuará su recorrido por la fibra en su camino hacia el receptor. Como consecuencia, el receptor recibe una energía luminosa menor, lo que dificulta el reconocimiento de la señal. Al igual que con el cable UTP,

Page 45: Semestre1 Ccna

los conectores mal instalados son la principal causa del reflejo de luz y de la pérdida de potencia de la señal en las fibras ópticas. Como el ruido ya no es un problema en las transmisiones por fibra óptica, el problema principal en un enlace de fibra óptica es la potencia con la que una señal luminosa llega hasta el receptor. Si la atenuación debilita la señal luminosa en el receptor, se producirán errores en los datos. Las pruebas de cables de fibra óptica implican principalmente recorrer la fibra con una luz y medir si la cantidad de luz que llega al receptor es suficiente. EEn un enlace de fibra óptica, se debe calcular la cantidad aceptable de pérdida de potencia de señal que puede ocurrir sin que resulte inferior a los requisitos del receptor. A este cálculo se le conoce como presupuesto de pérdida del enlace óptico. Un instrumento para probar fibra, conocido como fuente de luz y medidor de potencia, verifica si el presupuesto de pérdida del enlace óptico ha sido excedido Si la fibra falla la prueba, se puede usar otro instrumento para probar cables para indicar donde ocurren las discontinuidades ópticas a lo largo de la longitud del enlace de cable. Un TDR óptico conocido como OTDR es capaz de localizar estas discontinuidades. Por lo general, el problema tiene que ver con conectores mal unidos. El OTDR indicará la ubicación de las conexiones defectuosas que se deberán reemplazar. Una vez corregidas las fallas, se debe volver a probar el cable. 4.2.9 Un nuevo estándar El 20 de junio de 2002, se publicó el suplemento para la Categoría 6 (o Cat 6) en el estándar TIA-568. El título oficial del estándar es ANSI/TIA/EIA-568-B.2-1. Este nuevo estándar especifica el conjunto original de parámetros de rendimiento que deben ser probados para los cableados Ethernet, así como también los puntajes de aprobación para cada una de estas pruebas. Los cables certificados como Cat 6 deben aprobar las diez pruebas. Aunque las pruebas de Cat 6 son esencialmente las mismas que las especificadas por el estándar Cat 5, el cable Cat 6 debe aprobar las pruebas con puntajes mayores para lograr la certificación. Un cable Cat 6 debe tener la capacidad de transportar frecuencias de hasta 250 MHz y debe presentar niveles inferiores de diafonía y pérdida de retorno. Un analizador de cables de buena calidad, similar a la serie Fluke DSP-4000 o Fluke OMNIScanner2 puede realizar todas las mediciones de prueba requeridas para las certificaciones Cat 5, Cat 5e y Cat 6, tanto para enlaces permanentes como en el canal. La figura muestra el Analizador de Cable Fluke DSP-4100 con un adaptador Canal/Tráfico DSP-LIA013 para Cat 5e. Módulo 5: Cableado de las LAN y las WAN Descripción general Aunque cada red de área local es única, existen muchos aspectos de diseño que son comunes a todas las LAN. Por ejemplo, la mayoría de las LAN siguen los mismos estándares y tienen los mismos componentes. Este módulo presenta información sobre los elementos de las LAN de Ethernet y los dispositivos de LAN más comunes. En la actualidad, están disponibles varias conexiones de red de área amplia (WAN). Éstas incluyen desde el acceso telefónico hasta acceso de banda ancha, y difieren en el ancho de banda, costo y equipo necesario. Este módulo presenta información sobre varios tipos de conexiones WAN. * Los estudiantes que completen este módulo deberán poder: * Identificar las características de las redes Ethernet * Identificar los cables de conexión directa, de conexión cruzada y transpuesto. * Describir las funciones, ventajas y desventajas de los repetidores, hubs, puentes, switches, y componentes de una red inalámbrica. * Describir las funciones de las redes de par a par. * Describir las funciones, ventajas, y desventajas de las redes cliente-servidor. * Describir y marcar la diferencia entre las conexiones WAN seriales, de Red Digital de Servicios Integrados (RDSI), de Línea Digital del Suscriptor (DSL), y de cable módem. * Identificar los puertos seriales, cables y conectores del router. * Identificar y describir la ubicación del equipo usado en las distintas configuraciones WAN. 5.1 Cableado LAN 5.1.1 Capa física de la LAN Se utilizan varios símbolos para representar los distintos tipos de medios. Token Ring se representa con un círculo. La Interfaz de Datos Distribuida por Fibra (FDDI) se representa con dos círculos concéntricos y el símbolo de Ethernet es una línea recta. Las conexiones seriales se representan con un rayo. Cada red informática se puede desarrollar con varios tipos de medios distintos. La función de los medios

Page 46: Semestre1 Ccna

consiste en transportar un flujo de información a través de la LAN. Las LAN inalámbricas usan la atmósfera, o el espacio como medio. Otros medios para networking limitan las señales de red a un cable o fibra. Los medios de networking se consideran componentes de la Capa 1, o la capa física, de las LAN. Cada medio tiene sus ventajas y desventajas. Algunas de las ventajas y desventajas se relacionan con: * La longitud del cable * El costo * La facilidad de instalación * La susceptibilidad a interferencias El cable coaxial, la fibra óptica, e incluso el espacio abierto pueden transportar señales de red. Sin embargo, el principal medio que se estudiará es el cable de par trenzado no blindado de Categoría 5 (UTP CAT 5) que incluye la familia de cables Cat 5e. Muchas topologías son compatibles con las LAN así como muchos diferentes medios físicos. La Figura muestra un subconjunto de implementaciones de la capa física que se pueden implantar para su uso con Ethernet. 5.1.2 Ethernet en el campus Ethernet es la tecnología LAN de uso más frecuente. Un grupo formado por las empresas Digital, Intel y Xerox, conocido como DIX, fue el primero en implementar Ethernet. DIX creó e implementó la primera especificación LAN Ethernet, la cual se utilizó como base para la especificación 802.3 del Instituto de Ingenieros Eléctrica y Electrónica (IEEE), publicada en 1980. Más tarde, el IEEE extendió la especificación 802.3 a tres nuevas comisiones conocidas como 802.3u (Fast Ethernet), 802.3z (Gigabit Ethernet transmitido en fibra óptica) y 802.3ab (Gigabit Ethernet en UTP). Los requisitos de la red pueden forzar a la actualización a topologías de Ethernet más rápidas. La mayoría de las redes de Ethernet admiten velocidades de 10 Mbps y 100 Mbps La nueva generación de productos para multimedia, imagen y base de datos puede fácilmente abrumar a redes que funcionan a las velocidades tradicionales de Ethernet de 10 y 100 Mbps. Los administradores de red pueden considerar proveer Gigabit Ethernet desde el backbone hasta los usuarios finales. Los costos de instalación de un nuevo cableado y de adaptadores pueden hacer que esto resulte casi imposible. Por el momento, Gigabit Ethernet en el escritorio no constituye una instalación estándar. Por lo general, las tecnologías Ethernet se pueden utilizar en redes de campus de muchas maneras diferentes: * Se puede utilizar Ethernet de 10 Mbps a nivel del usuario para brindar un buen rendimiento. Los clientes o servidores que requieren mayor ancho de banda pueden utilizar Ethernet de 100-Mbps. * Se usa Fast Ethernet como enlace entre el usuario y los dispositivos de red. Puede admitir la combinación de todo el tráfico de cada segmento Ethernet. * Para mejorar el rendimiento cliente-servidor a través de la red campus y evitar los cuellos de botella, se puede utilizar Fast Ethernet para conectar servidores empresariales. * A medida que se tornen económicos, se debe implementar Fast Ethernet o Gigabit Ethernet entre dispositivos backbone. 5.1.3 Medios de Ethernet y requisitos de conector Antes de seleccionar la implementación de Ethernet, tenga en cuenta los requisitos de los conectores y medios para cada una de ellas. También tenga en cuenta el nivel de rendimiento que necesita la red. Las especificaciones de los cables y conectores usados para admitir las implementaciones de Ethernet derivan del cuerpo de estándares de la Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de Industrias Electrónicas (EIA) Las categorías de cableado definidas para Ethernet derivan del Estándar de Recorridos y Espacios de Telecomunicaciones para Edificios Comerciales EIA/TIA-568 (SP-2840). La Figura compara las especificaciones de los cables y conectores para las implementaciones de Ethernet más conocidas. Es importante reconocer la diferencia entre los medios utilizados para Ethernet 10 Mbps y Ethernet 100 Mbps Las redes con una combinación de tráfico de 10 y 100-Mbps utilizan UTP Categoría 5 para admitir Fast Ethernet. 5.1.4 Medios de conexión La Figura muestra los diferentes tipos de conexión utilizados en cada implementación de la capa física. El jack y el conector de jack registrado (RJ-45) son los más comunes. En la próxima sección se discuten los conectores RJ-45 con más detalle. En algunos casos el tipo de conector de la tarjeta de interfaz de red (NIC) no se ajusta al medio al que se tiene que conectar. Como se ve en la Figura , puede existir una interfaz para el conector interfaz de unidad de conexión (AUI) de 15 pins. El conector AUI permite que medios diferentes se conecten cuando se usan con el

Page 47: Semestre1 Ccna

transceptor apropiado. Un transceptor es un adaptador que convierte un tipo de conexión a otra. Por ejemplo, un transceptor convierte un conector AUI en uno RJ-45, coaxial, o de fibra óptica. En Ethernet 10BASE5, o Thicknet, se utiliza un cable corto para conectar el AUI a un transceptor en el cable principal. 5.1.5 Implementación del UTP EIA/TIA especifica el uso de un conector RJ-45 para cables UTP. Las letras RJ significan "registered jack" (jack registrado), y el número 45 se refiere a una secuencia específica de cableado. El conector conector transparente RJ-45 muestra ocho hilos de distintos colores. Cuatro de estos hilos conducen el voltaje y se consideran "tip" (punta) (T1 a T4). Los otros cuatro hilos están conectados a tierra y se llaman "ring" (anillo) (R1 a R4). Tip y ring son términos que surgieron a comienzos de la era de la telefonía. Hoy, estos términos se refieren al hilo positivo y negativo de un par. Los hilos del primer par de un cable o conector se llaman T1 y R1. El segundo par son T2 y R2, y así sucesivamente. El conector RJ-45 es el componente macho, engarzado al extremo del cable. Como se ve en la Figura cuando observa el conector macho de frente, las ubicaciones de los pins están numeradas desde 8, a la izquierda, hasta 1, a la derecha. Como se ve en la Figura , el jack es el componente femenino en un dispositivo de red, toma de pared o panel de conexión. La Figura muestra las conexiones a presión en la parte posterior del jack donde se conecta el cable Ethernet UTP. Para que la electricidad fluya entre el conector y el jack, el orden de los hilos debe seguir el código de colores T568A, o T568B recomendado en los estándares EIA/TIA-568-B.1, como se ve en la Figura . Identifique la categoría de cableado EIA/TIA correcta que debe usar un dispositivo de conexión, refiriéndose a la documentación de dicho dispositivo, o ubicando alguna identificación en el mismo cerca del jack. Si no se dispone de la documentación o de alguna identificación, use categoría 5E o mayor, dado que las categorías superiores pueden usarse en lugar de las inferiores. Así podrá determinar si va a usar cable de conexión directa (straight-through) o de conexión cruzada (crossover). Si los dos conectores de un cable RJ-45 se colocan uno al lado del otro, con la misma orientación, podrán verse en cada uno los hilos de color. Si el orden de los hilos de color es el mismo en cada extremo, entonces el cable es de conexión directa, como se observa en la Figura . En un cable de conexión cruzada, los conectores RJ-45 de ambos extremos muestran que algunos hilos de un extremo del cable están cruzados a un pin diferente en el otro extremo del cable. La Figura muestra que los pins 1 y 2 de un conector se conectan respectivamente a los pins 3 y 6 de otro. La Figura da las pautas de qué tipo de cable se debe utilizar cuando se interconecten dispositivos de Cisco. Utilice cables de conexión directa para el siguiente cableado: * Switch a router * Switch a PC o servidor * Hub a PC o servidor Utilice cables de conexión cruzada para el siguiente cableado: * Switch a switch * Switch a hub * Hub a hub * Router a router * PC a PC * Router a PC La Figura ilustra cómo una red determinada puede requerir una variedad de tipos de cable. La categoría de cable UTP requerida depende del tipo de Ethernet que se elija. 5.1.6 Repetidores El término repetidor proviene de los inicios de las comunicaciones de larga distancia. El término describe una situación en la que una persona en una colina repite la señal que acababa de recibir de otra persona ubicada en una colina anterior. El proceso se repetía hasta que el mensaje llegaba a destino. El telégrafo, el teléfono, las microondas, y las comunicaciones por fibra óptica usan repetidores para fortalecer la señal enviada a través de largas distancias. Un repetidor recibe una señal, la regenera, y la transmite. El propósito de un repetidor es regenerar y retemporizar las señales de red a nivel de los bits para permitir que los bits viajen a mayor distancia a través de los medios. En Ethernet e IEEE 802.3 se implementa la ―regla 5-4-3‖, en referencia al número de repetidores y segmentos en un Backbone de acceso compartido con topología de árbol. La ―regla 5-4-3 divide la red en dos tipos de segmentos físicos: Segmentos Poblados (de usuarios), y Segmentos no Poblados (enlaces). En los

Page 48: Semestre1 Ccna

segmentos poblados se conectan los sistemas de los usuarios. Los segmentos no poblados se usan para conectar los repetidores de la red entre si. La regla manda que entre cualquiera dos nodos de una red, puede existir un máximo de cinco segmentos, conectados por cuatro repetidores o concentradores, y solamente tres de los cinco segmentos pueden tener usuarios conectados a los mismos. El protocolo Ethernet requiere que una señal enviada en la LAN alcance cualquier parte de la red dentro de una longitud de tiempo especificada. La ―regla 5-4-3‖ asegura que esto pase. Cada repetidor a través del cual pasa la señal añade una pequeña cantidad de tiempo al proceso, por lo que la regla está diseñada para minimizar el tiempo de transmisión de la señal. Demasiada latencia en la LAN incrementa la cantidad de colisiones tardías, haciendo la LAN menos eficiente. 5.1.7 Hubs Los hubs en realidad son repetidores multipuerto. En muchos casos, la diferencia entre los dos dispositivos radica en el número de puertos que cada uno posee. Mientras que un repetidor convencional tiene sólo dos puertos, un hub por lo general tiene de cuatro a veinticuatro puertos. Los hubs por lo general se utilizan en las redes Ethernet 10BASE-T o 100BASE-T, aunque hay otras arquitecturas de red que también los utilizan. El uso de un hub hace que cambie la topología de la red desde un bus lineal, donde cada dispositivo se conecta de forma directa al cable, a una en estrella. En un hub, los datos que llegan a un puerto del hub se transmiten de forma eléctrica a todos los otros puertos conectados al mismo segmento de red, salvo a aquel puerto desde donde enviaron los datos. Los hubs vienen en tres tipos básicos: * Pasivo: Un hub pasivo sirve sólo como punto de conexión física. No manipula o visualiza el tráfico que lo cruza. No amplifica o limpia la señal. Un hub pasivo se utiliza sólo para compartir los medios físicos. En sí, un hub pasivo no requiere energía eléctrica. * Activo: Se debe conectar un hub activo a un tomacorriente porque necesita alimentación para amplificar la señal entrante antes de pasarla a los otros puertos. * Inteligente: A los hubs inteligentes a veces se los denomina "smart hubs". Estos dispositivos básicamente funcionan como hubs activos, pero también incluyen un chip microprocesador y capacidades diagnósticas. Los hubs inteligentes son más costosos que los hubs activos, pero resultan muy útiles en el diagnóstico de fallas. Los dispositivos conectados al hub reciben todo el tráfico que se transporta a través del hub. Cuántos más dispositivos están conectados al hub, mayores son las probabilidades de que haya colisiones. Las colisiones ocurren cuando dos o más estaciones de trabajo envían al mismo tiempo datos a través del cable de la red. Cuando esto ocurre, todos los datos se corrompen. Cada dispositivo conectado al mismo segmento de red se considera un miembro de un dominio de colisión. Algunas veces los hubs se llaman concentradores, porque los hubs sirven como punto de conexión central para una LAN de Ethernet. 5.1.8 Redes inalámbricas Se puede crear una red inalámbrica con mucho menos cableado que el necesario para otras redes. Las señales inalámbricas son ondas electromagnéticas que se desplazan a través del aire. Las redes inalámbricas usan Radiofrecuencia (RF), láser, infrarrojo (IR), o satélite/microondas para transportar señales de un computador a otro sin una conexión de cable permanente. El único cableado permanente es el necesario para conectar los puntos de acceso de la red. Las estaciones de trabajo dentro del ámbito de la red inalámbrica se pueden trasladar con facilidad sin tener que conectar y reconectar al cableado de la red. Una aplicación común de la comunicación inalámbrica de datos es la que corresponde a los usuarios móviles. Algunos ejemplos de usuarios móviles incluyen las personas que trabajan a distancia, aviones, satélites, las sondas espaciales remotas, naves espaciales y estaciones espaciales. En el centro de la comunicación inalámbrica están los dispositivos llamados transmisores y receptores. El transmisor convierte los datos fuente en ondas electromagnéticas (EM) que pasan al receptor. El receptor entonces transforma de nuevo estas ondas electromagnéticas en datos para el destinatario. Para una comunicación de dos vías, cada dispositivo requiere de un transmisor y un receptor. Muchos de los fabricantes de dispositivos para networking construyen el transmisor y el receptor en una sola unidad llamada transceptor o tarjeta de red inalámbrica. Todos los dispositivos en las LAN inalámbrica (WLAN) deben tener instalada la tarjeta apropiada de red inalámbrica. Las dos tecnologías inalámbricas más comunmente usadas para networking son IR y RF. La tecnología de IR tiene sus puntos débiles. Las estaciones de trabajo y los dispositivos digitales deben estar en la línea de vista del transmisor para operar. Las redes basadas en infrarrojo se acomodan a entornos donde todos los dispositivos digitales que requieren conectividad de red se encuentran en una habitación. La tecnología IR de networking se puede instalar rápidamente, pero las personas que cruzan la habitación, o el aire húmedo pueden debilitar u obstruir las señales de datos. Sin embargo, se están desarrollando nuevas tecnologías que pueden funcionar fuera de la vista.

Page 49: Semestre1 Ccna

La tecnología de radiofrecuencia permite que los dispositivos se encuentren en habitaciones o incluso en edificios diferentes. El rango limitado de señales de radio restringe el uso de esta clase de red. La tecnología de RF puede utilizar una o varias frecuencias. Una radiofrecuencia única está sujeta a interferencias externas y a obstrucciones geográficas. Además, una sola frecuencia es fácil de monitorear, lo que hace que la transmisión de datos no sea segura. La técnica del espectro disperso evita el problema de la transmisión insegura de datos porque usa múltiples frecuencias para aumentar la inmunidad al ruido y hace que sea más difícil que intrusos intercepten la transmisión de los datos. En la actualidad se utilizan dos enfoques para implementar el espectro disperso para transmisiones de WLAN. Uno es el Espectro Disperso por Salto de Frecuencia (FHSS) y el otro es el Espectro Disperso de Secuencia Directa (DSSS). Los detalles técnicos del funcionamiento de estas tecnologías exceden el alcance de este curso. 5.1.9 Puentes A veces, es necesario dividir una LAN grande en segmentos más pequeños que sean más fáciles de manejar. Esto disminuye la cantidad de tráfico en una sola LAN y puede extender el área geográfica más allá de lo que una sola LAN puede admitir. Los dispositivos que se usan para conectar segmentos de redes son los puentes, switches, routers y gateways. Los switches y los puentes operan en la capa de enlace de datos del modelo de referencia OSI. La función del puente es tomar decisiones inteligentes con respecto a pasar señales o no al segmento siguiente de la red. Cuando un puente recibe una trama a través de la red, se busca la dirección MAC destino en la tabla de puenteo para determinar si hay que filtrar, inundar, o copiar la trama en otro segmento. El proceso de decisión tiene lugar de la siguiente forma: * Si el dispositivo destino se encuentra en el mismo segmento que la trama, el puente impide que la trama vaya a otros segmentos. Este proceso se conoce como filtrado. * Si el dispositivo destino está en un segmento distinto, el puente envía la trama hasta el segmento apropiado. * Si el puente desconoce la dirección destino, el puente envía la trama a todos los segmentos excepto aquel en el cual se recibió. Este proceso se conoce como inundación. * Si se ubica de forma estratégica, un puente puede mejorar el rendimiento de la red de manera notoria. 5.1.10 Switches Un switch se describe a veces como un puente multipuerto. Mientras que un puente típico puede tener sólo dos puertos que enlacen dos segmentos de red, el switch puede tener varios puertos, según la cantidad de segmentos de red que sea necesario conectar. Al igual que los puentes, los switches aprenden determinada información sobre los paquetes de datos que se reciben de los distintos computadores de la red. Los switches utilizan esa información para crear tablas de envío para determinar el destino de los datos que se están mandando de un computador a otro de la red. Aunque hay algunas similitudes entre los dos, un switch es un dispositivo más sofisticado que un puente. Un puente determina si se debe enviar una trama al otro segmento de red, basándose en la dirección MAC destino. Un switch tiene muchos puertos con muchos segmentos de red conectados a ellos. El switch elige el puerto al cual el dispositivo o estación de trabajo destino está conectado. Los switches Ethernet están llegando a ser soluciones para conectividad de uso difundido porque, al igual que los puentes, los switches mejoran el rendimiento de la red al mejorar la velocidad y el ancho de banda. La conmutación es una tecnología que alivia la congestión en las LAN Ethernet, reduciendo el tráfico y aumentando el ancho de banda. Los switches pueden remplazar a los hubs con facilidad debido a que ellos funcionan con las infraestructuras de cableado existentes. Esto mejora el rendimiento con un mínimo de intrusión en la red ya existente. Actualmente en la comunicación de datos, todos los equipos de conmutación realizan dos operaciones básicas: La primera operación se llama conmutación de las tramas de datos. La conmutación de las tramas de datos es el procedimiento mediante el cual una trama se recibe en un medio de entrada y luego se transmite a un medio de salida. El segundo es el mantenimiento de operaciones de conmutación cuando los switch crean y mantienen tablas de conmutación y buscan loops. Los switches operan a velocidades mucho más altas que los puentes y pueden admitir nuevas funcionalidades como, por ejemplo, las LAN virtuales. Un switch Ethernet ofrece muchas ventajas. Un beneficio es que un switch para Ethernet permite que varios usuarios puedan comunicarse en paralelo usando circuitos virtuales y segmentos de red dedicados en un entorno virtualmente sin colisiones. Esto aumenta al máximo el ancho de banda disponible en el medio compartido. Otra de las ventajas es que desplazarse a un entorno de LAN conmutado es muy económico ya que el hardware y el cableado se pueden volver a utilizar. 5.1.11 Conectividad del host

Page 50: Semestre1 Ccna

La función de una NIC es conectar un dispositivo host al medio de red. Una NIC es una placa de circuito impreso que se coloca en la ranura de expansión de un bus de la motherboard o dispositivo periférico de un computador. La NIC también se conoce como adaptador de red. En los computadores portátiles o de mano, una NIC tiene el tamaño de una tarjeta de crédito. Las NIC se consideran dispositivos Capa 2 porque cada NIC lleva un identificador exclusivo codificado, denominado dirección MAC. Esta dirección se utiliza para controlar la comunicación de datos para el host de la red. Posteriormente se suministrarán más detalles acerca de la dirección MAC. Tal como su nombre lo indica, la tarjeta de interfaz de red controla el acceso del host al medio. En algunos casos, el tipo de conector de la NIC no concuerda con el tipo de medios con los que debe conectarse. Un buen ejemplo de ello es el router Cisco 2500. En el router, se ve un conector AUI. Ese conector AUI necesita conectarse a un cable Ethernet UTP Categoría 5 Para hacer esto, se usa un transmisor/receptor, también conocido como transceptor. El transceptor convierte un tipo de señal o conector en otro. Por ejemplo, un transceptor puede conectar una interfaz AUI de 15 pins a un jack RJ-45. Se considera un dispositivo de Capa 1, dado que sólo analiza los bits y ninguna otra información acerca de la dirección o de protocolos de niveles más altos. Las NIC no se representan con ningún símbolo estandarizado. Se entiende que siempre que haya dispositivos de networking conectados a un medio de red, existe alguna clase de NIC o un dispositivo similar a la NIC. Siempre que se ve un punto en un mapa topológico, éste representa una interfaz NIC o puerto que actúa como una NIC. 5.1.12 Comunicación de par a par Al usar tecnologías LAN y WAN, muchos computadores se interconectan para brindar servicios a sus usuarios. Para lograrlo, los computadores en red toman diferentes roles o funciones entre si. Algunos tipos de aplicaciones requieren que los computadores funcionen como socios en partes iguales. Otro tipo de aplicaciones distribuyen sus tareas de modo que las funciones de un computador sirvan a una cantidad de otros de manera desigual. En cualquiera de los casos, dos computadores por lo general se comunican entre si usando protocolos petición/respuesta. Un computador realiza una petición de servicio, y el segundo computador lo recibe y responde. El que realiza la petición asume el papel de cliente, y el que responde el de servidor. En una red de par a par, los computadores en red actúan como socios en partes iguales, o pares. Como pares, cada computador puede tomar la función de cliente o de servidor. En algún momento, el computador A pedirá un archivo al computador B, el cual responderá entregándole el archivo al computador A. El computador A funciona como cliente, mientras que el B funciona como servidor. Más tarde, los computadores A y B cambiarán de papel. En una red de par a par, los usuarios individuales controlan sus propios recursos. Los usuarios pueden decidir compartir ciertos archivos con otros usuarios. Es posible que los usuarios requieran una contraseña antes de permitir que otros tengan accesos a sus recursos. Ya que son los usuarios individuales los que toman estas decisiones, no hay un punto central de control o administración en la red. Además, en caso de fallas, los usuarios individuales deben tener una copia de seguridad de sus sistemas para poder recuperar los datos si estos se pierden. Cuando un computador actúa como servidor, es posible que el usuario de ese equipo note que el rendimiento es menor, ya que el equipo cumple las peticiones realizadas por otros sistemas. Las redes de par a par son relativamente fáciles de instalar y operar. No se necesita más equipo que un sistema operativo adecuado en cada computador. Como los usuarios controlan sus propios recursos, no se necesitan administradores dedicados. A medida que la red crece, las relaciones de par a par se hacen cada vez más difíciles de coordinar. Una red de par a par funciona bien con 10 computadores o menos. Ya que las redes de par a par no se adaptan bien a mayores tamaños, su eficiencia disminuye a medida que el número de computadores en la red aumenta. Además, los usuarios individuales controlan el acceso a los recursos de sus computadores, lo que implica que la seguridad se hace difícil de mantener. El modelo cliente/servidor de networking se puede usar para superar las limitaciones de la red de par a par. 5.1.13 Cliente/servidor En una disposición cliente/servidor, los servicios de red se ubican en un computador dedicado denominado servidor. El servidor responde a las peticiones de los clientes. El servidor es un computador central que se encuentra disponible de forma continua para responder a las peticiones de los clientes, ya sea de un archivo, impresión, aplicación u otros servicios. La mayoría de los sistemas operativos adoptan la forma de relación cliente/servidor. En general, los computadores de escritorio funcionan como clientes y uno o más computadores con potencia de procesamiento adicional, memoria y software especializado funcionan como servidores. Los servidores están diseñados para cumplir con las peticiones de muchos clientes a la vez. Antes de que un cliente pueda acceder a los recursos del servidor, se debe identificar y obtener la autorización para usar el recurso. Esto se hace asignando a cada cliente un nombre de cuenta y una contraseña que un servicio de

Page 51: Semestre1 Ccna

autenticación verifica. El servicio de autenticación actúa como guardián para proteger el acceso a la red. Con la centralización de las cuentas de los usuarios, de la seguridad, y del control de acceso, las redes basadas en servidores simplifican la administración de grandes redes. La concentración de recursos de red como archivos, impresoras y aplicaciones en servidores hace que sea más fácil hacer una copia de seguridad de los datos generados y de mantenerlos. En vez de estar repartidos en equipos individuales, los recursos pueden encontrarse en servidores dedicados y especializados para facilitar el acceso. La mayoría de los sistemas cliente/servidor también incluyen recursos para mejorar la red al agregar servicios que extienden la utilidad de la misma. La distribución de las funciones en las redes cliente/servidor ofrece grandes ventajas, pero también lleva aparejado algunos costos. Aunque la agregación de recursos en los sistemas de servidor trae mayor seguridad, acceso más sencillo y control coordinado, el servidor introduce un punto único de falla a la red. Sin el servidor operacional, la red no puede funcionar en absoluto. Los servidores requieren de personal entrenado y capacitado para su administración y mantenimiento. Esto aumenta los costos de hacer funcionar la red. Los sistemas de servidor también necesitan hardware adicional y especializado que hace que el costo aumente. Las Figuras y resumen las ventajas y desventajas comparativas entre los sistemas de par a par y cliente-servidor. 5.2 Cableado WAN 5.2.1 Capa física de las WAN La implementación de la capa física varía según la distancia que haya entre el equipo y los servicios, la velocidad, y el tipo de servicio en sí. Las conexiones seriales se usan para admitir los servicios WAN tales como líneas dedicadas arrendadas que usan el protocolo punto a punto (PPP) o de Frame Relay La velocidad de estas conexiones va desde los 2400 bits por segundo (bps) hasta el servicio T1 a 1544 megabits por segundo (Mbps) y el servicio E1 a 2048 megabits por segundo (Mbps). RDSI ofrece conexiones conmutadas por demanda o servicios de respaldo conmutados. La interfaz de acceso básico (BRI) RDSI está compuesta de dos canales principales de 64 kbps (canales B) para datos, un canal delta (canal D) de 16 kbps que se usa para señalizar y para otras tareas de administración del enlace. PPP se utiliza por lo general para transportar datos en los canales B. Con la creciente demanda de servicios residenciales de banda ancha de alta velocidad, las conexiones de DSL y cable módem se están haciendo más populares. Por ejemplo, un servicio DSL residencial puede alcanzar velocidades T1/E1 con la línea telefónica existente. Los servicios de cable utilizan la línea de cable coaxial del televisor. Una línea de cable coaxial provee una conectividad de alta velocidad que iguala o excede aquella de DSL. En un módulo posterior se presentará una explicación detallada de los servicios de DSL y cable módem. 5.2.2 Conexiones seriales de WAN Para las comunicaciones de larga distancia, las WAN utilizan transmisiones seriales. Este es un proceso por el cual los bits de datos se envían por un solo canal. Este proceso brinda comunicaciones de larga distancia confiables y el uso de un rango específico de frecuencias ópticas o electromagnéticas. Las frecuencias se miden en términos de ciclos por segundo y se expresan en Hercios (Hz). Las señales que se transmiten a través de las líneas telefónicas de grado de voz utilizan 4 kilohercios (KHz). El tamaño del rango de frecuencia se denomina ancho de banda. En el networking, el ancho de banda es la medida de bits por segundo que se transmite. Para un router Cisco, existen dos tipos de conexiones seriales que proveen la conectividad física en las instalaciones del cliente. El primer tipo de conexión serial es el conector de 60 pins. El segundo es un conector más compacto conocido como "smart serial". El conector utilizado por el proveedor varía de acuerdo con el tipo de equipo de servicios. Si la conexión se hace directamente con el proveedor de servicio, o con un dispositivo que provee señal de temporización tal como la unidad de servicio de canal/datos (CSU/DSU), el router será un equipo terminal de datos (DTE) y usará cable serial DTE. Por lo general, este es el caso. Sin embargo, hay situaciones en las que se requiere que el router local brinde la temporización y entonces utilizará un cable para equipo de comunicación de datos (DCE). En las prácticas de laboratorio incluidas en el currículo, uno de los routers conectados necesitará brindar la función de temporización. Por lo tanto, la conexión estará formada por un cable DCE y DTE. 5.2.3 Conexiones seriales y router Los routers son los responsables de enrutar paquetes de datos desde su origen hasta su destino en la LAN, y de proveer conectividad a la WAN. Dentro de un entorno de LAN, el router contiene broadcasts, brinda servicios locales de resolución de direcciones, tal como ARP, y puede segmentar la red utilizando una estructura de subred. Para brindar estos servicios, el router debe conectarse a la LAN y a la WAN.

Page 52: Semestre1 Ccna

Además de determinar el tipo de cable, es necesario determinar si se requieren conectores DTE o DCE. El DTE es el punto final del dispositivo del usuario en un enlace WAN. El DCE en general es el punto donde la responsabilidad de enviar los datos se transfiere al proveedor de servicios. Al conectarse en forma directa a un proveedor de servicios, o a un dispositivo como CSU/DSU que suministrará la señal de temporización, el router actúa como DTE y necesita un cable serial DTE. En general, esta es la forma de conectar los routers. Sin embargo, hay casos en que los routers tendrán que actuar como DCE. Al armar un escenario de routers conectados espalda contra espalda en un ámbito de prueba, uno de los routers debe ser DTE y el otro DCE. Al cablear routers para obtener conectividad serial, los routers tendrán puertos fijos o modulares. El tipo de puerto que se utilice afectará la sintaxis que se use posteriormente para configurar cada interfaz. Las interfaces de los routers que tienen puertos seriales fijos están rotuladas según tipo y número de puerto. Las interfaces de los routers que tienen puertos seriales modulares se rotulan según el tipo de puerto, ranura y número de puerto. La ranura indica la ubicación del módulo. Para configurar un puerto de una tarjeta modular, es necesario especificar la interfaz usando la sintaxis "tipo de puerto/número de ranura/número de puerto." Use el rótulo "serial 1/0," cuando la interfaz sea serial, el número de ranura donde se instala el módulo es el 1, y el puerto al que se hace referencia es el puerto 0. 5.2.4 Conexiones BRI RDSI y routers Se pueden utilizar dos tipos de interfaces para BRI RDSI: BRI S/T y BRI U. Establezca quién está suministrando el dispositivo de terminación de la red 1 (NT1) para determinar qué interfaz se necesita. Un NT1 es un dispositivo intermedio ubicado entre el router y el switch del proveedor de servicios RDSI. Se utiliza NT1 para conectar el cableado de cuatro hilos del abonado con el loop local de dos hilos convencional. En América del norte, el cliente por lo general provee el NT1, mientras que en el resto del mundo el proveedor de servicios se encarga del dispositivo NT1. Puede ser necesario colocar un NT1 externo si el dispositivo no está integrado al router. Revisar los rótulos de las interfaces de router es por lo general la manera más fácil de determinar si el router cuenta con un NT1 integrado. Una interfaz BRI con un NT1 integrado tiene el rótulo BRI U mientras que la interfaz BRI sin un NT1 integrado tiene el rótulo BRI S/T. Debido a que los routers pueden tener muchos tipos de interfaz RDSI, es necesario determinar qué tipo de interfaz se necesita al comprar el router. Se puede determinar el tipo de interfaz BRI al mirar el rótulo del puerto. Para interconectar el puerto BRI RDSI al dispositivo del proveedor de servicios, utilice un cable de conexión directa UTP de Categoría 5. 5.2.5 Conexiones DSL y routers El router ADSL Cisco 827 posee una interfaz de línea de suscripción digital asimétrica (ADSL). Para conectar una línea ADSL al puerto ADSL de un router, haga lo siguiente: * Conecte el cable del teléfono al puerto ADSL en el router. * Conecte el otro extremo del cable del teléfono al jack telefónico. Para conectar el router y obtener servicio DSL, utilice un cable del teléfono con conectores RJ-11. DSL funciona sobre líneas telefónicas comunes usando los pins 3 y 4 en un conector estándar RJ-11. 5.2.6 Conexiones de cable-modem y routers El router de acceso al cable uBR905 de Cisco ofrece la posibilidad de tener acceso a una red de alta velocidad a usuarios residenciales, de pequeñas oficinas y de oficinas hogareñas (SOHO) usando el sistema de televisión por cable. El router uBR905 tiene una interfaz de cable coaxial, o de conector F, que se conecta directamente al sistema de cable. El cable coaxial y el conector F se usan para conectar el router y el sistema de cable. Siga los siguientes pasos para conectar el router de acceso al cable uBR905 de Cisco al sistema de cable: * Verifique que el router no esté conectado a la alimentación eléctrica. * Ubique el cable coaxial de RF que sale de la toma de pared para cable coaxial (de TV). * Instale el divisor de señal/ acoplador direccional, si fuera necesario, para separar las señales para uso del televisor y del computador. Si fuera necesario, también instale un filtro de paso alto para evitar las interferencias entre las señales de TV y del computador. * Conecte el cable coaxial al conector F del router. Ajuste el conector con los dedos, luego apriétalo dándole un 1/6 de vuelta con una llave. * Asegúrese de que todos los otros conectores del cable coaxial, todos los divisores intermedios, acopladores, o conexiones a tierra, estén bien ajustados desde la distribución hasta el router uBR905 de Cisco. 5.2.7 Configuración de las conexiones de la consola

Page 53: Semestre1 Ccna

Para configurar inicialmente un dispositivo Cisco, se debe conectar directamente una conexión para administración al dispositivo. Para los equipos Cisco esta conexión para administración recibe el nombre de puerto de consola. Este puerto de consola permite monitorear y configurar un hub, switch o router Cisco. El cable que se utiliza entre la terminal y el puerto de consola es el cable transpuesto, con conectores RJ-45. El cable transpuesto, también conocido como cable de consola, tiene una disposición de pins diferente que la de los cables de conexión directa o conexión cruzada RJ-45 usados en Ethernet o BRI RDSI. La disposición de pins para un cable transpuesto es la siguiente: 1 a 8 2 a 7 3 a 6 4 a 5 5 a 4 6 a 3 7 a 2 8 a 1 Para establecer una conexión entre la terminal y el puerto de consola de Cisco, hay que realizar dos pasos. Primero conecte los dispositivos utilizando un cable transpuesto desde el puerto de consola del router hasta el puerto serial de la estación de trabajo. Es posible que se necesite un adaptador RJ-45-a-DB-9 o un RJ-45-a-DB-25 para la terminal o el PC. Luego, configure la aplicación de emulación de terminal con los siguientes parámetros de puerto (COM) usuales para equipos. 9600 bps, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo. El puerto AUX se utiliza para ofrecer administración fuera de banda a través de un módem. El puerto AUX debe ser configurado a través del puerto de consola antes de ser utilizado. El puerto AUX también utiliza los parámetros de 9600 bps, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo. Módulo 6: Principios básicos de Ethernet Descripción general Ethernet es ahora la tecnología LAN dominante en el mundo. Ethernet no es una tecnología sino una familia de tecnologías LAN que se pueden entender mejor utilizando el modelo de referencia OSI. Todas las LAN deben afrontar el tema básico de cómo denominar a las estaciones individuales (nodos) y Ethernet no es la excepción. Las especificaciones de Ethernet admiten diferentes medios, anchos de banda y demás variaciones de la Capa 1 y 2. Sin embargo, el formato de trama básico y el esquema de direccionamiento es igual para todas las variedades de Ethernet. Para que varias estaciones accedan a los medios físicos y a otros dispositivos de networking, se han inventado diversas estrategias para el control de acceso a los medios. Comprender la manera en que los dispositivos de red ganan acceso a los medios es esencial para comprender y detectar las fallas en el funcionamiento de toda la red. Los estudiantes que completen este módulo deberán poder: * Describir los principios básicos de la tecnología de Ethernet. * Explicar las reglas de denominación de la tecnología de Ethernet. * Definir cómo interactúan Ethernet y el modelo OSI. * Describir el proceso de entramado de Ethernet y la estructura de la trama. * Nombrar las denominaciones de los campos de Ethernet y su propósito. * Identificar las características del CSMA/CD. * Describir los aspectos claves de la temporización de Ethernet, espacio entre tramas y tiempo de postergación después de una colisión. * Definir los errores y las colisiones de Ethernet. * Explicar el concepto de auto-negociación en relación con la velocidad y el duplex. 6.1 Principios básicos de Ethernet 6.1.1 Introducción a Ethernet

Page 54: Semestre1 Ccna

La mayor parte del tráfico en Internet se origina y termina en conexiones de Ethernet. Desde su comienzo en la década de 1970, Ethernet ha evolucionado para satisfacer la creciente demanda de LAN de alta velocidad. En el momento en que aparece un nuevo medio, como la fibra óptica, Ethernet se adapta para sacar ventaja de un ancho de banda superior y de un menor índice de errores que la fibra ofrece. Ahora, el mismo protocolo que transportaba datos a 3 Mbps en 1973 transporta datos a 10 Gbps. El éxito de Ethernet se debe a los siguientes factores: * Sencillez y facilidad de mantenimiento. * Capacidad para incorporar nuevas tecnologías. * Confiabilidad * Bajo costo de instalación y de actualización. Con la llegada de Gigabit Ethernet, lo que comenzó como una tecnología LAN ahora se extiende a distancias que hacen de Ethernet un estándar de red de área metropolitana (MAN) y red de área amplia (WAN). La idea original de Ethernet nació del problema de permitir que dos o más host utilizaran el mismo medio y evitar que las señales interfirieran entre sí. El problema de acceso por varios usuarios a un medio compartido se estudió a principios de los 70 en la Universidad de Hawai. Se desarrolló un sistema llamado Alohanet para permitir que varias estaciones de las Islas de Hawai tuvieran acceso estructurado a la banda de radiofrecuencia compartida en la atmósfera. Más tarde, este trabajo sentó las bases para el método de acceso a Ethernet conocido como CSMA/CD. La primera LAN del mundo fue la versión original de Ethernet. Robert Metcalfe y sus compañeros de Xerox la diseñaron hace más de treinta años. El primer estándar de Ethernet fue publicado por un consorcio formado por Digital Equipment Company, Intel y Xerox (DIX). Metcalfe quería que Ethernet fuera un estándar compartido a partir del cual todos se podían beneficiar, de modo que se lanzó como estándar abierto. Los primeros productos que se desarrollaron utilizando el estándar de Ethernet se vendieron a principios de la década de 1980. Ethernet transmitía a una velocidad de hasta 10 Mbps en cable coaxial grueso a una distancia de hasta 2 kilómetros (Km). Este tipo de cable coaxial se conocía como thicknet (red con cable grueso) y tenía el ancho aproximado de un dedo pequeño. En 1985, el comité de estándares para Redes Metropolitanas y Locales del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) publicó los estándares para las LAN. Estos estándares comienzan con el número 802. El estándar para Ethernet es el 802.3. El IEEE quería asegurar que sus estándares fueran compatibles con el modelo OSI de la Organización Internacional de Estándares (ISO). Por eso, el estándar IEEE 802.3 debía cubrir las necesidades de la Capa 1 y de las porciones inferiores de la Capa 2 del modelo OSI. Como resultado, ciertas pequeñas modificaciones al estándar original de Ethernet se efectuaron en el 802.3. Las diferencias entre los dos estándares fueron tan insignificantes que cualquier tarjeta de interfaz de la red de Ethernet (NIC) puede transmitir y recibir tanto tramas de Ethernet como de 802.3. Básicamente, Ethernet y IEEE 802.3 son un mismo estándar. El ancho de banda de 10 Mbps de Ethernet era más que suficiente para los lentos computadores personales (PC) de los años 80. A principios de los 90, los PC se volvieron mucho más rápidos, los tamaños de los archivos aumentaron y se producían cuellos de botella en el flujo de los datos. La mayoría a causa de una baja disponibilidad del ancho de banda. En 1995, el IEEE anunció un estándar para la Ethernet de 100 Mbps. Más tarde siguieron los estándares para Ethernet de un gigabit por segundo (Gbps, mil millones de bits por segundo) en 1998 y 1999. Todos los estándares son básicamente compatibles con el estándar original de Ethernet. Una trama de Ethernet puede partir desde una antigua NIC de 10 Mbps de cable coaxial de un PC, subir a un enlace de fibra de Ethernet de 10 Gbps y terminar en una NIC de 100 Mbps. Siempre que permanezca en redes de Ethernet, el paquete no cambia. Por este motivo, se considera que Ethernet es muy escalable. El ancho de banda de la red podría aumentarse muchas veces sin cambiar la tecnología base de Ethernet. El estándar original de Ethernet ha sufrido una cantidad de enmiendas con el fin de administrar nuevos medios y mayores velocidades de transmisión. Estas enmiendas sirven de estándar para las tecnologías emergentes y para mantener la compatibilidad entre las variaciones de Ethernet. 6.1.2 Reglas del IEEE para la denominación de Ethernet Ethernet no es una tecnología para networking, sino una familia de tecnologías para networking que incluye Legacy, Fast Ethernet y Gigabit Ethernet. Las velocidades de Ethernet pueden ser de 10, 100, 1000 ó 10000 Mbps. El formato básico de la trama y las subcapas del IEEE de las Capas OSI 1 y 2 siguen siendo los mismos para todas las formas de Ethernet. Cuando es necesario expandir Ethernet para agregar un nuevo medio o capacidad, el IEEE publica un nuevo suplemento del estándar 802.3. Los nuevos suplementos reciben una designación de una o dos letras, como por ejemplo: 802.3u. También se asigna una descripción abreviada (identificador) al suplemento.

Page 55: Semestre1 Ccna

La descripción abreviada consta de: * Un número que indica el número de Mbps que se transmiten. * La palabra "base", que indica que se utiliza la señalización banda base. * Una o más letras del alfabeto que indican el tipo de medio utilizado (F = cable de fibra óptica, T = par trenzado de cobre no blindado). Ethernet emplea señalización banda base, la cual utiliza todo el ancho de banda del medio de transmisión. La señal de datos se transmite directamente por el medio de transmisión. Ethernet utiliza la señalización bandabase, la cual usa la totalidad del ancho de banda del medio de transmisión. La data se transmite directamente sobre el medio de transmisión. En la señalización banda ancha, la señal de datos nunca se transmite directamente sobre el medio. Ethernet usaba señalización de banda ancha en el estándar 10BROAD36. 10BROAD36 es el estándar IEEE para una red Ethernet 802.3 que usa cable coaxial grueso a 10 Mbps como medio de transmisión de banda ancha. 10BROAD36 se considera ahora obsoleto. Una señal analógica, o señal portadora, es modulada por la data, y la señal portadora modulada es transmitida. En la radio difusión y en la TV por cable se usa la señalización de banda ancha. Una señal analógica (señal portadora) es modulada por la data y se transmite la señal portadora modulada. Las estaciones de radio y la TV por cable utilizan la señalización banda ancha. El IEEE no puede forzar a los fabricantes de equipamiento para networking a cumplir con todas las particularidades de ningún estándar. El IEEE espera que se logre lo siguiente: * Proporcionar la información de ingeniería necesaria para fabricar dispositivos que cumplan con los estándares de Ethernet. * Promover que los fabricantes introduzcan innovaciones. 6.1.3 Ethernet y el modelo OSI Ethernet opera en dos áreas del modelo OSI, la mitad inferior de la capa de enlace de datos, conocida como subcapa MAC y la capa física. Para mover datos entre una estación Ethernet y otra, a menudo, estos pasan a través de un repetidor. Todas las demás estaciones del mismo dominio de colisión ven el tráfico que pasa a través del repetidor. Un dominio de colisión es entonces un recurso compartido. Los problemas que se originan en una parte del dominio de colisión generalmente tienen impacto en todo el dominio. Un repetidor es responsable de enviar todo el tráfico al resto de los puertos. El tráfico que el repetidor recibe nunca se envía al puerto por el cual lo recibe. Se enviará toda señal que el repetidor detecte. Si la señal se degrada por atenuación o ruido, el repetidor intenta reconstruirla y regenerarla. Los estándares garantizan un mínimo ancho de banda y operabilidad especificando el máximo número de estaciones por segmento, la longitud máxima del mismo, el máximo número de repetidores entre estaciones, etc. Las estaciones separadas por repetidores se encuentran dentro del mismo domino de colisión. Las estaciones separadas por puentes o routers se encuentran en dominios de colisión diferentes. La Figura relaciona una variedad de tecnologías Ethernet con la mitad inferior de la Capa 2 y con toda la Capa 1 del modelo OSI. Ethernet en la Capa 1 incluye las interfaces con los medios, señales, corrientes de bits que se transportan en los medios, componentes que transmiten la señal a los medios y las distintas topologías. La Capa 1 de Ethernet tiene un papel clave en la comunicación que se produce entre los dispositivos, pero cada una de estas funciones tiene limitaciones. La Capa 2 se ocupa de estas limitaciones. Las subcapas de enlace de datos contribuyen significativamente a la compatibilidad de tecnología y comunicación con el computador. La subcapa MAC trata los componentes físicos que se utilizarán para comunicar la información. La subcapa de Control de Enlace Lógico (LLC) sigue siendo relativamente independiente del equipo físico que se utiliza en el proceso de comunicación. La Figura relaciona una variedad de tecnologías Ethernet con la mitad inferior de la Capa 2 y con toda la Capa 1 del modelo OSI. Aunque hay otras variedades de Ethernet, las que se muestran son las de uso más difundido. 6.1.4 Denominación Para permitir el envío local de las tramas en Ethernet, se debe contar con un sistema de direccionamiento, una forma de identificar los computadores y las interfaces de manera exclusiva. Ethernet utiliza direcciones MAC que tienen 48 bits de largo y se expresan como doce dígitos hexadecimales. Los primeros seis dígitos hexadecimales, que IEEE administra, identifican al fabricante o al vendedor. Esta porción de la dirección de MAC se conoce como Identificador Exclusivo Organizacional (OUI). Los seis dígitos hexadecimales restantes representan el número de serie de la interfaz u otro valor administrado por el proveedor mismo del equipo. Las direcciones MAC a veces se denominan direcciones grabadas (BIA) ya que estas direcciones se graban en la memoria de sólo lectura (ROM) y se copian en la memoria de acceso aleatorio (RAM) cuando se inicializa la NIC.

Page 56: Semestre1 Ccna

En la capa MAC de enlace de datos se agregan encabezados e información final a los datos de la capa superior. El encabezado y la información final contienen información de control destinada a la capa de enlace de datos en el sistema destino. Los datos de las entidades de las capas superiores se encapsulan dentro de la trama de la capa de enlace, entre el encabezado y el cierre, para luego ser enviada sobre la red. La NIC utiliza la dirección MAC para evaluar si el mensaje se debe pasar o no a las capas superiores del modelo OSI. La NIC realiza esta evaluación sin utilizar tiempo de procesamiento de la CPU permitiendo mejores tiempos de comunicación en una red Ethernet. En una red Ethernet, cuando un dispositivo envía datos, puede abrir una ruta de comunicación hacia el otro dispositivo utilizando la dirección MAC destino. El dispositivo origen adjunta un encabezado con la dirección MAC del destino y envía los datos a la red. A medida que estos datos viajan a través de los medios de red, la NIC de cada dispositivo de la red verifica si su dirección MAC coincide con la dirección destino física que transporta la trama de datos. Si no hay concordancia, la NIC descarta la trama de datos. Cuando los datos llegan al nodo destino, la NIC hace una copia y pasa la trama hacia las capas superiores del modelo OSI. En una red Ethernet, todos los nodos deben examinar el encabezado MAC aunque los nodos que están comunicando estén lado a lado. Todos los dispositivos conectados a la LAN de Ethernet tienen interfaces con dirección MAC incluidas las estaciones de trabajo, impresoras, routers y switches. 6.1.5 Entramado de la Capa 2 Las corrientes de bits codificadas (datos) en medios físicos representan un logro tecnológico extraordinario, pero por sí solas no bastan para que las comunicaciones puedan llevarse a cabo. El entramado ayuda a obtener información esencial que, de otro modo, no se podría obtener solamente con las corrientes de bits codificadas: Entre los ejemplos de dicha información se incluye: * Cuáles son los computadores que se comunican entre sí * Cuándo comienza y cuándo termina la comunicación entre computadores individuales * Proporciona un método para detectar los errores que se produjeron durante la comunicación. * Quién tiene el turno para "hablar" en una "conversación" entre computadores El entramado es el proceso de encapsulamiento de la Capa 2. Una trama es la unidad de datos del protocolo de la Capa 2. Se podría utilizar un gráfico de voltaje en función de tiempo para visualizar los bits. Sin embargo, cuando se trabaja con grandes unidades de datos e información de control y direccionamiento, los gráficos de voltaje en función de tiempo pueden volverse excesivamente grandes y confusos. Otro tipo de diagrama que se puede utilizar es el diagrama de formato de trama, que se basa en los gráficos de voltaje en función de tiempo. Estos diagramas se leen de izquierda a derecha, como un gráfico de osciloscopio. Los diagramas de formato de trama muestran distintas agrupaciones de bits (campos), que ejecutan otras funciones. Hay varios tipos distintos de tramas que se describen en diversos estándares. Una trama genérica tiene secciones denominadas campos, y cada campo está formado por bytes. Los nombres de los campos son los siguientes: * Campo de inicio de trama * Campo de dirección * Campos de longitud/tipo * Campo de datos * Campo de secuencia de verificación de trama Cuando los computadores se conectan a un medio físico, debe existir alguna forma de informar a los otros computadores cuando están próximos a enviar un trama. Las diversas tecnologías tienen distintas formas para hacerlo, pero todas las tramas, de cualquier tecnología, tienen una secuencia de señalización de inicio de bytes. Todas las tramas contienen información de denominación como, por ejemplo, el nombre del computador origen (dirección MAC) y el nombre del computador destino (dirección MAC). La mayoría de las tramas tienen algunos campos especializados. En algunas tecnologías, el campo "longitud" especifica la longitud exacta de una trama en bytes. Algunas tienen un campo "tipo", que especifica el protocolo de Capa 3 que realiza la petición de envío. La razón del envío de tramas es hacer que los datos de las capas superiores, especialmente los datos de aplicación del usuario, lleguen desde el origen hasta el destino.. El paquete de datos incluye el mensaje a ser enviado, o los datos de aplicación del usuario.Puede resultar necesario agregar bytes de relleno de modo que las tramas tengan una longitud mínima para los fines de temporización. Los bytes de control de enlace lógico (LLC) también se incluyen en el campo de datos de las tramas del estándar IEEE. La subcapa LLC toma los datos de protocolo de la red, un paquete IP, y agrega información de control para ayudar a entregar ese paquete

Page 57: Semestre1 Ccna

IP al nodo de destino. La Capa 2 se comunica con las capas de nivel superior a través de LLC. Todas las tramas y los bits, bytes y campos ubicados dentro de ellas, están suceptibles a errores de distintos orígenes. El campo de Secuencia de verificación de trama (FCS) contiene un número calculado por el nodo de origen en función de los datos de la trama. Entonces, esta FCS se agrega al final de la trama que se envía. Cuando el computador destino recibe la trama, se vuelve a calcular el número FCS y se compara con el número FCS que se incluye en la trama. Si los dos números son distintos, se da por sentado que se ha producido un error, se descarta la trama y se le puede pedir al origen que vuelva a realizar la transmisión. Debido a que la fuente no puede detectar que la trama ha sido descartada, se deben iniciar retransmisiones por un protocolo de capa superior orientado a conexión que provea control de flujo de datos. Usualmente se dan retransmisiones debido a que los protocolos, como TCP/IP, requieren que las estaciones envíen tramas de reconocimiento, ACK, dentro de un tiempo preestablecido. Hay tres formas principales para calcular el número de Secuencia de verificación de trama: * Verificación por redundancia cíclica (CRC): Realiza cálculos en los datos. * Paridad bidimensional: Coloca a cada uno de los bytes en un arreglo bidimensional y realiza chequeos verticales y horizontales de redundancia sobre el mismo, creando así un byte extra, que resulta en un número par o impar de unos binarios. * Checksum (suma de verificación) de Internet: Agrega los valores de todos los bits de datos para obtener una suma El nodo que transmite los datos debe llamar la atención de otros dispositivos para iniciar una trama y para finalizar la trama. El campo de longitud implica el final y se considera que la trama termina después de la FCS. A veces hay una secuencia formal de bytes que se denomina delimitador de fin de trama. 6.1.6 Estructura de la trama de Ethernet En la capa de enlace de datos, la estructura de la trama es casi idéntica para todas las velocidades de Ethernet desde 10 Mbps hasta 10000 Mbps. Sin embargo, en la capa física, casi todas las versiones de Ethernet son sustancialmente diferentes las unas de las otras, teniendo cada velocidad un juego distinto de reglas de diseño arquitectónico. En la versión de Ethernet desarrollada por DIX antes de la adopción de la versión IEEE 802.3 de Ethernet, el Preámbulo y el Delimitador de Inicio de Trama (SFD) se combinaron en un solo campo, aunque el patrón binario era idéntico. El campo que se denomina Longitud/Tipo aparecía como sólo Longitud en las primeras versiones de IEEE y sólo como Tipo en la versión de DIX. Estos dos usos del campo se combinaron oficialmente en una versión posterior del IEEE, ya que el uso que ambos le daban al campo era común en toda la industria. El campo Tipo de la Ethernet II se incorporó a la actual definición de trama del 802.3. El nodo receptor debe determinar cuál de los protocolos de capa superior está presente en una trama entrante examinando el campo Longitud/Tipo. Si el valor de los dos octetos es igual o mayor que el de 0x600 (hexadecimal), 1536 (decimal), entonces el contenido del campo de Data es codificado de acuerdo al protocolo indicado. 6.1.7 Campos de la trama de Ethernet Algunos de los campos que se permiten o requieren en la Trama 802.3 de Ethernet son: * Preámbulo * Delimitador de inicio de trama. * Dirección destino * Dirección origen * Longitud/Tipo * Datos y relleno * FCS * Extensión El Preámbulo es un patrón alternado de unos y ceros que se utiliza para la sincronización de los tiempos en implementaciones de 10 Mbps y menores de Ethernet. Las versiones más veloces de Ethernet son síncronas y esta información de temporización es redundante pero se retiene por cuestiones de compatibilidad. Un Delimitador de Inicio de Trama es un campo de un octeto que marca el final de la información de temporización y contiene la secuencia de bits 10101011. El campo de dirección destino contiene la dirección destino MAC. La dirección destino puede ser unicast, multicast o de broadcast. El campo de dirección de origen contiene la dirección MAC de origen. La dirección origen generalmente es la dirección unicast del nodo de transmisión de Ethernet. Sin embargo, existe un número creciente de protocolos virtuales en uso que utilizan y a veces comparten una dirección MAC origen específica para identificar la entidad virtual.

Page 58: Semestre1 Ccna

El campo Longitud/Tipo admite dos usos diferentes. Si el valor es menor a 1536 decimal, 0x600 (hexadecimal), entonces el valor indica la longitud. La interpretación de la longitud se utiliza cuando la Capa LLC proporciona la identificación del protocolo. El valor del tipo especifica el protocolo de capa superior que recibe los datos una vez que se ha completado el procesamiento de Ethernet. La longitud indica la cantidad de bytes de datos que sigue este campo. Los Campos de datos y de relleno, de ser necesario, pueden tener cualquier longitud, mientras que la trama no exceda el tamaño máximo permitido de trama. La unidad máxima de transmisión (MTU) para Ethernet es de 1500 octetos, de modo que los datos no deben superar dicho tamaño. El contenido de este campo no está especificado. Se inserta un relleno no especificado inmediatamente después de los datos del usuario cuando no hay suficientes datos de usuario para que la trama cumpla con la longitud mínima especificada. Ethernet requiere que cada trama tenga entre 64 y 1518 octetos de longitud. Una FCS contiene un valor de verificación CRC de 4 bytes, creado por el dispositivo emisor y recalculado por el dispositivo receptor para verificar la existencia de tramas dañadas. Ya que la corrupción de un solo bit en cualquier punto desde el inicio de la dirección destino hasta el extremo del campo de FCS hará que la checksum (suma de verificación) sea diferente, la cobertura de la FCS se auto-incluye. No es posible distinguir la corrupción de la FCS en sí y la corrupción de cualquier campo previo que se utilizó en el cálculo. 6.2 Operación de Ethernet 6.2.1 Control de acceso al medio (MAC) MAC se refiere a los protocolos que determinan cuál de los computadores de un entorno de medios compartidos (dominio de colisión) puede transmitir los datos. La subcapa MAC, junto con la subcapa LLC, constituyen la versión IEEE de la Capa 2 del modelo OSI. Tanto MAC como LLC son subcapas de la Capa 2. Hay dos categorías amplias de Control de acceso al medio: determinística (por turnos) y la no determinística (el que primero llega, primero se sirve). Ejemplos de protocolos determinísticos son: el Token Ring y el FDDI. En una red Token Ring, los host individuales se disponen en forma de anillo y un token de datos especial se transmite por el anillo a cada host en secuencia. Cuando un host desea transmitir, retiene el token, transmite los datos por un tiempo limitado y luego envía el token al siguiente host del anillo. El Token Ring es un entorno sin colisiones ya que sólo un host es capaz de transmitir a la vez. Los protocolos MAC no determinísticos utilizan el enfoque de "el primero que llega, el primero que se sirve". CSMA/CD es un sistema sencillo. La NIC espera la ausencia de señal en el medio y comienza a transmitir. Si dos nodos transmiten al mismo tiempo, se produce una colisión y ningún nodo podrá transmitir. Las tres tecnologías comunes de Capa 2 son Token Ring, FDDI y Ethernet. Las tres especifican aspectos de la Capa 2, LLC, denominación, entramado y MAC, así como también los componentes de señalización y de medios de Capa 1. Las tecnologías específicas para cada una son las siguientes: * Ethernet: topología de bus lógica (el flujo de información tiene lugar en un bus lineal) y en estrella o en estrella extendida física (cableada en forma de estrella) * Token Ring: topología lógica de anillo (en otras palabras, el flujo de información se controla en forma de anillo) y una topología física en estrella (en otras palabras, está cableada en forma de estrella) * FDDI: topología lógica de anillo (el flujo de información se controla en un anillo) y topología física de anillo doble (cableada en forma de anillo doble) 6.2.2 Reglas de MAC y detección de la colisión/postergación de la retransmissión Ethernet es una tecnología de broadcast de medios compartidos. El método de acceso CSMA/CD que se usa en Ethernet ejecuta tres funciones: * Transmitir y recibir paquetes de datos * Decodificar paquetes de datos y verificar que las direcciones sean válidas antes de transferirlos a las capas superiores del modelo OSI * Detectar errores dentro de los paquetes de datos o en la red En el método de acceso CSMA/CD, los dispositivos de networking que tienen datos para transmitir funcionan en el modo "escuchar antes de transmitir". Esto significa que cuando un nodo desea enviar datos, primero debe determinar si los medios de networking están ocupados. Si el nodo determina que la red está ocupada, el nodo esperará un tiempo determinado al azar antes de reintentar. Si el nodo determina que el medio de networking no está ocupado, comenzará a transmitir y a escuchar. El nodo escucha para asegurarse que ninguna otra estación transmita al mismo tiempo. Una vez que ha terminado de transmitir los datos, el dispositivo vuelve al modo de escuchar. Los dispositivos de networking detectan que se ha producido una colisión cuando aumenta la amplitud de la señal en los medios de networking.

Page 59: Semestre1 Ccna

Cuando se produce una colisión, cada nodo que se encuentra en transmisión continúa transmitiendo por poco tiempo a fin de asegurar que todos los dispositivos detecten la colisión. Una vez que todos los dispositivos la han detectado, se invoca el algoritmo de postergación y la transmisión se interrumpe. Los nodos interrumpen la transmisión por un período determinado al azar, que es diferente para cada dispositivo. Cuando caduca el período de retardo cada nodo puede intentar ganar acceso al medio de networking. Los dispositivos involucrados en la colisión no tienen prioridad para transmitir datos. 6.2.3 Temporización de Ethernet Las reglas y especificaciones básicas para el adecuado funcionamiento de Ethernet no son particularmente complicadas aunque algunas de las implementaciones más veloces de la capa física así se están volviendo. A pesar de su sencillez básica, cuando se produce un problema en Ethernet, a menudo resulta difícil determinar el origen. Debido a la arquitectura común en bus de Ethernet, también descrita como punto único de falla distribuido, el alcance del problema a menudo abarca a todos los dispositivos del dominio de colisión. En los casos en que se utilizan repetidores, esto puede incluir dispositivos separados hasta por cuatro segmentos. Cualquier estación de una red Ethernet que desee trasmitir un mensaje, primero "escucha" para asegurar que ninguna otra estación se encuentre transmitiendo. Si el cable está en silencio, la estación comienza a transmitir de inmediato. La señal eléctrica tarda un tiempo en transportarse por el cable (retardo) y cada repetidor subsiguiente introduce una pequeña cantidad de latencia en el envío de la trama desde un puerto al siguiente. Debido al retardo y a la latencia, es posible que más de una estación comience a transmitir a la vez o casi al mismo tiempo. Esto produce una colisión. Si la estación conectada opera en full duplex entonces la estación puede enviar y recibir de forma simultánea y no se deberían producir colisiones. Las operaciones en full-duplex también cambian las consideraciones de temporización y eliminan el concepto de la ranura temporal. La operación en full-duplex permite diseños de arquitectura de redes más grandes ya que se elimina la restricción en la temporización para la detección de colisiones. En el modo half duplex, si se asume que no se produce una colisión, la estación transmisora enviará 64 bits de información de sincronización de tiempos que se conoce como preámbulo. La estación transmisora entonces transmitirá la siguiente información: * Información de las direcciones MAC destino y origen. * Otra información relacionada con el encabezado. * Los datos * La checksum (FCS) utilizada para asegurar que no se haya dañado el mensaje durante la transmisión. Las estaciones que reciben la trama recalculan la FCS para determinar si el mensaje entrante es válido y luego envían los mensajes válidos a la siguiente capa superior de la pila del protocolo. Las versiones de 10 Mbps y más lentas de Ethernet son asíncronas. Asíncrona significa que cada estación receptora utiliza los ocho octetos de la información de temporización para sincronizar el circuito receptor con los datos entrantes y luego los descarta. Las implementaciones de 100 Mbps y de mayor velocidad de Ethernet son síncronas. Síncrona significa que la información de temporización no es necesaria, sin embargo, por razones de compatibilidad, el Preámbulo y la SFD (Delimitador de Inicio de Trama) están presentes. Para todas las velocidades de transmisión de Ethernet de 1000 Mbps o menos, el estándar describe la razón por la cual una transmisión no puede ser menor que la ranura temporal. La ranura temporal de la Ethernet de 10 y 100 Mbps es de 512 tiempos de bit o 64 octetos. La ranura temporal de la Ethernet de 1000 Mbps es de 4096 tiempos de bit o 512 octetos. La ranura temporal se calcula en base de las longitudes máximas de cable para la arquitectura de red legal de mayor tamaño. Todos los tiempos de retardo de propagación del hardware se encuentran al máximo permisible y se utiliza una señal de congestión de 32 bits cuando se detectan colisiones. La ranura temporal real calculada es apenas mayor que la cantidad de tiempo teórica necesaria para realizar una transmisión entre los puntos de máxima separación de un dominio de colisión, colisionar con otra transmisión en el último instante posible y luego permitir que los fragmentos de la colisión regresen a la estación transmisora y sean detectados. Para que el sistema funcione, la primera estación debe enterarse de la colisión antes de terminar de enviar la trama legal de menor tamaño. Para que una Ethernet de 1000 Mbps pueda operar en half duplex, se agregó un campo de extensión al enviar tramas pequeñas con el sólo fin de mantener ocupado al transmisor el tiempo suficiente para que vuelva el fragmento de colisión. Este campo sólo se incluye en los enlaces en half-duplex de 1000 Mbps y permite que las tramas de menor tamaño duren el tiempo suficiente para satisfacer los requisitos de la ranura temporal. La estación receptora descarta los bits de extensión. En Ethernet de 10 Mbps, un bit en la capa MAC requiere de 100 nanosegundos (ns) para ser transmitido. A 100 Mbps el mismo bit requiere de 10 ns para ser transmitido y a 1000 Mbps sólo requiere 1 ns. A menudo, se utiliza una estimación aproximada de 20,3 cm (8 in) por nanosegundo para calcular el retardo de propagación a lo largo de un cable UTP. En 100 metros de UTP, esto significa que tarda menos de 5 tiempos de bit para que una señal de 10BASE-T se transporte a lo largo del cable.

Page 60: Semestre1 Ccna

Para que Ethernet CSMA/CD opere, la estación transmisora debe reconocer la colisión antes de completar la transmisión de una trama del tamaño mínimo. A 100 Mbps, la temporización del sistema apenas es capaz de funcionar con cables de 100 metros. A 1000 Mbps, ajustes especiales son necesarios ya que se suele transmitir una trama completa del tamaño mínimo antes de que el primer bit alcance el extremo de los primeros 100 metros de cable UTP. Por este motivo, no se permite half duplex en la Ethernet de 10 Gigabits. 6.2.4 Espacio entre las tramas y postergación El espacio mínimo entre dos tramas que no han sufrido una colisión recibe el nombre de espacio entre tramas. Se mide desde el último bit del campo de la FCS de la primera trama hasta el primer bit del preámbulo de la segunda trama. Una vez enviada la trama, todas las estaciones de Ethernet de 10 Mbps deben esperar un mínimo de 96 tiempos de bit (9,6 microsegundos) antes de que cualquier estación pueda transmitir, de manera legal, la siguiente trama. En versiones de Ethernet más veloces, el espacio sigue siendo el mismo, 96 tiempos de bit, pero el tiempo que se requiere para dicho intervalo se vuelve proporcionalmente más corto. Este intervalo se conoce como separación. El propósito del intervalo es permitir que las estaciones lentas tengan tiempo para procesar la trama anterior y prepararse para la siguiente trama. Se espera que un repetidor regenere los 64 bits completos de información de temporización, que es el preámbulo y la SFD, al inicio de cualquier trama. Esto a pesar de la pérdida potencial de algunos de los bits iniciales del preámbulo, debido a una sincronización lenta. Debido a esta reintroducción forzada de los bits de temporización, cierta reducción menor de la separación entre las tramas no sólo es posible sino que también esperada. Algunos chipsets de Ethernet son sensibles a un acortamiento del espacio entre las tramas y comienzan a dejar de ver las tramas a medida que se reduce la separación. Con el aumento del poder de procesamiento en el escritorio, resultaría muy sencillo para un computador personal saturar un segmento de Ethernet con tráfico y comenzar a transmitir nuevamente antes de que se cumpla el tiempo de retardo del espacio entre las tramas. Una vez producida la colisión y que todas las estaciones permitan que el cable quede inactivo (cada una espera que se cumpla el intervalo completo entre las tramas), entonces, las estaciones que sufrieron la colisión deben esperar un período adicional y cada vez potencialmente mayor antes de intentar la retransmisión de la trama que sufrió la colisión. El período de espera está intencionalmente diseñado para que sea aleatorio de modo que dos estaciones no demoren la misma cantidad de tiempo antes de efectuar la retransmisión, lo que causaría colisiones adicionales. Esto se logra en parte al aumentar el intervalo a partir del cual se selecciona el tiempo de retransmisión aleatorio cada vez que se efectúa un intento de retransmisión. El período de espera se mide en incrementos de la ranura temporal del parámetro. Si la capa MAC no puede enviar la trama después de dieciséis intentos, abandona el intento y genera un error en la capa de red. Tal episodio es verdaderamente raro y suele suceder sólo cuando se producen cargas en la red muy pesadas o cuando se produce un problema físico en la red. 6.2.5 Manejo de los errores El estado de error más común en redes Ethernet son las colisiones. Las colisiones son el mecanismo para resolver la contención del acceso a la red. Unas pocas colisiones proporcionan una forma simple y sin problemas, que usa pocos recursos, para que los nodos de la red arbitren la contención para el recurso de red. Cuando la contención de la red se vuelve demasiado grave, las colisiones se convierten en un impedimento significativo para la operación útil de la red. Las colisiones producen una pérdida del ancho de banda de la red equivalente a la transmisión inicial y a la señal de congestión de la colisión. Esto es una demora en el consumo y afecta a todos los nodos de la red causando posiblemente una significativa reducción en su rendimiento. La mayoría de las colisiones se producen cerca del comienzo de la trama, a menudo, antes de la SFD. Las colisiones que se producen antes de la SFD generalmente no se informan a las capas superiores, como si no se produjeran. Tan pronto como se detecta una colisión, las estaciones transmisoras envían una señal de congestión de 32 bits que la impone. Esto se hace de manera que se corrompen por completo los datos transmitidos y todas las estaciones tienen la posibilidad de detectar la colisión. En la Figura dos estaciones escuchan para asegurarse de que el cable esté inactivo, luego transmiten. La Estación 1 pudo transmitir un porcentaje significativo de la trama antes de que la señal alcanzara el último segmento del cable. La Estación 2 no había recibido el primer bit de la transmisión antes de iniciar su propia transmisión y sólo pudo enviar algunos bits antes de que la NIC detectara la colisión. De inmediato, la Estación 2 interrumpió la transmisión actual, la sustituyó con la señal de congestión de 32 bits y cesó todas sus transmisiones. Durante la colisión y el evento de congestión que la Estación 2 experimentaba, los fragmentos de la colisión iban en ruta por el dominio de colisiones repetido hacia la Estación 1. La Estación 2 completó la transmisión de la señal de congestión de 32 bits y quedó en silencio antes de que la colisión se propagara hacia la Estación 1, que todavía no sabía de la misma y continuaba transmitiendo. Finalmente, cuando los fragmentos de la colisión llegaron a la Estación 1, ésta cortó la transmisión en curso y sustituyó con la señal de congestión

Page 61: Semestre1 Ccna

de 32 bits el resto de la trama que estaba transmitiendo. Luego de enviar la señal de congestión de 32 bits, la Estación 1 dejó de transmitir. Una señal de congestión puede estar compuesta por cualquier dato binario siempre que no forme una checksum apropiada para la porción de la trama ya transmitida. El patrón de datos que se observa con mayor frecuencia para una señal de congestión es simplemente un patrón de uno, cero, uno, cero que se repite, al igual que el Preámbulo. Cuando se observa con un analizador de protocolos, este patrón aparece como una secuencia repetida de A ó 5 hexadecimales. Los mensajes corrompidos, transmitidos de forma parcial, generalmente se conocen como fragmentos de colisión o runts. Las colisiones normales tienen menos de 64 octetos de largo y, por lo tanto, reprueban tanto la prueba de longitud mínima como la prueba de la checksum de FCS. 6.2.6 Tipos de colisiones Por lo general, las colisiones se producen cuando dos o más estaciones de Ethernet transmiten al mismo tiempo dentro de un dominio de colisión. Una colisión simple es una colisión que se detecta al tratar de transmitir una trama, pero en el siguiente intento es posible transmitir la trama con éxito. Las colisiones múltiples indican que la misma trama colisionó una y otra vez antes de ser transmitida con éxito. Los resultados de las colisiones, los fragmentos de colisión, son tramas parciales o corrompidas de menos de 64 octetos y que tienen una FCS inválida. Los tres tipos de colisiones son: * Locales * Remotas * Tardías Para crear una colisión local en un cable coaxial (10BASE2 y 10BASE5), la señal viaja por el cable hasta que encuentra una señal que proviene de la otra estación. Entonces, las formas de onda se superponen cancelando algunas partes de la señal y reforzando o duplicando otras. La duplicación de la señal empuja el nivel de voltaje de la señal más allá del máximo permitido. Esta condición de exceso de voltaje es, entonces, detectada por todas las estaciones en el segmento local del cable como una colisión. El inicio de la forma de onda en la Figura contiene datos normales codificados en Manchester. Unos pocos ciclos dentro de la muestra, la amplitud de onda se duplica. Este es el inicio de la colisión, donde las dos formas de onda se superponen. Justo antes de la finalización de la muestra, la amplitud se vuelve normal. Esto sucede cuando la primera estación que detecta la colisión deja de transmitir y cuando todavía se observa la señal de congestión proveniente de la segunda estación que ha sufrido la colisión. En el cable UTP, como por ejemplo 10BASE-T, 100BASE-TX y 1000BASE-T, la colisión se detecta en el segmento local sólo cuando una estación detecta una señal en el par de recepción (RX) al mismo tiempo que está enviando una señal en el par de transmisión (TX). Como las dos señales se encuentran en pares diferentes, no se produce un cambio en la característica de la señal. Las colisiones se reconocen en UTP sólo cuando la estación opera en half duplex. La única diferencia funcional entre la operación en half duplex y full duplex en este aspecto es si es posible o no que los pares de transmisión y de recepción se utilicen al mismo tiempo. Si la estación no participa en la transmisión, no puede detectar una colisión local. Por otra parte, una falla en el cable, como por ejemplo una diafonía excesiva, puede hacer que una estación perciba su propia transmisión como si fuera una colisión local. Las características de una colisión remota son una trama que mide menos que la longitud mínima, tiene una checksum de FCS inválida, pero no muestra el síntoma de colisión local del exceso de voltaje o actividad de transmisión/recepción simultánea. Este tipo de colisión generalmente es el resultado de colisiones que se producen en el extremo lejano de una conexión con repetidores. El repetidor no envía un estado de exceso de voltaje y no puede hacer que una estación tenga ambos pares de transmisión y de recepción activos al mismo tiempo. La estación tendría que estar transmitiendo para que ambos pares estén activos y esto constituiría una colisión local. En las redes de UTP este es el tipo más común de colisión que se observa. No hay posibilidad de que se produzca una colisión normal o legal después de que las estaciones transmitan los primeros 64 octetos de datos. Las colisiones que se producen después de los primeros 64 octetos reciben el nombre de "colisiones tardías". La diferencia más importante entre las colisiones tardías y las colisiones que se producen antes de los primeros 64 octetos radica en que la NIC de Ethernet retransmitirá de forma automática una trama que ha sufrido una colisión normal, pero no retransmitirá automáticamente una trama que ha sufrido una colisión tardía. En lo que respecta a la NIC, todo salió bien y las capas superiores de la pila del protocolo deben determinar si se perdió la trama. A diferencia de la retransmisión, una estación que detecta una colisión tardía la maneja de la misma forma que si fuera una colisión normal. 6.2.7 Errores de Ethernet El conocimiento de los errores típicos es invaluable para entender tanto la operación como la detección de fallas de las redes Ethernet. Las siguientes son las fuentes de error de Ethernet.

Page 62: Semestre1 Ccna

* Colisión o runt: Transmisión simultánea que se produce antes de haber transcurrido la ranura temporal. * Colisión tardía: Transmisión simultánea que se produce después de haber transcurrido la ranura temporal. * Errores de intervalo, trama larga, jabber: Transmisión excesiva o ilegalmente larga. * Trama corta, fragmento de colisión o runt: Transmisión ilegalmente corta. * Error de FCS: Transmisión dañada * Error de alineamiento: Número insuficiente o excesivo de bits transmitidos. * Error de intervalo: El número real y el informado de octetos en una trama no concuerda. * Fantasma o jabber: Preámbulo inusualmente largo o evento de congestión. Mientras las colisiones locales o remotas se consideran parte normal de la operación de Ethernet, las colisiones tardías son un error. La presencia de errores en una red siempre sugiere la necesidad de una mayor investigación. La gravedad del problema indica la urgencia de la detección de la falla relativa a los errores detectados. Algunos errores detectados en varios minutos u horas suele ser una prioridad baja. Miles detectados en pocos minutos sugieren que se requiere atención urgente. El estándar 802.3, en varios lugares, define al jabber como una transmisión de al menos 20.000 a 50.000 tiempos de bit de duración. Sin embargo, la mayoría de las herramientas de diagnóstico informan de la presencia de jabber siempre que se detecta una transmisión que excede el tamaño máximo legal de la trama, que es considerablemente menor a 20.000 a 50.000 tiempos de bit. La mayoría de las referencias al jabber, realmente se deben llamar tramas largas. Una trama larga es una trama de longitud mayor al tamaño máximo legal y que tiene en cuenta si la trama está rotulada o no. No toma en cuenta si la trama tiene una checksum de FCS válida o no. En general, este error significa que se detectó jabber en la red. Una trama corta es una trama de longitud menor al tamaño mínimo legal de 64 octetos, con una secuencia de verificación de trama correcta. Algunos analizadores de protocolos y monitores de red llaman a estas tramas "runts". Por lo general, la presencia de tramas cortas no significa que la red esté fallando. El término runt es generalmente un término coloquial (en Inglés) impreciso que significa algo menor al tamaño legal de la trama. Puede referirse a las tramas cortas con una checksum de FCS válida aunque, en general, se refiere a los fragmentos de colisión. 6.2.8 FCS y más allá Una trama recibida que tiene una Secuencia de verificación de trama incorrecta, también conocido como error de CRC o de checksum, difiere de la transmisión original en al menos un bit. En una trama con error de FCS, es probable que la información del encabezado sea correcta, pero la checksum que calcula la estación receptora no concuerda con la checksum que adjunta la estación transmisora al extremo de la trama. Por lo tanto, se descarta la trama. Una gran cantidad de errores FCS provenientes de una sola estación indican, por lo general, una NIC defectuosa y/o falla o corrupción en los controladores del software, o un cable defectuoso que conecta esa estación a la red. Si los errores FCS están asociados con muchas estaciones, por lo general, pueden rastrearse a la presencia de un cableado defectuoso, una versión defectuosa del controlador de la NIC, un puerto de hub defectuoso o a ruido inducido en el sistema de cables. Un mensaje que no termina en un límite de octeto se conoce como error de alineamiento. En lugar del número correcto de bits binarios que forman agrupaciones completas de octetos, hay bits adicionales que sobran (menos de ocho). Una trama así se trunca en el límite del octeto más cercano, y si la checksum de FCS falla, entonces, se informa un error de alineamiento. Esto es causado a menudo por controladores de software dañados, o una colisión, y con frecuencia viene acompañado por una falla de la checksum de FCS. Una trama con un valor válido en el campo "longitud" pero que no concuerda con el número real de octetos contabilizados en el campo de datos de la trama recibida recibe el nombre de error de rango. Este error también aparece cuando el valor del campo de longitud es menor que el tamaño mínimo legal sin relleno para el campo de datos. Un error, similar, Fuera de rango, se informa cuando el valor del campo "longitud" indica que el tamaño de los datos es demasiado grande para ser legal. Fluke Networks ha acuñado el término fantasma para referirse a la energía (ruido) que se detecta en el cable y que parece ser una trama, pero que carece de un SFD válido. Para ser considerada fantasma, la trama debe tener una longitud de al menos 72 octetos, incluyendo el preámbulo. De lo contrario, se clasifica como colisión remota. Debido a la naturaleza peculiar de los fantasmas, cabe notar que los resultados de las pruebas dependen en gran medida del lugar donde se efectuó la medición del segmento. Las mallas a tierra y otros problemas de cableado son normalmente la causa de los fantasmas. La mayoría de las herramientas de monitoreo de la red no reconocen la existencia de fantasmas por la misma razón que no reconocen las colisiones de los preámbulos. Las herramientas confían completamente en lo que el chipset les dice. Los analizadores de protocolo basados en software, muchos analizadores de protocolos basados en hardware, las herramientas de diagnóstico manuales así como la mayoría de las sondas de monitoreo remoto (RMON) no informan de estos eventos.

Page 63: Semestre1 Ccna

6.2.9 Auto-negociación de Ethernet Al crecer Ethernet de 10 a 100 y 1000 Mbps, fue necesario hacer que cada tecnología pudiera operar con las demás, al punto que las interfaces de 10, 100 y 1000 pudieran conectarse directamente. Se desarrolló un proceso que recibe el nombre de Auto-negociación de las velocidades en half duplex o en full duplex. Específicamente, en el momento en que se introdujo Fast Ethernet, el estándar incluía un método para configurar de forma automática una interfaz dada para que concordara con la velocidad y capacidades de la interfaz en el otro extremo del enlace. Este proceso define cómo las interfaces en los extremos del enlace pueden negociar de forma automática una configuración ofreciendo el mejor nivel de rendimiento común. Presenta la ventaja adicional de involucrar sólo la parte inferior de la capa física. La 10BASE-T requirió que cada estación transmitiera un pulso de enlace aproximadamente cada 16 milisegundos, siempre que la estación no estuviera transmitiendo un mensaje. La Auto-Negociación adoptó esta señal y la redenominó Pulso de enlace normal (NLP). Cuando se envía una serie de NLP en un grupo con el propósito de Auto-Negociación, el grupo recibe el nombre de ráfaga de Pulso de enlace rápido (FLP). Cada ráfaga de FLP se envía a los mismos intervalos que un NLP y tiene como objetivo permitir que los antiguos dispositivos de 10BASE-T operen normalmente en caso de que reciban una ráfaga de FLP. La Auto-Negociación se logra al transmitir una ráfaga de Pulsos de Enlace de 10BASE-T desde cada uno de los dos extremos del enlace. La ráfaga comunica las capacidades de la estación transmisora al otro extremo del enlace. Una vez que ambas estaciones han interpretado qué ofrece el otro extremo, ambas cambian a la configuración común de mayor rendimiento y establecen un enlace a dicha velocidad. Si algo interrumpe la comunicación y se pierde el enlace, los dos socios intentan conectarse nuevamente a la velocidad de la última negociación. Si esto falla o si ha pasado demasiado tiempo desde que se perdió el enlace, el proceso de Auto-Negociación comienza de nuevo. Es posible que se pierda el enlace debido a influencias externas tales como una falla en el cable o la emisión de una reconfiguración por uno de los socios. 6.2.10 Establecimiento del enlace y full duplex y half duplex Los extremos del enlace pueden saltar el ofrecimiento de las configuraciones a las que pueden operar. Esto permite que el administrador de la red fuerce que los puertos operen a una velocidad seleccionada y a una configuración duplex, sin deshabilitar la Auto-Negociación. La Auto-Negociación es optativa para la mayoría de las implementaciones de Ethernet. Gigabit Ethernet requiere de su implementación aunque el usuario puede deshabilitarla. Originalmente, la Auto-Negociación se definió para las implementaciones de UTP de Ethernet y se extendió para trabajar con otras implementaciones de fibra óptica. Cuando una estación Auto-Negociadora realiza un primer intento de enlace, debe habilitarse a 100BASE-TX para que intente establecer un enlace de inmediato. Si la señalización de la 100BASE-TX está presente y la estación admite 100BASE-TX, intentará establecer un enlace sin negociación. Si la señalización produce el enlace o se transmiten las ráfagas de FLP, la estación procederá con dicha tecnología. Si el otro extremo del enlace no ofrece una ráfaga de FLP, pero a cambio, ofrece NLP, entonces el dispositivo supone automáticamente que es una estación 10BASE-T. Durante este intervalo inicial de prueba para otras tecnologías, la ruta de transmisión envía ráfagas de FLP. El estándar no permite la detección paralela de ninguna otra tecnología. Si se establece un enlace a través de la detección paralela, se requiere una conexión en half duplex. Son dos los métodos para lograr un enlace en full-duplex. Uno es a través de un ciclo de Auto-Negociación completo y el otro es forzar administrativamente a que ambos extremos del enlace realicen una conexión en full duplex. Si se fuerza a un extremo del enlace a conectarse en full duplex, pero el otro extremo intenta Auto-Negociar, entonces seguramente se producirá una falta de concordancia en el duplex. Se producirán colisiones y errores en ese enlace. Además, si se fuerza a un extremo a una conexión en full duplex, el otro también debe ser forzado. La excepción es Ethernet de 10 Gigabits que no admite la conexión en half duplex. Muchos proveedores implementan hardware de forma tal que va intentando los distintos estados posibles de forma cíclica. Transmite ráfagas de FLP para Auto-Negociar por unos momentos, luego se configura para la Fast Ethernet, intenta enlazarse por unos instantes y luego sólo escucha. Algunos proveedores no ofrecen ningún intento para enlazarse hasta que la interfaz primero escucha una ráfaga de FLP o algún otro esquema de señalización. Son dos las modalidades de duplex, half y full. Para los medios compartidos, el modo half-duplex es obligatorio. Todas las implementaciones en cable coaxial son half-duplex por naturaleza y no pueden operar en full duplex. Las implementaciones en UTP y fibra pueden operar en half duplex. Las implementaciones de 10 Gbps se especifican sólo para full duplex. En half duplex, sólo una estación puede transmitir a la vez. En las implementaciones en coaxial, una transmisión desde una segunda estación hará que las señales se superpongan y se corrompan. Como el UTP y la fibra, por lo general, transmiten por pares distintos, las señales no tienen oportunidad de superponerse o dañarse. Ethernet ha establecido las reglas de arbitraje para resolver los conflictos que surgen cuando más de una

Page 64: Semestre1 Ccna

estación intenta transmitir al mismo tiempo. Se permite que dos estaciones de un enlace full-duplex punto a punto transmitan en cualquier momento, independientemente de si la otra estación está transmitiendo. La Auto-Negociación evita la mayoría de las situaciones donde una estación de un enlace punto a punto transmite de acuerdo a las reglas de half-duplex y la otra de acuerdo a las reglas de full-duplex. En el caso en que los socios del enlace sean capaces de compartir más de una tecnología en común, consulte la lista de la Figura . Esta lista se utiliza para determinar la tecnología se debe elegir entre las configuraciones ofrecidas. Las implementaciones de Ethernet en fibra óptica no se incluyen en esta lista de resolución de prioridades porque la electrónica y la óptica de la interfaz no permiten una fácil configuración entre las implementaciones. Se supone que la configuración de la interfaz es fija. Si las dos interfaces pueden Auto-Negociar, entonces, ya utilizan la misma implementación de Ethernet. Sin embargo, todavía quedan varias opciones de configuración que tiene que determinarse, tales como el ajuste del duplex o cuál es la estación que actuará como Master a los fines de sincronización. Módulo 7: Tecnologías de Ethernet Descripción general Ethernet ha sido la tecnología LAN de mayor éxito, en gran medida, debido a la simplicidad de su implementación, cuando se la compara con otras tecnologías. Ethernet también ha tenido éxito porque es una tecnología flexible que ha evolucionado para satisfacer las cambiantes necesidades y capacidades de los medios: Este módulo presenta los datos específicos de los tipos más importantes de Ethernet. El objetivo no es transmitir todos los hechos acerca de cada tipo de Ethernet sino desarrollar el sentido de lo que es común a todas las formas de Ethernet. Las modificaciones a Ethernet han resultado en significativos adelantos, desde la tecnología a 10 Mbps usada a principios de principios de los 80. El estándar de Ethernet de 10 Mbps no sufrió casi ningún cambio hasta 1995 cuando el IEEE anunció un estándar para Fast Ethernet de 100 Mbps. En los últimos años, un crecimiento aún más rápido en la velocidad de los medios ha generado la transición de Fast Ethernet (Ethernet Rápida) a Gigabit Ethernet (Ethernet de 1 Gigabit). Los estándares para Gigabit Ethernet sólo tardaron tres años en salir. Una versión de Ethernet aún más rápida, Ethernet de 10 Gigabits (10 Gigabit Ethernet) se halla fácilmente en el mercado e inclusive, versiones más rápidas están en desarrollo. En estas versiones más rápidas de Ethernet, el direccionamiento MAC, CSMA/CD y el formato de trama no han sufrido cambios respecto de versiones anteriores de Ethernet. Sin embargo, otros aspectos de la subcapa MAC, la capa física y el medio han cambiado. Las tarjetas de interfaz de red (NIC) con base de cobre capaces de operar a 10/100/1000 están ahora entre las más comunes. Los switches y los routers con puertos de Gigabit se están convirtiendo en el estándar para los armarios de cableado. El uso de la fibra óptica que admite Gigabit Ethernet se considera un estándar para el cableado backbone en la mayoría de las instalaciones nuevas. Los estudiantes que completen este módulo deberán poder: * Describir las similitudes y diferencias entre las Ethernet 10BASE5, 10BASE2 y 10BASE-T. * Definir la codificación de Manchester. * Nombrar los factores que afectan los límites de temporización de Ethernet. * Nombrar los parámetros de cableado 10BASE-T. * Describir las características y tipos principales de Ethernet de 100 Mbps. * Describir la evolución de Ethernet. * Explicar los métodos MAC, los formatos de trama y el proceso de transmisión de Gigabit Ethernet. * Describir los usos de los medios y la codificación específicos en Gigabit Ethernet. * Identificar las salidas de pin y el cableado, típicos de las distintas implementaciones de Gigabit Ethernet. * Describir las similitudes y diferencias entre Gigabit Ethernet y Ethernet de 10 Gigabits. * Describir las consideraciones arquitectónicas básicas de Gigabit Ethernet y Ethernet de 10 Gigabits. 7.1 Ethernet de 10-Mbps y 100-Mbps 7.1.1 Ethernet de 10-Mbps Las Ethernet de 10BASE5, 10BASE2 y 10BASE-T se consideran implementaciones antiguas de Ethernet. Las cuatro características comunes de Ethernet antigua son los parámetros de temporización, el formato de trama, el proceso de transmisión y una regla básica de diseño. En la figura se muestran los parámetros de operación para Ethernet de 10 Mbps. Ethernet de 10 Mbps y versiones mas lentas son asíncronas. Cada estación receptora usa ocho octetos de información de temporización para sincronizar sus circuitos receptores a la data que entra. Las 10BASE5, 10BASE2 y 10BASE-T todas comparten los mismos parámetros de temporización.Por ejemplo, 1 tiempo de bit a 10 Mbps = 100 nanosegundos = 0,1 µicrosegundos = 1 diez millonésima parte de un segundo.Esto significa que en una red Ethernet de 10 Mbps, 1 bit en la subcapa MAC requiere de 100 nseg para ser transmitido.

Page 65: Semestre1 Ccna

Para todas las velocidades de transmisión Ethernet igual o por debajo de 1000 Mbps, la transmisión no debe ser menor al margen de tiempo ―Slot time‖. El margen de tiempo es apenas mayor al tiempo, que en teoría, le tomaría a una transmisión desde un extremo de la red llegar hasta el otro extremo ubicado a la máxima distancia legal posible de un dominio de colisión Ethernet, colisionar con otra transmisión en el último instante posible, y regrasar al origen como fragmentos de la colisión para su detección. El proceso de transmisión anterior de Ethernet es idéntico hasta la parte inferior de la capa física OSI. Los datos de la trama de Capa 2 se convierten de números hexadecimales a números binarios. A medida que la trama pasa de la subcapa MAC a la capa física, se llevan a cabo procesos adicionales antes de que los bits se trasladen desde la capa física al medio. Un proceso de importancia es la señal de error de calidad de señal (Signal Quality Error, SQE). La SQE es una transmisión del transceptor de respuesta al controlador para indicarle sobre la funcionabilidad de los circuitos de detección de colisiones. La SQE es conocida como ―latido de corazón‖. La señal SQE fue diseñada para corregir el problema en versiones anteriores de Ethernet, en las cuales el host desconocía si el transceptor estaba conectado. El SQE siempre se utiliza en half-duplex. Es posible utilizar el SQE en una operación en full-duplex pero no es necesario. El SQE está activo en la siguientes instancias: * Dentro de los 4 a los 8 microsegundos después de una transmisión normal para indicar que se transmitió con éxito la trama saliente. * Siempre que haya colisión en el medio. * Siempre que haya una señal inadecuada en el medio, o las reflexiones causadas por un corto en el cable. * Siempre que se haya interrumpido una transmisión. Todas las formas de Ethernet de 10 Mbps toman octetos recibidos de la subcapa MAC y realizan un proceso denominado codificación de la línea. La codificación de la línea describe de qué manera los bits se transforman en señal en el cable. Las codificaciones más sencillas tienen una temporización y características eléctricas no recomendables. Por lo tanto, los códigos de línea se han diseñado para tener propiedades de transmisión recomendables. Esta forma de codificación utilizada en los sistemas de 10 Mbps se denomina codificación Manchester. La codificación Manchester se basa en la dirección de la transición de borde en la mitad de la ventana de temporización para determinar el valor binario para dicho período de bits. La forma de la onda superior tiene un borde que cae, así se interpreta como 0. La segunda forma de onda muestra un borde ascendente que se interpreta como 1. En la tercera forma de onda, se da una secuencia binaria alternada. Con los datos binarios alternados, no hay necesidad de volver al nivel de voltaje previo. Como se puede observar en la tercera y cuarta forma de onda del gráfico, los valores binarios de bits están indicados por la dirección del cambio durante un período de bits dado. Los niveles de voltaje de la forma de la onda al comienzo o fin de cualquier período de bits no son factores al determinar valores binarios. Ethernet antigua tiene características de arquitectura comunes. En general, las redes contienen varios tipos de medios. El estándar asegura que se mantenga la interoperabilidad. El diseño arquitectónico general es de suma importancia a la hora de implementar una red de medios mixtos. Resulta más fácil violar los límites máximos de retardo a medida que la red crece. Los límites de temporización se basan en parámetros tales como: * La longitud del cable y su retardo de propagación. * El retardo de los repetidores. * El retardo de los transceptores. * El acortamiento del intervalo entre las tramas. * Los retardos dentro de la estación. Ethernet de 10-Mbps opera dentro de los límites de temporización ofrecidos por una serie de no más de cinco segmentos, separados por no más de cuatro repetidores. Esto se conoce como la regla de 5-4-3. No se pueden conectar más de cuatro repetidores en serie entre dos estaciones lejanas. Además, no puede haber más de tres segmentos poblados entre dos estaciones lejanas. 7.1.2 10BASE5 El producto original para Ethernet del año 1980, 10BASE5 transmitía 10 Mbps a través de un solo cable bus coaxial grueso. 10BASE5 es importante porque fue el primer medio que se utilizó para Ethernet. 10BASE5 formaba parte del estándar original 802.3. El principal beneficio de 10BASE5 era su longitud. En la actualidad, puede hallarse en las instalaciones antiguas, pero no se recomienda para las instalaciones nuevas. Los sistemas 10BASE5 son económicos y no requieren de configuración, pero componentes básicos tales como las NIC son muy difíciles de encontrar así como el hecho de que es sensible a las reflexiones de señal en el cable. Los sistemas 10BASE5 también representan un único punto de falla. 10BASE5 hace uso de la codificación Manchester. Tiene un conductor central sólido. Cada uno de los cinco segmentos máximos de coaxial grueso puede medir hasta 500 m (1640,4 pies) de largo. El cable es grueso, pesado y difícil de instalar. Sin embargo, las limitaciones de distancia eran favorables y esto prolongó su uso en ciertas aplicaciones.

Page 66: Semestre1 Ccna

Debido a que el medio es un solo cable coaxial, solamente una estación puede transmitir al mismo tiempo, de lo contrario, se produce una colisión. Por lo tanto, 10BASE5 sólo transmite en half-duplex produciendo un máximo de 10 Mbps de transferencia de datos. La Figura ilustra una posible configuración para un máximo dominio de colisión de punta a punta. Entre dos estaciones lejanas cualesquiera, sólo se permite que tres segmentos repetidos tengan estaciones conectadas, usando los otros dos segmentos repetidos solamente como segmentos de enlace para extender la red. 7.1.3 10BASE2 La tecnología 10BASE2 se introdujo en 1985. La instalación fue más sencilla debido a su menor tamaño y peso, y por su mayor flexibilidad. Todavía existen en redes de este tipo, como 10BASE5, la cual no es recomendable para la instalación de redes hoy en día. Tiene un costo bajo y carece de la necesidad de hubs. Además, las NIC son difíciles de conseguir para este medio. 10BASE2 usa la codificación Manchester también. Los computadores en la LAN se conectaban entre sí con una serie de tendidos de cable coaxial sin interrupciones. Se usaban conectores BNC para unir estos tendidos a un conector en forma de T en la NIC. 10BASE2 tiene un conductor central trenzado. Cada uno de los cinco segmentos máximos de cable coaxial delgado puede tener hasta 185 metros de longitud y cada estación se conecta directamente al conector BNC con forma de "T" del cable coaxial. Sólo una estación puede transmitir a la vez, de lo contrario, se produce una colisión. 10BASE2 también usa half-duplex. La máxima velocidad de transmisión de 10BASE2 es de 10 Mbps. Puede haber hasta 30 estaciones en cada segmento individual de 10BASE2. De los cinco segmentos consecutivos en serie que se encuentran entre dos estaciones lejanas, sólo tres pueden tener estaciones conectadas. 7.1.4 10BASE-T 10BASE-T fue introducido en 1990. 10BASE-T utilizaba cable de cobre (UTP) de par trenzado, no blindado de Categoría 3 que era más económico y más fácil de usar que el cable coaxial. Este cable se conectaba a un dispositivo de conexión central que contenía el bus compartido. Este dispositivo era un hub. Se encontraba en el centro de un conjunto de cables que partían hacia los PC, como los radios que parten desde el centro de una rueda. Esto se conoce como topología en estrella. Las distancias que los cables podían cubrir desde el hub y la ruta que se seguía al instalar los UTP comenzaron a utilizar, cada vez más, estrellas compuestas por estrellas: estructura que recibió el nombre de topología en estrella extendida. Al principio, 10BASE-T era un protocolo half-duplex pero más tarde se agregaron características de full-duplex. La explosión de popularidad de Ethernet desde mediados hasta fines de los 90 se produjo cuando Ethernet comenzó a dominar la tecnología de LAN. 10BASE-T usa la codificación Manchester también. Un cable UTP para 10BASE-T tiene un conductor sólido para cada hilo en un cable horizontal con una longitud máxima de 90 metros. El cable UTP utiliza conectores RJ-45 de ocho pins. Aunque el cable de Categoría 3 es apto para uso en redes de 10BASE-T, se recomienda que cualquier nueva instalación de cables se realice con cables de Categoría 5e o superior. Los cuatro pares de hilos deberían utilizarse ya sea con la disposición de salida de los pins del cable T568-A o bien la T568-B. Este tipo de instalación de cables admite el uso de protocolos múltiples sin necesidad de volver a cablear. La Figura muestra la disposición de la salida de los pins para una conexión 10BASE-T. El par transmisor del lado receptor se conecta al par receptor del dispositivo conectado. Half duplex o full duplex es la elección de configuración. 10BASE-T transporta 10 Mbps de tráfico en modo half-duplex y 20 Mbps en modo full-duplex. 7.1.5 Cableado y arquitectura de 10BASE-T Los enlaces de 10BASE-T generalmente consisten en una conexión entre la estación y un hub o switch. Los hubs son repetidores multipuertos y cuentan en el número límite de repetidores entre las estaciones lejanas. Los hubs no dividen los segmentos de la red en distintos dominios de colisión. Como los hubs o repetidores solamente extienden la longitud de una red dentro de un solo dominio de colisión, existe un límite respecto de cuántos hubs pueden ser utilizados en dicho segmento. Los puentes y los switches dividen un segmento en dominios de colisión individuales, dejando que las limitaciones de los medios determinen la distancia entre los switches. 10BASE-T limita la distancia entre los switches a 100 m (328 pies). Aunque los hubs pueden estar enlazados, es recomendable evitar esta disposición. Esto contribuye a evitar que se exceda el límite de retardo máximo entre las estaciones lejanas. Cuando se requiera del uso de múltiples hubs, es recomendable organizarlos de forma jerárquica, para así crear una estructura en forma de árbol. Mejorará el rendimiento si pocos repetidores separan las estaciones. La Figura muestra un ejemplo de arquitectura. Son aceptables todas las distancias entre las estaciones. Sin embargo, la distancia total desde un extremo de la red hasta el otro lleva la arquitectura al límite. El aspecto más

Page 67: Semestre1 Ccna

importante a considerar es cómo mantener el retardo entre las estaciones lejanas al mínimo, independientemente de la arquitectura y los tipos de medios utilizados. Un retardo máximo más corto brinda un mejor rendimiento general. Los enlaces de 10BASE-T pueden tener distancias sin repetición de hasta 100 m. Aunque esta pueda parecer una distancia larga, por lo general se ve maximizada al cablear un edificio real. Los hubs pueden solucionar el problema de la distancia pero permiten que se propaguen las colisiones. La introducción difundida de los switches ha hecho que la limitación de la distancia resulte menos importante. Siempre que las estaciones de trabajo se encuentren dentro de unos 100 m de distancia del switch, esta distancia de 100 m comienza nuevamente a partir del switch. 7.1.6 Ethernet de 100-Mbps Ethernet de 100-Mbps también se conoce como Fast Ethernet (Ethernet Rápida). Las dos tecnologías que han adquirido relevancia son 100BASE-TX, que es un medio UTP de cobre y 100BASE-FX, que es un medio multimodo de fibra óptica. Tres características comunes a 100BASE-TX y a 100BASE-FX son los parámetros de temporización, el formato de trama y algunas partes del proceso de transmisión. Tanto 100BASE-TX como 100BASE-FX comparten los parámetros de temporización. Tenga en cuenta que un tiempo de bit a 100-Mbps = 10 nseg = 0,01 microsegundos = 1 100-millonésima parte de un segundo. El formato de trama de 100-Mbps es el mismo que el de la trama de 10-Mbps. Fast Ethernet representa un aumento de 10 veces en la velocidad respecto de 10BASE-T. Debido al aumento de velocidad, se debe tener mayor cuidado porque los bits enviados se acortan en duración y se producen con mayor frecuencia. Estas señales de frecuencia más alta son más susceptibles al ruido. Para responder a estos problemas, Ethernet de 100-Mbps utiliza dos distintos pasos de codificación. La primera parte de la codificación utiliza una técnica denominada 4B/5B, la segunda parte es la codificación real de la línea específica para el cobre o la fibra. 7.1.7 100BASE-TX En 1995, 100BASE-TX con un cable UTP Cat 5 fue el estándar que se convirtió en un éxito comercial. Ethernet coaxial original utilizaba transmisión en half-duplex de modo que sólo un dispositivo podía transmitir a la vez. Sin embargo, en 1997, Ethernet se expandió para incluir capacidad de full duplex permitiendo que más de un PC transmitiera al mismo tiempo en una red. Cada vez más, los switches reemplazaban los hubs. Estos switches tenían la capacidad de transmitir en full duplex y de manejar rápidamente las tramas de Ethernet. 100BASE-TX usa codificación 4B/5B, que luego es mezclada y convertida a 3 niveles de transmisión multinivel o MLT-3. En el ejemplo, la ventana resaltada muestra cuatro ejemplos de forma de onda. La forma de la onda superior no presenta transición en el centro de la ventana de temporización. La ausencia de una transición indica que el binario 0 está presente. La segunda forma de onda presenta una transición en el centro de la ventana de temporización. La transición representa el binario 1. La tercera forma de onda muestra una secuencia binaria alternada. La ausencia de una transición binaria indica un binario 0 y la presencia de una transición indica un binario 1. Bordes ascendentes o descendentes indican unos. Cambios de señal muy pronunciados indican unos. Toda línea horizontal detectable en la señal indica un 0. La Figura muestra la disposición de la salida de los pins para una conexión 100BASE-TX. Tenga en cuenta que existen dos diferentes rutas de transmisión-recepción. Esto es igual que en la configuración de 10BASE-T. 100BASE-TX transporta 100 Mbps de tráfico en modo half-duplex. En modo full-duplex, 100BASE-TX puede intercambiar 200 Mbps de tráfico. El concepto de full duplex se hace cada vez más importante a medida que aumentan las velocidades de Ethernet. 7.1.8 100BASE-FX En el momento en que se introdujo Fast Ethernet con base de cobre, también se deseaba una versión en fibra. Una versión en fibra podría ser utilizada para aplicaciones con backbones, conexiones entre distintos pisos y edificios donde el cobre es menos aconsejable y también en entornos de gran ruido. Se introdujo 100BASE-FX para satisfacer esa necesidad. Sin embargo, nunca se adoptó con éxito la 100BASE-FX. Esto se debió a la oportuna introducción de los estándares de fibra y de cobre para Gigabit Ethernet. Los estándares para Gigabit Ethernet son, en estos momentos, la tecnología dominante en instalaciones de backbone, conexiones cruzadas de alta velocidad y necesidades generales de infraestructura. La temporización, el formato de trama y la transmisión son todos comunes a ambas versiones de Fast Ethernet de 100 Mbps . 100BASE-FX también utiliza la codificación 4B/5B. En la Figura note la forma de onda resaltada en el ejemplo. La forma de onda superior no presenta transición, lo que indica la presencia de un binario 0. La segunda forma de la onda muestra una transición en el centro de la ventana de temporización. La transición representa el binario 1. En la tercera forma de onda hay una secuencia binaria alternada. En este ejemplo,

Page 68: Semestre1 Ccna

resulta más obvio que la ausencia de una transición indica un binario 0 y la presencia de una transición, un binario 1. La Figura resume un enlace y las salidas de pins para 100BASE-FX. El par de fibra con conectores ST o SC es el que se utiliza más comúnmente. La transmisión a 200 Mbps es posible debido a las rutas individuales de Transmisión (Tx) y Recepción (Rx) de fibra óptica de 100BASE-FX. 7.1.9 Arquitectura de la Fast Ethernet Los enlaces de Fast Ethernet generalmente consisten en una conexión entre la estación y el hub o switch. Los hubs se consideran repetidores multipuerto y los switches, puentes multipuerto. Estos están sujetos a la limitación de 100 m de distancia de los medios UTP. Un repetidor Clase 1 puede introducir hasta 140 tiempos de bit de latencia. Todo repetidor que cambie entre una implementación de Ethernet y otra es un repetidor Clase 1. Un repetidor Clase II está restringido a menores retardos, 92 tiempos de bit, debido a que inmediatamente repite la señal entrante al resto de los puertos sin proceso de translación. Para lograr menor latencia, los repetidores Clase II deben conectarse a tipos de segmentos que usen la misma técnica de señalización. Tal como sucede con las versiones de 10 Mbps, es posible modificar algunas de las reglas de arquitectura para las versiones de 100 Mbps. Sin embargo, no se permite casi ningún retardo adicional. La modificación de las reglas de arquitectura para 100BASE-TX no es recomendable. El cable para 100BASE-TX entre repetidores Clase II no puede superar los 5 metros. Con frecuencia se encuentran enlaces en Fast Ethernet que operan en half duplex. Sin embargo, no se recomienda el half duplex porque el esquema de señalización en sí es full duplex. La Figura muestra las distancias de cable de la configuración arquitectónica. Los enlaces de 100BASE-TX pueden tener distancias sin repetición de hasta 100 m. El amplio uso de switches ha hecho que las limitaciones de distancia sean menos importantes. Como la mayoría de Fast Ethernet está conmutada, estos representan los límites prácticos entre los dispositivos. 7.2 Ethernet Gigabit y 10-Gigabit 7.2.1 Ethernet de 1000-Mbps Los estándares para Ethernet de 1000-Mbps o Gigabit Ethernet representan la transmisión a través de medios ópticos y de cobre. El estándar para 1000BASE-X, IEEE 802.3z, especifica una conexión full duplex de 1 Gbps en fibra óptica.. El estándar para 1000BASE-T, IEEE 802.3ab, especifica el uso de cable de cobre balanceado de Categoría 5, o mejor. Las 1000BASE-TX, 1000BASE-SX y 1000BASE-LX utilizan los mismos parámetros de temporización, como muestra la Figura . Utilizan un tiempo de bit de 1 nanosegundo (0,000000001 segundos) o 1 mil millonésima parte de un segundo. La trama de Gigabit Ethernet presenta el mismo formato que se utiliza en Ethernet de 10 y 100-Mbps. Según su implementación, Gigabit Ethernet puede hacer uso de distintos procesos para convertir las tramas a bits en el cable. La Figura muestra los formatos de trama para Ethernet. Las diferencias entre Ethernet estándar, Fast Ethernet y Gigabit Ethernet se encuentran en la capa física. Debido a las mayores velocidades de estos estándares recientes, la menor duración de los tiempos de bit requiere una consideración especial. Como los bits ingresan al medio por menor tiempo y con mayor frecuencia, es fundamental la temporización. Esta transmisión a alta velocidad requiere de frecuencias cercanas a las limitaciones de ancho de banda para los medios de cobre. Esto hace que los bits sean más susceptibles al ruido en los medios de cobre. Estos problemas requieren que Gigabit Ethernet utilice dos distintos pasos de codificación. La transmisión de datos se realiza de manera más eficiente utilizando códigos para representar el corriente binario de bits. Los datos codificados proporcionan sincronización, uso eficiente del ancho de banda y mejores características de la Relación entre Señal y Ruido. En la capa física, los patrones de bits a partir de la capa MAC se convierten en símbolos. Los símbolos también pueden ser información de control tal como trama de inicio, trama de fin, condiciones de inactividad del medio. La trama se codifica en símbolos de control y símbolos de datos para aumentar la tasa de transferencia de la red. Gigabit Ethernet (1000BASE-X) con base de fibra utiliza una codificación 8B/10B que es similar a la del concepto 4B/5B. Entonces le sigue la simple codificación de línea Sin Retorno a Cero (NRZ) de la luz en la fibra óptica. Este proceso de codificación más sencillo es posible debido a que el medio de la fibra puede transportar señales de mayor ancho de banda. 7.2.2 1000BASE-T

Page 69: Semestre1 Ccna

Al instalar Fast Ethernet para aumentar el ancho de banda de las estaciones de trabajo, se comenzaron a crear cuellos de botella corriente arriba en la red. 1000BASE-T (IEEE 802.3ab) se desarrolló para proporcionar ancho de banda adicional a fin de ayudar a aliviar estos cuellos de botella. Proporcionó mayor desempeño a dispositivos tales como backbones dentro de los edificios, enlaces entre los switches, servidores centrales y otras aplicaciones de armarios para cableado así como conexiones para estaciones de trabajo de nivel superior. Fast Ethernet se diseñó para funcionar en los cables de cobre Cat 5 existentes y esto requirió que dicho cable aprobara la verificación de la Cat 5e. La mayoría de los cables Cat 5 instalados pueden aprobar la certificación 5e si están correctamente terminados. Uno de los atributos más importantes del estándar para 1000BASE-T es que es interoperable con 10BASE-T y 100BASE-TX. Como el cable Cat 5e puede transportar, de forma confiable, hasta 125 Mbps de tráfico, obtener 1000 Mbps (Gigabit) de ancho de banda fue un desafío de diseño. El primer paso para lograr una 1000BASE-T es utilizar los cuatro pares de hilos en lugar de los dos pares tradicionales utilizados para 10BASE-T y 100BASE-TX. Esto se logra mediante un sistema de circuitos complejo que permite las transmisiones full duplex en el mismo par de hilos. Esto proporciona 250 Mbps por par. Con los cuatro pares de hilos, proporciona los 1000 Mbps esperados. Como la información viaja simultáneamente a través de las cuatro rutas, el sistema de circuitos tiene que dividir las tramas en el transmisor y reensamblarlas en el receptor. La codificación de 1000BASE-T con la codificación de línea 4D-PAM5 se utiliza en UTP de Cat 5e o superior.. Esto significa que la transmisión y recepción de los datos se produce en ambas direcciones en el mismo hilo a la vez. Como es de esperar, esto provoca una colisión permanente en los pares de hilos. Estas colisiones generan patrones de voltaje complejos. Mediante los complejos circuitos integrados que usan técnicas tales como la cancelación de eco, la Corrección del Error de Envío Capa 1 (FEC) y una prudente selección de los niveles de voltaje, el sistema logra una tasa de transferencia de 1Gigabit. En los períodos de inactividad, son nueve los niveles de voltaje que se encuentran en el cable y durante los períodos de transmisión de datos son 17. Con este gran número de estados y con los efectos del ruido, la señal en el cable parece más analógica que digital. Como en el caso del analógico, el sistema es más susceptible al ruido debido a los problemas de cable y terminación. Los datos que provienen de la estación transmisora se dividen cuidadosamente en cuatro corrientes paralelas; luego se codifican, se transmiten y se detectan en paralelo y finalmente se reensemblan en una sola corriente de bits recibida. La Figura representa la conexión full duplex simultánea en los cuatro pares de hilos. 1000BASE-T admite tanto las operaciones en half-duplex como las en full-duplex. El uso de 1000BASE-T en full-duplex está ampliamente difundido. 7.2.3 1000BASE-SX y LX El estándar IEEE 802.3 recomienda Gigabit Ethernet en fibra como la tecnología de backbone de preferencia. La temporización, el formato de trama y la transmisión son comunes a todas las versiones de 1000 Mbps. En la capa física, se definan dos esquemas de codificación de la señal. El esquema 8B/ 10B se utiliza para los medios de fibra óptica y de cobre blindado y la modulación de amplitud de pulso 5 (PAM5) se utiliza para los UTP. 1000BASE-X utiliza una codificación 8B/10B convertida en la codificación de línea sin retorno a cero (NRZ). La codificación NRZ depende del nivel de la señal encontrado en la ventana de temporización para determinar el valor binario para ese período de bits. A diferencia de la mayoría de los otros esquemas de codificación descriptos, este sistema de codificación va dirigido por los niveles en lugar de por los bordes. Es decir, determinar si un bit es un cero o un uno depende del nivel de la señal en vez del momento cuando la señal cambia de nivel. Las señales NRZ son entonces pulsadas hacia la fibra utilizando fuentes de luz de onda corta o de onda larga. La onda corta utiliza un láser de 850 nm o una fuente LED en fibra óptica multimodo (1000BASE-SX). Es la más económica de las opciones pero cubre distancias más cortas. La fuente láser de 1310 nm de onda larga utiliza fibra óptica monomodo o multimodo (1000BASE-LX). Las fuentes de láser utilizadas con fibra monomodo pueden cubrir distancias de hasta 5000 metros. Debido al tiempo necesario para encender y apagar por completo el LED o el láser cada vez, la luz se pulsa utilizando alta y baja energía. La baja energía representa un cero lógico y la alta energía, un uno lógico. El método de Control de Acceso a los Medios considera el enlace como si fuera de punto a punto. Como se utilizan distintas fibras para transmitir (Tx) y recibir (Rx) la conexión de por sí es de full duplex. Gigabit Ethernet permite un sólo repetidor entre dos estaciones. La Figura es un cuadro de comparación de medios de Ethernet 1000BASE 7.2.4 Arquitectura de Gigabit Ethernet Las limitaciones de distancia de los enlaces full-duplex están restringidas sólo por el medio y no por el retardo de ida y vuelta. Como la mayor parte de Gigabit Ethernet está conmutada, los valores de las Figuras y son los límites prácticos entre los dispositivos. Las topologías de cadena de margaritas, de estrella y de estrella extendida están todas permitidas. El problema entonces yace en la topología lógica y el flujo de datos y no en

Page 70: Semestre1 Ccna

las limitaciones de temporización o distancia. Un cable UTP de 1000BASE-T es igual que un cable de una 10BASE-T o 100BASE-TX, excepto que el rendimiento del enlace debe cumplir con los requisitos de mayor calidad de ISO Clase D (2000) o de la Categoría 5e. No es recomendable modificar las reglas de arquitectura de 1000BASE-T. A los 100 metros, 1000BASE-T opera cerca del límite de la capacidad de su hardware para recuperar la señal transmitida. Cualquier problema de cableado o de ruido ambiental podría dejar un cable, que en los demás aspectos cumple con los estándares, inoperable inclusive a distancias que se encuentran dentro de la especificación. Se recomienda que todos los enlaces existentes entre una estación y un hub o switch estén configurados para Auto-Negociación para así permitir el mayor rendimiento conjunto. Esto evitará errores accidentales en la configuración de otros parámetros necesarios para una adecuada operación de Gigabit Ethernet. 7.2.5 10-Gigabit Ethernet Se adaptó el IEEE 802.3ae para incluir la transmisión en full-duplex de 10 Gbps en cable de fibra óptica. Las similitudes básicas entre 802.3ae y 802.3, Ethernet original son notables. Esta Ethernet de 10-Gigabit (10GbE) está evolucionando no sólo para las LAN sino también para las MAN y las WAN. Con un formato de trama y otras especificaciones de Capa 2 de Ethernet compatibles con estándares anteriores, 10GbE puede proporcionar mayores necesidades de ancho de banda que son interoperables con la infraestructura de red existente. Un importante cambio conceptual en Ethernet surge con 10GbE. Por tradición, se considera que Ethernet es una tecnología de LAN, pero los estándares de la capa física de 10GbE permiten tanto una extensión de las distancias de hasta 40 km a través de una fibra monomodo como una compatibilidad con la red óptica síncrona (SONET) y con redes síncronas de jerarquía digital (SDH). La operación a una distancia de 40 km hace de 10GbE una tecnología MAN viable. La compatibilidad con las redes SONET/SDH que operan a velocidades de hasta OC-192 (9.584640 Gbps) hace de 10GbE una tecnología WAN viable. Es posible que 10GbE compita con la ATM en ciertas aplicaciones. En resumen, ¿cómo se compara 10GbE con otras variedades de Ethernet? * El formato de trama es el mismo, permitiendo así la interoperabilidad entre todos los tipos de tecnologías antiguas, fast, gigabit y 10 Gigabit, sin retramado o conversiones de protocolo. * El tiempo de bit es ahora de 0,1 nanosegundos. Todas las demás variables de tiempo caen en su correspondiente lugar en la escala. * Como sólo se utilizan conexiones de fibra en full-duplex, el CSMA/CD no es necesario. * Las subcapas de IEEE 802.3 dentro de las Capas OSI 1 y 2 se preservan en su mayoría, con pocos agregados para dar lugar a enlaces en fibra de 40 km e interoperabilidad con las tecnologías SONET/SDH. * Entonces, es posible crear redes de Ethernet flexibles, eficientes, confiables, a un costo de punta a punta relativamente bajo. * El TCP/IP puede correr en redes LAN, MAN y WAN con un método de Transporte de Capa 2. El estándar básico que rige el CSMA/CD es IEEE 802.3. Un suplemento al IEEE 802.3, titulado 802.3ae, rige la familia de las 10GbE. Como es típico para las nuevas tecnologías, se están considerando una variedad de implementaciones, que incluye: * 10GBASE-SR: Para cubrir distancias cortas en fibra multimodo ya instalada, admite un rango de 26 m a 82 m. * 10GBASE-LX4: Utiliza la multiplexación por división de longitud de onda (WDM), admite a un rango de 240 m a 300 m en fibra multimodo ya instalada y de 10 km en fibra monomodo. * 10GBASE-LR y 10GBASE-ER: Admite entre 10 km y 40 km en fibra monomodo. * 10GBASE-SW, 10GBASE-LW y 10GBASE-EW: Conocidas colectivamente como 10GBASE-W, su objetivo es trabajar con equipos WAN SONET/SDH para módulos de transporte síncrono (STM) OC-192. La Fuerza de Tarea IEEE 802.3ae y la Alianza de Ethernet de 10 Gigabit (10 GEA) están trabajando para estandarizar estas tecnologías emergentes. 10-Gbps Ethernet (IEEE 802.3ae) se estandarizó en junio de 2002. Es un protocolo full-duplex que utiliza sólo fibra óptica como medio de transmisión. Las distancias máximas de transmisión dependen del tipo de fibra que se utiliza. Cuando se utiliza fibra monomodo como medio de transmisión, la distancia máxima de transmisión es de 40 kilómetros (25 millas). De algunas conversaciones recientes entre los miembros del IEEE, surge la posibilidad de estándares para una Ethernet de 40, 80 e inclusive 100 Gbps. 7.2.6 Arquitecturas de 10-Gigabit Ethernet Tal como sucedió en el desarrollo de Gigabit Ethernet, el aumento en la velocidad llega con mayores requisitos. Una menor duración del tiempo de bit que resulta de una mayor velocidad requiere consideraciones especiales. En las transmisiones en 10 GbE, cada bit de datos dura 0,1 nanosegundos. Esto significa que habría 1000 bits

Page 71: Semestre1 Ccna

de datos en GbE en el mismo tiempo de bit que un bit de datos en una corriente de datos en Ethernet de 10-Mbps. Debido a la corta duración del bit de datos de 10 GbE, a menudo resulta difícil separar un bit de datos del ruido. Las transmisiones de datos en 10 GbE dependen de la temporización exacta de bit para separar los datos de los efectos del ruido en la capa física. Este es el propósito de la sincronización. En respuesta a estos problemas de la sincronización, el ancho de banda y la Relación entre Señal y Ruido, Ethernet de 10 Gigabits utiliza dos distintos pasos de codificación. Al utilizar códigos para representar los datos del usuario, la transmisión de datos se produce de manera más eficiente. Los datos codificados proporcionan sincronización, uso eficiente del ancho de banda y mejores características de la Relación entre Señal y Ruido. Corrientes complejas de bits en serie se utilizan para todas las versiones de 10GbE excepto en 10GBASE-LX4, que utiliza la Amplia Multiplexión por División de Longitud de Onda (WWDM) para multiplexar corrientes de datos simultáneas de cuatro bits en cuatro longitudes de onda de luz lanzada a la fibra a la vez. La Figura representa el caso particular del uso de cuatro fuentes láser de longitudes de onda apenas diferentes. Una vez recibida del medio, la corriente de señal óptica se desmultiplexa en cuatro distintas corrientes de señal óptica. Las cuatro corrientes de señal óptica entonces vuelven a convertirse en cuatro corrientes electrónicas de bits a medida que viajan, usando el proceso inverso a través de las subcapas hacia la capa MAC. En la actualidad, la mayoría de los productos de 10GbE tienen forma de módulos, o tarjetas de línea, para agregar a los switches y a los routers de nivel superior. A medida que evolucionen las tecnologías de 10GbE, será posible esperar una creciente variedad de componentes para la transmisión de señales. A medida que evolucionen las tecnologías ópticas, se incorporarán mejores transmisores y receptores a estos productos, tomando ventaja adicional de la modularidad. Todas las variedades de 10GbE utilizan medios de fibra óptica. Los tipos de fibra incluyen fibra monomodo de 10µ y fibras multimodo de 50µ y 62.5µ. Admiten un rango de características de dispersión y de atenuación de la fibra, pero limitan las distancias de operación. Aunque esta tecnología se limita a los medios de fibra óptica, algunas de las longitudes máximas para los cables son sorprendentemente cortas. No se ha definido ningún repetidor para Ethernet de 10 Gigabits ya que explícitamente no admite las conexiones half duplex. Tal como sucede con las versiones de 10 Mbps, 100 Mbps y 1000 Mbps, es posible modificar levemente algunas de las reglas de arquitectura Los ajustes de arquitectura posibles están relacionados con la pérdida de la señal y distorsión a lo largo del medio. Debido a la dispersión de la señal y otros problemas, el pulso de luz se vuelve indescifrable más allá de ciertas distancias. 7.2.7 El futuro de Ethernet Ethernet ha evolucionado desde las primeras tecnologías, a las Tecnologías Fast, a las de Gigabit y a las de MultiGigabit. Aunque otras tecnologías LAN todavía están instaladas (instalaciones antiguas), Ethernet domina las nuevas instalaciones de LAN. A tal punto que algunos llaman a Ethernet el "tono de marcación" de la LAN. Ethernet ha llegado a ser el estándar para las conexiones horizontales, verticales y entre edificios. Las versiones de Ethernet actualmente en desarrollo están borrando la diferencia entre las redes LAN, MAN y WAN. Mientras que Ethernet de 1 Gigabit es muy fácil de hallar en el mercado, y cada vez es más fácil conseguir los productos de 10 Gigabits, el IEEE y la Alianza de Ethernet de 10 Gigabits se encuentran trabajando en estándares para 40, 100 e inclusive 160 Gbps. Las tecnologías que se adopten dependerán de un número de factores que incluyen la velocidad de maduración de las tecnologías y de los estándares, la velocidad de adopción por parte del mercado y el costo. Se han presentando propuestas para esquemas de arbitraje de Ethernet que no sean CSMA/CD. El problema de las colisiones con las topologías físicas en bus de 10BASE5 y 10BASE2 y de los hubs de 10BASE-T y 100BASE-TX ya no es tan frecuente. El uso de UTP y de la fibra óptica con distintas rutas de Tx y Rx y los costos reducidos de los switches hacen que las conexiones a los medios en half-duplex y los medios únicos compartidos sean mucho menos importantes. El futuro de los medios para networking tiene tres ramas: 1. Cobre (hasta 1000 Mbps, tal vez más) 2. Inalámbrico (se aproxima a los 100 Mbps, tal vez más) 3. Fibra óptica (en la actualidad a una velocidad de 10.000 Mbps y pronto superior) Los medios de cobre e inalámbricos presentan ciertas limitaciones físicas y prácticas en cuanto a la frecuencia más alta con la se pueda transmitir una señal. Este no es un factor limitante para la fibra óptica en un futuro predecible. Las limitaciones de ancho de banda en la fibra óptica son extremadamente amplias y todavía no están amenazadas. En los sistemas de fibra, son la tecnología electrónica (por ejemplo los emisores y los detectores) y los procesos de fabricación de la fibra los que más limitan la velocidad. Los adelantos futuros de Ethernet probablemente estén dirigidos hacia las fuentes de luz láser y a la fibra óptica monomodo.

Page 72: Semestre1 Ccna

Cuando Ethernet era más lenta, en half-duplex, sujeta a colisiones y a un proceso "democrático" de prioridades, no se consideraba que tuviera las capacidades de Calidad de Servicio (QoS) necesarias para manejar cierto tipo de tráfico. Esto incluía por ejemplo la telefonía IP y el video multicast. Las tecnologías de Ethernet de alta velocidad y full-duplex que ahora dominan el mercado están resultando ser suficientes a la hora de admitir aplicaciones intensivas inclusive las de QoS. Esto hace que las potenciales aplicaciones de Ethernet sean aún más amplias. Irónicamente, la capacidad de QoS de punta a punta ayudó a dar un empuje a ATM para escritorio y a la WAN a mediados de los 90, pero ahora es Ethernet y no ATM la que está realizando este objetivo. Módulo 8: Conmutación de Ethernet Descripción general Ethernet compartida funciona muy bien en circunstancias ideales. Cuando el número de dispositivos que intentan acceder a la red es bajo, el número de colisiones permanece dentro de los límites aceptables. Sin embargo, cuando el número de usuarios de la red aumenta, el mayor número de colisiones puede causar que el rendimiento sea intolerablemente malo. El puenteo se desarrolló para aliviar los problemas de rendimiento que surgieron con el aumento de las colisiones. La conmutación surgió del puenteo y se ha convertido en la tecnología clave de las LAN modernas de Ethernet. Las colisiones y broadcasts son sucesos esperados en la networking moderna. Ellas, de hecho, están planeadas dentro del diseño de Ethernet y de las tecnologías de capa avanzadas. Sin embargo, cuando las colisiones y broadcasts ocurren en un número que se encuentra por encima del óptimo, el rendimiento de la red se ve afectado. El concepto de dominios de colisión y de broadcast trata las formas en que pueden diseñarse las redes para limitar los efectos negativos de las colisiones y broadcasts. Este módulo explora los efectos de las colisiones y broadcasts sobre el tráfico de red y luego describe cómo se utilizan los puentes y routers para segmentar las redes y mejorar el rendimiento. Los estudiantes que completen este módulo deberán poder: * Definir puenteo y conmutación. * Definir y describir la tabla de memoria de contenido direccionable (Content Addressable Memory, CAM). * Definir latencia. * Describir los modos de conmutación de almacenamiento y envío y por método de corte. * Explicar el protocolo Spanning Tree (Spanning Tree Protocol, STP). * Definir colisiones, broadcasts y dominios de colisión y de broadcast. * Identificar los dispositivos de las Capas 1, 2 y 3 utilizados para crear dominios de colisión y de broadcast. * Discutir el flujo de datos y los problemas con broadcasts. * Explicar la segmentación de la red y confeccionar una lista de los dispositivos utilizados en la creación de los segmentos. 8.1 Conmutación de Ethernet 8.1.1 Puenteo de Capa 2 A medida que se agregan más nodos al segmento físico de Ethernet, aumenta la contención de los medios. Ethernet es un medio compartido, lo que significa que sólo un nodo puede transmitir datos a la vez. Al agregar más nodos, se aumenta la demanda sobre el ancho de banda disponible y se impone una carga adicional sobre los medios. Cuando aumenta el número de nodos en un solo segmento, aumenta la probabilidad de que haya colisiones, y esto causa más retransmisiones. Una solución al problema es dividir un segmento grande en partes y separarlo en dominios de colisión aislados. Para lograr esto, un puente guarda una tabla de direcciones MAC y sus puertos asociados. El puente luego envía o descarta tramas basándose en las entradas de su tabla. Los pasos siguientes ilustran el modo de operación de un puente: * El puente se acaba de encender, por lo tanto la tabla de puenteo se encuentra vacía. El puente sólo espera el tráfico en ese segmento. Cuando detecta el tráfico, el puente lo procesa. * El Host A está haciendo ping hacia el Host B. Como los datos se transmiten por todo el segmento del dominio de colisión, tanto el puente como el Host B procesan el paquete. * El puente agrega la dirección origen de la trama a su tabla de puenteo. Como la dirección se encontraba en el campo de dirección origen y se recibió la trama en el Puerto 1, la trama debe estar asociada con el puerto 1 de la tabla. * La dirección de destino de la trama se compara con la tabla de puenteo. Ya que la dirección no se encuentra en la tabla, aunque está en el mismo dominio de colisión, la trama se envía a otro segmento. La dirección del Host B no se registró aún ya que sólo se registra la dirección origen de una trama. * El Host B procesa la petición del ping y transmite una repuesta ping de nuevo al Host A. El dato se transmite a lo largo de todo el dominio de colisión. Tanto el Host A como el puente reciben la trama y la procesan. * El puente agrega la dirección origen de la trama a su tabla de puenteo. Debido a que la dirección de origen no

Page 73: Semestre1 Ccna

estaba en la tabla de puenteo y se recibió en el puerto 1, la dirección origen de la trama debe estar asociada con el puerto 1 de la tabla. La dirección de destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí. Debido a que la dirección se encuentra en la tabla, se verifica la asignación del puerto. La dirección del Host A está asociada con el puente por el que la trama llegó, entonces la trama no se envía. * El Host A ahora va a hacer ping hacia el Host C. Ya que los datos se transmiten en todo el segmento del dominio de colisión, tanto el puente como el Host B procesan la trama. El Host B descarta la trama porque no era el destino establecido. * El puente agrega la dirección origen de la trama a su tabla de puenteo. Debido a que la dirección ya estaba registrada en la tabla de puenteo, simplemente se renueva. * La dirección de destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí. Debido a que la dirección no se encuentra en la tabla, se envía la trama a otro segmento. La dirección del Host C no se registró aún, ya que sólo se registra la dirección origen de una trama. * El Host C procesa la petición del ping y transmite una repuesta ping de nuevo al Host A. El dato se transmite a lo largo de todo el dominio de colisión. Tanto el Host D como el puente reciben la trama y la procesan. El Host D descarta la trama porque no era el destino establecido. * El puente agrega la dirección origen de la trama a su tabla de puenteo. Ya que la dirección se encontraba en el campo de dirección origen y la trama se recibió en el Puerto 2, la trama debe estar asociada con el puerto 2 de la tabla. * La dirección destino de la trama se compara con la tabla de puenteo para verificar si su entrada está allí. La dirección se encuentra en la tabla pero está asociada con el puerto 1, entonces la trama se envía al otro segmento. * Cuando el Host D transmite datos, su dirección MAC también se registrará en la tabla de puenteo. Esta es la manera en que el puente controla el tráfico entre los dominios de colisión. Estos son los pasos que utiliza el puente para enviar y descartar tramas que se reciben en cualquiera de sus puertos. 8.1.2 Conmutación a nivel de Capa 2 Por lo general, un puente sólo tiene dos puertos y divide un dominio de colisión en dos partes. Todas las decisiones que toma el puente se basan en un direccionamiento MAC o de Capa 2 y no afectan el direccionamiento lógico o de Capa 3. Así, un puente dividirá el dominio de colisión pero no tiene efecto sobre el dominio lógico o de broadcast. No importa cuántos puentes haya en la red, a menos que haya un dispositivo como por ejemplo un router que funciona en el direccionamiento de Capa 3, toda la red compartirá el mismo espacio de dirección lógica de broadcast. Un puente creará más dominios de colisión pero no agregará dominios de broadcast. Un switch es básicamente un puente rápido multipuerto, que puede contener docenas de puertos. En vez de crear dos dominios de colisión, cada puerto crea su propio dominio de colisión. En una red de veinte nodos, existen veinte dominios de colisión si cada nodo está conectado a su propio puerto de switch. Si se incluye un puerto uplink, un switch crea veintiún dominios de colisión de un solo nodo. Un switch crea y mantiene de forma dinámica una tabla de memoria de contenido direccionable (Content Addressable Memory, CAM), que contiene toda la información MAC necesaria para cada puerto. 8.1.3 Operación de switches Un switch es simplemente un puente con muchos puertos. Cuando sólo un nodo está conectado a un puerto de switch, el dominio de colisión en el medio compartido contiene sólo dos nodos. Los dos nodos en este segmento pequeño, o dominio de colisión, constan del puerto de switch y el host conectado a él. Estos segmentos físicos pequeños son llamados microsegmentos. Otra capacidad emerge cuando sólo dos nodos se conectan. En una red que utiliza cableado de par trenzado, un par se usa para llevar la señal transmitida de un nodo al otro. Un par diferente se usa para la señal de retorno o recibida. Es posible que las señales pasen a través de ambos pares de forma simultánea. La capacidad de comunicación en ambas direcciones al mismo tiempo se conoce como full duplex. La mayoría de los switch son capaces de admitir full duplex, como también lo son las tarjetas de interfaz de red (Network Interface Card, NIC) En el modo full duplex, no existe contención para los medios. Así, un dominio de colisión ya no existe. En teoría, el ancho de banda se duplica cuando se usa full duplex. Además de la aparición de microprocesadores y memoria más rápidos, otros dos avances tecnológicos hicieron posible la aparición de los switch. La memoria de contenido direccionable (Content Addressable Memory, CAM) es una memoria que esencialmente funciona al revés en comparación con la memoria convencional. Ingresar datos a la memoria devolverá la dirección asociada. El uso de memoria CAM permite que un switch encuentre directamente el puerto que está asociado con la dirección MAC sin usar un algoritmo de búsqueda. Un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) es un dispositivo formado de compuertas lógicas no dedicadas que pueden programarse para realizar funciones a velocidades lógicas. Las operaciones que antes se llevaban a cabo en software ahora pueden hacerse en hardware usando ASIC. El uso de estas tecnologías redujo enormemente los retardos causados por el procesamiento del software y permitió que un switch pueda mantenerse al ritmo de la demanda de los datos de muchos microsegmentos y velocidades de bits altas. 8.1.4 Latencia

Page 74: Semestre1 Ccna

La latencia es el retardo que se produce entre el tiempo en que una trama comienza a dejar el dispositivo origen y el tiempo en que la primera parte de la trama llega a su destino. Existe una gran variedad de condiciones que pueden causar retardos mientras la trama viaja desde su origen a su destino: * Retardos de los medios causados por la velocidad limitada a la que las señales pueden viajar por los medios físicos. * Retardos de circuito causados por los sistemas electrónicos que procesan la señal a lo largo de la ruta. * Retardos de software causados por las decisiones que el software debe tomar para implementar la conmutación y los protocolos. * Retardos causados por el contenido de la trama y en qué parte de la trama se pueden tomar las decisiones de conmutación. Por ejemplo, un dispositivo no puede enrutar una trama a su destino hasta que la dirección MAC destino haya sido leída. 8.1.5 Modos de conmutación Cómo se conmuta una trama a su puerto de destino es una compensación entre la latencia y la confiabilidad. Un switch puede comenzar a transferir la trama tan pronto como recibe la dirección MAC destino. La conmutación en este punto se llama conmutación por el método de corte y da como resultado una latencia más baja en el switch. Sin embargo, no se puede verificar la existencia de errores. En el otro extremo, el switch puede recibir toda la trama antes de enviarla al puerto destino. Esto le da al software del switch la posibilidad de controlar la secuencia de verificación de trama (Frame Check Sequence, FCS) para asegurar que la trama se haya recibido de modo confiable antes de enviarla al destino. Si se descubre que la trama es inválida, se descarta en este switch en vez de hacerlo en el destino final. Ya que toda la trama se almacena antes de ser enviada, este modo se llama de almacenamiento y envío. El punto medio entre los modos de corte y de almacenamiento y envío es el modo libre de fragmentos. El modo libre de fragmentos lee los primeros 64 bytes, que incluye el encabezado de la trama, y la conmutación comienza antes de que se lea todo el campo de datos y la checksum. Este modo verifica la confiabilidad de direccionamiento y la información del protocolo de control de enlace lógico (Logical Link Control, LLC) para asegurar que el destino y manejo de los datos sean correctos. Al usar conmutación por métodos de corte, tanto el puerto origen como el destino deben operar a la misma velocidad de bit para mantener intacta la trama. Esto se denomina conmutación síncrona. Si las velocidades de bit no son iguales, la trama debe almacenarse a una velocidad de bit determinada antes de ser enviada a otra velocidad de bit. Esto se conoce como conmutación asíncrona. En la conmutación asimétrica se debe usar el método de almacenamiento y envío. Una conmutación asimétrica proporciona conexiones conmutadas entre puertos con distinto ancho de banda, tal como una combinación de puertos de 1000 Mbps y de 100 Mbps. La conmutación asimétrica ha sido optimizada para el flujo de tráfico cliente/servidor en el que muchos clientes se comunican con el servidor de forma simultánea, lo cual requiere mayor ancho de banda dedicado al puerto del servidor para evitar un cuello de botella en ese puerto. 8.1.6 Protocolo de Spanning Tree (árbol de extensión) Cuando varios switch están ubicados en un árbol jerárquico sencillo, es poco probable que ocurran bucles de conmutación. Sin embargo, a menudo las redes conmutadas se diseñan con rutas redundantes para ofrecer más confiabilidad y tolerancia a fallas. Si bien se recomienda el uso de rutas redundantes, ellas pueden tener efectos colaterales indeseables. Los bucles de conmutación son uno de esos efectos. Los bucles de conmutación pueden ocurrir ya sea por diseño o por accidente, y pueden llevar tormentas de broadcast que rápidamente abrumen la red. Para contrarrestar la posibilidad de bucles, se proporcionan switches con un protocolo basado en los estándares llamado protocolo de spanning tree (Spanning Tree Protocol, STP). Cada switch en una LAN que usa STP envía un mensaje especial llamado unidades de datos del protocolo puente (Bridge Protocol Data Unit, BPDU) desde todos sus puertos para que los otros switches sepan de su existencia y elijan un puente raíz para la red. Los switches entonces usan un algoritmo spanning-tree (Spanning Tree Algorithm, STA) para resolver y desconectar las rutas redundantes. Cada puerto de un switch que usa protocolo de spanning- tree se encuentra en uno de los cinco estados siguientes: * Bloquear * Escuchar * Aprender * Enviar * Desactivar El puerto pasa por estos cinco estados de la forma siguiente: * De la inicialización al bloqueo * De bloqueo a escucha o desactivado * De escucha a aprendizaje o desactivado * De aprendizaje a envío o desactivado * De envío a desactivado

Page 75: Semestre1 Ccna

El resultado de la resolución y eliminación de bucles usando STP es la creación de un árbol jerárquico lógico sin bucles. Sin embargo, si se necesitan, las rutas alternativas están disponibles. 8.2 Dominios de colisión y de broadcast 8.2.1 Entorno de medios compartidos Comprender los dominios de colisión requiere de la comprensión de lo que son las colisiones y cómo se originan. Para ayudar a explicar las colisiones, aquí se revisan los medios y topologías de Capa 1. Algunas redes se conectan directamente y todos los hosts comparten la Capa 1. Aquí hay algunos ejemplos: * Entorno de medios compartidos: Ocurre cuando varios hosts tienen acceso al mismo medio. Por ejemplo, si varios PC se encuentran conectados al mismo cable físico, a la misma fibra óptica entonces se dice que comparten el mismo entorno de medios. * Entorno extendido de medios compartidos: Es un tipo especial de entorno de medios compartidos en el que los dispositivos de networking pueden ampliar el entorno de modo que pueda incluir accesos múltiples o distancias mayores de cableado. * Entorno de red punto a punto: Se usa mucho en las conexiones de red de servicio de acceso telefónico y es la más común para el usuario hogareño. Se trata de un entorno de networking compartido en el que un dispositivo se conecta a un dispositivo solamente, como por ejemplo un computador al proveedor de servicios de Internet por cable módem y línea telefónica. Es importante saber identificar un entorno de medios compartidos, debido a que las colisiones sólo ocurren en un entorno así. Un sistema de autopistas es un ejemplo de entorno compartido en el que las colisiones pueden ocurrir porque varios vehículos están utilizando las mismas rutas. A medida que más vehículos entran a las rutas, es probable que haya más colisiones. Una red de datos compartida se parece mucho a una autopista. Existen reglas para determinar quién tiene acceso a los medios de red, pero a veces las reglas simplemente no pueden manejar el volumen de tráfico, entonces se producen colisiones. 8.2.2 Dominios de colisión Los dominios de colisión son los segmentos de red física conectados, donde pueden ocurrir colisiones. Las colisiones causan que la red sea ineficiente. Cada vez que ocurre una colisión en la red, se detienen todas las transmisiones por un período de tiempo. La duración de este período sin transmisión varía y depende de un algoritmo de postergación para cada dispositivo de la red. Los tipos de dispositivos que interconectan los segmentos de medios definen los dominios de colisión. Estos dispositivos se clasifican en dispositivos OSI de Capa 1, 2 ó 3. Los dispositivos de Capa 1 no dividen los dominios de colisión; los dispositivos de Capa 2 y 3 sí lo hacen. La división o aumento del número de dominios de colisión con los dispositivos de Capa 2 y 3 se conoce también como segmentación. Los dispositivos de Capa 1, tales como los repetidores y hubs, tienen la función primaria de extender los segmentos de cable de Ethernet Al extender la red se pueden agregar más hosts, Sin embargo, cada host que se agrega aumenta la cantidad de tráfico potencial en la red. Como los dispositivos de Capa 1 transmiten todo lo que se envía en los medios, cuanto mayor sea el tráfico transmitido en un dominio de colisión, mayor serán las posibilidades de colisión. El resultado final es el deterioro del rendimiento de la red, que será mayor si todos los computadores en esa red exigen anchos de banda elevados. En fin, al colocar dispositivos de Capa 1 se extienden los dominios de colisión, pero la longitud de una LAN puede verse sobrepasada y causar otros problemas de colisión. La regla de los cuatro repetidores en Ethernet establece que no puede haber más de cuatro repetidores o hubs repetidores entre dos computadores en la red. Para asegurar que una red 10BASE-T con repetidores funcionará de forma adecuada, el cálculo del retardo del recorrido de ida y vuelta debe estar dentro de ciertos límites, de otro modo todas las estaciones de trabajo no podrán escuchar todas las colisiones en la red. La latencia del repetidor, el retardo de propagación y la latencia de la NIC contribuyen a la regla de 4 repetidores. Si se excede la regla de los cuatro repetidores, esto puede llevar a la violación del límite de retardo máximo. Cuando se supera este límite de retardo, la cantidad de colisiones tardías aumenta notablemente. Una colisión tardía es una colisión que se produce después de la transmisión de los primeros 64 bytes de la trama. Cuando se produce una colisión tardía, no se requiere que los conjuntos de chips en las NIC retransmitan de forma automática. Estas tramas de colisión tardía agregan un retardo denominado retardo de consumo. Con el aumento del retardo de consumo y la latencia, se deteriora el rendimiento de la red. La regla 5-4-3-2-1 requiere que se cumpla con las siguientes pautas: * Cinco segmentos de medios de red. * Cuatro repetidores o hubs * Tres segmentos de host de red * Dos secciones de enlace (sin hosts) * Un dominio de colisión grande

Page 76: Semestre1 Ccna

La regla 5-4-3-2-1 también explica cómo mantener el tiempo de retardo del recorrido de ida y vuelta en una red compartida dentro de los límites aceptables. 8.2.3 Segmentación La historia de cómo Ethernet maneja las colisiones y los dominios de colisión se remonta a la investigación realizada en la Universidad de Hawai en 1970. En su intento por desarrollar un sistema de comunicaciones inalámbrico entre las islas de Hawai, los investigadores de la Universidad desarrollaron un protocolo llamado Aloha. En realidad, el protocolo de Ethernet se basa en el protocolo Aloha. Una habilidad importante de todo profesional de networking, es la capacidad de reconocer los dominios de colisión. Conectar varios computadores a un solo medio de acceso compartido que no tiene ningún otro dispositivo de networking conectado, crea un dominio de colisión. Esta situación limita el número de computadores que pueden utilizar el medio, también llamado segmento. Los dispositivos de Capa 1 amplían pero no controlan los dominios de colisión. Los dispositivos de Capa 2 dividen o segmentan los dominios de colisión. El control de propagación de trama con la dirección MAC asignada a todos los dispositivos de Ethernet ejecuta esta función. Los dispositivos de Capa 2, los puentes y switches, hacen un seguimiento de las direcciones MAC y el segmento en el que se encuentran. Al hacer esto, estos dispositivos pueden controlar el flujo de tráfico en el nivel de Capa 2. Esta función hace que las redes sean más eficientes, al permitir que los datos se transmitan por diferentes segmentos de la LAN al mismo tiempo sin que las tramas colisionen. Al usar puentes y switches, el dominio de colisión se divide efectivamente en partes más pequeñas, que se transforman cada una a su vez en un dominio de colisión. Estos dominios de colisión más pequeños tendrán menos hosts y menos tráfico que el dominio original. Cuanto menor sea la cantidad de hosts en un dominio de colisión, mayores son las probabilidades de que el medio se encuentre disponible. Siempre y cuando el tráfico entre los segmentos puenteados no sea demasiado pesado, una red puenteada funciona bien. De lo contrario, el dispositivo de Capa 2 puede desacelerar las comunicaciones y convertirse en un cuello de botella en sí mismo. Los dispositivos de Capa 3, al igual que los de Capa 2, no envían las colisiones. Es por eso que usar dispositivos de Capa 3 en una red produce el efecto de dividir los dominios de colisión en dominios menores. Los dispositivos de Capa 3 tienen más funciones que sólo las de dividir los dominios de colisión. Los dispositivos de Capa 3 y sus funciones se tratarán con mayor profundidad en la sección sobre dominios de broadcast. 8.2.4 Broadcasts de Capa 2 Para comunicarse con todos los dominios de colisión, los protocolos utilizan tramas de broadcast y multicast a nivel de Capa 2 en el modelo OSI. Cuando un nodo necesita comunicarse con todos los hosts de la red, envía una trama de broadcast con una dirección MAC destino 0xFFFFFFFFFFFF. Esta es una dirección a la cual debe responder la tarjeta de interfaz de la red (Network Interface Card, NIC) de cada host. Los dispositivos de Capa 2 deben inundar todo el tráfico de broadcast y multicast. La acumulación de tráfico de broadcast y multicast de cada dispositivo de la red se denomina radiación de broadcast. En algunos casos, la circulación de radiación de broadcast puede saturar la red, entonces no hay ancho de banda disponible para los datos de las aplicaciones. En este caso, no se pueden establecer las conexiones en la red, y las conexiones existentes pueden descartarse, algo que se conoce como tormenta de broadcast. La probabilidad de las tormentas de broadcast aumenta a medida que crece la red conmutada. Como la NIC tiene que interrumpir a la CPU para procesar cada grupo de broadcast o multicast al que pertenece, el efecto de radiación de broadcast afecta el rendimiento de los hosts de la red. La Figura muestra los resultados de pruebas que Cisco condujo sobre el efecto de la radiación de broadcast en el rendimiento de un CPU de Sun SPARCstation 2 usando una tarjeta Ethernet estándar incorporada. Como se ve en los resultados, los broadcasts que inundan la red efectivamente pueden desconectar una estación de trabajo IP. Aunque parezca extremo, durante las tormentas de broadcast, se han observado picos de miles de broadcasts por segundo. Pruebas en un entorno controlado con una variedad de broadcasts y multicasts de la red mostraron una degradación del sistema mensurable a tan sólo 100 broadcasts o multicasts por segundo. La mayoría de las veces, el host no se beneficia al procesar el broadcast, ya que no es el destino buscado. Al host no le interesa el servicio que se publicita, o ya lo conoce. Los niveles elevados de radiación de broadcast pueden degradar el rendimiento del host de manera considerable. Las tres fuentes de broadcasts y multicasts en las redes IP son las estaciones de trabajo, los routers y las aplicaciones multicast. Las estaciones de trabajo envían en broadcast una petición de protocolo de resolución de direcciones (Address Resolution Protocol, ARP) cada vez que necesitan ubicar una dirección MAC que no se encuentra en la tabla ARP. Aunque los números en la figura pudieran parecer bajos, representan una red promedio IP bien diseñada. Cuando el tráfico de broadcast y multicast hace un pico debido a una tormenta, la pérdida pico de la CPU puede

Page 77: Semestre1 Ccna

tener una magnitud mayor al promedio. Las tormentas de broadcast pueden originarse en un dispositivo que requiere información de una red que ha crecido demasiado. La petición original recibe tantas respuestas que el dispositivo no las puede procesar, o la primera petición desencadena peticiones similares de otros dispositivos que efectivamente bloquean el flujo de tráfico en la red. Como ejemplo, el comando telnet mumble.com se traduce a una dirección IP a través de una búsqueda en el sistema de denominación de dominios (Domain Naming System, DNS). Para ubicar la dirección MAC correspondiente, se envía una petición ARP. Por lo general, las estaciones de trabajo IP guardan entre 10 y 100 direcciones en sus tablas ARP durante dos horas aproximadamente. La velocidad de un ARP en una estación de trabajo típica puede ser cercana a 50 direcciones cada dos horas o 0,007 ARP por segundo. Eso significa que 2000 estaciones terminales IP producen cerca de 14 ARP por segundo. Los protocolos de enrutamiento que están configurados en la red pueden aumentar el tráfico de broadcast de modo significativo. Algunos administradores configuran todas las estaciones de trabajo para que ejecuten el protocolo de información de enrutamiento (Routing Information Protocol, RIP) como una política de redundancia y alcance. Cada 30 segundos, el RIPv1 utiliza broadcasts para retransmitir toda la tabla de enrutamiento a otros routers RIP. Si 2000 estaciones de trabajo se configuraran para ejecutar RIP y, en promedio, se requieren 50 paquetes para transmitir la tabla de enrutamiento, las estaciones de trabajo generarían 3333 broadcasts por segundo. La mayoría de los administradores de red sólo configuran un número pequeño de routers, por lo general de cinco a diez, para ejecutar un RIP. En el caso de una tabla de enrutamiento que tiene un tamaño de 50 paquetes, 10 routers RIP generarán cerca de 16 broadcasts por segundo. Las aplicaciones multicast en IP pueden afectar negativamente el rendimiento de redes conmutadas de gran escala. Aunque el multicast es una forma eficiente de enviar un flujo de datos de multimedia a muchos usuarios en un hub de medios compartidos, afecta a cada usuario de una red plana conmutada. Una aplicación de paquete de video determinada, puede generar un flujo de siete megabytes (MB) de datos multicast que, en una red conmutada, se enviarían a cada segmento, causando una gran congestión. 8.2.5 Dominios de broadcast Un dominio de broadcast es un grupo de dominios de colisión conectados por dos dispositivos de Capa 2. Dividir una LAN en varios dominios de colisión aumenta la posibilidad de que cada host de la red tenga acceso a los medios. Efectivamente, esto reduce la posibilidad de colisiones y aumenta el ancho de banda disponible para cada host. Pero los dispositivos de Capa 2 envían broadcasts, y si son excesivos, pueden reducir la eficiencia de toda la LAN. Los broadcasts deben controlarse en la Capa 3, ya que los dispositivos de Capa 1 y Capa 2 no pueden hacerlo. El tamaño total del dominio del broadcast puede identificarse al observar todos los dominios de colisión que procesan la misma trama de broadcast. En otras palabras, todos los nodos que forman parte de ese segmento de red delimitados por un dispositivo de Capa 3. Los dominios de broadcast están controlados en la Capa 3 porque los routers no envían broadcasts. Los routers, en realidad, funcionan en las Capas 1, 2 y 3. Ellos, al igual que los dispositivos de Capa 1, poseen una conexión física y transmiten datos a los medios. Ellos tienen una encapsulamiento de Capa 2 en todas las interfaces y se comportan como cualquier otro dispositivo de Capa 2. Es la Capa 3 la que permite que el router segmente dominios de broadcast. Para que un paquete sea enviado a través del router, el dispositivo de Capa 2 debe ya haberlo procesado y la información de la trama debe haber sido eliminada. El envío de Capa 3 se basa en la dirección IP destino y no en la dirección MAC. Para que un paquete pueda enviarse, debe contener una dirección IP que esté por afuera del alcance de las direcciones asignadas a la LAN, y el router debe tener un destino al cual enviar el paquete específico en su tabla de enrutamiento. 8.2.6 Introducción al flujo de datos El flujo de datos en un contexto de dominios de colisión y de broadcast se centra en la forma en que las tramas se propagan a través de la red. Se refiere al movimiento de datos a través de los dispositivos de Capa 1, 2 y 3 y a la manera en que los datos deben encapsularse para poder realizar esa travesía en forma efectiva. Recuerde que los datos se encapsulan en la capa de la red con una dirección de origen y destino IP, y en la capa de enlace de datos con una dirección MAC origen y destino. Una buena regla a seguir es que un dispositivo de Capa 1 siempre envíe la trama, mientras que un dispositivo de Capa 2 desee enviar la trama. En otras palabras, un dispositivo de Capa 2 siempre enviará la trama al menos que algo se lo impida. Un dispositivo de Capa 3 no enviará la trama a menos que se vea obligado a hacerlo. Usar esta regla ayudará a identificar la forma en que los datos fluyen a través de la red. Los dispositivos de Capa 1 no funcionan como filtros, entonces todo lo que reciben se transmite al segmento siguiente. La trama simplemente se regenera y retemporiza y así vuelve a su calidad de transmisión original. Cualquier segmento conectado por dispositivos de Capa 1 forma parte del mismo dominio, tanto de colisión como de broadcast. Los dispositivos de Capa 2 filtran tramas de datos basados en la dirección MAC destino. La trama se envía si se dirige a un destino desconocido fuera del dominio de colisión. La trama también será enviada si se trata de un broadcast, multicast o unicast que se dirige fuera del dominio local de colisión. La única vez en que la trama no se envía es cuando el dispositivo de Capa 2 encuentra que el host emisor y el receptor se encuentran en el

Page 78: Semestre1 Ccna

mismo dominio de colisión. Un dispositivo de Capa 2, tal como un puente, crea varios dominios de colisión pero mantiene sólo un dominio de colisión. Los dispositivos de Capa 3 filtran paquetes basados en la dirección IP destino. La única forma en que un paquete se enviará es si su dirección IP destino se encuentra fuera del dominio broadcast y si el router tiene una ubicación identificada para enviar el paquete. Un dispositivo de Capa 3 crea varios dominios de colisión y broadcast. El flujo de datos en una red enrutada basada en IP, implica el movimiento de datos a través de dispositivos de administración de tráfico en las Capas 1, 2 y 3 del modelo OSI. La Capa 1 se utiliza en la transmisión por medios físicos, la Capa 2 para la administración de dominios de colisión, y la Capa 3 para la administración de dominios de broadcast. 8.2.7 ¿Qué es un segmento de red? Como ocurre con muchos términos y siglas, segmento tiene varios significados. El diccionario define el término de la siguiente manera: * Una sección distinta de algo. * Una de las partes en las que una entidad, o cantidad se divide o es marcada por límites naturales o algo similar a un límite natural. En el contexto de la comunicación de datos, se utilizan las siguientes definiciones: * Sección de una red limitada por puentes, routers o switches * En una LAN que usa topología de bus, un segmento es un circuito de corriente continua que con frecuencia se conecta a otros segmentos similares con repetidores. * Término usado en la especificación TCP para describir una sola unidad de capa de transporte de información. Los términos datagrama, mensaje, y paquete también se usan para describir agrupamientos de información lógicos en varias capas del modelo de referencia OSI y en varios círculos tecnológicos. Para definir correctamente el término "segmento", se debe presentar el contexto del uso junto con la palabra. Si un segmento se usa en un contexto de TCP, se define como una sección distinta de datos. Si la palabra segmento se utiliza en un contexto de medios físicos de networking en una red enrutada, será visto como una de las partes o secciones de una red total. Módulo 9: Conjunto de protocolos TCP/IP y direccionamiento IP Descripción general Internet se desarrolló para brindar una red de comunicación que pudiera continuar funcionando en tiempos de guerra. Aunque la Internet ha evolucionado en formas muy diferentes a las imaginadas por sus arquitectos, todavía se basa en un conjunto de protocolos TCP/IP. El diseño de TCP/IP es ideal para la poderosa y descentralizada red que es Internet. Muchos de los protocolos utilizados hoy en día se diseñaron utilizando el modelo TCP/IP de cuatro capas. Resulta útil conocer los modelos de networking OSI y TCP/IP. Cada modelo ofrece su propia estructura para explicar cómo funciona una red, pero los dos comparten muchas características. La falta de comprensión de cualquier de los dos modelos puede hacer que un administrador de sistemas no cuente con la información suficiente para determinar por qué una red funciona de cierta forma. Todo dispositivo conectado a Internet que desee comunicarse con otros dispositivos en línea debe tener un identificador exclusivo. El identificador se denomina dirección IP porque los Routers utilizan un protocolo de la capa tres, el protocolo IP, para encontrar la mejor ruta hacia dicho dispositivo. IPv4, la versión actual de IP, se diseñó antes de que se produjera una gran demanda de direcciones. El crecimiento explosivo de Internet ha amenazado con agotar el suministro de direcciones IP. La división en subredes, la Traducción de direcciones en red (NAT) y el direccionamiento privado se utilizan para extender el direccionamiento IP sin agotar el suministro. Otra versión de IP conocida como IPv6 mejora la versión actual proporcionando un espacio de direccionamiento mucho mayor, integrando o eliminando los métodos utilizados para trabajar con los puntos débiles del IPv4. Además de la dirección física MAC, cada computador necesita de una dirección IP exclusiva, a veces llamada dirección lógica, para formar parte de la Internet. Varios son los métodos para la asignación de una dirección IP a un dispositivo. Algunos dispositivos siempre cuentan con una dirección estática, mientras que otros cuentan con una dirección temporaria que se les asigna cada vez que se conectan a la red. Cada vez que se necesita una dirección IP asignada dinámicamente, el dispositivo puede obtenerla de varias formas. Para que se produzca un enrutamiento eficiente entre los dispositivos, se deben resolver otros problemas. Por ejemplo, las direcciones IP repetidas pueden detener el eficiente enrutamiento de los datos. Los estudiantes que completen este módulo deberán poder:

Page 79: Semestre1 Ccna

* Explicar por qué se desarrolló la Internet y cómo el TCP/IP se ajusta al diseño de la misma. * Nombrar las cuatro capas del modelo TCP/IP. * Describir las funciones de cada capa del modelo TCP/IP. * Comparar el modelo OSI con el TCP/IP. * Describir la función y la estructura de las direcciones IP. * Comprender por qué es necesaria la división en subredes. * Explicar la diferencia entre direccionamiento público y privado. * Comprender la función de las direcciones IP reservadas. * Explicar el uso del direccionamiento estático y dinámico para un dispositivo. * Comprender cómo el direccionamiento dinámico puede realizarse con RARP, BootP y DHCP. * Utilizar ARP para obtener direcciones MAC a fin de poder enviar un paquete a otro dispositivo. * Comprender los problemas relacionados con el direccionamiento entre redes. 9.1 Introducción a TCP/IP 9.1.1 Historia y futuro de TCP/IP El Departamento de Defensa de EE.UU. (DoD) creó el modelo de referencia TCP/IP porque necesitaba una red que pudiera sobrevivir ante cualquier circunstancia. Para tener una mejor idea, imagine un mundo, cruzado por numerosos tendidos de cables, alambres, microondas, fibras ópticas y enlaces satelitales. Entonces, imagine la necesidad de transmitir datos independientemente del estado de un nodo o red en particular. El DoD requería una transmisión de datos confiable hacia cualquier destino de la red, en cualquier circunstancia. La creación del modelo TCP/IP ayudó a solucionar este difícil problema de diseño. Desde entonces, TCP/IP se ha convertido en el estándar en el que se basa la Internet. Al leer sobre las capas del modelo TCP/IP, tenga en cuenta el propósito original de la Internet. Recordar su propósito ayudará a reducir las confusiones. El modelo TCP/IP tiene cuatro capas: la capa de aplicación, la capa de transporte, la capa de Internet y la capa de acceso de red. Es importante observar que algunas de las capas del modelo TCP/IP poseen el mismo nombre que las capas del modelo OSI. Resulta fundamental no confundir las funciones de las capas de los dos modelos ya que estas desempeñan diferentes funciones en cada modelo. 9.1.2 La capa de aplicación La capa de aplicación del modelo TCP/IP maneja protocolos de alto nivel, aspectos de representación, codificación y control de diálogo. El modelo TCP/IP combina todos los aspectos relacionados con las aplicaciones en una sola capa y asegura que estos datos estén correctamente empaquetados antes de que pasen a la capa siguiente. TCP/IP incluye no sólo las especificaciones de Internet y de la capa de transporte, tales como IP y TCP, sino también las especificaciones para aplicaciones comunes. TCP/IP tiene protocolos que soportan la transferencia de archivos, e-mail, y conexión remota, además de los siguientes: * Protocolo de transferencia de archivos (FTP): es un servicio confiable orientado a conexión que utiliza TCP para transferir archivos entre sistemas que admiten la transferencia FTP. Permite las transferencias bidireccionales de archivos binarios y archivos ASCII. * Protocolo trivial de transferencia de archivos (TFTP): es un servicio no orientado a conexión que utiliza el Protocolo de datagrama de usuario (UDP). Los Routers utilizan el TFTP para transferir los archivos de configuración e imágenes IOS de Cisco y para transferir archivos entre los sistemas que admiten TFTP. Es útil en algunas LAN porque opera más rápidamente que FTP en un entorno estable. * Sistema de archivos de red (NFS): es un conjunto de protocolos para un sistema de archivos distribuido, desarrollado por Sun Microsystems que permite acceso a los archivos de un dispositivo de almacenamiento remoto, por ejemplo, un disco rígido a través de una red. * Protocolo simple de transferencia de correo (SMTP): administra la transmisión de correo electrónico a través de las redes informáticas. No admite la transmisión de datos que no sea en forma de texto simple. * Emulación de terminal (Telnet): Telnet tiene la capacidad de acceder de forma remota a otro computador. Permite que el usuario se conecte a un host de Internet y ejecute comandos. El cliente de Telnet recibe el nombre de host local. El servidor de Telnet recibe el nombre de host remoto. * Protocolo simple de administración de red (SNMP): es un protocolo que provee una manera de monitorear y controlar los dispositivos de red y de administrar las configuraciones, la recolección de estadísticas, el desempeño y la seguridad. * Sistema de denominación de dominio (DNS): es un sistema que se utiliza en Internet para convertir los nombres de los dominios y de sus nodos de red publicados abiertamente en direcciones IP. 9.1.3 La capa de transporte La capa de transporte proporciona servicios de transporte desde el host origen hacia el host destino. Esta capa forma una conexión lógica entre los puntos finales de la red, el host transmisor y el host receptor. Los protocolos de transporte segmentan y reensamblan los datos mandados por las capas superiores en el mismo flujo de datos, o conexión lógica entre los extremos. La corriente de datos de la capa de transporte brinda transporte de extremo a extremo. Generalmente, se compara la Internet con una nube. La capa de transporte envía los paquetes de datos desde

Page 80: Semestre1 Ccna

la fuente transmisora hacia el destino receptor a través de la nube. El control de punta a punta, que se proporciona con las ventanas deslizantes y la confiabilidad de los números de secuencia y acuses de recibo, es el deber básico de la capa de transporte cuando utiliza TCP. La capa de transporte también define la conectividad de extremo a extremo entre las aplicaciones de los hosts. Los servicios de transporte incluyen los siguientes servicios: TCP y UDP * Segmentación de los datos de capa superior * Envío de los segmentos desde un dispositivo en un extremo a otro dispositivo en otro extremo. TCP solamente * Establecimiento de operaciones de punta a punta. * Control de flujo proporcionado por ventanas deslizantes. * Confiabilidad proporcionada por los números de secuencia y los acuses de recibo Generalmente, se representa la Internet con una nube. La capa de transporte envía los paquetes de datos desde la fuente transmisora hacia el destino receptor a través de la nube. La nube maneja los aspectos tales como la determinación de la mejor ruta. 9.1.4 La capa de Internet El propósito de la capa de Internet es seleccionar la mejor ruta para enviar paquetes por la red. El protocolo principal que funciona en esta capa es el Protocolo de Internet (IP). La determinación de la mejor ruta y la conmutación de los paquetes ocurre en esta capa. Los siguientes protocolos operan en la capa de Internet TCP/IP: * IP proporciona un enrutamiento de paquetes no orientado a conexión de máximo esfuerzo. El IP no se ve afectado por el contenido de los paquetes, sino que busca una ruta de hacia el destino. * El Protocolo de mensajes de control en Internet (ICMP) suministra capacidades de control y envío de mensajes. * El Protocolo de resolución de direcciones (ARP) determina la dirección de la capa de enlace de datos, la dirección MAC, para las direcciones IP conocidas. * El Protocolo de resolución inversa de direcciones (RARP) determina las direcciones IP cuando se conoce la dirección MAC. El IP ejecuta las siguientes operaciones: * Define un paquete y un esquema de direccionamiento. * Transfiere los datos entre la capa Internet y las capas de acceso de red. * Enruta los paquetes hacia los hosts remotos. Por último, a modo de aclaración de la terminología, a veces, se considera a IP como protocolo poco confiable. Esto no significa que IP no enviará correctamente los datos a través de la red. Llamar al IP, protocolo poco confiable simplemente signfica que IP no realiza la verificación y la corrección de los errores. Dicha función la realizan los protocolos de la capa superior desde las capas de transporte o aplicación. 9.1.5 La capa de acceso de red La capa de acceso de red también se denomina capa de host a red. La capa de acceso de red es la capa que maneja todos los aspectos que un paquete IP requiere para efectuar un enlace físico real con los medios de la red. Esta capa incluye los detalles de la tecnología LAN y WAN y todos los detalles de las capas física y de enlace de datos del modelo OSI. Los controladores para las aplicaciones de software, las tarjetas de módem y otros dispositivos operan en la capa de acceso de red. La capa de acceso de red define los procedimientos para realizar la interfaz con el hardware de la red y para tener acceso al medio de transmisión. Los estándares del protocolo de los módem tales como el Protocolo Internet de enlace serial (SLIP) y el Protocolo de punta a punta (PPP) brindan acceso a la red a través de una conexión por módem. Debido a un intrincado juego entre las especificaciones del hardware, el software y los medios de transmisión, existen muchos protocolos que operan en esta capa. Esto puede generar confusión en los usuarios. La mayoría de los protocolos reconocibles operan en las capas de transporte y de Internet del modelo TCP/IP. Las funciones de la capa de acceso de red incluyen la asignación de direcciones IP a las direcciones físicas y el encapsulamiento de los paquetes IP en tramas. Basándose en el tipo de hardware y la interfaz de la red, la capa de acceso de red definirá la conexión con los medios físicos de la misma. Un buen ejemplo de una configuración de la capa de acceso de red sería configurar un sistema Windows utilizando una NIC de otra empresa. De acuerdo con la versión de Windows, la NIC sería automáticamente

Page 81: Semestre1 Ccna

detectada por el sistema operativo y luego se instalarían los controladores adecuados. Si esta fuera una versión de Windows antigua, el usuario tendría que especificar el controlador de la tarjeta de la red. El fabricante de la tarjeta provee estos controladores en formato de disco o en CD-ROM. 9.1.6 Comparaión entre el modelo OSI y el TCP/IP La siguiente es una comparación de los modelos OSI y TCP/IP comparando sus similitudes y diferencias: Similitudes entre los modelos OSI y TCP/IP: * Ambos se dividen en capas. * Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos. * Ambos tienen capas de transporte y de red similares. * Se supone que la tecnología es de conmutación por paquetes y no de conmutación por circuito. * Los profesionales de networking deben conocer ambos modelos. Diferencias entre los modelos OSI y TCP/IP: * TCP/IP combina las capas de presentación y de sessión en una capa de aplicación * TCP/IP combina la capas de enlace de datos y la capa física del modelo OSI en una sola capa * TCP/IP parece ser más simple porque tiene menos capas * La capa de transporte TCP/IP que utiliza UDP no siempre garantiza la entrega confiable de los paquetes mientras que la capa de transporte del modelo OSI sí. La Internet se desarrolla de acuerdo con los estándares de los protocolos TCP/IP. El modelo TCP/IP gana credibilidad gracias a sus protocolos. A diferencia, en general, las redes no se contruyen a base del protocolo OSI. El modelo OSI se utiliza como guía para comprender el proceso de comunicación. 9.1.7 Arquitectura de Internet Aunque Internet es compleja, existen algunas ideas básicas que rigen su operación. Esta sección examinará la arquitectura básica de la Internet. La Internet es una idea que parece muy sencilla a primera vista, y cuando se repite a gran escala, permite la comunicación casi instantánea de datos por todo el mundo entre cualesquiera personas, en cualquier lugar, en cualquier momento. Las LAN son redes de menor tamaño que se limitan a un área geográfica. Muchas LAN conectadas entre sí permiten que funcione La Internet. Pero las LAN tienen sus limitaciones de tamaño. Aunque se han producido avances tecnológicos que mejoran la velocidad de las comunicaciones, tales como la Ethernet de 10 Gigabits, de 1 Gigabit y Metro Optical, la distancia sigue siendo un problema. Concentrarse en la comunicación entre el computador origen y destino y los computadores intermedios al nivel de la capa de aplicación es una forma de ver el panorama de la arquitectura de Internet. Colocar copias idénticas de una aplicación en todos los computadores de la red podría facilitar el envío de mensajes a través de la gran red. Sin embargo, esto no funciona bien a mayor escala. Para que un nuevo software funcione correctamente, se requiere de la instalación de nuevas aplicaciones en cada computador de la red. Para que un hardware nuevo funcione correctamente, se requiere de la modificación del software. Cualquier falla en un computador intermedio o en la aplicación del mismo causaría una ruptura en la cadena de mensajes enviados. Internet utiliza el principio de la interconexión en la capa de red. Con el modelo OSI a modo de ejemplo, el objetivo consiste en construir la funcionalidad de la red en módulos independientes. Esto permite que una variedad de tecnologías LAN existan en las Capas 1 y 2 y una variedad de aplicaciones funcionen en las Capas 5; 6 y 7. El modelo OSI proporciona un mecanismo en el cual se separan los detalles de las capas inferior y superior. Esto permite que los dispositivos intermedios de networking "retransmitan" el tráfico sin tener que molestarse con los detalles de la LAN. Esto nos lleva al concepto de internetworking o la construcción de redes de redes. Una red de redes recibe el nombre de internet, que se escribe con "i" minúscula. Cuando se hace referencia a las redes desarrolladas por el DoD en las que corre la Worldwide Web (www) (Red mundial), se utiliza la letra "I" mayúscula y recibe el nombre de Internet. Internetworking debe ser escalable respecto del número de redes y computadores conectados. Internetworking debe ser capaz de manejar el transporte de datos a lo largo de grandes distancias. Tiene que ser flexible para admitir las constantes innovaciones tecnológicas. Además, debe ser capaz de ajustarse a las condiciones dinámicas de la red. Y, sobre todo, las internetworks deben ser económicas. Las internetworks deben estar diseñadas para permitir que en cualquier momento, en cualquier lugar, cualquier persona reciba la comunicación de datos. La Figura resume la conexión de una red física a otra por medio de un computador especial que recibe el nombre de Router. Estas redes se describen como conectadas directamente al Router. Se necesita un Router para tomar toda decisión necesaria con respecto a la ruta para que las dos redes que se comuniquen. Hacen falta muchos Routers para adminstrar los grandes volúmenes del tráfico en las redes. La Figura amplía la idea a tres redes físicas conectadas con dos Routers. Los Routers toman las decisiones

Page 82: Semestre1 Ccna

complejas para que todos los usuarios de todas las redes puedan comunicarse entre sí. No todas las redes están conectadas directamente a otra. El Router debe contar con alguna metodología para manejar esta situación. Una opción es que el Router guarde una lista de todos los computadores y todas las rutas hacia ellos. Entonces, el Router decidirá cómo enviar los paquetes de datos a base de esta tabla de referencia. El envío se basa en la dirección IP del computador destino. Esta opción resulta más difícil a medida que crece el número de usuarios. La escabilidad aparece cuando un Router guarda una lista de todas las redes, pero deja los detalles del envío local a las redes físicas locales. En esta situación, los Routers envían los mensajes a otros Routers. Cada uno comparte la información acerca de cuáles son las redes a las que está conectado. Se construye así la tabla de enrutamiento. La Figura muestra la transparencia que los usuarios requieren. Sin embargo, las estructuras lógicas y físicas dentro de la nube Internet pueden ser extremadamente complejas como muestra la Figura . La Internet ha crecido rápidamente para permitir el ingreso de más y más usuarios. El hecho que haya crecido de tal forma, con más de 90 000 rutas centrales y 300 000 000 usuarios finales es prueba de la solidez de la arquitectura de la Internet. Dos computadores, en cualquier lugar del mundo, si se conforman con determinadas especificaciones de hardware, software y protocolos, pueden comunicarse de forma confiable. La estandarización de las prácticas y los procedimientos de transportación de datos por las redes ha hecho que Internet sea posible. 9.2 Dirección de Internet 9.2.1 Direccionamiento IP Para que dos sistemas se comuniquen, se deben poder identificar y localizar entre sí. Aunque las direcciones de la Figura no son direcciones de red reales, representan el concepto de agrupamiento de las direcciones. Este utiliza A o B para identificar la red y la secuencia de números para identificar el host individual. Un computador puede estar conectado a más de una red. En este caso, se le debe asignar al sistema más de una dirección. Cada dirección identificará la conexión del computador a una red diferente. No se suele decir que un dispositivo tiene una dirección sino que cada uno de los puntos de conexión (o interfaces) de dicho dispositivo tiene una dirección en una red. Esto permite que otros computadores localicen el dispositivo en una determinada red. La combinación de letras (dirección de red) y el número (dirección del host) crean una dirección única para cada dispositivo conectado a la red. Cada computador conectado a una red TCP/IP debe recibir un identificador exclusivo o una dirección IP. Esta dirección, que opera en la Capa 3, permite que un computador localice otro computador en la red. Todos los computadores también cuentan con una dirección física exclusiva, conocida como dirección MAC. Estas son asignadas por el fabricante de la tarjeta de intefaz de la red. Las direcciones MAC operan en la Capa 2 del modelo OSI. Una dirección IP es una secuencia de unos y ceros de 32 bits. La Figura muestra un número de 32 bits de muestra. Para que el uso de la dirección IP sea más sencillo, en general, la dirección aparece escrita en forma de cuatro números decimales separados por puntos. Por ejemplo, la dirección IP de un computador es 192.168.1.2. Otro computador podría tener la dirección 128.10.2.1. Esta forma de escribir una dirección se conoce como formato decimal punteado. En esta notación, cada dirección IP se escribe en cuatro partes separadas por puntos. Cada parte de la dirección se conoce como octeto porque se compone de ocho dígitos binarios. Por ejemplo, la dirección IP 192.168.1.8 sería 11000000.10101000.00000001.00001000 en una notación binaria. La notación decimal punteada es un método más sencillo de comprender que el método binario de unos y ceros. Esta notación decimal punteada también evita que se produzca una gran cantidad de errores por transposición, que sí se produciría si sólo se utilizaran números binarios. El uso de decimales separados por puntos permite una mejor comprensión de los patrones numéricos. Tanto los números binarios como los decimales de la Figura representan a los mismos valores, pero resulta más sencillo apreciar la notación decimal punteada. Este es uno de los problemas frecuentes que se encuentran al trabajar directamente con números binarios. Las largas cadenas de unos y ceros que se repiten hacen que sea más probable que se produzcan errores de transposición y omisión. Resulta más sencillo observar la relación entre los números 192.168.1.8 y 192.168.1.9, mientras que 11000000.10101000.00000001.00001000 y 11000000.10101000.00000001.00001001 no son fáciles de reconocer. Al observar los binarios, resulta casi imposible apreciar que son números consecutivos. 9.2.2 Conversión decimal y binaria Son muchas las formas de resolver un problema. Además, existen varias formas de convertir números decimales en números binarios. Uno de los métodos se presenta a continuación, sin embargo no es el único. Es posible que el estudiante encuentre que otros métodos son más fáciles. Es cuestión de preferencia personal. Al convertir un número decimal a binario, se debe determinar la mayor potencia de dos que pueda caber en el número decimal. Si se ha diseñado este proceso para trabajar con computadores, el punto de inicio más lógico son los valores más altos que puedan caber en uno o dos bytes. Como se mencionó anteriormente, el agrupamiento más común de bits es de ocho, que componen un byte. Sin embargo, a veces el valor más alto

Page 83: Semestre1 Ccna

que un byte puede contener no es lo suficientemente alto para los valores requeridos. Para adaptarse a esta circunstancia, se combinan los bytes. En lugar de tener dos números de ocho dígitos, se crea un solo número de 16 bits. En lugar de tener tres números de ocho dígitos, se crea un número de 24 bits. Las mismas reglas se aplican de la misma forma a los números de ocho bits. Multiplique el valor de la posición previa por dos para obtener el presente valor de columna. Ya que el trabajo con computadores, a menudo, se encuentra referenciado por los bytes, resulta más sencillo comenzar con los límites del byte y comenzar a calcular desde allí. Primero hay que calcular un par de ejemplos, el primero de 6 783. Como este número es mayor a 255, el valor más alto posible en un solo byte, se utilizarán dos bytes. Comience a calcular desde 215. El equivalente binario de 6 783 es 00011010 01111111. El segundo ejemplo es 104. Como este número es menor a 255, puede representarse con un byte. El equivalente binario de 104 es 01101000. Este método funciona con cualquier número decimal. Considere el número decimal un millón. Como un millón es mayor que el valor más alto que puede caber en dos bytes, 65535, se necesitarán por lo menos tres bytes. Multiplicando por dos hasta llegar a 24 bits, se llega a los tres bytes, el valor será de 8 388 608. Esto significa que el valor más alto que puede caber en 24 bits es de 16 777 215. De modo que comenzando en los 24 bits, siga el proceso hasta llegar al cero. Si se continúa con el procedimiento descripto, se llega a determinar que el número decimal un millón es equivalente al número binario 00001111 01000010 01000000. La Figura incluye algunos ejercicios de conversión de números decimales a binarios. La conversión de binario a decimal es el proceso inverso. Simplemente coloque el binario en la tabla y, si se encuentra un uno en una posición de la columna, agregue el valor al total. Convierta 00000100 00011101 a decimal. La respuesta es: 1053. La Figura incluye ejercicios de conversión de binarioa decimal. 9.2.3 Direccionamiento IPv4 Un Router envía los paquetes desde la red origen a la red destino utilizando el protocolo IP. Los paquetes deben incluir un identificador tanto para la red origen como para la red destino. Utilizando la dirección IP de una red destino, un Router puede enviar un paquete a la red correcta. Cuando un paquete llega a un Router conectado a la red destino, este utiliza la dirección IP para localizar el computador en particular conectado a la red. Este sistema funciona de la misma forma que un sistema nacional de correo. Cuando se envía una carta, primero debe enviarse a la oficina de correos de la ciudad destino, utilizando el código postal. Dicha oficina debe entonces localizar el destino final en la misma ciudad utilizando el domicilio. Es un proceso de dos pasos. De igual manera, cada dirección IP consta de dos partes. Una parte identifica la red donde se conecta el sistema y la segunda identifica el sistema en particular de esa red. Como muestra la Figura , cada octeto varía de 0 a 255. Cada uno de los octetos se divide en 256 subgrupos y éstos, a su vez, se dividen en otros 256 subgrupos con 256 direcciones cada uno. Al referirse a una dirección de grupo inmediatamente arriba de un grupo en la jerarquía, se puede hacer referencia a todos los grupos que se ramifican a partir de dicha dirección como si fueran una sola unidad. Este tipo de dirección recibe el nombre de dirección jerárquica porque contiene diferentes niveles. Una dirección IP combina estos dos identificadores en un solo número. Este número debe ser un número exclusivo, porque las direcciones repetidas harían imposible el enrutamiento. La primera parte identifica la dirección de la red del sistema. La segunda parte, la parte del host, identifica qué máquina en particular de la red. Las direcciones IP se dividen en clases para definir las redes de tamaño pequeño, mediano y grande. Las direcciones Clase A se asignan a las redes de mayor tamaño. Las direcciones Clase B se utilizan para las redes de tamaño medio y las de Clase C para redes pequeñas. El primer paso para determinar qué parte de la dirección identifica la red y qué parte identifica el host es identificar la clase de dirección IP. 9.2.4 Direcciones IP Clase, A, B, C, D y E Para adaptarse a redes de distintos tamaños y para ayudar a clasificarlas, las direcciones IP se dividen en grupos llamados clases. Esto se conoce como direccionamiento classful. Cada dirección IP completa de 32 bits se divide en la parte de la red y parte del host. Un bit o una secuencia de bits al inicio de cada dirección determina su clase. Son cinco las clases de direcciones IP como muestra la Figura . La dirección Clase A se diseñó para admitir redes de tamaño extremadamente grande, de más de 16 millones de direcciones de host disponibles. Las direcciones IP Clase A utilizan sólo el primer octeto para indicar la dirección de la red. Los tres octetos restantes son para las direcciones host. El primer bit de la dirección Clase A siempre es 0. Con dicho primer bit, que es un 0, el menor número que se puede representar es 00000000, 0 decimal. El valor más alto que se puede representar es 01111111, 127 decimal. Estos números 0 y 127 quedan reservados y no se pueden utilizar como direcciones de red. Cualquier dirección que comience con un valor entre 1 y 126 en el primer octeto es una dirección Clase A.

Page 84: Semestre1 Ccna

La red 127.0.0.0 se reserva para las pruebas de loopback. Los Routers o las máquinas locales pueden utilizar esta dirección para enviar paquetes nuevamente hacia ellos mismos. Por lo tanto, no se puede asignar este número a una red. La dirección Clase B se diseñó para cumplir las necesidades de redes de tamaño moderado a grande. Una dirección IP Clase B utiliza los primeros dos de los cuatro octetos para indicar la dirección de la red. Los dos octetos restantes especifican las direcciones del host. Los primeros dos bits del primer octeto de la dirección Clase B siempre son 10. Los seis bits restantes pueden poblarse con unos o ceros. Por lo tanto, el menor número que puede representarse en una dirección Clase B es 10000000, 128 decimal. El número más alto que puede representarse es 10111111, 191 decimal. Cualquier dirección que comience con un valor entre 128 y 191 en el primer octeto es una dirección Clase B. El espacio de direccionamiento Clase C es el que se utiliza más frecuentemente en las clases de direcciones originales. Este espacio de direccionamiento tiene el propósito de admitir redes pequeñas con un máximo de 254 hosts. Una dirección Clase C comienza con el binario 110. Por lo tanto, el menor número que puede representarse es 11000000, 192 decimal. El número más alto que puede representarse es 11011111, 223 decimal. Si una dirección contiene un número entre 192 y 223 en el primer octeto, es una dirección de Clase C. La dirección Clase D se creó para permitir multicast en una dirección IP. Una dirección multicast es una dirección exclusiva de red que dirige los paquetes con esa dirección destino hacia grupos predefinidos de direcciones IP. Por lo tanto, una sola estación puede transmitir de forma simultánea una sola corriente de datos a múltiples receptores. El espacio de direccionamiento Clase D, en forma similar a otros espacios de direccionamiento, se encuentra limitado matemáticamente. Los primeros cuatro bits de una dirección Clase D deben ser 1110. Por lo tanto, el primer rango de octeto para las direcciones Clase D es 11100000 a 11101111, o 224 a 239. Una dirección IP que comienza con un valor entre 224 y 239 en el primer octeto es una dirección Clase D. Se ha definido una dirección Clase E. Sin embargo, la Fuerza de tareas de ingeniería de Internet (IETF) ha reservado estas direcciones para su propia investigación. Por lo tanto, no se han emitido direcciones Clase E para ser utilizadas en Internet. Los primeros cuatro bits de una dirección Clase E siempre son 1s. Por lo tanto, el rango del primer octeto para las direcciones Clase E es 11110000 a 11111111, o 240 a 255. La Figura muestra el rango de las direcciones IP del primer octeto tanto en decimales como en binarios para cada clase de dirección IP. 9.2.5 Direcciones IP reservadas Ciertas direcciones de host son reservadas y no pueden asignarse a dispositivos de la red. Estas direcciones de host reservadas incluyen: * Dirección de red: Utilizada para identificar la red en sí. En la Figura , la sección que está identificada en el casillero superior representa la red 198.150.11.0. Los datos enviados a cualquier host de dicha red (198.150.11.1- 198.150.11.254) se verá desde afuera de la red del área local con la dirección 198.159.11.0. Los números del host sólo tienen importancia cuando los datos se encuentran en una red de área local. La LAN contenida en el casillero inferior recibe el mismo tratamiento que la LAN superior, sólo que el número de la red es 198.150.12.0. * Dirección de broadcast: Utilizada para realizar el broadcast de paquetes hacia todos los dispositivos de una red. En la Figura , la sección que se identifica en el casillero superior representa la dirección de broadcast 198.150.11.255. Todos los hosts de la red leerán los datos enviados a la dirección de broadcast (198.150.11.1- 198.150.11.254). La LAN contenida en el casillero inferior recibe el mismo tratamiento que la LAN superior, sólo que la dirección de broadcast es 198.150.12.255. La dirección IP que tiene ceros binarios en todas las posiciones de bits de host queda reservada para la dirección de red. Tomando como ejemplo una red Clase A, 113.0.0.0 es la dirección IP de la red, conocida como el ID (identificador) de la red, que contiene el host 113.1.2.3. Un Router usa la dirección IP de red al enviar datos por Internet. En un ejemplo de red Clase B, la dirección 176.10.0.0 es una dirección de red, como muestra la Figura . En una dirección de red Clase B, los primeros dos octetos se designan como porción de red. Los últimos dos octetos contienen ceros, dado que esos 16 bits corresponden a los números de host y se utilizan para identificar los dispositivos que están conectados a la red. La dirección IP, 176.10.0.0, es un ejemplo de una dirección de red. Esta dirección nunca se asigna como dirección de host. Una dirección de host para un dispositivo

Page 85: Semestre1 Ccna

conectado a la red 176.10.0.0 podría ser 176.10.16.1. En este ejemplo, ―176.10‖ es la parte de RED y ―16.1‖ es la parte de host. Para enviar información a todos los dispositivos de la red, se necesita una dirección de broadcast. Un broadcast se produce cuando una fuente envía datos a todos los dispositivos de una red. Para asegurar que todos los demás dispositivos de una red procesen el broadcast, el transmisor debe utilizar una dirección IP destino que ellos puedan reconocer y procesar. Las direcciones IP de broadcast terminan con unos binarios en toda la parte de la dirección que corresponde al host. En el ejemplo de la red, 176.10.0.0, los últimos 16 bits componen el campo del host o la parte de la dirección del host. El broadcast que se envía a todos los dispositios de la red incluye una dirección destino de 176.10.255.255. Esto se produce porque 255 es el valor decimal de un octeto que contiene 11111111. 9.2.6 Direcciones IP públicas y privadas La estabilidad de la Internet depende de forma directa de la exclusividad de las direcciones de red utilizadas públicamente. En la Figura , se muestran ciertos aspectos del esquema del direccionamiento de red. Al observar las redes, ambas tienen la dirección 198.150.11.0. El Router que aparece en esta ilustración no podrá enviar los paquetes de datos correctamente. Las direcciones IP de red repetidas hacen que el Router no pueda realizar su trabajo de seleccionar la mejor ruta. Es necesario que cada dispositivo de la red tenga una dirección exclusiva. Hizo falta un procedimiento para asegurar que las direcciones fueran, de hecho, exclusivas. En un principio, una organización conocida como el Centro de información de la red Internet (InterNIC) manejaba este procedimiento. InterNIC ya no existe y la Agencia de asignación de números de Internet (IANA) la ha sucedido. IANA administra, cuidadosamente, la provisión restante de las direcciones IP para garantizar que no se genere una repetición de direcciones utilizadas de forma pública. La repetición suele causar inestabilidad en la Internet y compromete su capacidad para entregar datagramas a las redes. Las direcciones IP públicas son exclusivas. Dos máquinas que se conectan a una red pública nunca pueden tener la misma dirección IP porque las direcciones IP públicas son globales y están estandarizadas. Todas las máquinas que se conectan a la Internet acuerdan adaptarse al sistema. Hay que obtener las direcciones IP públicas de un proveedor de servicios de Internet (ISP) o un registro, a un costo. Con el rápido crecimiento de Internet, las direcciones IP públicas comenzaron a escasear. Se desarrollaron nuevos esquemas de direccionamiento, tales como el enrutamiento entre dominios sin clase (CIDR) y el IPv6, para ayudar a resolver este problema. CIDR y IPv6 se tratan más adelante en este curso. Las direcciones IP privadas son otra solución al problema del inminente agotamiento de las direcciones IP públicas. Como ya se ha mencionado, las redes públicas requieren que los hosts tengan direcciones IP únicas. Sin embargo, las redes privadas que no están conectadas a la Internet pueden utilizar cualquier dirección de host, siempre que cada host dentro de la red privada sea exclusivo. Existen muchas redes privadas junto con las redes públicas. Sin embargo, no es recomendable que una red privada utilice una dirección cualquiera debido a que, con el tiempo, dicha red podría conectarse a Internet. El RFC 1918 asigna tres bloques de la dirección IP para uso interno y privado. Estos tres bloques consisten en una dirección de Clase A, un rango de direcciones de Clase B y un rango de direcciones de Clase C. Las direcciones que se encuentran en estos rangos no se enrutan hacia el backbone de la Internet. Los Routers de Internet descartan inmediatamente las direcciones privadas. Si se produce un direccionamiento hacia una intranet que no es pública, un laboratorio de prueba o una red doméstica, es posible utilizar las direcciones privadas en lugar de direcciones exclusivas a nivel global. Las direcciones IP privadas pueden entremezclarse, como muestra el gráfico, con las direcciones IP públicas. Así, se conservará el número de direcciones utilizadas para conexiones internas. La conección de una red que utiliza direcciones privadas a la Internet requiere que las direcciones privadas se conviertan a direcciones públicas. Este proceso de conversión se conoce como Traducción de direcciones de red (NAT). En general, un Router es el dispositivo que realiza la NAT. NAT, junto con CIDR e IPv6 se describen con mayor detalle más adelante en el currículo. 9.2.7 Introducción a la división en subredes La división en subredes es otro método para administrar las direcciones IP. Este método, que consiste en dividir las clases de direcciones de red completas en partes de menor tamaño, ha evitado el completo agotamiento de las direcciones IP. Resulta imposible hablar sobre el TCP/IP sin mencionar la división en subredes. Como administrador de sistemas, es importante comprender que la división en subredes constituye un medio para dividir e identificar las redes individuales en toda la LAN. No siempre es necesario subdividir una red pequeña. Sin embargo, en el caso de redes grandes a muy grandes, la división en subredes es necesario. Dividir una red en subredes significa utilizar una máscara de subred para dividir la red y convertir una gran red en segmentos más pequeños, más eficientes y administrables o subredes. Un ejemplo sería el sistema telefónico de los EE.UU. que se divide en códigos de área, códigos de intercambio y números locales. El administrador del sistema debe resolver estos problemas al agregar y expandir la red. Es importante saber cuántas subredes o redes son necesarias y cuántos hosts se requerirán en cada red. Con la división en subredes, la red no está limitada a las máscaras de red por defecto Clase A, B o C y se da una mayor

Page 86: Semestre1 Ccna

flexibilidad en el diseño de la red. Las direcciones de subredes incluyen la porción de red más el campo de subred y el campo de host. El campo de subred y el campo de host se crean a partir de la porción de host original de la red entera. La capacidad para decidir cómo se divide la porción de host original en los nuevos campos de subred y de host ofrece flexibilidad en el direccionamiento al administrador de red. Para crear una dirección de subred, un administrador de red pide prestados bits del campo de host y los designa como campo de subred. El número mínimo de bits que se puede pedir es dos. Al crear una subred, donde se solicita un sólo bit, el número de la red suele ser red .0. El número de broadcast entonces sería la red .255. El número máximo de bits que se puede pedir prestado puede ser cualquier número que deje por lo menos 2 bits restantes para el número de host. 9.2.8 IPv4 en comparación con IPv6 Cuando se adoptó TCP/IP en los años 80, dependía de un esquema de direccionamiento de dos niveles. En ese entonces, esto ofrecía una escalabilidad adecuada. Desafortunadamente, los diseñadores de TCP/IP no pudieron predecir que, con el tiempo, su protocolo sostendría una red global de información, comercio y entretenimiento. Hace más de viente años, la Versión 4 del IP (IPv4) ofrecía una estrategia de direccionamiento que, aunque resultó escalable durante algún tiempo, produjo una asignación poco eficiente de las direcciones. Las direcciones Clase A y B forman un 75 por ciento del espacio de direccionamiento IPv4, sin embargo, se pueden asignar menos de 17 000 organizaciones a un número de red Clase A o B. Las direcciones de red Clase C son mucho más numerosas que las direcciones Clase A y B aunque ellas representan sólo el 12,5 por ciento de los cuatro mil millones de direcciones IP posibles. Lamentablemente, las direcciones Clase C están limitadas a 254 hosts utilizables. Esto no satisface las necesidades de organizaciones más importantes que no pueden adquirir una dirección Clase A o B. Aún si hubiera más direcciones Clase A, B y C, muchas direcciones de red harían que los Routers se detengan debido a la carga del enorme tamaño de las tablas de enrutamiento, necesarias para guardar las rutas de acceso a cada una de las redes. Ya en 1992, la Fuerza de tareas de ingeniería de Internet (IETF) identificó las dos dificultades siguientes: * Agotamiento de las restantes direcciones de red IPv4 no asignadas. En ese entonces, el espacio de Clase B estaba a punto de agotarse. * Se produjo un gran y rápido aumento en el tamaño de las tablas de enrutamiento de Internet a medida que las redes Clase C se conectaban en línea. La inundación resultante de nueva información en la red amenazaba la capacidad de los Routers de Internet para ejercer una efectiva administración. Durante las últimas dos décadas, se desarrollaron numerosas extensiones al IPv4. Estas extensiones se diseñaron específicamente para mejorar la eficiencia con la cual es posible utilizar un espacio de direccionamiento de 32 bits. Dos de las más importantes son las máscaras de subred y el enrutamiento entre dominios sin clase (CIDR), que se tratan con mayor detalle en lecciones posteriores. Mientras tanto, se ha definido y desarrollado una versión más extensible y escalable del IP, la Versión 6 del IP (IPv6). IPv6 utiliza 128 bits en lugar de los 32 bits que en la actualidad utiliza el IPv4. IPv6 utiliza números hexadecimales para representar los 128 bits. IPv6 proporciona 640 sextillones de direcciones. Esta versión del IP porporciona un número de direcciones suficientes para futuras necesidades de comunicación. Esta versión de IP debe proporcionar suficientes direcciones para las necesidades de comunicación futuras. La figura muestra las direcciones IPv4 e IPv6. Las direcciones de IPv4 miden 32 bits de longitud, se escriben con números decimales separados por puntos. Las direcciones IPv6 miden 128 bits y son identificadores de interfaces individuales y conjuntos de interfaces. Las direcciones IPv6 se asignan a interfaces, no a nodos. Como cada interface pertenece a un solo nodo, cualquiera de las direcciones unicast asignada a las interfaces del nodo se pueden usar como identificadores del nodo. Las direcciones IPv6 se escriben en hexadecimal, separados por comas. Los campos IPv6 tienen una longitud de 16 bits. Para que las direcciones sean más fáciles de leer, es posible omitir los ceros iniciales de cada campo. El campo: 0003: se escribe :3:. La representación taquigráfica del IPv6 de los 128 bits utiliza números de 16 dígitos, que se muestran en forma de cuatro dígitos hexadecimales. Después de diez años de planificación y desarrollo, el IPv6 lentamente comienza a implementarse en redes selectas. Con el tiempo, el IPv6 podrá reemplazar el IPv4 como el protocolo de Internet dominante. 9.3 Obtener una dirección IP 9.3.1 Cómo obtener una dirección IP Un host de red necesita obtener una dirección exclusiva a nivel global para poder funcionar en Internet. La dirección MAC o física que posee el host sólo tiene alcance local, para identificar el host dentro de la red del área local. Como es una dirección de Capa 2, el Router no la utiliza para realizar transmisiones fuera de la LAN.

Page 87: Semestre1 Ccna

Las direcciones IP son las direcciones que más frecuentemente se utilizan en las comunicaciones en la Internet. Este protocolo es un esquema de direccionamiento jerárquico que permite que las direcciones individuales se asocien en forma conjunta y sean tratadas como grupos. Estos grupos de direcciones posibilitan una eficiente transferencia de datos a través de la Internet. Los administradores de redes utilizan dos métodos para asignar las direcciones IP. Estos métodos son el estático y el dinámico. Más adelante, en esta lección, se tratará el direccionamiento estático y las tres variantes del direccionamiento dinámico. Independientemente del esquema de direccionamiento elegido, no es posible tener dos interfaces con la misma dirección IP. Dos hosts con la misma dirección IP pueden generar conflictos que hacen que ambos no puedan operar correctamente. Como muestra la Figura , los hosts tienen una dirección física ya que cuentan con una tarjeta de interfaz de red que les permite conectarse al medio físico. 9.3.2 Asignación estática de una dirección IP La asignación estática funciona mejor en las redes pequeñas con poca frecuencia de cambios. De forma manual, el administrador del sistema asigna y rastrea las direcciones IP para cada computador, impresora o servidor de una red interna. Es fundamental llevar un buen registro para evitar que se produzcan problemas con las direcciones IP repetidas. Esto es posible sólo cuando hay una pequeña cantidad de dispositivos que rastrear. Los servidores deben recibir una dirección IP estática de modo que las estaciones de trabajo y otros dispositivos siempre sepan cómo acceder a los servicios requeridos. Considere lo difícil que sería realizar un llamado telefónico a un lugar que cambiara de número todos los días. Otros dispositivos que deben recibir direcciones IP estáticas son las impresoras en red, servidores de aplicaciones y Routers. 9.3.3 Asignación de direcciones RARP IP El Protocolo de resolución inversa de direcciones (RARP) asocia las direcciones MAC conocidas a direcciones IP. Esta asociación permite que los dispositivos de red encapsulen los datos antes de enviarlos a la red. Es posible que un dispositivo de red, como por ejemplo una estación de trabajo sin disco, conozca su dirección MAC pero no su dirección IP. RARP permite que el dispositivo realice una petición para conocer su dirección IP. Los dispositivos que usan RARP requieren que haya un servidor RARP en la red para responder a las peticiones RARP. Considere el caso en que un dispositivo origen desee enviar datos al dispositivo madre. En este ejemplo, el dispositivo fuente conoce su propia dirección MAC pero es incapaz de ubicar su propia dirección IP en la tabla ARP. El dispositivio origen debe incluir tanto su dirección MAC como su dirección IP para que el dispositivo destino retire los datos, los pase a las capas superiores del modelo OSI y responda al dispositivo transmisor. De esta manera, el origen inicia un proceso denominado petición RARP. Esta petición ayuda al dispositivo origen a detectar su propia dirección IP. Las peticiones RARP se envían en broadcast a la LAN y el servidor RARP que por lo general es un Router responde. RARP utiliza el mismo formato de paquete que ARP. Sin embargo, en una petición RARP, los encabezados MAC y el "código de operación" son diferentes a los de una petición ARP. El formato de paquete RARP contiene lugares para las direcciones MAC tanto de los dispositivos de origen como de los de destino. El campo de dirección IP origen está vacío. El broadcast se dirige a todos los dispositivos de la red. Por lo tanto, la dirección MAC destino deberá ser: FF:FF:FF:FF:FF:FF. Las estaciones de trabajo que admiten RARP tienen códigos en ROM que los dirige a iniciar el proceso de RARP. Un diagrama paso a paso del proceso de RARP se ilustra en las Figuras a . 9.3.4 Asignación de direcciones BOOTP IP El protocolo bootstrap (BOOTP) opera en un entorno cliente-servidor y sólo requiere el intercambio de un solo paquete para obtener la información IP. Sin embargo, a diferencia del RARP, los paquetes de BOOTP pueden incluir la dirección IP, así como la dirección de un Router, la dirección de un servidor y la información específica del fabricante. Sin embargo, un problema del BOOTP es que no se diseñó para proporcionar la asignación dinámica de las direcciones. Con el BOOTP, un administrador de redes crea un archivo de configuración que especifica los parámetros de cada dispositivo. El administrador debe agregar hosts y mantener la base de datos del BOOTP. Aunque las direcciones se asignan de forma dinámica, todavía existe una relación exacta entre el número de direcciones IP y el número de hosts. Esto significa que para cada host de la red, debe haber un perfil BOOTP con una asignación de dirección IP en él. Dos perfiles nunca pueden tener la misma dirección IP. Es posible que estos perfiles se utilicen al mismo tiempo y esto quiere decir que dos hosts tendrían la misma dirección IP. Un dispositivo utiliza el BOOTP para obtener una dirección IP cuando se inicializa. El BOOTP utiliza UDP para transportar los mensajes. El mensaje UDP se encapsula en un paquete IP. Un computador utiliza el BOOTP para enviar un paquete IP de broadcast a la dirección IP destino de todos unos, o sea, 255.255.255.255 en

Page 88: Semestre1 Ccna

anotación decimal punteada. El servidor del BOOTP recibe el broadcast y responde en forma de broadcast. El cliente recibe una trama y verifica la dirección MAC. Si el cliente encuentra su propia dirección MAC en el campo de dirección destino y un broadcast en el campo IP destino, toma la dirección IP y la guarda junto con la otra información proporcionada por el mensaje BOOTP de respuesta. Una descripción detallada del proceso se muestra en las Figuras a . 9.3.5 Administración de direcciones DHCP IP El Protocolo de configuración dinámica del host (DHCP) es el sucesor del BOOTP. A diferencia del BOOTP, el DHCP permite que el host obtenga la dirección IP de forma dinámica sin que el administrador de red tenga que configurar un perfil individual para cada dispositivo. Lo único que se requiere para utilizar el DHCP es un rango definido de direcciones IP en un servidor DHCP. A medida que los hosts entran en línea, se comunican con el servidor DHCP y solicitan una dirección. El servidor DHCP elige una dirección y se la arrienda a dicho host. Con DHCP, la configuración completa de las red se puede obtener en un mensaje. Esto incluye todos los datos que proporciona el mensaje BOOTP más una dirección IP arrendada y una máscara de subred. La principal ventaja que el DHCP tiene sobre el BOOTP es que permite que los usuarios sean móviles. Esta mobilidad permite que los usuarios cambien libremente las conexiones de red de un lugar a otro. Ya no es necesario mantener un perfil fijo de cada dispositivo conectado a la red como en el caso del sistema BOOTP. La importancia de este avance del DHCP es su capacidad de arrendar una dirección IP a un dispositivo y luego reclamar dicha dirección IP para otro usuario una vez que el primero la libera. Esto siginifica que DHCP puede asignar una dirección IP disponible a cualquiera que se conecte a la red. Una descripción paso a paso del proceso se puede ver en las figuras a la . 9.3.6 Problemas en la resolución de direcciones Uno de los principales problemas del networking es cómo comunicarse con los otros dispositivos de la red. En la comunicación TCP/IP, el datagrama de una red de área local debe contener tanto una dirección MAC destino como una dirección IP destino. Estas direcciones deben ser correctas y concordar con las direcciones IP y MAC destino del dispositivo host. Si no concuerdan, el host destino descartará el datagrama. La comunicación dentro de un segmento de LAN requiere de dos direcciones. Debe haber una forma de mapear las direcciones IP a MAC de forma automática. Se necesitaría demasiado tiempo si el usuario creara los mapas de forma manual. El cojunto TCP/IP cuenta con un protocolo, llamado Protocolo de resolución de direcciones (ARP), que puede obtener las direcciones MAC, de forma automática, para la transmisión local. Pueden surgir diferentes problemas cuando se manda información fuera de la LAN. Las comunicaciones entre dos segmentos de LAN tienen una tarea extra. Tanto las direcciones IP como las MAC son necesarias para el dispositivo de enrutamiento intermedio y el host destino. TCP/IP tiene una variante en ARP llamada ARP proxy que proporciona la dirección MAC de un dispositivo intermedio para realizar la transmisión a otro segmento de la red fuera de la LAN. 9.3.7 Protocolo de resolución de direcciones (ARP) En la red TCP/IP, el paquete de datos debe contener tanto la dirección MAC destino como la dirección IP destino. Si el paquete pierde alguna de las dos, los datos no pasarán de la Capa 3 a las capas superiores. De esta forma, las direcciones MAC e IP actúan como controles y balances entre sí. Una vez que los dispositivos determinan las direcciones IP de los dispositivos destino, pueden agregar las direcciones MAC de destino a los paquetes de datos. Algunos dispositivos guardan tablas que contienen las direcciones MAC e IP de otros dispositivos conectados a la misma LAN. Estas reciben el nombre de tablas del Protocolo de resolución de direcciones (ARP). Las tablas ARP se guardan en la memoria RAM, donde la información en caché se guarda automáticamente en cada uno de los dispositivos. Resulta muy inusual que un usuario tenga que entrar en la tabla ARP de forma manual. Cada dispositivo de una red lleva su propia tabla ARP. Cuando un dispositivo desea enviar datos a través de la red, utiliza la información que proporciona la tabla ARP. Cuando un origen determina la dirección IP para un destino, luego consulta la tabla ARP a fin de encontrar la dirección MAC destino. Si el origen encuentra una entrada en su tabla (dirección IP destino a dirección MAC destino), se asigna la dirección IP a la dirección MAC y luego la usa para encapsular los datos. Luego el paquete de datos se envía a través del medio de networking para que el destino lo reciba. Son dos las formas en las que los dispositivos pueden recolectar las direcciones MAC que necesitan agregar a los datos encapsulados. Una es monitorear el tráfico que se produce en el segmento de la red local. Todas las estaciones de una red Ethernet analizarán todo el tráfico a fin de determinar si los datos son para ellas. Parte de este proceso consiste en registrar la dirección IP y MAC origen del datagrama en una tabla ARP. A medida que los datos se transmiten a la red, los pares de direcciones pueblan la tabla ARP. Otra forma de obtener un par de direcciones para la transmisión de datos es realizar el broadcast de una petición ARP. EEEl computador que requiere un par de direcciones IP y MAC envía una petición ARP en broadcast. Todos los demás dispositivos de la red de área local analizan la petición. Si la dirección de uno de los dispositivos locales concuerda con la dirección IP de la petición, envía una respuesta ARP que contiene el par IP-MAC. Si la

Page 89: Semestre1 Ccna

dirección IP es para la red de área local y el computador no existe o se encuentra apagado, no hay respuesta a la petición ARP. En este caso, el dispositivo origen informa un error. Si la petición es para una red IP diferente, hay otro proceso que se puede utilizar. Los Routers no envían los paquetes de broadcast. Si la característica está activa, un Router ejecuta un ARP proxy. Un ARP proxy es una variante del protocolo ARP. En esta variante, un Router envía una respuesta ARP con la dirección MAC de la interfaz en la que se recibió la petición al host que la ejecuta. El Router responde con direcciones MAC para aquellas peticiones en las que la dirección IP no se encuentra en el rango de direcciones de la subred local. Otro método para enviar datos a la dirección de un dispositivo que se encuentra en otro segmento de red consiste en configurar un gateway por defecto. El Gateway por defecto es una opción de host en la que la dirección IP de la interfaz del Router se guarda en la configuración de red del host. El host origen compara la dirección IP destino y su propia dirección IP para determinar si las dos direcciones están ubicadas en el mismo segmento. Si el host receptor no está en el mismo segmento, el host origen envía los datos utilizando la dirección IP real del destino y la dirección MAC del Router. La dirección MAC para el Router se obtuvo de la tabla ARP utilizando la dirección IP de dicho Router. Si el gateway por defecto del host o la característica ARP proxy del Router no están configurados, el tráfico no podrá salir de la red del área local. Es necesario el uno o el otro para tener una conexión fuera de la red del área local. Módulo 10: Principios básicos de enrutamiento y subredes Descripción general El Protocolo de Internet (IP) es el principal protocolo de Internet. El direccionamiento IP permite que los paquetes sean enrutados desde el origen al destino usando la mejor ruta disponible. La propagación de paquetes, los cambios en el encapsulamiento y los protocolos que están orientados a conexión y los que no lo están también son fundamentales para asegurar que los datos se transmitan correctamente a su destino. Este módulo brinda un panorama general de cada uno. La diferencia entre los protocolos de enrutamiento y los enrutados es causa frecuente de confusión entre los estudiantes de networking. Las dos palabras suenan iguales pero son bastante diferentes. Este módulo también introduce los protocolos de enrutamiento que permiten que los Routers construyan tablas a partir de las cuales se determina la mejor ruta a un Host en la Internet. No existen dos organizaciones idénticas en el mundo. En realidad, no todas las organizaciones pueden adaptarse al sistema de tres clases de direcciones A, B y C. Sin embargo, hay flexibilidad en el sistema de direccionamiento de clases. Esto se denomina división en subredes. La división en subredes permite que los administradores de red determinen el tamaño de las partes de la red con las que ellos trabajan. Después de determinar cómo segmentar su red, ellos pueden utilizar la máscara de subred para establecer en qué parte de la red se encuentra cada dispositivo. Los estudiantes que completen este módulo deberán poder: * Describir los protocolos enrutados (enrutables) * Enumerar los pasos del encapsulamiento de datos en una internetwork a medida que los datos se enrutan a uno o más dispositivos de Capa 3. * Describir la entrega no orientada a conexión y orientada a conexión. * Nombrar los campos de los paquetes IP. * Describir el proceso de enrutamiento. * Comparar y contrastar los diferentes tipos de protocolos de enrutamiento. * Enumerar y describir las distintas métricas utilizadas por los protocolos de enrutamiento. * Enumerar varios usos de la división en subredes. * Determinar las máscaras de subred para una situación determinada. * Utilizar máscaras de subred para determinar el ID de subred. 10.1 Protocolo enrutado 10.1.1 Protocolos enrutables y enrutados Un protocolo es un conjunto de reglas que determina cómo se comunican los computadores entre sí a través de las redes. Los computadores se comunican intercambiando mensajes de datos. Para aceptar y actuar sobre estos mensajes, los computadores deben contar con definiciones de cómo interpretar el mensaje. Los ejemplos de mensajes incluyen aquellos que establecen una conexión a una máquina remota, mensajes de correo electrónico y archivos que se transmiten en la red. Un protocolo describe lo siguiente:

Page 90: Semestre1 Ccna

* El formato al cual el mensaje se debe conformar * La manera en que los computadores intercambian un mensaje dentro del contexto de una actividad en particular Un protocolo enrutado permite que un Router envíe datos entre nodos de diferentes redes. Para que un protocolo sea enrutable, debe admitir la capacidad de asignar a cada dispositivo individual un número de red y uno de Host. Algunos protocolos como los IPX, requieren sólo de un número de red porque estos protocolos utilizan la dirección MAC del Host como número de Host. Otros protocolos, como el IP, requieren una dirección completa que especifique la porción de red y la porción de Host. Estos protocolos también necesitan una máscara de red para diferenciar estos dos números. La dirección de red se obtiene al realizar la operación "AND" con la dirección y la máscara de red. La razón por la que se utiliza una máscara de red es para permitir que grupos de direcciones IP secuenciales sean considerados como una sola unidad. Si no se pudiera agrupar, cada Host tendría que mapearse de forma individual para realizar el enrutamiento. Esto sería imposible, ya que de acuerdo al Consorcio de Software de Internet (ISC) existen aproximadamente 233.101.500 hosts en Internet. 10.1.2 IP como protocolo enrutado El Protocolo Internet (IP) es la implementación más popular de un esquema de direccionamiento de red jerárquico. IP es un protocolo de entrega no orientado a la conexión, poco confiable y de máximo esfuerzo. El término no orientado a la conexión significa que no se establece ningún circuito de conexión dedicado antes de la transmisión, como sí lo hay cuando se establece una comunicación telefónica. IP determina la ruta más eficiente para los datos basándose en el protocolo de enrutamiento. Los términos poco confiables y de máximo esfuerzo no implican que el sistema no sea confiable y que no funcione bien; más bien significan que IP no verifica que los datos lleguen a su destino. La verificación de la entrega no siempre se lleva a cabo. A medida que la información fluye hacia abajo por las capas del modelo OSI, los datos se procesan en cada capa. En la capa de red, los datos se encapsulan en paquetes, también denominados datagramas. IP determina los contenidos de cada encabezado de paquete IP, lo cual incluye el direccionamiento y otra información de control, pero no se preocupa por la información en sí. IP acepta todos los datos que recibe de las capas superiores. 10.1.3 Propagación y conmutación de los paquetes dentro del Router A medida que un paquete pasa por la internetwork a su destino final, los encabezados y la información final de la trama de Capa 2 se eliminan y se remplazan en cada dispositivo de Capa 3. Esto sucede porque las unidades de datos de Capa 2, es decir, las tramas, son para direccionamiento local. Las unidades de datos de Capa 3 (los paquetes) son para direccionamiento de extremo a extremo. Las tramas de Ethernet de Capa 2 están diseñadas para operar dentro de un dominio de broadcast utilizando la dirección MAC que está grabada en del dispositivo físico. Otros tipos de tramas de Capa 2 incluyen los enlaces seriales del protocolo punto a punto (PPP) y las conexiones de Frame Relay, que utilizan esquemas de direccionamiento de Capa 2 diferentes. No obstante el tipo de direccionamiento de Capa 2 utilizado, las tramas están diseñadas para operar dentro del dominio de broadcast de Capa 2, y cuando los datos atraviesan un dispositivo de Capa 3, la información de Capa 2 cambia. En el momento en que se recibe una trama en la interfaz del Router, se extrae la dirección MAC destino. Se revisa la dirección para ver si la trama se dirige directamente a la interfaz del Router, o si es un broadcast. En cualquiera de los dos casos se acepta la trama. De lo contrario, se descarta la trama ya que está destinada a otro dispositivo en el dominio de colisión. Se extrae la información de verificación por redundancia cíclica (CRC) de la información final de la trama aceptada, y la CRC se calcula para verificar que los datos de la trama no tengan errores. La trama se descarta si está dañada. Si la verificación es válida, el encabezado de la trama y la información final se descartan y el paquete pasa hacia arriba a la Capa 3. Allí se verifica el paquete para asegurar que esté realmente destinado al Router, o si tiene que ser enrutado a otro dispositivo en la internetwork. Si la dirección IP destino concuerda con uno de los puertos del Router, se elimina el encabezado de Capa 3 y los datos pasan a la Capa 4. Si es necesario enrutar el paquete, se comparará la dirección IP destino con la tabla de enrutamiento. Si se encuentra una concordancia o si hay una ruta por defecto, el paquete se enviará a la interfaz especificada en la sentencia de concordancia de la tabla de enrutamiento. Cuando el paquete se conmuta a la interfaz de salida, se agrega un nuevo valor de verificación CRC como información final de la trama, y se agrega el encabezado de trama apropiado al paquete. Entonces la trama se transmite al siguiente dominio de broadcast en su viaje hacia el destino final. 10.1.4 Protocolo Internet (IP) Existen dos tipos de servicios de envío: los no orientados a conexión y los orientados a conexión. Estos dos servicios son los que realmente permiten el envío de datos de extremo a extremo en una internetwork. La mayoría de los servicios utilizan sistemas de entrega no orientados a conexión. Es posible que los diferentes paquetes tomen distintas rutas para transitar por la red, pero se reensamblan al llegar a su destino. En un sistema no orientado a conexión, no se comunica con el destino antes de enviar un paquete Una buena

Page 91: Semestre1 Ccna

comparación para un sistema no orientado a conexión es el sistema postal. No se comunica con el destinatario para ver si aceptará la carta antes de enviarla. Además, el remitente nunca sabe si la carta llegó a su destino. En los sistemas orientados a conexión, se establece una conexión entre el remitente y el destinatario antes de que se transfieran los datos. Un ejemplo de redes orientadas a conexión es el sistema telefónico. Se realiza una llamada, se establece una conexión y luego se produce la comunicación. Los procesos de red no orientados a conexión también se conocen como procesos de conmutación de paquetes A medida que los paquetes se transportan desde el origen al destino, pueden tomar rutas diferentes, y es posible que no lleguen en el mismo orden. Los dispositivos determinan la ruta de cada paquete a base de varios criterios. Algunos de los criterios como, por ejemplo, el ancho de banda disponible, pueden variar de un paquete a otro. Los procesos de red orientados a conexión también se conocen como procesos de conmutación de circuitos. Primero se establece una conexión con el destinatario, y de allí comienza la transferencia de datos. Todos los paquetes viajan en secuencia a través del mismo circuito físico o virtual. IP es el principal protocolo ruteado, pero no el único. TCP agrega a IP servicios de Capa 4 confiables orientados a conexión. 10.1.5 Anatomía de un paquete IP Los paquetes IP constan de los datos de las capas superiores más el encabezado IP. El encabezado IP está formado por lo siguiente: * Versión: Especifica el formato del encabezado de IP. Este campo de cuatro bits contiene el número 4 si el encabezado es IPv4 o el número 6 si el encabezado es IPV6. Sin embargo este campo no se usa para distinguir entre ambas versiones, para esto se usa el campo de tipo que se encuentra en el encabezado de la trama de capa 2. * Longitud del encabezado IP (HLEN): Indica la longitud del encabezado del datagrama en palabras de 32 bits. Este número representa la longitud total de toda la información del encabezado, e incluye los dos campos de encabezados de longitud variable. * Tipo de servicio (TOS): Especifica el nivel de importancia que le ha sido asignado por un protocolo de capa superior en particular, 8 bits. * Longitud total: Especifica la longitud total de todo el paquete en bytes, incluyendo los datos y el encabezado, 16 bits. Para calcular la longitud de la carga de datos reste HLEN a la longitud total. * Identificación: Contiene un número entero que identifica el datagrama actual, 16 bits. Este es el número de secuencia. * Señaladores: Un campo de tres bits en el que los dos bits de menor peso controlan la fragmentación. Un bit especifica si el paquete puede fragmentarse, y el otro especifica si el paquete es el último fragmento en una serie de paquetes fragmentados. * Desplazamiento de fragmentos: usado para ensamblar los fragmentos de datagramas, 13 bits. Este campo permite que el campo anterior termine en un límite de 16 bits. * Tiempo de existencia (TTL): campo que especifica el número de saltos que un paquete puede recorrer. Este número disminuye por uno cuando el paquete pasa por un Router. Cuando el contador llega a cero el paquete se elimina. Esto evita que los paquetes entren en un loop (bucle) interminable. * Protocolo: indica cuál es el protocolo de capa superior, por ejemplo, TCP o UDP, que recibe el paquete entrante luego de que se ha completado el procesamiento IP, ocho bits. * Checksum del encabezado: ayuda a garantizar la integridad del encabezado IP, 16 bits. * Dirección de origen: especifica la dirección IP del nodo emisor, 32 bits. * Dirección de destino: especifica la dirección IP del nodo receptor, 32 bits. * Opciones: permite que IP admita varias opciones, como seguridad, longitud variable. * Relleno: se agregan ceros adicionales a este campo para garantizar que el encabezado IP siempre sea un múltiplo de 32 bits * Datos: contiene información de capa superior, longitud variable hasta un de máximo 64 Kb. Aunque las direcciones de origen y destino IP son importantes, los otros campos del encabezado han hecho que IP sea muy flexible. Los campos del encabezado contienen las direcciones origen y destino del paquete y generalmente incluyen la longutid del mensaje. La información para enrutar el mensaje también está incluída en el encabezado de IP, el cual puede ser largo y complejo. 10.2 Protocolos de enrutarniento IP 10.2.1 Descripción del enrutamiento La función de enrutamiento es una función de la Capa 3 del modelo OSI. El enrutamiento es un esquema de organización jerárquico que permite que se agrupen direcciones individuales. Estas direcciones individuales son tratadas como unidades únicas hasta que se necesita la dirección destino para la entrega final de los datos. El enrutamiento es el proceso de hallar la ruta más eficiente desde un dispositivo a otro. El dispositivo primario que realiza el proceso de enrutamiento es el Router.

Page 92: Semestre1 Ccna

Las siguientes son las dos funciones principales de un Router: * Los Routers deben mantener tablas de enrutamiento y asegurarse de que otros Routers conozcan las modificaciones a la topología de la red. Esta función se lleva a cabo utilizando un protocolo de enrutamiento para comunicar la información de la red a otros Routers. * Cuando los paquetes llegan a una interfaz, el Router debe utilizar la tabla de enrutamietno para establecer el destino. El Router envía los paquetes a la interfaz apropiada, agrega la información de entramado necesaria para esa interfaz, y luego transmite la trama. Un Router es un dispositivo de la capa de red que usa una o más métricas de enrutamiento para determinar cuál es la ruta óptima a través de la cual se debe enviar el tráfico de red. Las métricas de enrutamiento son valores que se utilizan para determinar las ventajas de una ruta sobre otra. Los protocolos de enrutamiento utilizan varias combinaciones de métricas para determinar la mejor ruta para los datos. Los Routers interconectan segmentos de red o redes enteras. Pasan tramas de datos entre redes basándose en la información de Capa 3. Los Routers toman decisiones lógicas con respecto a cuál es la mejor ruta para la entrega de datos. Luego dirigen los paquetes al puerto de salida adecuado para que sean encapsulado para la transmisión. Los pasos del proceso de encapsulamiento y desencapsulamiento ocurren cada vez que un paquete atraviesa un router. El router debe desencapsular la trama de capa 2 y examinar la dirección de capa 3. Como se muestra en la figura , el porceso completo del envío de datos de un dispositivo a otro comprende encapsulamiento y desencapsulamiento de las siete capas OSI. Este proceso divide el flujo de datos en segmentos, agrega los encabezados apropiados e información final y luego transmite los datos. El proceso de desencapsulamiento es el proceso inverso: quita los encabezados e información final, y luego combina los datos en un flujo continuo. Este curso se concentra en el protocolo enrutable más común, el protocolo de Internet (IP) Otros ejemplos de protocolos enrutables incluyen IPX/SPX y AppleTalk. Estos protocolos admiten la Capa 3. Los protocolos no enrutables no admiten la Capa 3. El protocolo no enrutable más común es el NetBEUI. NetBeui es un protocolo pequeño, veloz y eficiente que está limitado a la entrega de tramas de un segmento 10.2.2 El enrutamiento en comparación con la conmutación A menudo, se compara el enrutamiento con la conmutación. Un observador inexperto puede pensar que el enrutamiento y la conmutación cumplen la misma función. La diferencia básica es que la conmutación tiene lugar en la Capa 2, o sea, la capa de enlace de los datos, en el modelo OSI y el enrutamiento en la Capa 3. Esta diferencia significa que el enrutamiento y la conmutación usan información diferente en el proceso de desplazar los datos desde el origen al destino. La relación entre la conmutación y el enrutamiento es comparable con la relación entre las comunicaciones telefónicas locales y de larga distancia. Cuando se realiza una comunicación telefónica a un número dentro de un mismo código de área, un Switch local administra la llamada. Sin embargo, el Switch local sólo puede llevar registro de sus propios números locales. El Switch local no puede administrar todos los números telefónicos del mundo. Cuando el Switch recibe un pedido de llamada fuera de su código de área, transfiere la llamada a un Switch de nivel superior que reconoce los códigos de área. El Switch de nivel superior entonces transfiere la llamada de modo que finalmente llegue al Switch local del código de área marcado. El Router tiene una función parecida a la del Switch de nivel superior en el ejemplo del teléfono. La figura muestra las tablas ARP de las direcciones MAC de Capa 2 y las tablas de enrutamiento de las direcciones IP de Capa 3. Cada interfaz de computador y de Router mantiene una tabla ARP para comunicaciones de Capa 2. La tabla ARP funciona sólo para el dominio de broadcast al cual está conectada.. El Router también mantiene una tabla de enrutamiento que le permite enrutar los datos fuera del dominio de broadcast. Cada componente de la tabla ARP contiene un par de direcciones IP-MAC (en el gráfico las direcciones MAC están representadas por la sigla MAC, debido a que las direcciones verdaderas son demasiado largas y no caben en el gráfico). Las tablas de enrutamiento también registran cómo se informó la ruta (en este caso ya sea directamente conectada [C] o informada por RIP [R]), la dirección IP de red de las redes alcanzables, el número de saltos o distancia hasta dichas redes, y la interfaz por la que los datos deben enviarse para llegar a la red de destino. Los switches Capa 2 construyen su tabla usando direcciones MAC. Cuando un host va a mandar información a una dirección IP que no es local, entonces manda la trama al router más cercano., también conocida como su Gateway por defecto. El Host utiliza las direcciones MAC del Router como la dirección MAC destino. Un switch interconecta segmentos que pertenecen a la misma red o subred lógicas. Para los host que no son locales, el switch reenvía la trama a un router en base a la dirección MAC destino. El router examina la dirección destino de Capa 3 para llevar a cabo la decisión de la mejor ruta. El host X sabe la dirección IP del router puesto que en la configuración del host se incluye la dirección del Gateway por defecto. Únicamente un switch mantiene una tabla de direcciones MAC conocidas, el router mantiene una tabla de direcciones IP. Las direcciones MAC no están organizadas de forma lógica. Las IP están organizadas de manera jerárquica. Un switch soporta un número limitado de direcciones MAC desorganizadas debido a que sólo tiene que buscar direcciones MAC que están dentro de su segmento. Los Routers necesitan administrar un mayor volumen de direcciones. Entonces, los Routers necesitan un sistema de direccionamiento organizado que

Page 93: Semestre1 Ccna

pueda agrupar direcciones similares y tratarlas como una sola unidad de red hasta que los datos alcancen el segmento destino. Si las direcciones IP no estuvieran organizadas, Internet simplemente no funcionaría. Sería como tener una biblioteca que contiene una pila enorme con millones de páginas sueltas de material impreso. Este material resultaría inútil porque sería imposible ubicar un documento en particular. Si las páginas están organizadas en libros y cada página está individualizada, y además los libros están registrados en un índice, es mucho más sencillo ubicar y utilizar la información. Otra diferencia entre las redes conmutadas y enrutadas es que las redes conmutadas no bloquean los broadcasts. Como resultado, los Switches pueden resultar abrumados por las tormentas de broadcast. Los Routers bloquean los broadcasts de LAN, de modo que una tormenta de broadcast sólo afecta el dominio de broadcast de origen. Debido a que los Routers bloquean broadcasts, pueden brindar un mayor nivel de seguridad y control de ancho de banda que los Switches. 10.2.3 Enrutado comparado con enrutamiento Los protocolos usados en la capa de red que transfieren datos de un Host a otro a través de un Router se denominan protocolos enrutados o enrutables. Los protocolos enrutados transportan datos a través de la red. Los protocolos de enrutamiento permiten que los Routers elijan la mejor ruta posible para los datos desde el origen hasta el destino. Las funciones de un protocolo enrutado incluyen lo siguiente: * Incluir cualquier conjunto de protocolos de red que ofrece información suficiente en su dirección de capa para permitir que un Router lo envíe al dispositivo siguiente y finalmente a su destino. * Definir el formato y uso de los campos dentro de un paquete. El Protocolo Internet (IP) y el intercambio de paquetes de internetworking (IPX) de Novell son ejemplos de protocolos enrutados. Otros ejemplos son DECnet, AppleTalk, Banyan VINES y Xerox Network Systems (XNS). Los Routers utilizan los protocolos de enrutamiento para intercambiar las tablas de enrutamiento y compartir la información de enrutamiento. En otras palabras, los protocolos de enrutamiento permiten enrutar protocolos enrutados. Las funciones de un protocolo de enrutamiento incluyen lo siguiente: * Ofrecer procesos para compartir la información de ruta. * Permitir que los Routers se comuniquen con otros Routers para actualizar y mantener las tablas de enrutamiento. Los ejemplos de protocolos de enrutamiento que admiten el protocolo enrutado IP incluyen el Protocolo de información de enrutamiento (RIP) y el Protocolo de enrutamiento de Gateway interior (IGRP), el Protocolo primero de la ruta libre más corta (OSPF), el Protocolo de Gateway fronterizo (BGP), el IGRP mejorado (EIGRP). 10.2.4 Determinación de la ruta La determinación de la ruta ocurre a nivel de la capa de red. La determinación de la ruta permite que un Router compare la dirección destino con las rutas disponibles en la tabla de enrutamiento, y seleccione la mejor ruta. Los Routers conocen las rutas disponibles por medio del enrutamiento estático o dinámico. Las rutas configuradas de forma manual por el administrador de la red son las rutas estáticas. Las rutas aprendidas por medio de otros Routers usando un protocolo de enrutamiento son las rutas dinámicas. El Router utiliza la determinación de la ruta para decidir por cuál puerto debe enviar un paquete en su trayecto al destino. Este proceso se conoce como enrutamiento del paquete. Cada Router que un paquete encuentra a lo largo del trayecto se conoce como salto. El número de saltos es la distancia cubierta. La determinación de la ruta puede compararse a una persona que conduce un automóvil desde un lugar de la ciudad a otro. El conductor tiene un mapa que muestra las calles que puede tomar para llegar a su destino, así como el Router posee una tabla de enrutamiento. El conductor viaja desde una intersección a otra al igual que un paquete va de un Router a otro en cada salto. En cualquier intersección el conductor determinar su ruta al ir hacia la izquierda, la derecha, o avanzar derecho. Del mismo modo, un Router decide por cuál puerto de salida debe enviarse un paquete. Las decisiones del conductor se ven influenciadas por múltiples factores como el tráfico en la calle, el límite de velocidad, el número de carriles, si hay peaje o no, y si esa ruta se encuentra cerrada o no con frecuencia. A veces es más rápido tomar un recorrido más largo por una calle más angosta y menos transitada que ir por una autopista con mucho tránsito. De la misma forma, los Routers pueden tomar decisiones basándose en la carga, el ancho de banda, el retardo, el costo y la confiabilidad en los enlaces de red. Se utiliza el siguiente proceso durante la determinación de la ruta para cada paquete que se enruta: * El router compara la dirección IP del paquete recibido contra las tablas que tiene.

Page 94: Semestre1 Ccna

* Se obtiene la dirección destino del paquete . * Se aplica la máscara de la primera entrada en la tabla de enrutamiento a la dirección destino. * Se compara el destino enmascarado y la entrada de la tabla de enrutamiento. * Si hay concordancia, el paquete se envía al puerto que está asociado con la entrada de la tabla. * Si no hay concordancia, se compara con la siguiente entrada de la tabla. * Si el paquete no concuerda con ninguno de las entradas de la tabla, el Router verifica si se envió una ruta por defecto. * Si se envió una ruta por defecto, el paquete se envía al puerto asociado. Una ruta por defecto es aquella que está configurada por el administrador de la red como la ruta que debe usarse si no existe concordancia con las entradas de la tabla de enrutamiento. * El paquete se elimina si no hay una ruta por defecto. Por lo general se envía un mensaje al dispositivo emisor que indica que no se alcanzó el destino. 10.2.5 Tablas de enrutamiento Los Routers utilizan protocolos de enrutamiento para crear y guardar tablas de enrutamiento que contienen información sobre las rutas. Esto ayuda al proceso de determinación de la ruta. Los protocolos de enrutamiento llenan las tablas de enrutamiento con una amplia variedad de información. Esta información varía según el protocolo de enrutamiento utilizado. Las tablas de enrutamiento contienen la información necesaria para enviar paquetes de datos a través de redes conectadas. Los dispositivos de Capa 3 interconectan dominios de broadcast o LAN. Se requiere un esquema de direccionamiento jerárquico para poder transferir los datos. Los Routers mantienen información importante en sus tablas de enrutamiento, que incluye lo siguiente: * Tipo de protocolo: el tipo de protocolo de enrutamiento que creó la entrada en la tabla de enrutamiento. * Asociaciones entre destino/siguiente salto: estas asociaciones le dicen al Router que un destino en particular está directamente conectado al Router, o que puede ser alcanzado utilizando un Router denominado "salto siguiente" en el trayecto hacia el destino final. Cuando un Router recibe un paquete entrante, lee la dirección destino y verifica si hay concordancia entre esta dirección y una entrada de la tabla de enrutamiento. * Métrica de enrutamiento: los distintos protocolos de enrutamiento utilizan métricas de enrutamiento distintas. Las métricas de enrutamiento se utilizan para determinar la conveniencia de una ruta. Por ejemplo, el números de saltos es la única métrica de enrutamiento que utiliza el protocolo de información de enrutamiento (RIP). El Protocolo de enrutamiento Gateway interior (IGRP) utiliza una combinación de ancho de banda, carga, retardo y confiabilidad como métricas para crear un valor métrico compuesto. * Interfaces de salida: la interfaz por la que se envían los datos para llegar a su destino final. Los Routers se comunican entre sí para mantener sus tablas de enrutamiento por medio de la transmisión de mensajes de actualización del enrutamiento. Algunos protocolos de enrutamiento transmiten estos mensajes de forma periódica, mientras que otros lo hacen cuando hay cambios en la topología de la red. Algunos protocolos transmiten toda la tabla de enrutamiento en cada mensaje de actualización, y otros transmiten sólo las rutas que se han modificado. Un Router crea y guarda su tabla de enrutamiento, analizando las actualizaciones de enrutamiento de los Routers vecinos. 10.2.6 Algoritmos de enrutamiento y métricas Un algoritmo es una solución detallada a un problema. En el caso de paquetes de enrutamiento, diferentes protocolos utilizan distintos algoritmos para decidir por cuál puerto debe enviarse un paquete entrante. Los algoritmos de enrutamiento dependen de las métricas para tomar estas decisiones. Los protocolos de enrutamiento con frecuencia tienen uno o más de los siguientes objetivos de diseño: * Optimización: la optimización describe la capacidad del algoritmo de enrutamiento de seleccionar la mejor ruta. La mejor ruta depende de las métricas y el peso de las métricas que se usan para hacer el cálculo. Por ejemplo, un algoritmo puede utilizar tanto las métricas del número de saltos como la del retardo, pero puede considerar las métricas de retardo como de mayor peso en el cálculo. * Simplicidad y bajo gasto: cuanto más simple sea el algoritmo, más eficientemente será procesado por la CPU y la memoria del Router. Esto es importante ya que la red puede aumentar en grandes proporciones, como la Internet. * Solidez y estabilidad: un algoritmo debe funcionar de manera correcta cuando se enfrenta con una situación inusual o desconocida; por ejemplo, fallas en el hardware, condiciones de carga elevada y errores en la implementación. * Flexibilidad: un algoritmo de enrutamiento debe adaptarse rápidamente a una gran variedad de cambios en la red. Estos cambios incluyen la disponibilidad y memoria del Router, cambios en el ancho de banda y retardo en la red. * Convergencia rápida: la convergencia es el proceso en el cual todos los Routers llegan a un acuerdo con respecto a las rutas disponibles. Cuando un evento en la red provoca cambios en la disponibilidad de los Routers, se necesitan actualizaciones para restablecer la conectividad en la red. Los algoritmos de enrutamiento que convergen lentamente pueden hacer que los datos no puedan enviarse. Los algoritmos de enrutamiento utilizan métricas distintas para determinar la mejor ruta. Cada algoritmo de enrutamiento interpreta a su manera lo que es mejor. El algoritmo genera un número, denominado valor métrico,

Page 95: Semestre1 Ccna

para cada ruta a través de la red. Los algoritmos de enrutamiento sofisticados basan la elección de la ruta en varias métricas, combinándolas en un sólo valor métrico compuesto. En general, los valores métricos menores indican la ruta preferida. Las métricas pueden tomar como base una sola característica de la ruta, o pueden calcularse tomando en cuenta distintas características. Las siguientes son las métricas más utilizadas en los protocolos de enrutamiento: * Ancho de banda: la capacidad de datos de un enlace. En general, se prefiere un enlace Ethernet de 10 Mbps a una línea arrendada de 64 kbps. * Retardo: la cantidad de tiempo requerido para transportar un paquete a lo largo de cada enlace desde el origen hacia el destino El retardo depende del ancho de banda de los enlaces intermedios, de la cantidad de datos que pueden almacenarse de forma temporaria en cada Router, de la congestión de la red, y de la distancia física * Carga: la cantidad de actividad en un recurso de red como, por ejemplo, un Router o un enlace. * Confiabilidad: generalmente se refiere al índice de error de cada enlace de red. * Número de saltos: el número de Routers que un paquete debe atravesar antes de llegar a su destino. La distancia que deben atravesar los datos entre un Router y otro equivale a un salto. Una ruta cuyo número de saltos es cuatro indica que los datos que se transportan a través de esa ruta deben pasar por cuatro Routers antes de llegar a su destino final en la red. Si existen varias rutas hacia un mismo destino, se elige la ruta con el menor número de saltos. * Tictacs: el retardo en el enlace de datos medido en tictacs de reloj PC de IBM. Un tictac dura aproximadamente 1/18 de segundo. * Costo: un valor arbitrario asignado por un administrador de red que se basa por lo general en el ancho de banda, el gasto monetario u otra medida. 10.2.7 IGP y EGP Un sistema autónomo es una red o conjunto de redes bajo un control común de administración, tal como el dominio cisco.com. Un sistema autónomo está compuesto por Routers que presentan una visión coherente del enrutamiento al mundo exterior. Los Protocolos de enrutamiento de Gateway interior (IGP) y los Protocolos de enrutamiento de Gateway exterior (EGP) son dos tipos de protocolos de enrutamiento. Los IGP enrutan datos dentro de un sistema autónomo. * Protocolo de información de enrutamiento (RIP) y (RIPv2). * Protocolo de enrutamiento de Gateway interior (IGRP) * Protocolo de enrutamiento de Gateway interior mejorado (EIGRP) * Primero la ruta libre más corta (OSPF) * Protocolo de sistema intermedio-sistema intermedio (IS-IS). Los EGP enrutan datos entre sistemas autónomos. Un ejemplo de EGP es el protocolo de Gateway fronterizo (BGP). 10.2.8 Estado de Enlace y Vector de Distancia Los protocolos de enrutamiento pueden clasificarse en IGP o EGP, lo que describe si un grupo de Routers se encuentra bajo una sola administración o no. Los IGP pueden a su vez clasificarse en protocolos de vector-distancia o de estado de enlace. El enrutamiento por vector-distancia determina la dirección y la distancia (vector) hacia cualquier enlace en la internetwork. La distancia puede ser el número de saltos hasta el enlace. Los Routers que utilizan los algoritmos de vector-distancia envían todos o parte de las entradas de su tabla de enrutamiento a los Routers adyacentes de forma periódica. Esto sucede aún si no ha habido modificaciones en la red. Un Router puede verificar todas las rutas conocidas y realizar las modificaciones a su tabla de enrutamiento al recibir las actualizaciones de enrutamiento. Este proceso también se llama "enrutamiento por rumor". La comprensión que el Router tiene de la red se basa en la perspectiva que tiene el Router adyacente de la topología de la red. Los ejemplos de los protocolos por vector-distancia incluyen los siguientes: * Protocolo de información de enrutamiento(RIP): es el IGP más común de la red. RIP utiliza números de saltos como su única métrica de enrutamiento. * Protocolo de enrutamiento de Gateway interior (IGRP): es un IGP desarrollado por Cisco para resolver problemas relacionados con el enrutamiento en redes extensas y heterogéneas. * IGRP mejorada (EIGRP): esta IGP propiedad de Cisco incluye varias de las características de un protocolo de enrutamiento de estado de enlace. Es por esto que se ha conocido como protocolo híbrido balanceado, pero en realidad es un protocolo de enrutamiento vector-distancia avanzado. Los protocolos de enrutamiento de estado de enlace se diseñaron para superar las limitaciones de los

Page 96: Semestre1 Ccna

protocolos de enrutamiento vector distancia. Los protocolos de enrutamiento de estado de enlace responden rápidamente a las modificaciones en la red, enviando actualizaciones sólo cuando se producen las modificaciones. Los protocolos de enrutamiento de estado de enlace envían actualizaciones periódicas, conocidas como renovaciones de estado de enlace a rangos más prolongados; por ejemplo, 30 minutos. Cuando una ruta o enlace se modifica, el dispositivo que detectó el cambio crea una publicación de estado de enlace (LSA) en relación a ese enlace. Luego la LSA se transmite a todos los dispositivos vecinos. Cada dispositivo de enrutamiento hace una copia de la LSA, actualiza su base de datos de estado de enlace y envía la LSA a todos los dispositivos vecinos. Se necesita esta inundación de LAS para estar seguros de que todos los dispositivos de enrutamiento creen bases de datos que reflejen de forma precisa la topología de la red antes de actualizar sus tablas de enrutamiento. Por lo general, los algoritmos de estado de enlace utilizan sus bases de datos para crear entradas de tablas de enrutamiento que prefieran la ruta más corta. Ejemplos de protocolos de estado de enlace son: Primero la Ruta Libre Más Corta (OSPF) y el Sistema Intermedio a Sistema Intermedio (IS-IS). 10.2.9 Protocolos de enrutamiento RIP es un protocolo de enrutamiento vector-distancia que utiliza el número de saltos como métrica para determinar la dirección y la distancia a cualquier enlace en internetwork. Si existen varias rutas hasta un destino, RIP elige la ruta con el menor número de saltos. Sin embargo, debido a que el número de saltos es la única métrica de enrutamiento que RIP utiliza, no siempre elige el camino más rápido hacia el destino. Además, RIP no puede enrutar un paquete más allá de los 15 saltos. RIP Versión 1 (RIPv1) necesita que todos los dispositivos de la red utilicen la misma máscara de subred, debido a que no incluye la información de la máscara en sus actualizaciones de enrutamiento. Esto también se conoce como enrutamiento con clase. RIP Versión 2 (RIPv2) ofrece un prefijo de enrutamiento y envía información de la máscara de subred en sus actualizaciones. Esto también se conoce como enrutamiento sin clase. En los protocolos sin clase, las distintas subredes dentro de la misma red pueden tener varias máscaras de subred. El uso de diferentes máscaras de subred dentro de la misma red se denomina máscara de subred de longitud variable (VLSM). IGRP es un protocolo de enrutamiento por vector-distancia desarrollado por Cisco. El IGRP se desarrolló específicamente para ocuparse de los problemas relacionados con el enrutamiento de grandes redes que no se podían administrar con protocolos como, por ejemplo, RIP. IGRP puede elegir la ruta disponible más rápida basándose en el retardo, el ancho de banda, la carga y la confiabilidad. IGRP también posee un límite máximo de número de saltos mucho mayor que RIP. IGRP utiliza sólo enrutamiento con clase. OSPF es un protocolo de enrutamiento de estado de enlace desarrollado por la Fuerza de tareas de ingeniería de Internet (IETF) en 1988. El OSPF se elaboró para cubrir las necesidades de las grandes internetworks escalables que RIP no podía cubrir. El sistema intermedio-sistema intermedio (IS-IS) es un protocolo de enrutamiento de estado de enlace utilizado para protocolos enrutados distintos a IP. El IS-IS integrado es un sistema de implementación expandido de IS-IS que admite varios protocolos de enrutamiento, inclusive IP. Cisco es propietario de EIGRP y también IGRP. EIGRP es una versión mejorada de IGRP. En especial, EIGRP suministra una eficiencia de operación superior tal como una convergencia rápida y un bajo gasto del ancho de banda. EIGRP es un protocolo mejorado de vector-distancia que también utiliza algunas de las funciones del protocolo de estado de enlace. Por ello, el EIGRP veces aparece incluido en la categoría de protocolo de enrutamiento híbrido. El protocolo de Gateway fronterizo (BGP) es un ejemplo de protocolo de Gateway exterior (EGP). BGP intercambia información de enrutamiento entre sistemas autónomos a la vez que garantiza una elección de ruta libre de loops. BGP es el protocolo principal de publicación de rutas utilizado por las compañías más importantes e ISP en la Internet. BGP4 es la primera versión de BGP que admite enrutamiento entre dominios sin clase (CIDR) y agregado de rutas. A diferencia de los protocolos de Gateway internos (IGP), como RIP, OSPF y EIGRP, BGP no usa métricas como número de saltos, ancho de banda, o retardo. En cambio, BGP toma decisiones de enrutamiento basándose en políticas de la red, o reglas que utilizan varios atributos de ruta BGP. 10.3 Mecanismos de la división en subredes 10.3.1 Clases de direcciones IP de red Las clases de direcciones IP ofrecen de 256 a 16,8 millones de Hosts, como se vio con anterioridad en este módulo. Para administrar de forma eficiente un número limitado de direcciones IP, todas las clases pueden subdividirse en subredes más pequeñas. La Figura ofrece una descripción de la división entre redes y Hosts. 10.3.2 Introducción y razones para realizar subredes Parara crear la estructura de subred, los bits de host se deben reasignar como bits de subred. Este proceso es a

Page 97: Semestre1 Ccna

veces denominado "pedir bits prestados". Sin embargo, un término más preciso sería "prestar" bits. El punto de inicio de este proceso se encuentra siempre en el bit del Host del extremo izquierdo, aquel que se encuentra más cerca del octeto de red anterior. Las direcciones de subred incluyen la porción de red Clase A, Clase B o Clase C además de un campo de subred y un campo de Host. El campo de subred y el campo de Host se crean a partir de la porción de Host original de la dirección IP entera. Esto se hace mediante la reasignación de bits de la parte de host a la parte original de red de la dirección. La capacidad de dividir la porción de Host original de la dirección en nuevas subredes y campos de Host ofrece flexibilidad de direccionamiento al administrador de la red. Además de la necesidad de contar con flexibilidad, la división en subredes permite que el administrador de la red brinde contención de broadcast y seguridad de bajo nivel en la LAN. La división en subredes ofrece algo de seguridad ya que el acceso a las otras subredes está disponible solamente a través de los servicios de un Router. Además, el uso de listas de acceso puede ofrecer seguridad en el acceso. Estas listas pueden permitir o negar el acceso a la subred, tomando en cuenta varios criterios, de esta manera brindan mayor seguridad. Más tarde se estudiarán las listas de acceso. Algunos propietarios de redes Clases A y B han descubierto que la división en subredes crea una fuente de ingresos para la organización a través del alquiler o venta de direcciones IP que anteriormente no se utilizaban Una LAN se percibe como una sola red sin conocimiento de su estructura de red interna. Esta visión de la red hace que las tablas de enrutamiento sean pequeñas y eficientes. Dada una dirección de nodo local 147.10.43.14 de la subred 147.10.43.0, el mundo exteriorsólo puede ver la red mayor que se anuncia, la 147.10.0.0. Esto tiene su razón en que la dirección de la subred local 147.10.43.0 sólo es válida dentro de la LAN donde se aplica el subneteo.. 10.3.3 Cómo establecer la dirección de la máscara de subred La selección del número de bits a utilizar en el proceso de división en subredes dependerá del número máximo de Hosts que se requiere por subred. Es necesario tener una buena comprensión de la matemática binaria básica y del valor de posición de los bits en cada octeto para calcular el número de subredes y Hosts creados cuando se pide bits prestados. Es posible que los últimos dos bits del último octeto nunca se asignen a la subred, sea cual sea la clase de dirección IP. Estos bits se denominan los dos últimos bits significativos. El uso de todos los bits disponibles para crear subredes, excepto los dos últimos, dará como resultado subredes con sólo dos Hosts utilizables. Este es un método práctico de conservación de direcciones para el direccionamiento de enlace serial de Routers. Sin embargo, para una LAN que está en funcionamiento, puede que esto origine gastos prohibitivos en equipos. La máscara de subred da al Router la información necesaria para determinar en qué red y subred se encuentra un Host determinado. La máscara de subred se crea mediante el uso de 1s binarios en los bits de red. Los bits de subred se determinan mediante la suma de los valores de las posiciones donde se colocaron estos bits. Si se pidieron prestados tres bits, la máscara para direcciones de Clase C sería 255.255.255.224. Esta máscara se puede representar con una barra inclinada seguida por un número, por ejemplo /27. El número representa el número total de bits que fueron utilizados por la red y la porción de subred. Para determinar el número de bits que se deberán utilizar, el diseñador de redes calcula cuántos Hosts necesita la subred más grande y el número de subredes necesarias. Como ejemplo, la red necesita 30 Hosts y cinco subredes. Una manera más fácil de calcular cuántos bits reasignar es utilizar la tabla de subredes. Al consultar la fila denominada "Hosts Utilizables", se ve en la tabla que para 30 Hosts se requieren tres bits. La tabla también muestra que esto crea seis subredes utilizables, que satisfacen los requisitos de este esquema. La diferencia entre las direcciones válidas y el total es el resultado del uso de la primera dirección como el ID de la subred y de la última como la dirección de broadcast para cada subred. El tomar prestados el número adecuado de bits para obtener un número determinado de subredes y de hosts por subred puede generar el desperdicio de direcciones válidas en algunas subredes. La habilidad de usar estas direcciones no la proporciona un enrutamiento con distinción de clase. Sin embargo, el enrutamiento sin distinción de clase, el cual se cubrirá más adelante en el curso, permite el uso de estas direcciones. El método que se utilizó para crear la tabla de subred puede usarse para resolver todos los problemas con subredes. Este método utiliza la siguiente fórmula: El número de subredes que se pueden usar es igual a dos a la potencia del número de bitsasignados a subred, menos dos. La razón de restar dos es por las direcciones reservadas de ID de red y la dirección de broadcast. (2 potencia de bits prestados) – 2 = subredes utilizables (23) – 2

Page 98: Semestre1 Ccna

= 6 Número de Hosts utilizables = dos elevado a la potencia de los bits restantes, menos dos (direcciones reservadas para el ID de subred y el broadcast de subred) (2 potencia de los bits restantes del Host) – 2 = Hosts utilizables (25) – 2 = 30 10.3.4 Aplicación de la máscara de subred Una vez que la máscara está establecida, puede utilizarse para crear el esquema de subred. La tabla de la Figura es un ejemplo de subredes y direcciones que se crean al asignar tres bits al campo de la subred. Esto creará ocho subredes con 32 Hosts por subred. Comience desde cero (0) al asignar números a las subredes. La primera subred es siempre llamada subred cero. Al llenar la tabla de subred, tres de los campos son automáticos, otros requieren de cálculos. El ID de subred de la subred 0 equivale al número principal de la red, en este caso 192.168.10.0. El ID de broadcast de toda la red es el máximo número posible, en este caso 192.168.10.255. El tercer número representa el ID de subred para la subred número siete. Este número consiste en los tres octetos de red con el número de máscara de subred insertado en la posición del cuarto octeto. Se asignaron tres bits al campo de subred con un valor acumulativo de 224. El ID de la subred siete es 192.168.10.224. Al insertar estos números, se establecen puntos de referencia que verificarán la exactitud cuando se complete la tabla. Al consultar la tabla de subredes o al utilizar la fórmula, los tres bits asignados al campo de la subred darán como resultado 32 Hosts en total, asignados a cada subred. Esta información da el número de pasos de cada ID de subred. El ID de cada subred se establece agregando 32 a cada número anterior, comenzando con cero. Observe que el ID de la subred tiene ceros binarios en la porción de Host. El campo de broadcast es el último número en cada subred, y tiene unos binarios en la porción de Host. La dirección tiene la capacidad de emitir broadcast sólo a los miembros de una sola subred. Ya que el ID de subred para la subred cero es 192.168.10.0 y hay un total de 32 Hosts, el ID de broadcast será 192.168.10.31 Comenzando con el cero, el trigésimo segundo número secuencial es el 31.Es importante recordar que cero (0) es un número real en el mundo de networking. El resultado de la columna ID de broadcast puede completarse usando el mismo proceso que fue utilizado para la columna ID de la subred. Simplemente agregue 32 al ID de broadcast anterior de la subred. Otra opción es comenzar por el final de la columna y calcular hacia arriba restando uno al ID de subred anterior. 10.3.5 Cómo dividir las redes de Clase A y B en subredes El procedimiento de dividir las redes de Clase A y B en subredes es idéntico al proceso utilizado para la Clase C, excepto que puede haber muchos más bits involucrados. Hay 22 bits disponibles para asignación a los campos de subred en una dirección de Clase A, y 14 bits en la de B. Al asignar 12 bits de una dirección de Clase B a un campo de subred, se crea una máscara de subred de 255.255.255.240 o /28. Los ocho bits fueron asignados al tercer octeto dando como resultado 255, el valor total de los ocho bits juntos. Se asignaron cuatro bits en el cuarto octeto dando 240 como resultado. Recuerde que el número después de la barra inclinada equivale a la suma total de todos los bits asignados al campo de subred más los bits de red fijos. Al asignar 20 bits de una dirección de Clase B a un campo de subred, se crea una máscara de subred de 255.255.255.240 o /28. Los ocho bits del segundo y tercer octeto fueron asignados al campo de subred y a cuatro bits del cuarto octeto. En esta situación, parece que las máscaras de subred de las direcciones de Clase A y Clase B son idénticas. A menos que la máscara esté relacionada con una dirección de red, no es posible descifrar cuántos bits fueron asignados al campo de subred. No importa qué clase de dirección se necesite dividir en subredes, las reglas son las siguientes: Subredes totales = 2a la potencia de los bits pedidos Hosts totales = 2a la potencia de los bits restantes

Page 99: Semestre1 Ccna

Subredes utilizables = 2a la potencia de los bits pedidos menos 2 Hosts utilizables= 2a la potencia de los bits restantesmenos 2 10.3.6 Cálculo de la subred de residencia utilizando la operación "AND" Los Routers utilizan máscaras de subred para establecer las subredes de origen para nodos individuales. Este proceso se denomina operación "AND" lógico. La operación "AND" es un proceso binario por medio del cual un Router calcula el ID de la subred para un paquete entrante. La operación "AND" es parecida a la multiplicación. Este proceso se administra a un nivel binario. Por lo tanto, es necesario ver la dirección IP y la máscara de forma binaria. Se realiza la operación "AND"con la dirección IP y la dirección de subred y el resultado es el ID de subred. El Router entonces utiliza esa información para enviar el paquete por la interfaz correcta. La división en subredes es algo que debe aprenderse. Habrá que dedicar mucho tiempo a la realización de ejercicios prácticos para desarrollar esquemas flexibles y que funcionen. Existe una gran variedad de calculadoras de subredes disponibles en la Web. Sin embargo, un administrador de red debe saber cómo calcular las subredes de forma manual para diseñar esquemas de red efectivos y asegurar la validez de los resultados obtenidos con una calculadora de subred. La calculadora de subred no proporcionará el esquema inicial, sólo el direccionamiento final. Tampoco se permite el uso de calculadoras, de ningúna clase, durante el examen de certificación. Módulo 11: Capa de aplicación y transporte de TCP/IP Descripción general Como su nombre lo indica, la capa de transporte de TCP/IP se encarga de transportar datos entre aplicaciones en dispositivos origen y destino. Es esencial contar con una comprensión absoluta de la operación de la capa de transporte para comprender el manejo de datos en las redes modernas. Este módulo describe las funciones y los servicios de esta capa fundamental del modelo de red TCP/IP. Varias de las aplicaciones de red que se encuentran en la capa de aplicación TCP/IP resultan familiares incluso para los usuarios de red casuales. HTTP, FTP y SMTP, por ejemplo, son siglas que los usuarios de navegadores de Web y los clientes de correo electrónico usan a menudo. Este módulo también describe la función de estas y de otras aplicaciones desde el punto de vista del modelo de red TCP/IP. Los estudiantes que completen este módulo deberán poder: * Describir las funciones de la capa de transporte TCP/IP. * Describir el control de flujo. * Describir los procesos que se usan para establecer una conexión entre sistemas pares o iguales. * Describir el uso de ventanas. * Describir los acuses de recibo. * Identificar y describir los protocolos de la capa de transporte. * Describir los formatos de encabezado TCP y UDP. * Describir los números de puerto TCP y UDP. * Hacer una lista de los protocolos principales de la capa de aplicación TCP/IP. * Suministrar una descripción breve acerca de las características y operaciones de las aplicaciones TCP/IP conocidas. 11.1 TCP/IP Capa de Transporte 11.1.1 Introducción a la capa de transporte Las tareas principales de la capa de transporte, la Capa 4 del modelo OSI, son transportar y regular el flujo de información desde el origen hasta el destino, de forma confiable y precisa. El control de extremo a extremo y la confiabilidad se suministran a través de ventanas deslizantes, números de secuencia y acuses de recibo. Para comprender qué son la confiabilidad y el control de flujo, piense en alguien que estudia un idioma extranjero durante un año y luego visita el país en el que se habla ese idioma. Mientras uno conversa, las palabras se deben repetir para que exista confiabilidad y se debe hablar lentamente de modo que el significado de la conversación no se pierda; esto es lo que se denomina control de flujo. La capa de transporte brinda servicios de transporte desde el host origen hasta el host destino. Establece una conexión lógica entre los puntos de terminación de la red. Los protocolos de la capa de transporte segmentan y reensamblan los datos mandados por las aplicaciones de capas superiores en el mismo flujo de datos de capa de transporte. Este flujo de datos de la capa de transporte brinda servicios de transporte de extremo a extremo. El flujo de datos de la capa de transporte es una conexión lógica entre los puntos de terminación de una red. Sus tareas principales son las de transportar y regular el flujo de información desde el origen hasta el destino de forma confiable y precisa. La tarea principal de la Capa 4 es suministrar control de extremo a extremo usando

Page 100: Semestre1 Ccna

ventanas deslizantes y brindar confiabilidad para los números de secuencia y los acuses de recibo. La capa de transporte define la conectividad de extremo a extremo entre las aplicaciones del host. Los servicios de transporte incluyen los siguientes servicios básicos: * Segmentación de los datos de las aplicaciones de capa superior * Establecimiento de las operaciones de extremo a extremo * Transporte de segmentos desde un host final a otro host final * Control de flujo, suministrado por las ventanas deslizantes * Confiabilidad, suministrada por los números de secuencia y los acuses de recibo TCP/IP es una combinación de dos protocolos individuales. IP opera en la Capa 3 y es un servicio no orientado a conexión que proporciona una entrega de máximo esfuerzo a través de una red. TCP opera en la Capa 4, y es un servicio orientado a conexión que suministra control de flujo y confiabilidad. Al unir estos protocolos, se suministra una gama de servicios más amplia. De forma conjunta, constituyen la base para un conjunto completo de protocolos que se denomina conjunto de protocolos TCP/IP. La Internet se basa en este conjunto de protocolos TCP/IP. 11.1.2 Control de flujo A medida que la capa de transporte envía segmentos de datos, trata de garantizar que los datos no se pierdan. Un host receptor que no puede procesar los datos tan rápidamente como llegan puede provocar una pérdida de datos. El host receptor se ve obligado a descartar los datos. El control de flujo evita el problema que se produce cuando un host que realiza la transmisión inunda los buffers del host destinatario. TCP suministra el mecanismo de control de flujo al permitir que el host emisor y el receptor se comuniquen. Luego los dos hosts establecen velocidades de transferencia de datos que sean aceptables para ambos. 11.1.3 Descripción general del establecimiento, mantenimiento y terminación de sesión Múltiples aplicaciones pueden compartir la misma conexión de transporte en el modelo de referencia OSI. La funcionalidad de transporte se logra segmento por segmento. En otras palabras, esto significa que las distintas aplicaciones pueden enviar segmentos de datos con un sistema basado en el principio "el primero que llega es el primero que se sale". Los segmentos que llegan primero son los primeros que serán resueltos. Estos segmentos se pueden encaminar hacia el mismo destino o hacia distintos destinos. Varias aplicaciones pueden compartir la misma conexión en el modelos de referencia OSI. Esto se denomina multiplexión de conversaciones de capas superiores. Varias conversaciones simultáneas de las capas superiores se pueden multiplexar en una sola conexión. Una de las funciones de la capa de transporte es establecer una sesión orientada a conexión entre dispositivos similares en la capa de aplicación. Para que se inicie la transferencia de datos, tanto las aplicaciones emisoras como receptoras informan a sus respectivos sistemas operativos que se iniciará una conexión. Un nodo inicia la conexión, que debe ser aceptada por el otro. Los módulos de software de protocolo en los dos sistemas operativos se comunican entre sí enviando mensajes a través de la red a fin de verificar que la transferencia esté autorizada y que ambos lados estén preparados. Después de que se haya establecido toda la sincronización, se establece la conexión y comienza la transferencia de datos. Durante la transferencia, los dos dispositivos siguen comunicándose con su software de protocolo para verificar que estén recibiendo los datos correctamente. La Figura muestra una conexión típica entre sistemas emisores y receptores. El primer intercambio de señal solicita la sincronización. El segundo y el tercer intercambio de señales acusan recibo de la petición inicial de sincronización, y sincronizan los parámetros de conexión en sentido opuesto. El segmento final del intercambio de señales es un acuse de recibo que se utiliza para informar al destino que ambos lados aceptan que se ha establecido una conexión. A partir del momento en que se establece la conexión, comienza la transferencia de datos. Un congestionamiento puede ocurrir durante la transferencia de datos por dos razones: * Primero, una computadora de alta velocidad es capaz de generar tráfico más rápido que lo que la red tarda en transmitirla. * Segundo, si varias computadoras requieren mandar datagramnas simultáneamente a un mismo destino, éste puede experimentar un congestionamiento, aunque no se tenga un origen único. Cuando los datagramas llegan demasiado rápido como para que un host o gateway los procese, se almacenan temporalmente en la memoria. Si el tráfico continúa, tarde o temprano el host o el gateway agota su memoria y debe descartar cualquier otro datagrama que llegue. En vez de permitir que se pierda la información, el destino puede enviar un mensaje al origen indicando que no

está listo ("not ready" . Este indicador, que funciona como una señal de "pare", indica al emisor que debe dejar de enviar datos. Cuando el receptor está en condiciones de aceptar más datos, envía un indicador de transporte de "listo". Cuando recibe este indicador, el emisor puede reanudar la transmisión de segmentos.

Page 101: Semestre1 Ccna

Al finalizar la transferencia de datos, el host emisor envía una señal que indica que la transmisión ha finalizado. El host receptor ubicado en el extremo de la secuencia de datos acusa recibo del fin de la transmisión y la conexión se termina. 11.1.4 Intercambio de señales de tres vías TCP es un protocolo orientado a conexión. TCP requiere que se establezca una conexión antes de que comience la transferencia de datos. Para que se establezca o inicialice una conexión, los dos hosts deben sincronizar sus Números de secuencia iniciales (ISN: Initial Sequence Numbers). La sincronización se lleva a cabo a través de un intercambio de segmentos que establecen la conexión al transportar un bit de control denominado SYN (para la sincronización), y los ISN. Los segmentos que transportan el bit SYN también se denominan "SYN". Esta solución requiere un mecanismo adecuado para elegir un número de secuencia inicial y un proceso levemente complicado para intercambiar los ISN. La sincronización requiere que ambos lados envíen su propio número de secuencia inicial y que reciban una confirmación del intercambio en un acuse de recibo (ACK) de la otra parte. Cada una de las partes también debe recibir el INS de la otra parte y enviar un ACK de confirmación. La secuencia es la siguiente: 1. El origen (A) inicializa una conexión mandando un paquete de SYN hacia el host destino (B) indicando su INS = X: A—>B SYN, seq de A = X 2. B recibe el paquete, graba que el seq de A = X, responde con un ACK de X + 1, e indica que su INS = Y. El ACK de X + 1 significa que el host B recibió todos los octetos incluyendo X y ahora espera X + 1 siguiente: B—>A ACK, seq e A = X, SYN seq de B = Y, ACK = X + 1 3. A recibe el paquete de B, y sabe que el seq de B = Y, y responde con un ACK de Y + 1, el cual termina el proceso de conexión: A—>B ACK, seq de B = Y, ACK = Y + 1 Este intercambio se denomina intercambio de señales de tres vías. El intercambio de señales de tres vías es necesario dado que los números de secuencia no están conectados a ningún reloj global de la red y los protocolos TCP pueden tener distintos mecanismos para elegir el ISN. El receptor del primer SYN no tiene forma de saber si el segmento es un antiguo segmento demorado, a menos que recuerde el último número de secuencia utilizado en la conexión. No siempre es posible recordar ese número. Por lo tanto, debe solicitar al emisor que verifique este SYN. 11.1.5 Uso de ventanas Los paquetes de datos se deben enviar al receptor en el mismo orden en los que se transmitieron para lograr una transferencia de datos confiable, orientada a conexión. Los protocolos fallan si algún paquete se pierde, se daña, se duplica o se recibe en un orden distinto. Una solución sencilla es que el receptor acuse recibo de cada paquete antes de que se envíe el siguiente paquete. Si el emisor debe esperar recibir un acuse de recibo luego de enviar cada paquete, el rendimiento es lento. Por lo tanto, la mayoría de los protocolos confiables, orientados a conexión, permiten que haya más de un paquete pendiente en la red a la vez. Como se dispone de tiempo después de que el emisor termina de transmitir el paquete de datos y antes de que el emisor termina de procesar cualquier acuse de recibo, este rango se utiliza para transmitir más datos. El número de paquetes de datos que se permite que un emisor tenga pendientes sin haber recibido un acuse de recibo se denomina "ventana". TCP usa acuses de recibo expectante. Por "acuses de recibo expectante" se entiende que el número de acuse de recibo se refiere al siguiente paquete esperado. Por "uso de ventanas" se entiende que el tamaño de la ventana se negocia de forma dinámica durante la sesión TCP. El uso de ventanas es un mecanismo de control de flujo. El uso de ventanas requiere que el dispositivo origen reciba un acuse de recibo desde el destino después de transmitir una cantidad determinada de datos. El proceso del TCP receptor indica una "ventana" para el TCP emisor. Esta ventana especifica la cantidad de paquetes, comenzando por el número de acuse de recibo, que el proceso TCP receptor actualmente está preparado para recibir. Con una ventana de tamaño 3, el origen puede enviar 3 bytes al destino. El origen debe esperar entonces por un acuse de recibo (ACK). Si el destino recibe los 3 bytes, le manda un ACK al origen, el cual ahora ya puede enviar otros 3 bytes. Si el destino NO recibe los tres bytes, por que los buffers tienen un sobreflujo, entonces no manda un ACK. El origen al no recibir el ACK, sabe que tiene que retransmitir los mismos tres bytes que ya había enviado, y la razón de transmisión se decrementa. Como se muestra en la Figura , el emisor envía tres paquetes antes de recibir un ACK (acuse de recibo). Si el receptor puede manejar un tamaño de ventana de sólo dos paquetes, la ventana descarta el paquete tres, especifica tres como el siguiente paquete y especifica un nuevo tamaño de ventana de dos. El emisor envía los dos siguientes paquetes, pero continúa especificando un tamaño de ventana de tres. Esto significa que el

Page 102: Semestre1 Ccna

emisor continúa esperando recibir un acuse de recibo de tres paquetes de parte del receptor. El receptor responde solicitando el paquete cinco y especifica nuevamente un tamaño de ventana de dos. 11.1.6 Acuse de recibo La entrega confiable garantiza que una corriente de datos enviada desde un dispositivo sea entregada a través de un enlace de datos a otro dispositivo sin que se dupliquen o pierdan los datos. El acuse de recibo positivo con retransmisión es una técnica que garantiza la entrega confiable de los datos. El acuse de recibo positivo requiere que el receptor se comunique con el origen, enviando un mensaje de acuse de recibo una vez que recibe los datos. El emisor mantiene un registro de cada paquete de datos (segmento TCP) que envía y del que espera recibir un acuse de recibo. El emisor también inicia un temporizador cada vez que envía un segmento y retransmite el segmento si el temporizador expira antes de que llegue el acuse de recibo. La figura muestra un emisor que transmite los paquetes de datos 1, 2 y 3. El receptor acusa recibo de los paquetes solicitando el paquete 4. El emisor, al recibir el acuse de recibo, envía los paquetes 4, 5 y 6. Si el paquete 5 no llega a su destino el receptor acusa recibo con una petición para reenviar el paquete 5. El emisor vuelve a enviar el paquete 5 y luego recibe el acuse de recibo antes de transmitir el paquete 7. TCP suministra secuenciamiento de segmentos con un acuse positivo de recibo de referencia de envío. Cada segmento se ennumera antes de la transmisión. En la estación receptora, TCP reensambla los segmentos hasta formar un mensaje completo. Si falta un número de secuencia en la serie, el segmento se vuelve a transmitir. Los segmentos para los cuales no se acusa recibo dentro de un período determinado de tiempo darán como resultado una retransmisión. 11.1.7 Protocolo para el Control de la Transmisión (TCP) El Protocolo para el control de la transmisión (TCP) es un protocolo de Capa 4 orientado a conexión que suministra una transmisión de datos full-duplex confiable. TCP forma parte de la pila del protocolo TCP/IP. En un entorno orientado a conexión, se establece una conexión entre ambos extremos antes de que se pueda iniciar la transferencia de información. TCP es responsable por la división de los mensajes en segmentos, reensamblándolos en la estación destino, reenviando cualquier mensaje que no se haya recibido y reensamblando mensajes a partir de los segmentos. TCP suministra un circuito virtual entre las aplicaciones del usuario final. Los protocolos que usan TCP incluyen: * FTP (Protocolo de transferencia de archivos) * HTTP (Protocolo de transferencia de hipertexto) * SMTP (Protocolo simple de transferencia de correo) * Telnet Las siguientes son las definiciones de los campos de un segmento TCP: * Puerto origen: El número del puerto que realiza la llamada. * Puerto destino: El número del puerto al que se realiza la llamada. * Número de secuencia: El número que se usa para asegurar el secuenciamiento correcto de los datos entrantes. * Número de acuse de recibo: Siguiente octeto TCP esperado. * HLEN: La cantidad de palabras de 32 bits del encabezado. * Reservado: Establecido en cero. * Bits de código: Funciones de control, como configuración y terminación de una sesión. * Ventana: La cantidad de octetos que el emisor está dispuesto a aceptar. * Checksum (suma de comprobación): Suma de comprobación calculada a partir de los campos del encabezado y de los datos. * Indicador de mensaje urgente: Indica el final de la transmisión de datos urgentes. * Opción: Una opción definida actualmente, tamaño máximo del segmento TCP. * Datos: Datos de protocolo de capa superior. 11.1.8 Protocolo de Datagrama de Usuario (UDP) El Protocolo de datagrama de usuario (UDP: User Datagram Protocol) es el protocolo de transporte no orientado a conexión de la pila de protocolo TCP/IP. El UDP es un protocolo simple que intercambia datagramas sin acuse de recibo ni garantía de entrega. El procesamiento de errores y la retransmisión deben ser manejados por protocolos de capa superior. El UDP no usa ventanas ni acuses de recibo de modo que la confiabilidad, de ser necesario, se suministra a través de protocolos de la capa de aplicación. El UDP está diseñado para aplicaciones que no necesitan ensamblar secuencias de segmentos. Los protocolos que usan UDP incluyen:

Page 103: Semestre1 Ccna

* TFTP (Protocolo trivial de transferencia de archivos) * (SNMP) Protocolo simple de administración de red * DHCP (Protocolo de configuración dinámica del host) * DNS (Sistema de denominación de dominios) Las siguientes son las definiciones de los campos de un segmento UDP: * Puerto origen: Número del puerto que realiza la llamada * Puerto destino: Número del puerto al que se realiza la llamada * Longitud: Número de bytes que se incluyen en el encabezado y los datos * Checksum (suma de comprobación): Suma de comprobación calculada a partir de los campos del encabezado y de los datos. * Datos: Datos de protocolo de capa superior. 11.1.9 Números de puerto TCP y UDP Tanto TCP como UDP utilizan números de puerto (socket) para enviar información a las capas superiores. Los números de puerto se utilizan para mantener un registro de las distintas conversaciones que atraviesan la red al mismo tiempo. Los programadores del software de aplicación han aceptado usar los números de puerto conocidos que emite la Agencia de Asignación de Números de Internet (IANA: Internet Assigned Numbers Authority). Cualquier conversación dirigida a la aplicación FTP usa los números de puerto estándar 20 y 21. El puerto 20 se usa para la parte de datos y el puerto 21 se usa para control. A las conversaciones que no involucran ninguna aplicación que tenga un número de puerto bien conocido, se les asignan números de puerto que se seleccionan de forma aleatoria dentro de un rango específico por encima de 1023. Algunos puertos son reservados, tanto en TCP como en UDP, aunque es posible que algunas aplicaciones no estén diseñadas para admitirlos. Los números de puerto tienen los siguientes rangos asignados: * Los números inferiores a 1024 corresponden a números de puerto bien conocidos. * Los números superiores a 1024 son números de puerto asignados de forma dinámica. * Los números de puerto registrados son aquellos números que están registrados para aplicaciones específicas de proveedores. La mayoría de estos números son superiores a 1024. Los sistemas finales utilizan números de puerto para seleccionar la aplicación adecuada. El host origen asigna de forma dinámica los números del puerto de origen. Estos números son siempre superiores a 1023. 11.2 Capa de Aplicación 11.2.1 Introducción a la capa de aplicación TCP/IP Cuando se diseñó el modelo TCP/IP, las capas de sesión y de presentación del modelo OSI se agruparon en la capa de aplicación del modelo TCP. Esto significa que los aspectos de representación, codificación y control de diálogo se administran en la capa de aplicación en lugar de hacerlo en las capas inferiores individuales, como sucede en el modelo OSI. Este diseño garantiza que el modelo TCP/IP brinda la máxima flexibilidad, en la capa de aplicación, para los desarrolladores de software. Los protocolos TCP/IP que admiten transferencia de archivos, correo electrónico y conexión remota probablemente sean los más familiares para los usuarios de la Internet. Estos protocolos incluyen las siguientes aplicaciones: * Sistema de denominación de dominios (DNS) * Protocolo de transferencia de archivos (FTP) * Protocolo de transferencia de hipertexto (HTTP) * Protocolo simple de transferencia de correo (SMTP) * Protocolo simple de administración de red (SNMP) * Telnet 11.2.2 DNS La Internet está basada en un esquema de direccionamiento jerárquico. Este esquema permite que el enrutamiento se base en clases de direcciones en lugar de basarse en direcciones individuales. El problema que esto crea para el usuario es la asociación de la dirección correcta con el sitio de Internet. Es muy fácil olvidarse cuál es la dirección IP de un sitio en particular dado que no hay ningún elemento que permita asociar el contenido del sitio con su dirección. Imaginemos lo difícil que sería recordar direcciones IP de decenas, cientos o incluso miles de sitios de Internet. Se desarrolló un sistema de denominación de dominio para poder asociar el contenido del sitio con su dirección. El Sistema de denominación de dominios (DNS: Domain Name System) es un sistema utilizado en Internet para convertir los nombres de los dominios y de sus nodos de red publicados abiertamente en direcciones IP. Un dominio es un grupo de computadores asociados, ya sea por su ubicación geográfica o por el tipo de actividad

Page 104: Semestre1 Ccna

comercial que comparten. Un nombre de dominio es una cadena de caracteres, números o ambos. Por lo general, un nombre o una abreviatura que representan la dirección numérica de un sitio de Internet conforma el nombre de dominio. Existen más de 200 dominios de primer nivel en la Internet, por ejemplo: .us: Estados Unidos de Norteamérica .uk: Reino Unido También existen nombres genéricos, por ejemplo: .edu: sitios educacionales .com: sitios comerciales .gov: sitios gubernamentales .org: sitios sin fines de lucro .net: servicio de red Vea la Figura para una explicación detallada de estos dominios. 11.2.3 FTP FTP es un servicio confiable orientado a conexión que utiliza TCP para transferir archivos entre sistemas que admiten FTP. El propósito principal de FTP es transferir archivos desde un computador hacia otro copiando y moviendo archivos desde los servidores hacia los clientes, y desde los clientes hacia los servidores. Cuando los archivos se copian de un servidor, FTP primero establece una conexión de control entre el cliente y el servidor. Luego se establece una segunda conexión, que es un enlace entre los computadores a través del cual se transfieren los datos. La transferencia de datos se puede realizar en modo ASCII o en modo binario. Estos modos determinan la codificación que se usa para el archivo de datos que, en el modelo OSI, es una tarea de la capa de presentación. Cuando termina la transferencia de archivos, la conexión de datos se termina automáticamente. Una vez que se ha completado toda la sesión para copiar y trasladar archivos, el vínculo de comandos se cierra cuando el usuario se desconecta y finaliza la sesión. TFTP es un servicio no orientado a conexión que usa el Protocolo de datagramas del usuario (UDP). TFTP se usa en el router para transferir archivos de configuración e imágenes de Cisco IOS y para transferir archivos entre sistemas que admiten TFTP. TFTP está diseñado para ser pequeño y fácil de implementar. Por lo tanto, carece de la mayoría de las características de FTP. TFTP puede leer o escribir archivos desde o hacia un servidor remoto pero no pued listar los directorios y no tiene manera de proporcionar autenticación de usuario. Es útil en algunas LAN porque opera más rápidamente que FTP y, en un entorno estable, funciona de forma confiable. 11.2.4 HTTP El Protocolo de transferencia de hipertexto (http: Hypertext Transfer Protocol) funciona con la World Wide Web, que es la parte de crecimiento más rápido y más utilizada de Internet. Una de las principales razones de este crecimiento sorprendente de la Web es la facilidad con la que permite acceder a la información. Un navegador de Web es una aplicación cliente/servidor, lo que significa que requiere que haya tanto un componente de cliente como de servidor para que funcione. Un navegador de Web presenta datos en formatos multimediales en las páginas Web que usan texto, gráficos, sonido y vídeo. Las páginas Web se crean con un lenguaje de formato denominado Lenguaje de etiquetas por hipertexto (HTML: Hypertext Markup Language). HTML dirige a un navegador de Web en una página Web en particular para crear el aspecto de la página de forma específica. Además, HTML especifica la colocación del texto, los archivos y objetos que se deben transferir desde el servidor de Web al navegador de Web. Los hipervínculos hacen que la World Wide Web sea fácil de navegar. Un hipervínculo es un objeto, una frase o una imagen en una página Web. Cuando se hace clic en el hipervínculo, transfiere el navegador a otra página Web. La página Web a menudo contiene oculta dentro de su descripción HTML, una ubicación de dirección que se denomina Localizador de Recursos Uniforme (URL: Uniform Resource Locator). En el URL http://www.cisco.com/edu/, los caracteres "http://" le indican al navegador cuál es el protocolo que debe utilizar. La segunda parte, "www", es el nombre de host o nombre de una máquina determinada con una dirección IP determinada. La última parte identifica la carpeta específica que contiene la página web por defecto en el servidor. Un navegador de Web generalmente se abre en una página de inicio o "home" (de presentación). El URL de la página de presentación ya se ha almacenado en el área de configuración del navegador de Web y se puede modificar en cualquier momento. Desde la página de inicio, haga clic en uno de los hipervínculos de la página Web o escriba un URL en la barra de dirección del navegador. El navegador de Web examina el protocolo para determinar si es necesario abrir otro programa y, a continuación, emplea DNS para determinar la dirección IP del servidor de Web. Luego, las capas de transporte, de red, de enlace de datos y física trabajan de forma conjunta para iniciar la sesión con el servidor Web. Los datos transferidos al servidor HTTP contienen el nombre de carpeta de la ubicación de la página Web. Los datos también pueden contener un nombre de archivo específico para una página HTML. Si no se suministra ningún nombre, se usa el nombre que se especifica por defecto en la configuración en el servidor.

Page 105: Semestre1 Ccna

El servidor responde a la petición enviando todos los archivos de texto, audio, vídeo y de gráficos, como lo especifican las instrucciones de HTML, al cliente de Web. El navegador del cliente reensambla todos los archivos para crear una vista de la página Web y luego termina la sesión. Si se hace clic en otra página ubicada en el mismo servidor o en un servidor distinto, el proceso vuelve a empezar. 11.2.5 SMTP Los servidores de correo electrónico se comunican entre sí usando el Protocolo simple de transferencia de correo (SMTP) para enviar y recibir correo. El protocolo SMTP transporta mensajes de correo electrónico en formato ASCII usando TCP. Cuando un servidor de correo recibe un mensaje destinado a un cliente local, guarda ese mensaje y espera que el cliente recoja el correo. Hay varias maneras en que los clientes de correo pueden recoger su correo. Pueden usar programas que acceden directamente a los archivos del servidor de correo o pueden recoger el correo usando uno de los diversos protocolos de red. Los protocolos de cliente de correo más populares son POP3 e IMAP4, ambos de los cuales usan TCP para transportar datos. Aunque los clientes de correo usan estos protocolos especiales para recoger el correo, casi siempre usan SMTP para enviar correo. Dado que se usan dos protocolos distintos y, posiblemente, dos servidores distintos para enviar y recibir correo, es posible que los clientes de correo ejecuten una tarea y no la otra. Por lo tanto, generalmente es una buena idea diagnosticar los problemas de envío de correo electrónico y los problemas de recepción del correo electrónico por separado. Al controlar la configuración de un cliente de correo, se debe verificar que los parámetros de SMTP y POP o IMAP estén correctamente configurados. Una buena manera de probar si un servidor de correo se puede alcanzar es hacer Telnet al puerto SMTP (25) o al puerto POP3 (110). El siguiente formato de comandos se usa en la línea de comandos de Windows para probar la capacidad de alcanzar el servicio SMTP en el servidor de correo en la dirección IP 192.168.10.5: C:\>telnet 192.168.10.5 25 El protocolo SMTP no brinda muchas funciones de seguridad y no requiere ninguna autenticación. A menudo, los administradores no permiten que los hosts que no forman parte de su red usen el servidor SMTP para enviar o transmitir correo. Esto es para evitar que los usuarios no autorizados usen los servidores como transmisores de correo. 11.2.6 SNMP El Protocolo simple de administración de red (SNMP: Simple Network Management Protocol) es un protocolo de la capa de aplicación que facilita el intercambio de información de administración entre dispositivos de red. El SNMP permite que los administradores de red administren el rendimiento de la red, detecten y solucionen los problemas de red y planifiquen el crecimiento de la red. El SNMP usa UDP como su protocolo de capa de transporte. Una red administrada con SNMP está compuesta por los tres componentes clave que se detallan a continuación: * Sistema de administración de la red (NMS: Network Management System): El NMS ejecuta aplicaciones que monitorean y controlan los dispositivos administrados. La gran mayoría de los recursos de procesamiento y de memoria que se requieren para la administración de red se suministra a través del NMS. Deben existir uno o más NMS en cualquier red administrada. * Dispositivos administrados: Los dispositivos administrados son nodos de red que contienen un agente SNMP y que residen en un red administrada. Los dispositivos administrados recopilan y guardan información de administración y ponen esta información a disposición de los NMS usando SNMP. Los dispositivos administrados, a veces denominados elementos de red, pueden ser routers, servidores de acceso, switches y puentes, hubs, hosts del computador o impresoras. * Agentes: Los agentes son módulos del software de administración de red que residen en los dispositivos administrados. Un agente tiene conocimiento local de la información de administración y convierte esa información a un formato compatible con SNMP. 11.2.7 Telnet El software de cliente Telnet brinda la capacidad de conectarse a un host de Internet remoto que ejecuta una aplicación de servidor Telnet y, a continuación, ejecutar comandos desde la línea de comandos. Un cliente Telnet se denomina host local. El servidor Telnet, que usa un software especial denominado daemon, se denomina host remoto. Para realizar una conexión desde un cliente Telnet, se debe seleccionar la opción de conexión. Generalmente, un cuadro de diálogo indica que se debe colocar un nombre de host y un tipo de terminal. El nombre de host es la dirección IP o el nombre DNS del computador remoto. El tipo de terminal describe el tipo de emulación de terminal que el cliente Telnet debe ejecutar. La operación Telnet no utiliza la potencia de procesamiento del computador que realiza la transmisión. En lugar de ello, transmite las pulsaciones del teclado hacia el host

Page 106: Semestre1 Ccna

remoto y dirige los resultados hacia el monitor del host local. El procesamiento y almacenamiento se producen en su totalidad en el computador remoto. Telnet funciona en la capa de aplicación del modelo TCP/IP. Por lo tanto, Telnet funciona en las tres capas superiores del modelo OSI. La capa de aplicación se encarga de los comandos. La capa de presentación administra el formateo, generalmente ASCII. La capa de sesión realiza la transmisión. En el modelo TCP/IP, se considera que todas estas funciones forman parte de la capa de aplicación. Estudio guiado del cableado estructurado y proyecto de instalación Las destrezas relacionadas con el cableado estructurado son fundamentales para cualquier profesional de networking. El cableado estructurado crea una topología física en la que el cableado de telecomunicaciones se organiza en estructuras jerárquicas de terminaciones y de interconexiones según los estándares. La palabra telecomunicaciones se usa para expresar la necesidad de manejarse con cables de alimentación eléctrica, cables de teléfono y cable coaxial de televisión por cable, además de los medios de networking de cobre y fibra óptica. El cableado estructurado es un aspecto de la Capa 1 del modelo OSI. Si no existiera la conectividad a nivel de Capa 1, no se produciría la conmutación a nivel de Capa 2 y el proceso de enrutamiento a nivel de Capa 3 que hacen posible la transferencia de datos a través de redes de gran envergadura. A modo de explicación, en especial para los nuevos empleados que se dedican a networking, muchas de las tareas diarias tienen que ver con el cableado estructurado. Se usan muchos estándares distintos para definir las normas del cableado estructurado. Estos estándares varían a nivel mundial. Tres de los estándares de importancia fundamental para el cableado estructurado son ANSI TIA/EIA-T568-B, ISO/IEC 11801 e IEEE 802.x. El instructor le proporcionará los materiales para realizar un estudio guiado y un proyecto de instalación del cableado estructurado que sea adecuado para la región mundial correspondiente. Se aconseja completar un estudio guiado completo del cableado estructurado teórico y un proyecto práctico de instalación del cableado estructurado. La comprensión del cableado estructurado es fundamental para los administradores de red, técnicos de red e ingenieros de red. Los siguientes vínculos brindan recursos adicionales de cableado estructurado: * http://www.ieee.org * http://www.tiaonline.org * http://www.iso.org * http://www.linktionary.com/linktionary.html * http://www.siemon.com/standards/ * http://www.netday.org

Page 107: Semestre1 Ccna

Módulo 1: WAN y Routers Descripción general Una red de área amplia (WAN) es una red de comunicaciones de datos que cubre una extensa área geográfica. Las WAN presentan varias características importantes que las distinguen de las LAN. La primera lección de este módulo proporcionará un panorama de las tecnologías y protocolos WAN. También explicará las similitudes y diferencias entre las redes WAN y LAN. Resulta importante entender los componentes de la capa física de un router. Esta comprensión sienta las bases para otros conocimientos y habilidades necesarios para configurar los routers y administrar las redes enrutadas. Este módulo proporciona una detallada inspección de los componentes físicos internos y externos de un router. También describe las técnicas para establecer una conexión física entre las distintas interfaces de los routers. Los estudiantes que completen este módulo deberán poder: * Identificar las organizaciones responsables de los estándares WAN. * Explicar la diferencia entre una WAN y una LAN y el tipo de direcciones que utiliza cada una de ellas. * Describir la función de un router en una WAN * Identificar los componentes internos del router y describir sus funciones. * Describir las características físicas del router. * Identificar los puertos comunes de un router. * Conectar, correctamente, los puertos de Ethernet, de WAN serial y de consola. 1.1 Redes WAN 1.1.1 Introducción a las redes WAN Una red de área amplia (WAN) es una red de comunicación de datos que cubre una extensa área geográfica como por ejemplo un estado, una provincia o un país. A menudo, las WAN utilizan instalaciones de transmisión provistas por los proveedores de servicios de telecomunicaciones comunes, por ejemplo: las compañías telefónicas. Las características principales de las WAN son las siguientes: * Conectan dispositivos que están separados por áreas geográficas extensas. * Utilizan los servicios de proveedores de telecomunicaciones tales como las empresas operativas Regional Bell (RBOC), Sprint, MCI y VPM Internet Services Inc. * Usan conexiones seriales de diversos tipos para acceder al ancho de banda a través de áreas geográficas extensas. Una WAN difiere de una LAN (redes de área local) de varias formas. Por ejemplo, a diferencia de una LAN, que conecta estaciones de trabajo, periféricos, terminales y otros dispositivos dentro de un sólo edificio o en una área geográfica pequeña, una WAN realiza conexiones de datos a través de una amplia área geográfica. Las compañías usan las WAN para conectar sus distintos establecimientos de modo que se pueda intercambiar información entre oficinas distantes. Una WAN opera en la capa física y la capa de enlace de datos del modelo de referencia OSI. Interconecta las LAN que normalmente se encuentran separadas por grandes áreas geográficas. Las WAN permiten el intercambio de paquetes y tramas de datos entre routers y switches y las LAN que mantienen. Los siguientes dispositivos se usan en las WAN: * Los routers ofrecen varios servicios, entre ellos el internetworking y los puertos de interfaz WAN * Los módems incluyen servicios de interfaz de grado de voz; unidades de servicio de canal/unidades de servicio de datos (CSU/DSU) que realizan la interfaz con los servicios T1/E1; y los Adaptadores de terminal/Terminación de red 1 (TA/NT1) que realizan la interfaz con los servicios de Red digital de servicios integrados (RDSI) * Los servidores de comunicación concentran las comunicaciones de usuarios de acceso telefónico entrante y saliente. Los protocolos de enlace de datos WAN describen cómo se transportan las tramas entre sistemas a través de un solo enlace de datos. Incluyen protocolos diseñados para operar a través de servicios dedicados de conmutación de punto a punto, multipunto y multiacceso, como Frame Relay. Los estándares WAN son definidos y administrados por una serie de autoridades reconocidas, incluyendo las siguientes: * Sector de Normalización de Telecomunicaciones de la Unión Internacional de Telecomunicaciones (UIT-T), antiguamente denominado Comité Consultivo Internacional Telegráfico y Telefónico (CCITT) * Organización Internacional de Normalización (ISO) * Fuerza de Tareas de Ingeniería de Internet (IETF) * Asociación de Industrias Electrónicas (EIA)

Page 108: Semestre1 Ccna

1.1.2 Introducción a los routers de una WAN Un router es un tipo especial de computador. Cuenta con los mismos componentes básicos que un PC estándar de escritorio. Cuenta con una CPU, memoria, bus de sistema y distintas interfaces de entrada/salida. Sin embargo, los routers están diseñados para cumplir algunas funciones muy específicas que, en general, no realizan los computadores de escritorio. Por ejemplo, los routers conectan y permiten la comunicación entre dos redes y determinan la mejor ruta para la transmisión de datos a través de las redes conectadas. Al igual que los computadores, que necesitan sistemas operativos para ejecutar aplicaciones de software, los routers necesitan el software denominado Sistema operativo de internetworking (IOS) para ejecutar los archivos de configuración. Estos archivos de configuración contienen las instrucciones y los parámetros que controlan el flujo del tráfico entrante y saliente de los routers. Específicamente, a través de los protocolos de enrutamiento, los routers toman decisiones sobre cuál es la mejor ruta para los paquetes. El archivo de configuración especifica toda la información necesaria para una correcta configuración y uso de los protocolos enrutados y de enrutamiento seleccionados, o habilitados, en el router. Este curso mostrará cómo usar los comandos IOS para crear archivos de configuración a fin de que el router ejecute varias funciones de red esenciales. El archivo de configuración del router puede parecer complejo a primera vista, pero, al terminar el curso, no lo parecerá tanto. Los principales componentes internos del router son la memoria de acceso aleatorio (RAM), la memoria de acceso aleatorio no volátil (NVRAM), la memoria flash, la memoria de sólo lectura (ROM) y las interfaces. La RAM, también llamada RAM dinámica (DRAM), tiene las siguientes características y funciones: * Almacena las tablas de enrutamiento. * Guarda el caché ARP. * Guarda el caché de conmutación rápida. * Crea el buffer de los paquetes (RAM compartida). * Mantiene las colas de espera de los paquetes. * Brinda una memoria temporal para el archivo de configuración del router mientras está encendido. * Pierde el contenido cuando se apaga o reinicia el router. La NVRAM tiene las siguientes características y funciones: * Almacena el archivo de configuración inicial. * Retiene el contenido cuando se apaga o reinicia el router. La memoria flash tiene las siguientes características y funciones: * Guarda la imagen del sistema operativo (IOS) * Permite que el software se actualice sin retirar ni reemplazar chips en el procesador. * Retiene el contenido cuando se apaga o reinicia el router. * Puede almacenar varias versiones del software IOS. * Es un tipo de ROM programable, que se puede borrar electrónicamente (EEPROM) La memoria de sólo lectura (ROM) tiene las siguientes características y funciones: * Guarda las instrucciones para el diagnóstico de la prueba al inicio (POST). * Guarda el programa bootstrap y el software básico del sistema operativo. * Requiere del reemplazo de chips que se pueden conectar en el motherboard para las actualizaciones del software. Las interfaces tienen las siguientes características y funciones: * Conectan el router a la red para permitir que las tramas entren y salgan. * Pueden estar en el motherboard o en un módulo aparte. 1.1.3 Los routers en las LAN y WAN Aunque se pueda usar un router para segmentar las LAN, su uso fundamental es como dispositivo WAN. Los routers tienen interfaces LAN y WAN. De hecho, los routers se comunican entre sí por medio de conexiones WAN. Los routers son la columna vertebral de las grandes redes internas y de Internet. Operan en la capa 3 del modelo OSI, tomando decisiones basadas en las direcciones de red. Las dos funciones pricipales de un router son la determinación de la mejor ruta y la conmutación de paquetes a la interfaz correcta. Los routers logran esto por medio de la creación de tablas de enrutamiento y el intercambio de información de red de estas tablas con otros routers. Un administrador puede mantener las tablas de enrutamiento configurando las rutas estáticas, pero, por lo general, las tablas de enrutamiento se mantienen de forma dinámica a través del uso de un protocolo de

Page 109: Semestre1 Ccna

enrutamiento que intercambia información de la topología (ruta) de red con otros routers. Si, por ejemplo, un computador (x) necesita comunicarse con un computador (y) en un lugar del mundo y con otro computador (z) en otro lugar lejano, es necesario poder enrutar el flujo de la información y contar con rutas redundantes para asegurar la confiabilidad. Muchas decisiones y tecnologías de diseño de red tienen su origen en el deseo de que los computadores x, y, z puedan comunicarse entre sí. Una internetwork correctamente configurada brinda lo siguiente: * Direccionamiento coherente de extremo a extremo * Direcciones que representan topologías de red * Selección de la mejor ruta * Enrutamiento estático o dinámico. * Conmutación. 1.1.4 La función del router en una WAN Se dice que una WAN opera en la capa física y en la capa de enlace de datos. Esto no significa que las otras cinco capas del modelo OSI no se hallen en una WAN. Simplemente significa que las características que distinguen una red WAN de una LAN, en general, se encuentran en la capa física y en la capa de enlace de datos. En otras palabras, los estándares y protocolos que se usan en la capa 1 y capa 2 de las WAN son diferentes a aquellas que se utilizan en las mismas capas de las LAN. La capa física WAN describe la interfaz entre el equipo terminal de datos (DTE) y el equipo de transmisión de datos (DCE). Normalmente el DCE es el proveedor del servicio, mientras que el DTE es el dispositivo conectado. En este modelo, los servicios ofrecidos al DTE están disponibles a través de un módem o CSU/DSU. La función principal de un router es enrutar. El enrutamiento se produce en la capa de red, la capa 3, pero si la WAN opera en las capas 1 y 2, ¿un router es un dispositivo LAN o un dispositivo WAN? La respuesta es ambos, como sucede tan a menudo en el campo de las redes y telecomunicaciones. Un router puede ser exclusivamente un dispositivo LAN, o puede ser exclusivamente un dispositivo WAN, pero también puede estar en la frontera entre una LAN y una WAN y ser un dispositivo LAN y WAN al mismo tiempo. Una de las funciones de un router en una WAN es enrutar los paquetes en la capa 3, pero esta también es la función de un router en una LAN. Por lo tanto, el enrutamiento no es estrictamente una función de un router en la WAN. Cuando un router usa los protocolos y los estándares de la capa de enlace de datos y física asociados con las WAN, opera como dispositivo WAN. Las funciones principales de un router en una WAN, por lo tanto, no yacen en el enrutamiento sino en proporcionar las conexiones con y entre los diversos estándares de enlace de datos y físico WAN. Por ejemplo, un router puede tener una interfaz RDSI que usa encapsulamiento PPP y una interfaz serial que termina en una línea TI que usa encapsulamiento de Frame Relay. El router debe ser capaz de pasar una corriente de bits desde un tipo de servicio, por ejemplo el RDSI, a otro, como el T1, y cambiar el encapsulamiento de enlace de datos de PPP a Frame Relay. Muchos de los detalles de los protocolos WAN de Capa 1 y Capa 2 se tratarán más adelante en este curso, pero algunos de los protocolos y estándares WAN clave aparecen en la siguiente lista de referencia. Los protocolos y estándares de la capa física WAN: * EIA/TIA -232 * EIA/TIA -449 * V.24 * V.35 * X.21 * G.703 * EIA-530 * RDSI * T1, T3, E1 y E3 * xDSL * SONET (OC-3, OC-12, OC-48, OC-192) Los protocolos y estándares de la capa de enlace de datos WAN: * Control de enlace de datos de alto nivel (HDLC) * Frame Relay * Protocolo punto a punto (PPP) * Control de enlace de datos síncrono (SDLC) * Protocolo Internet de enlace serial (SLIP) * X.25 * ATM * LAPB * LAPD

Page 110: Semestre1 Ccna

* LAPF 1.1.5 El enfoque de la Academia en las actividades prácticas En el laboratorio de la academia, todas las redes estarán conectadas con cables Ethernet o seriales y los estudiantes podrán ver y tocar todo el equipo físicamente. A diferencia de la configuración del laboratorio, en el mundo real, los cables seriales no están conectados de forma consecutiva. En una situación real, un router puede estar en Nueva York mientras que el otro puede estar en Sidney, Australia. Un administrador en Sidney tendría que conectarse al router de Nueva York a través de la nube WAN a fin de diagnosticar las fallas en el router de Nueva York. En el laboratorio de la academia, la conexión consecutiva entre los cables DTE-DCE simula los dispositivos que conforman la nube WAN. La conexión desde la interfaz s0/0 de un router a la interfaz s0/1 del otro router simula toda la nube de circuitos. 1.2 Routers 1.2.1 Componentes internos de los routers Aunque la arquitectura exacta de un router varía de modelo a modelo, esta sección presentará los principales componentes internos. Las Figuras y muestran los componentes internos de algunos de los modelos de routers de Cisco. Los componentes básicos se describen en los siguientes párrafos. CPU: La unidad central de procesamiento. (CPU) ejecuta las instrucciones del sistema operativo. Estas funciones incluyen la inicialización del sistema, las funciones de enrutamiento y el control de la interfaz de red. La CPU es un microprocesador. Los grandes routers pueden tener varias CPU. RAM: La memoria de acceso aleatorio (RAM) se usa para la información de las tablas de enrutamiento, el caché de conmutación rápida, la configuración actual y las colas de paquetes. En la mayoría de los routers, la RAM proporciona espacio de tiempo de ejecución para el software IOS de Cisco y sus subsistemas. Por lo general, la RAM se divide de forma lógica en memoria del procesador principal y memoria compartida de entrada/salida (I/O). Las interfaces de almacenamiento temporal de los paquetes comparten la memoria de I/O compartida. El contenido de la RAM se pierde cuando se apaga la unidad. En general, la RAM es una memoria de acceso aleatorio dinámica (DRAM) y puede actualizarse agregando más Módulos de memoria en línea doble (DIMM). Memoria flash: La memoria flash se utiliza para almacenar una imagen completa del software IOS de Cisco. Normalmente el router adquiere el IOS por defecto de la memoria flash. Estas imágenes pueden actualizarse cargando una nueva imagen en la memoria flash. El IOS puede estar comprimido o no. En la mayoría de los routers, una copia ejecutable del IOS se transfiere a la RAM durante el proceso de arranque. En otros routers, el IOS puede ejecutarse directamente desde la memoria flash. Agregando o reemplazando los Módulos de memoria en línea simples flash (SIMMs) o las tarjetas PCMCIA se puede actualizar la cantidad de memoria flash. NVRAM: La memoria de acceso aleatorio no volátil (NVRAM) se utiliza para guardar la configuración de inicio. En algunos dispositivos, la NVRAM se implementa utilizando distintas memorias de solo lectura programables, que se pueden borrar electrónicamente (EEPROM). En otros dispositivos, se implementa en el mismo dispositivo de memoria flash desde donde se cargó el código de arranque. En cualquiera de los casos, estos dispositivos retienen sus contenidos cuando se apaga la unidad. Buses: La mayoría de los routers contienen un bus de sistema y un bus de CPU. El bus de sistema se usa para la comunicación entre la CPU y las intefaces y/o ranuras de expansión. Este bus transfiere los paquetes hacia y desde las interfaces. La CPU usa el bus para tener acceso a los componentes desde el almacenamiento del router. Este bus transfiere las instrucciones y los datos hacia o desde las direcciones de memoria especificadas. ROM: La memoria de solo lectura (ROM) se utiliza para almacenar de forma permanente el código de diagnóstico de inicio (Monitor de ROM). Las tareas principales de la ROM son el diagnóstico del hardware durante el arranque del router y la carga del software IOS de Cisco desde la memoria flash a la RAM. Algunos routers también tienen una versión más básica del IOS que puede usarse como fuente alternativa de arranque. Las memorias ROM no se pueden borrar. Sólo pueden actualizarse reemplazando los chips de ROM en los tomas. Interfaces: Las interfaces son las conexiones de los routers con el exterior. Los tres tipos de interfaces son la red de área local (LAN), la red de área amplia (WAN) y la Consola/AUX. Las interfaces LAN generalmente constan de uno de los distintos tipos de Ethernet o Token Ring. Estas interfaces tienen chips controladores que proporcionan la lógica necesaria para conectar el sistema a los medios. Las interfaces LAN pueden ser configuraciones fijas o modulares. Las interfaces WAN incluyen la Unidad de servicio de canal (CSU) integrada, la RDSI y la serial. Al igual que las interfaces LAN, las interfaces WAN también cuentan con chips controladores para las interfaces. Las interfaces

Page 111: Semestre1 Ccna

WAN pueden ser de configuraciones fijas o modulares. Los puertos de Consola/AUX son puertos seriales que se utilizan principalmente para la configuración inicial del router. Estos puertos no son puertos de networking. Se usan para realizar sesiones terminales desde los puertos de comunicación del computador o a través de un módem. Fuente de alimentación: La fuente de alimentación brinda la energía necesaria para operar los componentes internos. Los routers de mayor tamaño pueden contar con varias fuentes de alimentación o fuentes modulares. En algunos de los routers de menor tamaño, la fuente de alimentación puede ser externo al router. 1.2.2 Características físicas de un router No es necesario conocer la ubicación de los componentes físicos dentro del router para saber cómo utilizarlo. Sin embargo, en algunas situaciones, tales como agregar memoria, puede resultar muy útil. Los componentes exactos que se utilizan y su ubicación en el router varían de modelo a modelo. La Figura identifica los componentes internos de un router 2600. La Figura muestra algunos de los conectores externos de un router 2600. 1.2.3 Conexiones externas del routerr Los tres tipos de conexiones básicos de un router son las interfaces LAN, las interfaces WAN y los puertos de administración. Las interfaces LAN permiten que el router se conecte a los medios de la Red del área local. Por lo general, esta es una forma de Ethernet. Sin embargo, podría ser alguna otra tecnología LAN, como por ejemplo el Token Ring o FDDI. Las conexiones WAN proporcionan conexiones a través de un proveedor del servicio a un sitio lejano o a la Internet. Estas pueden ser conexiones seriales o cualquier número de otras interfaces WAN. En algunos tipos de interfaces WAN, se requiere de un dispositivo externo, como por ejemplo una CSU, para conectar el router a la conexión local del proveedor del servicio. En otros tipos de conexiones WAN, el router puede estar conectado directamente al proveedor del servicio. La función de los puertos de administración es diferente a la de las otras conexiones. Los enlaces LAN y WAN proporcionan conexiones por las cuales los paquetes se pasan. El puerto de administración proporciona una conexión basada en texto para la configuración y diagnóstico de fallas del router. Los puertos auxiliares y de consola constituyen las interfaces de administración comunes. Estos son puertos seriales asíncronos EIA-232. Están conectados a un puerto de comunicaciones de un computador. El computador debe ejecutar un programa de emulación de terminal para iniciar la sesión basada en texto con el router. A lo largo de esta sesión, el administrador de la red puede administrar el dispositivo. 1.2.4 Conexiones del puerto de administración El puerto de consola y el puerto auxiliar (AUX) son puertos de administración. Estos puertos seriales asíncronos no se diseñaron como puertos de networking. Uno de estos dos puertos es necesario para la configuración inicial del router. Se recomienda el puerto de consola para esta configuración inicial. No todos los routers cuentan con un puerto auxiliar. Cuando el router entra en servicio por primera vez, los parámetros de networking no están configurados. Por lo tanto, el router no puede comunicarse con ninguna red. Para prepararlo para la puesta en marcha y configuración iniciales, conecte una terminal ASCII RS-232 o un computador que emule una terminal ASCII terminal al puerto de consola del sistema. Entonces, se podrán ingresar los comandos de configuración para poner en marcha el router. Una vez que la configuración inicial se ha introducido en el router a través del puerto de consola o auxiliar, entonces, se puede conectar el router a la red para realizar un diagnóstico de fallas o monitoreo. Además, el router puede configurarse desde un lugar remoto haciendo telnet a una línea de terminal virtual o marcando el número de un módem conectado al puerto de consola o auxiliar del router. Se prefiere el puerto de consola al puerto auxiliar para el diagnóstico de fallas también. Esto es porque muestra por defecto la puesta en marcha del router, la depuración y los mensajes de error. El puerto de consola también puede usarse cuando aún no se han iniciado o cuando han fallado los servicios de networking. Por lo tanto, el puerto de consola se puede usar para los procedimientos de recuperación de contraseñas y de desastre. 1.2.5 Conexión de las interfaces de consola El puerto de consola es un puerto de administración que se utiliza para proveer acceso al router fuera de banda. Se usa para la configuración inicial de router, el monitoreo y los procedimientos de recuperación de desastres. Para realizar la conexión al puerto de consola, se usa un cable transpuesto o de consola y un adaptador RJ-45

Page 112: Semestre1 Ccna

a DB-9 para conectarse al PC. Cisco provee el adaptador necesario para realizar la conexión al puerto de consola. El PC o la terminal deben admitir la emulación de terminal VT100. Un software de emulación de terminal, como el HyperTerminal es el que generalmente se usa. Para conectar un PC a un router: 1. Configure el software de emulación de terminal en el PC para: * El puerto com adecuado * 9600 baudios * 8 bits de datos * Sin paridad * 1 bit de parada * Sin control de flujo 2. Conecte el conector RJ-45 del cable transpuesto al puerto de consola del router. 3. Conecte el otro extremo del cable transpuesto al adaptador RJ-45 a DB-9. 4. Conecte el adaptador DB-9 hembra al PC. 1.2.6 Conexión de las interfaces LAN En la mayoría de los entornos LAN, el router se conecta a la red LAN a través de una interfaz de Ethernet o Fast Ethernet. El router es un host que se comunica con la LAN por medio de un hub o de un switch. Se usa un cable de conexión directa para efectuar esta conexión. Una interfaz de router 10/100BaseTX router requiere cable de par trenzado no blindado Categoría 5 o superior (UTP) no obstante el tipo de router. En algunos casos, la conexión Ethernet del router se realiza directamente al computador o a otro router. Para este tipo de conexión, se requiere un cable de conexión cruzada. Es necesario usar la interfaz correcta. Si se conecta la interfaz incorrecta, es posible que se produzcan daños en el router o en otros dispositivos de networking. Varios tipos de conexiones usan el mismo estilo de conector. Por ejemplo, las interfaces CSU/DSU integradas, AUX, consola, BRI RDSI, Ethernet y Token Ring usan el mismo conector de ocho pins, RJ-45, RJ-48 o RJ-49. Para ayudar a diferenciar las conexiones del router, Cisco utiliza un esquema de códigos de color para identificar el uso del conector. La Figura muestra algunos de los que se usan en un router 2600. 1.2.7 Conexión de interfaces WAN Las conexiones WAN pueden tener un sinfín de formas. Una WAN realiza conexiones de datos a través de una amplia área geográfica usando distintos tipos de tecnologías. Generalmente, los proveedores arriendan estos servicios WAN. Entre los tipos de conexión WAN se encuentra los de línea arrendada, de conmutación de circuitos y de conmutación de paquetes. Para cada tipo de servicio WAN, el equipo terminal del abonado (CPE), a menudo un router, es el equipo terminal de datos (DTE). Este se conecta al proveedor del servicio por medio de un dispositivo del equipo de transmisión de datos (DCE), en general, un módem o una unidad de servicio de canal/unidad de servicio de datos (CSU/DSU). Este dispositivo se usa para convertir los datos del DTE a una forma aceptable para el proveedor del servicio WAN. Tal vez, las interfaces de router que más se usan en los servicios WAN son las interfaces seriales. Seleccionar el cable serial adecuado es tan sencillo como conocer las respuestas a las cuatro siguientes preguntas: * ¿Qué clase de conexión se hace al dispositivo Cisco? Los routers Cisco pueden usar diferentes conectores para las interfaces seriales. La interfaz de la izquierda es una interfaz serial inteligente. La interfaz de la derecha es una conexión DB-60. Esto hace que la selección del cable serial que conecta el sistema de la red a los dispositivos seriales sea una parte fundamental de la configuración de una WAN. * ¿Se conecta el sistema de red a un dispositivo de DTE o DCE? El DTE y el DCE son dos tipos de interfaces seriales que los dispositivos usan para comunicarse. La diferencia clave entre los dos es que el dispositivo DCE proporciona la señal reloj para las comunicaciones en el bus. La documentación del dispositivo debe especificar si es DTE o DCE. * ¿Qué tipo de estándar de señalización requiere el dispositivo? Cada dispositivo podría requerir un estándar serial diferente. Cada estándar define las señales del cable y especifica el conector del extremo del cable. Siempre se debe consultar la documentación del dispositivo para obtener información sobre el estándar de señalización. * ¿El cable requiere un conector macho o hembra? Si el conector tiene pins salientes visibles, es macho. Si el conector tiene tomas para los pins salientes, es hembra. Módulo 2: Introducción a los routers

Page 113: Semestre1 Ccna

Descripción general La tecnología de Cisco se basa en el sistema operativo de internetworking de Cisco (IOS), que es el software que controla las funciones de enrutamiento y conmutación de los dispositivos de red. Es esencial que el administrador de red cuente con una sólida comprensión acerca del IOS. Este módulo presenta una introducción de los fundamentos del IOS y provee ejercicios de familiarización con las características resaltantes del IOS. Todas las tareas de configuración de red, desde las más básicas hasta las más complejas, requieren un conocimiento sólido de los fundamentos básicos de la configuración del router. Este módulo brinda las herramientas y las técnicas para la configuración básica del router, las cuales se usarán a lo largo de todo el curso. Los estudiantes que completen este módulo deberán ser capaces de: * Describir las funciones del IOS * Describir el funcionamiento básico del IOS * Identificar algunas características resaltantes del IOS * Identificar los métodos para establecer una sesión de interfaz de línea de comando (CLI) con el router. * Pasar del modo de usuario ejecutivo (EXEC) al EXEC privilegiado y viceversa. * Establecer una sesión de HyperTerminal con un router * Iniciar una sesión con un router * Usar la función de ayuda en la interfaz de línea de comando * Diagnosticar errores de comando 2.1 Operación del software Cisco IOS 2.1.1 Funciones del software Cisco IOS Al igual que un computador, un router o switch no puede funcionar sin un sistema operativo. Cisco ha denominado a su sistema operativo el Sistema operativo de internetworking Cisco, o Cisco IOS. Es la arquitectura de software incorporada en todos los routers Cisco y también es el sistema operativo de los switches Catalyst. Sin un sistema operativo, el hardware no puede hacer ninguna función. El Cisco IOS brinda los siguientes servicios de red: * Funciones básicas de enrutamiento y conmutación * Acceso confiable y seguro a los recursos de la red * Escalabilidad de la red 2.1.2 Interfaz de usuario del router El software Cisco IOS usa una interfaz de línea de comando (CLI) como entorno de consola tradicional. El IOS es tecnología medular de Cisco, y está presente en casi todos sus productos. Sus detalles de operación pueden variar según los distintos dispositivos de red. Se puede acceder a este entorno a través de varios métodos. Una de las formas de acceder a la CLI es a través de una sesión de consola. La consola usa una conexión serial directa, de baja velocidad, desde un computador o terminal a la conexión de consola del router. Otra manera de iniciar una sesión de CLI es mediante una conexión de acceso telefónico, con un módem o módem nulo conectado al puerto AUX del router. Ninguno de estos métodos requiere que el router tenga configurado algún servicio de red. Otro de los métodos para iniciar una sesión de CLI es establecer una conexión Telnet con el router. Para establecer una sesión Telnet al router, se debe configurar por lo menos una interfaz con una dirección IP, y configurar las conexiones y contraseñas de las sesiones de terminal virtual. 2.1.3 Modos de interfaz de usuario La interfaz de línea de comando (CLI) de Cisco usa una estructura jerárquica. Esta estructura requiere el ingreso a distintos modos para realizar tareas particulares. Por ejemplo, para configurar una interfaz del router, el usuario debe ingresar al modo de configuración de interfaces. Desde el modo de configuración de interfaces, todo cambio de configuración que se realice, tendrá efecto únicamente en esa interfaz en particular. Al ingresar a cada uno de estos modos específicos, la petición de entrada del router cambia para señalar el modo de configuración en uso y sólo acepta los comandos que son adecuados para ese modo. El IOS suministra un servicio de intérprete de comandos, denominado comando ejecutivo (EXEC). Luego de ingresar un comando, el EXEC lo valida y ejecuta. Como característica de seguridad, el software Cisco IOS divide las sesiones EXEC en dos niveles de acceso. Estos niveles son el modo EXEC usuario y el modo EXEC privilegiado. El modo EXEC privilegiado también se denomina el modo enable. Las siguientes son las características resaltantes del modo EXEC usuario y del modo EXEC privilegiado: * El modo EXEC usuario permite sólo una cantidad limitada de comandos de monitoreo básicos. A menudo se le describe como un modo "de visualización solamente". El nivel EXEC usuario no permite ningún comando que

Page 114: Semestre1 Ccna

pueda cambiar la configuración del router. El modo EXEC usuario se puede reconocer por la petición de entrada: ">". * El modo EXEC privilegiado da acceso a todos los comandos del router. Se puede configurar este modo para que solicite una contraseña del usuario antes de dar acceso. Para mayor protección, también se puede configurar para que solicite una ID de usuario. Esto permite que sólo los usuarios autorizados puedan ingresar al router. Los comandos de configuración y administración requieren que el administrador de red se encuentre en el nivel EXEC privilegiado. Para ingresar al modo de configuración global y a todos los demás modos específicos, es necesario encontrarse en el modo EXEC privilegiado. El modo EXEC privilegiado se puede reconocer por la petición de entrada "#". Para ingresar al nivel EXEC privilegiado desde el nivel EXEC usuario, ejecute el comando enable con la petición de entrada ">" en pantalla. Si se ha configurado una contraseña, el router solicitará la contraseña. Por razones de seguridad, los dispositivos de red de Cisco no muestran la contraseña al ser introducida. Una vez que se ha introducido la contraseña correcta, la petición de entrada del router cambia a "#", lo que indica que el usuario se encuentra ahora en el nivel EXEC privilegiado. Si se introduce un signo de interrogación (?) en el nivel EXEC privilegiado, se mostrarán muchas opciones de comando, adicionales a las disponibles en el nivel EXEC usuario. 2.1.4 Características resaltantes del software Cisco IOS Cisco suministra imágenes de su IOS para muchos dispositivos, que abarcan una amplia gama de plataformas de productos de red. Para adecuar óptimamente el software Cisco IOS que requieren dichas plataformas, Cisco trabaja en el desarrollo de muchas y variadas imágenes del software Cisco IOS. Cada imagen provee una funcionalidad distinta, adecuada a las diversas plataformas de dispositivos, los recursos de memoria disponibles y las necesidades de los clientes. Aunque existen diversas imágenes del IOS para cada modelo y funcionalidad de los dispositivos de Cisco, la estructura básica de los comandos de configuración es la misma. Las destrezas de configuración y diagnóstico de fallas que se adquieren en cualquiera de los dispositivos, son útiles en una amplia gama de productos. El esquema de denominación de las distintas versiones del software Cisco IOS consta de tres partes: * La plataforma en la que se ejecuta la imagen. * Las características especiales que permite la imagen. * El lugar donde se ejecuta la imagen y si la imagen ha sido comprimida en formato zip. Las características específicas del IOS se pueden seleccionar mediante el Cisco Software Advisor. El Cisco Software Advisor es una herramienta interactiva que suministra la información más actualizada y permite la selección de opciones que satisfagan los requisitos de la red. Una de las consideraciones principales al momento de seleccionar una nueva imagen del IOS, es la compatibilidad con las memorias flash y RAM del router. En general, cuanto más reciente sea la versión y cuantas más características brinde, mayor será la cantidad de memoria que se requiera. Utilice el comando show version del dispositivo de Cisco para verificar cuál es la imagen en uso y la memoria flash disponible. Las páginas WWW de apoyo técnico de Cisco ofrecen herramientas para ayudar a determinar la cantidad de memoria flash y de memoria RAM que se requiere para cada imagen. Antes de instalar una nueva imagen del software Cisco IOS en el router, verifique si el router cumple con los requisitos de memoria de dicha imagen. Para ver la cantidad de memoria RAM, ejecute el comando show version: ...<resultado omitido>... cisco 1721 (68380) processor (revision C) with 3584K/512K bytes of memory. Esta línea indica la cantidad de memoria principal y compartida instalada en el router. Algunas plataformas usan una parte de la DRAM como memoria compartida. Los requisitos de memoria toman esto en cuenta, de modo que ambos números deben sumarse para conocer la cantidad de DRAM instalada en el router. Para conocer la cantidad de memoria flash, ejecute el comando show flash: GAD#show flash ...<resultado omitido>... 15998976 bytes total (10889728 bytes free) 2.1.5 Operación del software Cisco IOS Los dispositivos que usan el Cisco IOS tienen tres entornos o modos de operación distintos: * Monitor de la ROM * ROM de arranque

Page 115: Semestre1 Ccna

* Cisco IOS Los comandos de inicio del router generalmente se cargan en la RAM y ellos activan uno de estos entornos de operación. El registro de configuración puede ser utilizado por el administrador del sistema para controlar el modo de inicio por defecto del router. El monitor de la ROM ejecuta el proceso de bootstrap y provee funcionalidad y diagnósticos de bajo nivel. Se usa para la reactivación luego de una falla del sistema y para recuperar una contraseña perdida. No es posible ingresar al monitor de la ROM mediante alguna de las interfaces de red. Sólo se puede ingresar a él mediante una conexión física directa en el puerto de la consola. Cuando el router opera en modo ROM de arranque, sólo está disponible un subconjunto limitado de la funcionalidad del Cisco IOS. La ROM de arranque permite las operaciones de escritura en la memoria flash y se usa principalmente para reemplazar la imagen del software Cisco IOS que se guarda en la memoria flash. La imagen del software Cisco IOS se puede modificar en la ROM de arranque mediante el comando copy tftp flash, el cual copia una imagen del Cisco IOS almacenada en un servidor TFTP, en la memoria flash del router. El funcionamiento normal de un router requiere el uso de la imagen completa del software Cisco IOS tal como se guarda en la memoria flash. En algunos dispositivos, el IOS se ejecuta directamente desde la memoria flash. Sin embargo, la mayoría de los routers Cisco requieren que se cargue una copia del IOS en la RAM, y también se ejecuta desde la RAM. Algunas imágenes del IOS se guardan en la memoria flash en un formato comprimido y se deben expandir al cargarse en la RAM. Para ver la imagen y la versión del IOS en uso, use el comando show version, el cual muestra también el registro de configuración. El comando show flash se usa para verificar si el sistema tiene la memoria suficiente para cargar una nueva imagen del software Cisco IOS. 2.2 Activación de un router 2.2.1 Puesta en marcha inicial de los routers Cisco Un router se activa con la ejecución de tres elementos: el bootstrap, el sistema operativo y un archivo de configuración. Si el router no puede encontrar un archivo de configuración, entra en el modo de configuración inicial (setup). Una vez que el modo de configuración inicial se ha completado, se puede guardar una copia de respaldo del archivo de configuración en la RAM no volátil (NVRAM). El objetivo de las rutinas de inicio del software Cisco IOS es iniciar la operación del router. Para ello, las rutinas de inicio deben: * Asegurarse de que el hardware del router esté en perfectas condiciones y funcional. * Encontrar y cargar el software Cisco IOS. * Encontrar y aplicar el archivo de configuración inicial o entrar al modo de configuración inicial (setup). Cuando se activa un router Cisco, éste realiza una autocomprobación de encendido (POST). Durante esta comprobación, el router ejecuta diagnósticos desde la ROM a todos los módulos de hardware. Estos diagnósticos verifican la operación básica de la CPU, la memoria y los puertos de interfaz de red. Después de verificar las funciones de hardware, el router procede a inicializar el software. Después de la POST, se producen los siguientes eventos a medida que se inicializa el router: Paso 1 Se ejecuta el cargador genérico de bootstrap, que se encuentra en la ROM. Un bootstrap es un conjunto de instrucciones sencillo que comprueba el hardware e inicializa el IOS para el funcionamiento. Paso 2 El IOS puede estar en diversos lugares. El registro de arranque de la configuración indica la ubicación que se debe utilizar para cargar el IOS. Si el registro de arranque indica que se debe cargar de una flash, o de la red, los comandos del sistema de arranque en el archivo de configuración señalan el nombre y la ubicación exacta de la imagen. Paso 3 Se carga la imagen del sistema operativo. Cuando el IOS está cargado y funcionando, se muestra en pantalla del terminal de consola una lista de los componentes de hardware y software disponibles. Paso 4 El archivo de configuración guardado en la NVRAM se carga en la memoria principal y se ejecuta línea por línea. Los comandos de configuración inician los procesos de enrutamiento, proporcionan las direcciones para las interfaces y definen otras características operativas del router. Paso 5 Si no existe ningún archivo de configuración válido en la NVRAM, el sistema operativo busca un servidor TFTP disponible. Si no se encuentra ningún servidor TFTP, se inicia el diálogo de configuración inicial (setup). El modo de configuración inicial no debe ser el utilizado para configurar funciones complejas de protocolo en el router. El propósito del modo de configuración inicial es permitir que el administrador instale una configuración mínima en un router que no pueda ubicar una configuración de otra fuente.

Page 116: Semestre1 Ccna

En el modo de configuración inicial, las respuestas por defecto aparecen entre corchetes [ ] a continuación de la pregunta. Presione la tecla Intro para usar esos valores por defecto. Durante el proceso de configuración inicial, se puede presionar Control-C en cualquier momento para interrumpir el proceso. Al interrumpir la configuración inicial mediante Control-C, todas las interfaces quedan administrativamente inhabilitadas (shutdown). Una vez que se ha completado el proceso de configuración en modo de configuración inicial, se muestran las siguientes opciones: [0] Go to the IOS command prompt without saving this config. (Regresar a la petición de entrada de comandos del IOS sin guardar esta configuración). [1] Return back to the setup without saving this config. (Regresar a la configuración inicial y no guardar esta configuración). [2] Save this configuration to nvram and exit. (Guardar esta configuración en la NVRAM y salir). Enter your selection [2] (Indique su selección): 2.2.2 Indicadores LED del router Los routers Cisco usan indicadores LED para proporcionar información de estado. Los indicadores LED varían según el modelo del router Cisco. Un LED de interfaz indica la actividad de la interfaz correspondiente. Si un LED está apagado cuando la interfaz está activa y la interfaz está conectada correctamente, puede ser señal de un problema. Si la interfaz está en gran actividad, el LED estará continuamente encendido. El LED OK verde a la derecha del puerto AUX se enciende luego de que el sistema se ha inicializado correctamente. 2.2.3 Examen del arranque inicial del router Los ejemplos de las Figuras – muestran la información y los mensajes que se muestran durante el arranque inicial. Esta información varía, según las interfaces del router y la versión del software Cisco IOS. Las pantallas que se muestran en este gráfico son sólo de referencia y podrían no reflejar exactamente lo que la pantalla muestra en la consola. En la Figura , la frase "NVRAM invalid, possibly due to write erase" (NVRAM no válida, posiblemente por haber sido borrada), le indica al usuario que este router todavía no se ha configurado o que la NVRAM ha sido borrada. El router se debe configurar, el archivo de configuración se debe guardar en la NVRAM y luego se le debe configurar para que use el archivo de configuración en la NVRAM. El valor preconfigurado de fábrica del registro de inicio es 0x2102, el cual indica que el router debe intentar cargar una imagen del software Cisco IOS desde la memoria flash. En la Figura , el usuario puede determinar la versión del bootstrap y la versión del IOS en uso en el router, así como también el modelo, el procesador y la cantidad de memoria que contiene el router. Otra información suministrada en este gráfico incluye: * El número de interfaces * Los tipos de interfaces * La cantidad de NVRAM * La cantidad de memoria flash En la Figura , el usuario se le presenta la opción de ingresar al modo de configuración inicial. Recuerde que el propósito primordial del modo de configuración inicial es permitir que el administrador instale una configuración mínima en un router que no pueda ubicar una configuración de otra fuente. 2.2.4 Establecimiento de una sesión de HyperTerminal Todos los routers Cisco incluyen un puerto de consola serial asíncrono TIA/EIA-232 (RJ-45). Se requiere cables y adaptadores para conectar una terminal de consola al puerto de consola. Una terminal de consola es una terminal ASCII o un PC que ejecuta un software de emulación de terminal como, por ejemplo, HyperTerminal. Para conectar un PC que ejecuta un software de emulación de terminal al puerto de consola, use un cable transpuesto RJ-45 a RJ-45 con un adaptador hembra RJ-45 a DB-9. Los parámetros por defecto para el puerto de consola son 9600 baudios, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo en hardware. El puerto de consola no permite control de flujo en hardware. Siga los pasos a continuación para conectar una terminal al puerto de consola del router: Paso 1 Conecte la terminal mediante un cable transpuesto RJ-45 a RJ-45 y un adaptador RJ-45 a DB-9 o RJ-45 a DB-25. Paso 2 Configure la terminal o el software de emulación de terminal del PC para 9600 baudios, 8 bits de datos, sin paridad, 1 bit de parada, y sin control de flujo en hardware.

Page 117: Semestre1 Ccna

La Figura muestra una lista de los sistemas operativos y los softwares de emulación de terminal que se pueden utilizar. 2.2.5 Inicio de sesión en el router Para configurar los routers Cisco, se debe ingresar a la interfaz de usuario del router mediante una terminal o un acceso remoto. Al ingresar a un router, el usuario debe iniciar una sesión antes de ejecutar cualquier otro comando. Por razones de seguridad, el router tiene dos niveles de acceso a los comandos: * Modo EXEC usuario: Las tareas típicas incluyen la verificación del estado del router. En este modo no se permiten cambios en la configuración del router. * Modo EXEC privilegiado: Las tareas típicas incluyen cambios a la configuración del router. La petición de entrada de modo EXEC usuario se muestra al iniciar la sesión con el router. Los comandos disponibles en este nivel de usuario son un subconjunto de los comandos disponibles en el nivel EXEC privilegiado. En su mayor parte, estos comandos permiten que el usuario vea la información, sin cambiar la configuración del router. Para acceder al conjunto completo de comandos, se debe ingresar al modo EXEC privilegiado. En la petición de entrada ">" escriba enable (Habilitar). En la petición de entrada password: (contraseña), escriba la contraseña que se ha establecido con el comando enable secret. Se puede usar dos comandos para establecer una contraseña de acceso al modo EXEC privilegiado: enable password y enable secret. Si se usan ambos comandos, el comando enable secret tiene precedencia. Una vez que se han completado los pasos para iniciar la sesión, la petición de entrada cambia a "#", para señalar que se ha ingresado al modo EXEC privilegiado. Sólo se puede ingresar al modo de configuración global desde el modo EXEC privilegiado. Los siguientes son modos específicos a los que también se puede ingresar desde el modo de configuración global: * Interfaces * Subinterfaces * Línea * Router * Mapas de enrutamiento Para regresar al Modo de Usuario EXEC desde el modo Privilegiado, se puede usar el comando disable. Para regresar al modo EXEC privilegiado desde el modo de configuración global, ejecute exit o Control-Z. Control-Z también se puede usar para regresar directamente al modo EXEC privilegiado desde cualquier modo de configuración global secundario. 2.2.6 Ayuda mediante el teclado en la interfaz de línea de comando Al escribir un signo de interrogación (?) en la petición de entrada del modo usuario o del modo privilegiado, aparece una útil lista de los comandos disponibles. Observe el "--More--" (Más) que aparece en la parte inferior de la pantalla de muestra. La pantalla muestra varias líneas a la vez. La petición de entrada "--More--" que aparece en la parte inferior de la pantalla indica que hay más pantallas disponibles. Siempre que aparezca una petición de entrada "--More--", la siguiente pantalla disponible se puede visualizar presionando la barra espaciadora. Para visualizar sólo la siguiente línea, presione la tecla Return o Intro. Presione cualquier tecla para regresar a la petición de entrada. Para ingresar al modo EXEC privilegiado, escriba enable o su abreviatura ena. Esto puede hacer que el router pida al usuario una contraseña, que se haya fijado con anterioridad. Si se escribe un "?" (signo de interrogación) cuando se muestra la petición de entrada del modo EXEC privilegiado, la pantalla mostrará una lista de comandos más larga que la se obtiene cuando se muestra la petición de entrada del modo EXEC usuario. El resultado que aparece en pantalla varía, según el nivel del software Cisco IOS y la configuración del router. Si un usuario desea configurar el reloj del router pero no sabe cuál es el comando adecuado, puede usar la función de ayuda para conocer cuál es el comando correcto. El ejercicio siguiente ilustra uno de los muchos usos de la función de ayuda. La tarea es configurar el reloj del router. Considere que no conoce el comando correspondiente, y efectúe lo siguiente: Paso 1 Use ? para encontrar el comando adecuado para configurar el reloj. El resultado de la ayuda indica que se requiere el comando clock (reloj). Paso 2 Verifique la sintaxis para hacer cambios en la hora. Paso 3 Introduzca la hora actual en horas, minutos y segundos, tal como se muestra en la Figura . El sistema

Page 118: Semestre1 Ccna

indica que se debe suministrar información adicional para completar el comando. Paso 4 Presione Control-P (o la tecla flecha-arriba) para repetir el comando anterior automáticamente. Luego agregue un espacio y un signo de interrogación (?) para mostrar argumentos adicionales. Ahora se puede completar el comando. Paso 5 El acento circunflejo (^) y la respuesta de la ayuda indican un error. La ubicación del acento ^ le muestra el lugar donde está ubicado el posible problema. Para reingresar con la sintaxis correcta, vuelva a introducir el comando hasta el lugar donde se encuentra el acento circunflejo, y escriba luego un signo de pregunta (?). Paso 6 Introduzca el año, siguiendo la sintaxis correcta, y presione Retorno o Intro para ejecutar el comando. 2.2.7 Comandos ampliados de edición La interfaz de usuario incluye un modo de edición ampliado que suministra un conjunto de funciones de teclas de edición que permiten que el usuario edite una línea de comando a medida que se la escribe. Las secuencias clave que se indican en la Figura se pueden usar para mover el cursor sobre la línea de comando a efectos de realizar correcciones o cambios. Aunque el modo de edición ampliado se habilita automáticamente en la versión actual del software, se puede desactivar si interfiere con la interacción de guiones escritos. Para desactivar el modo de edición ampliado, escriba terminal no editing en la petición de entrada del modo EXEC privilegiado. El conjunto de comandos de edición incluye una función de desplazamiento horizontal para comandos que ocupen más de una línea en la pantalla. Cuando el cursor alcanza el margen derecho, la línea de comando se desplaza diez espacios hacia la izquierda. Los primeros diez caracteres de la línea se ocultan, pero el usuario puede desplazar la línea hacia atrás para verificar la sintaxis al principio del comando. Para desplazarse hacia atrás, presione Control-B o la tecla flecha-izquierda reiteradamente hasta llegar al principio del comando. Control-A hará que el usuario vuelva directamente al principio de la línea. En el ejemplo que aparece en la Figura , el comando ocupa más de una línea. Cuando el cursor alcanza por primera vez el final de una línea, la línea se desplaza diez espacios hacia la izquierda. El signo pesos ($) indica que la línea se ha desplazado hacia la izquierda. Cada vez que el cursor alcanza el final de la línea, la línea vuelve a desplazarse diez espacios hacia la izquierda. El resultado que aparece en pantalla varía, según el nivel del software Cisco IOS y la configuración del router. Control-Z es un comando que se usa para salir del modo de configuración. Hace que el usuario regrese a la petición de entrada del modo EXEC privilegiado. 2.2.8 Historial de comandos del router La interfaz de usuario proporciona un historial o registro de los comandos que se han introducido. Esta función es particularmente útil para reintroducir comandos largos o complejos. Mediante la función de historial de comandos, se puede completar las siguientes tareas: * Establecer el tamaño del buffer de historial de comandos * Reintroducir comandos * Desactivar la función de historial de comandos El historial de comandos se activa por defecto y el sistema recuerda diez líneas de comandos en el buffer del historial. Para cambiar la cantidad de líneas de comando que el sistema recuerda durante una sesión de terminal, utilice el comando terminal history size (tamaño del historial de terminal) o el comando history size. La cantidad máxima de comandos es 256. Para reintroducir comandos que se encuentran en el buffer del historial, a partir del comando más reciente, presione Control-P o la tecla flecha-arriba repetidas veces para reintroducir comandos sucesivamente más antiguos. Para regresar a los comandos más recientes en el buffer del historial, luego de introducir nuevamente los comandos con Control-P o la tecla flecha-arriba, presione Control-N o la tecla flecha-abajo repetidas veces para reintroducir comandos sucesivamente más recientes. Para mayor rapidez al escribir comandos, se puede escribir los caracteres exclusivos del comando. Presione la tecla Tab, y la interfaz completará la entrada. Si las letras distintivas identifican el comando, la tecla Tab simplemente señala que el router ha comprendido el comando específico que se desea introducir. En la mayoría de los computadores hay funciones adicionales de selección y copia disponibles. Se puede copiar y luego pegar o insertar una cadena anterior de comandos como el comando actual. 2.2.9 Diagnóstico de fallas de los errores de línea de comandos Los errores de línea de comandos se producen principalmente debido a errores de tecleado. Si un comando es escrito de forma incorrecta, la interfaz del usuario muestra el error mediante un indicador de error (^). El símbolo "^"aparece en el punto de la cadena del comando donde se introdujo el comando, palabra clave o argumento

Page 119: Semestre1 Ccna

incorrecto. El indicador de ubicación del error y el sistema de ayuda interactiva permiten al usuario localizar y corregir fácilmente los errores de sintaxis. Router#clock set 13:32:00 23 February 99 ^ Invalid input detected at "^" marker. El acento circunflejo (^) y la respuesta de ayuda indican que se ha producido un error en 99. Para que se muestre la sintaxis correcta, escriba el comando hasta el punto donde se ha producido el error y luego escriba un signo de interrogación (?): Router#clock set 13:32:00 23 February ? <1993-2035> Year Router#clock set 13:32:00 23 February Introduzca el año, siguiendo la sintaxis correcta, y presione Retorno para ejecutar el comando. Router#clock set 13:32:00 23 February 1999 Si una línea de comando es escrita de forma incorrecta y se presiona la tecla Intro, se puede presionar la tecla flecha-arriba para reescribir el último comando. Use las teclas flecha-derecha e izquierda para mover el cursor hasta el lugar donde se cometió el error. Luego escriba la corrección necesaria. Si es necesario eliminar algo, use la tecla retroceso. 2.2.10 El comando show version El comando show version muestra información acerca de la versión del software Cisco IOS en uso en el router. Esto incluye el registro de configuración y el registro de arranque. La Figura muestra la siguiente información acerca del comando show version: * Versión e información descriptiva del IOS * Versión de la ROM de bootstrap * Versión de la ROM de arranque * Tiempo de actividad del router * Último método de reinicio * Ubicación y nombre del archivo de imagen del sistema * Plataforma del router * Valores del registro de configuración Use el comando show version para identificar la imagen del IOS del router y la fuente de arranque. Módulo 3: Configuración del router Descripción general Configurar un router para que realice las complejas tareas de redes y telecomunicaciones puede resultar un desafío. No obstante, los procedimientos iniciales para configurar el router no son difíciles en absoluto. Si se ejercitan estos procedimientos y los pasos para cambiar de un modo a otro, las configuraciones más complejas no serán tan abrumadoras. Este módulo introduce los modos básicos de configuración del router y brinda oportunidades para practicar configuraciones sencillas. La meta de todo administrador de red debe ser la de disponer de configuraciones claras y fáciles de entender, y que las mismas sean respaldadas periódicamente. El Cisco IOS brinda al administrador una gama de herramientas que permiten agregar comentarios al archivo de configuración, para efectos de documentación. De la misma manera que un programador competente documenta cada paso de su programación, un administrador de red debe documentar cuanta información le sea posible, en caso de que otra persona deba asumir la responsabilidad de la red. Luego de completar este módulo, los estudiantes deben ser capaces de: * Dar nombre a un router * Fijar contraseñas * Examinar los comandos show * Configurar una interfaz serial * Configurar una interfaz Ethernet * Realizar cambios a un router * Guardar los cambios realizados a un router

Page 120: Semestre1 Ccna

* Configurar una descripción de interfaz * Configurar un mensaje del día * Configurar tablas de host * Comprender la importancia de hacer copias de respaldo y de documentar 3.1 Configuración del router 3.1.1 Modos de comando CLI Todos los cambios de configuración hechos mediante la interfaz de línea de comando (CLI) en un router Cisco, se realizan desde el modo de configuración global. Se ingresa a otros modos de operación más específicos según sea el cambio de configuración requerido, pero dichos modos específicos son todos subconjuntos del modo de configuración global. Los comandos del modo de configuración global se utilizan en un router para ejecutar comandos de configuración que afectan al sistema como un todo. El siguiente comando lleva al router al modo de configuración global y permite ingresar comandos desde la terminal: NOTA: La petición de entrada cambia para indicar que el router se encuentra ahora en modo de configuración global. Router#configure terminal Router(config)# El modo de configuración global, a menudo abreviado como 'global config', es el modo de configuración principal. Estos son algunos de los modos de operación a los que se puede ingresar desde el modo de configuración global: * Modo de interfaz * Modo de línea * Modo router * Modo de subinterfaz * Modo de controlador Al ingresar a estos modos específicos, la petición de entrada del router cambia para señalar el modo de configuración en uso. Todo cambio de configuración que se realice, tendrá efecto únicamente en las interfaces o procesos relativos a ese modo particular. Al escribir exit desde alguno de estos modos de configuración específicos, el router regresa al modo de configuración global. Al presionar Control-Z, se sale por completo del modo de configuración y el router vuelve al modo EXEC privilegiado. 3.1.2 Configuración del nombre de router Se debe asignar un nombre exclusivo al router, como la primera tarea de configuración. Esto se realiza en el modo de configuración global, mediante los siguientes comandos: Router(config)#hostname Tokyo Tokyo(config)#

Al presionar la tecla Enter, la petición de entrada ya no mostrará el nombre de host por defecto ('Router' , sino el nombre de host que se acaba de configurar, 'Tokio', en el ejemplo anterior. 3.1.3 Configuración de contraseñas de router Las contraseñas restringen el acceso a los routers. Se debe siempre configurar contraseñas para las líneas de terminales virtuales y para la línea de consola. Las contraseñas también se usan para controlar el acceso al modo EXEC privilegiado, a fin de que sólo los usuarios autorizados puedan hacer cambios al archivo de configuración. Aunque es opcional, se recomienda configurar una contraseña para la línea de comando. Los siguientes comandos se utilizan para fijar dicha contraseña. Router(config)#line console 0 Router(config-line)#password <password> Router(config-line)#login Se debe fijar contraseñas en una o más de las líneas de terminales virtuales (VTY), para habilitar el acceso remoto de usuarios al router mediante Telnet. Normalmente, los routers Cisco permiten cinco líneas de VTY

Page 121: Semestre1 Ccna

identificadas del 0 al 4, aunque según el hardware particular, puede haber modalidades diferentes para las conexiones de VTY. Se suele usar la misma contraseña para todas las líneas, pero a veces se reserva una línea mediante una contraseña exclusiva, para que sea posible el acceso al router aunque haya demanda de más de cuatro conexiones. Los siguientes comandos se utilizan para establecer contraseñas en las líneas de VTY: Router(config)#line console 0 Router(config-line)#password <password> Router(config-line)#login Los comandos enable password y enable secret se utilizan para restringir el acceso al modo EXEC privilegiado. El comando enable password se utiliza sólo si no se ha configurado previamente enable secret. Se recomienda habilitar siempre enable secret, ya que a diferencia de enable password, la contraseña estará siempre cifrada. Estos son los comandos que se utilizan para configurar las contraseñas: Router(config)#enable password<password> Router(config)#enable secret<password> En ocasiones es deseable evitar que las contraseñas se muestren en texto sin cifrar al ejecutar los comandos show running-config o show startup-config. El siguiente comando se utiliza para cifrar las contraseñas al mostrar los datos de configuración: Router(config)#service password-encryption El comando service password-encryption aplica un cifrado débil a todas las contraseñas sin cifrar. El comando enable secret <password> usa un fuerte algoritmo MD5 para cifrar. 3.1.4 Uso de los comandos show Los numerosos comandos show se pueden utilizar para examinar el contenido de los archivos en el router y para diagnosticar fallas. Tanto en el modo EXEC privilegiado como en el modo EXEC de usuario, el comando show ? muestra una lista de los comandos show disponibles. La lista en el modo EXEC privilegiado es considerablemente más larga que en el modo EXEC de usuario. * show interfaces: Muestra las estadísticas completas de todas las interfaces del router. Para ver las estadísticas de una interfaz específica, ejecute el comando show interfaces seguido de la interfaz específica y el número de puerto. Por ejemplo: Router#show interfaces serial 0/1 * show controllers serial: muestra información específica de la interface de hardware. El comnado debe incluir el número de puerto y/o de ranura de la interfaz. Por ejemplo: Router#show controllers serial 0/1 * show clock: Muestra la hora fijada en el router * show hosts: Muestra la lista en caché de los nombres de host y sus direcciones * show users: Muestra todos los usuarios conectados al router * show history: Muestra un historial de los comandos ingresados * show flash: Muestra información acerca de la memoria flash y cuáles archivos IOS se encuentran almacenados allí * show version: Despliega la información acerca del routery de la imagen de IOS que esté corriendo en al RAM. Este comando también muestra el valor del registro de configuración del router * show ARP: Muestra la tabla ARP del router * show protocols: Muestra el estado global y por interface de cualquier protocolo de capa 3 que haya sido configurado * show startup-configuration: Muestra el archivo de configuración almacenado en la NVRAM * show running-configuration: Muestra el contenido del archivo de configuración activo o la configuración para una interfaz específica o información de un map class 3.1.5 Configuración de una interfaz serial Es posible configurar una interfaz serial desde la consola o a través de una línea de terminal virtual. Siga estos pasos para configurar una interfaz serial: 1. Ingrese al modo de configuración global 2. Ingrese al modo de configuración de interfaz 3. Especifique la dirección de la interfaz y la máscara de subred 4. Si el cable de conexión es DCE, fije la velocidad de sincronización. Omita este paso si el cable es DTE. 5. Active la interfaz. A cada interfaz serial activa se le debe asignar una dirección de IP y la correspondiente máscara de subred, si

Page 122: Semestre1 Ccna

se requiere que la interfaz enrute paquetes de IP. Configure la dirección de IP mediante los siguientes comandos: Router(config)#interface serail 0/0 Router(config-if)#ip address <ip address> <netmask> Las interfaces seriales necesitan una señal de sincronización que controle la comunicación. En la mayoría de los entornos, un dispositivo DCE, por ejemplo un CSU, proporciona dicha señal. Por defecto, los routers Cisco son dispositivos DTE, pero se pueden configurar como dispositivos DCE. En los enlaces seriales interconectados directamente, como en un entorno de laboratorio, un extremo debe considerarse como un DCE y debe proporcionar la señal de sincronización. Se activa la sincronización y se fija la velocidad mediante el comando clock rate. Las velocidades de sincronización disponibles (en bits por segundo) son: 1200, 2400, 9600, 19200, 38400, 56000, 64000, 72000, 125000, 148000, 500000, 800000, 1000000, 1300000, 2000000, ó 4000000. No obstante, es posible que algunas de estas velocidades no estén disponibles en algunas interfaces seriales, según su capacidad. El estado predeterminado de las interfaces es APAGADO, es decir están apagadas o inactivas. Para encender o activar una interfaz, se ingresa el comando no shutdown. Cuando resulte necesario inhabilitar administrativamente una interfaz a efectos de mantenimiento o de diagnóstico de fallas, se utiliza el comando shutdown para desactivarla. En el entorno del laboratorio, se utilizará una velocidad de sincronización de 56000. Los comandos para fijar la velocidad de sincronización y activar una interfaz serial son los siguientes: Router(config)#interface serial 0/0 Router(config-if)#clock rate 56000 Router(config-if)#no shutdown 3.1.6 Cambios en la Configuración Si es necesario modificar una configuración, se debe ir al modo de operación apropiado e ingresar el comando correspondiente. Por ejemplo, para activar una interfaz, ingrese al modo de configuración global, luego al modo de configuración de interfaces, y ejecute el comando no shutdown. Para comprobar los cambios, use el comando show running-config. Este comando mostrará la configuración en uso. Si las variables que se muestran no son las esperadas, es posible corregir el entorno efectuando uno o más de los siguientes pasos: * Ejecute la forma no de un comando de configuración. * Vuelva a cargar el sistema para regresar a la configuración original de configuración almacenada en la NVRAM. * Copie un archivo de configuración desde un servidor TFTP. * Elimine el archivo de configuración de inicio con erase startup-config, luego reinicie el router e ingrese al modo de configuración inicial (setup). Para guardar las variables en la configuración de inicio en NVRAM, ejecute el siguiente comando al estar en EXEC privilegiado: Router#copy running-config startup-config 3.1.7 Configuración de una interfaz Ethernet Se puede configurar una interfaz Ethernet desde la consola o a través de una línea de terminal virtual. A cada interfaz Ethernet activa se le debe asignar una dirección de IP y la correspondiente máscara de subred, si se requiere que la interfaz enrute paquetes de IP. Para configurar una interfaz Ethernet, siga estos pasos: 1. Ingrese al modo de configuración global 2. Ingrese al modo de configuración de interfaz 3. Especifique la dirección de la interfaz y la máscara de subred 4. Active la interfaz El estado predeterminado de las interfaces es APAGADO, es decir están apagadas o inactivas. Para encender o activar una interfaz, se ejecuta el comando no shutdown. Cuando resulte necesario inhabilitar administrativamente una interfaz a efectos de mantenimiento o diagnóstico de fallas, se utiliza el comando shutdown para desactivarla. 3.2 Pasos finales de la configuración

Page 123: Semestre1 Ccna

3.2.1 Importancia de los estándares de configuración Dentro de las organizaciones, es importante el desarrollo de estándares para los archivos de configuración. Eso permite controlar el número de archivos de configuración que se deben mantener, y también el mecanismo y el lugar donde se almacenan. Un estándar es un conjunto de reglas o procedimientos, de uso generalizado o de carácter oficial. Si una organización carece de estándares, una interrupción del servicio podría causar el caos en la red. Para poder administrar una red, es necesario disponer de estándares de apoyo técnico centralizado. Se debe resolver adecuadamente asuntos como configuraciones, seguridad, rendimiento y otros, para que la red funcione sin tropiezos. La creación de estándares para la solidez de una red contribuye a reducir su complejidad, las paradas no planificadas, y el riesgo ante sucesos que pudieran tener un impacto negativo sobre su rendimiento. 3.2.2 Descripción de interfaces La descripción de las interfaces se emplea para indicar información importante, como puede ser la relativa a un router distante, el número de un circuito, o un segmento de red específico. La descripción de la interfaz puede ayudar a un usuario de red a recordar información específica de la interfaz, como por ejemplo, a cuál red atiende dicha interfaz. La descripción es sólo un comentario escrito acerca de la interfaz. Aunque la descripción se encuentra en los archivos de configuración en la memoria del router, no tiene efectos sobre su operación. Las descripciones se crean siguiendo un formato estándar de acuerdo al tipo de interfaz. La descripción puede incluir el propósito y la ubicación de la interfaz, otros dispositivos o localidades geográficas conectadas a la interfaz, y también identificadores de circuitos. Las descripciones permiten que el personal de apoyo comprenda mejor el alcance de los problemas relacionados con una interfaz, y permite resolver los problemas con mayor celeridad. 3.2.3 Configuración de la descripción de interfaces Para configurar una descripción de interfaz, ingrese al modo de configuración global. Desde el modo de configuración global, ingrese al modo de configuración de interfaz. Use el comando description seguido de la información. Pasos a seguir: Ingrese al modo de configuración global, mediante el comando configure terminal. Ingrese al modo de interfaz específica (por ejemplo interfaz Ethernet 0) interface ethernet 0. Introduzca el comando description, seguido de la información que se deberá mostrar. Por ejemplo, Red XYX, Edificio 18. Salga del modo de interfaz y regrese al modo EXEC privilegiado mediante el comando ctrl-z. Guarde los cambios de configuración en la NVRAM mediante el comando copy running-config startup-config. A continuación se da dos ejemplos de descripciones de interfaz: interface Ethernet 0 description LAN Engineering, Bldg.2 interface serial 0 description ABC network 1, Circuit 1 3.2.4 Mensajes de inicio de sesión El mensaje de inicio de sesión se muestra al usuario al momento de hacer login en el router, y se usa para comunicar información de interés a todos los usuarios de la red, tales como avisos de próximas interrupciones del sistema. Todos pueden ver los mensajes de inicio de sesión. Por lo tanto, se debe poner especial atención a la redacción de dichos mensajes. "Bienvenido" es una invitación a entrar al router, y probablemente no sea un mensaje apropiado. Un mensaje de inicio de sesión debe advertir que sólo los usuarios autorizados deben intentar el acceso. Un mensaje del estilo "¡Este es un sistema protegido, ingrese únicamente si está autorizado!" advierte a los visitantes que el ir más allá está prohibido y es ilegal. 3.2.5 Configuración del mensaje del día (MOTD)

Page 124: Semestre1 Ccna

Se puede configurar un mensaje del día (MOTD), para que sea mostrado en todas las terminales conectadas. Ingrese al modo de configuración global para configurar un texto como mensaje del día (MOTD). Use el comando banner motd, seguido de un espacio y un delimitador, como por ejemplo el signo numeral (#). Escriba el mensaje del día (MOTD) seguido de un espacio y de nuevo el delimitador. Siga estos pasos para crear y mostrar un mensaje del día: 1. Ingrese al modo de configuración global, mediante el comando configure terminal. 2. Escriba el comando banner motd # Escriba aquí el mensaje del día #. 3. Guarde los cambios mediante el comando copy running-config startup-config. 3.2.6 Resolución de nombres de host La resolución de nombres de host es el mecanismo que utiliza un computador para relacionar un nombre de host con una dirección de IP. Para poder usar nombres de host para comunicarse con otros dispositivos de IP, los dispositivos de red, como los routers, deben poder vincular los nombres de host con las direcciones de IP. Una lista de nombres de host y sus direcciones de IP asignadas se denomina tabla de host. Una tabla de host puede incluir todos los dispositivos de una red. Cada dirección de IP individual puede estar vinculada a un nombre de host. El software Cisco IOS mantiene un archivo de vínculos entre los nombres de host y las direcciones de IP, el cual es utilizado por los comandos EXEC. Este caché agiliza el proceso de conversión de nombres a direcciones. Los nombres de host, a diferencia de los nombres DNS, sólo tienen vigencia en el router en el que están configurados. La tabla de host permite que el administrador de red pueda escribir tanto el nombre del host, como puede ser Auckland, como la dirección de IP, para conectarse por Telnet a un host remoto. 3.2.7 Configuración de tablas de host Para asignar nombres de host a direcciones, primero ingrese al modo de configuración global. Ejecute el comando ip host seguido del nombre de destino y todas las direcciones de IP con las que se puede llegar al dispositivo. Esto asigna el nombre del host a cada una de sus direcciones IP. Para llegar al host, use un comando telnet o ping con el nombre del router o una dirección de IP que esté vinculada al nombre del router. El procedimiento para configurar la tabla de host es: 1. Ingrese al modo de configuración global en el router. 2. Ejecute el comando ip host seguido del nombre del router y todas las direcciones de IP asociadas con las interfaces en cada router. 3. Repita el proceso, hasta que todos los routers de la red hayan sido configurados. 4. Guarde la configuración en la NVRAM. 3.2.8 Hacer copias de respaldo y documentar la configuración La configuración de los dispositivos de la red determina el comportamiento de la red. La administración de las configuraciones de los dispositivos incluye las siguientes tareas: * Confeccionar una lista y comparar los archivos de configuración de los dispositivos activos * Almacenar los archivos de configuración en servidores de red * Instalar y actualizar software Se deben guardar copias de respaldo de los archivos de configuración, en caso de que surja algún problema. Dichas copias se pueden guardarse en un servidor de red, un un servidor TFTP, o en un disco que se conserve en un lugar seguro. Se debe documentar la información, y la misma debe también guardarse fuera de línea. 3.2.9 Copiar, modificar y pegar configuraciones Se puede almacenar una copia de la configuración en uso, en un servidor TFTP. Se puede usar el comando copy running-config tftp, como se muestra en la Figura , para almacenar la configuración en uso del router en un servidor TFTP. Para ello, realice las siguientes tareas: Paso 1 Ejecute el comando copy running-config tftp. Paso 2 Introduzca la dirección de IP del host en el cual se almacenará la configuración. Paso 3 Introduzca el nombre a ser asignado al archivo de configuración.

Page 125: Semestre1 Ccna

Paso 4 Confirme sus selecciones respondiendo yes (sí) cada vez que se le solicite que lo haga. Se puede usar un archivo de configuración ubicado en alguno de los servidores para configurar un router. Para ello, realice las siguientes tareas: 1. Ingrese al modo de configuración, mediante el comando copy tftp running-config, como se muestra en la Figura . 2. Con la petición de entrada del sistema en pantalla, seleccione un archivo de configuración de host o de red. El archivo de configuración de red contiene comandos relacionados con todos los routers y servidores de terminales de la red. El archivo de configuración de host contiene comandos relativos a un router en particular. Con la petición de entrada en pantalla, introduzca la dirección de IP opcional del host remoto en el cual se encuentra el archivo de configuración. En la línea de comandos del sistema, escriba la dirección IP del host remoto donde se encuentra el servidor TFTP. En este ejemplo, el router se configura desde el servidor TFTP con la dirección IP 131.108.2.155. 3. Con la petición de entrada en pantalla, introduzca el nombre del archivo de configuración o acepte el nombre preconfigurado. La convención de nombres para los archivos se basa en UNIX. Los nombres preconfigurados de los archivos son hostname-config para el archivo de host y network-config para el archivo de configuración de red. En el entorno DOS, los nombres están limitados a ocho caracteres, más una extensión de tres caracteres (por ejemplo, router.cfg). Confirme el nombre del archivo de configuración y la dirección del servidor TFTP que suministra el sistema. Observe que, en la Figura , la petición de entrada del router cambia a tokyo de forma inmediata. Esto comprueba que la reconfiguración ocurre tan pronto como se descarga el nuevo archivo. La configuración del router también se puede guardar en un disco. Para ello se efectúa una captura de texto en el router, para luego guardar dicho texto en el disco o en el disco duro. Cuando sea necesario copiar el archivo nuevamente al router, use las funciones estándar de edición de un programa emulador de terminal para pegar (paste) el archivo de comandos en el router. Módulo 4: Información sobre otros dispositivos Descripción general A veces los administradores de red se enfrentan a situaciones en las que la documentación de la red se encuentra incompleta o es imprecisa. El Protocolo de descubrimiento de Cisco (CDP) puede resultar una herramienta útil para estas situaciones ya que ayuda a crear un panorama de la red. El CDP es un protocolo propietario de Cisco, destinado al descubrimiento de vecinos y es independiente de los medios y el protocolo. Aunque el CDP solamente mostrará información sobre los vecinos conectados de forma directa, este constituye una herramienta de gran utilidad. En muchos casos, después de configurar un router por primera vez, el administrador de red descubre que resulta difícil o inconveniente conectarse directamente al router para efectuar cambios de configuración u otras tareas. Telnet es una aplicación basada en TCP/IP que permite la conexión remota con la interfaz de línea de comando del router (CLI) con el propósito de efectuar tareas de configuración, monitoreo y diagnóstico de fallas. Constituye una herramienta esencial para el profesional de redes. Los estudiantes que completen este módulo deberán poder: * Activar y desactivar el CDP * Utilizar el comando show cdp neighbors * Determinar cuáles dispositivos vecinos están conectados a cuáles interfaces locales * Usar el CDP para recaudar información de las direcciones de red de los dispositivos vecinos * Establecer una conexión Telnet * Verificar una conexión Telnet * Desconectarse de la sesión Telnet * Suspender una sesión Telnet * Realizar pruebas de conectividad alternativas * Diagnosticar las fallas de las conexiones de terminales remotas 4.1 Detección y conexión con vecinos 4.1.1 Introducción al CDP El Protocolo de descubrimiento de Cisco (CDP) es un protocolo de Capa 2 que conecta los medios físicos inferiores con los protocolos de red de las capas superiores, como lo indica la Figura . El CDP se utiliza para obtener información sobre los dispositivos vecinos, tal como los tipos de dispositivos conectados, las interfaces de router a las que están conectados, las interfaces empleadas para realizar las conexiones, y los números de modelo de los dispositivos. El CDP es independiente de los medios y los protocolos, y es ejecutable en todos los equipos Cisco sobre el Protocolo de acceso de subred (SNAP). La versión 2 del CDP (CDPv2) es la versión más reciente del protocolo. El Cisco IOS (Versión 12.0(3) o posteriores) admiten el CDPv2. En las versiones de Cisco IOS 10.3 a 12.0(3)T, la función de CDPv1 está

Page 126: Semestre1 Ccna

activada de manera predeterminada. Cuando arranca un dispositivo Cisco, el CDP se inicia de forma automática y permite que el dispositivo detecte los dispositivos vecinos que también están ejecutando el CDP. Este protocolo de Cisco se ejecuta en la capa de enlace de datos y permite que dos sistemas obtengan información entre sí, incluso si estos sistemas están utilizando protocolos de capa de red diferentes. Cada dispositivo configurado con CDP envia mensajes periódicos, conocidos como anuncios (advertisements), a dispositivos directamente conectados con éste. Cada dispositivo publica al menos una dirección en la cual puede recibir mensajes del Protocolo de administración de red simple (SNMP). Las publicaciones también contienen información sobre el "tiempo de existencia" o tiempo de espera, que indica la cantidad de tiempo que los dispositivos de recepción deben mantener la información CDP antes de descartarla. Además, cada dispositivo escucha los mensajes periódicos CDP enviados por otros con el fin de obtener información de los dispositivos vecinos. 4.1.2 La información obtenida con CDP El CDP se usa básicamente para detectar todos los dispositivos Cisco que se encuentran conectados directamente a un dispositivo local. Use el comando show cdp neighbors para visualizar las actualizaciones CDP en el dispositivo local. La Figura muestra un ejemplo de cómo el CDP presenta la información reunida a un administrador de red. Cada router que ejecuta el CDP intercambia información de protocolo con sus vecinos. El administrador de red puede mostrar los resultados de este intercambio de información CDP en una consola conectada al router local. El administrador de red utiliza el comando show cdp neighbors para mostrar la información sobre las redes conectadas de forma directa al router. CDP provee información sobre cada dispositivo vecino CDP al transmitir los valores de longitud y tipo (TLVs), que constan de bloques de información incorporados en las publicaciones CDP. Los TLV del dispositivo que muestra el comando show cdp neighbors incluyen los siguientes: * Identificador del dispositivo * Interfaz local * Tiempo de espera * Capacidad * Plataforma * Identificador del puerto Los siguientes TLVs se incluyen sólo en CDPv2: * Administración de nombres de dominio VTP * VLAN Nativas * Full o half-duplex Observe que el router inferior de la figura no está conectado directamente al router de la consola del administrador. Para obtener información CDP acerca de este dispositivo, el administrador necesitaría iniciar una sesión Telnet a un router conectado directamente al dispositivo. 4.1.3 Implementación, monitoreo y mantenimiento del CDP Los siguientes comandos se utilizan para implementar, monitorear y mantener la información CDP: * cdp run * cdp enable * show cdp traffic * clear cdp counters * show cdp * show cdp entry {*|nombre-dispositivo[*][protocolo | versión]} * show cdp interface [número de tipo] * show cdp neighbors [número de tipo] [detalle] El comando cdp run se utiliza para activar el CDP de forma global en el router. El CDP se activa de forma global.automáticamente. El comando cdp enable se utiliza para activar el CDP en una interfaz en particular. En la versión 10.3 o superior del Cisco IOS, el CDP se activa de manera automática en todas las interfaces soportadas para enviar y recibir información de CDP. El CDP podría activarse en cada una de las interfaces de los dispositivos utilizando el comando cdp enable. 4.1.4 Creación de un mapa de red del entorno El CDP se diseñó e implementó como un protocolo sencillo, de baja carga general. Aunque una trama CDP

Page 127: Semestre1 Ccna

puede ser pequeña, puede recuperar una gran cantidad de información útil sobre los dispositivos Cisco vecinos conectados. Esta información puede utilizarse para crear un mapa de red de los dispositivos conectados. Los dispositivos conectados a los dispositivos vecinos pueden detectarse al usar Telnet para conectarse con ellos, y con el comando show cdp neighbors para detectar cuáles dispositivos se encuentran conectados a esos vecinos. 4.1.5 Desactivación del CDP Para desactivar el CDP a nivel global, utilice el comando no CDP run en el modo de configuración global. Si se desactiva el CDP de forma global, no es posible activar las interfaces individuales para CDP. En la versión 10.3 o superior del Cisco IOS, el CDP se activa automáticamente en todas las interfaces soportadas para enviar y recibir información CDP. Sin embargo, en algunas interfaces, tales como las asíncronas, el CDP se desactiva de forma automática. Si el CDP se encuentra desactivado utilice el comando CDP enable en el modo de configuración de interfaz. Para desactivar el CDP en una interfaz específica después de haberlo activado, utilice el comando no CDP enable en el modo de configuración de interfaz. 4.1.6 Diagnóstico de fallas en el CDP Los siguientes comandos pueden utilizarse para mostrar la versión, la información de actualización, las tablas y el tráfico: * clear cdp table * clear cdp counters * show cdp traffic * show debugging * debug cdp adjacency * debug cdp events * debug cdp ip * debug cdp packets * cdp timer * cdp holdtime * show cdp 4.2 Información sobre los dispositivos remotos 4.2.1 Telnet Telnet es un protocolo de terminal virtual que forma parte del conjunto de protocolos TCP/IP. Permite realizar conexiones a los hosts remotos. Telnet brinda la capacidad de una terminal de red o una conexión remota. Telnet es un comando IOS EXEC que se utiliza para verificar el software de capa de aplicación entre el origen y destino. Constituye el mecanismo de prueba más completo disponible. Telnet funciona en la capa de aplicación del modelo OSI. Telnet depende de TCP para garantizar la entrega correcta y ordenada de datos entre el cliente y el servidor. Un router puede tener varias sesiones Telnet entrantes de forma simultánea. Se utiliza el rango cero a cuatro para especificar cinco líneas VTY o de Telnet. Estas cinco sesiones Telnet entrantes pueden ocurrir a la vez. Cabe destacar que verificar la conectividad de la capa de aplicación es un subproducto de Telnet. El uso principal de Telnet consiste en la conexión remota a dispositivos de red. Telnet es un programa de aplicación universal y simple. 4.2.2 Establecer y verificar una conexión Telnet El comando Telnet IOS EXEC le permite al usuario establecer una sesión Telnet de un dispositivo Cisco a otro. Con la implementación de TCP/IP de Cisco, no es necesario ingresar el comando connect o telnet para establecer una conexión Telnet. Puede ingresarse el nombre del host o la dirección IP del router remoto. Para finalizar una sesión Telnet, use los comandos EXEC exit o logout. Para iniciar una sesión Telnet es posible utilizar cualquiera de las siguientes alternativas: Denver>connect paris Denver>paris Denver>131.108.100.152 Denver>telnet paris Para que un nombre funcione, debe haber una tabla de nombre de host o acceso a DNS. De otra forma, se debe ingresar la dirección IP del router remoto.

Page 128: Semestre1 Ccna

Es posible usar Telnet para realizar una prueba para determinar si se puede o no acceder a un router remoto. Como lo indica la Figura , si se puede establecer una sesión Telnet de forma exitosa para conectar el router York al París, entonces una prueba básica de la conexión en red se ha realizado con éxito. Esta operación puede realizarse en los niveles EXEC usuario o privilegiado. Si el acceso remoto puede lograrse por medio de otro router, entonces al menos una aplicación TCP/IP puede llegar al router remoto. Una conexión Telnet exitosa indica que la aplicación de las capas superiores funciona correctamente. Si es posible establecer una sesión Telnet a un router, pero no es posible establecerla a otro router, es probable que existan problemas en el direccionamiento, denominación o permiso de acceso específicos que han causado la falla de Telnet. Es posible que el problema exista en ese router o en el router que falló como objetivo de Telnet. En este caso, el próximo paso es intentar ping, como se estudiará más adelante en esta lección. El uso de ping permite la prueba de conexiones de extremo a extremo en la capa de la red. Una vez completado el Telnet, termine la sesión en el host. La conexión Telnet finalizará por defecto después de diez minutos de inactividad o cuando se ingrese el comando exit en la petición de entrada EXEC. 4.2.3 Desconexión y suspensión de las sesiones Telnet Una función importante del comando Telnet es la capacidad de suspenderlo. Sin embargo, un problema potencial surge cuando una sesión Telnet queda suspendida y se presiona la tecla Intro. Esta tecla le indica al software Cisco IOS que reanude la conexión a la última conexión Telnet suspendida. Se utiliza con frecuencia la tecla Intro. Por lo tanto, cuando una sesión Telnet queda suspendida, es posible reconectarse a otro router inadvertidamente. Esto implica ciertos riesgos a la hora de realizar cambios a la configuración o utilizar comandos EXEC. Siempre ponga atención especial en qué router se está utilizando al suspender una sesión Telnet. Una sesión queda suspendida por un tiempo limitado; para reanudar la sesión Telnet que se encuentra suspendida, sólo hay que presionar Intro. El comando show sessions mostrará las sesiones Telnet que están activas. El procedimiento para desconectar una sesión Telnet es el siguiente: * Introduzca el comando disconnect * Siga el comando con el nombre o dirección IP del router. Ejemplo: Denver>disconnect paris El procedimiento para suspender una sesión Telnet es el siguiente: * Presione Ctrl-Shift-6, luego x * Introduzca el nombre del router o la dirección IP 4.2.4 Operaciones Telnet avanzadas Puede haber varias sesiones Telnet abiertas de forma simultánea. El usuario puede alternar entre estas sesiones. El número de sesiones abiertas que se permiten a la vez se define con el comando session limit. Para alternar entre sesiones al abandonar una sesión y reanudar una abierta previamente, utilice los comandos indicados en la Figura . Una nueva conexión puede iniciarse desde la petición de entrada EXEC. Los routers de la serie 2500 tienen un límite de 5 sesiones. Los routers series 2600 y 1700 tiene un límite predeterminado de 5 sesiones. Varias sesiones Telnet pueden utilizarse y suspenderse por medio de la secuencia de teclas Ctrl-Shift-6, y luego x. La sesión puede reanudarse presionando la tecla Intro. Si se utiliza la tecla Intro, el software Cisco IOS reanuda la conexión a la última conexión Telnet suspendida. Si se utiliza el comando resume, se requiere una identificación de conexión. La identificación de conexión se muestra al utilizar el comando show sessions. 4.2.5 Pruebas alternativas de conectividad Como ayuda para diagnosticar la conectividad básica de red, muchos protocolos de red admiten un protocolo de eco. Los protocolos de eco se utilizan para verificar el enrutamiento de los paquetes de protocolo. El comando ping envía un paquete al host destino y luego espera un paquete de respuesta de ese host. Los resultados de este protocolo de eco pueden ayudar a evaluar la confiabilidad de ruta a host, las demoras en la ruta y si se puede acceder al host, o si éste está funcionando. Este es un mecanismo de prueba básico. Esta operación puede realizarse en los niveles EXEC usuario o privilegiado. El objetivo de ping 172.16.1.5 de la Figura responde de forma exitosa a los cinco datagramas enviados. Los signos de exclamación (!) indican cada eco exitoso. Si se visualizan uno o más puntos (.) en lugar de signos de

Page 129: Semestre1 Ccna

exclamación, significa que se venció el tiempo de espera de la aplicación en el router mientras esperaba un eco de paquete proveniente del objetivo de ping. El comando EXEC de usuario ping puede utilizarse para diagnosticar la conectividad básica de la red. El comando ping usa ICMP (Protocolo de mensajes de control en Internet). El comando traceroute es la herramienta ideal para descubrir dónde se envían los datos en una red. El comando traceroute es similar al comando ping, salvo que en lugar de probar la conectividad de extremo a extremo, traceroute verifica cada paso en el proceso. Esta operación puede realizarse en los niveles EXEC usuario o privilegiado. En este ejemplo, se rastrea la ruta de York a Roma. La ruta también debe pasar por Londres y París. Si no es posible llegar a alguno de estos routers, se devolverán tres asteriscos (*) en lugar del nombre del router. El comando traceroute seguirá intentando alcanzar el siguiente paso hasta que se utilice la secuencia de escape Ctrl-Shift-6. Una prueba básica de verificación también se concentra en la capa de red. Utilice el comando show ip route para determinar si existe una entrada en la tabla de enrutamiento para la red objetivo. Este comando se estudiará con mayor detalle en un módulo posterior de este curso. El procedimiento para utilizar el comando ping es el siguiente: * ping dirección IP o nombre del destino * Presione la tecla Intro El procedimiento para utilizar el comando traceroute es el siguiente: * traceroute dirección IP o nombre del destino. * Presione la tecla Intro 4.2.6 Diagnóstico de fallas en las cuestiones de direccionamiento IP Los problemas de direccionamiento son los problemas más comunes que surgen en las redes IP. Los siguientes tres comandos se utilizan para realizar el diagnóstico de fallas relacionado con las direcciones: * ping utiliza el protocolo ICMP para verificar la conexión de hardware y la dirección IP de la capa de red. Este es un mecanismo de prueba básico. * telnet verifica el software de capa de aplicación entre las estaciones origen y destino. Constituye el mecanismo de prueba más completo disponible. * traceroute permite la localización de fallas en la ruta desde el origen hasta el destino. Trace utiliza los valores de tiempo de existencia para generar mensajes desde cada router que se encuentra a lo largo de la ruta. Módulo 5: Administración del software Cisco IOS Descripción general Un router Cisco no puede funcionar sin el sistema operativo de internetworking de Cisco (IOS). Cada router Cisco tiene una secuencia de arranque predeterminada, para ubicar y cargar el IOS. Este módulo describe las etapas y la importancia de dicha secuencia de arranque. Los dispositivos de internetworking de Cisco requieren del uso de varios archivos para su funcionamiento. Estos incluyen las imágenes del sistema operativo de internetworking de Cisco (IOS) y los archivos de configuración. Un administrador que desee mantener una operación confiable y sin interrupciones de su red, debe poner mucha atención a estos archivos, para garantizar que se usen las versiones adecuadas y que se creen todas las copias de respaldo que sean necesarias. Este módulo también describe el sistema de archivos de Cisco y suministra herramientas para su administración eficiente. Los estudiantes que completen este módulo deberán ser capaces de: * Identificar las etapas de la secuencia de arranque del router * Determinar cómo el dispositivo ubica y carga el software Cisco IOS * Usar los comandos boot system * Identificar los valores del registro de configuración * Describir brevemente los archivos que usa el Cisco IOS y sus funciones * Hacer una lista de la ubicación de los distintos tipos de archivos en el router * Describir brevemente las partes del nombre del IOS * Guardar y restaurar archivos de configuración mediante TFTP y mediante copiar y pegar * Cargar una imagen del IOS mediante TFTP * Cargar una imagen del IOS mediante XModem * Verificar el sistema de archivos mediante los comandos show

Page 130: Semestre1 Ccna

5.1 Secuencia de arranque del router y su verificación 5.1.1 Etapas de la secuencia de arranque del router El objetivo de las rutinas de arranque del software Cisco IOS es activar el funcionamiento del router. El router debe proveer un rendimiento confiable en lo que respecta a sus funciones de interconexión de redes Para lograrlo, las rutinas de inicio deben efectuar lo siguiente: * Comprobar el hardware del router. * Encontrar y cargar el software Cisco IOS. * Encontrar y ejecutar los comandos de configuración, que abarcan las funciones de protocolo y las direcciones de las interfaces. La Figura ilustra la secuencia y los servicios empleados para inicializar el router. 5.1.2 Mecanismo de ubicación y carga del software Cisco IOS La fuente predefinida del Cisco IOS depende de la plataforma de hardware, pero por lo general el router busca los comandos boot system almacenados en la NVRAM. El Cisco IOS permite varias alternativas. Se puede especificar otras fuentes del software, o el router puede usar su propia secuencia de reserva o alterna para cargarlo. Los valores particulares del registro de configuración permiten las alternativas siguientes. * Se puede especificar comandos boot system del modo de configuración global para introducir fuentes de reserva, a fin de que el router las utilice en forma secuencial. El router utiliza estos comandos según sea necesario, en forma secuencial, cuando arranca de nuevo. * Si el router no encuentra comandos boot system en la NVRAM, el sistema, por defecto, usa el Cisco IOS que se encuentra en la memoria flash. * Si no hay un servidor TFTP disponible, el router cargará una versión limitada del IOS almacenada en ROM. 5.1.3 Uso de los comandos boot system Los siguientes ejemplos muestran el uso de diversos comandos boot system, los cuales especifican la secuencia de reserva o alterna para el arranque del Cisco IOS. Los tres ejemplos muestran valores del boot system los cuales especifican que la imagen del Cisco IOS sea cargada en primer lugar desde la memoria flash, luego desde un servidor de red y, por último, desde la ROM: * Memoria flash: Se puede cargar una imagen del sistema desde la memoria flash. Tiene la ventaja de que la información en la memoria flash no se ve afectada por fallas en la red, las cuales sí afectan la carga de imágenes del sistema desde servidores TFTP. * Servidor de red: En caso de que el contenido de la memoria flash esté dañado, se puede cargar una imagen del sistema desde un servidor TFTP. * ROM: Si la memoria flash está dañada y tampoco se puede cargar la imagen desde un servidor, la opción final programada es arrancar desde la ROM. Sin embargo, es probable que la imagen del sistema en la ROM sea sólo una porción del software Cisco IOS, y que no incluya los protocolos, las funciones y las configuraciones del Cisco IOS completo. Además, si el software se ha actualizado desde que se adquirió el router, la versión en la ROM puede ser más antigua. El comando copy running-config startup-config guarda los comandos en la NVRAM. El router ejecutará los comandos boot system según lo requiera, en el orden en el que se introdujeron originalmente al hacer la configuración. 5.1.4 Registro de configuración El valor del campo de arranque del registro de configuración determina el orden en el cual el router busca la información de arranque del sistema. Los valores por defecto del registro de configuración se pueden cambiar con el comando config-register del modo de configuración global. El argumento de este comando es un número hexadecimal. El registro de configuración en la NVRAM es de 16 bits. Sus cuatro bits inferiores (un dígito hexadecimal) conforman el campo de arranque. Para garantizar que el valor de los 12 bits superiores se conserve, primero debe recuperarse el valor en uso del registro de configuración, mediante el comando show version. Luego ejecute el comando config-register, con las modificaciones del valor del último dígito hexadecimal. Para cambiar el campo de arranque del registro de configuración, siga estas pautas: * Para ingresar al modo de monitor de la ROM, fije 0xnnn0 como el valor del registro de configuración, donde nnn representa el valor anterior de los dígitos del campo diferentes al de arranque. Este valor fija los bits del campo de arranque en 0000 binario. Arranque el sistema operativo manualmente. Para ello ejecute el comando b al estar en pantalla el indicador del modo monitor de la ROM.

Page 131: Semestre1 Ccna

* Para arrancar usando la primera imagen en memoria Flash, o para arrancar usando el IOS en memoria ROM (dependiendo de la plataforma), fije el registro de configuración en 0xnnn1, donde nnn representa el valor anterior de los dígitos del campo diferentes al de arranque. Este valor fija los bits del campo de arranque en 0001 binario. Plataformas previas, como los routers Cisco 1600 y 2500, arrancan usando una versión limitada del IOS ubicada en ROM. Plataformas mas recientes, como los Cisco 1700, 2600 y enrutadores de alta capacidad arrancarán usando la primera imagen en memoria Flash. * Para configurar el sistema de modo que arranque automáticamente desde la NVRAM, fije el registro de configuración en cualquier valor entre 0xnnn2 y 0xnnnF, donde nnn representa el valor anterior de los dígitos del campo diferentes al de arranque. Estos valores fijan los bits del campo de arranque en un valor comprendido entre 0010 y 1111 binario. El uso de los comandos boot system almacenados en la NVRAM es el esquema por defecto. 5.1.5 Diagnóstico de fallas en el arranque del Cisco IOS Si el router no arranca correctamente, eso puede deberse a fallas en alguno de estos elementos: * El archivo de configuración incluye comandos boot system incorrectos * El valor del registro de configuración es erróneo * La imagen en la flash está dañada * Hay una falla de hardware En el arranque, el router busca comandos boot system en el archivo de configuración. Los comandos boot system pueden forzar el arranque del router desde una imagen del IOS diferente a la que está en la flash. Para identificar la fuente de la imagen de arranque, ejecute el comando show version y busque la línea que identifica la fuente. Ejecute el comando show running-config y busque el comando boot system cerca de la parte superior de la configuración. Si el comando boot system señala una imagen del IOS incorrecta, elimine el comando mediante la versión "no" de dicho comando. Un valor erróneo del registro de configuración evita que el IOS se cargue desde la flash. El valor del registro de configuración le indica al router la fuente del IOS. Esto se puede confirmar al ejecutar el comando show version. Busque en la última línea el registro de configuración. El valor correcto varía de una plataforma de hardware a otra. Una de las partes de la documentación de la red debe ser una copia impresa del resultado de show version. Si dicha documentación no está disponible, en el CD de documentación de Cisco o en el sitio Web de Cisco se proveen recursos para identificar el valor correcto del registro de configuración. Para hacer correcciones, se debe cambiar el registro de configuración en la configuración, para luego guardarla como la configuración de arranque. Si la falla continua, es posible que el archivo de imagen en la flash esté dañado. Si ese es el caso, debe aparecer un mensaje de error durante el arranque. El mensaje puede tener diversas formas. A continuación se indican algunos ejemplos: * open: read error...requested 0x4 bytes, got 0x0 (error de lectura) * trouble reading device magic number (problemas al leer el número mágico del dispositivo)

* boot: cannot open "flash:" (no se puede abrir la "flash:" * boot: cannot determine first file name on device "flash:" (no se puede determinar el nombre del primer archivo

del dispositivo "flash:" Si la imagen en la flash está dañada, se debe cargar un nuevo IOS en el router. Si ninguno de los ejemplos anteriores parece ser el problema, es posible que se haya producido una falla de hardware en el router. Si este es el caso, debe comunicarse con el centro de asistencia técnica (TAC) de Cisco. Aunque las fallas de hardware son inusuales, a veces ocurren. NOTA: El valor del registro de configuración no se muestra mediante los comandos show running-config o show startup-config. 5.2 Administración del sistema de archivos de Cisco 5.2.1 Descripción general del sistema de archivos del IOS Los routers y los switches dependen de software para su funcionamiento. Se requiere de dos tipos de software: los sistemas operativos y los archivos de configuración. En la mayoría de los dispositivos de Cisco se usa el sistema operativo de internetworking (IOS) de Cisco. El Cisco IOS® es el software que permite que el hardware funcione como un router o un switch. El archivo del IOS

Page 132: Semestre1 Ccna

es de varios megabytes. El otro software utilizado por los routers o switches se denomina archivo de configuración o archivo config. La configuración contiene las "instrucciones" que determinan cómo el dispositivo debe enrutar o conmutar. El administrador de red crea una configuración que define la funcionalidad deseada para el dispositivo de Cisco. Las funciones que se pueden especificar en el archivo de configuración son las direcciones de IP de las interfaces, los protocolos de enrutamiento y las redes que serán publicadas. Generalmente, el archivo de configuración es de unos pocos cientos o miles de bytes. Ambos componentes de software se guardan en la memoria como archivos individuales. Estos archivos también se guardan en distintos tipos de memoria. El IOS se guarda en un área denominada memoria flash. La memoria flash provee almacenamiento no volátil de una imagen del IOS, la cual se puede usar como sistema operativo en el arranque. El uso de memoria flash permite la actualización del IOS, y también guardar múltiples IOS. En muchas arquitecturas de router, el IOS es copiado a la memoria RAM y se ejecuta desde allí. Una copia del archivo de configuración se guarda en la RAM no volátil (NVRAM), para ser utilizada como configuración en el arranque. A dicha copia se le denomina "startup config" o configuración de arranque. la configuración de arranque es copiada a la RAM durante el arranque. Una vez en la RAM, es la que se pone en uso para la operación del router. Se le denomina "running config" o configuración en uso. A partir de la versión 12, el IOS provee una interfaz única a todos los sistemas de archivos que utiliza el router. A dicha interfaz se le denomina sistema de archivos del Cisco IOS (IFS). El IFS provee un método unificado para administrar el sistema de archivos que utilizan los routers. Esto incluye los sistemas de archivos de la memoria flash, los sistemas de archivos de red (TFTP, rcp y FTP) y la lectura o escritura de datos (de o a la NVRAM, de la configuración en uso, de la ROM). El IFS usa un conjunto común de prefijos para especificar los dispositivos del sistema de archivos. El IFS usa la convención URL para especificar archivos en los dispositivos de red y la red. La convención URL identifica la ubicación de los archivos de configuración mediante el esquema [[[//location]/directory]/filename], luego de dos puntos. El IFS también permite la transferencia de archivos mediante FTP. 5.2.2 Convenciones de nombres del software IOS de escritorio Cisco desarrolla numerosas versiones del IOS. El IOS ofrece diversas funciones y también corre sobre diversas plataformas de hardware. Cisco desarrolla y lanza nuevas versiones del IOS en forma continua. Cisco ha establecido una convención para identificar por nombres a las distintas versiones, de los archivos del IOS. La convención de nombres del IOS utiliza varios campos. Entre ellos podemos mencionar el de identificación de la plataforma del hardware, el de identificación de la funcionalidad y el correspondiente a la secuencia numérica. La primera parte del nombre del archivo del Cisco IOS identifica la plataforma de hardware para la cual ha sido desarrollado. La segunda parte del nombre del archivo del IOS identifica las características funcionales que brinda dicho IOS. Existen numerosas características funcionales a elegir. Dichas características se agrupan en "imágenes de software". Cada grupo de funciones contiene un subconjunto específico de las funciones del software Cisco IOS. Los siguientes son ejemplos de categorías de funcionalidad: * Básica: Un grupo de funciones básicas para una plataforma de hardware dada, por ejemplo, IP e IP/FW * Plus: Un grupo de funciones básicas y otras funciones adicionales tales como IP Plus, IP/FW Plus y Enterprise Plus * Cifrado: Añade la funcionalidad de cifrado de datos de 56 bits como la denominada Plus 56, a un conjunto de funciones Básicas o Plus. Unos ejemplos son IP/ATM PLUS IPSEC56 o Enterprise Plus 56. A partir de la Versión 12.2 de Cisco IOS en adelante, los identificadores de cifrado son k8 y k9: * k8: cifrado de hasta 64 bits en la versión 12.2 del IOS y posteriores * k9: cifrado de más de 64 bits, en la versión 12.2 y posteriores La tercera parte del nombre indica el formato del archivo. Indica si el IOS se almacena en la memoria flash en formato comprimido y si se puede reubicar. Si la imagen del IOS en la flash está comprimida, se debe descomprimir durante el arranque al copiarse en la RAM. Una imagen reubicable se puede copiar de la memoria flash a la RAM para ejecutarse desde allí. Una imagen no reubicable se ejecuta directamente desde la memoria flash. La cuarta parte del nombre identifica numéricamente la versión del IOS. A medida que Cisco desarrolla versiones más recientes del IOS, el identificador numérico aumenta. 5.2.3 Administración de los archivos de configuración mediante TFTP

Page 133: Semestre1 Ccna

En un router o switch de Cisco, la configuración en uso se encuentra en la RAM y la ubicación por defecto de la configuración de arranque es la NVRAM. En caso de que la configuración se pierda, debe existir una copia de respaldo de la configuración de arranque. Se puede guardar una de estas copias de respaldo en un servidor TFTP. Para ello, se puede ejecutar el comando copy running-config tftp. A continuación se da una lista de los pasos de este proceso: * Ejecute el comando copy running-config tftp. * Cuando aparezca el indicador, introduzca la dirección de IP del servidor TFTP en el cual se guardará el archivo de configuración. * Introduzca el nombre a ser asignado al archivo de configuración o acepte el nombre por defecto. * Confirme sus elecciones respondiendo 'yes' (sí) cada vez. Cargar el archivo de configuración de respaldo desde un servidor TFTP, puede servir para restaurar la configuración del router. Los pasos a continuación describen este proceso: * Ejecute el comando copy tftp running-config. * Cuando aparezca el indicador, seleccione un archivo de configuración de host o de red. * Cuando aparezca el indicador del sistema, introduzca la dirección de IP del servidor TFTP en el que se encuentra el archivo de configuración. * Cuando aparezca el indicador del sistema, introduzca el nombre del archivo de configuración o acepte el nombre por defecto. * Confirme el nombre del archivo de configuración y la dirección del servidor que suministra el sistema. 5.2.4 Administración de los archivos de configuración mediante cortar y pegar Otra forma de crear una copia de respaldo de la configuración es mediante la captura del resultado del comando show running-config. Esto puede hacerse desde una sesión de terminal, mediante la copia y pegado del resultado del comando en un archivo de texto, el cual se guarda luego. Será necesario editar este archivo antes de que se pueda usar para restaurar la configuración del router. Ejecute los siguientes pasos para hacer un respaldo de la configuración mediante la captura del texto que se muestra en la pantalla de HyperTerminal: 1. Seleccione Transfer (Transferir). 2. Seleccione Capture Text (Captura de texto). 3. Indique el nombre del archivo de texto donde se hará la captura de la configuración. 4. Seleccione Start (Inicio) para empezar la captura del texto 5. Muestre en pantalla la configuración mediante show running-config 6. Presione la barra espaciadora cuando aparezca el indicador "-More -". 7. Una vez que se haya mostrado completamente la configuración, detenga la captura: 8. Seleccione Transfer (Transferir). 9. Seleccione Capture Text (Captura de texto). 10. Seleccione Stop (Detener). Una vez que se haya completado la captura, se debe editar el archivo de configuración para eliminar textos superfluos. Para ello, elimine toda la información innecesaria de la configuración capturada, a fin de poder "pegarla" de vuelta en el router. Se puede agregar comentarios para explicar las diversas partes de la configuración. Una línea de comentario comienza con un signo de exclamación "!". El archivo de configuración se puede editar con un editor de texto como, por ejemplo, el Notepad de Windows. Para editar el archivo con el Notepad, haga clic en File > Open (Archivo > Abrir). Busque el archivo de captura y selecciónelo. Haga clic en Open (Abrir). Debe eliminarse las líneas que contienen: * show running-config * Building configuration... * Current configuration: * -More- * Todas las líneas que aparecen después de la palabra "End". Al final de cada una de las secciones relativas a las interfaces, agregue el comando no shutdown. Al ejecutar File > Save (Archivo > Guardar), se guardará la versión limpia de la configuración. La copia de respaldo de la configuración se puede restaurar desde una sesión de HyperTerminal. Antes de restaurar la configuración, debe eliminarse toda configuración remanente en el router. Esto se hace mediante el comando erase startup-config, luego del indicador EXEC privilegiado, para luego arrancar el router mediante el comando reload. Se puede usar HyperTerminal para restaurar la configuración. La versión limpia de la configuración puede copiarse de vuelta en el router.

Page 134: Semestre1 Ccna

* Ingrese al modo de configuración global del router. * En HyperTerminal, haga clic en Transfer > Send Text File (Transferir>Enviar archivo de texto). * Seleccione el nombre del archivo de la copia de respaldo de la configuración. * Las líneas del archivo se introducirán en el router como si se estuviesen tecleando. * Observe si ocurre algún error. * Una vez que haya introducido la configuración, presione las teclas Ctrl-Z para salir del modo de configuración global. * Restaure la configuración de arranque mediante copy running-config startup-config. 5.2.5 Administración de imágenes del IOS mediante TFTP Ocasionalmente, es necesario actualizar o restaurar el IOS del router. Al recibir un router, se debe realizar una copia de respaldo del IOS. Esta imagen del IOS se puede guardar en un servidor central junto con otras imágenes del IOS. Éstas se pueden usar para restaurar o actualizar el IOS de los routers y switches de la red. Dicho servidor debe tener un servicio TFTP activo. El respaldo del IOS se puede iniciar desde el modo EXEC privilegiado, mediante el comando copy flash tftp. Se puede recargar desde el servidor el IOS en su misma versión, o una superior, con el comando copy tftp flash. De nuevo, el router le solicitará al usuario que introduzca la dirección de IP del servidor TFTP. Cuando se le solicite el nombre de archivo de la imagen del IOS en el servidor, el router puede solicitar que se borre la memoria flash. Esto sucede a menudo cuando no hay suficiente memoria flash disponible para la nueva imagen. A medida que la imagen es borrada de la memoria flash, se mostrará una serie de “e’s” que indican el avance del proceso. A medida que se descarga cada uno de los archivos de imagen del IOS, se mostrará un signo de exclamación "!". La imagen del IOS es de varios megabytes y su descarga puede tomar bastante tiempo. La nueva imagen en la flash se debe verificar luego de la descarga. Ahora el router está listo para ser cargado de nuevo, y para utilizar la nueva imagen del IOS. 5.2.6 Administración de imágenes del IOS mediante Xmodem Si la imagen del IOS de la flash se ha borrado o dañado, es posible que se deba restaurar el IOS desde el modo de monitor de la ROM (ROMmon). En muchas de las arquitecturas de hardware de Cisco, el modo ROMmon se indica mediante el indicador rommon 1 >. El primer paso de este proceso es determinar por qué la imagen del IOS no se cargó desde la flash. La causa puede ser una imagen dañada o ausente. La flash se debe examinar usando el comando dir flash:. Si la imagen que se ha ubicado parece ser válida, se debe intentar arrancar desde esa imagen. Esto se hace mediante el comando boot flash:. Por ejemplo, si el nombre de la imagen es "c2600-is-mz.121-5", el comando sería: rommon 1>boot flash:c2600-is-mz.121-5 Si el router arranca correctamente, es necesario examinar varios elementos a fin de determinar por qué el router arrancó mediante ROMmon y no lo hizo automáticamente. En primer lugar, ejecute el comando show version para verificar el registro de configuración y asegurarse que esté configurado para la secuencia de arranque por defecto. Si el valor del registro de configuración es correcto, ejecute el comando show startup-config para ver si hay algún comando del sistema de arranque que le indique al router que debe usar el IOS del monitor de la ROM. Si el router no arranca correctamente desde la imagen o si no existe ninguna imagen del IOS, es necesario descargar un nuevo IOS. El archivo del IOS se puede recuperar mediante Xmodem, para restaurar la imagen a través de la consola o mediante TFTP en el modo ROMmon. Descarga mediante Xmodem en el modo ROMmon Para restaurar el IOS a través de la consola, la PC local debe tener una copia del archivo del IOS a ser restaurado, y un programa de emulación de terminal como, por ejemplo, HyperTerminal. El IOS se puede restaurar a la velocidad por defecto de la consola, 9600 bps. Se puede cambiar a 115200 bps para agilizar la descarga. La velocidad de la consola se puede cambiar en el modo ROMmon, mediante el comando confreg. Al ejecutar el comando confreg, el router solicitará los diversos parámetros modificables. Cuando se le solicite "change console baud rate? y/n [n]:" si selecciona y aparecerá un indicador para seleccionar la nueva velocidad. Una vez que ha cambiado la velocidad de la consola y reiniciado el router en el modo ROMmon, se debe cerrar la vieja sesión (a 9600) e iniciar una nueva a 115200 bps, la nueva velocidad de la consola. El comando Xmodem se puede ejecutar desde el modo ROMmon para restaurar la imagen del software IOS

Page 135: Semestre1 Ccna

desde la PC. El formato del comando es xmodem -cnombre_del_archivo. Por ejemplo, para restaurar un archivo de imagen del IOS de nombre "c2600-is-mz.122-10a.bin", ejecute el comando: xmodem -c c2600-is-mz.122-10a.bin La -c le indica al proceso Xmodem que debe usar Verificación de redundancia cíclica (CRC) para detectar errores durante la descarga. El router no inicia la transferencia de inmediato, sino que le muestra un mensaje de advertencia. El mensaje le informa que la bootflash será borrada y le pregunta si desea continuar. Una vez que se acepta el continuar, el router le indica que puede iniciar la transferencia. Ahora se requiere iniciar una transferencia Xmodem desde el emulador de terminal. En HyperTerminal, seleccione Transfer > Send File (Transferir > Enviar archivo). Luego, al aparecer la ventana Send File (Enviar archivo), indique el nombre y la ubicación de la imagen. Seleccione Xmodem como el protocolo e inicie la transferencia. Durante la transferencia, la ventana Sending File (Enviando archivo) mostrará el estado de la transferencia. Al finalizar la transferencia, aparecerá un mensaje que indica que la flash ha sido borrada. Luego aparece el mensaje "Download Complete!" (¡Ha finalizado la descarga!). Antes de arrancar de nuevo el router, es necesario volver a fijar la velocidad de consola en 9600 y el config register a 0x2102. Ejecute el comando config-register 0x2102 luego del indicador EXEC privilegiado. Mientras el router arranca de nuevo, es necesario finalizar la sesión de terminal a 115200 bps e iniciar una nueva a 9600 bps. 5.2.7 Variables del entorno El IOS también puede restaurarse desde una sesión TFTP. El descargar la imagen mediante TFTP desde ROMmon es la forma más rápida para restaurar una imagen del IOS en el router. Para ello se fijan variables de entorno y luego el comando tftpdnld. Dado que el modo ROMmon tiene una funcionalidad muy limitada, no se carga ningún archivo de configuración durante el arranque. Por lo tanto, el router no dispone de ninguna configuración de interfaz o IP. Las variables de entorno suministran una configuración mínima para permitir el uso del TFTP. La transferencia TFTP de ROMmon sólo funciona en el primer puerto LAN, de modo que se fija un conjunto simple de parámetros IP para dicha interfaz. Para establecer una variable de entorno ROMmon, se escribe el nombre de la variable, luego el signo igual (=) y el valor de la variable (NOMBRE_DE_LA_VARIABLE=valor). Por ejemplo, para asignar la dirección de IP 10.0.0.1, ejecute IP_ADDRESS=10.0.0.1 luego del indicador de ROMmon. NOTA: Todos los nombres de variables hacen distinción entre mayúsculas y minúsculas. Las variables necesarias para usar tftpdnld son: * IP_ADDRESS: la dirección de IP de la interfaz LAN * IP_SUBNET_MASK: la máscara de subred de la interfaz LAN * DEFAULT_GATEWAY: el gateway por defecto de la interfaz LAN * TFTP_SERVER: la dirección de IP del servidor TFTP. * TFTP_FILE : el nombre de la imagen del IOS en el servidor Para verificar las variables de entorno ROMmon, se puede usar el comando set. Una vez que se han fijado las variables para la descarga del IOS, se ejecuta el comando tftpdnld sin ningún argumento. ROMmon mostrará un eco de las variables y luego un indicador de confirmación, con una advertencia que indica que esto borrará la flash. A medida que se recibe cada uno de los datagramas del archivo del IOS, aparecerá un signo de exclamación "!". Una vez que se haya recibido todo el archivo de IOS, se procede a borrar la flash y escribir el nuevo archivo de imagen del IOS: Se mostrarán los mensajes correspondientes a medida que el proceso avanza. Cuando la nueva imagen ha sido escrita en la flash y reaparece el indicador de ROMmon, el router se puede arrancar mediante el comando i. Ahora, el router debe arrancar desde la nueva imagen del IOS en la flash. 5.2.8 Verificación del sistema de archivos Se puede usar diversos comandos para verificar el sistema de archivos del router. Uno de ellos es el comando show version. El comando show version puede usarse para verificar la imagen en uso y la cantidad total de memoria flash. También verifica los otros dos elementos relativos a la carga del IOS. Identifica la fuente de la imagen del IOS que el router usa para arrancar y muestra el registro de configuración. Se puede examinar los

Page 136: Semestre1 Ccna

valores del campo de arranque del registro de configuración para determinar desde dónde debe cargarse el IOS. Si no concuerdan, es posible que haya una imagen del IOS dañada o ausente en la flash, o tal vez que haya comandos relativos al arranque en la configuración de arranque. El comando show flash se puede usar también para verificar el sistema de archivos. Este comando se usa para identificar la o las imágenes del IOS en la flash, así como también la cantidad de memoria flash disponible. A menudo, este comando se usa para confirmar que haya espacio suficiente para guardar una nueva imagen del IOS. Como se mencionara anteriormente, el archivo de configuración puede contener comandos boot system (del sistema de arranque). Estos comandos se pueden usar para identificar la fuente de la imagen de arranque del IOS deseada. Se pueden usar varios comandos boot system para crear una secuencia de reserva para encontrar y cargar el IOS. Estos comandos boot system se ejecutan en el orden en el que aparecen en el archivo de configuración. Módulo 6: Enrutamiento y protocolos de enrutamiento Descripción general El enrutamiento no es otra cosa que instrucciones para ir de una red a otra. Estas instrucciones, también conocidas como rutas, pueden ser dadas a un router por otro de forma dinámica, o pueden ser asignadas al router por el administrador de forma estática. Este módulo introduce el concepto de protocolos de enrutamiento dinámico, describe sus distintas clases y brinda ejemplos de protocolos de cada clase. Un administrador de redes toma en cuenta muchos aspectos al seleccionar un protocolo de enrutamiento dinámico. El tamaño de la red, el ancho de banda de los enlaces disponibles, la capacidad de procesamiento de los routers, las marcas y modelos de los routers de la red y los protocolos que ya se encuentran en uso en la red son todos factores a considerar a la hora de elegir un protocolo de enrutamiento. Este módulo proporcionará más detalles acerca de las diferencias entre los protocolos de enrutamiento, los cuales serán útiles a los administradores de redes para hacer su elección. Los estudiantes que completen este módulo deberán ser capaces de: * Explicar la importancia del enrutamiento estático. * Configurar rutas estáticas y rutas por defecto. * Verificar y diagnosticar fallas de las rutas estáticas y las rutas por defecto. * Identificar las clases de protocolos de enrutamiento * Identificar los protocolos de enrutamiento por vector-distancia. * Identificar los protocolos de enrutamiento de estado del enlace. * Describir las características básicas de los protocolos de enrutamiento más comunes. * Identificar los protocolos de gateway interior. * Identificar los protocolos de gateway exterior. * Habilitar el Protocolo de información de enrutamiento (RIP) en un router. 6.1 Introducción al enrutamiento estático 6.1.1 Introducción al enrutamiento El enrutamiento es el proceso usado por el router para enviar paquetes a la red de destino. Un router toma decisiones en función de la dirección de IP de destino de los paquetes de datos. Todos los dispositivos intermedios usan la dirección de IP de destino para guiar el paquete hacia la dirección correcta, de modo que llegue finalmente a su destino. A fin de tomar decisiones correctas, los routers deben aprender la ruta hacia las redes remotas. Cuando los routers usan enrutamiento dinámico, esta información se obtiene de otros routers. Cuando se usa enrutamiento estático, el administrador de la red configura manualmente la información acerca de las redes remotas. Debido a que las rutas estáticas deben configurarse manualmente, cualquier cambio en la topología de la red requiere que el administrador agregue o elimine las rutas estáticas afectadas por dichos cambios. En una red de gran tamaño, el mantenimiento manual de las tablas de enrutamiento puede requerir de una enorme cantidad de tiempo de administración. En redes pequeñas, con pocos cambios, las rutas estáticas requieren muy poco mantenimiento. Debido a los requisitos de administración adicionales, el enrutamiento estático no tiene la escalabilidad o capacidad de adaptarse al crecimiento del enrutamiento dinámico. Aun en redes de gran tamaño, a menudo se configuran rutas estáticas, cuyo objetivo es satisfacer requerimientos específicos, junto con un protocolo de enrutamiento dinámico. 6.1.2 Operación con rutas estáticas Las operaciones con rutas estáticas pueden dividirse en tres partes, como sigue:

Page 137: Semestre1 Ccna

* El administrador de red configura la ruta. * El router instala la ruta en la tabla de enrutamiento. * Los paquetes se enrutan de acuerdo a la ruta estática. Como las rutas estáticas se configuran manualmente, el administrador debe configurarla en el router, mediante el comando ip route. La sintaxis correcta del comando ip route se muestra en la Figura . En las Figuras y , el administrador del router Hoboken necesita configurar las rutas estáticas cuyo destino son las redes 172.16.1.0/24 y 172.16.5.0/24. El administrador puede ejecutar uno de dos comandos posibles para lograr su objetivo. El método de la Figura especifica la interfaz de salida. El método de la Figura especifica la dirección IP del siguiente salto (hop) del router adyacente. Cualquiera de los comandos instalará una ruta estática en la tabla de enrutamiento del router Hoboken. La distancia administrativa es un parámetro opcional que da una medida del nivel de confiabilidad de la ruta. Un valor menor de distancia administrativa indica una ruta más confiable. Por lo tanto, es preferible instalar rutas de distancia administrativa menor antes que una ruta idéntica de distancia administrativa mayor. La distancia administrativa por defecto cuando se usa una ruta estática es 1. Cuando una interfaz de salida se configura como el gateway de una ruta estática, dicha ruta será desplegada en la tabla de enrutamiento como si estubiera directamente conectada. Esto a veces confunde, ya que la redes directamente conectadas tienen distancia 0. Para verificar la distancia administrativa de una ruta en particular use el comando show ip routeaddress, donde la dirección ip de dicha ruta se inserta en la opción address. Si se desea una distancia administrativa diferente a la distancia por defecto, se introduce un valor entre 0 y 255 después de la interfaz de salida o el siguiente salto, como se muestra a continuación: waycross(config)#ip route 172.16.3.0 255.255.255.0 172.16.4.1 130 Si el router no puede llegar a la interfaz de salida que se indica en la ruta, ésta no se instalará en la tabla de enrutamiento. Esto significa que si la interfaz está desactivada, la tabla de enrutamiento no incluirá la ruta. A veces, las rutas estáticas se utilizan como rutas de respaldo. Es posible configurar una ruta estática en un router, la cual sólo se usará en caso de fallas en la ruta dinámicamente conocida. Para utilizar una ruta estática de esta forma, simplemente fije la distancia administrativa en un valor superior a la proporcionada por el protocolo de enrutamiento dinámico en uso. 6.1.3 Configuración de rutas estáticas Esta sección enumera los pasos a seguir para configurar rutas estáticas y da un ejemplo de una red sencilla en la que se podrían configurar rutas estáticas. Siga estos pasos para configurar rutas estáticas. 1. Defina todas las redes de destino deseadas, sus máscaras de subred y sus gateways. Las direcciones pueden ser una interfaz local o la dirección del siguiente salto que conduce al destino deseado. 2. Ingrese al modo de configuración global. 3. Ejecute el comando ip route con una dirección de destino y máscara de subred, seguidos del gateway correspondiente del Paso 1. La inclusión de una distancia administrativa es opcional. 4. Repita el Paso 3 para todas las redes de destino definidas en el Paso 1. 5. Salga del modo de configuración global. 6. Guarde la configuración activa en la NVRAM mediante el comando copy running-config startup-config. La red en el ejemplo tiene una sencilla configuración de tres routers. Hoboken debe configurarse de manera tal que pueda llegar a la red 172.16.1.0 y a la red 172.16.5.0. Ambas tienen una máscara de subred de 255.255.255.0. Los paquetes cuyo destino es la red 172.16.1.0 deben ser enrutados hacia Sterling y los paquetes que cuyo destino es la red 172.16.5.0 deben ser enrutados hacia Waycross. Esto se puede llevar a cabo mediante rutas estáticas. Como primer paso, se configura ambas rutas estáticas para utilizar una interfaz local como gateway hacia las redes de destino. Como no se especificaron distancias administrativas, estas tomarán el valor por defecto de 1 en la tabla de enrutamiento. Esas mismas rutas estáticas también se pueden configurar utilizando como gateway la dirección del siguiente salto. La primera ruta hacia la red 172.16.1.0 tendría como gateway 172.16.2.1. La segunda ruta hacia la red 172.16.5.0 tendría como gateway 172.16.4.2. Como no se especificaron distancias administrativas, toman el valor por defecto de 1. 6.1.4 Configuración de enrutamiento por defecto Las rutas por defecto se usan para enviar paquetes a destinos que no coinciden con los de ninguna de las otras

Page 138: Semestre1 Ccna

rutas en la tabla de enrutamiento. Generalmente, los routers están configurados con una ruta por defecto para el tráfico que se dirige a la Internet, ya que a menudo resulta poco práctico e innecesario mantener rutas hacia todas las redes de la Internet. En realidad, una ruta por defecto es una ruta estática especial que utiliza este formato: ip route 0.0.0.0 0.0.0.0 [ dirección-del-siguiente-salto | interfaz de salida] La máscara 0.0.0.0, cuando se ejecuta el AND lógico hacia la dirección de IP de destino del paquete, siempre obtiene la red 0.0.0.0. Si el paquete no coincide con una ruta más específica en la tabla de enrutamiento, será enviado hacia la red 0.0.0.0. Siga estos pasos para configurar rutas por defecto. 1. Ingrese al modo de configuración global. 2. Ejecute el comando ip route con 0.0.0.0 como la dirección de red de destino y 0.0.0.0 como máscara de subred. La opción address para la ruta por defecto puede ser la interfaz del router local que está conectado a las redes externas, o puede ser la dirección IP del router del siguiente salto. En la mayoría de los casos, es preferible especificar la dirección IP del router del siguiente salto. 3. Salga del modo de configuración global. 4. Guarde la configuración activa en la NVRAM mediante el comando copy running-config sartup-config. En la sección "Configuración de rutas estáticas", se crearon rutas estáticas en Hoboken para hacer posible el acceso a las redes 172.16.1.0 de Sterling y 172.16.5.0 de Waycross. Ahora debería ser posible el enrutamiento de paquetes hacia ambas redes desde Hoboken. Sin embargo, ni Sterling ni Waycross sabrán como enviar paquetes de vuelta hacia cualquier red conectada indirectamente. Se puede configurar una ruta estática en Sterling y en Waycross para cada una de las redes de destino conectadas indirectamente. Esta no sería una solución escalable en una red de mayor tamaño. Sterling se conecta a todas las redes conectadas indirectamente mediante la interfaz Serial 0. Waycross tiene sólo una conexión con todas las redes conectadas indirectamente. Lo hace mediante la interfaz Serial 1. Una ruta por defecto tanto en Sterling como en Waycross proporcionará el enrutamiento para todos los paquetes cuyo destino sea las redes conectadas indirectamente. 6.1.5 Verificación de las rutas estáticas Una vez configuradas las rutas estáticas, es fundamental verificar que se muestren en la tabla de enrutamiento, y que el enrutamiento funcione tal como está previsto. El comando show running-config se utiliza para mostrar la configuración activa en la RAM, a fin de verificar que se haya ingresado correctamente la ruta estática. El comando show ip route se utiliza para comprobar que la ruta estática se encuentre en la tabla de enrutamiento. Siga estos pasos para verificar la configuración de las rutas estáticas. * En modo privilegiado, introduzca el comando show running-config para mostrar la configuración activa. * Verifique que la ruta estática se haya ingresado correctamente. Si la ruta fuese incorrecta, será necesario volver al modo de configuración global para eliminar la ruta estática incorrecta e ingresar la ruta correcta. * Ejecute el comando show ip route. * Verifique que la ruta configurada se encuentre en la tabla de enrutamiento. 6.1.6 Diagnóstico de fallas en la configuración de rutas estáticas En la sección "Configuración de rutas estáticas", se crearon rutas estáticas en el router Hoboken para hacer posible el acceso a las redes 172.16.1.0 de Sterling y 172.16.5.0 de Waycross. Con esa configuración, los nodos locales de la red Sterling (172.16.1.0) no pueden llegar a los nodos locales de la red Waycross (172.16.5.0). Desde el modo EXEC privilegiado en el router Sterling, ejecute un ping hacia el nodo de la red 172.16.5.0. El ping falla. Ahora, ejecute un traceroute desde Sterling a la dirección que se utilizó en el comando ping. Vea en qué punto falla el traceroute. El traceroute indica que el paquete regresó desde Hoboken pero no desde Waycross. Esto implica que el problema está en el router Hoboken o en el Waycross. Haga telnet en el router Hoboken Intente nuevamente realizar un ping hacia el nodo de la red 172.16.5.0 conectado al router de Waycross. Este ping debería tener éxito ya que Hoboken está conectado directamente a Waycross. 6.2 Aspectos generales del enrutamiento dinámico 6.2.1 Introducción a los protocolos de enrutamiento Los protocolos de enrutamiento son diferentes a los protocolos enrutados tanto en su función como en su tarea. Un protocolo de enrutamiento es el esquema de comunicación entre routers. Un protocolo de enrutamiento

Page 139: Semestre1 Ccna

permite que un router comparta información con otros routers, acerca de las redes que conoce así como de su proximidad a otros routers. La información que un router obtiene de otro, mediante el protocolo de enrutamiento, es usada para crear y mantener las tablas de enrutamiento. Ejemplos de protocolos de enrutamiento: * Protocolo de información de enrutamiento (RIP) * Protocolo de enrutamiento de gateway interior (IGRP) * Protocolo de enrutamiento de gateway interior mejorado (EIGRP) * Protocolo "Primero la ruta más corta" (OSPF) Un protocolo enrutado se usa para dirigir el tráfico generado por los usuarios. Un protocolo enrutado proporciona información suficiente en su dirección de la capa de red, para permitir que un paquete pueda ser enviado desde un host a otro, basado en el esquema de direcciones. Ejemplos de protocolos enrutados: * Protocolo Internet (IP) * Intercambio de paquetes de internetwork (IPX) 6.2.2 Sistemas autónomos Un sistema autónomo (AS) es un conjunto de redes bajo una administración común, las cuales comparten una estrategia de enrutamiento común. Para el mundo exterior, el AS es una entidad única. El AS puede ser administrado por uno o más operadores, a la vez que presenta un esquema unificado de enrutamiento hacia el mundo exterior. Los números de identificación de cada AS son asignados por el Registro estadounidense de números de la Internet (ARIN), los proveedores de servicios o el administrador de la red. Este sistema autónomo es un número de 16 bits. Los protocolos de enrutamiento tales como el IGRP de Cisco, requieren un número único de sistema autónomo. 6.2.3 Propósito de los protocolos de enrutamiento y de los sistemas autónomos El objetivo de un protocolo de enrutamiento es crear y mantener una tabla de enrutamiento. Esta tabla contiene las redes conocidas y los puertos asociados a dichas redes. Los routers utilizan protocolos de enrutamiento para administrar la información recibida de otros routers, la información que se conoce a partir de la configuración de sus propias interfaces, y las rutas configuradas manualmente. Los protocolos de enrutamiento aprenden todas las rutas disponibles, incluyen las mejores rutas en las tablas de enrutamiento y descartan las rutas que ya no son válidas. El router utiliza la información en la tabla de enrutamiento para enviar los paquetes de datos. El algoritmo de enrutamiento es fundamental para el enrutamiento dinámico. Al haber cambios en la topología de una red, por razones de crecimiento, reconfiguración o falla, la información conocida acerca de la red también debe cambiar. La información conocida debe reflejar una visión exacta y coherente de la nueva topología. Cuando todos los routers de una red se encuentran operando con la misma información, se dice que la red ha hecho convergencia. Una rápida convergencia es deseable, ya que reduce el período de tiempo durante el cual los routers toman decisiones de enrutamiento erróneas. Los sistemas autónomos (AS) permiten la división de la red global en subredes de menor tamaño, más manejables. Cada AS cuenta con su propio conjunto de reglas y políticas, y con un único número AS que lo distingue de los demás sistemas autónomos del mundo. 6.2.4 Identificación de las clases de protocolos de enrutamiento La mayoría de los algoritmos de enrutamiento pertenecen a una de estas dos categorías: * Vector-distancia * Estado del enlace El método de enrutamiento por vector-distancia determina la dirección (vector) y la distancia hacia cualquier enlace en la red. El método de estado del enlace, también denominado "primero la ruta más corta", recrea la topología exacta de toda la red. 6.2.5 Características del protocolo de enrutamiento por vector-distancia Los protocolos de enrutamiento por vector-distancia envían copias periódicas de las tablas de enrutamiento de un router a otro. Estas actualizaciones periódicas entre routers informan de los cambios de topología. Los

Page 140: Semestre1 Ccna

algoritmos de enrutamiento basados en el vector-distancia también se conocen como algoritmos Bellman-Ford. Cada router recibe una tabla de enrutamiento de los routers conectados directamente a él. El router B recibe información del router A. El router B agrega un cifra de vector-distancia (por ejemplo: el número de saltos), la cual aumenta el vector-distancia. Luego el router B pasa esta nueva tabla de enrutamiento a su otro vecino, el router C. Este mismo proceso, paso a paso, se repite en todas direcciones entre routers vecinos. El algoritmo finalmente acumula información acerca de las distancias de la red, las cual le permite mantener una base de datos de la topología de la red. Sin embargo, los algoritmos de vector-distancia no permiten que un router conozca la topología exacta de una red, ya que cada router solo ve a sus routers vecinos. Cada router que utiliza el enrutamiento por vector-distancia comienza por identificar sus propios vecinos. La interfaz que conduce a las redes conectadas directamente tiene una distancia de 0. A medida que el proceso de descubrimiento de la red avanza, los routers descubren la mejor ruta hacia las redes de destino, de acuerdo a la información de vector-distancia que reciben de cada vecino. Por ejemplo, el router A aprende acerca de otras redes según la información que recibe del router B. Cada una de las redes de destino en la tabla de enrutamiento tiene una cifra total de vector-distancia, la cual indica la distancia a la que se encuentra dicha red por una ruta determinada. Las actualizaciones de las tablas de enrutamiento se producen al haber cambios en la topología. Al igual que en el proceso de descubrimiento de la red, las actualizaciones de cambios de topología avanzan paso a paso, de un router a otro. Los algoritmos de vector-distancia hacen que cada router envíe su tabla de enrutamiento completa a cada uno de sus vecinos adyacentes. Las tablas de enrutamiento incluyen información acerca del costo total de la ruta (definido por su métrica) y la dirección lógica del primer router en la ruta hacia cada una de las redes indicadas en la tabla. Una analogía del vector-distancia podría ser los carteles que se encuentran en las intersecciones de las autopistas. Un cartel indica el destino e indica la distancia hasta el destino. Más adelante en la autopista, otro cartel indica el destino, pero ahora la distancia es mas corta. A medida que se acorta la distancia, el tráfico sigue la mejor ruta. 6.2.6 Características del protocolo de enrutamiento de estado del enlace El segundo algoritmo básico que se utiliza para enrutamiento es el algoritmo de estado del enlace. Los algoritmos de estado del enlace también se conocen como algoritmos Dijkstra o SPF ("primero la ruta más

corta" . Los protocolos de enrutamiento de estado del enlace mantienen una base de datos compleja, con la información de la topología de la red. El algoritmo de vector-distancia provee información indeterminada sobre las redes lejanas y no tiene información acerca de los routers distantes. El algoritmo de enrutamiento de estado del enlace mantiene información completa sobre routers lejanos y su interconexión. El enrutamiento de estado del enlace utiliza: * Publicaciones de estado del enlace (LSA): una publicación del estado del enlace (LSA) es un paquete pequeño de información sobre el enrutamiento, el cual es enviado de router a router. * Base de datos topológica: una base de datos topológica es un cúmulo de información que se ha reunido mediante las LSA. * Algoritmo SPF: el algoritmo "primero la ruta más corta" (SPF) realiza cálculos en la base de datos, y el resultado es el árbol SPF. * Tablas de enrutamiento: una lista de las rutas e interfaces conocidas. Proceso de descubrimiento de la red para el enrutamiento de estado del enlace: el intercambio de LSAs se inicia en las redes conectadas directamente al router, de las cuales tiene información directa. Cada router, en paralelo con los demás, genera una base de datos topológica que contiene todas la información recibida por intercambio de LSAs. El algoritmo SPF determina la conectividad de la red. El router construye esta topología lógica en forma de árbol, con él mismo como raíz, y cuyas ramas son todas las rutas posibles hacia cada subred de la red. Luego ordena dichas rutas, y coloca las ruta más cortas primero (SPF). El router elabora una lista de las mejores rutas a las redes de destino, y de las interfaces que permiten llegar a ellas. Esta información se incluye en la tabla de enrutamiento. También mantiene otras bases de datos, de los elementos de la topología y de los detalles del estado de la red. El router que primero conoce de un cambio en la topología envía la información al resto de los routers, para que puedan usarla para hacer sus actualizaciones y publicaciones. Esto implica el envío de información de enrutamiento, la cual es común a todos los routers de la red. Para lograr la convergencia, cada router monitorea sus routers vecinos, sus nombres, el estado de la interconexión y el costo del enlace con cada uno de ellos. El router genera una LSA, la cual incluye toda esa información, junto con información relativa a nuevos vecinos, los cambios en el costo de los enlaces y los enlaces que ya no son válidos. La LSA es enviada entonces, a fin de que los demás routers la reciban.

Page 141: Semestre1 Ccna

Cuando un router recibe una LSA, actualiza su base de datos con la información más reciente y elabora un mapa de la red con base en los datos acumulados, y calcula la ruta más corta hacia otras redes mediante el algoritmo SPF. Cada vez que una LSA genera cambios en la base de datos, el algoritmo de estado del enlace (SPF) vuelve a calcular las mejores rutas, y actualiza la tabla de enrutamiento. Puntos de interés acerca del estado del enlace * Carga sobre el procesador. * Requisitos de memoria. * Utilización del ancho de banda. Los routers que usan protocolos de estado del enlace requieren de más memoria y exigen mas esfuerzo al procesador, que los que usan protocolos de enrutamiento por vector-distancia. Los routers deben tener la memoria suficiente para almacenar toda la información de las diversas bases de datos, el árbol de topología y la tabla de enrutamiento. La avalancha de LSAs que ocurre al activar un router consume una porción del ancho de banda. Durante el proceso de descubrimiento inicial, todos los routers que utilizan protocolos de enrutamiento de estado del enlace envían LSAs a todos los demás routers. Esta acción genera un gran volumen de tráfico y reduce temporalmente el ancho de banda disponible para el tráfico enrutado de los usuario. Después de esta disminución inicial de la eficiencia de la red, los protocolos de enrutamiento del estado del enlace generalmente consumen un ancho de banda mínimo, sólo para enviar las ocasionales LSAs que informan de algún cambio en la topología. 6.3 Aspectos generales de los protocolos de enrutamiento 6.3.1 Determinación de rutas Los routers determinan la ruta de los paquetes desde un enlace a otro, mediante dos funciones básicas: * Una función de determinación de ruta * Una función de conmutación. La determinación de la ruta se produce en la capa de red. La función de determinación de ruta permite al router evaluar diversas rutas hacia un destino, y establecer cuál es la más deseable. El router utiliza la tabla de enrutamiento para determinar la mejor ruta, para luego enviar los paquetes de datos mediante la función de conmutación. - La función de conmutación es el proceso interno que el router utiliza para recibir un paquete en una interfaz y enviarlo a otra dentro del router mismo. Una responsabilidad clave de la función de conmutación es la de encapsular los paquetes de acuerdo a la estructura requerida por el siguiente enlace. La Figura ilustra de qué forma los routers utilizan las direcciones para estas funciones de enrutamiento y conmutación. El router utiliza el segmento de la dirección correspondiente a la red para seleccionar la ruta, y proceder a entregar el paquete al router siguiente en dicha ruta. 6.3.2 Configuración del enrutamiento La habilitación del enrutamiento de paquetes de IP, requiere fijar parámetros tanto globales como de enrutamiento. Las tareas globales incluyen la selección de un protocolo de enrutamiento, por ejemplo: RIP, IGRP, EIGRP o OSPF. La tarea principal del modo configuración de enrutamiento es indicar los números IP de la red. El enrutamiento dinámico utiliza comunicaciones broadcast y multicast con los otros routers. La métrica de enrutamiento ayuda a los routers a encontrar la mejor ruta hacia cada red o subred. El comando router inicia el proceso de enrutamiento. El comando network es necesario, ya que permite que el proceso de enrutamiento determine cuáles son las interfaces que participan en el envío y la recepción de las actualizaciones de enrutamiento. Un ejemplo de configuración de enrutamiento es: GAD(config)#router rip GAD(config-router)#network 172.16.0.0 Los números de red se basan en las direcciones de clase de red, no en direcciones de subred ni direcciones de host individuales. Las direcciones de red principales se limitan a los números de red de las Clases A, B y C. 6.3.3 Protocolos de enrutamiento Un router puede utilizar un protocolo de enrutamiento de paquetes IP para llevar a cabo el enrutamiento. Esto lo realiza mediante la implementación de un algoritmo de enrutamiento específico y emplea la capa de interconexión de redes del conjunto de protocolos TCP/IP. Algunos ejemplos de protocolos de enrutamiento de paquetes IP son:

Page 142: Semestre1 Ccna

* RIP: Un protocolo de enrutamiento interior por vector-distancia. * IGRP: El protocolo de enrutamiento interior por vector-distancia de Cisco. * OSPF: Un protocolo de enrutamiento interior de estado del enlace * EIGRP: El protocolo mejorado de enrutamiento interior por vector-distancia de Cisco. * BGP: Un protocolo de enrutamiento exterior por vector-distancia El Protocolo de información de enrutamiento (RIP) fue descrito originalmente en el RFC 1058. Sus características principales son las siguientes: * Es un protocolo de enrutamiento por vector-distancia. * Utiliza el número de saltos como métrica para la selección de rutas. * Si el número de saltos es superior a 15, el paquete es desechado. * Por defecto, se envía un broadcast de las actualizaciones de enrutamiento cada 30 segundos. El Protocolo de enrutamiento interior de gateway (IGRP) es un protocolo patentado desarrollado por Cisco. Entre las características de diseño claves del IGRP se destacan las siguientes: * Es un protocolo de enrutamiento por vector-distancia. * Se considera el ancho de banda, la carga, el retardo y la confiabilidad para crear una métrica compuesta. * Por defecto, se envía un broadcast de las actualizaciones de enrutamiento cada 90 segundos. El protocolo público conocido como "Primero la ruta más corta" (OSPF) es un protocolo de enrutamiento de estado del enlace no patentado. Las características clave del OSPF son las siguientes: * Es un protocolo de enrutamiento de estado del enlace. * Es un protocolo de enrutamiento público (open standard), y se describe en el RFC 2328. * Usa el algoritmo SPF para calcular el costo más bajo hasta un destino. * Las actualizaciones de enrutamiento producen un gran volumen de tráfico al ocurrir cambios en la topología. El EIGRP es un protocolo mejorado de enrutamiento por vector-distancia, patentado por Cisco. Las características claves del EIGRP son las siguientes: * Es un protocolo mejorado de enrutamiento por vector-distancia. * Utiliza balanceo de carga asimétrico. * Utiliza una combinación de los algoritmos de vector-distancia y de estado del enlace. * Utiliza el Algoritmo de actualización difusa (DUAL) para el cálculo de la ruta más corta. * Las actualizaciones son mensajes de multicast a la dirección 224.0.0.10 generadas por cambios en la topología. El Protocolo de gateway de frontera (BGP) es un protocolo de enrutamiento exterior. Las características claves del BGP son las siguientes: * Es un protocolo de enrutamiento exterior por vector-distancia. * Se usa entre ISPs o entre los ISPs y sus clientes. * Se usa para enrutar el tráfico de Internet entre sistemas autónomos. 6.3.4 Sistemas autónomos - Protocolos IGP versus EGP Los protocolos de enrutamiento interior están diseñados para ser usados en redes cuyos segmentos se encuentran bajo el control de una sola organización. Los criterios de diseño de los protocolos de enrutamiento interior requieren que el protocolo encuentre la mejor ruta a través de la red. En otras palabras, la métrica y la forma en que esta se utiliza es el elemento más importante de un protocolo de enrutamiento interior. Un protocolo de enrutamiento exterior está diseñado para ser usado entre dos redes diferentes, las cuales se encuentran bajo el control de dos organizaciones diferentes. En general, se utilizan entre ISPs o entre una compañía y un ISP. Por ejemplo: una compañía puede usar el BGP, un protocolo de enrutamiento exterior, entre uno de sus routers y un router del ISP. Los protocolos de enrutamiento exterior necesitan de estos tres conjuntos de información antes de comenzar su operación: * Una lista de los routers vecinos, con los que intercambiarán la información de enrutamiento. * Una lista de las redes a ser publicadas como de acceso directo. * El número de sistema autónomo del router local. Un protocolo de enrutamiento exterior debe aislar los sistemas autónomos. Recuerde, los sistemas autónomos son administrados por entes distintos. Las redes deben disponer de un protocolo para interconectar los diferentes sistemas autónomos. Los sistemas autónomos disponen de un número de identificación, asignado por el Registro estadounidense de números de Internet (ARIN) o por un proveedor de acceso. Dicho número consta de 16 bits. Los protocolos de enrutamiento como el IGRP y el EIGRP de Cisco, requieren la asignación de un número único de sistema

Page 143: Semestre1 Ccna

autónomo. Módulo 7: Protocolos de enrutamiento por vector-distancia Descripción general Los protocolos de enrutamiento dinámico pueden ayudar a simplificar la vida del administrador de redes. El enrutamiento dinámico hace innecesario el exigente y prolongado proceso de configurar rutas estáticas. El enrutamiento dinámico también hace posible que los routers se adapten a los cambios de la red y que ajusten sus tablas de enrutamiento en consecuencia, sin intervención del administrador de redes. Sin embargo, el enrutamiento dinámico puede ocasionar problemas. Este módulo cubre algunos de los problemas asociados con los protocolos de enrutamiento dinámico por vector-distancia, junto con algunos de los pasos que los diseñadores de protocolos han dado para resolverlos. El Protocolo de información de enrutamiento (RIP) es un protocolo de enrutamiento por vector-distancia, en uso en miles de redes en todo el mundo. El hecho que RIP se base en estándares abiertos y que sea de fácil implementación hace que resulte atractivo para algunos administradores de redes, aunque RIP carece de la capacidad y de las características de los protocolos de enrutamiento más avanzados. Por su simplicidad, RIP es un buen protocolo de iniciación para el estudiante de redes. Este módulo también trata de la configuración y el diagnóstico de fallas del protocolo RIP. Al igual que RIP, el Protocolo de enrutamiento de gateway interior (IGRP) es un protocolo de enrutamiento por vector-distancia. A diferencia de RIP, IGRP es un protocolo propietario de Cisco y no un protocolo basado en estándares públicos. Aunque es muy fácil de implementar, IGRP es un protocolo de enrutamiento más complejo que RIP. Es capaz de utilizan diversos factores para determinar la mejor ruta hacia la red de destino. Este módulo también trata de la configuración y el diagnóstico de fallas del protocolo IGRP. Los estudiantes que completen este módulo deberán ser capaces de: * Describir cómo se pueden ocurrir los bucles de enrutamiento en el enrutamiento por vector-distancia. * Describir los distintos métodos utilizados por los protocolos de enrutamiento por vector-distancia para asegurar que la información de enrutamiento sea precisa. * Configurar el protocolo RIP * Utilizar el comando ip classless * Diagnosticar fallas en el protocolo RIP * Configurar RIP para el equilibrio de la carga * Configurar RIP con rutas estáticas * Verificar la operación del protocolo RIP * Configurar el protocolo IGRP * Verificar la operación del protocolo IGRP * Diagnosticar fallas en el protocolo IGRP 7.1 Enrutamiento por vector-distancia 7.1.1 Actualizaciones en el enrutamiento por vector-distancia En el protocolo de vector-distancia, las actualizaciones de las tablas de enrutamiento se hacen periódicamente, o cuando cambia la topología de la red. Es importante que un protocolo de enrutamiento sea eficiente en su tarea de actualizar las tablas de enrutamiento. Al igual que en el proceso de descubrimiento de la red, las actualizaciones de cambio de topología se producen de forma sistemática de un router a otro. Los algoritmos de vector-distancia requieren que cada router envíe toda la tabla de enrutamiento a cada uno de sus vecinos adyacentes. Las tablas de enrutamiento incluyen información acerca del costo total de la ruta (definido por su métrica) y la dirección lógica del primer router en la ruta hacia cada una de las redes indicadas en la tabla. 7.1.2 Bucles en el enrutamiento por vector-distancia Los bucles de enrutamiento pueden ser el resultado de tablas de enrutamiento incongruentes, las cuales no se han actualizado debido a la lenta convergencia de una red sujeta a cambios. 1. Antes de la falla de la red 1, todos los routers poseen información coherente y tablas de enrutamiento correctas. Se dice que la red ha logrado la convergencia. Supongamos, para el resto de este ejemplo, que la ruta preferida del router C hacia la red 1 es a través del router B y que la distancia del router C a la Red 1 es 3. 2. En el momento en que la red 1 falla, el router E envía una actualización al router A. El router A deja de enrutar paquetes hacia la red 1, pero los routers B, C y D siguen haciéndolo porque todavía no se les ha informado acerca de la falla. Cuando el router A envía su actualización, los routers B y D detienen el enrutamiento hacia la red 1; sin embargo, el router C no ha recibido la actualización. Para el router C, la red 1 todavía se puede alcanzar a través del router B. 3. El router C envía ahora una actualización periódica al router D, que señala una ruta hacia la red 1 a través del router B. El router D cambia su tabla de enrutamiento para introducir esta información buena pero errónea, y transmite la información al router A. El router A transmite la información a los routers B y E, etc. Cualquier

Page 144: Semestre1 Ccna

paquete destinado a la red 1 ahora realizará un bucle desde el router C al B, de allí al A y luego al D, y volverá nuevamente al C. 7.1.3 Definición de cuenta máxima Las actualizaciones erróneas de la red 1 continuarán generando bucles hasta que algún otro proceso lo detenga. Esta condición, denominada cuenta al infinito, hace que los paquetes recorran la red en un ciclo continuo, a pesar del hecho fundamental de que la red de destino, la red 1, está fuera de servicio. Mientras los routers cuentan al infinito, la información errónea hace que se produzca un bucle de enrutamiento. Si no se toman medidas para detener la cuenta al infinito, la métrica del vector-distancia del número de saltos aumenta cada vez que el paquete atraviesa otro router. Estos paquetes hacen un recorrido cíclico por la red debido a la información errónea en las tablas de enrutamiento. Los algoritmos de enrutamiento por vector-distancia se corrigen automáticamente, pero un bucle de enrutamiento puede requerir primero una cuenta al infinito. Para evitar este problema, los protocolos de vector-distancia definen el infinito como un número máximo específico. Este número se refiere a una métrica de enrutamiento, la cual puede ser el número de saltos. Con este enfoque, el protocolo de enrutamiento permite que el bucle de enrutamiento continúe hasta que la métrica supere el máximo valor permitido. El gráfico muestra que en este caso ya el valor alcanzó los 16 saltos. Esto supera la cifra máxima por defecto de 15 saltos del vector-distancia, de modo que el router descarta el paquete. En cualquier caso, cuando el valor de la métrica supera el valor máximo, se considera que no se puede alcanzar la red 1. 7.1.4 Eliminación de los bucles de enrutamiento mediante el horizonte dividido. Otra fuente posible de bucles de enrutamiento se presenta cuando se envía información incorrecta a un router, la cual contradice información correcta que este envió originalmente. Así es como se produce el problema: 1. El router A transfiere una actualización al router B y al router D, la cual indica que la red 1 está fuera de servicio. El router C, sin embargo, transmite una actualización periódica al router B, que señala que la red 1 está disponible a una distancia de 4, a través del router D. Esto no rompe las reglas del horizonte dividido. 2. El router B determina erróneamente que el router C todavía tiene una ruta válida hacia la red 1, aunque con una métrica mucho menos favorable. El router B envía una actualización periódica al router A la cual indica al router A la nueva ruta hacia la red 1. 3. El router A ahora determina que puede enviar paquetes a la red 1 a través del router B, el router B determina que puede enviar paquetes a la red 1 a través del router C, y el router C determina que puede enviar paquetes a la red 1 a través del router D. Cualquier paquete introducido en este entorno quedará atrapado en un bucle entre los routers. 4. El horizonte dividido busca evitar esta situación. Si la actualización de enrutamiento relativa a la red 1 es enviada desde el router A, el router B o D no pueden enviar información sobre la red 1 de vuelta hacia el router A. El horizonte dividido reduce así los errores de enrutamiento, y también disminuye el procesamiento de información de enrutamiento. 7.1.5 Envenenamiento de rutas El envenenamiento de rutas es utilizado por varios protocolos de vector-distancia para resolver grandes bucles de enrutamiento. A menudo, provee información explícita cuando no es posible el acceso a una subred o red. Esto se lleva a cabo normalmente mediante la configuración del número de saltos en la cantidad máxima más uno. Una forma de evitar actualizaciones incongruentes es el envenenamiento de rutas. Cuando la red 5 sale fuera de servicio, el router E inicia el envenenamiento de la ruta, mediante una entrada de valor 16 para la red 5, es decir, fuera de alcance. Debido al envenenamiento de la ruta hacia la red 5, el router C no es susceptible de efectuar actualizaciones incorrectas de la ruta hacia dicha red. Cuando el router C recibe el envenenamiento de ruta desde el Router E, envía una actualización llamada actualización de envenenamiento inversa de vuelta al router E. Esto asegura que todas las rutas del segmento hayan recibido la información del envenenamiento de la ruta. Cuando se combina el envenenamiento de rutas con las actualizaciones generadas por eventos, se agiliza el tiempo de convergencia ya que los routers vecinos no tienen que esperar 30 segundos antes de publicar la ruta envenenada. El envenenamiento de rutas hace que el protocolo de enrutamiento publique rutas de métrica infinita para la ruta que está fuera de servicio. El envenenamiento de rutas no rompe las reglas del horizonte dividido. El horizonte dividido con envenenamiento de rutas es en esencia un envenenamiento de rutas, pero, colocada en los enlaces en los el horizonte dividido no permitiría el paso de información de enrutamiento. En cualquiera de los casos, el resultado es que las rutas que están fuera de servicio se publican con métricas infinitas. 7.1.6 Prevención de bucles de enrutamiento mediante actualizaciones generadas por eventos

Page 145: Semestre1 Ccna

Los routers envían nuevas tablas de enrutamiento a los routers vecinos periódicamente. Por ejemplo, las actualizaciones en el protocolo RIP se producen cada 30 segundos. Sin embargo, una actualización generada por eventos es enviada de inmediato, en respuesta a algún cambio en la tabla de enrutamiento. El router que detecta un cambio de topología envía de inmediato un mensaje de actualización a los routers adyacentes, los cuales a su vez, generan actualizaciones a efectos de notificar el cambio a sus vecinos adyacentes. Cuando una ruta falla, inmediatamente se envía una actualización, sin esperar a que expiren los temporizadores de las actualizaciones. Las actualizaciones generadas por eventos, cuando se usan en conjunto con el envenenamiento de rutas, aseguran que todos los routers conozcan de la falla en las rutas, aun antes de que se cumpla el lapso de tiempo para una actualización periódica. Las actualizaciones generadas por eventos envían actualizaciones porque la información de enrutamiento ha cambiado, no porque se ha cumplido el lapso para una actualización. El router envía otra actualización de enrutamiento a sus otras interfaces, sin esperar a que expire el temporizador de las actualizaciones de enrutamiento. Esto causa que la información acerca del estado de la ruta que ha cambiado sea enviada, y activa más rápidamente los temporizadores de espera (holddown timers) en los routers vecinos. La ola de actualizaciones se propaga a través de la red. Mediante la actualización generada por eventos que genera el router C, éste anuncia que la red 10.4.0.0 está inaccesible. Al recibir esta información, el router B anuncia a través de la interfaz S0/1 que la red 10.4.0.0 está fuera de servicio. A su vez, el router A envía una actualización desde la interfaz Fa0/0. 7.1.7 Prevención de bucles de enrutamiento mediante temporizadores de espera El problema de la cuenta al infinito puede evitarse mediante los temporizadores de espera (holddown timers): * Si un router recibe una actualización de un router vecino, la cual indique que una red previamente accesible está ahora inaccesible, el router marca la ruta como inaccesible y arranca un temporizador de espera. Si en algún momento, antes de que expire el temporizador de espera, se recibe una actualización por parte del mismo router, la cual indique que la red se encuentra nuevamente accesible, el router marca la red como accesible y desactiva el temporizador de espera. * Si llega una actualización desde un router distinto, la cual establece una métrica más conveniente que la originalmente registrada para la red, el router marca la red como accesible y desactiva el temporizador de espera. * Si en algún momento antes de que expire el temporizador de espera se recibe una actualización de un router distinto, la cual establece una métrica menos conveniente que la originalmente registrada para la red, la actualización no será tomada en cuenta. El descartar las actualizaciones con métricas menos convenientes mientras el temporizador de espera se encuentra activado, da más tiempo para que la información relativa a un cambio perjudicial sea transmitido a toda la red. 7.2 Protocolo RIP 7.2.1 Proceso de enrutamiento del protocolo RIP La versión moderna del protocolo de estándar abierto RIP, a menudo denominado RIP IP, se describe formalmente en dos documentos distintos. El primero es el la Solicitud de comentarios 1058 (RFC 1058) y el segundo el Estándar de Internet 56 (STD 56). RIP ha evolucionado a lo largo de los años desde el Protocolo de enrutamiento con definición de clases, RIP Versión 1 (RIP v1), hasta el Protocolo de enrutamiento sin clase, RIP Version 2 (RIP v2). Las mejoras en RIP v2 incluyen: Capacidad para transportar mayor información relativa al enrutamiento de paquetes. Mecanismo de autenticación para la seguridad de origen al hacer actualizaciones de las tablas. Soporta enmascaramiento de subredes de longitud variable (VLSM). RIP evita que los bucles de enrutamiento se prolonguen en forma indefinida, mediante la fijación de un límite en el número de saltos permitido en una ruta, desde su origen hasta su destino. El número máximo de saltos permitido en una ruta es de 15. Cuando un router recibe una actualización de enrutamiento que contiene una entrada nueva o cambiada, el valor de la métrica aumenta en 1, para incluir el salto correspondiente a sí mismo. Si este aumento hace que la métrica supere la cifra de 15, se considera que es infinita y la red de destino se considera fuera de alcance. RIP incluye diversas características las cuales están presentes en otros protocolos de enrutamiento. Por ejemplo, RIP implementa los mecanismos de espera y horizonte dividido para prevenir la propagación de información de enrutamiento errónea. 7.2.2 Configuración del protocolo RIP El comando router rip habilita el protocolo de enrutamiento RIP. Luego se ejecuta el comando network para informar al router acerca de las interfaces donde RIP estará activo. A continuación, el proceso de enrutamiento

Page 146: Semestre1 Ccna

asocia las interfaces específicas con las direcciones de red y comienza a enviar y a recibir actualizaciones RIP en estas interfaces. RIP envía mensajes de actualización de enrutamiento a intervalos regulares. Cuando un router recibe una actualización de enrutamiento que incluya cambios a una entrada de su tabla de enrutamiento, actualiza la dicha tabla para reflejar la nueva ruta. El valor recibido de la métrica de la ruta aumenta en 1 y la interfaz de origen de la actualización se señala como el salto siguiente en la tabla de enrutamiento. Los routers RIP conservan sólo la mejor ruta hacia un destino pero pueden conservar más de una ruta al mismo destino si el costo de todas es igual. La mayoría de los protocolos de enrutamiento usan una combinación de actualizaciones causadas por eventos (event-driven) o por tiempo (time-driven). RIP es time-driven, pero la implementación Cisco de RIP envía actualizaciones tan pronto se detectan cambios. Cambios en la topología también originan actualizaciones inmediatas en routers IGRP, independientes del valor del temporizador de actualización. Sin actualizaciones event-driven RIP e IGRP no funcionarían adecuadamente. Una vez que se haya actualizado la tabla de enrutamiento por cambios en la configuración, el router comienza inmediatamente a transmitir las actualizaciones de enrutamiento, a fin de informar de estos cambios a los otros routers. Estas actualizaciones, denominadas actualizaciones generadas por eventos, se envían independientemente de las actualizaciones periódicas que envían los routers RIP a intervalos regulares. Por ejemplo, las descripciones de los comandos que se utilizan para configurar el router BHM que se muestra en la figura son las siguientes: * BHM(config)#router rip: selecciona al RIP como protocolo de enrutamiento. * BHM(config-router)#network 10.0.0.0: especifica una red conectada directamente. * BHM(config-router)#network 192.168.13.0: especifica una segunda red conectada directamente. Las interfaces del router Cisco conectadas a las redes 10.0.0.0 y 192.168.13.0 envían y reciben actualizaciones RIP. Estas actualizaciones de enrutamiento permiten que el router conozca la topología de la red desde routers vecinos que también ejecutan RIP. RIP debe estar habilitado, y las redes configuradas. Las otras tareas son opcionales. Entre las tareas opcionales se encuentran: * Aplicar compensaciones a la métrica de enrutamiento. * Ajustar los temporizadores. * Especificar una versión de RIP. * Habilitar la autenticación de RIP. * Configurar el resumen de las rutas en una interfaz. * Verificar el resumen de la rutas IP. * Inhabilitar el resumen automático de rutas. * Ejecutar IGRP y RIP al mismo tiempo. * Inhabilitar la validación de las direcciones de IP de origen. * Habilitar o inhabilitar el horizonte dividido. * Conectar RIP a una WAN. Para habilitar RIP, ejecute los siguientes comandos desde el modo de configuración global: * Router(config)#router rip: habilita el proceso de enrutamiento RIP. * Router(config-router)#networknúmero-de-la-red : asocia una red al proceso de enrutamiento RIP. 7.2.3 Uso del comando ip classless A veces, un router recibe paquetes destinados a una subred desconocida de una red que tiene interconexiones directas a subredes. Para que el IOS de Cisco envíe estos paquetes hacia la mejor ruta de super-net posible, ejecute el comando ip classless de configuración global. Una ruta de super-red es una ruta que abarca un ámbito más amplio de subredes mediante una sola entrada. Por ejemplo, una compañía utiliza toda la subred 10.10.0.0 /16, entonces la ruta de super-red para 10.10.10.0 /24 sería 10.10.0.0 /16. El comando ip classless está habilitado por defecto en el IOS de Cisco de las versiones 11.3 y posteriores. Para inhabilitar esta función, ejecute la forma no de este comando. Al inhabilitar esta función, todos los paquetes que se reciban con destino a direcciones en subredes que encajen numéricamente dentro del esquema de direcciones de la subred en el router serán desechados. El comando ip classless sólo afecta la operación de los procesos del IOS relativos al envío de paquetes. El comando ip classless no afecta la forma en que se crea la tabla de enrutamiento. Esta es la esencia del enrutamiento con definición de clases. Si se conoce una porción de una red principal, pero no se conoce la subred de destino de un paquete dentro de dicha red principal, el paquete es desechado. El aspecto más confuso de esta regla es que el router sólo usa la ruta por defecto si la ruta a la red principal no existe en la tabla de enrutamiento. Por defecto, un router supone que todas las subredes de una red conectada directamente deben figurar en la tabla de enrutamiento. Si se recibe un paquete cuya dirección de destino es desconocida, la cual pertenece a una subred desconocida de una red conectada directamente, el router

Page 147: Semestre1 Ccna

considera que la subred no existe. De modo que el router desechará el paquete aun si existe una ruta por defecto. El configurar ip classless en el router resuelve este problema, al permitir que el router no tome en cuenta los límites con definición de clases de las redes en su tabla de enrutamiento y simplemente transmita hacia la ruta por defecto. 7.2.4 Detalles frecuentes en la configuración de RIP Los routers RIP dependen de los routers vecinos para obtener la información de la red que no conocen de primera mano. Un término común empleado para describir esta funcionalidad es Enrutamiento por rumor. El protocolo RIP usa un algoritmo de enrutamiento por vector-distancia. Todos los protocolos de enrutamiento por vector-distancia tienen detalles importantes que son producto principalmente de una convergencia lenta. La convergencia ocurre cuando todos los routers de una red tienen la misma información de enrutamiento. Entre estos detalles se encuentran los bucles de enrutamiento y la cuenta al infinito. Éstos generan incongruencias debido a la propagación por la red de actualizaciones de enrutamiento con información obsoleta. Para reducir los bucles de enrutamiento y la cuenta al infinito, RIP emplea las siguientes técnicas. * Cuenta al infinito * Horizonte dividido * Actualización inversa: * Temporizadores de espera * Actualizaciones generadas por eventos. Algunos de estos métodos pueden requerir hacer algunas configuraciones, mientras que otros no lo requieren o rara vez lo requieren. RIP permite un número de saltos máximo de 15. Todo destino que exceda los 15 saltos se considera como fuera de alcance. El número máximo de saltos restringe en gran medida su uso en redes de gran tamaño, pero evita que un problema llamado "cuenta al infinito" produzca bucles de enrutamiento infinitos en la red. La regla de horizonte dividido se basa en la teoría que no es útil enviar información acerca de una ruta de vuelta a la dirección desde donde se originó. En algunas configuraciones de red, puede resultar necesario inhabilitar el horizonte dividido. El siguiente comando se utiliza para inhabilitar el horizonte dividido: GAD(config-if)#no ip split-horizon El temporizador de espera es otro mecanismo que puede requerir algunos cambios. Los temporizadores de espera ayudan a prevenir la cuenta al infinito, pero también aumentan el tiempo de convergencia. La espera por defecto en el protocolo RIP es de 180 segundos. Esto evita que una ruta menos conveniente ingrese en la tabla de enrutamiento pero también puede evitar que se instale una ruta alternativa válida. Es posible reducir el lapso del temporizador de espera, para agilizar la convergencia pero esto se debe hacer con cautela. El ajuste ideal es el que fije el temporizador con una duración apenas mayor al lapso máximo de actualización posible de la red. En el ejemplo de la Figura , el bucle consta de cuatro routers. Si cada router tiene un lapso de actualización de 30 segundos, el bucle más largo posible es de 120 segundos. Por lo tanto, el temporizador de espera debe ser apenas mayor a 120 segundos. Use el siguiente comando para cambiar el temporizador del contador de "holddown" , así como el temporizador de actualizaciones, el intervalo de inválidez y el intervalo de desecho. Router(config-router)#timers basicupdate invalid holddown flush [sleeptime] Un punto adicional que afecta el tiempo de convergencia y que puede configurarse es el intervalo entre actualizaciones. El intervalo entre actualizaciones por defecto de RIP en el IOS de Cisco es de 30 segundos. Puede configurarse para intervalos más prolongados, a fin de ahorrar ancho de banda, o más cortos para disminuir el tiempo de convergencia. Otro detalle de los protocolos de enrutamiento es la publicación indeseada de actualizaciones del enrutamiento desde una interfaz en particular. Cuando se ejecuta un comando network para una red dada, RIP comenzará inmediatamente a enviar publicaciones hacia todas las interfaces dentro del ámbito de direcciones de red especificado. Para controlar cuáles serán las interfaces que harán intercambio de actualizaciones de enrutamiento, el administrador de redes puede inhabilitar el envío de actualizaciones desde las interfaces que escoja. Para ello se usa el comando passive-interface. Como RIP es un protocolo de tipo broadcast, el administrador de la red podría tener que configurar RIP para que intercambie información de enrutamiento en redes no broadcast, como en el caso de las redes Frame Relay. En este tipo de redes, RIP necesita ser informado de otros routers RIP vecinos. Para esto se utiliza el comando que se muestra en la Figura .

Page 148: Semestre1 Ccna

Por defecto, el IOS de Cisco acepta paquetes de la Versión 1 y de la Versión 2 de RIP, pero sólo envía paquetes de la Versión 1. El administrador de redes puede configurar el router para que sólo reciba y envíe paquetes de la Versión 1 o para que sólo envíe paquetes de la Versión 2. A efectos de configurar el router para enviar y recibir paquetes de una sola versión, utilice los comandos de la Figura . Para controlar cómo se procesan los paquetes recibidos desde una interfaz, utilice los comandos de la Figure . 7.2.5 Verificación de la configuración del protocolo RIP Existen diversos comandos que se pueden utilizar para verificar que RIP esté correctamente configurado. Los dos comandos más comunes son el show ip route y el show ip protocols. El comando show ip protocols muestra cuáles son los protocolos que transportan tráfico IP en el router. Este resultado puede utilizarse para verificar la mayor parte, si no toda, la configuración del protocolo RIP. Algunos de los aspectos de la configuración más comunes que deben ser verificados son: * El uso del enrutamiento RIP está configurado. * Las interfaces correctas están enviando y recibiendo las actualizaciones RIP. * El router publica las redes correctas. El comando show ip route se puede utilizar para verificar que las rutas recibidas por los routers RIP vecinos estén instaladas en la tabla de enrutamiento. Examine el resultado del comando y busque las rutas RIP que señaladas con "R". Recuerde que la red tardará algún tiempo en converger, de modo que puede que no aparezcan las rutas de forma inmediata. Otros comandos para verificar la configuración del protocolo RIP son los siguientes: * show interfaceinterface * show ip interfaceinterface * show running-config 7.2.6 Detalles del diagnóstico de fallas en la actualización con protocolo RIP La mayoría de los errores de configuración del protocolo RIP incluyen comandos de red incorrectos, subredes discontinuas u horizontes divididos. Un comando muy efectivo para detectar problemas de actualización es el debug ip rip. El comando debug ip rip muestra las actualizaciones de enrutamiento RIP a medida que se las envía y recibe. El ejemplo de la Figura muestra el resultado del comando debug ip rip en un router, luego de recibir una actualización RIP. Después de recibir y procesar la actualización, el router envía la información recientemente actualizada hacia sus dos interfaces RIP. El resultado muestra que el router utiliza la versión 1 de RIP y que hace un broadcast de la actualización (dirección de broadcast 255.255.255.255). El número entre paréntesis representa la dirección de origen encapsulada en el encabezado IP de la actualización RIP. Existen varios indicadores clave a inspeccionar en el resultado del comando debug ip rip. Problemas tales como subredes discontinuas o redes duplicadas pueden ser diagnosticadas con este comando. Un síntoma de estos problemas sería que un router publicara una ruta con una métrica más baja que la métrica que recibió de la red. Otros comandos para diagnosticar fallas en el protocolo RIP son: * show ip rip database * show ip protocols {sumario} * show ip route * debug ip rip {eventos} * show ip interface brief 7.2.7 Prevención del envío de actualizaciones de enrutamiento a través de una interfaz El filtro de rutas funciona regulando las rutas que se incluyen o que se publican desde la tabla de enrutamiento. En el caso de los protocolos de enrutamiento de estado del enlace, los filtros de rutas tienen efectos diferentes a los correspondientes a los protocolos de vector-distancia. Un router que ejecuta un protocolo de vector-distancia publica rutas de acuerdo al contenido de la tabla de enrutamiento. Como resultado, el filtro de rutas tiene influencia sobre cuáles son las rutas que el router publica a sus vecinos. Por otra parte, los routers que usan protocolos de estado del enlace determinan las rutas de acuerdo a la información en su base de datos del estado del enlace, en vez de guiarse por la tabla publicada por un router vecino. Los filtros de ruta no tienen efectos sobre las publicaciones del estado del enlace o sobre la base de datos del estado del enlace. Por este motivo, la información en este documento sólo es válida para los protocolos de enrutamiento de paquetes IP por vector-distancia tales como Protocolo de información de enrutamiento (RIP) y el Protocolo de enrutamiento de gateway interior (IGRP).

Page 149: Semestre1 Ccna

El uso del comando passive interface puede evitar que los routers envíen las actualizaciones de enrutamiento a través de una interfaz en particular del router. El evitar que los mensajes de actualización del enrutamiento sean enviados a través de una interfaz en particular del router impide que otros sistemas de esa red aprendan las rutas de forma dinámica. En la figura , el router E utiliza el comando passive-interface para prevenir que se envíen las actualizaciones de enrutamiento. En los protocolos RIP e IGRP, el comando passive interface evita que el router envíe las actualizaciones hacia un vecino en particular, pero el router continúa recibiendo las actualizaciones de enrutamiento de dicho vecino. El evitar que los mensajes de actualización del enrutamiento sean enviados a través de una interfaz en particular del router impide que otros sistemas conectados a esa interfaz aprendan las rutas de forma dinámica. 7.2.8 Balanceo de las cargas con el protocolo RIP El balanceo de las cargas es un concepto que permite que un router saque ventaja de múltiples y mejores rutas hacia un destino dado. Estas rutas están definidas de forma estática por el administrador de la red o calculadas por un protocolo de enrutamiento dinámico, como RIP. RIP es capaz de balancear las cargas hasta en seis rutas de igual costo, cuatro de ellas por defecto. RIP realiza lo que se conoce como balanceo de cargas "por turnos" o "en cadena" (round robin). Significa que RIP, envía los paquetes por turnos a través de las rutas paralelas. La Figura muestra un ejemplo de rutas RIP con cuatro rutas de igual costo. El router comenzará con un apuntador hacia la interfaz conectada al router 1. Luego el apuntador iniciará un ciclo a través de las interfaces y rutas en un orden preconfigurado, por ejemplo: 1-2-3-4-1-2-3-4-1 y así sucesivamente. Como la métrica del protocolo RIP es el número de saltos, no se toma en cuenta la velocidad de los enlaces. Por lo tanto, la ruta de 56 Kbps tendrá la misma preferencia que la ruta de 155 Mbps. Es posible encontrar rutas de igual costo mediante el comando show ip route. Por ejemplo, la Figura muestra el resultado de show ip route para una subred particular con rutas múltiples. Note que existen dos segmentos descriptores de enrutamiento. Cada bloque es una ruta. También hay un asterisco (*) al lado de uno de los segmentos. Esto corresponde a la ruta activa que se utiliza para el tráfico nuevo. 7.2.9 Equilibrio de cargas a través de rutas múltiples El balanceo de cargas describe la capacidad de un router para transmitir paquetes a una dirección IP de destino a través de más de una ruta. El balanceo de las cargas es un concepto que permite que un router saque ventaja de múltiples y mejores rutas hacia un destino dado. Las rutas proviene de configuraciones estáticas o de protocolos dinámicos tales como RIP, EIGRP, OSPF e IGRP. Cuando un router conoce las múltiples rutas hacia una red específica, instala la ruta de distancia administrativa más corta en la tabla de enrutamiento. A veces, el router debe elegir una ruta entre las muchas que ha conocido mediante el mismo proceso de enrutamiento, y cuyas distancias administrativas son iguales. En este caso, el router elige la ruta con el costo o métrica más baja. Cada proceso de enrutamiento calcula sus costos de distinta forma y éstos pueden requerir de una configuración manual a fin de lograr el equilibrio de cargas. Si el router recibe e instala rutas múltiples con los mismos valores de distancia administrativa y costo, puede activarse el balanceo de las cargas. Puede haber hasta seis rutas de igual costo (un límite impuesto por el IOS de Cisco en la tabla de enrutamiento), pero algunos Protocolos de gateway interior (IGP) tienen sus propias limitaciones. El protocolo EIGRP permite hasta cuatro rutas de igual costo. Por defecto, la mayoría de los protocolos de enrutamiento de paquetes IP instalan un máximo de cuatro rutas paralelas en la tabla de enrutamiento. Las rutas estáticas siempre instalan seis rutas. La excepción es el protocolo BGP que, por defecto, permite sólo una ruta hacia el destino. El número máximo de rutas es de uno a seis. Para cambiar el número máximo de rutas paralelas permitidas, utilice el siguiente comando en el modo configuración del router. Router(config-router)#maximum-paths [number] El protocolo IGRP puede balancear las cargas hasta en seis enlaces distintos. Las redes RIP deben disponer de rutas con el mismo número de saltos para efectuar el balanceo de las cargas, mientras que el protocolo IGRP usa el ancho de banda para determinar el esquema de balanceo de cargas. Existen tres formas para llegar a la red X: * De E a B a A, con una métrica de 30 * De E a C a A, con una métrica de 20 * DE E a D a A, con una métrica de 45

Page 150: Semestre1 Ccna

El router E elige la segunda ruta, E-C-A, con una métrica de 20 ya que su costo es inferior a 30 y 45. El software Cisco IOS soporta dos métodos de balanceo de carga de paquetes IP. Estos son balanceo de carga por paquete o balanceo de carga por destino. Si está habilidado el método de conmutación conocido como process switching, el router alternará los caminos paquete a paquete. Si el método de conmutación conocido como fast switching está habilitado, solamente una de las rutas se guardará en la memoria cache para la red de destino. Todos los paquetes dirigidos a un host específico tomarán el mismo camino. Los paquetes dirigidos a hosts distintos en la misma red pueden usar una ruta alternativa. El tráfico se balancea de acuerdo al destino. Por defecto, el router usa balanceo de cargo por destino también llamado fast switching. El cache de las rutas permite que los paquetes salientes sean balanceados por destino y no por paquete. Para deshabilitar fast switching, use el comando no ip route-cache. El usar este comando permitirá que los paquetes sean balanceados por paquete. 7.2.10 Integración de las rutas estáticas con el protocolo RIP Las rutas estáticas son rutas definidas por el usuario, que obligan a los paquetes a tomar una ruta determinada entre su origen y su destino. Las rutas estáticas adquieren importancia si el IOS de Cisco no aprende una ruta hacia un destino en particular. Son útiles también para especificar "un gateway de último recurso", el cual generalmente se conoce como una ruta por defecto. Si un paquete tiene como destino una subred que no aparece expresamente en la tabla de enrutamiento, el paquete es enviado a través de una ruta por defecto. Un router que ejecuta el protocolo RIP puede recibir una ruta por defecto a través de una actualización de otro router que ejecuta RIP. Otra opción es que el router genere, por sí mismo la ruta por defecto. Las rutas estáticas pueden eliminarse con el comando de configuración global no ip route. El administrador puede dejar de lado una ruta estática y dar prioridad a la información de enrutamiento dinámico mediante el ajuste de los valores de distancia administrativa. Cada protocolo de enrutamiento dinámico tiene una distancia administrativa (AD) por defecto. Es posible definir una ruta estática como menos conveniente que una ruta aprendida de forma dinámica, siempre que la AD de la ruta estática sea mayor que la de la ruta dinámica. Note que después de configurar la ruta estática a la red 172.16.0.0 vía 192.168.14.2, la tabla de enrutamiento no la muestra. Se muestran únicamenta las rutas dinámicas aprendidas mediante RIP. Esto se debe a que la AD es mayor (130) para las rutas estáticas, y al menos que la ruta RIP en S0/0 se pierda, no será instalada en la tabla de enrutamiento. Las rutas estáticas que señalan una interfaz serán publicadas a través del router propietario de las rutas estáticas, y se propagarán por toda la red. Esto se debe a que las rutas estáticas que apuntan a una interfaz se consideran en la tabla de enrutamiento como conectadas, y por ello pierden su naturaleza estática en la actualización. Si se asigna una ruta estática a una interfaz que no está definida en el proceso RIP, mediante el comando network, RIP no publicará la ruta a menos que se especifique un comando redistribute static en el proceso de RIP. Cuando una interfaz sale fuera de servicio, todas las rutas estáticas que apuntan a ella son eliminadas de la tabla de enrutamiento de paquetes IP. De igual forma, cuando el IOS no puede encontrar un salto siguiente válido para la dirección especificada en la ruta estática, la ruta es eliminada de la tabla de enrutamiento de paquetes IP. En la Figura , se ha configurado una ruta estática en el router GAD para que tome el lugar de la ruta dinámica RIP en caso de fallas en el proceso de enrutamiento RIP. Esto se conoce como ruta estática flotante. La configuración de la ruta estática flotante indica una AD de (130) superior a la AD por defecto del la creada por RIP (120). El router BHM también necesita disponer de una ruta por defecto. Para configurar una ruta estática, ejecute el comando de la Figura en el modo de configuración global. 7.3 Protocolo IGRP 7.3.1 Características del protocolo IGRP IGRP es un protocolo de enrutamiento de gateway interior (IGP) por vector-distancia. Los protocolos de enrutamiento por vector-distancia comparan matemáticamente las rutas al medir las distancias. Dicha medición se conoce como vector-distancia. Los routers que usan los protocolos de vector-distancia deben enviar toda o parte de su tabla de enrutamiento en un mensaje de actualización de enrutamiento, a intervalos regulares y a cada uno de sus routers vecinos. A medida que se propaga la información de enrutamiento por toda la red, los routers realizan las siguientes funciones: * Identificar nuevos destinos. * Conocer de fallas. IGRP es un protocolo de enrutamiento de vector-distancia desarrollado por Cisco. IGRP envía actualizaciones de enrutamiento a intervalos de 90 segundos, las cuales publican las redes de un sistema autónomo en particular. Las características claves de IGRP son las siguientes:

Page 151: Semestre1 Ccna

* La versatilidad para manejar automáticamente topologías indefinidas y complejas. * La flexibilidad necesaria para segmentarse con distintas características de ancho de banda y de retardo. * La escalabilidad para operar en redes de gran tamaño Por defecto, el protocolo IGRP de enrutamiento usa el ancho de banda y el retardo como métrica. Además, IGRP puede configurarse para utilizar una combinación de variables para calcular una métrica compuesta. Estas variables incluyen: * Ancho de banda * Retardo * Carga * Confiabilidad 7.3.2 Métricas de IGRP El comando show ip protocols muestra los parámetros, los filtros y la información de la red relacionada con los protocolos de enrutamiento que están en uso en el router. Hay factores K1 a K5 que se muestran en la gráfica. Dichos factores se usan en el algoritmo para calcular la métrica de IGRP. Los valores por defecto de K1 y K3 son de 1 en ambos, y para K2, K4 y K5 son de 0. Esta métrica compuesta es más precisa que la métrica del número de saltos que usa RIP para elegir una ruta hacia un destino. La ruta de menor valor métrico es la mejor. Las métricas que utiliza el protocolo IGRP son: * Ancho de banda: el menor valor de ancho de banda en la ruta. * Retardo: el retardo acumulado de la interfaz a lo largo de la ruta. * Confiabilidad: la confiabilidad del enlace hacia el destino, según sea determinada por el intercambio de mensajes de actividad (keepalives). * Carga: la carga sobre un enlace hacia el destino, medida en bits por segundos. IGRP utiliza una métrica compuesta. Esta métrica se calcula como función del ancho de banda, el retardo, la carga y la confiabilidad. Por defecto, sólo se considera el ancho de banda y el retardo. Los parámetros restantes sólo se consideran si se habilitan a través de la configuración. El retardo y el ancho de banda no son valores medidos, sino que se fijan a través de los comandos de interfaces relativos al ancho de banda y al retardo. El comando show ip route del ejemplo muestra entre corchetes los valores de la métrica de IGRP. Un enlace de mayor ancho de banda tendrá una métrica de menor valor y una ruta con menor retardo acumulado tendrá una métrica de menor valor. 7.3.3 Rutas IGRP IGRP publica tres tipos de rutas: * Interiores * Del sistema * Exteriores Interiores Las rutas interiores son rutas entre subredes de la red conectada a una interfaz de un router. Si la red que está conectada a un router no está dividida en subredes, IGRP no publica rutas interiores. Sistema Las rutas del sistema son rutas hacia redes ubicadas dentro de un sistema autónomo. El IOS de Cisco deriva rutas de sistema de las interfaces de red conectadas directamente y de la información de rutas de sistema suministrada por otros routers que ejecutan IGRP o por servidores de acceso. Las rutas de sistema no incluyen información acerca de las subredes. Exteriores Las rutas exteriores son rutas hacia redes fuera del sistema autónomo, las cuales se tienen en cuenta al identificar un gateway de último recurso. El IOS de Cisco elige un gateway de último recurso de la lista de rutas exteriores que suministra IGRP. El software usa el gateway (router) de último recurso si no se encuentra una ruta mejor y si el destino no es una red conectada. Si el sistema autónomo tiene más de una conexión hacia una red externa, cada router puede seleccionar un router exterior diferente como gateway de último recurso. 7.3.4 Características de estabilidad del protocolo IGRP IGRP ofrece una serie de funciones diseñadas para mejorar su estabilidad, por ejemplo: * Lapsos de espera. * Horizontes divididos.

Page 152: Semestre1 Ccna

* Actualizaciones inversas envenenadas. Lapsos de espera. Los lapsos de espera se utilizan para evitar que los mensajes periódicos de actualización puedan reinstalar erróneamente una ruta que podría estar fuera de servicio. Cuando un router sale de servicio, los routers vecinos detectan ese evento por la falta de mensajes de actualización periódicos. Horizontes divididos. Los horizontes divididos se originan en la premisa que dice que no es útil enviar información acerca de una ruta de vuelta a la dirección desde donde se originó. La técnica del horizonte dividido ayuda a prevenir los bucles de enrutamiento entre router adyacentes. Actualizaciones inversas envenenadas. Las actualizaciones inversas envenenadas son necesarias para romper los bucles de enrutamiento de mayor envergadura. En general, los aumentos en las métricas de enrutamiento señalan la presencia de bucles. Entonces, se envían actualizaciones inversas envenenadas para eliminar la ruta y colocarla en espera. En IGRP, las actualizaciones inversas envenenadas se envían sólo si la métrica de la ruta ha aumentado en un factor de 1,1 o más. IGRP también mantiene un cierto número de temporizadores y de variables que contienen los intervalos de tiempo. Estos incluyen un temporizador de actualizaciones, un temporizador de caída del servicio, un temporizador de espera y un temporizador de purga. El temporizador de actualizaciones especifica a qué frecuencia se deben enviar los mensajes de actualización de enrutamiento. Por defecto, en IGRP el valor de esta variable es de 90 segundos. El temporizador de caída del servicio especifica cuánto tiempo debe esperar un router ante la ausencia de mensajes de actualización de enrutamiento en relación a una ruta específica antes de declarar que está fuera de servicio. Por defecto, en IGRP esta variable es tres veces el lapso de las actualizaciones. El temporizador de espera especifica la cantidad de tiempo durante el cual no se toma en cuenta la información sobre rutas menos convenientes. Por defecto, en IGRP esta variable es tres veces el lapso de las actualizaciones, más 10 segundos. Por último, el temporizador de purga indica cuánto tiempo debe transcurrir antes de que se purgue una ruta de la tabla de enrutamiento. Por defecto, es siete veces el lapso de las actualizaciones del temporizador de enrutamiento. En la actualidad se hace evidente la antigüedad de IGRP, ya que carece de capacidades para manejar máscaras de subred de longitud variable (VLSM). Antes que desarrollar un IGRP versión 2 para corregir este problema, Cisco se ha apoyado en el legado de éxito de IGRP para desarrollar el Enhanced IGRP (IGRP mejorado). 7.3.5 Configuración del protocolo IGRP Para configurar un proceso de enrutamiento IGRP, use el comando de configuración router igrp. Para desactivar un proceso de enrutamiento IGRP, use la forma no del comando. RouterA(config)#router igrpas-number RouterA(config)#no router igrpas-number El número de Sistema Autónomo (AS) identifica el proceso IGRP. También se utiliza para marcar la información de enrutamiento. Para especificar una lista de redes para los procesos de enrutamiento IGRP, use el comando network de configuración del router. Para eliminar una entrada, utilice la forma no del comando. La Figura es un ejemplo de cómo configurar IGRP mediante AS 101. 7.3.6 Migración de RIP a IGRP Con el desarrollo de IGRP a principios de los años ochenta, Cisco Systems fue la primera compañía en resolver los problemas asociados al uso de RIP para enrutar datagramas entre routers interiores. IGRP determina la mejor ruta a través de la red mediante el examen del ancho de banda y el retardo de las redes entre los routers. IGRP converge más velozmente que RIP, evitando de esta manera los bucles de enrutamiento causados por desacuerdos respecto al salto que se debe realizar a continuación. Más aún, IGRP no comparte la limitación de número máximo de saltos que tiene RIP. Como resultados de lo anterior y de otras mejoras que aventajan a RIP, IGRP hizo posible la instalación de muchas redes de diversas topologías, complejas y de gran tamaño. Estos son los pasos a seguir para efectuar una conversión de RIP a IGRP:

Page 153: Semestre1 Ccna

1. Usando el comando show ip route, verifique el protocolo de enrutamiento en uso (RIP) en los routers que se van a convertir. 2. Configure IGRP en el router A y en el router B 3. Ejecute show ip protocolsen el router A y en el router B 4. Ejecute show ip route en el router A y en el router B 7.3.7 Verificación de la configuración de IGRP Para verificar que se haya configurado correctamente IGRP, ejecute el comando show ip route y observe las rutas IGRP señaladas con una "I". Los comandos adicionales para verificar la configuración del IGRP son los siguientes: * show interface interface * show running-config * show running-config interfaceinterface * show running-config | begin interfaceinterface * show running-config | begin igrp * show ip protocols Para verificar que la interfaz Ethernet está correctamente configurada, ejecute el comando show interface fa0/0. La Figura muestra el resultado. Para determinar si el protocolo IGRP está habilitado en el router, ejecute el comando show ip protocols. La Figura muestra el resultado. Los comandos que se muestran en las Figuras verifican los comandos de red, las direcciones IP y las tablas de enrutamiento. 7.3.8 Diagnóstico de fallas de IGRP La mayoría de los errores de configuración de IGRP son comandos de red mal tecleados, subredes discontinuas o un número de sistema autónomo incorrecto. Los siguientes comandos son útiles en el diagnóstico de fallas en IGRP: * show ip protocols * show ip route * debug ip igrp events * debug ip igrp transactions * ping * traceroute La Figura muestra el resultado del comando debug ip igrp events. La Figura muestra el resultado del comando debug ip igrp transactions. Se determinó que el número de AS en uso era incorrecto. Luego de corregirlo el comando dio el resultado que se muestra en la Figura . Módulo 8: Mensajes de control y de error de los protocolos TCP/IP Descripción general El protocolo IP es limitado porque es un sistema de entrega de mejor esfuerzo. No dispone de un mecanismo para garantizar la entrega de los paquetes de datos, a pesar de los problemas con los que se puedan encontrar en la red. Los paquetes pueden no llegar a su destino por diversas razones, tales como fallas de hardware, configuración inadecuada o información de enrutamiento incorrecta. Para ayudar a identificar estas fallas, el IP usa el Protocolo de mensajes de control en Internets (ICMP), para notificar al emisor de los paquetes que se produjo un error durante el proceso de envío. Este módulo describe los diversos tipos de mensajes de error del ICMP y algunas de las formas en las que se utilizan. Dado que el protocolo IP no cuenta con un mecanismo incorporado para enviar mensajes de error y control, usa ICMP para enviar y recibir mensajes de error y control a los hosts de la red. Este módulo se refiere principalmente a los mensajes de control, que son los mensajes que suministran información o parámetros de configuración a los hosts. El conocimiento de los mensajes de control del ICMP es una parte esencial del diagnóstico de fallas de la red y es un elemento clave para lograr una comprensión absoluta de las redes IP. Los estudiantes que completen este módulo deberán ser capaces de:

Page 154: Semestre1 Ccna

* Describir el protocolo ICMP * Describir el formato de mensajes del ICMP * Identificar los tipos de mensajes de error del ICMP * Identificar las causas potenciales de mensajes de error específicos * Describir los mensajes de control del ICMP * Identificar diversos mensajes de control del ICMP que se usan actualmente en las redes * Determinar las causas de los mensajes de control del ICMP 8.1 Descripción general de los mensajes de error del TCP/IP 8.1.1 Protocolo de mensajes de control de Internets (ICMP) El IP es un método poco confiable para la entrega de paquetes de red. Se le conoce como un mecanismo de entrega de mejor esfuerzo. No cuenta con ningún proceso incorporado para garantizar la entrega de paquetes en caso de que se produzca un problema de comunicación en la red. Si un dispositivo que actúa como intermediario falla como por ejemplo un router, o si un dispositivo de destino sale fuera de la red, los paquetes no se pueden entregar. Además, nada en su diseño básico hace que el IP notifique al emisor de que la transmisión ha fallado. El Protocolo de control de mensajes de Internet (ICMP) es el componente del conjunto de protocolos TCP/IP que corrige esta limitación básica del IP. El ICMP no resuelve los problemas de falta de confiabilidad en el protocolo IP. En caso de ser necesario, la confiabilidad debe ser prevista por los protocolos de capa superior. 8.1.2 Informes de error y corrección de errores El ICMP es un protocolo de notificación de errores para el protocolo IP. Cuando se produce un error en la entrega de datagramas, se usa el ICMP para notificar de dichos errores a la fuente de los datagramas. Por ejemplo, si la estación de trabajo 1 de la Figura envía un datagrama a la estación de trabajo 6, pero la interfaz Fa0/0 del router C deja de funcionar, el router C utiliza ICMP para enviar un mensaje de vuelta a la estación de trabajo 1, el cual notifica que el datagrama no se pudo entregar. El ICMP no corrige el problema en la red; sólo informa del problema. Cuando el router C recibe el datagrama de la estación de trabajo 1, sólo conoce las direcciones de IP de origen y destino del datagrama. No sabe cuál es la ruta exacta que tomó el datagrama en su camino hacia él. Por lo tanto, el router C sólo puede notificar a la estación de trabajo 1 acerca de la falla, y no se envía ningún mensaje de error ICMP al router A y al router B. El ICMP sólo informa al dispositivo de origen acerca del estado del paquete. No envía ninguna información sobre cambios en la red a los routers. 8.1.3 Entrega de mensajes ICMP Los mensajes del ICMP se encapsulan en datagramas, del mismo modo en que se entrega cualquier otro dato mediante el protocolo IP. La Figura muestra el encapsulamiento de datos ICMP dentro de un datagrama IP. Dado que los mensajes del ICMP se transmiten del mismo modo que cualquier otro paquete, están sujetos a las mismas fallas en la entrega. Esto crea una situación en la que los informes de error pueden generar más informes de error, lo que provoca una congestión creciente en una red que ya tiene fallas. Por esta razón, las fallas relativas a los mensajes del ICMP no generan sus propios mensajes de ICMP. De este modo, es posible que haya un error de entrega cuyo informe no llegue nunca de vuelta al emisor de los datos. 8.1.4 Redes fuera de alcance Las comunicaciones en una red dependen de que se cumpla determinadas condiciones básicas. En primer lugar, los dispositivos emisor y receptor deben disponer de la pila del protocolo TCP/IP debidamente configurada. Esto incluye la instalación del protocolo TCP/IP y de la configuración adecuada de la dirección de IP y la máscara de subred. También se debe configurar una puerta de enlace predeterminada (también conocido como gateway por defecto), si va a haber envío de datagramas fuera de la red local. En segundo lugar, se debe proveer de dispositivos que actúen como intermediarios, para el enrutamiento de los datagramas desde el dispositivo y la red de origen hacia la red de destino. Los routers cumplen esta función. El router también debe disponer del protocolo TCP/IP debidamente configurado en sus interfaces y debe usar un protocolo de enrutamiento adecuado. Si no se cumplen estas condiciones, no se puede realizar la comunicación entre redes. Por ejemplo, el dispositivo emisor puede dirigir el datagrama a una dirección de IP inexistente o a un dispositivo de destino que está fuera de la red. Los routers también pueden ser puntos de falla si la interfaz de conexión está desactivada o si el router no cuenta con la información necesaria para detectar la red de destino. Si la red de destino no está accesible, se dice que es una red que está fuera de alcance. Las Figuras y muestran un router que recibe un paquete, el cual no puede enviar a su destino final. No se puede entregar el paquete porque no existe ninguna ruta conocida hacia el destino. Por ello, el router envía al origen un mensaje ICMP llamado de host fuera de alcance. 8.1.5 Uso de ping para verificar el estado del destino

Page 155: Semestre1 Ccna

El protocolo ICMP se puede usar para verificar el estado de un destino en particular. La Figura muestra el uso del ICMP para emitir un mensaje de solicitud de eco a un dispositivo de destino. Si el dispositivo de destino recibe la petición de eco, crea un mensaje de respuesta el cual es enviado de vuelta al origen de la petición. Si el emisor recibe la respuesta, confirma que el dispositivo destino se puede alcanzar mediante el uso del protocolo IP. Generalmente, el mensaje de petición de eco se inicia al ejecutar el comando ping, como se muestra en la Figura . En este ejemplo, el comando se usa con la dirección de IP del dispositivo de destino. El comando se puede usar también como se muestra en la Figura usando la dirección IP del dispositivo destino. En estos ejemplos, el comando ping emite cuatro peticiones de eco y recibe cuatro respuestas, lo que confirma la conectividad IP entre los dos dispositivos. Como se muestra en la figura , la respuesta de eco incluye un valor TTL (tiempo de vida) el cual es un campo del ancabezado de un paquete IP que limita el número de reenvíos de un paquete. al procesar un paquete, cada router decrementa el valor de TTL en uno. Cuando un router recibe un paquete con un valor de 1, éste no puede ser reenviado. Un mensaje ICMP se genera y se manda al origen, y el paquete original se elimina. 8.1.6 Detección de rutas excesivamente largas Se puede producir situaciones en las comunicaciones de red en las que un datagrama viaje en círculos, sin llegar nunca a su destino. Esto puede ocurrir si dos routers enrutan continuamente un datagrama de ida y vuelta entre ellos, pensando que el otro debe ser el siguiente salto hacia el destino. Éste es un ejemplo de información de enrutamiento defectuosa. Las limitantes del protocolo de enrutamiento pueden dar como resultado destinos inalcanzables. El número máximo de saltos en RIP es de 15, lo cual significa que las redes mayores a los 15 saltos no se pueden manejar con RIP. En cualquiera de los casos, existe una ruta excesivamente larga. Ya sea que la ruta actual incluya un círculo, o bien que el paquete exceda el número máximo de saltos. 8.1.7 Mensajes de eco Al igual que cualquier tipo de paquete, los mensajes ICMP tienen formatos especiales. Cada tipo de mensaje ICMP que se muestra en la Figura tiene sus propias características, pero todos los formatos de mensaje ICMP comienzan con estos mismos tres campos: * Tipo * Código * Suma de comprobación (checksum) El campo de tipo indica el tipo de mensaje ICMP que se envía. El campo de código incluye información adicional relativa al tipo de mensaje en particular. El campo checksum (suma de comprobación), al igual que en los otros tipos de paquetes, se usa para verificar la integridad de los datos. La Figura muestra el formato de los mensajes ICMP "echo request" (petición de eco) y "echo reply" (respuesta de eco). Se muestra el tipo y los números de código pertinentes para cada tipo de mensaje. El campo identificador y el de número de secuencia son exclusivos de los mensajes de petición de eco y respuesta de eco. Estos campos se usan para comparar las respuestas de eco con la petición de eco correspondiente. El campo de datos contiene información adicional que puede formar parte de un mensaje de petición de eco o de respuesta de eco). 8.1.8 Mensaje "destination unreachable" (destino fuera de alcance) No siempre es posible enviar los datagramas a sus destinos. Las fallas de hardware, configuraciones inadecuadas del protocolo, interfaces inactivas y errores en la información de enrutamiento son algunas de las razones que pueden impedir que la entrega se complete con éxito. En estos casos, el ICMP envía de vuelta al emisor un mensaje llamado "destination unreachable" (destino fuera de alcance), el cual le indica al emisor que el datagrama no se pudo entregar adecuadamente. La Figura muestra el encabezado de un mensaje de destino fuera de alcance del ICMP. El valor 3 en el campo de tipo señala que es un mensaje de destino fuera de alcance. El valor del código indica el motivo por el cual el paquete no se pudo entregar. La Figura muestra un valor de código de 0, lo que indica que la red está fuera de alcance. La Figura muestra el significado de cada uno de los valores de código posibles en un mensaje de destino fuera de alcance. También se puede enviar un mensaje de destino fuera de alcance cuando se requiere la fragmentación de los paquetes para hacer posible su envío. La fragmentación generalmente es necesaria cuando se envía un datagrama desde una red Token-Ring a una red Ethernet. Si el datagrama no permite la fragmentación, el paquete no puede enviarse, por lo que se envía un mensaje de destino fuera de alcance. Los mensajes de

Page 156: Semestre1 Ccna

destino fuera de alcance también se pueden generar si los servicios IP relacionados, como por ejemplo el FTP o los servicios WWW, no están disponibles. Para diagnosticar las fallas de una red IP de forma eficaz, es necesario comprender las diversas causas de los mensajes ICMP de destino fuera de alcance. 8.1.9 Otros informes de error Es posible que los dispositivos que procesan datagramas no puedan enviar un datagrama debido a un error en el encabezado. Este error no se relaciona con el estado del host de destino o de su red, pero impide que el datagrama se procese y se envíe, y debido a esto, el datgrama se descarta. En este caso, se envía un mensaje ICMP "parameter problem" (problema de parámetros) de tipo 12 a la fuente del datagrama. La Figura muestra el encabezado del mensaje de problema de parámetros. El mensaje de problema de parámetros incluye el campo del marcador o apuntador del encabezado. Si el valor del código es 0, el campo de marcador indica el octeto del datagram que generó el error. 8.2 Mensajes de control del conjunto de protocolos TCP/IP 8.2.1 Introducción a los mensajes de control El Protocolo de mensajes de control en Internet (ICMP) es una parte integral del conjunto de protocolos TCP/IP. De hecho, todas las implementaciones del IP deben incluir soporte al ICMP. La razón es muy sencilla. En primer lugar, dado que el IP no garantiza la entrega, no cuenta con ningún método incorporado para informar a los hosts que se ha producido un error. Además, el IP no cuenta con ningún método incorporado para suministrar mensajes de información o control a los hosts. El ICMP ejecuta estas funciones para el IP. A diferencia de los mensajes de error, los mensajes de control no se presentan como el resultado deperdida de paquetes o condiciones de error que puedan ocurrir durante la transmisión de los paquetes, sino que se utilizan para mantener a los hosts informadosde eventos como congestionamiento o la existencia de un mejor gatewaya una red remota. ICMP usa el header IP básico para viajar a través de varias redes. El ICMP usa múltiples tipos de mensajes de control. Algunos de los más comunes se muestran en la Figura . Muchos de ellos se tratan en esta sección. 8.2.2 Peticiones ICMP de redireccionamiento/cambio Un mensaje común de control del protocolo ICMP es la petición de redireccionamiento/cambio. Este tipo de mensaje sólo puede originarse de un gateway, que es un término que se usa comúnmente para describir un router. Todos los hosts que se comunican con múltiples redes IP deben tener configurado un gateway por defecto. Este gateway por defecto es la dirección del puerto del router conectado a la misma red que el host. La Figura muestra un host conectado a un router que tiene acceso a la Internet. Una vez configurado con la dirección IP de la interfaz Fa 0/0 como su gateway por defecto, el host B usa esa dirección de IP para llegar a cualquier red a la cual no esté conectado directamente. Normalmente, el host B está conectado sólo a un gateway. Sin embargo, en algunos casos, el host está conectado a un segmento de red el cual tiene dos o más routers conectados directamente. En este caso, es posible que el gateway por defecto del host deba utilizar una petición de redireccionamiento/cambio para informar al host cuál es la mejor ruta hacia una red determinada. La Figura muestra una red donde podría ocurrir el redireccionamiento ICMP. El host B envía un paquete al host C en la red 10.0.0.0/8. Dado que el host B no está directamente conectado a la misma red, envía el paquete a su gateway por defecto, el router A. El router A encuentra la ruta correcta hacia la red 10.0.0.0/8 en su tabla de enrutamiento, y determina que la ruta hacia la red es a través de la misma interfaz de la que provino la petición para enviar el paquete. Envía el paquete y hace una petición ICMP de redireccionamiento/cambio al host B, en la cual le indica que debe usar el router B como gateway para enviar todas las peticiones futuras para la red 10.0.0.0/8. Los gateway por defecto envían mensajes ICMP de peticiones de redireccionamiento/cambio sólo si se cumplen las siguientes condiciones: * La interfaz a través de la cual el paquete ingresa al router es la misma a través de la cual sale el paquete enrutado. * La subred/red de la dirección de IP de origen es la misma red/subred de la dirección de IP del salto siguiente del paquete enrutado. * El datagrama no está enrutado desde el origen. * La ruta para el redireccionamiento no es otro redireccionamiento ICMP ni otra ruta por defecto. * El router está configurado para enviar redireccionamientos. (Por defecto, los routers Cisco envían redireccionamientos ICMP. El subcomando de interfaces no ip redirects inhabilita todos los redireccionamientos ICMP). La petición ICMP de redireccionamiento/cambio utiliza el formato que se muestra en la Figura . Tiene un código ICMP de tipo 5. Además, puede tener valores de código de 0, 1, 2 ó 3. El campo Router Internet Address (Dirección Internet del router) del redireccionamiento ICMP es la dirección de

Page 157: Semestre1 Ccna

IP a ser usada como gateway por defecto para una red en particular. En el ejemplo que aparece en la Figura , el redireccionamiento ICMP que se envía desde el router A al host B tiene un valor de campo del Router Internet Address de 172.16.1.200, el cual es la dirección IP de la interfaz E0 en el router B. 8.2.3 Sincronización de relojes y estimación del tiempo de tránsito El conjunto de protocolos TCP/IP permite que los sistemas se conecten entre sí a través de amplias distancias por múltiples redes. Cada una de estas redes individuales hace su sincronización de reloj de una manera particular. Como resultado de ello, puede haber problemas en el caso de hosts en redes distintas que tratan de comunicarse mediante software que requiere de sincronización de reloj. El mensaje ICMP de tipo "timestamp" (de marca horaria) está diseñado para ayudar a resolver este problema. El mensaje ICMP de petición de marca horaria permite que un host solicite la hora actual que observa el host remoto. El host remoto usa un mensaje ICMP de respuesta de marca horaria para responder a la petición. El campo de tipo de un mensaje ICMP de marca horaria puede ser 13 (timestamp request/petición de marca horaria) o 14 (timestamp reply/respuesta de marca horaria). El valor del campo de código se fija siempre en 0 dado que no hay ningún parámetro adicional disponible. La petición de marca horaria ICMP contiene una marca horaria de origen, que es la hora en el host solicitante al momento de enviar la petición de marca horaria. La marca horaria de recepción es la hora en que el host destino recibe la petición de marca horaria. La marca horaria de transmisión se completa justo antes de que se devuelva la respuesta de marca horaria. Las marcas horarias de origen, recepción y transmisión se calculan según la cantidad de milisegundos que transcurrieron desde la medianoche de la Hora Universal (UT). Todos los mensajes ICMP de respuesta de marca horaria contienen las marcas horarias de origen, recepción y transmisión. Usando estos tres marca de tiempo, el cliente puede determinar el tiempo de tránsito a través de la red mediante la resta del tiempo de llegada y el tiempo de salida. O también en la dirección contraria restando el tiempo de transmisión del tiempo actual. El host que originó la petición de marca horaria también puede estimar la hora local en la computadora remota. Aunque los mensajes ICMP de marca horaria suministran una forma sencilla para estimar la hora en un host remoto y el tiempo de tránsito total de una red, no es la mejor manera de obtener esta información. En lugar de ello, existen protocolos más sólidos como por ejemplo el Protocolo de hora de red (NTP), perteneciente a las capas superiores de la pila del protocolo TCP/IP, el cual realiza la sincronización de relojes de un modo más confiable. 8.2.4 Formatos de los mensajes de petición de información y de respuesta Los mensajes ICMP de petición de información y de respuesta fueron concebidos originalmente para permitir que el host determine su número de red. La Figura muestra el formato de un mensaje ICMP de petición de información y de respuesta. Hay dos códigos de tipo disponibles para estos mensajes. El tipo 15 indica un mensaje de petición de información y el tipo 16 señala un mensaje de respuesta de información. Este tipo de mensaje ICMP en particular se considera obsoleto. En la actualidad se usan otros protocolos como, por ejemplo el BOOTP, Reverse Address Resolution Protocol (RARP), y el Protocolo de configuración dinámica del host (DHCP), para que los hosts obtengan sus números de red. 8.2.5 Solicitud de la máscara de dirección Cuando un administrador de red emplea el proceso de división en subredes para dividir un grupo amplio de direcciones IP en múltiples subredes, se crea una nueva máscara de subred. Esta nueva máscara de subred es vital para identificar los bits correspondientes a la red, la subred y el host de una dirección de IP. Si un host no conoce su máscara de subred, puede enviar una petición de máscara al router local. Si se conoce la dirección del router, esta petición se puede enviar directamente al router. De otro modo, la petición será hecha como broadcast. Cuando el router recibe la petición, envía de vuelta una respuesta de máscara de dirección o "address mask reply". Esta respuesta de máscara de dirección indica la máscara de subred correcta. Por ejemplo, consideremos que el host se encuentra en una red Clase B y tiene una dirección de IP de 172.16.5.2. Este host desconoce su máscara de subred, por lo tanto hace una petición de la máscara de dirección como broadcast. Dirección de origen: 172.16.5.2 Dirección de destino: 255.255.255.255 Protocolo: ICMP = 1 Tipo: Petición de máscara de dirección = AM1 Código: 0

Page 158: Semestre1 Ccna

Máscara: 255.255.255.0 Este broadcast se recibe en 172.16.5.1, el router local. El router responde enviando una respuesta de máscara de dirección o "address mask reply": Dirección de origen: 172.16.5.1 Dirección de destino: 172.16.5.2 Protocolo: ICMP = 1 Tipo: Respuesta de máscara de dirección = AM2 Código: 0 Máscara: 255.255.255.0 Los formatos de la petición y respuesta de máscara de dirección se indican en la Figura . La Figura muestra las descripciones de cada uno de los campos del mensaje de petición de máscara de dirección. Observe que se usa el mismo formato tanto para la petición como para la respuesta de máscara de dirección. Sin embargo, el número de tipo 17 se asigna a la petición y, el 18, a la respuesta. 8.2.6 Mensaje de descubrimiento de routers Cuando arranca un host de la red, y su gateway por defecto no se ha configurado manualmente, puede aprender cuáles son los routers disponibles a través del proceso de descubrimiento de routers. Este proceso comienza cuando el host envía un mensaje de solicitud de routers a todos los routers. Para ello utiliza la dirección multicast 224.0.0.2 como la dirección destino. La Figura muestra el mensaje ICMP de descubrimiento de routers o "router discovery". El mensaje de descubrimiento de router se puede enviar también como broadcast, para que incluya los routers que no se pueden configurar para multicast. Si se envía un mensaje de descubrimiento de router a un router que no maneja el proceso de descubrimiento, no se recibirá ninguna respuesta a dicho mensaje. Si un router que permite el proceso de descubrimiento recibe un mensaje de descubrimiento de router, envía de vuelta una publicación o anuncio de router. El formato de la publicación de router se muestra en la Figura y la Figura da una explicación de cada uno de los campos. 8.2.7 Mensaje de solicitud de router Un host genera un mensaje ICMP de solicitud de router en respuesta a la ausencia de un gateway por defecto. Este mensaje se envía mediante multicast y es el primer paso del proceso de descubrimiento de routers. El router local responde con una publicación de router, en la que se identifica el gateway por defecto para el host local. La Figura identifica el formato de la publicación de router y la Figura da una explicación de cada uno de los campos. 8.2.8 Mensajes de congestión y control de flujo Si varias computadoras tratan de tener acceso al mismo destino a la vez, la computadora de destino puede ser incapaz de manejar el alto tráfico. También se puede producir congestión cuando el tráfico de una LAN de alta velocidad llega a una conexión WAN más lenta. Cuando hay demasiada congestión en una red, los paquetes se pierden. Los mensajes ICMP source-quench (supresión en el origen) se usan para reducir la cantidad de datos perdidos. Los mensajes de supresión en el origen solicitan a los emisores reducir la velocidad a la que transmiten los paquetes. En la mayoría de los casos, la congestión se reduce luego de un corto período de tiempo, y el origen lentamente aumenta la velocidad de transmisión siempre y cuando no se reciba ningún otro mensaje de supresión en el origen. La mayoría de los routers Cisco por defecto no envían mensajes de supresión en el origen, dado que dichos mensajes pueden contribuir a la congestión de la red. El caso de las oficinas pequeñas o oficinas en el hogar (SOHO) es uno en el que los mensajes ICMP de supresión en el origen se pueden usar de forma efectiva. Una red SOHO puede estar compuesta por cuatro computadoras conectadas en red mediante cable CAT-5 y que tienen una conexión Internet compartida a través de un módem de 56K. Es muy fácil determinar que el ancho de banda de 10 ó 100 Mbps de la red local puede copar rápidamente el ancho de banda de 56Kbps del enlace WAN, lo que da como resultado la pérdida de datos y las retransmisiones. El host que actúa como gateway puede usar un mensaje ICMP "source quench" para solicitar que los otros hosts reduzcan sus velocidades de transmisión para prevenir la pérdida continua de datos. En la Figura se muestra una red en la que la congestión del enlace WAN puede provocar problemas en la comunicación. Módulo 9: Diagnóstico básico de fallas del router Descripción general

Page 159: Semestre1 Ccna

Un router usa un protocolo de enrutamiento dinámico para aprender acerca de rutas a las redes destino. La mayoría de los routers usa una combinación de enrutamiento dinámico y rutas estáticas configuradas manualmente. Cualquiera sea el método utilizado, cuando un router determina que una ruta es el mejor camino hacia un destino, la instala en su tabla de enrutamiento. Este módulo describe los métodos para examinar e interpretar los contenidos de una tabla de enrutamiento. La prueba y el diagnóstico de las fallas de una red son, tal vez, los componentes que demandan más tiempo entre las tareas que ejecuta un administrador de redes. Una prueba y diagnóstico de fallas eficientes deben llevarse a cabo de forma lógica, ordenada y bien documentada. De lo contrario, volverán a producirse los mismos problemas y el administrador de la red nunca podrá entender la red a ciencia cierta. Este módulo describe un enfoque estructurado respecto del diagnóstico de fallas y provee algunas herramientas que se utilizan en este proceso. Para los administradores de redes, los problemas de enrutamiento son los más comunes y difíciles de diagnosticar. Identificar y resolver los problemas de enrutamiento puede no resultar tan sencillo, pero muchas son las herramientas que pueden hacer más fácil la tarea. Este módulo presenta varias de las herramientas más importantes y proporciona la práctica de su utilización. Los estudiantes que completen este módulo deberán ser capaces de: * Utilizar el comando show ip route para recopilar información detallada sobre las rutas instaladas en el router. * Configurar un router o una red por defecto. * Comprender la forma en que un router utiliza el direccionamiento de Capa 2 y de Capa 3 para transferir los datos a través de la red. * Utilizar el comando ping para realizar las pruebas básicas de conectividad de la red. * Utilizar el comando telnet para verificar el software de capa de aplicación entre las estaciones origen y destino. * Diagnosticar las fallas por medio de pruebas secuenciales 9.1 Examen de la tabla de enrutamiento 9.1.1 El comando show ip route Una de las funciones principales de un router es determinar la mejor ruta a un destino determinado. Un router averigua las rutas desde la configuración de un administrador o desde otros routers mediante los protocolos de enrutamiento. Los routers almacenan esta información en tablas de enrutamiento que se mantienen en la memoria de acceso aleatorio (RAM) del router. Una tabla de enrutamiento contiene una lista de las mejores rutas disponibles. El router usa la tabla de enrutamiento para tomar decisiones de envío de paquetes. El comando showip route muestra el contenido de una tabla de enrutamiento IP. Esta tabla contiene entradas para todas las redes y subredes conocidas, así como un código que indica de qué forma se obtuvo la información. Los siguientes son algunos comandos adicionales que se pueden utilizar con el comando show ip route: * show ip route connected * show ip route address * show ip route rip * show ip route igrp * show ip route static La tabla de enrutamiento mapea los prefijos de la red hacia la interfaz saliente. Cuando RTA recibe un paquete con destino a 192.168.4.46, busca el prefijo 192.168.4.0/24 en su tabla. RTA luego envía el paquete hacia una interfaz (Ethernet0) basándose en la entrada de la tabla de enrutamiento. Si RTA recibe un paquete con destino a 10.3.21.5, envía dicho paquete hacia Serial 0. El ejemplo de tabla de enrutamiento muestra cuatro rutas para las redes directamente conectadas. Estas rutas, identificadas como C, se encuentran disponibles para las redes directamente conectadas. RTA descarta cualquier paquete destinado a una red que no se encuentre en la lista de la tabla de enrutamiento. A fin de efectuar el envío hacia otros destinos, la tabla de enrutamiento para RTA debe incluir más rutas. Estas nuevas rutas pueden agregarse utilizando uno de los dos siguientes métodos: * Enrutamiento estático: el administrador define, de forma manual, las rutas hacia una o más redes destino. * Enrutamiento dinámico: los router siguen reglas definidas por el protocolo de enrutamiento para intercambiar información de enrutamiento y seleccionar la mejor ruta de forma independiente. Se dice que las rutas definidas administrativamente son estáticas porque no cambian hasta que un administrador de red programe los cambios de forma manual. Las rutas obtenidas de otros routers son dinámicas porque pueden cambiar de forma automática a medida que los routers vecinos se actualizan entre sí con la nueva información. Cada método tiene ventajas y desventajas fundamentales. 9.1.2 Determinación del gateway de último recurso

Page 160: Semestre1 Ccna

No es factible, ni siquiera deseable, que un router mantenga rutas hacia cada posible destino. En su lugar, los routers guardan una ruta por defecto o un gateway de último recurso. Las rutas por defecto se utilizan cuando un router no es capaz de hacer coincidir una red destino con ninguna entrada de la tabla de enrutamiento. El router utiliza esta ruta por defecto para llegar al gateway de último recurso en un esfuerzo por enviar el paquete. Una característica de escalabilidad clave es que las rutas por defecto mantienen las tablas de enrutamiento tan simples como es posible. Posibilitan que los routers envíen los paquetes destinados a cualquier host de Internet sin tener que mantener una entrada en la tabla para cada red de la Internet. El administrador puede ingresar estáticamente las rutas por defecto o es posible obtener información de las mismas de forma dinámica mediante un protocolo de enrutamiento. El enrutamiento por defecto comienza en el administrador: Antes de que los routers puedan intercambiar la información de forma dinámica, el administrador debe configurar al menos un router con una ruta por defecto. Según los resultados deseados, el administrador puede utilizar alguno de los siguientes comandos para configurar una ruta por defecto de forma estática: ip default-network o ip route 0.0.0.0 0.0.0.0 El comando ip default-network se usa para establecer una ruta predeterminada en redes que usan protocolos de enrutamiento dinámico. Este comando es con distinción de clase o classful, lo que quiere decir que una subred señalada por este comando instala la red mayor en la tabla de ruteo. El comando ip default-network se debe usar en la red mayor, para marcar la subred candidata a ser la ruta predeterminada. El comando ip default-network establece una ruta por defecto en las redes que utilizan protocolos de enrutamiento dinámico. El comando global ip default-network 192.168.17.0 define la red Clase C 192.168.17.0 como la ruta destino para paquetes que no poseen entradas en la tabla de enrutamiento. Para cada red configurada con el comando ip default-network, si un router cuenta con una ruta hacia la red, dicha ruta queda señalada como candidata a ser la ruta por defecto. Crear un ip route hacia 0.0.0.0/0 es otra forma de configurar una ruta por defecto. Router(config)#ip route 0.0.0.0 0.0.0.0 [address | interface] Después de configurar una ruta o una red por defecto, el comando show ip route mostrará lo siguiente: Gateway of last resort is 172.16.1.2 to network 0.0.0.0 9.1.3 Determinación del origen y destino de una ruta En el tráfico que fluye a través de la nube de la red, la determinación de la ruta se produce en la capa de red. La función de determinación de ruta permite al router evaluar las rutas disponibles hacia un destino y establecer el mejor manejo de un paquete. Los servicios de enrutamiento utilizan la información de topología de red al evaluar las rutas de red. Esta información la puede configurar el administrador de red o se puede recopilar a través de procesos dinámicos ejecutados en la red. La capa de red proporciona entrega de paquetes de mejor esfuerzo y de extremo a extremo a través de redes interconectadas. La capa de red utiliza la tabla de enrutamiento IP para enviar paquetes desde la red origen a la red destino. Una vez que el router determina cuál es la ruta a utilizar, toma el paquete proveniente de una interfaz y lo envía hacia otra interfaz o puerto que refleje la mejor ruta hacia su destino. 9.1.4 Determinación de las direcciones L2 y L3 Mientras las direcciones de capa de red se utilizan para que los paquetes viajen desde el origen hacia el destino, es importante comprender que se utiliza un tipo de dirección diferente para que los paquetes se transmitan desde un router hacia el siguiente. Para que un paquete se transmita desde un origen hacia su destino, se utiliza tanto las direcciones de Capa 2 como de Capa 3. Como se muestra en la Figura , en cada interfaz, a medida que el paquete se desplaza por la red, se examina la tabla de enrutamiento y el router determina el salto siguiente. El paquete se envía entonces utilizando la dirección MAC del salto siguiente. Los encabezados origen y destino IP no cambian en ningún momento. La dirección de Capa 3 se utiliza para enrutar el paquete desde la red origen hacia la red destino. Las direcciones IP de origen y destino no cambian. La dirección MAC cambia en cada salto o router. La dirección de capa de enlace de datos resulta necesaria porque la entrega dentro de la red está determinada por la dirección del encabezado de la trama de Capa 2 y no por el encabezado del paquete de Capa 3. 9.1.5 Determinación de la distancia administrativa de la ruta.

Page 161: Semestre1 Ccna

Un router puede descubrir rutas utilizando protocolos de enrutamiento dinámico o rutas que el administrador configura de forma manual en el router. Una vez descubiertas o configuradas, el router debe elegir cuáles son las mejores rutas hacia una red dada. La distancia administrativa de la ruta es la información clave que el router utiliza para decidir cuál es el mejor camino hacia un destino en particular. La distancia administrativa es un número que mide la confiabilidad del origen de la información de la ruta. Cuanto menor es la distancia administrativa, mayor la confiabilidad del origen. Diferentes protocolos de enrutamiento presentan diferentes distancias administrativas por defecto. Si un camino tiene la menor distancia administrativa, se incluye en la tabla de enrutamiento. La tabla de enrutamiento no incluye una ruta si la distancia administrativa desde otro origen es menor. 9.1.6 Determinación de la métrica de la ruta Los protocolos de enrutamiento utilizan la métrica para determinar la mejor ruta hacia un destino. La métrica es un valor que mide la conveniencia de una ruta. Algunos protocolos de enrutamiento sólo utilizan un factor para calcular una métrica. Por ejemplo, RIP versión 1 (RIP v1) utiliza el recuento de saltos como único factor para determinar la métrica de una ruta. Otros protocolos basan su métrica en el recuento de saltos, ancho de banda, retardo, carga, confiabilidad, y costo. Cada algoritmo de enrutamiento interpreta lo que es mejor a su manera. El algoritmo genera un número, denominado métrica, para cada ruta a través de la red. Normalmente, cuanto menor es el valor de la métrica, mejor es la ruta. Factores tales como ancho de banda y retardo son estáticos porque permanecen inalterables para cada interfaz hasta que se cambie la configuración del router o se rediseñe la red. Factores tales como carga y confiabilidad son dinámicos porque el router los calcula para cada interfaz en tiempo real. Cuantos más factores compongan una métrica, mayor la flexibilidad para adaptar las operaciones de la red a las necesidades específicas. Por defecto, IGRP utiliza los factores estáticos ancho de banda y retardo para calcular el valor de la métrica. Estos dos factores pueden configurarse de forma manual, permitiendo un control preciso sobre cuál es la ruta que elige el router. IGRP también puede configurarse para incluir loa factores dinámicos: carga y confiabilidad, en el cálculo de la métrica. Utilizando los factores dinámicos, los routers IGRP pueden tomar decisiones basándose en las condiciones del momento. Si un enlace está muy cargado o es no confiable, IGRP aumentará la métrica de las rutas que utilizan dicho enlace. En estas circunstancias, las rutas alternativas pueden presentar una métrica menor que las rutas cuya métrica aumentó y se utilizarán como reemplazo. IGRP calcula la métrica agregando los valores ponderados de las diferentes características del enlace con la red en cuestión. En el siguiente ejemplo, los valores: ancho de banda, ancho de banda dividido por la carga y el retardo se ponderan con las constantes K1, K2, y K3. Métrica = [K1 * Ancho de banda + (K2 * Ancho de banda)/(256-Carga) + K3*Retardo] * [K5/(Confiabilidad + K4)] Los valores por defecto de las constantes son K1 = K3 = 1 y K2 = K4 = K5 = 0. Si K5=0, el término [K5/(Confiabilidad + K4)] no se utiliza. Dados los valores por defecto para las constantes K1 a K5, el cálculo de la métrica compuesta usado por IGRP se reduce a Métrica = Ancho de banda + Retardo. 9.1.7 Determinación del salto siguiente en la ruta Los algoritmos de enrutamiento pueblan las tablas de enrutamiento con una amplia variedad de información. Las asociaciones entre el destino/salto siguiente le dicen al router que la mejor forma de alcanzar un destino en particular es enviar el paquete hacia un router en particular. Este router representa el siguiente salto en el camino hacia el destino final. Cuando un router recibe un paquete entrante, lee la dirección destino e intenta asociar esta dirección con el salto siguiente. 9.1.8 Determinación de la última actualización de enrutamiento Utilice los siguientes comandos para encontrar la última actualización de enrutamiento: * show ip route * show ip route address * show ip protocols * show ip rip database 9.1.9 Observación de las múltiples rutas hacia un destino

Page 162: Semestre1 Ccna

Algunos protocolos de enrutamiento soportan múltiples rutas hacia un mismo destino. A diferencia de los algoritmos de ruta única, estos algoritmos de rutas múltiples permiten el tráfico a través de múltiples líneas, proporcionan un mejor rendimiento y son más confiables. IGRP soporta balanceo de carga asimétrico, el cual se conoce como variance. El comando variance instruye al router a incluir rutas con métricas menores a n veces la métrica mínima para esa ruta, donde n es el número especificado por el comando variance. La variable n puede tomar valores entre 1 y 128, con el valor por defecto igual a 1, lo cual significa balanceo de carga simétrico. Rt1 tiene dos rutas a la red 192.168.30.0. El comando Variance se fija en Rt1 para asegurar que ambas rutas se utilizen. La Figura muestra el resultado del comando show ip route ejecutado en Rt1 antes de configurada la variancia. La interfaz Fastethernet 0/0 es la única ruta a la red 192.168.30.0. Esta ruta tiene una distancia administrativa de 100 y un amétrica de 8986. La Figura muestra el resultado de show ip route ejecutado en Rt1 después de configurada la variancia. La mejor ruta es la interfaz FastEthernet 0/0, pero también se utiliza la interfaz Serial 0/0. Para verificar el balanceo de la carga, ejecute el comando ping 192.168.30.1. Una vez ejecutado ping, la mejor ruta es utilizando la interfaz Serial 0/0. IGRP utilizará balanceo de carga entre los dos enlaces. 9.2 Pruebas de red 9.2.1 Introducción a las pruebas de red Las pruebas básicas de una red deben desarrollarse en secuencia comenzando desde una capa del modelo de referencia OSI a la siguiente. Se recomienda comenzar con la Capa 1 y continuar hasta llegar a la Capa 7, si fuera necesario. Comenzando con la Capa 1, busque problemas simples tales como cables de suministro conectados a la pared. Los problemas más frecuentes que se producen en las redes IP son causados por errores en el esquema de direccionamiento. Es importante verificar la configuración de direcciones antes de continuar con los siguientes pasos de configuración. Cada prueba presentada en esta sección se ocupa de las operaciones de red en una capa específica del modelo de referencia OSI. Los comandos telnet y ping son dos comandos fundamentales que se utilizan para probar la red. 9.2.2 Uso de un enfoque estructurado en el diagnóstico de fallas El diagnóstico de fallas es un proceso que permite que el usuario encuentre los problemas en una red. Debe existir un proceso ordenado para diagnosticar fallas basado en los estándares de networking establecidos por un administrador de red. La documentación es una parte muy importante del proceso de diagnóstico de fallas. Los pasos de este modelo son: Paso 1: Obtener toda la información disponible y analizar los síntomas de la falla Paso 2: Circunscribir el problema a un segmento de la red, a un módulo o unidad completos o a un usuario. Paso 3: Aislar la falla a un hardware o software específico dentro de la unidad, el módulo o la cuenta de red del usuario. Paso 4: Localizar y corregir el problema específico. Paso 5: Verificar si el problema se ha resuelto. Paso 6: Documente el problema y la solución. La Figura muestra otro enfoque para el diagnóstico de fallas. Ninguno de estos conceptos es el único método de diagnóstico. Sin embargo, un proceso ordenado es de fundamental importancia a fin de mantener la red en funcionamiento uniforme y eficiente. Utilizando un enfoque estructurado para diagnosticar fallas, cada miembro de un equipo de asistencia técnica de redes puede saber cuáles son los pasos que cada miembro del grupo ha llevado a cabo para resolver el problema. Si se intenta llevar a cabo una variedad de ideas para el diagnóstico de fallas sin organización o documentación, la forma de solucionar los problemas no es efectiva. Aun si se resuelve el problema en un entorno no estructurado, probablemente resulte imposible repetir la solución en problemas similares en el futuro. 9.2.3 Prueba capa por capa OS

Page 163: Semestre1 Ccna

La prueba debe comenzar con la Capa 1 del modelo OSI y continuar hasta la Capa 7 si fuera necesario. Los errores de Capa 1 incluyen: * Cables defectuosos. * Cables desconectados. * Cables conectados a los puertos incorrectos. * Conexión de cable intermitente. * Cables inadecuados para la tarea (se deben usar los cables rollover, de conexión cruzada y de conexión directa (straight-through) correctamente). * Problemas en el transceptor. * Problemas en el cable del DCE. * Problemas en el cable del DTE. * Dispositivos apagados. Los errores de Capa 2 incluyen: * Interfaces seriales incorrectamente configuradas. * Interfaces Ethernet incorrectamente configuradas. * Encapsulamiento incorrecto (HDLC es el encapsulamiento por defecto para las interfaces seriales). * Configuraciones de temporización incorrectas en las interfaces seriales * Problemas en la tarjeta de interfaz de red (NIC). Los errores de Capa 3 incluyen: * Protocolo de enrutamiento no habilitado. * Protocolo de enrutamiento incorrecto habilitado. * Direcciones IP incorrectas. * Máscaras de subredes incorrectas. Si se producen errores en la red, debe iniciarse el proceso de prueba a través de las capas de OSI. El comando ping se utiliza en la Capa 3 para probar la conectividad. En la Capa 7, es posible utilizar el comando telnet para verificar el software de capa de aplicación entre las estaciones origen y destino. Ambos comandos se tratarán en mayor detalle en una sección posterior. 9.2.4 Diagnóstico de fallas en la Capa 1 utilizando indicadores Las luces indicadoras constituyen una herramienta útil para el diagnóstico de fallas. La mayoría de las interfaces o NICs cuentan con luces indicadoras que muestran si la conexión es válida. A menudo, esta luz recibe el nombre "link". La interfaz también puede contar con luces que indican si se transmite (TX) o recibe (RX) tráfico. Si la interfaz cuenta con luces indicadoras que no muestran una conexión válida, apague el dispositivo y vuelva a colocar la tarjeta de la interfaz. Un cable no apropiado o defectuoso también puede hacer que la luz de enlace indique una mala conexión o la ausencia de enlace. Verifique que todos los cables se conecten a los puertos correctos. Asegúrese de que todas las conexiones cruzadas realicen una adecuada conexión con la ubicación correcta utilizando el cable y método apropiados. Verifique que todos los puertos del hub o del switch se encuentren en la VLAN o en el dominio de colisión correctos y que se hayan configurado las opciones correctas para el spanning tres y demás consideraciones. Verifique que se use el cable correcto. Puede resultar necesario el uso de un cable de interconexión cruzada para realizar conexiones directas entre dos switches o hubs o entre dos host, por ejemplo: PCs o routers. Verifique la correcta conexión del cable proveniente de la interfaz origen y su buen estado. Si hubiera alguna duda de que la conexión es buena, vuelva a colocar el cable y controle que la conexión sea segura. Pruebe reemplazar el cable con otro que usted sepa que funciona. Si este cable se conecta a un toma de pared, utilice el analizador de cables para garantizar que la conexión esté bien cableada. Además, controle todos los transceptores para garantizar que sean del tipo correcto y que estén bien conectados y configurados. Si reemplazar el cable no resuelve el problema, pruebe reemplazar el transceptor, si hubiera uno en uso. Asegúrese siempre de que el dispositivo se encuentre encendido. Controle siempre los principios básicos antes de efectuar el diagnóstico o de intentar un diagnóstico de fallas complejo. 9.2.5 Diagnóstico de fallas en la Capa 3 utilizando el comando ping Ping se utiliza para verificar la conectividad de la red. Como ayuda para diagnosticar la conectividad básica de red, muchos protocolos de red admiten un protocolo de eco. Los protocolos de eco se utilizan para verificar el enrutamiento de los paquetes de protocolo. El comando ping envía un paquete al host destino y luego espera un paquete de respuesta de ese host. Los resultados de este protocolo de eco pueden ayudar a evaluar la confiabilidad de ruta hacia el host, las demoras en la ruta y si se puede acceder al host o si este funciona. El

Page 164: Semestre1 Ccna

resultado del comando ping muestra los tiempos mínimo, promedio y máximo que tarda un paquete ping en encontrar un sistema especificado y regresar. El comando ping utiliza el Protocolo de mensajes de control en Internet (ICMP) para verificar la conexión de hardware y la dirección lógica de la capa de red. La Figura es una tabla que muestra los distintos tipos de mensajes de ICMP. Este es un mecanismo de prueba sumamente básico para la conectividad de la red. En la figura , el destino de ping 172.16.1.5 respondió con éxito a los cinco datagramas enviados. Los signos de exclamación (!) indican cada eco exitoso. Si se visualizan uno o más puntos (.) en lugar de signos de exclamación, significa que se venció el tiempo de espera de la aplicación en el router mientras se esperaba un eco de paquete proveniente del objetivo de ping. El siguiente comando activa una herramienta de diagnóstico que se usa para probar la conectividad. Router#ping [protocol] {host | address} El comando ping prueba las conexiones de red enviando peticiones de eco ICMP hacia un host objetivo y controla el tiempo de respuesta. El comando ping registra el número de paquetes enviados, el número de respuestas recibidas y el porcentaje de paquetes perdidos. También registra la cantidad de tiempo que tardan los paquetes en llegar al destino y las respuestas en ser recibidas. Esta información permite verificar la comunicación entre una estación de trabajo y otros host, y si se perdió información. Es posible invocar el comando ping desde el modo EXEC del usuario y desde el modo EXEC privilegiado. El comando ping se puede utilizar para confirmar la conectividad básica de una red en AppleTalk, Servicio de red no orientado a la conexión ISO (CLNS), IP, Novell, Apollo, VINES, DECnet, o redes XNS. El uso de un comando ping extendido hace que el router ejecute una variedad más extensa de opciones de prueba. Para utilizar ping extendido, escriba ping en la línea de comando, luego presione la tecla Intro sin ingresar una dirección IP. Aparecerán indicadores cada vez que se presiona la tecla Intro. Estos indicadores proporcionan muchas más opciones que el comando ping estándar. Es una buena idea utilizar el comando ping cuando la red funciona correctamente para ver cómo funciona el comando en condiciones normales y de modo que sea posible compararlo cuando se ejecuta el diagnóstico de fallas. 9.2.6 Diagnóstico de fallas en la Capa 7 utilizando Telnet Telnet es un protocolo de terminal virtual que forma parte del conjunto de protocolos TCP/IP. Permite la verificación del software de capa de aplicación entre las estaciones origen y destino. Es el mecanismo de prueba más completo disponible. La aplicación de telnet se utiliza generalmente para conectar dispositivos remotos, recopilar información y ejecutar programas. La aplicación Telnet proporciona una terminal virtual para conectarse a routers que ejecutan TCP/IP. A los fines del diagnóstico de fallas, resulta de utilidad verificar que se pueda realizar la conexión utilizando Telnet. Esto prueba que, al menos, una aplicación TCP/IP es capaz de conectarse de extremo a extremo. Una conexión exitosa de Telnet indica que la aplicación de capa superior y los servicios de las capas inferiores funcionan correctamente. Si un administrador puede conectarse por Telnet con un router pero no con otro, verifique la conectividad de la capa inferior. Si se ha verificado la conectividad, probablemente la falla de Telnet se deba a problemas de permiso de acceso, denominación o direccionamiento específicos. Estos problemas pueden producirse en el router del administrador o en el router que falló como objetivo de Telnet. Si la conexión Telnet con un servidor particular falla desde un host, pruebe conectarse desde un router y desde otros dispositivos diferentes. Cuando trate de conectarse por Telnet, si no aparece el indicador de conexión, verifique lo siguiente: * ¿Se puede realizar una verificación DNS inversa de la dirección del cliente? Muchos servidores Telnet no permiten conexiones desde direcciones IP que no tienen entrada DNS. Este es un problema frecuente de las direcciones asignadas por DHCP en que el administrador no ha agregado entradas DNS adicionales para los grupos DHCP. * Es posible que la aplicación Telnet no pueda negociar las opciones adecuadas y, por lo tanto, no se produce la conexión. En un router Cisco, este proceso de negociación se puede visualizar utilizando el comando debugtelnet. * Es posible que el servicio Telnet esté desactivado o que se haya trasladado a un puerto diferente al 23 en el servidor destino. 9.3 Descripción general del diagnóstico de fallas del router 9.3.1 Diagnóstico de fallas de la Capa 1 utilizando el comando show interfaces Cisco IOS contiene un conjunto de comandos completo para el diagnóstico de fallas. Entre los más usados se

Page 165: Semestre1 Ccna

encuentran los comandos show. Cada aspecto del router puede visualizarse con uno o más comandos show. El comando show utilizado para verificar el estado y las estadísticas de las interfaces es el comando show interfaces. El comando show interfaces sin argumentos entrega el estado y las estadísticas de todas las interfaces del router. El comando show interfaces <interface name> entrega el estado y las estadísticas del puerto indicado. Para ver el estado de la interfaz serial 0/0, use el comando show interfaces serial 0/0. El estado de dos porciones importantes de las interfaces se muestra con el comando show interfaces. Son la porción física (hardware) y la porción lógica (software). Pueden estar relacionadas con las funciones de Capa 1 y Capa 2. El hardware incluye a los cables, conectores e interfaces que muestran el estado de la conexión física entre los dispositivos. El estado del software muestra el estado de los mensajes, por ejemplo: mensajes de actividad, información de control e información del usuario que se transmiten entre los dispositivos adyacentes. Esto se relaciona con el estado del protocolo de Capa 2 que se transfiere entre dos interfaces de router conectadas. Estos elementos fundamentales del resultado del comando show interfaces serial se muestran como estado del protocolo de enlace de datos y de la línea. El primer parámetro se refiere a la capa de hardware y básicamente refleja si la interfaz recibe la señal de detección de portadora (CD) proveniente del otro extremo de la conexión. Si la línea está desactivada, hay un problema con el cableado, el equipo puede estar apagado en alguna parte del circuito o puede estar funcionando mal, o puede haber sido administrativamente desactivada. Si la interfaz está en el estado administrativamente desactivada, ha sido manualmente desactivada en la configuración. El comando show interfaces serial también proporciona información de ayuda para el diagnóstico de otros problemas de la Capa 1 que no resultan fáciles de determinar. Un número creciente de recuentos de transiciones de portadora en un enlace serial puede indicar uno o más de los siguientes problemas: * Interrupciones en la línea debido a problemas en la red del proveedor de servicios de red. * Switch, DSU o hardware del router defectuosos. Si aparece un número creciente de errores de entrada en el resultado del comando show interfaces serial, varios son las causas posibles de estos errores. Algunos son problemas relacionados con la Capa 1, a saber. * Equipo de la compañía de telefonía defectuoso. * Línea serial con ruidos. * Cable o longitud de cable incorrectos. * Cable o conexión dañados. * CSU o DSU defectuosas. * Hardware del router defectuoso. Otra área a examinar es el número de reinicios de las interfaces. Son el resultado de la pérdida de demasiados mensajes de actividad. Los siguientes problemas de Capa 1 pueden ser causa de los reinicios de las interfaces: * Línea inadecuada que produce transiciones de la portadora. * Posible problema de hardware en la CSU, DSU, o en el switch Si las transiciones de portadora y los reinicios de las interfaces aumentan o si los errores de entrada son muchos a medida que aumentan los reinicios de la interfaz, el problema probablemente sea un enlace inadecuado o CSU o DSU defectuosas. El número de errores debe interpretarse en relación a la cantidad de tráfico que ha procesado el router y la cantidad de tiempo durante el cual las estadísticas han sido capturadas. El router registra estadísticas que suministran información acerca de la interfaz. Las estadísticas reflejan el funcionamiento de un router desde que se puso en marcha o desde la última vez que se reiniciaron los contadores. Si el resultado del comando show interfaces muestra que nunca se reiniciaron los contadores, utilice el comando show version para saber cuánto hace que el router se encuentra en funcionamiento. Utilice el comando clear counters para poner los contadores en cero. Siempre es necesario reiniciar los contadores después de la corrección de un problema en la interfaz. Comenzar desde cero brinda un mejor cuadro sobre el estado actual de la red y ayuda a verificar que la corrección del problema sea real. 9.3.2 Diagnóstico de fallas de la Capa 2 utilizando el comando show interfaces El comando show interfaces es tal vez la única herramienta de importancia para descubrir problemas de Capa 1 y de Capa 2 con el router. El primer parámetro (línea) se refiere a la capa física. El segundo parámetro (protocolo) indica si los procesos del IOS que controlan el protocolo de la línea consideran utilizable la interfaz o no. Esto está determinado por la recepción exitosa de los mensajes de actividad. Se entiende por mensajes de actividad a los mensajes enviados por un dispositivo de red para informar a otro que el circuito virtual entre

Page 166: Semestre1 Ccna

ambos sigue estando activo. Si la interfaz pierde tres mensajes de actividad consecutivos, el protocolo de línea se marca como desactivado. Siempre que la línea esté desactivada, el protocolo también lo está porque no existe un medio utilizable para el protocolo de Capa 2. Esto se aplica cuando la interfaz se encuentra desactivada debido a un problema de hardware y cuando esté desactivada por el administrador. Si la interfaz está activada y el protocolo de línea no, existe un problema en la Capa 2. Las posibles causas son: * Falta de mensajes de actividad. * Falta de velocidad de reloj. * Falta de concordancia en el tiempo de encapsulamiento. El comando show interfaces serial debe utilizarse después de configurar una interfaz serial a fin de verificar los cambios y que la interfaz se encuentre operando. 9.3.3 Diagnóstico de fallas utilizando el comando show cdp Cisco Discovery Protocol (CDP) divulga la información sobre el dispositivo a sus vecinos directos incluyendo direcciones IP y MAC e interfaces salientes. El resultado del comando show cdp neighbors muestra información sobre los dispositivos Cisco vecinos que se conectan de forma directa. Esta información es de utilidad para la depuración de los temas relacionados con la conectividad. Si se sospecha que el problema es de cableado, habilite las interfaces con el comando no shutdown y luego ejecute el comando show cdp neighbors detail antes de cualquier configuración. Este comando muestra el detalle del dispositivo específico, por ejemplo: interfaces, ID del puerto y el dispositivo. También muestra la versión del Cisco IOS que se ejecuta en los dispositivos remotos. Si la capa física funciona correctamente, entonces también se muestran todos los restantes dispositivos Cisco directamente conectados. Si no aparece un dispositivo conocido, probablemente el problema sea de Capa 1. Un área problemática para CDP es la seguridad. La cantidad de información que CDP proporciona es tan inmensa que puede ser un potencial agujero en la seguridad. Por razones de seguridad, CDP debe configurarse sólo en enlaces entre dispositivos Cisco y inhabilitarse en puertos o enlaces de usuario no administrados a nivel local. 9.3.4 Diagnóstico de fallas utilizando el comando traceroute El comando traceroute se utiliza para descubrir las rutas que toman los paquetes cuando viajan hacia su destino. Traceroute también puede utilizarse para ayudar a verificar la capa de red (Capa 3) teniendo en cuenta salto por salto y para proporcionar puntos de referencia para el desempeño. El comando traceroute a menudo se refiere como comando trace en los materiales de referencia. Sin embargo, la sintáxis correcta del comando es traceroute. El resultado del comando traceroute genera una lista de saltos alcanzados de forma exitosa. Si los datos finalmente llegan a su destino, entonces el resultado indica cada router por el que pasa el datagrama. Es posible capturar y utilizar este resultado para futuros diagnósticos de fallas en internetwork. El resultado de traceroute también indica el salto específico donde se produce la falla. Para cada router de la ruta se genera una línea de resultado en la terminal que indica la dirección IP de la interfaz que ingresó los datos. Si aparece un asterisco (*), el paquete falló. Si se obtiene el último salto exitoso del resultado de traceroute y se lo compara con el diagrama de internetwork, es posible aislar el área del problema. Traceroute también brinda información que indica el desempeño relativo de los enlaces. El tiempo de viaje redondo (Round Trip Time; RTT) es el tiempo que se requiere para enviar un paquete y recibir una respuesta. Esto es útil para tener una idea aproximada del retardo del enlace. Estos valores no son suficientemente precisos como para ser utilizados para una evaluación exacta del desempeño. Sin embargo, es posible capturar y utilizar este resultado para futuros diagnósticos de fallas en el desempeño de la internetwork. Tenga en cuenta que el dispositivo que recibe el traceroute también tiene que saber cómo enviar la respuesta nuevamente hacia el origen del traceroute. Para que los datos del comando traceroute o ping completen el recorrido con éxito entre los routers, debe haber rutas conocidas en ambas direcciones. Una falla en la respuesta no siempre indica un problema ya que los mensajes ICMP pueden estar limitados por la velocidad o filtrados en el sitio del host. Esto se aplica en especial a Internet. Traceroute envía una secuencia de datagramas de Protocolo de datagramas de usuario (UDP) desde el router hacia una dirección de puerto inválida en el host remoto. Para la primera secuencia de tres datagramas enviada, el valor de campo de Tiempo de existencia (TTL) se establece en uno. El valor de TTL de 1 hace que el datagrama expire el tiempo de espera en el primer router de la ruta. Este router entonces responde con un Mensaje ICMP de tiempo excedido (TEM) que indica que ha caducado el datagrama.

Page 167: Semestre1 Ccna

Luego, se envían tres mensajes UDP adicionales, esta vez con un valor de TTL de 2. Esto hace que el segundo router devuelva los TEM ICMP. Este proceso continúa hasta que los paquetes alcanzan su destino o se ha alcanzado el valor TTL máximo. El valor TTL máximo por defecto para el comando traceroute es 30. Como estos datagramas tratan de acceder a un puerto inválido en el host destino, los mensajes que vuelven son ICMP de puerto inalcanzable y no ICMP de tiempo excedido. Esto indica un puerto inalcanzable y señala que el programa traceroute da por terminado el proceso. 9.3.5 Diagnóstico de los problemas relacionados con el enrutamiento Los comandos show ip protocols y show ip route muestran información sobre los protocolos de enrutamiento y la tabla de enrutamiento. El resultado de estos comandos puede utilizarse para verificar la configuración del protocolo de enrutamiento. El comando show ip route es tal vez el único comando fundamental para el diagnóstico de problemas relacionados con el enrutamiento. Este comando muestra el contenido de la tabla de enrutamiento IP. El resultado del comando show ip route muestra las entradas para todas las redes y subredes conocidas y de qué forma se obtuvo la información. Si el problema se produce al llegar al host de una red en particular, entonces es posible utilizar el resultado del comando show ip route para verificar que el router tenga una ruta hacia dicha red. Si el resultado del comando show ip route no muestra que se tomaron las rutas aprendidas esperadas o que no hay rutas aprendidas, entonces el problema posiblemente sea la falta de intercambio en la información de enrutamiento. En este caso, utilice el comando show ip protocols en el router para verificar el error de configuración del protocolo de enrutamiento. El comando show ip protocols muestra los valores sobre la información del protocolo IP de enrutamiento de todo el router. Este comando se puede utilizar para confirmar cuáles son los protocolos configurados, cuáles son las redes divulgadas, cuáles son las interfaces que envían actualizaciones y las actualizaciones de los orígenes del enrutamiento. El resultado del comando show ip protocols también muestra los temporizadores, los filtros, el resumen de las rutas, la redistribución de las rutas y otros parámetros que son específicos para cada protocolo de enrutamiento que se habilita en el router. Cuando se configuran múltiples protocolos de enrutamiento, la información sobre cada protocolo se enumera en una lista por separado. El resultado del comando show ip protocols se puede utilizar para diagnosticar una gran variedad de problemas de enrutamiento, incluyendo la identificación de un router del que se sospecha envía información incorrecta sobre un router. Puede utilizarse para confirmar la presencia de los protocolos esperados, las redes divulgadas y los vecinos de enrutamiento. Como sucede con cualquier proceso de diagnóstico de fallas, identificar el problema es difícil pero no imposible si no se dispone de documentación que indique lo esperado. 9.3.6 Diagnóstico de fallas utilizando el comando show controllers Muy a menudo, la configuración y el diagnóstico de fallas de los routers se realiza de forma remota, cuando no es posible inspeccionar físicamente las conexiones del router. El comando show controllers es de utilidad para determinar el tipo de cable conectado sin inspeccionar los cables. Examinando el resultado del comando show controllers, es posible determinar el tipo de cable que el controlador detecta. Resulta útil para encontrar una interfaz serial sin cable, el tipo de cable inadecuado o un cable defectuoso. El comando show controllers serial 0/0 interroga al circuito integrado (chip) que controla las interfaces seriales y muestra información acerca de la interfaz física serial 0/0.Incluso dentro de un tipo de router, pueden utilizarse chips de controlador distintos. Sin tener en cuenta el tipo de controlador, el comando show controllers serial genera un resultado impresionante. Excepto por el tipo de cable, la mayor parte de este resultado es detalle técnico interno relacionado con el estado del chip del controlador. Sin conocimiento específico del circuito integrado, esta información carece de utilidad. 9.3.7 Introducción al comando debug El comando debug ayuda a aislar los problemas de configuración y de protocolo. El comando debug se utiliza para mostrar los sucesos y datos dinámicos. Como los comandos show sólo muestran información estática, brindan un cuadro histórico del la operación del router. Con el comando debug, el resultado brinda una visión interna de los sucesos que se producen en el router. Estos sucesos pueden ser tráfico en una interfaz, mensajes de error generados por los nodos de una red, paquetes de diagnóstico específicos del protocolo y otros datos útiles para el diagnóstico de fallas. El resultado dinámico del comando debug se genera a costa del desempeño, produciendo un mayor encabezado en el procesador que puede interrumpir el funcionamiento normal del router. Por este motivo, debug sólo debe utilizarse de forma moderada. Utilice los comandos debug

Page 168: Semestre1 Ccna

para examinar los tipos de tráfico o problemas específicos una vez que los problemas potenciales se circunscriban a unas pocas causas. Módulo 10: TCP/IP intermedio Descripción general Los routers utilizan información de la dirección del Protocolo de Internet (IP) en un encabezado IP del paquete para determinar cuál es la interfaz hacia la que se conmutará el paquete para que llegue lo más cerca posible de su destino. Como IP no brinda ningún servicio que ayude a asegurar que el paquete realmente llegue a destino, se describe como un protocolo no confiable, no orientado a conexión que hace uso de entregas de mejor esfuerzo. Si los paquetes se descartan en la ruta, llegan en el orden incorrecto o se transmiten a una velocidad mayor a la que el receptor puede aceptar, IP, por si mismo, no puede corregir el problema. Para resolver los problemas, IP confía en el Protocolo de control de transmisión (TCP). Este módulo describe el TCP y sus funciones e introduce el UDP, otro importante protocolo de Capa 4. Cada capa del modelo de networking de OSI cumple varias funciones. Estas funciones son independientes de las otras capas. Cada capa espera recibir servicios de la capa inferior y cada una provee ciertos servicios a su capa superior. Las capas de aplicación, presentación y de sesión del modelo OSI son todas parte de la capa de aplicación del modelo TCP/IP, acceden a los servicios de la capa de transporte a través de entidades lógicas llamadas puertos. Este módulo presenta el concepto de puertos y explica su fundamental importancia y la de los números de puerto en el networking con datos. Los estudiantes que completen este módulo deberán ser capaces de: * Describir TCP y sus funciones. * Describir sincronización y control de flujo de TCP. * Describir operación y procesos de UDP. * Identificar los números de puerto comunes. * Describir las múltiples conversaciones entre los host. * Identificar los puertos que se utilizan para servicios y clientes. * Describir la numeración de los puertos y los puertos conocidos. * Comprender las diferencias y la relación entre las direcciones MAC, direcciones IP y los números de los puertos. 10.1 Operación del TCP 10.1.1 Operación del TCP Las direcciones IP permiten el enrutamiento de los paquetes entre las redes. Sin embargo, IP no garantiza la entrega. La capa de transporte es responsable del transporte confiable y de la regulación del flujo de datos desde el origen hacia el destino. Esto se logra utilizando ventanas deslizantes y números de secuencia junto con un proceso de sincronización que garantiza que cada host se encuentra listo y desea comunicarse. Para comprender la confiabilidad y el control de flujo, piense en un estudiante que ha estudiado un idioma extranjero durante un año. Ahora imagine que este estudiante visita un país donde se habla ese idioma. Durante las conversaciones, deberá pedirle a la gente que repita lo que ha dicho (para confiabilidad) y que hable despacio, para que pueda entender las palabras (control de flujo). La capa de transporte, la Capa 4 del modelo OSI, provee estos servicios a la capa 5 por medio de TCP. 10.1.2 Sincronización del intercambio de señales de 3 vías TCP es un protocolo orientado a conexión. Antes de transmitir datos, los dos clientes que desean comunicarse deben llevar a cabo unproceso de sincronización para establecer una conexión virtual para cada sesión entre ellos. Este proceso de sincronización asegura que ambas partesestán listas para la transmisión y permite que los dispositivos determinen los númeors de la secuencia inicial de dicha sesión. Este proceso se llama saludo de tres vías, es un proceso de tres pasospara establecer una conexión virtual entre dos dispositivos. Es muy importante sbaer que este proceso lo inicia un cliente. Para establecer la sesión TCP, el cliente usa un puerto conocido del servicio que desea contactar. En el paso uno, el cliente inicia la sincronización enviando un paquete SYN para iniciar la conexión. Esto incdica que el paquete tiene un Número secuancial Válido. El bit de SYN se encuentra en el campo de códigodel encabezado del segmento. En el paso dos, el otro host recive el paquete, graba el Número Secuancial x del cliente, y responde con un Acuse de Recibo (ACK). El bit de control del ACK indica que el campo de Acuse de Recibo contiene un número válido. el ACK es un bit en el campop de código del encabezado del segmento TCP, y el número ACK es un campo de 32 bits en el mismo encabezado. Una vez hecha la conexión, la bandera de ACK se fija para todos los segmentos durante la sesión. El campo de Número de ACK contiene el siguiente Número Secuencial que se espera recibir (x + 1). El número ACK x + 1 significa que el host ya recibió todos los bytes incluyendo x, y espera

Page 169: Semestre1 Ccna

recibir el byte x + 1. El host también inicia un regreso de sesión, esto incluye un segmento TCP con su propio Número Secuencial y bandera de sincronización. En el paso tres, el host que inició la conversación responde con un Númeor de ACK de y + 1, el cual es el Número Secuencial del valor del Host B + 1. Esto indica que recibió el ACK anterior y finaliza el proceso de conexión para esta sesión. Es importante entender que los números secuenciales inciales se usan sólo para comenzar la comunicaión entre dos dispositivos. Actúan como referencia entre los dos dispositivos. Dichos números le dan a cada host la posibilidad de mandar acuses de recibo. 10.1.3 Ataques de denegación de servicio Esta página enseñará a los estudientes acerca de los ataque de negación de Servicio (DoS). Estos ataques están diseñados para denegar serviciosa host legítimos que tratan de establecer conexiones. Los ataques DoS son muy comunes entre hackers para anular las respuestas delos sistemas. Un tipo de DoS es el inundamiento de SYN o SYN flooding. SYN flooding explota el saludo de tres vías y causa que los dispositivos manden un ACK a direcciones origen que no completarán el saludo. El saludo de tres vías empieza al mandar un paquete SYN, el cual incluye las IP origen y destino. Ambas direcciones se utilizan para mandar ACK. Enun ataque DoS, el hacker inicia una sincronización SYN pero falsifica (hace spoof) la dirección IP. Spoofing es un término que se usa para falsificar algo, como una direción IP, para esconder la identidad de uno. En este caso, como la dirección origen del paquete se cambió a una que no existe y por lo tanto es inalcanzable, la sesión TCP se pone en espera hasta que el tiempo de conexión expira. Este estado de espera requiere que el dispositivo que está siendo atacado utilice recursos del sistema, tales como la memoria, hasta que el contador de la conexión se acaba. Los Hackers inundan el host que están atacando con peticiones de sincronización (SYN) falsas para usar todos lso recursos de la conexión y evitar que respondan, logrando una conexión legítima con diche respuesta. Para defenderse de estos ataques, los administradores del sistema pueden reducir el período de espera de desconexión y aumentar el tamaño de la cola de conexión. También existe software que puede detectar estos tipos de ataques e iniciar medidas de defensa. 10.1.4 Uso de ventanas y tamaño de las ventanas A menudo, la cantidad de datos que se necesita transmitir es demasiado grande como para ser enviada en un solo segmento de datos. En este caso, los datos deben dividirse en porciones de menor tamaño para permitir su correcta transmisión. TCP tiene la responsabilidad de dividir los datos en segmentos. Esto se puede comparar con la forma en que son alimentados los niños pequeños. Su comida se corta en pedazos más pequeños que sus bocas pueden acomodar. Además, es posible que las máquinas receptoras no sean capaces de recibir datos con la rapidez que el origen los envía, tal vez, porque el dispositivo receptor está ocupado con otras tareas o porque el transmisor simplemente es un dispositivo más robusto. Una vez segmentados los datos, deben transmitirse hacia el dispositivo destino. Uno de los servicios que provee TCP es el control de flujo que regula la cantidad de datos enviada durante un período de transmisión dado. Este proceso de control de flujo se conoce como uso de ventanas. El tamaño del a ventana determina la cantidad de datos que se pueden transmitir simultáneamente antes que el destino responda con un Acuse de recibo (ACK). Después que un host transmita el tamañode ventana en bytes, el host debe recibir un ACK indicando que la información se recibió antes de poder enviar más información. Por ejemplo, si la ventana es de 1, se debe generar un ACK por cada byte antes de enviar el siguiente . TCP usa las ventanas para determinar de forma dinámica el tamaño de la transmisión. Los dispositivos negociasn el tamaño de la ventana a un número específico de bytes para transmitir antes del ACK . Este proceso de variación dinámica del tamaño de la ventana incrementa la confiabilidad. El tamaño de la ventana se puede basar en los ACKs. 10.1.5 Números de secuencia TCP divide los datos en segmentos. Los segmentos de datos viajan entonces desde el transmisor hacia el receptor después del proceso de sincronización y la negociación del tamaño de ventana que dicta el número de bytes que es posible transmitir por vez. Los segmentos de datos que se transmiten deben reensamblarse una vez recibidos. No hay garantía alguna de que los datos llegarán en el orden en que se transmitieron. TCP aplica los números de secuencia a los segmentos de datos que transmite de modo que el receptor pueda reensamblar adecuadamente los bytes en su orden original. Si los segmentos TCP llegan desordenados, los segmentos se pueden reensamblar de forma incorrecta. Los números de secuencia le indican al dispositivo destino cómo ordenar correctamente los bytes a medida que arriban.

Page 170: Semestre1 Ccna

Estos números de secuencia también actúan como números de referencia de modo que el receptor sabe si ha recibido todos los datos. También identifican las porciones de datos perdidos y así el transmisor puede retransmitir los datos faltantes. Esto ofrece una mayor eficiencia ya que el transmisor sólo necesita retransmitir los segmentos faltantes en lugar de todo el grupo de datos. Cada segmento TCP se numera antes de su transmisión. Tenga en cuenta que después del puerto destino en el formato del segmento se encuentra la porción del número de secuencia. En la estación receptora, TCP usa los números de secuencia para reensamblar los segmentos hasta formar un mensaje completo. Si falta algún número de secuencia en la serie, ese segmento se vuelve a transmitir. 10.1.6 ACK positivo El acuse de recibo es un paso frecuente del proceso de sincronización que incluye ventanas deslizantes y secuenciación de datos. En un segmento TCP, el campo número de secuencia está seguido por el campo número de acuse de recibo, también conocido como el campo código. Uno de los problemas con el protocolo IP no confiable es que no cuenta con un método de verificación para determinar que los segmentos de datos realmente llegan a destino. Por lo tanto, los segmentos de datos pueden enviarse de forma constante sin saber si realmente se recibieron o no. TCP utiliza acuse de recibo positivo y retransmisión para controlar el flujo de datos y confirmar la entrega de los datos. El acuse de recibo positivo y retransmisión (PAR) es una técnica frecuente que muchos protocolos utilizan para proporcionar confiabilidad. Con PAR, el origen envía un paquete, inicia un temporizador y espera un acuse de recibo antes de enviar el siguiente paquete. Si el temporizador expira antes de que el origen reciba un acuse de recibo, el origen retransmite el paquete y reinicia el temporizador. TCP utiliza acuses de recibo de expectativa, lo que significa que el número de acuse de recibo se refiere al siguiente octeto esperado. El uso de ventanas es un mecanismo de control de flujo que requiere que el dispositivo origen reciba un acuse de recibo desde el destino después de transmitir una cantidad determinada de datos. Con un tamaño de ventana de tres, el dispositivo origen puede enviar tres octetos al destino. Entonces debe esperar un acuse de recibo. Si el destino recibe los tres octetos, envía un acuse de recibo al dispositivo origen, que ahora puede transmitir otros tres octetos. Si, por algún motivo, el destino no recibe los tres octetos, posiblemente debido a búferes cuya capacidad se ha excedido, no envía un acuse de recibo. Debido a que el origen no recibe un acuse de recibo, sabe que los octetos se deben retransmitir, y que la velocidad de transmisión debe reducirse. 10.1.7 Operación de UDP La pila del protocolo TCP/IP contiene muchos protocolos diferentes, cada uno diseñado para realizar una tarea determinada. IP provee transporte de Capa 3 no orientado a conexión a través de una internetwork. TCP permite la transmisión confiable, orientada a conexión de los paquetes en la Capa 4 del modelo OSI. UDP proporciona la transmisión de paquetes no orientado a conexión y no confiable de los paquetes en la Capa 4 del modelo OSI. Tanto TCP como UDP utilizan IP como protocolo subyacente de Capa 3. Además, distintos protocolos de capa de aplicación utilizan TCP y UDP. TCP provee servicios para aplicaciones tales como FTP, HTTP, SMTP y DNS. UDP es el protocolo de capa de transporte utilizado por DNS, TFTP, SNMP y DHCP. TCP debe utilizarse cuando las aplicaciones requieren la garantía de que un paquete llegue intacto, en secuencia y sin duplicar. El encabezado que se asocia con garantizar la entrega del paquete, a veces, se convierte en un problema al utilizar TCP. No todas las aplicaciones necesitan garantizar la entrega del paquete de datos, por lo tanto, utilizan un mecanismo de entrega no orientado a conexión, más rápido, que aporta el UDP. El estándar del protocolo UDP, que se describe en RFC 768, es un protocolo simple que intercambia segmentos sin acuses de recibo ni entrega garantizada. UDP no hace uso de ventanas ni acuses de recibo de modo que los protocolos de capa de aplicación deben brindar la detección de errores. El campo Puerto de origen es un campo optativo que sólo se utiliza si la información debe regresar al host transmisor. Cuando un router destino recibe una actualización de enrutamiento, el router origen no solicita nada, de modo que nada debe regresar a la fuente. El campo "Puerto Destino" especifica la aplicación para la cual UDP necesita pasar los datos. Una petición DNS proveniente de un host hacia un servidor DNS suele tener un campo Puerto destino de 53, el número de puerto de UDP para DNS. El campo Longitud identifica el número de octetos de un segmento UDP. El checksum de UDP es optativo pero debería utilizarse para garantizar que no se han dañado los datos durante la transmisión. Para el transporte a través de la red, UDP se encapsula en el paquete IP. Una vez que el segmento UDP llega a la dirección IP destino, debe haber un mecanismo que permita que el host receptor determine la exacta aplicación en destino. Para este fin se utilizan los puertos destino. Si un host provee servicios de TFTP y DNS, debe ser capaz de determinar cuál es el servicio que necesitan los segmentos UDP que llegan. El campo del Puerto destino del encabezado UDP determina la aplicación hacia la que se enviará el segmento UDP. 10.2 Descripción general de los puertos de la capa de transporte

Page 171: Semestre1 Ccna

10.2.1 Múltiples conversaciones entre hosts En un momento dado, miles de paquetes que proveen cientos de servicios distintos atraviesan una red moderna. En muchos casos, los servidores proveen una gran cantidad de servicios lo que causa problemas singulares para el direccionamiento de los paquetes. Si un servidor ofrece servicios SMTP y HTTP, utiliza el campo puerto destino para determinar cuál es el servicio que solicita el origen. El origen no puede construir un paquete destinado sólo a la dirección IP del servidor porque el destino no sabría cuál es el servicio que se solicita. Un número de puerto debe asociarse a la conversación entre hosts para garantizar que el paquete alcance el servicio adecuado en el servidor. Sin una forma de distinguir entre las distintas conversaciones, el cliente sería incapaz de enviar un mensaje electrónico y navegar una página web utilizando un servidor al mismo tiempo. Debe utilizarse un método para separar las conversaciones de la capa de transporte. Los hosts que corren TCP/IP asocian los puertos de la capa de transporte con determinadas aplicaciones. Los números de puerto se usan para realizar el seguimiento de las distintas conversaciones que atraviesan la red al mismo tiempo. Los números de puerto son necesarios cuando un host se comunica con un servidor que provee múltiples servicios. Tanto TCP como UDP utilizan números de puerto o socket para enviar información a las capas superiores. Los fabricantes de software de aplicación han acordado utilizar los números de puerto bien conocidos que se definen en la RFC1700. Toda conversación dirigida a la aplicación FTP utiliza el número de puerto estándar 21. Las conversaciones que no involucran aplicaciones con números de puerto bien conocidos reciben números de puerto elegidos de forma aleatoria de un rango específico. Estos números de puerto se usan como direcciones origen y destino en el segmento TCP. Los números de puerto tienen los siguientes intervalos asignados: * Los puertos bien conocidos son aquellos desde 0 a 1.023. * Los puertos registrados son aquellos desde 1.024 a 49.151. * Los puertos dinámicos y/o privados son aquellos desde el 49.152 al 65.535. Los sistemas que inician solicitudes de comunicación usan números de puerto para seleccionar las aplicaciones adecuadas. El host que origina la transferencia asigna dinámicamente los números del puerto de origen para estas solicitudes y, en general, son números mayores a 1023. Los números de puerto en el rango de 0 a 1023 se consideran números de puerto públicos y son controlados por la Autoridad de Asignación de Números de Internet (IANA, por sus siglas en inglés).Los números de las casillas de correo postal son una buena analogía de los números de puerto. Es posible enviar una carga postal a un código postal, ciudad y casilla de correo. El código postal y la ciudad dirigen la correspondencia hacia las instalaciones postales correctas mientras que la casilla de correo garantiza la entrega a la persona a quien va dirigida la carta. De igual forma, la dirección IP lleva al paquete hacia el servidor correcto, pero el número de puerto TCP o UDP garantiza que el paquete pase a la aplicación correspondiente. 10.2.2 Puertos para servicios Los servicios que funcionan en los host deben contar con un número de puerto asignado para que la comunicación se produzca. Un host remoto que intenta conectarse con un servicio espera que el servicio utilice puertos y protocolos de capa de transporte específicos. Algunos puertos, definidos en la RFC 1700, se conocen como puertos bien conocidos y reservados tanto en TCP como UDP. Estos puertos bien conocidos definen las aplicaciones que se ejecutan sobre los protocolos de la capa de transporte. Por ejemplo, un servidor que provee servicio FTP enviará las conexiones TCP que utilizan los puertos 20 y 21 provenientes de los clientes hacia su aplicación FTP. De esta forma, el servidor puede determinar con exactitud cuál es el servicio que solicita el cliente. TCP y UDP utilizan los números de puerto para determinar el servicio adecuado a las peticiones enviadas. 10.2.3 Puertos para los clientes Cada vez que un cliente se conecta a un servicio de un servidor, es necesario especificar el puerto de origen y destino. Los segmentos de TCP y UDP contienen campos para los puertos de origen y destino. Los puertos destino o los puertos para servicios, generalmente, se definen utilizando los puertos conocidos. Los puertos de origen configurados por el cliente se determinan de forma dinámica. En general, un cliente determina el puerto de origen asignando un número mayor a 1023 de forma aleatoria. Por ejemplo, un cliente que intenta comunicarse con un servidor web utiliza TCP y asigna el puerto destino con el número 80 y el puerto origen con 1045. Cuando el paquete llega al servidor, pasa hacia la capa de transporte superior y eventualmente al servicio HTTP que opera en el puerto 80. El servidor HTTP responde a las peticiones del cliente con un segmento que utiliza el puerto 80 como origen y 1045 como destino. De esta manera, los clientes y servidores utilizan los puertos para diferenciar el proceso al que se asocia el segmento. 10.2.4 Numeración de los puertos y números de puerto conocidos

Page 172: Semestre1 Ccna

Los números de puerto se representan con 2 bytes en el encabezado del segmento TCP o UDP. Este valor de 16 bits puede hacer que los números de puerto varíen de 0 a 65535. Estos números de puerto se dividen en tres categorías diferentes: puertos bien conocidos, puertos registrados y puertos dinámicos o privados. Los primeros 1023 puertos son puertos bien conocidos. Como su nombre indica, estos puertos se utilizan para los servicios de red bien conocidos, por ejemplo; FTP, Telnet, o DNS. Los puertos registrados varían de 1024 a 49151. Los puertos entre 49152 y 65535 se conocen como puertos dinámicos o privados. 10.2.5 Ejemplo de múltiples sesiones entre hosts Se usan números de puerto para rastrear múltiples sesiones que pueden ocurrir entre hosts. Los números de puerto de origen y destino se combinan con la dirección de red para formar un socket. Un par de sockets, uno en cada host, forman una única conexión. Por ejemplo, un host puede tener una conexión telnet, puerto 23 mientras que, al mismo tiempo, puede navegar la red, puerto 80. Las direcciones IP y MAC son las mismas porque los paquetes provienen del mismo host. Por lo tanto, cada conversación en el extremo origen necesita su propio número de puerto y cada servicio solicitado necesita de su propio número de puerto. 10.2.6 Comparación de direcciones MAC, direcciones IP y números de puerto Estos tres métodos de direccionamiento resultan a menudo confusos, pero es posible evitar la confusión si se explican las direcciones haciendo referencia al modelo OSI. Los números de puerto se encuentran en la capa de transporte y la capa de red les brinda servicio. La capa de red asigna una dirección lógica (dirección IP) y recibe servicios de la capa de enlace de datos quien le asigna una dirección física (dirección MAC). Una clara analogía podría ser la de una carta normal. La dirección de la carta consta de nombre, calle, ciudad y estado. Estos pueden compararse con el puerto, la dirección MAC y la dirección IP que se utilizan para los datos de red. El nombre en el sobre equivale al número de puerto, la calle es la dirección MAC, y la ciudad y estado son la dirección IP. Es posible enviar varias cartas a la misma calle, ciudad y estado pero incluye distintos nombres. Por ejemplo, se podrían enviar dos cartas a la misma casa, una dirigida a John Doe y la otra a Jane Doe. Esto es análogo a múltiples sesiones con diferentes números de puerto. Módulo 11: Listas de control de acceso (ACL) Descripción general Los administradores de red deben buscar maneras de impedir el acceso no autorizado a la red, permitiendo al mismo tiempo el acceso de los usuarios internos a los servicios requeridos. Aunque las herramientas de seguridad, como por ejemplo: las contraseñas, equipos de callback y dispositivos de seguridad física, son de ayuda, a menudo carecen de la flexibilidad del filtrado básico de tráfico y de los controles específicos que la mayoría de los administradores prefieren. Por ejemplo, un administrador de red puede permitir que los usuarios tengan acceso a Internet, pero impedir a los usuarios externos el acceso telnet a la LAN. Los routers ofrecen funciones del filtrado básico de tráfico, como el bloqueo del tráfico de Internet, mediante el uso de las listas de control de acceso (ACLs). Una ACL es una lista secuencial de sentencias de permiso o rechazo que se aplican a direcciones o protocolos de capa superior Este módulo introduce las ACL estándar y extendidas como medio de control del tráfico de red y explica de qué manera se utilizan las ACL como parte de una solución de seguridad. Además, este capítulo incluye consejos, consideraciones, recomendaciones y pautas generales acerca del uso de las ACL e incluye los comandos y configuraciones necesarias para crear las ACL. Finalmente, brinda ejemplos de ACL estándar y extendidas y su aplicación en las interfaces del router. Las ACL pueden ser tan simples como una sola línea destinada a permitir paquetes desde un host específico o pueden ser un conjunto de reglas y condiciones extremadamente complejas que definan el tráfico de forma precisa y modelen el funcionamiento de los procesos de los routers. Aunque muchos de los usos avanzados de las ACL exceden el alcance de este curso, este módulo ofrece detalles sobre las ACL estándar y extendida, su ubicación adecuada y algunas de las aplicaciones especiales de las mismas. Los estudiantes que completen este módulo deberán ser capaces de: * Describir las diferencias entre las ACL estándar y extendida. * Explicar las reglas para establecer las ACL. * Crear y aplicar las ACL nombradas. * Describir las funciones de los firewalls. * Utilizar las ACL para restringir el acceso a la terminal virtual. 11.1 Aspectos fundamentales de las listas de control de acceso 11.1.1 ¿Qué son las ACL? Las ACL son listas de condiciones que se aplican al tráfico que viaja a través de la interfaz del router. Estas

Page 173: Semestre1 Ccna

listas le informan al router qué tipo de paquetes aceptar o rechazar. La aceptación y rechazo se pueden basar en ciertas condiciones específicas. Las ACL permiten la administración del tráfico y aseguran el acceso hacia y desde una red. Es posible crear ACL en todos los protocolos de red enrutados, por ejemplo: el Protocolo de Internet (IP) y el Intercambio de paquetes de internetwork (IPX). Las ACL se pueden configurar en el router para controlar el acceso a una red o subred. Las ACL filtran el tráfico de red, controlando si los paquetes enrutados se envían o se bloquean en las interfaces del router. El router examina cada paquete y lo enviará o lo descartará, según las condiciones especificadas en la ACL. Algunos de los puntos de decisión de ACL son direcciones origen y destino, protocolos y números de puerto de capa superior. Las ACL se definen según el protocolo, la dirección o el puerto. Para controlar el flujo de tráfico en una interfaz, se debe definir una ACL para cada protocolo habilitado en la interfaz. Las ACL controlan el tráfico en una dirección por vez, en una interfaz. Se necesita crear una ACL por separado para cada dirección, una para el tráfico entrante y otra para el saliente. Finalmente, cada interfaz puede contar con varios protocolos y direcciones definidas. Si el router tiene dos interfaces configuradas para IP, AppleTalk e IPX, se necesitan 12 ACLs separadas. Una ACL por cada protocolo, multiplicada por dos por dirección entrante y saliente, multiplicada por dos por el número de puertos. Estas son las razones principales para crear las ACL: * Limitar el tráfico de red y mejorar el rendimiento de la red. Al restringir el tráfico de video, por ejemplo, las ACL pueden reducir ampliamente la carga de la red y en consecuencia mejorar el rendimiento de la misma. * Brindar control de flujo de tráfico. Las ACL pueden restringir el envío de las actualizaciones de enrutamiento. Si no se necesitan actualizaciones debido a las condiciones de la red, se preserva el ancho de banda. * Proporcionar un nivel básico de seguridad para el acceso a la red. Por ejemplo, las ACL pueden permitir que un host acceda a una parte de la red y evitar que otro acceda a la misma área. Por ejemplo, al Host A se le permite el acceso a la red de Recursos Humanos, y al Host B se le niega el acceso a dicha red. * Se debe decidir qué tipos de tráfico se envían o bloquean en las interfaces del router. Permitir que se enrute el tráfico de correo electrónico, pero bloquear todo el tráfico de telnet. * Permitir que un administrador controle a cuáles áreas de la red puede acceder un cliente. * Analizar ciertos hosts para permitir o denegar acceso a partes de una red. Otorgar o denegar permiso a los usuarios para acceder a ciertos tipos de archivos, tales como FTP o HTTP. Si las ACL no están configuradas en el router, todos los paquetes que pasen a través del router tendrán acceso a todas las partes de la red. 11.1.2 Funcionamiento de las ACL Una lista ACL es un grupo de sentencias que definen si se aceptan o rechazan los paquetes en interfaces entrantes o salientes. Estas decisiones se toman haciendo coincidir una sentencia de condición en una lista de acceso y luego realizando la acción de aceptación o rechazo definida en la sentencia. El orden en el que se ubican las sentencias de la ACL es importante. El software Cisco IOS verifica si los paquetes cumplen cada sentencia de condición, en orden, desde la parte superior de la lista hacia abajo. Una vez que se encuentra una coincidencia, se lleva a cabo la acción de aceptar o rechazar y no se verifican otras sentencias ACL. Si una sentencia de condición que permite todo el tráfico está ubicada en la parte superior de la lista, no se verifica ninguna sentencia que esté por debajo. Si se requieren más cantidad de sentencias de condición en una lista de acceso, se debe borrar y volver a crear toda la ACL con las nuevas sentencias de condición. Para que el proceso de revisión de una ACL sea más simple, es una buena idea utilizar un editor de textos como el Bloc de notas y pegar la ACL a la configuración del router. El principio del proceso de comunicaciones es el mismo, ya sea que las ACL se usen o no. A medida que una trama ingresa a una interfaz, el router verifica si la dirección de Capa 2 concuerda o si es una trama de broadcast. Si se acepta la dirección de la trama, la información de la trama se elimina y el router busca una ACL en la interfaz entrante. Si existe una ACL, entonces se verifica si el paquete cumple o no las condiciones de la lista. Si el paquete cumple las condiciones, se lleva a cabo la acción de aceptar o rechazar el paquete. Si se acepta el paquete en la interfaz, se lo compara con las entradas de la tabla de enrutamiento para determinar la interfaz destino y conmutarlo a aquella interfaz. A continuación, el router verifica si la interfaz destino tiene una ACL. Si existe una ACL, se compara el paquete con las sentencias de la lista y si el paquete concuerda con una sentencia, se lleva a cabo la aceptación o el rechazo del paquete. Si no hay ACL o se acepta el paquete, el paquete se encapsula en el nuevo protocolo de Capa 2 y se envía por la interfaz hacia el dispositivo siguiente. A manera de revisión, las sentencias de la ACL operan en orden secuencial lógico. Si se cumple una condición, el paquete se permite o deniega, y el resto de las sentencias de la ACL no se verifican. Si todas las sentencias ACL no tienen coincidencias, se coloca una sentencia implícita que dice deny any (denegar cualquiera) en el extremo de la lista por defecto. Aunque la línea deny any no sea visible como última línea de una ACL, está ahí

Page 174: Semestre1 Ccna

y no permitirá que ningún paquete que no coincida con las líneas anteriores de la ACL sea aceptada. Cuando esté aprendiendo por primera vez cómo crear una ACL, es una buena práctica agregar el deny any al final de las ACL para reforzar la presencia dinámica de la prohibición implícita deny. 11.1.3 Creación de las ACL Las ACL se crean en el modo de configuración global. Existen varias clases diferentes de ACLs: estándar, extendidas, IPX, AppleTalk, entre otras. Cuando configure las ACL en el router, cada ACL debe identificarse de forma única, asignándole un número. Este número identifica el tipo de lista de acceso creado y debe ubicarse dentro de un rango específico de números que es válido para ese tipo de lista. Después de ingresar al modo de comando apropiado y que se decide el número de tipo de lista, el usuario ingresa sentencias de lista de acceso utilizando el comando access-list, seguida de los parámetros necesarios. Estando en el modo de comandos adecuado y definido el tipo de número de lista, el usuario tipea las condiciones usando el comando access-list seguido de los parámetros apropiados. Este es el primero de un proceso de dos pasos. El segundo paso consiste en asignar la lista a la interfaz apropiada. En TCP/IP, las ACL se asignan a una o más interfaces y pueden filtrar el tráfico entrante o saliente, usando el comando ip access-group en el modo de configuración de interfaz. Al asignar una ACL a una interfaz, se debe especificar la ubicación entrante o saliente. Es posible establecer la dirección del filtro para verificar los paquetes que viajan hacia dentro o fuera de una interfaz. Para determinar si la ACL controla el tráfico entrante o saliente, el administrador de red necesita mirar las interfaces como si se observara desde dentro del router. Este es un concepto muy importante. Una lista de acceso entrante filtra el tráfico que entra por una interfaz y la lista de acceso saliente filtra el tráfico que sale por una interfaz. Después de crear una ACL numerada, se la debe asignar a una interfaz. Una ACL que contiene sentencias ACL numeradas no puede ser alterada. Se debe borrar utilizando el comando no access-listlist-number y entonces proceder a recrearla. Es necesario utilizar estas reglas básicas a la hora de crear y aplicar las listas de acceso. * Una lista de acceso por protocolo y por dirección. * Se deben aplicar las listas de acceso estándar que se encuentran lo más cerca posible del destino. * Se deben aplicar las listas de acceso extendidas que se encuentran lo más cerca posible del origen. * Utilice la referencia de la interfaz entrante y saliente como si estuviera mirando el puerto desde adentro del router. * Las sentencias se procesan de forma secuencial desde el principio de la lista hasta el final hasta que se encuentre una concordancia, si no se encuentra ninguna, se rechaza el paquete. * Hay un deny any (denegar cualquiera)implícito al final de todas las listas de acceso. Esto no aparece en la lista de configuración. * Las entradas de la lista de acceso deben realizar un filtro desde lo particular a lo general. Primero se deben denegar hosts específico y por último los grupos o filtros generales. * Primero se examina la condición de concordancia. El permiso o rechazo se examina SÓLO si la concordancia es cierta. * Nunca trabaje con una lista de acceso que se utiliza de forma activa. * Utilice el editor de texto para crear comentarios que describan la lógica, luego complete las sentencias que realizan esa lógica. * Siempre, las líneas nuevas se agregan al final de la lista de acceso. El comando no access-listx elimina toda la lista. No es posible agregar y quitar líneas de manera selectiva en las ACL numeradas. * Una lista de acceso IP envía un mensaje ICMP llamado de host fuera de alcance al emisor del paquete rechazado y descarta el paquete en la papelera de bits. * Se debe tener cuidado cuando se descarta una lista de acceso. Si la lista de acceso se aplica a una interfaz de producción y se la elimina, según sea la versión de IOS, puede haber una deny any (denegar cualquiera) por defecto aplicada a la interfaz, y se detiene todo el tráfico. * Los filtros salientes no afectan al tráfico que se origina en el router local. 11.1.4 Función de la máscara wildcard Una máscara wildcard es una cantidad de 32-bits que se divide en cuatro octetos. Una máscara wildcard se compara con una dirección IP. Los números uno y cero en la máscara se usan para identificar cómo tratar los bits de la dirección IP correspondientes. El término máscara wildcard es la denominación aplicada al proceso de comparación de bits de máscara y proviene de una analogía con el "wildcard" (comodín) que equivale a cualquier otro naipe en un juego de póquer. Las máscaras wildcard no guardan relación funcional con las máscaras de subred. Se utilizan con distintos propósitos y siguen distintas reglas. Las máscaras de subred y las máscaras de wildcard representan dos cosas distintas al compararse con una dirección IP. Las máscaras de subred usan unos y ceros binarios para identificar las porciones de red, de subred y de host de una dirección IP. Las máscaras de wildcard usan unos y ceros binarios para filtrar direcciones IP individuales o en grupos, permitiendo o rechazando el acceso a recursos según el valor de las mismas. La única similitud entre la máscara wildcard y la de subred es que ambas tienen 32 bits de longitud y se componen de unos y ceros. Para evitar la confusión, se substituirán las X por 1 en los gráficos de máscaras wildcard. La máscara en la Figura se escribe como 0.0.255.255. Un cero significa que se deje pasar el valor para verificarlo. Las X (1) significan impedir que se compare el valor.

Page 175: Semestre1 Ccna

Durante el proceso de máscara wildcard, la dirección IP en la sentencia de la lista de acceso tiene la máscara wildcard aplicada a ella. Esto crea el valor de concordancia, que se utiliza para comparar y verificar si esta sentencia ACL debe procesar un paquete o enviarlo a la próxima sentencia para que se lo verifique. La segunda parte del proceso de ACL consiste en que toda dirección IP que una sentencia ACL en particular verifica, tiene la máscara wildcard de esa sentencia aplicada a ella. El resultado de la dirección IP y de la máscara debe ser igual al valor de concordancia de la ACL ACL Este proceso se ilustra en la animación de la Figura . Hay dos palabras clave especiales que se utilizan en las ACL, las opciones any y host. Para explicarlo de forma sencilla, la opción any reemplaza la dirección IP con 0.0.0.0 y la máscara wildcard por 255.255.255.255. Esta opción concuerda con cualquier dirección con la que se la compare. La máscara 0.0.0.0 reemplaza la opción host. Esta máscara necesita todos los bits de la dirección ACL y la concordancia de dirección del paquete. Esta opción sólo concuerda con una dirección. 11.1.5 Verificación de las ACL Existen varios comandos show que verifican el contenido y ubicación de las ACL en el router. El comando show ip interface muestra información de la interfaz IP e indica si se ha establecido alguna ACL. El comando show access-lists muestra el contenido de todas las ACL en el router. Para ver una lista específica, agregue el nombre o número ACL como opción a este comando. El comando show running-config también revela las listas de acceso en el router y la información de asignación de interfaz. Estos comandos show verifican los contenidos y ubicación de las listas. También se recomienda verificar las listas de acceso usando tráfico de ejemplo para asegurarse que la lógica de la lista de acceso sea correcta. 11.2 Listas de control de acceso (ACL) 11.2.1 ACL estándar Las ACL estándar verifican la dirección origen de los paquetes IP que se deben enrutar. Con la comparación se permite o rechaza el acceso a todo un conjunto de protocolos, según las direcciones de red, subred y host. Por ejemplo, se verifican los paquetes que vienen en Fa0/0 para establecer la dirección origen y el protocolo. Si se les otorga el permiso, los paquetes se enrutan a través del router hacia una interfaz de salida. Si se les niega el permiso, se los descarta en la interfaz entrante. En la versión 12.0.1 del IOS de Cisco, se usaron por primera vez números adicionales (1300 al 1999) para las ACLs estándar pudiendo así proveer un máximo posible de 798 ACLs estándar adicionales, a las cuales se les conoce como ACLs IP expandidas. (también entre 1300 y 1999 en IOS recientes) En la primera sentencia ACL, cabe notar que no hay máscara wildcard. En este caso donde no se ve ninguna lista, se utiliza la máscara por defecto, que es la 0.0.0.0. Esto significa que toda la dirección debe concordar o que esta línea en la ACL no aplica y el router debe buscar una concordancia en la línea siguiente de la ACL. La sintaxis completa del comando ACL estándar es: Router(config)#access-listaccess-list-number {deny | permit | remark} source [source-wildcard ] [log] El uso de remark facilita el entendimiento de la lista de acceso. Cada remark está limitado a 100 caracteres. Por ejemplo, no es suficientemente claro cual es el propósito del siguiente comando: access-list 1 permit 171.69.2.88 Es mucho mas fácil leer un comentario acerca de un comando para entender sus efectos, así como sigue: access-list 1 remark Permit only Jones workstation through access-list 1 permit 171.69.2.88 La forma no de este comando se utiliza para eliminar una ACL estándar. Ésta es la sintaxis: Router(config)#no access-listaccess-list-number El comando ip access-group relaciona una ACL existente a una interface: Router(config)#ip access-group {access-list-number | access-list-name} {in | out} La tabla muestra descripciones de los parámetros utilizados en esta sintaxis. 11.2.2 ACL extendidas Las ACL extendidas se utilizan con más frecuencia que las ACL estándar porque ofrecen un mayor control. Las

Page 176: Semestre1 Ccna

ACL extendidas verifican las direcciones de paquetes de origen y destino, y también los protocolos y números de puerto. Esto ofrece mayor flexibilidad para establecer qué verifica la ACL. Se puede permitir o rechazar el acceso de los paquetes según el lugar donde se originó el paquete y su destino así como el tipo de protocolo y direcciones de puerto. Una ACL extendida puede permitir el tráfico de correo electrónico de Fa0/0 a destinos específicos S0/0, al mismo tiempo que deniega la transferencia de archivos y la navegación en la red. Una vez descartados los paquetes, algunos protocolos devuelven un paquete al emisor, indicando que el destino era inalcanzable. Es posible configurar múltiples sentencias en una sola ACL. Cada una de estas sentencias debe tener el mismo número de lista de acceso, para poder relacionar las sentencias con la misma ACL. Puede haber tanta cantidad de sentencias de condición como sean necesarias, siendo la única limitación la memoria disponible en el router. Por cierto, cuantas más sentencias se establezcan, mayor será la dificultad para comprender y administrar la ACL. La sintaxis de una sentencia ACL extendida puede ser muy extensa y a menudo, se vuelve engorrosa en la ventana terminal. Las wildcards también tienen la opción de utilizar las palabras clave host o any en el comando. Al final de la sentencia de la ACL extendida, se obtiene más precisión con un campo que especifica el Protocolo para el control de la transmisión (TCP) o el número de puerto del Protocolo de datagrama del usuario (UDP). Los números de Puerto conocidos parar TCP/IP se muestran en la Figura . Las operaciones lógicas pueden especificarse como igual (eq), desigual (neq), mayor a (gt) y menor a (lt) aquéllas que efectuarán las ACL extendidas en protocolos específicos. Las ACL extendidas utilizan el número de lista de acceso entre 100 y 199 (también entre 2000 y 2699 en IOS recientes). El comando ip access-group enlaza una ACL extendida existente a una interfaz. Recuerde que sólo se permite una ACL por interfaz por protocolo por dirección . El formato del comando es: Router(config-if)#ip access-group access-list-number {in | out} 11.2.3 ACL nombradas Las ACL nombradas IP se introdujeron en el software Cisco IOS Versión 11.2, permitiendo que las ACL extendidas y estándar tuvieran nombres en lugar de números. Las ventajas que ofrece una lista de acceso nombrada son las siguientes: * Identifica intuitivamente las ACL usando un nombre alfanumérico. * El IOS no limita el número de las ACL nombradas que se pueden configurar. * Las ACL nombradas tienen la capacidad de modificar las ACL sin tener que eliminarlas y luego reconfigurarlas. Cabe notar que las listas de acceso nombradas permiten eliminar sentencias pero sólo permiten que las sentencias se agreguen al final de la lista. Aún con las ACL nombradas, se recomienda utilizar un editor de textos para crearlas. Tenga en cuenta lo siguiente antes de implementar las ACL nombradas: Las ACL nombradas no son compatibles con las versiones de Cisco IOS anteriores a la versión 11.2. No se puede utilizar el mismo nombre para varias ACL. Por ejemplo, no se permite da el nombre de George a ACL estándar y extendida. Es importante conocer las listas de acceso nombradas debido a las ventajas antes mencionadas. Las operaciones de la lista de acceso avanzadas como las ACL nombradas se verán en el currículum CCNP. Una ACL nombrada se crea con el comando ip access-list. Esto coloca al usuario en el modo de configuración de ACL. En el modo de configuración de ACL, especifique una o más condiciones que se permitan o rechacen. Esto determina si el paquete se envía o se descarta cuando hay concordancia con las sentencias de la ACL. La configuración vista crea una ACL estándar llamada filtro de Internet y una ACL extendida llamada “grupo de marketing”. Esta figura también muestra como las listas de acceso nombradas se aplican a una interfaz. 11.2.4 Ubicación de las ACL Las ACL se utilizan para controlar el tráfico, filtrando paquetes y eliminando el tráfico no deseado de la red. Otra consideración importante a tener en cuenta al implementar la ACL es dónde se ubica la lista de acceso. Si las ACL se colocan en el lugar correcto, no sólo es posible filtrar el tráfico sino también toda la red se hace más eficiente. Si se tiene que filtrar el tráfico, la ACL se debe colocar en un lugar donde mejore la eficiencia de forma significativa. En la figura el administrador quiere denegar el tráfico telnet o FTP del segmento LAN Ethernet del Router A al segmento LAN Ethernet conmutado Fa0/1 en el Router D, y al mismo tiempo permitir otros tipos de tráfico. Hay varias maneras de cumplir con esta política. La recomendación es utilizar ACL extendida, especificando las direcciones origen y destino. Se coloca esta ACL extendida en el Router A. Entonces los paquetes no atraviesan

Page 177: Semestre1 Ccna

la Ethernet del Router A, no atraviesan las interfaces seriales de los Routers B y C, y no entran al Router D. El tráfico con direcciones de origen y destino diferentes todavía puede permitirse. La regla es colocar las ACL extendidas lo más cerca posible del origen del tráfico denegado. Las ACL estándar no especifican las direcciones destino, de modo que se deben colocar lo más cerca posible del destino. Por ejemplo, una ACL estándar se debe colocar en Fa0/0 del Router D para evitar el tráfico desde el Router A. Un administrador solo puede colocar una lista de acceso en el dispositivo que controla. De este modo, la ubicación de la lista de acceso se determina según hasta dónde se extienda el control del administrador de la red. 11.2.5 Firewalls Un firewall es una estructura arquitectónica que existe entre el usuario y el mundo exterior para proteger la red interna de los intrusos. En la mayoría de los casos, los intrusos provienen de la Internet mundial y de las miles de redes remotas que interconecta. Normalmente, un firewall de red se compone de varias máquinas diferentes que funcionan al mismo tiempo para impedir el acceso no deseado e ilegal. En esta arquitectura, el router conectado a Internet, es decir el router exterior, obliga todo el tráfico entrante a pasar por el gateway de la aplicación. El router conectado a la red interna, es decir el router interior, acepta los paquetes provenientes sólo del gateway de aplicación. En efecto, el gateway controla la entrega de servicios basados en red que entran y salen de la red interna. Por ejemplo, sólo ciertos usuarios pueden estar autorizados a comunicarse con Internet o sólo a ciertas aplicaciones se les puede permitir establecer conexiones entre un host interior y exterior. Si la única aplicación que se permite es el correo electrónico, entonces sólo se permiten paquetes de correo electrónico a través del router. Esto protege el gateway de aplicación y evita que se supere su capacidad con paquetes que de otra manera se descartarían. Se deben utilizar ACL en los routers firewall, que a menudo se sitúan entre la red interna y una red externa, como Internet. Esto permite el control del tráfico entrante o saliente de alguna parte específica de la red interna. El router firewall proporciona un punto de aislamiento, de manera que el resto de la estructura interna de la red no se vea afectada. Se necesita configurar las ACL en routers fronterizos, que son aquellos situados en las fronteras de la red, para brindar mayor seguridad. Esto proporciona protección básica contra la red externa u otra parte menos controlada de la red, en un área más privada de la red. En estos routers fronterizos, es posible crear ACLs para cada protocolo de red configurado en las interfaces del router. 11.2.6 Cómo restringir el acceso de terminal virtual Las listas de acceso extendidas y estándar se aplican a paquetes que viajan a través de un router. No están diseñadas para bloquear paquetes que se originan dentro del router. Una lista de acceso extendida Telnet saliente, por defecto no impide las sesiones Telnet iniciadas por el router. Del mismo modo que hay puertos físicos o interfaces, como Fa0/0 y S0/0 en el router, también hay puertos virtuales. Estos puertos virtuales se denominan líneas VTY. Existen cinco líneas vty, numeradas del 0 al 4, como se observa en la figura . Por razones de seguridad, es posible negar o permitir, a los usuarios, el acceso a la terminal virtual del router, pero se les puede negar el acceso a destinos desde dicho router. El objetivo de restringir el acceso vty es aumentar la seguridad de la red. También se logra el acceso a vty utilizando el protocolo Telnet para realizar una conexión no física con el router. Como resultado, hay solo un tipo de lista de acceso vty. Es necesario imponer idénticas restricciones a todas las líneas vty, ya que no es posible controlar a qué línea se conectará el usuario. El proceso de creación de una lista de acceso vty es igual al descrito para una interfaz. Sin embargo, para aplicar la ACL a una línea terminal se necesita el comando access-class en vez del access-group. Cuando configure las listas de acceso en las líneas vty tenga en consideración lo siguiente: * Cuando controle el acceso a una interfaz, es posible utilizar un número o un nombre. * Sólo se pueden aplicar listas de acceso numeradas a las líneas virtuales. * Imponga restricciones idénticas a todas las líneas de terminal virtual, porque el usuario puede querer conectarse a cualquiera de ellas.

Page 178: Semestre1 Ccna

Semestre 3 CCNA

Descargar en PDF Módulo 1: Introducción al enrutamiento sin clase Descripción general Los administradores de red deben anticipar y manejar el crecimiento físico de las redes. Es posible que esto signifique la compra o el alquiler de otro piso del edificio para colocar los nuevos equipos de red como por ejemplo bastidores, paneles de conexión, switches y routers. Los diseñadores de red deberán elegir esquemas de direccionamiento que permitan el crecimiento. La máscara de subred de longitud variable (VLSM) se utiliza para crear esquemas de direccionamiento eficientes y escalables. La implementación de un esquema de direccionamiento IP es necesaria para casi todas las empresas. Muchas organizaciones seleccionan TCP/IP como el único protocolo enrutado para utilizar en sus redes. Desafortunadamente, los diseñadores de TCP/IP no pudieron predecir que, con el tiempo, su protocolo sostendría una red global de información, comercio y entretenimiento. IPv4 ofreció una estrategia de direccionamiento escalable durante un tiempo pero que pronto dio como resultado una asignación de direcciones totalmente ineficiente. Es posible que IPv4 pronto sea reemplazado por IP versión 6 (IPv6) como protocolo dominante de Internet. IPv6 posee un espacio de direccionamiento prácticamente ilimitado y algunas redes ya han empezado a implementarlo. Durante los últimos veinte años, los ingenieros han modificado con éxito el protocolo IPv4 para que pueda sobrevivir al crecimiento exponencial de Internet. VLSM es una de las modificaciones que ha ayudado a reducir la brecha entre los protocolos IPv4 e IPv6. Las redes deben ser escalables, debido a la evolución de las necesidades de los usuarios. Cuando una red es escalable, puede crecer de manera lógica, eficiente y económica. El protocolo de enrutamiento utilizado en una red ayuda a determinar la escalabilidad de la red. Es importante elegir bien el protocolo de enrutamiento. La versión 1 del Protocolo de Información de Enrutamiento (RIP v1) es adecuada en el caso de redes pequeñas. Sin embargo, no es escalable para las redes de gran envergadura. La versión 2 de RIP (RIP v2) se desarrolló para superar estas limitaciones. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: * Definir VLSM y describir brevemente las razones para su utilización * Dividir una red principal en subredes de distintos tamaños con VLSM * Definir la unificación de rutas y su resumen a medida en relación con VLSM * Configurar un router con VLSM * Identificar las características clave de RIP v1 y RIP v2 * Identificar las diferencias principales entre RIP v1 y RIP v2 * Configurar RIP v2 * Verificar y realizar el diagnóstico de fallas en la operación de RIP v2 * Configurar las rutas por defecto mediante los comandos ip route e ip default-network 1.1 VLSM 1.1.1 ¿Qué es VLSM y por qué se usa? A medida que las subredes IP han crecido, los administradores han buscado formas de utilizar su espacio de direccionamiento con más eficiencia. En esta página se presenta una técnica que se denomina VLSM. Con VLSM, un administrador de red puede usar una máscara larga en las redes con pocos hosts, y una máscara corta en las subredes con muchos hosts. Para poder implementar VLSM, un administrador de red debe usar un protocolo de enrutamiento que brinde soporte para él. Los routers Cisco admiten VLSM con los protocolos de enrutamiento OSPF, IS-IS integrado,EIGRP, RIP v2 y enrutamiento estático. VLSM permite que una organización utilice más de una máscara de subred dentro del mismo espacio de direccionamiento de red. La implementación de VLSM maximiza la eficiencia del direccionamiento y con frecuencia se la conoce como división de subredes en subredes.

Page 179: Semestre1 Ccna

Los protocolos de enrutamiento con clase necesitan que una sola red utilice la misma máscara de subred. Por ejemplo, una red con la dirección de 192.168.187.0 puede usar sólo una máscara de subred, por ejemplo 255.255.255.0. Un protocolo de enrutamiento que admite VLSM le confiere al administrador de red la libertad para usar distintas máscaras de subred para redes que se encuentran dentro de un sistema autónomo. La Figura muestra un ejemplo de cómo un administrador de red puede usar una máscara de 30 bits para las conexiones de red, una máscara de 24 bits para las redes de usuario e incluso una máscara de 22 bits para las redes con hasta 1000 usuarios. En la siguiente página se tratarán los esquemas de direccionamiento de red. 1.1.2 Un desperdicio de espacio En esta página se explicará cómo determinados esquemas de direccionamiento pueden desperdiciar espacio de direccionamiento. En el pasado, se suponía que la primera y la última subred no debían utilizarse. El uso de la primera subred, conocida como la subred cero, no se recomendaba debido a la confusión que podría producirse si una red y una subred tuvieran la misma dirección. Este concepto también se aplicaba al uso de la última subred, conocida como la subred de unos. Con la evolución de las tecnologías de red y el agotamiento de las direcciones IP, el uso de la primera y la última subred se ha convertido en una práctica aceptable si se utilizan junto con VLSM. En la Figura , el equipo de administración de red ha pedido prestados tres bits de la porción de host de la dirección Clase C que se ha seleccionado para este esquema de direccionamiento. Si el equipo decide usar la subred cero, habrá ocho subredes utilizables. Cada subred puede admitir 30 hosts. Si el equipo decide utilizar el comando no ip subnet-zero, habrá siete subredes utilizables con 30 hosts en cada subred. Los routers Cisco con la versión 12.0 o posterior del IOS Cisco, utilizan la subred cero por defecto. En la Figura , cada una de las oficinas remotas de Sydney, Brisbane, Perth y Melbourne puede tener 30 hosts. El equipo se da cuenta que tiene que direccionar los tres enlaces WAN punto a punto entre Sydney, Brisbane, Perth y Melbourne. Si el equipo utiliza las tres últimas subredes para los enlaces WAN, se usarán todas las direcciones disponibles y no habrá más espacio para el crecimiento. El equipo también habrá desperdiciado las 28 direcciones de host de cada subred simplemente para direccionar tres redes punto a punto. Este esquema de direccionamiento implicaría un desperdicio de un tercio del espacio de direccionamiento potencial. Este tipo de esquema de direccionamiento es adecuado para las LAN pequeñas. Sin embargo, representa un enorme desperdicio si se utilizan conexiones punto a punto. En la siguiente página se explicará la forma de evitar el desperdicio de direcciones mediante el uso de VLSM. 1.1.3 Cuándo usar VLSM Es importante diseñar un esquema de direccionamiento que permita el crecimiento y no implique el desperdicio de direcciones. Esta página permitirá analizar la manera de usar VLSM para evitar el desperdicio de direcciones en los enlaces punto a punto. Como se muestra en la Figura , el equipo de administración de red ha decidido evitar el desperdicio debido al uso de la máscara /27 en los enlaces punto a punto. El equipo aplica VLSM al problema de direccionamiento. Para aplicar VLSM al problema de direccionamiento, el equipo divide la dirección Clase C en subredes de distintos tamaños. Subredes más grandes se crean para las LAN. Se crean subredes muy pequeñas para los enlaces WAN y otros casos especiales. Una máscara de 30 bits se utiliza para crear subredes con sólo dos direcciones de host válidas. Ésta es la mejor solución para las conexiones punto a punto. El equipo tomará una de las tres subredes que anteriormente quedaba asignada a los enlaces WAN y la volverá a dividir en subredes con una máscara de 30 bits. En el ejemplo, el equipo ha tomado una de las últimas tres subredes, la subred 6, y la ha dividido nuevamente en varias subredes. Esta vez, el equipo utiliza una máscara de 30 bits. Las Figuras y demuestran que después de aplicar VLSM, el equipo posee ocho intervalos de direcciones que se pueden usar para los enlaces punto a punto. En la siguiente página se enseñará a los estudiantes a calcular subredes con VLSM. 1.1.4 Cálculo de subredes con VLSM VLSM ayuda a manejar las direcciones IP. En esta página se explicará cómo usar VLSM para establecer máscaras de subred que cumplan con los requisitos del enlace o del segmento. Una máscara de subred debe satisfacer los requisitos de una LAN con una máscara de subred y los requisitos de una WAN punto a punto con otra máscara de subred.

Page 180: Semestre1 Ccna

El ejemplo de la Figura muestra una red que necesita un esquema de direccionamiento. El ejemplo incluye una dirección Clase B de 172.16.0.0 y dos LAN que requieren al menos 250 hosts cada una. Si los routers usan un protocolo de enrutamiento con clase, el enlace WAN debe formar una subred de la misma red de Clase B. Los protocolos de enrutamiento con clase, como por ejemplo RIP v1, IGRP y EGP, no admiten VLSM. Sin VLSM, el enlace WAN necesitaría la misma máscara de subred que los segmentos LAN. La máscara de 24 bits de 255.255.255.0 puede admitir 250 hosts. El enlace WAN sólo necesita dos direcciones, una para cada router. Esto significa que se han desperdiciado 252 direcciones. Si se hubiera utilizado VLSM, todavía se podría aplicar una máscara de 24 bits en los segmentos LAN para los 250 hosts. Se podría usar una máscara de 30 bits para el enlace WAN dado que sólo se necesitan dos direcciones de host. La Figura muestra dónde se pueden aplicar las direcciones de subred de acuerdo a los requisitos de cantidad de host. Los enlaces WAN usan direcciones de subred con un prefijo de /30. Este prefijo sólo permite dos direcciones de host lo que es justo lo suficiente para una conexión punto a punto entre un par de routers. En la Figura las direcciones de subred utilizadas se generan cuando la subred 172.16.32.0/20 se divide en subredes /26. Para calcular las direcciones de subred que se utilizan en los enlaces WAN, siga subdividiendo una de las subredes /26 que no se utilizan. En este ejemplo, 172.16.33.0/26 se sigue subdividiendo con un prefijo de /30. Esto permite obtener cuatro bits de subred adicionales y por lo tanto 16 (24) subredes para las WAN. La Figura muestra cómo calcular un sistema VLSM. VLSM se puede usar para dividir en subredes una dirección que ya está dividida en subredes. Se puede tomar a modo de ejemplo, dirección de subred 172.16.32.0/20 y una red que necesita diez direcciones de host. Con esta dirección de subred, existen 212 – 2 ó 4094 direcciones de host, la mayoría de las cuales quedarán desperdiciadas. Con VLSM es posible dividir 172.16.32.0/20 en subredes para crear más direcciones de red con menos hosts por red. Cuando 172.16.32.0/20 se divide en subredes dando como resultado 172.16.32.0/26, existe una ganancia de 26 ó 64 subredes. Cada subred puede admitir 26 – 2 ó 62 hosts. Para aplicar VLSM en 172.16.32.0/20, siga los pasos que aparecen a continuación: Paso 1 Escribir172.16.32.0 en su forma binaria. Paso 2 Trazar una líneavertical entre el bit número 20 y 21, tal como aparece en la Figura . El límite de subred original fue /20. Paso 3 Trazar una línea vertical entre el bit número26 y 27, tal como aparece en la Figura . El límite de subred original /20 se extiende a seis bits hacia la derecha, convirtiéndose en /26. Paso 4 Calcular las 64 direcciones de subred por medio de los bits que se encuentran entre las dos líneas verticales, desde el menor hasta el mayor valor. La figura muestra las primeras cinco subredes disponibles. Es importante recordar que se pueden seguir subdividiendo sólo las subredes no utilizadas. Si se utiliza alguna dirección de una subred, esa subred ya no se puede subdividir más. En la Figura , se utilizan cuatro números de subred en las LAN. La subred 172.16.33.0/26 no utilizada se sigue subdividiendo para utilizarse en los enlaces WAN. La práctica de laboratorio ayudará a los estudiantes a calcular las subredes VLSM. En la página siguiente se describirá la unificación de rutas. 1.1.5 Unificación de rutas con VLSM En esta página se explicarán los beneficios de la unificación de rutas con VLSM. Cuando se utiliza VLSM, es importante mantener la cantidad de subredes agrupadas en la red para permitir la unificación. Por ejemplo, redes como 172.16.14.0 y 172.16.15.0 deberían estar cerca de manera que los routers sólo tengan que poseer una ruta para 172.16.14.0/23. El uso de enrutamiento entre dominios sin clase (CIDR) y VLSM evita el desperdicio de direcciones y promueve la unificación o el resumen de rutas. Sin el resumen de rutas, es probable que el enrutamiento por el backbone de Internet se habría desplomado antes de 1997. La Figura muestra cómo el resumen de rutas reduce la carga de los routers corriente arriba. Esta compleja jerarquía de redes y subredes de varios tamaños se resume en diferentes puntos con una dirección prefijo, hasta que la red completa se publica como sola ruta unificada de 200.199.48.0/22. El resumen de ruta o la superred, sólo es posible si los routers de una red utilizan un protocolo de enrutamiento sin clase, como por ejemplo OSPF o EIGRP. Los protocolos de enrutamiento sin clase llevan un prefijo que consiste en una dirección IP de 32 bits y una máscara de bits en las actualizaciones de enrutamiento. En la Figura , el resumen

Page 181: Semestre1 Ccna

de ruta que finalmente llega al proveedor contiene un prefijo de 20 bits común a todas las direcciones de la organización. Esa dirección es 200.199.48.0/22 ó 11001000.11000111.0011. Para que el resumen funcione, las direcciones se deben asignar cuidadosamente de manera jerárquica para que las direcciones resumidas compartan la misma cantidad de bits de mayor peso. Es importante recordar las siguientes reglas: * Un router debe conocer con detalle los números de las subredes conectadas a él. * No es necesario que un router informe a los demás routers de cada subred si el router puede enviar una ruta agregada para un conjunto de rutas. * Un router que usa rutas unificadas tiene menos entradas en su tabla de enrutamiento. VLSM aumenta la flexibilidad del resumen de ruta porque utiliza los bits de mayor peso compartidos a la izquierda, aun cuando las redes no sean contiguas. La Figura muestra que las direcciones comparten los primeros 20 bits. Estos bits aparecen en rojo. El bit número 21 no es igual para todos los routers. Por lo tanto, el prefijo para el resumen de ruta será de 20 bits de largo. Esto se utiliza para calcular el número de red del resumen de ruta. La Figura muestra que las direcciones comparten los primeros 21 bits. Estos bits aparecen en rojo. El bit número 22 no es igual para todos los routers. Por lo tanto, el prefijo para el resumen de ruta será de 21 bits de largo. Esto se utiliza para calcular el número de red del resumen de ruta. La siguiente página le enseñará a los estudiantes como configurar VLSM. 1.1.6 Configuración de VLSM En esta página se enseñará a los estudiantes cómo calcular y configurar VLSM correctamente. A continuación, se presentan los cálculos de VLSM para las conexiones LAN de la Figura : * Dirección de red: 192.168.10.0 * El router Perth tiene que admitir 60 hosts. Esto significa que se necesita un mínimo de seis bits en la porción de host de la dirección. Seis bits proporcionan 26 – 2 ó 62 direcciones de host posibles. Se asigna la subred 192.168.10.0/26 a la conexión LAN para el router Perth. * Los routers Sydney y Singapur deben admitir 12 hosts cada uno. Esto significa que se necesitan un mínimo de cuatro bits en la porción de host de la dirección. Cuatro bits proporcionan 24 – 2 ó 14 direcciones de host posibles. Se asigna la subred 192.168.10.96/28 a la conexión LAN para el router Sydney y la subred 192.168.10.112/28 a la conexión LAN para el router Singapur. * El router KL tiene que admitir 28 hosts. Esto significa que se necesitan un mínimo de cinco bits en la porción de host de la dirección. Cinco bits proporcionan 25 – 2 ó 30 direcciones de host posibles. Se asigna la subred 192.168.10.64/27 a la conexión LAN para el router KL. A continuación, se presentan los cálculos de VLSM para las conexiones punto a punto de la Figura : * La conexión de Perth a Kuala Lumpur requiere sólo dos direcciones de host. Esto significa que se necesita un mínimo de dos bits en la porción de host de la dirección. Dos bits proporcionan 22 – 2 ó 2 direcciones de host posibles. Se asigna la subred 192.168.10.128/30 a la conexión de Perth a Kuala Lumpur. * La conexión de Sydney a Kuala Lumpur requiere sólo dos direcciones de host. Esto significa que se necesita un mínimo de dos bits en la porción de host de la dirección. Dos bits proporcionan 22 – 2 ó 2 direcciones de host posibles. Se asigna la subred 192.168.10.132/30 a la conexión de Sydney a Kuala Lumpur. * La conexión de Singapur a Kuala Lumpur requiere sólo dos direcciones de host. Esto significa que se necesita un mínimo de dos bits en la porción de host de la dirección. Dos bits proporcionan 22 – 2 ó 2 direcciones de host posibles. Se asigna la subred 192.168.10.136/30 a la conexión de Singapur a Kuala Lumpur. La siguiente configuración es para la conexión punto a punto de Singapur a KL: Singapore(config)#interface serial 0 Singapore(config-if)#ip address 192.168.10.137 255.255.255.252 KualaLumpur(config)#interface serial 1 KualaLumpur(config-if)#ip address 192.168.10.138 255.255.255.252 Con esta página se concluye la lección. En la siguiente lección se hablará de RIP. En la primera página se describe RIP v1. 1.2 RIP Versión 2 1.2.1 Historia de RIP

Page 182: Semestre1 Ccna

En esta página se explicarán las funciones y limitaciones de RIP. La Internet es una colección de varios sistemas autónomos (AS). Cada AS posee una tecnología de enrutamiento que puede diferir de otros sistemas autónomos. El protocolo de enrutamiento utilizado dentro de un AS se conoce como Protocolo de enrutamiento interior (IGP). Un protocolo distinto utilizado para transferir información de enrutamiento entre los distintos sistemas autónomos se conoce como Protocolo de enrutamiento exterior (EGP). RIP está diseñado para trabajar como IGP en un AS de tamaño moderado. No ha sido concebido para utilizarse en entornos más complejos. RIP v1 se considera un IGP con clase. RIP v1 es un protocolo de vector-distancia que envía la tabla de enrutamiento completa en broadcast a cada router vecino a determinados intervalos. El intervalo por defecto es de 30 segundos. RIP utiliza el número de saltos como métrica, siendo 15 el número máximo de saltos. Si el router recibe información sobre una red y la interfaz receptora pertenece a la misma red pero se encuentra en una subred diferente, el router aplica la máscara de subred que está configurada en la interfaz receptora: * Para las direcciones de Clase A, la máscara con clase por defecto es 255.0.0.0. * Para las direcciones de Clase B, la máscara con clase por defecto es 255.255.0.0. * Para las direcciones de Clase C, la máscara con clase por defecto es 255.255.255.0. RIP v1 es un protocolo de enrutamiento común dado que prácticamente todos los routers IP lo admiten. La popularidad de RIP v1 se basa en la simplicidad y su demostrada compatibilidad universal. RIP es capaz de equilibrar las cargas hasta en seis rutas de igual costo, siendo cuatro rutas la cantidad por defecto. RIP v1 posee las siguientes limitaciones: * No envía información de máscara de subred en sus actualizaciones. * Envía las actualizaciones en broadcasts a 255.255.255.255. * No admite la autenticación * No puede admitir enrutamiento entre dominios de VLSM o sin clase (CIDR). RIP v1 es de muy fácil configuración, como lo muestra la Figura . En la página siguiente se presenta RIP v2. 1.2.2 Funciones de RIP v2 En esta página se analizará RIP v2, que es una versión mejorada de RIP v1. Ambas versiones de RIP comparten las siguientes funciones: * Es un protocolo de vector-distancia que usa el número de saltos como métrica. * Utiliza temporizadores de espera para evitar los bucles de enrutamiento – la opción por defecto es 180 segundos. * Utiliza horizonte dividido para evitar los bucles de enrutamiento. * Utiliza 16 saltos como métrica para representar una distancia infinita RIP v2 ofrece el enrutamiento por prefijo, que le permite enviar información de máscara de subred con la actualización de la ruta. Por lo tanto, RIP v2 admite el uso de enrutamiento sin clase en el cual diferentes subredes dentro de una misma red pueden utilizar distintas mascaras de subred, como lo hace VLSM. RIP v2 ofrece autenticación en sus actualizaciones. Se puede utilizar un conjunto de claves en una interfaz como verificación de autenticación. RIP v2 permite elegir el tipo de autenticación que se utilizará en los paquetes RIP v2. Se puede elegir texto no cifrado o cifrado con Message-Digest 5 (MD5). El texto no cifrado es la opción por defecto. MD5 se puede usar para autenticar el origen de una actualización de enrutamiento. MD5 se utiliza generalmente para cifrar las contraseñas enable secret y no existe forma reconocida de descifrarlo. RIP v2 envía sus actualizaciones de enrutamiento en multicast con la dirección Clase D 224.0.0.9, lo cual ofrece mejor eficiencia. En la página siguiente se analizará RIP en mayor detalle. 1.2.3 Comparación entre RIP v1 y v2 En esta página se presentará información sobre el funcionamiento de RIP. También describirá las diferencias entre RIP v1 y RIP v2. RIP utiliza algoritmos por vector-distancia para determinar la dirección y la distancia hacia cualquier enlace en la internetwork. Si existen varias rutas hasta un destino, RIP elige la ruta con el menor número de saltos. Sin embargo, debido a que el número de saltos es la única métrica de enrutamiento que RIP utiliza, no siempre elige el camino más rápido hacia el destino.

Page 183: Semestre1 Ccna

RIP v1 permite que los routers actualicen sus tablas de enrutamiento a intervalos programables. El intervalo por defecto es de 30 segundos. El envío continuo de actualizaciones de enrutamiento por parte de RIP v1 implica un crecimiento muy rápido del tráfico de red. Para evitar que un paquete entre en un bucle interminable, RIP permite un número máximo de 15 saltos. Si es necesario pasar por más que 15 routers para llegar al destino, la red se considera inalcanzable y el paquete se descarta. Esta situación crea un problema de escalabilidad cuando se efectúa el enrutamiento en redes heterogéneas más grandes. RIP v1 usa el horizonte dividido para evitar los bucles. Esto significa que RIP v1 publica las rutas por una interfaz sólo si las rutas no se conocieron por medio de actualizaciones que entraron por esa interfaz. Utiliza temporizadores de espera para evitar bucles de enrutamiento. Las esperas pasan por alto cualquier nueva información acerca de una subred si esa subred tiene una métrica menos conveniente en un lapso de tiempo igual al del temporizador de espera. La Figura resume el comportamiento de RIP v1 cuando lo utiliza un router. RIP v2 es una versión mejorada de RIP v1. Comparte muchas de las mismas funciones que RIP v1. RIP v2 también es un protocolo de vector-distancia que utiliza el número de saltos, temporizadores de espera y horizonte dividido. La Figura muestra las similitudes y diferencias entre RIP v1 y RIP v2. La primera práctica de laboratorio de esta página enseñará a los estudiantes cómo instalar y configurar el RIP en los routers. La segunda actividad de laboratorio revisará la configuración básica de los routers. La actividad de medios interactivos ayudará a los estudiantes a comprender las diferencias entre RIP v1 y RIP v2. En la siguiente página se explicará la configuración de RIP v2. 1.2.4 Configuración de RIP v2 En esta página se enseñará los estudiantes cómo configurar RIP v2. RIP v2 es un protocolo de enrutamiento dinámico que se configura dando al protocolo de enrutamiento el nombre de RIP Versión 2 y luego asignando números de red IP sin especificar los valores de subred. Esta sección describe los comandos básicos que se utilizan para configurar RIP v2 en un router Cisco. Para habilitar un protocolo de enrutamiento dinámico, se deberán completar las siguientes tareas: * Seleccionar un protocolo de enrutamiento como por ejemplo RIP v2. * Asignar los números de red IP sin especificar los valores de subred. * Asignar a las interfaces las direcciones de red o de subred y la máscara de subred adecuada. RIP v2 se comunica con otros routers por medio de multicast. La métrica de enrutamiento ayuda a los routers a encontrar la mejor ruta hacia cada red o subred. El comando router inicia el proceso de enrutamiento. El comando network provoca la implementación de las siguientes tres funciones: * Las actualizaciones de enrutamiento se envían por una interfaz en multicast. * Se procesan las actualizaciones de enrutamiento si entran por la misma interfaz. * Se publica la subred que se conecta directamente a esa interfaz. El comando network es necesario, ya que permite que el proceso de enrutamiento determine cuáles son las interfaces que participan en el envío y la recepción de las actualizaciones de enrutamiento. El comando network inicia el protocolo de enrutamiento en todas las interfaces que posee el router en la red especificada. El comando network también permite que router publique esa red. La combinación de los comandos router rip y version 2 especifica RIP v2 como el protocolo de enrutamiento, mientras que el comando network identifica una red adjunta participante. En este ejemplo, la configuración del Router A incluye lo siguiente: * router rip – Habilita el protocolo de enrutamiento RIP * version 2 – Indica que se utilizará la versión 2 de RIP * network 172.16.0.0 – Especifica una red directamente conectada * network 10.0.0.0 – Especifica una red directamente conectada. La interfaces del Router A conectadas a las redes 172.16.0.0 y 10.0.0.0, o las subredes correspondientes, enviarán y recibirán las actualizaciones de RIP v2. Estas actualizaciones de enrutamiento permiten que el router aprenda la topología de red. Los routers B y C tienen configuraciones RIP similares pero con distintos números de red. La Figura muestra otro ejemplo de una configuración de RIP v2. Las actividades de laboratorio en esta página le mostrarán a los estudiantes cómo convertir RIP v1 en RIP v2.

Page 184: Semestre1 Ccna

1.2.5 Verificación de RIP v2 Los comandos show ip protocols y show ip route muestran información sobre los protocolos de enrutamiento y la tabla de enrutamiento. En esta página se explica cómo se utilizan los comandos show para verificar una configuración RIP. El comando show ip protocols muestra valores sobre los protocolos de enrutamiento e información sobre el temporizador de protocolo de enrutamiento asociado al router. En el ejemplo, el router está configurado con RIP y envía información de la tabla de enrutamiento actualizada cada 30 segundos. Este intervalo se puede configurar. Si un router que ejecuta RIP no recibe una actualización de otro router por 180 segundos o más, el primer router marca las rutas proporcionadas por el router que no envía actualizaciones como no válidas. En la Figura , el temporizador de espera se ha establecido en 180 segundos. Por lo tanto, la actualización de una ruta que estuvo deshabilitada y que ahora está habilitada podría quedarse en el estado de espera hasta que transcurran los 180 segundos en su totalidad. Si después de 240 segundos no ha habido actualización, el router elimina las entradas de la tabla de enrutamiento. El router inyecta rutas para las redes que aparecen a continuación de la línea "Routing for networks". El router recibe rutas de parte de los routers RIP vecinos que aparecen después de la línea "Routing Information Sources". La distancia por defecto de 120 se refiere a la distancia administrativa para la ruta de RIP. El comando show ip interface brief también se puede usar para visualizar un resumen de la información y del estado de la interfaz. El comando show ip route muestra el contenido de una tabla de enrutamiento IP. La tabla de enrutamiento contiene entradas para todas las redes y subredes conocidas, así como un código que indica la forma en que se obtuvo la información. Examine el resultado para ver si la tabla de enrutamiento tiene información de enrutamiento. Si faltan entradas, la información de enrutamiento no se está intercambiando. Ejecute los comandos EXEC privilegiados show running-config o show ip protocols en el router para verificar la posibilidad de que exista un protocolo de enrutamiento mal configurado. La actividad de laboratorio enseñará a los estudiantes cómo usar los comandos show para verificar las configuraciones de RIP v2. En la siguiente página se analizará el comando debug ip rip. 1.2.6 Diagnóstico de fallas de RIP v2 Esta página explica el uso del comando debug ip rip. El comando debug ip rip muestra las actualizaciones de enrutamiento RIP a medida que éstas se envían y reciben. Los comandos no debug all o undebug all desactivarán totalmente la depuración. El ejemplo muestra que el router que se está depurando ha recibido actualizaciones de parte de un router con dirección origen 10.1.1.2. El router de la dirección origen 10.1.1.2 envió información sobre dos destinos en la actualización de la tabla de enrutamiento. El router que se está depurando también envió actualizaciones, en ambos casos utilizando la dirección de multicast 224.0.0.9 como destino. El número entre paréntesis representa la dirección origen encapsulada en el encabezado IP. Las siguientes entradas representan algunos de los otros resultados que aparecen a veces con el comando debug ip rip: RIP: broadcasting general request on Ethernet0 RIP: broadcasting general request on Ethernet1 Estos resultados aparecen en el inicio o cuando se produce un evento como por ejemplo una transición de interfaz o cuando un usuario despeja la tabla de enrutamiento manualmente. Es probable que una entrada, como la que aparece a continuación, se deba un paquete mal formado desde el transmisor: RIP: bad version 128 from 160.89.80.43 En la Figura aparecen ejemplos de resultados de debug ip rip y su significado. Las actividades de laboratorio ayudarán a los estudiantes a familiarizarse con los comandos debug. En la página siguiente se analizarán las rutas por defecto. 1.2.7 Rutas por defecto

Page 185: Semestre1 Ccna

En esta página se describirán las rutas por defecto y se explicará su configuración. Por defecto, los routers aprenden las rutas hacia el destino de tres formas diferentes: * Rutas estáticas: El administrador del sistema define manualmente las rutas estáticas como el siguiente salto hacia un destino. Las rutas estáticas son útiles para la seguridad y la reducción del tráfico ya que no se conoce ninguna otra ruta. * Rutas por defecto: El administrador del sistema también define manualmente las rutas por defecto como la ruta a tomar cuando no existe ninguna ruta conocida para llegar al destino Las rutas por defecto mantienen las tablas de enrutamiento más cortas. Cuando no existe una entrada para una red destino en una tabla de enrutamiento, el paquete se envía a la red por defecto. * Rutas dinámicas: El enrutamiento dinámico significa que el router va averiguando las rutas para llegar al destino por medio de actualizaciones periódicas enviadas desde otros routers. En la Figura , la ruta estática se indica con el siguiente comando: Router(config)#ip route 172.16.1.0 255.255.255.0 172.16.2.1 El comando ip default-network establece una ruta por defecto en las redes que utilizan protocolos de enrutamiento dinámico: Router(config)#ip default-network 192.168.20.0 Por lo general, después de establecer la tabla de enrutamiento para manejar todas las redes que deben configurarse, resulta útil garantizar que todos los demás paquetes se dirijan hacia una ubicación específica. Esto se conoce como la ruta por defecto del router. Un ejemplo es un router conectado a Internet. Todos los paquetes que no se definen en la tabla de enrutamiento irán a la interfaz indicada del router por defecto. Generalmente, se configura el comando ip default-network en los routers que se conectan a un router con una ruta estática por defecto. En la Figura , Hong Kong 2 y Hong Kong 3 usarían Hong Kong 4 como el gateway por defecto. Hong Kong 4 usaría la interfaz 192.168.19.2 como su gateway por defecto. Hong Kong 1 enrutaría los paquetes hacia la Internet para todos los hosts internos. Para permitir que Hong Kong 1 enrute estos paquetes es necesario configurar una ruta por defecto de la siguiente manera: HongKong1(config)#ip route 0.0.0.0 0.0.0.0 s0/0 Los ceros en la parte que corresponde a la dirección y a la máscara en el comando representan cualquier red destino con cualquier máscara. Las rutas por defecto se conocen como rutas de cuatro ceros. En el diagrama, la única forma en que Hong Kong 1 puede accesar Internet es a tráves de la interfaz s0/0. Con esta página se concluye la lección. En la siguiente página se resumen los puntos principales de este módulo. Resumen En esta página se resumen los temas analizados en este módulo. Máscaras de subred de longitud variable (VLSM), las cuales se conocen comúnmente como "división de subredes en subredes", se utilizan para maximizar la eficiencia del direccionamiento. Es una función que permite que un solo sistema autónomo tenga redes con distintas máscaras de subred. El administrador de red puede usar una máscara larga en las redes con pocos hosts y una máscara corta en las redes con muchos hosts. Es importante diseñar un esquema de direccionamiento que permita el crecimiento y sin el desperdicio de direcciones. Para aplicar el VLSM al problema de direccionamiento, se crean grandes subredes para direccionar a las LAN. Se crean subredes muy pequeñas para los enlaces WAN y otros casos especiales. VLSM ayuda a manejar las direcciones IP. VLSM permite la configuración de una máscara de subred adecuada para los requisitos del enlace o del segmento. Una máscara de subred debe satisfacer los requisitos de una LAN con una máscara de subred y los requisitos de una WAN punto a punto con otra máscara de subred. Las direcciones se asignan de manera jerárquica para que las direcciones resumidas compartan los mismos bits de mayor peso. Existen reglas específicas para un router. Debe conocer con detalle los números de subred conectados a él y no necesita comunicar a los demás routers acerca de cada subred individual si el router puede enviar una ruta unificada para un conjunto de routers. Un router que usa rutas unificadas tiene menos entradas en sus tablas de enrutamiento. Si se elige usar el esquema VLSM, es necesario calcularlo y configurarlo correctamente.

Page 186: Semestre1 Ccna

RIP v1 se considera un protocolo de enrutamiento interior con clase. RIP v1 es un protocolo de vector-distancia que envía en broadcast la tabla de enrutamiento en su totalidad a cada router vecino a determinados intervalos. El intervalo por defecto es de 30 segundos. RIP utiliza el número de saltos como métrica, siendo 15 el número máximo de saltos. Para habilitar un protocolo de enrutamiento dinámico, seleccione un protocolo de enrutamiento, como por ejemplo RIP v2, asigne los números de red IP sin especificar los valores de subred y luego asigne a las interfaces las direcciones de red o de subred y la máscara de subred adecuada. En RIP v2, el comando router inicia el proceso de enrutamiento. El comando network provoca la implementación de tres funciones. Las actualizaciones de enrutamiento se envían en multicast por una interfaz, se procesan las actualizaciones de enrutamiento si entran por esa misma interfaz y la subred que se encuentra directamente conectada a esa interfaz se publica. El comando version 2 habilita RIP v2. El comando show ip protocols muestra valores sobre los protocolos de enrutamiento e información sobre el temporizador de protocolo de enrutamiento asociado al router. El comando debug ip rip muestra las actualizaciones de enrutamiento RIP a medida que éstas se envían y reciben. Los comandos no debug all o undebug all desactivarán totalmente la depuración. Módulo 2: OSPF de una sola área Descripción general Las dos clases principales de IGP son de vector-distancia y del estado de enlace. Ambos tipos de protocolos de enrutamiento buscan rutas a través de sistemas autónomos. Los protocolos de enrutamiento por vector-distancia y del estado de enlace utilizan distintos métodos para realizar las mismas tareas. Los algoritmos de enrutamiento del estado de enlace, también conocidos como algoritmos Primero la ruta libre más corta (SPF), mantienen una compleja base de datos de información de topología. El algoritmo de enrutamiento del estado de enlace mantiene información completa sobre routers lejanos y su interconexión. Por otra parte, los algoritmos de vector-distancia proporcionan información no especifica sobre las redes lejanas y no tiene información acerca de los routers distantes. Es importante entender la manera en que operan los protocolos de enrutamiento del estado de enlace para poder configurarlos, verificarlos y realizar el diagnóstico de fallas. Este módulo explica cómo funcionan los protocolos de enrutamiento del estado de enlace, describe sus funciones, describe el algoritmo que utilizan y pone de relieve las ventajas y desventajas del enrutamiento del estado de enlace. Todos los primeros protocolos de enrutamiento como RIP v1 eran protocolos de vector-distancia. En la actualidad, se usan muchos protocolos de enrutamiento por vector-distancia, como por ejemplo RIP v2, IGRP y el protocolo de enrutamiento híbrido EIGRP. A medida que las redes se hicieron más grandes y más complejas, las limitaciones de los protocolos de vector-distancia se volvieron más aparentes. Los routers que utilizan un protocolo de enrutamiento por vector-distancia aprenden la topología de red a partir de las actualizaciones de la tabla de enrutamiento de los routers vecinos. El uso del ancho de banda es alto debido al intercambio periódico de las actualizaciones de enrutamiento y la convergencia de red es lenta, lo que da como resultado malas decisiones de enrutamiento. Los protocolos de enrutamiento del estado de enlace difieren de los protocolos de vector-distancia. Los protocolos del estado de enlace generan una inundación de información de ruta, que da a cada router una visión completa de la topología de red. El método de actualización desencadenada por eventos permite el uso eficiente del ancho de banda y una convergencia más rápida. Los cambios en el estado de un enlace se envían a todos los routers en la red tan pronto como se produce el cambio. OSPF es uno de los protocolos del estado de enlace más importantes. OSPF se basa en las normas de código abierto, lo que significa que muchos fabricantes lo pueden desarrollar y mejorar. Es un protocolo complejo cuya implementación en redes más amplias representa un verdadero desafío. Los principios básicos de OSPF se tratan en este módulo. La configuración de OSPF en un router Cisco es parecido a la configuración de otros protocolos de enrutamiento. De igual manera, es necesario habilitar OSPF en un router e identificar las redes que serán publicadas por OSPF. OSPF cuenta con varias funciones y procedimientos de configuración únicos. Estas funciones aumentan las capacidades de OSPF como protocolo de enrutamiento, pero también complican su configuración. En grandes redes, OSPF se puede configurar para abarcar varias áreas y distintos tipos de área. La capacidad para diseñar e implementar OSPF en las grandes redes comienza con la capacidad para configurar OSPF en una sola área. Este módulo también tratará la configuración de OSPF en una sola área. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas:

Page 187: Semestre1 Ccna

* Identificar las funciones clave de los protocolos de enrutamiento del estado de enlace. * Explicar la forma de mantiene la información de enrutamiento del estado de enlace * Analizar el algoritmo del enrutamiento del estado de enlace * Examinar las ventajas y desventajas de los protocolos de enrutamiento del estado de enlace * Indicar las similitudes y diferencias entre los protocolos de enrutamiento del estado de enlace y los protocolos de enrutamiento por vector-distancia * Habilitar OSPF en un router * Configurar una dirección de loopback para establecer la prioridad del router * Modificar la métrica de costo para cambiar la preferencia de ruta de OSPF * Configurar la autenticación de OSPF * Cambiar los temporizadores de OSPF * Describir los pasos para crear y propagar una ruta por defecto * Usar los comandos show para verificar la operación de OSPF. * Configurar el proceso de enrutamiento de OSPF * Definir los términos clave de OSPF * Describir los distintos tipos de red OSPF * Describir el protocolo Hello de OSPF * Identificar los pasos básicos de la operación de OSPF 2.1 Protocolo de enrutamiento del estado de enlace 2.1.1 Descripción general del enrutamiento del estado de enlace El funcionamiento de los protocolos de enrutamiento del estado de enlace es distinto al de los protocolos de vector-distancia. Esta página explicará las diferencias entre los protocolos de vector-distancia y los del estado de enlace. Esta información es esencial para los administradores de red. Una diferencia importante es que los protocolos de vector-distancia utilizan un método más sencillo para intercambiar información de ruta. La Figura expone las características de los protocolos de vector-distancia y del estado de enlace. Los protocolos de enrutamiento de estado del enlace mantienen una base de datos compleja, con la información de la topología de la red. Mientras que el algoritmo de vector-distancia posee información no específica acerca de las redes distantes y ningún conocimiento acerca de los routers distantes, un algoritmo de enrutamiento del estado de enlace tiene pleno conocimiento de los routers distantes y la forma en que se interconectan. La Actividad de Medios Interactivos ayudará a los estudiantes a identificar las distintas funciones de los protocolos de vector-distancia y del estado de enlace. La siguiente página describirá los protocolos de enrutamiento del estado de enlace. 2.1.2 Características del protocolo de enrutamiento del estado de enlace En esta página se explica de qué manera los protocolos del estado de enlace enrutan los datos. Los protocolos de enrutamiento del estado de enlace reúnen la información de ruta de todos los demás routers de la red o dentro de un área definida de la red. Una vez que se haya reunido toda la información, cada router calcula las mejores rutas hacia todos los destinos de la red. Dado que cada router mantiene su propia visión de la red, es menos probable que se propague información incorrecta de parte de cualquiera de los routers vecinos. * A continuación, se presentan algunas funciones de los protocolos de enrutamiento del estado de enlace: Responden rápidamente a los cambios de red * Envían actualizaciones desencadenadas sólo cuando se haya producido un cambio de red * Envían actualizaciones periódicas conocidas como actualizaciones del estado de enlace * Usan un mecanismo hello para determinar la posibilidad de comunicarse con los vecinos Cada router envía los paquetes hello en multicast para realizar un seguimiento del estado de los routers vecinos. Cada router usa varias LSA para realizar el seguimiento de todos los routers en el área donde se encuentra la red. Los paquetes hello contienen información acerca de las redes conectadas al router. En la Figura , P4 conoce a sus vecinos, P1 y P3, en la red Perth3. Las LSA proporcionan actualizaciones sobre el estado de los enlaces que son interfaces en otros routers de la red. * Los routers que usan protocolos de enrutamiento del estado de enlace tienen las siguientes características: Usan la información hello y las LSA que han recibido de otros routers para crear una base de datos de la red * Usan el algoritmo SPF para calcular la ruta más corta hacia cada red * Almacenan la información de ruta en la tabla de enrutamiento En la siguiente página se ofrece más información sobre los protocolos del estado de enlace. 2.1.3 Mantenimiento de la información de enrutamiento En esta página se explica la forma en que los protocolos del estado de enlace utilizan las siguientes funciones.

Page 188: Semestre1 Ccna

* Las LSA * Una base de datos topológica * El algoritmo SPF * El árbol SPF * Una tabla de enrutamiento de rutas y puertos para determinar la mejor ruta para los paquetes Los protocolos de enrutamiento del estado de enlace se diseñaron para superar las limitaciones de los protocolos de enrutamiento por vector-distancia. Por ejemplo, los protocolos de vector-distancia sólo intercambian actualizaciones de enrutamiento con sus vecinos inmediatos mientras que los protocolos de enrutamiento del estado de enlace intercambian información de enrutamiento a través de un área mucho más amplia. Cuando se produce una falla en la red, como por ejemplo que un vecino se vuelve inalcanzable, los protocolos del estado de enlace inundan el área con LSA mediante una dirección multicast especial. La inundación es un proceso que envía información por todos los puertos, salvo el puerto donde se recibió la información. Cada router de estado de enlace toma una copia de la LSA y actualiza su base de datos del estado de enlace o topológica. Luego, el router de estado de enlace envía la LSA a todos los dispositivos vecinos. Las LSA hacen que cada router que se encuentra dentro del área vuelva a calcular las rutas. Por esta razón, es necesario limitar la cantidad de routers de estado de enlace dentro de un área. Un enlace es igual a una interfaz en un router. El estado de enlace es la descripción de una interfaz y de su relación con los routers vecinos. Por ejemplo, una descripción de interfaz incluiría la dirección IP de la interfaz, la máscara de subred, el tipo de red a la cual está conectada, los routers conectados a esa red, etc. La recopilación de estados de enlace forma una base de datos del estado de enlace que con frecuencia se denomina base de datos topológica. La base de datos del estado de enlace se utiliza para calcular las mejores rutas por la red. Los routers de estado de enlace aplican el algoritmo de Primero la ruta libre más corta de Dijkstra a la base de datos del estado de enlace. Esto permite crear el árbol SPF utilizando el router local como raíz. Luego se seleccionan las mejores rutas del árbol SPF y se colocan en la tabla de enrutamiento. En la siguiente página se describe el algoritmo de enrutamiento del estado de enlace. 2.1.4 Algoritmos de enrutamiento del estado de enlace Los algoritmos de enrutamiento del estado de enlace mantienen una base de datos compleja de la topología de red intercambiando publicaciones del estado de enlace (LSAs) con otros routers de una red. En esta página se describe el algoritmo de enrutamiento del estado de enlace. Los algoritmos de enrutamiento del estado de enlace poseen las siguientes características: * Se conocen colectivamente como protocolos SPF. * Mantienen una base de datos compleja de la topología de la red. * Se basan en el algoritmo Dijkstra. Los protocolos del estado de enlace desarrollan y mantienen pleno conocimiento de los routers de la red y de su interconexión. Esto se logra a través del intercambio de LSA con otros routers de la red. Cada router construye una base de datos topológica a base de las LSA que recibe. Entonces se utiliza el algoritmo SPF para computar la forma de alcanzar los destinos. Esta información se utiliza para actualizar la tabla de enrutamiento. A través de este proceso se puede descubrir los cambios en la topología de red provocados por la falla de algunos componentes o el crecimiento de la red. El intercambio de LSA se desencadena por medio de un evento en la red en lugar de actualizaciones periódicas. Esto acelera el proceso de convergencia porque no hay necesidad de esperar que un conjunto de temporizadores expire antes de que los routers puedan convergir. Si en la red que se muestra en la figura , se está utilizando un protocolo de estado de enlace; éste se hará cargo de la comunicación entre los routers A y D. Basado en el protocolo que se emplea y en la métrica que se selecciona, el protocolo de enrutamiento puede discriminar entre dos rutas con el mismo destino y utilizar la mejor ruta. En la Figura aparecen dos entradas de enrutamiento en la tabla para la ruta que va desde el Router A hasta el Router D. En esta figura, la rutas tienen costos iguales y, por lo tanto, el protocolo de enrutamiento del estado de enlace registra ambas rutas. Algunos protocolos del estado de enlace ofrecen una forma de evaluar las capacidades de rendimiento de las dos rutas y elegir la mejor. Si la ruta preferida a través del Router C experimenta dificultades operacionales como por ejemplo congestión o falla en algún componente, el protocolo de enrutamiento del estado de enlace puede detectar este cambio y enrutar los paquetes a través del Router B. En la siguiente página se describen algunas ventajas de los protocolos del estado de enlace. 2.1.5 Ventajas y desventajas del enrutamiento del estado de enlace

Page 189: Semestre1 Ccna

En esta página se enumeran las ventajas y desventajas de los protocolos de enrutamiento de estado de enlace. A continuación, se presentan las ventajas de los protocolos de enrutamiento de estado de enlace: * Los protocolos del estado de enlace utilizan métricas de costo para elegir rutas a través de la red. La métrica del costo refleja la capacidad de los enlaces en estas rutas. * Los protocolos del estado de enlace utilizan actualizaciones generadas por eventos e inundaciones de LSA para informar los cambios en la topología de red a todos los routers de la red de forma inmediata. Esto da como resultado tiempos de convergencia más rápidos. * Cada router posee una imagen completa y sincronizada de la red. Por lo tanto, es muy difícil que se produzcan bucles de enrutamiento. * Los routers utilizan la información más actualizada para tomar las mejores decisiones de enrutamiento. * El tamaño de la base de datos del estado de enlace se pueden minimizar con un cuidadoso diseño de red. Esto hace que los cálculos de Dijkstra sean más cortos y la convergencia más rápida. * Cada router, al menos, asigna una topología de su propia área de la red. Este atributo ayuda a diagnosticar los problemas que pudieran producirse. * Los protocolos del estado de enlace admiten CIDR y VLSM. A continuación, se presentan las desventajas de los protocolos de enrutamiento de estado de enlace: * Requieren más memoria y potencia de procesamiento que los protocolos de vector-distancia. Esto hace que su uso resulte más caro para las organizaciones de bajo presupuesto y con hardware de legado. * Requieren un diseño de red jerárquico estricto para que una red se pueda dividir en áreas más pequeñas a fin de reducir el tamaño de las tablas de topología. * Requieren un administrador que comprenda bien los protocolos. * Inundan la red de LSA durante el proceso inicial de detección. Este proceso puede reducir significativamente la capacidad de la red para transportar datos. Puede degradar considerablemente el rendimiento de la red. En la siguiente página continúa la comparación de los protocolos del estado de enlace y de vector-distancia. 2.1.6 Similitudes y diferencias entre el enrutamiento por vector-distancia y del estado de enlace. En esta página se analizan las similitudes y diferencias entre el enrutamiento por vector-distancia y del estado de enlace. Todos los protocolos de vector-distancia aprenden rutas y luego envían estas rutas a los vecinos directamente conectados. Sin embargo, los routers de estado de enlace publican los estados de sus enlaces a todos los demás routers que se encuentren en el área, de manera que cada router pueda crear una base de datos del estado de enlace completa. Estas publicaciones se denominan publicaciones del estado de enlace o LSA. A diferencia de los routers de vector-distancia, los routers de estado de enlace pueden formar relaciones especiales con sus vecinos y otros routers de estado de enlace. Esto permite asegurar un intercambio correcto y eficaz de la información de la LSA. La inundación inicial de LSA permite que los routers obtengan la información necesaria para crear una base de datos del estado de enlace. Las actualizaciones de enrutamiento ocurren sólo al producirse cambios en la red. Si no hay cambios, las actualizaciones de enrutamiento se producen después de un intervalo específico. Si la red cambia, se envía una actualización parcial de inmediato. Esta actualización parcial sólo contiene información acerca de los enlaces que han cambiado. Los administradores de red encargados de la utilización de los enlaces WAN descubrirán que estas actualizaciones parciales y poco frecuentes son una alternativa eficiente a los protocolos de enrutamiento por vector-distancia, los cuales envían una tabla de enrutamiento completa cada 30 segundos. Cuando se produce un cambio, se notifica simultáneamente a todos los routers de estado de enlace mediante la actualización parcial. Los routers de vector-distancia esperan que los vecinos anoten el cambio, implementen este cambio y luego transmitan la actualización a los routers vecinos. Las ventajas de los protocolos del estado de enlace sobre los de vector-distancia incluyen una convergencia más rápida y una utilización mejorada del ancho de banda. Los protocolos del estado de enlace admiten CIDR y VLSM. Esto hace que sean muy buenas opciones para las redes más complejas y escalables. De hecho, los protocolos del estado de enlace generalmente superan a los protocolos de vector-distancia en una red de cualquier tamaño. Los protocolos del estado de enlace no se implementan en cada red dado que requieren más memoria y potencia de procesador que los protocolos de vector-distancia y pueden abrumar al equipo más lento. Otra razón por la cual no se han implementado más comunmente es el hecho de que los protocolos del estado de enlace son bastante complejos. Los protocolos de enrutamiento de estado de enlace requieren administradores muy capacitados para que los configuren y los mantengan correctamente. Con esta página se concluye la lección. La siguiente lección presenta un protocolo del estado de enlace denominado OSPF. En la primera página se ofrece una descripción general. 2.2.1 Descripción general de OSPF En esta página se presenta el protocolo OSPF. OSPF es un protocolo de enrutamiento del estado de enlace basado en estándares abiertos. Se describe en diversos estándares de la Fuerza de Tareas de Ingeniería de

Page 190: Semestre1 Ccna

Internet (IETF). El término "libre" en "Primero la ruta libre más corta" significa que está abierto al público y no es propiedad de ninguna empresa. En comparación con RIP v1 y v2, OSPF es el IGP preferido porque es escalable. RIP se limita a 15 saltos, converge lentamente y a veces elige rutas lentas porque pasa por alto ciertos factores críticos como por ejemplo el ancho de banda a la hora de determinar la ruta. Una desventaja de usar OSPF es que solo soporta el conjunto de protocolos TCP/IP. OSPF ha superado estas limitaciones y se ha convertido en un protocolo de enrutamiento sólido y escalable adecuado para la redes modernas. OSPF se puede usar y configurar en una sola área en las redes pequeñas. También se puede utilizar en las redes grandes. Tal como se muestra en la Figura , las redes OSPF grandes utilizan un diseño jerárquico. Varias áreas se conectan a un área de distribución o a un área 0 que también se denomina backbone. El enfoque del diseño permite el control extenso de las actualizaciones de enrutamiento. La definición de área reduce el gasto de procesamiento, acelera la convergencia, limita la inestabilidad de la red a un área y mejora el rendimiento. La siguiente página proporciona más información acerca de OSPF. 2.2.2 Terminología de OSPF En esta página se presentan algunos términos relacionados con el protocolo OSPF. Los routers de estado de enlace identifican a los routers vecinos y luego se comunican con los vecinos identificados. El protocolo OSPF tiene su propia terminología. Los nuevos términos aparecen en la Figura . OSPF reúne la información de los routers vecinos acerca del estado de enlace de cada router OSPF. Con esta información se inunda a todos los vecinos. Un router OSPF publica sus propios estados de enlace y traslada los estados de enlace recibidos. Los routers procesan la información acerca de los estados de enlace y crean una base de datos del estado de enlace. Cada router del área OSPF tendrá la misma base de datos del estado de enlace. Por lo tanto, cada router tiene la misma información sobre el estado del enlace y los vecinos de cada uno de los demás routers. Cada router luego aplica el algoritmo SPF a su propia copia de la base de datos. Este cálculo determina la mejor ruta hacia un destino. El algoritmo SPF va sumando el costo, un valor que corresponde generalmente al ancho de banda. La ruta de menor costo se agrega a la tabla de enrutamiento, que se conoce también como la base de datos de envío. Cada router mantiene una lista de vecinos adyacentes, que se conoce como base de datos de adyacencia. La base de datos de adyacencia es una lista de todos los routers vecinos con los que un router ha establecido comunicación bidireccional. Esto es exclusivo de cada router. Para reducir la cantidad de intercambios de la información de enrutamiento entre los distintos vecinos de una misma red, los routers de OSPF seleccionan un router designado (DR) y un router designado de respaldo (BDR) que sirven como puntos de enfoque para el intercambio de información de enrutamiento. La Actividad de Medios Interactivos enseñará a los estudiantes la terminología de OSPF. En la siguiente página se hace comparación entre OSPF y los protocolos de vector-distancia. 2.2.3 Comparación de OSPF con los protocolos de vector-distancia En esta página se explica la comparación entre el protocolo OSPF y los protocolos de vector-distancia como RIP. Los routers de estado de enlace mantienen una imagen común de la red e intercambian información de enlace en el momento de la detección inicial o de efectuar cambios en la red. Los routers de estado de enlace no envían las tablas de enrutamiento en broadcasts periódicos como lo hacen los protocolos de vector-distancia. Por lo tanto, los routers de estado de enlace utilizan menos ancho de banda para enrutar el mantenimiento de la tabla de enrutamiento. RIP es adecuado para pequeñas redes y la mejor ruta se basa en el menor número de saltos. OSPF es apropiado para internetworks grandes y escalables y la mejor ruta se determina a base de la velocidad del enlace. RIP, así como otros protocolos de vector-distancia, utiliza algoritmos sencillos para calcular las mejores rutas. El algoritmo SPF es complejo. Los routers que implementan los protocolos de vector-distancia necesitan menos memoria y menos potencia de procesamiento que los que implementan el protocolo OSPF. OSPF selecciona las rutas en base al costo, lo que se relaciona con la velocidad. Cuanto mayor sea la velocidad, menor será el costo de OSPF del enlace. OSPF selecciona la ruta más rápida y sin bucles del árbol SPF como la mejor ruta de la red. OSPF garantiza un enrutamiento sin bucles. Los protocolos de vector-distancia pueden provocar bucles de enrutamiento.

Page 191: Semestre1 Ccna

Si los enlaces son poco estables, la inundación de la información del estado de enlace puede provocar publicaciones del estado de enlace no sincronizadas y decisiones incoherentes entre los routers. OSPF ofrece soluciones a los siguientes problemas: * Velocidad de convergencia * Admite la Máscara de subred de longitud variable (VLSM) * Tamaño de la red * Selección de ruta. * Agrupación de miembros En las redes grandes, la convergencia de RIP puede tardar varios minutos dado que la tabla de enrutamiento de cada router se copia y se comparte con routers directamente conectados. Después de la convergencia OSPF inicial, el mantenimiento de un estado convergente es más rápido porque se inundan los otros routers del área con los cambios en la red. OSPF admite VLSM y por lo tanto se conoce como un protocolo sin clase. RIP v1 no admite VLSM, pero RIP v2 sí la admite. RIP considera inalcanzable a una red que se encuentra a más de 15 routers de distancia porque el número de saltos se limita a 15. Esto limita el RIP a pequeñas topologías. OSPF no tiene límites de tamaño y es adecuado para las redes intermedias a grandes. RIP selecciona una ruta hacia una red agregando uno al número de saltos informado por un vecino. Compara los números de saltos hacia un destino y selecciona la ruta con la distancia más corta o menos saltos. Este algoritmo es sencillo y no requiere ningún router poderoso ni demasiada memoria. RIP no toma en cuenta el ancho de banda disponible en la determinación de la mejor ruta. OSPF selecciona la ruta mediante el costo, una métrica basada en el ancho de banda. Todos los routers OSPF deben obtener información acerca de la redes de cada router en su totalidad para calcular la ruta más corta. Éste es un algoritmo complejo. Por lo tanto, OSPF requiere routers más poderosos y más memoria que RIP. RIP utiliza una topología plana. Los routers de una región RIP intercambian información con todos los routers. OSPF utiliza el concepto de áreas. Una red puede subdividirse en grupos de routers. De esta manera, OSPF puede limitar el tráfico a estas áreas. Los cambios en un área no afectan el rendimiento de otras áreas. Este enfoque jerárquico permite el eficiente crecimiento de una red. La Actividad de Medios Interactivos ayudará a los estudiantes a entender las diferencias que existen entre los protocolos del estado de enlace y de vector-distancia. En la siguiente página se analiza el algoritmo de la ruta más corta. 2.2.4 Algoritmo de la ruta más corta En esta página se explica la manera en que OSPF utiliza el algoritmo de la ruta más corta para determinar la mejor ruta hacia un destino. En este algoritmo, la mejor ruta es la de menor costo. El algoritmo fue desarrollado por Dijkstra, un especialista holandés en informática en 1959. El algoritmo considera la red como un conjunto de nodos conectados con enlaces punto a punto. Cada enlace tiene un costo. Cada nodo tiene un nombre. Cada nodo cuenta con una base de datos completa de todos los enlaces y por lo tanto se conoce la información sobre la topología física en su totalidad. Todas las bases de datos del estado de enlace, dentro de un área determinada, son idénticas. La tabla de la Figura muestra la información que el nodo D ha recibido. Por ejemplo, D recibió información de que estaba conectado al nodo C con un costo de enlace de 4 y al nodo E con un costo de enlace de 1. El algoritmo de la ruta más corta calcula entonces una topología sin bucles con el nodo como punto de partida y examinando a su vez la información que posee sobre nodos adyacentes. En la Figura , el nodo B ha calculado la mejor ruta hacia D, la cual es a través del nodo E, con un costo de 4. Esta información se convierte en una entrada de ruta en B que enviará el tráfico a C. Los paquetes hacia D desde B fluirán de B a C y a E, luego a D en esta red OSPF. En el ejemplo, el nodo B determinó que para llegar al nodo F la ruta más corta tiene un costo de 5, a través del nodo C. Todas las demás topologías posibles tendrán bucles o rutas con costos más altos. La siguiente página explicará el concepto de las redes OSPF. 2.2.5 Tipos de red OSPF En esta página se presentan los tres tipos de red OSPF. Se requiere una relación de vecino para que los routers OSPF puedan compartir la información de enrutamiento.

Page 192: Semestre1 Ccna

Un router tiende a ser adyacente (o vecino) con por lo menos un router en cada red IP a la cual está conectado. Los routers OSPF determinan con qué routers pueden intentar formar adyacencias tomando como base el tipo de red a la cual están conectados. Algunos routers tratarán de tender a la adyacencia con respecto a todos los routers vecinos. Otros routers tratarán de hacerse adyacentes con respecto a sólo uno o dos de los routers vecinos. Una vez que se forma una adyacencia entre vecinos, se intercambia la información del estado de enlace. Las interfaces OSPF reconocen automáticamente tres tipos de redes: * Multiacceso con capacidad de broadcast, tal como Ethernet * Redes punto a punto * Multiacceso sin capacidad de broadcast (NMBA), tal como Frame Relay Un cuarto tipo, punto a multipunto, puede ser manualmente configurada en una interfaz por el administrador. En una red multiacceso, no se sabe de antemano cuántos routers estarán conectados. En las redes punto a punto, sólo se pueden conectar dos routers. En un segmento de red multiacceso de broadcast, se pueden conectar muchos routers. Si cada router tuviera que establecer adyacencia completa con cada uno de los otros routers e intercambiar información del estado de enlace con cada vecino, el procesamiento tendría un gasto demasiado grande. Si existieran 5 routers, se necesitarían 10 relaciones de adyacencia y se enviarían 10 estados de enlace. Si existieran 10 routers, entonces se necesitarían 45 adyacencias. Por lo general, para n routers, se necesitan n*(n-1)/2 adyacencias. La solución para este gasto es elegir un router designado (DR). Este router se hace adyacente a todos los demás routers del segmento de broadcast. Todos los demás routers del segmento envían su información del estado de enlace al DR. El DR a su vez actúa como portavoz del segmento. El DR envía información del estado de enlace a todos los demás routers del segmento a través de la dirección de multicast 224.0.0.5 para todos los routers OSPF. A pesar de la ganancia en eficiencia que permite la elección de DR, existe una desventaja. El DR representa un punto único de falla. Se elige un segundo router como router designado de respaldo (BDR) para que se haga cargo de las responsabilidades del DR en caso de que éste fallara. Para asegurar de que tanto el DR como el BDR vean todos los estados de enlace que los routers envían a través del segmento, se utiliza la dirección multicast 224.0.0.6 para todos los routers designados. En las redes punto a punto sólo existen dos nodos y no se elige ningún DR ni BDR. Ambos routers llegan a ser completamente adyacentes entre sí. La Actividad de Medios Interactivos ayudará a los estudiantes a reconocer los tres tipos de redes OSPF. En la siguiente página se describe el protocolo Hello de OSPF. 2.2.6 Protocolo Hello de OSPF En esta página se presentan los paquetes hello y el protocolo Hello. Cuando un router inicia un proceso de enrutamiento OSPF en una interfaz, envía un paquete hello y sigue enviando hellos a intervalos regulares. Las reglas que gobiernan el intercambio de paquetes hello de OSPF se denominan protocolo Hello. En la capa 3 del modelo OSI, los paquetes hello se direccionan hacia la dirección multicast 224.0.0.5. Esta dirección equivale a "todos los routers OSPF". Los routers OSPF utilizan los paquetes hello para iniciar nuevas adyacencias y asegurarse de que los routers vecinos sigan funcionando. Los Hellos se envían cada 10 segundos por defecto en las redes multiacceso de broadcast y punto a punto. En las interfaces que se conectan a las redes NBMA, como por ejemplo Frame Relay, el tiempo por defecto es de 30 segundos. En las redes multiacceso el protocolo Hello elige un router designado (DR) y un router designado de respaldo (BDR). Aunque el paquete hello es pequeño, consiste en un encabezado de paquete OSPF. Para el paquete hello, el campo de tipo se establece en 1. El paquete hello transmite información para la cual todos los vecinos deben estar de acuerdo antes de que se forme una adyacencia y que se pueda intercambiar información del estado de enlace. La Actividad de Medios Interactivos ayudará a los estudiantes a identificar los campos de un encabezado de paquete OSPF. En la siguiente página se describe el proceso de enrutamiento OSPF. 2.2.7 Pasos en la operación de OSPF

Page 193: Semestre1 Ccna

En esta página se explica de qué manera se comunican los routers en una red OSPF. Cuando un router inicia un proceso de enrutamiento OSPF en una interfaz, envía un paquete Hello y sigue enviando Hellos a intervalos regulares. El conjunto de reglas que rigen el intercambio de paquetes Hello de OSPF se denomina protocolo Hello. En las redes multiacceso el protocolo Hello elige un router designado (DR) y un router designado de respaldo (BDR). Hello transmite información que todos los vecinos deberán aceptar para que se pueda formar una adyacencia y para que se pueda intercambiar información del estado de enlace. En las redes multiaceso, el DR y el BDR mantienen adyacencias con todos los demás routers OSPF en la red. Los routers adyacentes pasan por una secuencia de estados. Los routers adyacentes deben estar en su estado completo antes de crear tablas de enrutamiento y enrutar el tráfico. Cada router envía publicaciones del estado de enlace (LSA) en paquetes de actualización del estado de enlace (LSU). Estas LSA describen todos los enlaces de los routers. Cada router que recibe una LSA de su vecino registra la LSA en la base de datos del estado de enlace. Este proceso se repite para todos los routers de la red OSPF. Una vez completas las bases de datos, cada router utiliza el algoritmo SPF para calcular una topología lógica sin bucles hacia cada red conocida. Se utiliza la ruta más corta con el menor costo para crear esta topología, por lo tanto, se selecciona la mejor ruta. La información de enrutamiento ahora se mantiene. Cuando existe un cambio en el estado de un enlace, los routers utilizan un proceso de inundación para notificar a los demás routers en la red acerca del cambio. El intervalo muerto del protocolo Hello ofrece un mecanismo sencillo para determinar que un vecino adyacente está desactivado. – Con esta página se concluye la lección. En la siguiente lección se ofrecen más explicaciones acerca de OSPF. En la primera página se analiza la configuración de OSPF. 2.3.1 Configuración del proceso de enrutamiento OSPF En esta página se enseñará a los estudiantes a realizar la configuración de OSPF. El enrutamiento OSPF utiliza el concepto de áreas. Cada router contiene una base de datos completa de los estados de enlace de un área específica. A un área de la red OSPF se le puede asignar cualquier número de 0 a 65.535. Sin embargo a una sola área se le asigna el número 0 y se la conoce como área 0. En las redes OSPF con varias áreas, se requiere que todas las áreas se conecten al área 0. El área 0 también se denomina el área backbone. La configuración de OSPF requiere que el proceso de enrutamiento OSPF esté activo en el router con las direcciones de red y la información de área especificadas. Las direcciones de red se configuran con una máscara wildcard y no con una máscara de subred. La máscara wildcard representa las direcciones de enlaces o de host que pueden estar presentes en este segmento. Los ID de área se pueden escribir como número entero o con la notación decimal punteada. Para habilitar el enrutamiento OSPF, utilice la sintaxis de comando de configuración global: Router(config)#router ospf process-id El ID de proceso es un número que se utiliza para identificar un proceso de enrutamiento OSPF en el router. Se pueden iniciar varios procesos OSPF en el mismo router. El número puede tener cualquier valor entre 1 y 65.535. La mayoría de los administradores de red mantienen el mismo ID de proceso en todo un sistema autónomo, pero esto no es un requisito. Rara vez es necesario ejecutar más de un proceso OSPF en un router. Las redes IP se publican de la siguiente manera en OSPF: Router(config-router)#network address wildcard-mask area area-id Cada red se debe identificar con un área a la cual pertenece. La dirección de red puede ser una red completa, una subred o la dirección de la interfaz. La máscara wildcard representa el conjunto de direcciones de host que admite el segmento. Esto es distinto de lo que ocurre con una máscara de subred que se utiliza al configurar las direcciones IP en las interfaces. Las prácticas de laboratorio ayudarán a los estudiantes a configurar y verificar el enrutamiento OSPF. En la siguiente página se enseña a los estudiantes a configurar una interfaz de loopback OSPF. 2.3.2 Configuración de la dirección de loopback OSPF y la prioridad del router En esta página se explica el propósito de una interfaz de loopback OSPF. Los estudiantes también aprenderán a asignar una dirección IP a una interfaz de loopback. Cuando se inicia el proceso OSPF, Cisco IOS utiliza la dirección IP activa local más alta como su ID de router

Page 194: Semestre1 Ccna

OSPF. Si no existe ninguna interfaz activa, el proceso OSPF no se iniciará. Si la interfaz activa se desactiva, el proceso OSPF se queda sin ID de router y por lo tanto deja de funcionar hasta que la interfaz vuelve a activarse. Para asegurar la estabilidad de OSPF, deberá haber una interfaz activa para el proceso OSPF en todo momento. Es posible configurar una interfaz de loopback, que es una interfaz lógica, para este propósito. Al configurarse una interfaz loopback, OSPF usa esta dirección como ID del router, sin importar el valor. En un router que tiene más de una interfaz loopback, OSPF toma la dirección IP de loopback más alta como su ID de router. Para crear y asignar una dirección IP a una interfaz de loopback use los siguientes comandos: Router(config)#interface loopback number Router(config-if)#ip address ip-address subnet-mask Se considera buena práctica usar interfaces loopback para todos los routers que ejecutan OSPF. Esta interfaz de loopback se debe configurar con una dirección que use una máscara de subred de 32 bits de 255.255.255.255. Una máscara de subred de 32 bits se denomina una máscara de host porque la máscara de subred especifica la red de un host. Cuando se solicita que OSPF publique una red loopback, OSPF siempre publica el loopback como una ruta de host con una máscara de 32 bits. En las redes multiacceso de broadcast es posible que haya más de dos routers. OSPF elige un router designado (DR) para que sea el punto de enfoque de todas las actualizaciones del estado de enlace y de las publicaciones del estado de enlace. Debido a que la función del DR es crítica, se elige un router designado de respaldo (BDR) para que reemplace a DR en caso de que éste falle. Si el tipo de red de una interfaz es broadcast, la prioridad OSPF por defecto es 1. Cuando las prioridades OSPF son iguales, la elección de OSPF para DR se decide a base del ID del router. Se selecciona el router de ID más elevado. El resultado de la elección puede determinarse asegurándose de que las votaciones, los paquetes hello, contengan un prioridad para dicha interfaz de router. La interfaz que registra la mayor prioridad para un router permitirá asegurar de que se convertirá en DR. Las prioridades se pueden establecer en cualquier valor de 0 a 255. Un valor de 0 evita que el router sea elegido. Se seleccionará como DR al router con la prioridad OSPF más alta. El router con la segunda prioridad más alta será BDR. Después del proceso de elección, el DR y el BDR conservan sus funciones aun cuando se agreguen a la red routers con valores de prioridad OSPF más altos. Se modifica la prioridad OSPF introduciendo el comando de configuración de interfaz ip ospf priority en una interfaz que participa en OSPF. El comando show ip ospf interface mostrará el valor de prioridad de interfaz así como otra información clave. Router(config-if)#ip ospf priority number Router#show ip ospf interface type number La actividad de laboratorio enseñará a los estudiantes a configurar las interfaces loopback para OSPF y les permitirá observar el proceso de elección para DR y BDR. En la siguiente página se describe la métrica de costos de OSPF. 2.3.3 Modificación de la métrica de costos de OSPF En esta página se enseña a los estudiantes a modificar los valores de costo en las interfaces de red. OSPF utiliza el costo como métrica para determinar la mejor ruta. Un costo se asocia con el lado de salida de cada interfaz de router. Los costos también se asocian con datos de enrutamiento derivados en forma externa. Por lo general, el costo de ruta se calcula mediante la fórmula 10^8/ancho de banda, donde el ancho de banda se expresa en bps. El administrador de sistema también puede usar otros métodos para configurar el costo. Cuanto más bajo sea el costo, más probabilidad hay de que la interfaz sea utilizada para enviar tráfico de datos. Cisco IOS determina automáticamente el costo en base al ancho de banda de la interfaz. Resulta esencial para la operación correcta de OSPF que se establezca el ancho de banda de interfaz correcto. Router(config)#interface serial 0/0 Router(config-if)#bandwidth 56 Es posible cambiar el costo para afectar el resultado de los cálculos de costo OSPF. Una situación común que requiere un cambio de costo es un entorno de enrutamiento de diversos fabricantes. Un cambio de costo puede asegurar que el valor de costo de un fabricante coincida con el valor de costo de otro fabricante. Otra situación se produce al utilizar Gigabit Ethernet. Con la configuración por defecto, se asigna el valor de costo más bajo (1) a un enlace de 100 Mbps. En una situación con con enlaces Gigabit Ethernet y 100-Mbps, los valores de costo por defecto podrían hacer que el enrutamiento tome una ruta menos deseable a menos que estos se ajusten. El

Page 195: Semestre1 Ccna

número de costo se puede establecer entre 1 y 65.535. Utilice el siguiente comando de configuración de interfaz para establecer el costo del enlace: Router(config-if)#ip ospf cost number Las prácticas de laboratorio demostrarán a los estudiantes cómo modificar la métrica de costo OSPF de una interfaz. La siguiente página explicará la configuración de la autenticación de OSPF. 2.3.4 Configuración de la autenticación de OSPF En esta página se explica la razón por la que se utilizan las claves de autenticación de OSPF y la manera de configurarlas. Por defecto, un router confía en que la información de enrutamiento proviene de un router que debería estar enviando información. Un router también confía en que la información no haya sido alterada a lo largo de la ruta. Para garantizar esta confianza, los routers de un área específica pueden configurarse para autenticarse entre sí. Cada interfaz OSPF puede presentar una clave de autenticación para que la usen los routers que envían información de OSPF hacia otros routers del segmento. La clave de autenticación, conocida como contraseña, es un secreto compartido entre los routers. Esta clave se utiliza para generar los datos de autenticación en el encabezado del paquete de OSPF. La contraseña puede contener hasta ocho caracteres. Utilice la siguiente sintaxis de comando para configurar la autenticación de OSPF: Router(config-if)#ip ospf authentication-key password Una vez configurada la contraseña, se debe habilitar la autenticación: Router(config-router)#area area-number authentication Con la autenticación sencilla, se envía la contraseña como texto sin cifrar. Esto significa que se puede decodificar fácilmente si un husmeador de paquetes captura un paquete de OSPF. Se recomienda cifrar la información de autenticación. Para enviar la información de autenticación cifrada y asegurar mayor seguridad, se utiliza la palabra clave message-digest. La palabra clave MD5 especifica el tipo de algoritmo de hash de message-digest a utilizar y el campo de tipo de cifrado se refiere al tipo de cifrado, donde 0 significa ninguno y 7 significa propietario. Utilice la sintaxis del modo de comando de configuración de interfaz: Router(config-if)#ip ospf message-digest-key key-id encryption-type md5 key El key-id es un identificador y toma un valor en el intervalo de 1 a 255. Key es una contraseña alfanumérica de hasta dieciséis caracteres. Los routers vecinos deben usar el mismo identificador clave con el mismo valor clave. Se configura lo siguiente en el modo de configuración del router: Router(config-router)#area area-id authentication message-digest La autenticación MD5 crea un message-digest. Un message-digest son datos cifrados en base a la contraseña y el contenido del paquete. El router receptor utiliza la contraseña compartida y el paquete para recalcular el digest. Si los digests coinciden, el router considera que el origen y el contenido del paquete no han sido alterados. El tipo de autenticación identifica qué clase de autenticación, de haber alguna, se está utilizando. En el caso de la autenticación del message-digest, el campo de datos de autenticación contiene el key-id y la longitud del message-digest que se ha adjuntado al paquete. El message-digest es como una filigrana que no se puede falsificar. En las Prácticas de Laboratorio se requerirá que los estudiantes establezcan un esquema de dirección IP para un área OSPF. Los estudiantes luego configurarán una autenticación de OSPF para el área. En la siguiente página se enseñará a los estudiantes cómo configurar los temporizadores de OSPF. 2.3.5 Configuración de los temporizadores OSPF En esta página se explica la forma en que los intervalos hello y muertos se configuran en una red OSPF. Los routers OSPF deben tener los mismos intervalos hello y los mismos intervalos muertos para intercambiar

Page 196: Semestre1 Ccna

información. Por defecto, el intervalo muerto es de cuatro veces el valor del intervalo hello. Esto significa que un router tiene cuatro oportunidades de enviar un paquete hello antes de ser declarado muerto. En las redes OSPF de broadcast, el intervalo hello por defecto es de 10 segundos y el intervalo muerto por defecto es de 40 segundos. En las redes que no son de broadcast, el intervalo hello por defecto es de 30 segundos y el intervalo muerto por defecto es de 120 segundos. Estos valores por defecto dan como resultado una operación eficiente de OSPF y muy pocas veces necesitan ser modificados. Un administrador de red puede elegir estos valores de temporizador. Se necesita una justificación de que el rendimiento de red OSPF mejorará antes de cambiar los temporizadores. Estos temporizadores deben configurarse para que coincidan con los de cualquier router vecino. Para configurar los intervalos hello y muertos de una interfaz, utilice los siguientes comandos: Router(config-if)#ip ospf hello-interval seconds Router(config-if)#ip ospf dead-interval seconds Las Actividades de Laboratorio ayudarán a los estudiantes a comprender cómo configurar los temporizadores OSPF para mejorar la eficiencia de red. La siguiente página explicará la configuración de una ruta por defecto. 2.3.6 OSPF, propagación de una ruta por defecto En esta página se enseña a los estudiantes cómo configurar una ruta por defecto para un router OSPF. El enrutamiento OSPF asegura rutas sin bucles para cada red dentro del dominio. Para alcanzar las redes fuera del dominio, OSPF debe conocer la red u OSPF debe tener una ruta por defecto. Tener una entrada para cada red del mundo requeriría enormes recursos para cada router. Una alternativa práctica es agregar una ruta por defecto al router OSPF conectado a la red externa. Esta ruta se puede redistribuir a cada router en el AS mediante las actualizaciones OSPF normales. Un router utiliza la ruta por defecto configurada para generar un gateway de último recurso. La sintaxis de configuración de la ruta estática por defecto utiliza la dirección de red 0.0.0.0 y una máscara de subred 0.0.0.0: Router(config)#ip route 0.0.0.0 0.0.0.0 [interface | next-hop address] Esto se conoce como la ruta quad-zero y la coincidencia con cualquier dirección de red se basa en la siguiente regla. El gateway de red se determina haciendo AND al destino de paquete con la máscara de subred. La siguiente sentencia de configuración propagará esta ruta hacia todos los routers en un área de OSPF normal: Router(config-router)#default-information originate Todos ls routers del área OSPF aprenderán una ruta por defecto siempre y cuando la interfaz del router límite hacia el gateway por defecto esté activa. Las actividades de laboratorio ayudarán a los estudiantes a configurar una red OSFP y luego a configurar una ruta por defecto. En la siguiente página se presentan algunas consideraciones importantes para los routers OSPF. 2.3.7 Problemas frecuentes en la configuración de OSPF En esta página se presentarán algunos temas de configuración que podrían impedir la comunicación entre los routers OSPF. Un router OSPF debe establecer una relación de vecino o de adyacencia con otro router OSPF para intercambiar la información de enrutamiento. A continuación se presentan las razones por las cuales no se establece esta relación de vecino: * Los Hellos no se envían desde ambos vecinos. * Los temporizadores de los intervalos hello y muertos no son iguales. * Las interfaces se encuentran en tipos de red distintos. * Las contraseñas o claves de autenticación son distintas. En el enrutamiento OSPF también es importante asegurar lo siguiente: * Todas las interfaces tienen las direcciones y la mascara de subred correctas. * Las sentencias network area tienen las máscaras wildcard correctas.

Page 197: Semestre1 Ccna

* Las sentencias network area colocan a las interfaces en el área correcta. En la siguiente página se presentan algunos comandos show. 2.3.8 Verificación de configuración OSPF En esta página se explica la manera en que los comandos show se pueden utilizar para realizar el diagnóstico de fallas de OSPF. Para verificar la configuración de OSPF existe una serie de comandos show. La Figura enumera estos comandos. La Figura muestra los comandos que resultan útiles para el diagnóstico de fallas de OSPF. Con esta página se concluye la lección. En la siguiente página se resumen los puntos principales de este módulo. Resumen En esta página se resumen los temas analizados en este módulo. Una diferencia esencial entre los protocolos de enrutamiento de estado de enlace y los protocolos de vector-distancia es la forma en que intercambian información de enrutamiento. Los protocolos de enrutamiento de estado de enlace responden rápidamente a los cambios de red, envían actualizaciones desencadenadas por eventos sólo cuando se ha producido un cambio en la red, envían actualizaciones periódicas conocidas como actualizaciones del estado de enlace y utilizan un mecanismo hello para determinar la posibilidad de alcanzar a los vecinos. Un router que ejecuta un protocolo del estado de enlace utiliza la información hello y LSA que recibe desde otros routers para crear una base de datos acerca de la red. También utiliza el algoritmo Primero la ruta libre más corta (SPF) para calcular la ruta más corta a cada red. Para superar las limitaciones de los protocolos de vector-distancia, los protocolos de enrutamiento de estado de enlace utilizan publicaciones del estado de enlace (LSA), una base de datos topológica, el algoritmo de ruta más corta (SPF), el consiguiente árbol SPF y una tabla de enrutamiento de rutas y puertos para que cada red determine las mejores rutas para los paquetes. Un enlace es igual a una interfaz en un router. El estado de enlace es la descripción de una interfaz y la relación que tiene con los routers vecinos. A través de las LSA, los routers de estado de enlace publican los estados de sus enlaces a todos los demás routers que se encuentran en el área, de manera que cada router pueda crear una base de datos del estado de enlace completa. Tienen relaciones especiales con sus vecinos y con los demás routers de estado de enlace. Los routers de estado de enlace son una buena elección para las redes complejas y escalables. Las ventajas de los protocolos de enrutamiento de estado de enlace sobre los de vector-distancia incluyen una convergencia más rápida y una utilización mejorada del ancho de banda. Los protocolos del estado de enlace admiten un enrutamiento interdominio sin clase (CIDR) y una máscara de subred de longitud variable (VLSM). El protocolo público conocido como Primero la ruta libre más corta (OSPF) es un protocolo de enrutamiento de estado del enlace basado en estándares abiertos. El término "libre" en OSPF significa que está abierto al público y no es propiedad de ninguna empresa. Los routers OSPF seleccionan un router designado (DR) y un router designado de respaldo (BDR) que sirve como punto de enfoque para el intercambio de información de enrutamiento a fin de reducir el número de intercambios de información de enrutamiento entre varios vecinos en la misma red. OSPF selecciona las rutas a base del costo, que en la implementación de Cisco se relaciona con el ancho de banda. OSPF selecciona la ruta más rápida sin bucles del árbol Primero la ruta libre más corta como la mejor ruta en la red. OSPF garantiza un enrutamiento sin bucles. Los protocolos de vector-distancia pueden provocar bucles de enrutamiento. Cuando un router inicia un proceso de enrutamiento OSPF en una interfaz, envía un paquete hello y sigue enviando hellos a intervalos regulares. Las reglas que gobiernan el intercambio de paquetes hello de OSPF se denominan protocolo Hello. Si todos los parámetros de los paquetes Hello de OSPF concuerdan, los routers se convierten en vecinos. Cada router envía publicaciones del estado de enlace (LSA) en paquetes de actualización del estado de enlace (LSU). Cada router que recibe una LSA de su vecino registra la LSA en la base de datos del estado de enlace. Este proceso se repite para todos los routers de la red OSPF. Una vez completas las bases de datos, cada router utiliza el algoritmo SPF para calcular una topología lógica sin bucles para cada red conocida. Se utiliza la ruta más corta con el menor costo para crear esta topología, por lo tanto, se selecciona la mejor ruta. Esta información de enrutamiento se mantiene. Cuando existe un cambio en el estado de un enlace, los routers utilizan un proceso de inundación para notificar a los demás routers en la red acerca del cambio. El intervalo muerto del protocolo Hello ofrece un mecanismo sencillo para determinar que un vecino adyacente está desactivado. Módulo 3: EIGRP

Page 198: Semestre1 Ccna

Descripción general EIGRP es un protocolo de enrutamiento propietario de Cisco basado en IGRP. EIGRP admite CIDR y VLSM, lo que permite que los diseñadores de red maximicen el espacio de direccionamiento. En comparación con IGRP, que es un protocolo de enrutamiento con clase, EIGRP ofrece tiempos de convergencia más rápidos, mejor escalabilidad y gestión superior de los bucles de enrutamiento. Además, EIGRP puede reemplazar al Protocolo de Mantenimiento de Tablas de Enrutamiento (RTMP) AppleTalk y Novell RIP. EIGRP funciona en las redes IPX y AppleTalk con potente eficiencia. Con frecuenca, se describe EIGRP como un protocolo de enrutamiento híbrido que ofrece lo mejor de los algoritmos de vector-distancia y del estado de enlace. EIGRP es un protocolo de enrutamiento avanzado que se basa en las características normalmente asociadas con los protocolos del estado de enlace. Algunas de las mejores funciones de OSPF, como las actualizaciones parciales y la detección de vecinos, se usan de forma similar con EIGRP. Sin embargo, EIGRP es más fácil de configurar que OSPF. EIGRP es una opción ideal para las grandes redes multiprotocolo construidas principalmente con routers Cisco. Este módulo abarca las tareas de configuración comunes de EIGRP. Se enfatiza la forma en que EIGRP establece relaciones con routers adyacentes, la manera en que calcula las rutas primaria y de respaldo y cómo responde a las fallas en las rutas conocidas hacia un destino en particular. Una red se compone de varios dispositivos, protocolos y medios que permiten la comunicación de datos. Cuando un componente de red no funciona correctamente, puede afectar toda la red. En todo caso, los administradores de red deben identificar y diagnosticar los problemas rápidamente cuando se produzcan. A continuación se presentan algunas de las razones por las que surgen problemas en la red. * Se introducen comandos de forma incorrecta * Se construyen o colocan las listas de acceso de forma incorrecta * Los routers, switch u otros dispositivos de red están configurados de forma incorrecta * Las conexiones físicas son de mala calidad Un administrador de red debe realizar el diagnóstico de fallas de forma metódica, mediante un modelo general de resolución de problemas. A menudo es útil verificar si hay problemas de la capa física en primer lugar y luego ir subiendo por las capas de forma organizada. Aunque este módulo se concentra en la forma de diagnosticar las fallas de los protocolos de Capa 3, es importante diagnosticar y eliminar los problemas existentes en las capas inferiores. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: * Describir las diferencias entre EIGRP e IGRP. * Describir los conceptos, tecnologías y estructuras de datos claves de EIGRP * Comprender la convergencia de EIGRP y la operación básica del Algoritmo de Actualización Difusa (DUAL) * Realizar una configuración básica de EIGRP * Configurar el resumen de rutas EIGRP * Describir los procesos utilizados por EIGRP para construir y mantener las tablas de enrutamiento * Verificar las operaciones de EIGRP * Describir el proceso de ocho pasos para la detección general de fallas * Aplicar un proceso lógico para diagnosticar las fallas de enrutamiento * Usar los comandos show y debug para diagnosticar las fallas de RIP * Usar los comandos show y debug para diagnosticar las fallas de IGRP * Usar los comandos show y debug para diagnosticar las fallas de EIGRP * Usar los comandos show y debug para diagnosticar las fallas de OSPF 3.1 EIGRP 3.1.1 Comparación entre IGRP e EIGRP Cisco lanzó EIGRP en 1994 como una versión escalable y mejorada de su protocolo propietario de enrutamiento por vector-distancia, IGRP. En esta página se explican las diferencias y similitudes existentes entre EIGRP e IGRP. La información de distancia y la tecnología de vector-distancia que se usan en IGRP también se utilizan en EIGRP. EIGRP mejora las propiedades de convergencia y opera con mayor eficiencia que IGRP. Esto permite que una red tenga una arquitectura mejorada y pueda mantener las inversiones actuales en IGRP.

Page 199: Semestre1 Ccna

Las comparaciones entre EIGRP e IGRP se pueden dividir en las siguientes categorías principales: * Modo de compatibilidad * Cálculo de métrica * Número de saltos * Redistribución automática de protocolos * Etiquetado de rutas IGRP y EIGRP son compatibles entre sí. Esta compatibilidad ofrece una interoperabilidad transparente con los routers IGRP. Esto es importante, dado que los usuarios pueden aprovechar los beneficios de ambos protocolos. EIGRP ofrece compatibilidad multiprotocolo, mientras que IGRP no lo hace. EIGRP e IGRP usan cálculos de métrica diferentes. EIGRP multiplica la métrica de IGRP por un factor de 256. Esto ocurre porque EIGRP usa una métrica que tiene 32 bits de largo, e IGRP usa una métrica de 24 bits. La información EIGRP puede multiplicarse o dividirse por 256 para un intercambio fácil con IGRP. IGRP tiene un número de saltos máximo de 255. El límite máximo para el número de saltos en EIGRP es 224. Esto es más que suficiente para admitir los internetworks grandes y correctamente diseñadas. Se requiere una configuración avanzada para permitir que protocolos de enrutamiento diferentes como OSPF y RIP compartan información. La redistribución, o la capacidad para compartir rutas, es automática entre IGRP e EIGRP, siempre y cuando ambos procesos usen el mismo número AS. En la Figura , RTB distribuye de forma automática las rutas aprendidas de EIGRP al AS de IGRP, y viceversa. EIGRP rotula como externas las rutas aprendidas de IGRP o cualquier otra fuente externa porque no se originan en los routers EIGRP. IGRP no puede diferenciar entre rutas internas y externas. Observe que en el resultado del comando show ip route de los routers de la Figura , las rutas de EIGRP se rotulan con una D, mientras que las rutas externas se rotulan con EX. RTA identifica la diferencia entre la red 172.16.0.0, que se aprendió mediante EIGRP, y la red 192.168.1.0 que se redistribuyó desde IGRP. En la tabla RTC, el protocolo IGRP no indica este tipo de diferencia. RTC, que usa solamente IGRP, sólo ve las rutas IGRP, a pesar de que tanto 10.1.1.0 como 172.16.0.0 se redistribuyeron desde EIGRP. La Actividad de Medios Interactivos ayudará a los estudiantes a reconocer las características de IGRP y EIGRP. En la página siguiente se explica EIGRP con mayor detalle. 3.1.2 Conceptos y terminología de EIGRP En esta página se analizan las tres tablas que EIGRP utiliza para almacenar información de red. Los routers EIGRP mantienen información de ruta y topología a disposición en la RAM, para que puedan reaccionar rápidamente ante los cambios. Al igual que OSPF, EIGRP guarda esta información en varias tablas y bases de datos. EIGRP guarda las rutas que se aprenden de maneras específicas. Las rutas reciben un estado específico y se pueden rotular para proporcionar información adicional de utilidad. EIGRP mantiene las siguientes tres tablas: * Tabla de vecinos * Tabla de topología * Tabla de enrutamiento La tabla de vecinos es la más importante de EIGRP. Cada router EIGRP mantiene una tabla de vecinos que enumera a los routers adyacentes. Esta tabla puede compararse con la base de datos de adyacencia utilizada por OSPF. Existe una tabla de vecinos por cada protocolo que admite EIGRP. Al conocer nuevos vecinos, se registran la dirección y la interfaz del vecino. Esta información se guarda en la estructura de datos del vecino. Cuando un vecino envía un paquete hello, publica un tiempo de espera. El tiempo de espera es la cantidad de tiempo durante el cual un router considera que un vecino se puede alcanzar y que funciona. Si un paquete de salutación (hello) no se recibe dentro del tiempo de espera, entonces vence el tiempo de espera. Cuando vence el tiempo de espera, se informa al Algoritmo de Actualización Difusa (DUAL), que es el algoritmo de vector-distancia de EIGRP, acerca del cambio en la topología para que recalcule la nueva topología. La tabla de topología se compone de todas las tablas de enrutamiento EIGRP en el sistema autónomo. DUAL toma la información proporcionada en la tabla de vecinos y la tabla de topología y calcula las rutas de menor costo hacia cada destino. EIGRP rastrea esta información para que los routers EIGRP puedan identificar y conmutar a rutas alternativas rápidamente. La información que el router recibe de DUAL se utiliza para determinar la ruta del sucesor, que es el término utilizado para identificar la ruta principal o la mejor. Esta

Page 200: Semestre1 Ccna

información también se introduce a la tabla de topología. Los routers EIGRP mantienen una tabla de topología por cada protocolo configurado de red. La tabla de enrutamiento mantiene las rutas que se aprenden de forma dinámica. A continuación se muestran los campos que conforman la tabla de enrutamiento: * Distancia factible (FD): Ésta es la métrica calculada más baja hacia cada destino. Por ejemplo, la distancia factible a 32.0.0.0 es 2195456. * Origen de la ruta: Número de identificación del router que publicó esa ruta en primer lugar. Este campo se llena sólo para las rutas que se aprenden de una fuente externa a la red EIGRP. El rotulado de rutas puede resultar particularmente útil con el enrutamiento basado en políticas. Por ejemplo, el origen de la ruta a 32.0.0.0 es 200.10.10.10 a 200.10.10.10. * Distancia reportada (RD): La distancia reportada por un vecino adyacente hacia un destino específico. Por ejemplo, la distancia reportada a 32.0.0.0 es /281600 como lo indica (2195456/281600). * Información de interfaz: La interfaz a través de la cual se puede alcanzar el destino. * Estado de ruta: El estado de una ruta. Una ruta se puede identificar como pasiva, lo que significa que la ruta es estable y está lista para usar, o activa, lo que significa que la ruta se encuentra en el proceso de recálculo por parte de DUAL. La tabla de enrutamiento EIGRP contiene las mejores rutas hacia un destino. Esta información se recupera de la tabla de topología. Los routers EIGRP mantienen una tabla de enrutamiento por cada protocolo de red. Un sucesor es una ruta seleccionada como ruta principal para alcanzar un destino. DUAL identifica esta ruta en base a la información que contienen las tablas de vecinos y de topología y la coloca en la tabla de enrutamiento. Puede haber hasta cuatro rutas de sucesor para cada destino en particular. Éstas pueden ser de costo igual o desigual y se identifican como las mejores rutas sin bucles hacia un destino determinado. Un sucesor factible (FS) es una ruta de respaldo. Estas rutas se identifican al mismo tiempo que los sucesores, pero sólo se mantienen en la tabla de topología. Los múltiples sucesores factibles para un destino se pueden mantener en la tabla de topología, aunque no es obligatorio. Un router visualiza los sucesores factibles como vecinos corriente abajo, o más cerca del destino que él. El costo del sucesor factible se calcula a base del costo publicado del router vecino hacia el destino. Si una ruta del sucesor colapsa, el router busca un sucesor factible identificado. Esta ruta se promoverá al estado de sucesor. Un sucesor factible debe tener un costo publicado menor que el costo del sucesor actual hacia el destino. Si es imposible identificar un sucesor factible en base a la información actual, el router coloca un estado Activo en una ruta y envía paquetes de consulta a todos los vecinos para recalcular la topología actual. El router puede identificar cualquier nuevo sucesor o sucesor factible a partir de los nuevos datos recibidos de los paquetes de respuesta que responden a los pedidos de consulta. Entonces, el router establecerá el estado de la ruta en Pasivo. Es posible registrar información adicional acerca de cada ruta en la tabla de topología. EIGRP clasifica a las rutas como internas o externas. EIGRP agrega un rótulo de ruta a cada ruta para identificar esta clasificación. Las rutas internas se originan dentro del AS EIGRP. Las rutas externas se originan fuera del AS EIGRP. Las rutas aprendidas o redistribuidas desde otros protocolos de enrutamiento como RIP, OSPF e IGRP son externas. Las rutas estáticas que se originan fuera del AS EIGRP son externas. El rótulo puede establecerse en un número entre 0-255 para adaptar el rótulo. En la página siguiente se explican algunas ventajas de EIGRP. 3.1.3 Características de diseño de EIGRP Esta página describe algunos de los aspectos claves del diseño de EIGRP. EIGRP opera de una manera bastante diferente de IGRP. EIGRP es un protocolo de enrutamiento por vector-distancia avanzado, pero también actúa como protocolo del estado de enlace en la manera en que actualiza a los vecinos y mantiene la información de enrutamiento. A continuación se presentan algunas de las ventajas de EIGRP sobre los protocolos de vector-distancia simples: * Convergencia rápida * Uso eficiente del ancho de banda * Compatibilidad con VLSM y CIDR * Compatibilidad con capas de varias redes * Independencia de los protocolos enrutados Los módulos dependientes de protocolo (PDM) protegen a EIGRP de las revisiones prolongadas. Es posible que los protocolos enrutados en evolución, como IP, requieran un nuevo módulo de protocolo, pero no necesariamente una reelaboración del propio EIGRP. Los routers EIGRP convergen rápidamente porque se basan en DUAL. DUAL garantiza una operación sin

Page 201: Semestre1 Ccna

bucles durante todo el cálculo de rutas, lo que permite la sincronización simultánea de todos los routers involucrados en cambio de topología. EIGRP envía actualizaciones parciales y limitadas, y hace un uso eficiente del ancho de banda. EIGRP usa un ancho de banda mínimo cuando la red es estable. Los routers EIGRP no envían las tablas en su totalidad, sino que envían actualizaciones parciales e incrementales. Esto es parecido a la operación de OSPF, salvo que los routers EIGRP envían estas actualizaciones parciales sólo a los routers que necesitan la información, no a todos los routers del área. Por este motivo, se denominan actualizaciones limitadas. En vez de enviar actualizaciones de enrutamiento temporizadas, los routers EIGRP usan pequeños paquetes hello para mantener la comunicación entre sí. Aunque se intercambian con regularidad, los paquetes hello no usan una cantidad significativa de ancho de banda. EIRGP admite IP, IPX y AppleTalk mediante los PDM. EIGRP puede redistribuir la información de IPX-RIP e IPX SAP para mejorar el rendimiento general. En efecto, EIGRP puede realizar las funciones de estos dos protocolos. Los routers EIGRP reciben actualizaciones de enrutamiento y de servicio y actualizan otros routers sólo cuando se producen cambios en las tablas de enrutamiento o de SAP. En las redes EIGRP, las actualizaciones de enrutamiento se realizan por medio de actualizaciones parciales. EIGRP también puede reemplazar el RTMP de AppleTalk. Como protocolo de enrutamiento por vector-distancia, RTMP se basa en intercambios periódicos y completos de información de enrutamiento. Para reducir el gasto, EIGRP usa actualizaciones desencadenadas por eventos para redistribuir la información de enrutamiento AppleTalk. EIGRP también usa una métrica compuesta configurable para determinar la mejor ruta a una red AppleTalk. RTMP usa el número de saltos, lo que puede dar como resultado un enrutamiento por debajo del óptimo. Los clientes AppleTalk esperan información RTMP desde los routers locales, de manera que EIGRP para AppleTalk sólo debe ejecutarse en una red sin clientes, como un enlace WAN. En la página siguiente se analizan algunas tecnologías EIGRP. 3.1.4 Tecnologías EIGRP En esta página se analizan algunas de las nuevas tecnologías que incluye EIGRP. Cada nueva tecnología representa una mejora con respecto a la eficiencia en la operación de EIGRP, la velocidad de convergencia o la funcionalidad con respecto a IGRP y otros protocolos de enrutamiento. Estas tecnologías pertenecen a una de las siguientes cuatro categorías: * Detección y recuperación de vecinos * Protocolo de transporte confiable * Algoritmo de máquina de estado finito DUAL * Módulos dependientes de protocolo Los routers de vector-distancia simples no establecen ninguna relación con sus vecinos. Los routers RIP e IGRP simplemente envían las actualizaciones en broadcast o multicast por las interfaces configuradas. En cambio, los routers EIGRP establecen relaciones activamente con los vecinos, tal como lo hacen los routers OSPF. * Los routers EIGRP establecen adyacencias tal como se describe en la Figura . Los routers EIGRP lo logran mediante paquetes hello pequeños. Los hellos se envían por defecto cada cinco segundos. Un router EIGRP supone que, siempre y cuando reciba paquetes hello de los vecinos conocidos, estos vecinos y sus rutas seguirán siendo viables o pasivas. Lo siguiente puede ocurrir cuando los routers EIGRP forman adyacencias: Aprender de forma dinámica las nuevas rutas que se unen a la red * Identificar los routers que llegan a ser inalcanzables o inoperables * Redetectar los routers que habían estado inalcanzables anteriormente El Protocolo de Transporte Confiable (RTP) es un protocolo de capa de transporte que garantiza la entrega ordenada de paquetes EIGRP a todos los vecinos. En una red IP, los hosts usan TCP para secuenciar los paquetes y asegurarse de que se entreguen de manera oportuna. Sin embargo, EIGRP es independente de los protocolos. Esto significa que no se basa en TCP/IP para intercambiar información de enrutamiento de la forma en que lo hacen RIP, IGRP y OSPF. Para mantenerse independiente de IP, EIGRP usa RTP como su protocolo de capa de transporte propietario para garantizar la entrega de información de enrutamiento. EIGRP puede hacer una llamada a RTP para que proporcione un servicio confiable o no confiable, según lo requiera la situación. Por ejemplo, los paquetes hello no requieren el gasto de la entrega confiable porque se envían con frecuencia y se deben mantener pequeños. La entrega confiable de otra información de enrutamiento puede realmente acelerar la convergencia porque entonces los routers EIGRP no tienen que esperar a que un temporizador expire antes de retransmitir. Con RTP, EIGRP puede realizar envíos en multicast y en unicast a diferentes pares de forma simultánea. Esto maximiza la eficiencia. El núcleo de EIGRP es DUAL, que es el motor de cálculo de rutas de EIGRP. El nombre completo de esta tecnología es máquina de estado finito DUAL (FSM). Una FSM es una máquina de algoritmos, no un dispositivo mecánico con piezas que se mueven. Las FSM definen un conjunto de los posibles estados de algo, los acontecimientos que provocan esos estados y los eventos que resultan de estos estados. Los diseñadores usan las FSM para describir de qué manera un dispositivo, programa de computador o algoritmo de enrutamiento

Page 202: Semestre1 Ccna

reaccionará ante un conjunto de eventos de entrada. La FSM DUAL contiene toda la lógica que se utiliza para calcular y comparar rutas en una red EIGRP. DUAL rastrea todas las rutas publicadas por los vecinos. Se comparan mediante la métrica compuesta de cada ruta. DUAL también garantiza que cada ruta esté libre de bucles. DUAL inserta las rutas de menor costo en la tabla de enrutamiento. Estas rutas principales se denominan rutas del sucesor. Una copia de las rutas del sucesor también se coloca en la tabla de enrutamiento. EIGRP mantiene información importante de ruta y topología a disposición en una tabla de vecinos y una tabla de topología. Estas tablas proporcionan información detallada de las rutas a DUAL en caso de problemas en la red. DUAL usa la información de estas tablas para seleccionar rápidamente las rutas alternativas. Si un enlace se desactiva, DUAL busca una ruta alternativa, o sucesor factible, en la tabla de topología. Una de las mejores características de EIGRP es su diseño modular. Se ha demostrado que los diseños modulares o en capas son los más escalables y adaptables. EIRGP logra la compatibilidad con los protocolos enrutados, como IP, IPX y AppleTalk, mediante los PDM. En teoría, EIGRP puede agregar PDM para adaptarse fácilmente a los protocolos enrutados nuevos o revisados como IPv6. Cada PDM es responsable de todas las funciones relacionadas con su protocolo enrutado específico. El módulo IP-EIGRP es responsable de las siguientes funciones: * Enviar y recibir paquetes EIGRP que contengan datos IP * Avisar a DUAL una vez que se recibe la nueva información de enrutamiento IP * Mantener de los resultados de las decisiones de enrutamiento DUAL en la tabla de enrutamiento IP * Redistribuir la información de enrutamiento que se aprendió de otros protocolos de enrutamiento capacitados para IP En la página siguiente se analizan los tipos de paquetes EIGRP. 3.1.5 Estructura de datos EIGRP Al igual que OSPF, EIGRP depende de diferentes tipos de paquetes para mantener sus tablas y establecer relaciones con los routers vecinos. Esta página describirá estos tipos de paquetes. A continuación se presentan los cinco tipos de paquetes EIGRP: * Hello * Acuse de recibo * Actualización * Consulta * Respuesta EIGRP depende de los paquetes hello para detectar, verificar y volver a detectar los routers vecinos. La segunda detección se produce si los routers EIGRP no intercambian hellos durante un intervalo de tiempo de espera pero después vuelven a establecer la comunicación. Los routers EIGRP envían hellos con un intervalo fijo pero configurable que se denomina el intervalo hello. El intervalo hello por defecto depende del ancho de banda de la interfaz. En las redes IP, los routers EIGRP envían hellos a la dirección IP multicast 224.0.0.10. Los routers EIGRP almacenan la información sobre los vecinos en la tabla de vecinos. La tabla de vecinos incluye el campo de Número de Secuencia (Seq No) para registrar el número del último paquete EIGRP recibido que fue enviado por cada vecino. La tabla de vecinos también incluye un campo de Tiempo de Espera que registra el momento en que se recibió el último paquete. Los paquetes deben recibirse dentro del período correspondiente al intervalo de Tiempo de Espera para mantenerse en el estado Pasivo. El estado Pasivo significa un estado alcanzable y operacional. Si EIGRP no recibe un paquete de un vecino dentro del tiempo de espera, EIGRP supone que el vecino no está disponible. En ese momento, interviene DUAL para reevaluar la tabla de enrutamiento. Por defecto, el tiempo de espera es equivalente al triple del intervalo hello, pero un administrador puede configurar ambos temporizadores según lo desee. OSPF requiere que los routers vecinos tengan los mismos intervalos hello e intervalos muertos para comunicarse. EIGRP no posee este tipo de restricción. Los routers vecinos conocen el valor de cada uno de los temporizadores respectivos de los demás mediante el intercambio de paquetes hello. Entonces, usan la información para forjar una relación estable aunque los temporizadores no sean iguales. Los paquetes hello siempre se envían de forma no confiable. Esto significa que no se transmite un acuse de recibo. Los routers EIGRP usan paquetes de acuse de recibo para indicar la recepción de cualquier paquete EIGRP durante un intercambio confiable. RTP proporciona comunicación confiable entre hosts EIGRP. El receptor debe enviar acuse de recibo de un mensaje recibido para que sea confiable. Los paquetes de acuse de recibo, que

Page 203: Semestre1 Ccna

son paquetes hello sin datos, se usan con este fin. Al contrario de los hellos multicast, los paquetes de acuse de recibo se envían en unicast. Los acuses de recibo pueden adjuntarse a otros tipos de paquetes EIGRP, como los paquetes de respuesta. Los paquetes de actualización se utilizan cuando un router detecta un nuevo vecino. Los routers EIGRP envían paquetes de actualización en unicast a ese nuevo vecino para que pueda aumentar su tabla de topología. Es posible que se necesite más de un paquete de actualización para transmitir toda la información de topología al vecino recientemente detectado. Los paquetes de actualización también se utilizan cuando un router detecta un cambio en la topología. En este caso, el router EIGRP envía un paquete de actualización en multicast a todos los vecinos, avisándolos del cambio. Todos los paquetes de actualización se envían de forma confiable. Un router EIGRP usa paquetes de consulta siempre que necesite información específica de uno o de todos sus vecinos. Se usa un paquete de respuesta para contestar a una consulta. Si un router EIGRP pierde su sucesor y no puede encontrar un sucesor factible para una ruta, DUAL coloca la ruta en el estado Activo. Entonces se envía una consulta en multicast a todos los vecinos con el fin de ubicar un sucesor para la red destino. Los vecinos deben enviar respuestas que suministren información sobre sucesores o indiquen que no hay información disponible. Las consultas se pueden enviar en multicast o en unicast, mientras que las respuestas siempre se envían en unicast. Ambos tipos de paquetes se envían de forma confiable. En la página siguiente se describe el algoritmo EIGRP. 3.1.6 Algoritmo EIGRP Esta página describe el algoritmo DUAL, al que se debe la convergencia excepcionalmente rápida de EIGRP. Para comprender mejor la convergencia con DUAL, vea el ejemplo en la Figura . Cada router ha construido una tabla de topología que contiene información acerca de la manera de enrutar al destino Red A. * Cada tabla de topología identifica la siguiente información: El protocolo de enrutamiento o EIGRP * El costo más bajo de la ruta, denominado distancia factible (FD) * El costo de la ruta, según lo publica el router vecino, denominado distancia informada (RD) La columna de Topología identifica la ruta principal denominada ruta del sucesor (sucesor), y, cuando se identifica, la ruta de respaldo denominada sucesor factible (FS). Observe que no es necesario contar con un sucesor factible identificado. La red EIGRP sigue una secuencia de acciones para permitir la convergencia entre los routers, que actualmente tienen la siguiente información de topología: * El router C tiene una ruta del sucesor a través del router B. * El router C tiene una ruta del sucesor factible a través del router D. * El router D tiene una ruta del sucesor a través del router B. * El router D no tiene una ruta del sucesor factible. * El router E tiene una ruta del sucesor a través del router D. * El router E no tiene un sucesor factible. Las normas para la selección de la ruta del sucesor factible se especifican en la Figura . El siguiente ejemplo demuestra la forma en que cada router de la topología aplica las normas de selección del sucesor factible cuando se desactiva la ruta del router D al router B: * En el router D o La ruta que pasa por el router B se elimina de la tabla de topología. o Ésta es la ruta del sucesor. El router D no cuenta con un sucesor factible identificado. o El router D debe realizar un nuevo cálculo de ruta. * En el Router C o La ruta a la Red A a través del router D está deshabilitada. o La ruta que pasa por el router D se elimina de la tabla. o Ésta es la ruta del sucesor factible para el router C. * En el router D o El router D no tiene un sucesor factible. Por lo tanto, no puede cambiarse a una ruta alternativa identificada de respaldo. o El router D debe recalcular la topología de la red. La ruta al destino Red A se establece en Activa. o El router D envía un paquete de consulta a todos los routers vecinos conectados para solicitar información de topología. o El router C tiene una entrada anterior para el router D. o El router D no tiene una entrada anterior para el router E. * En el Router E

Page 204: Semestre1 Ccna

o La ruta a la Red A a través del router D está deshabilitada. o La ruta que pasa por el router D se elimina de la tabla. o Ésta es la ruta del sucesor para el router E. o El router E no tiene una ruta factible identificada. o Observe que el costo RD de enrutar a través del router C es 3. Este costo es igual al de la ruta del sucesor a través del router D. * En el Router C o El router E envía un paquete de consulta al router C. o El router C elimina el router E de la tabla. o El router C responde al router D con una nueva ruta a la Red A. * En el router D o La ruta al destino Red A sigue en estado Activa. El cálculo aún no se ha terminado. o El router C ha respondido al router D para confirmar que hay una ruta disponible al destino Red A con un costo de 5. o El router D sigue esperando respuesta del router E. * En el Router E o El router E no tiene un sucesor factible para alcanzar el destino Red A. o Por lo tanto el router E rotula la ruta a la red destino como Activa. o El router E tiene que recalcular la topología de red. o El router E elimina de la tabla la ruta que pasa por el router D. o El router D envía una consulta al router C, para solicitar información de topología. o El router E ya tiene una entrada a través del router C. Tiene un costo de 3, igual que la ruta del sucesor. * En el Router E o El router C responde con una RD de 3. o El router E ahora puede establecer la ruta a través del router C como el nuevo sucesor, con una FD de 4 y una RD de 3. o El router E cambia el estado Activo de la ruta al destino Red A a un estado Pasivo. Observe que el estado por defecto de una ruta es Pasivo siempre que se sigan recibiendo los paquetes hello. En este ejemplo, sólo se marcan las rutas de estado Activo. * En el Router E o El router E envía una respuesta al router D, para informarle la información de topología del router E. * En el router D o El router D recibe la respuesta empaquetada desde el router E o El router D entra estos datos para la ruta al destino Red A a través del router E. o Esta ruta llega a ser una ruta del sucesor adicional dado que el costo es igual al enrutamiento a través del router C y la RD es menor que el costo FD de 5. La convergencia se produce entre todos los routers EIGRP que usan el algoritmo DUAL. Con esta página se concluye la lección. En la lección siguiente se analiza la configuración de EIGRP. En la página siguiente se explica cómo se configura EIGRP. 3.2.1 Configuración de EIGRP A pesar de la complejidad de DUAL, la configuración de EIGRP puede ser relativamente sencilla. Los comandos de configuración de EIGRP varían según el protocolo que debe enrutarse. Algunos ejemplos de estos protocolos son IP, IPX y AppleTalk. Esta página describe la configuración de EIGRP para el protocolo IP. Siga estos pasos para configurar rutas EIGRP para IP: 1. Use lo siguiente para habilitar EIGRP y definir el sistema autónomo: router(config)#router eigrp autonomous-system-number El número de sistema autónomo se usa para identificar todos los routers que pertenecen a la internetwork. Este valor debe coincidir para todos los routers dentro de la internetwork. 2. Indique cuáles son las redes que pertenecen al sistema autónomo EIGRP en el router local mediante el siguiente comando: router(config-router)#network network-number Network-number es el número de red que determina cuáles son las interfaces del router que participan en EIGRP y cuáles son las redes publicadas por el router. El comando network configura sólo las redes conectadas. Por ejemplo, la red 3.1.0.0, que se encuentra en el extremo izquierdo de la Figura principal, no se encuentra directamente conectada al router A. Como consecuencia, esa red no forma parte de la configuración del Router A. 3. Al configurar los enlaces seriales mediante EIGRP, es importante configurar el valor del ancho de banda en la interfaz. Si el ancho de banda de estas interfaces no se modifica, EIGRP supone el ancho de banda por defecto en el enlace en lugar del verdadero ancho de banda. Si el enlace es más lento, es posible que el router no pueda convergir, que se pierdan las actualizaciones de enrutamiento o se produzca una selección de rutas por

Page 205: Semestre1 Ccna

debajo de la óptima. Para establecer el ancho de banda para la interfaz, aplique la siguiente sintaxis: router(config-if)#bandwidth kbps Sólo el proceso de enrutamiento utiliza el comando bandwidth y es necesario configurar el comando para que coincida con la velocidad de línea de la interfaz. 4. Cisco también recomienda agregar el siguiente comando a todas las configuraciones EIGRP: router(config-router)#eigrp log-neighbor-changes Este comando habilita el registro de los cambios de adyacencia de vecinos para monitorear la estabilidad del sistema de enrutamiento y para ayudar a detectar problemas. En las Prácticas de Laboratorio, los estudiantes establecerán un esquema de direccionamiento IP y configurarán EIGRP. En la siguiente página se analiza el resumen de EIGRP. 3.2.2 Configuración del resumen de EIGRP En esta página se enseñará a los estudiantes a configurar manualmente las direcciones de resumen. EIGRP resume automáticamente las rutas en el límite con clase. Este es el límite donde termina la dirección de red, de acuerdo con la definición del direccionamiento basado en clase. Esto significa que, aunque RTC esté conectado a la subred 2.1.1.0 solamente, publicará que está conectada a toda la red Clase A, 2.0.0.0. En la mayoría de los casos, el resumen automático es beneficioso porque mantiene las tablas de enrutamiento lo más compactas posible. Sin embargo, es posible que el resumen automático no sea la mejor opción en ciertos casos. Por ejemplo, si existen subredes no contiguas el resumen automático debe deshabilitarse para que el enrutamiento funcione correctamente. Para desconectar el resumen automático, use el siguiente comando: router(config-router)#no auto-summary Con EIGRP, una dirección de resumen se puede configurar manualmente al configurar una red prefijo. Las rutas de resumen manuales se configuran por interfaz, de manera que la interfaz que propagará el resumen de ruta se debe seleccionar primero. Entonces, la dirección de resumen se puede definir con el comando ip summary-address eigrp: router(config-if)#ip summary-address eigrp autonomous-system-number ip-address mask administrative-distance Las rutas de resumen EIGRP tienen una distancia administrativa por defecto de 5. De manera opcional, se pueden configurar con un valor entre 1 y 255. En la Figura , RTC se puede configurar mediante los comandos que aparecen a continuación: RTC(config)#router eigrp 2446 RTC(config-router)#no auto-summary RTC(config-router)#exit RTC(config)#interface serial 0/0 RTC(config-if)#ip summary-address eigrp 2446 2.1.0.0 255.255.0.0 Por lo tanto, RTC agrega una ruta a esta tabla de la siguiente manera: D 2.1.0.0/16 is a summary, 00:00:22, Null0 Observe que la ruta de resumen se obtiene a partir de Null0 y no de una interfaz real. Esto ocurre porque esta ruta se usa para fines de publicación y no representa una ruta que RTC puede tomar para alcanzar esa red. En RTC, esta ruta tiene una distancia administrativa de 5. RTD no es consciente del resumen pero acepta la ruta. A la ruta se le asigna la distancia administrativa de una ruta EIGRP normal, que es 90 por defecto. En la configuración de RTC, el resumen automático se desactiva con el comando no auto-summary. Si no se desactivara el resumen automático, RTD recibiría dos rutas, la dirección de resumen manual, que es 2.1.0.0 /16, y la dirección de resumen automática con clase, que es 2.0.0.0 /8. En la mayoría de los casos, cuando se hace el resumen manual, se debe ejecutar el comando no auto-summary. En la siguiente página se explica a los estudiantes cómo verificar EIGRP.

Page 206: Semestre1 Ccna

3.2.3 Verificación básica de EIGRP Esta página explica la manera de verificar las configuraciones EIGRP mediante los comandos show. La Figura enumera los comandos show clave para EIGRP y analiza brevemente sus funciones. La función debug de Cisco IOS también ofrece comandos de monitoreo EIGRP de utilidad. En las Prácticas de Laboratorio, los estudiantes establecerán un esquema de direccionamiento IP y verificarán las configuraciones EIGRP. En la siguiente página se analizan las tablas de vecinos EIGRP. 3.2.4 Construcción de tablas de vecinos En esta página se explica la construcción de tablas de vecinos de EIGRP. Los estudiantes también aprenderán sobre la información que se almacena en una tabla de vecinos y cómo se usa. Los routers de vector-distancia simples no establecen ninguna relación con sus vecinos. Los routers RIP e IGRP simplemente envían las actualizaciones en broadcast o multicast por las interfaces configuradas. En cambio, los routers EIGRP establecen relaciones con sus vecinos activamente, al igual que los routers OSPF. La tabla de vecinos es la más importante de EIGRP. Cada router EIGRP mantiene una tabla de vecinos que enumera a los routers adyacentes. Esta tabla puede compararse con la base de datos de adyacencia utilizada por OSPF. Existe una tabla de vecinos por cada protocolo que admite EIGRP. Los routers EIGRP establecen adyacencias con los routers vecinos mediante pequeños paquetes hello. Los hellos se envían por defecto cada cinco segundos. Un router EIGRP supone que, siempre y cuando reciba paquetes hello de los vecinos conocidos, estos vecinos y sus rutas seguirán siendo viables o pasivas. Al formar adyacencias, los routers EIGRP hacen lo siguiente: * Aprenden de forma dinámica nuevas rutas que unen su red * Identifican los routers que llegan a ser inalcanzables o inoperables * Redetectan los routers que habían estado inalcanzables anteriormente A continuación se presentan los campos que aparecen la tabla de vecinos: * Dirección de vecino: Esta es la dirección de la capa de red del router vecino. * Tiempo de espera: Éste es el intervalo que se debe esperar sin recibir nada de un vecino antes de considerar al enlace como no disponible. Originalmente, el paquete esperado era un paquete hello, pero en las versiones actuales del software Cisco IOS, cualquier paquete EIGRP que se recibe después del primer hello reconfigurará el temporizador. * Temporizador normal de viaje de ida y vuelta (SRTT): Éste es el tiempo promedio que se requiere para enviar y recibir paquetes de un vecino. Este temporizador se utiliza para determinar el intervalo de retransmisión (RTO). * Número de cola (Q Cnt): Ésta es la cantidad de paquetes que se encuentran en una cola esperando su envío. Si este valor es continuamente mayor a cero, es posible que haya un problema de congestión en el router. Un cero significa que no hay paquetes EIGRP en la cola. * Número de secuencia (Seq No): Éste es el número del último paquete que se recibió desde ese vecino. EIGRP usa este campo para acusar recibo de la transmisión de un vecino y para identificar los paquetes fuera de secuencia. La tabla de vecinos se usa para proporcionar una entrega confiable y secuenciada de paquetes y se puede considerar como análogo del protocolo TCP que se utiliza en la entrega confiable de paquetes IP. En la siguiente página se describe de qué manera se usa la información de ruta y topología para enrutar los datos. 3.2.5 Detectar rutas En esta página se explica la forma en la que EIGRP almacena información de rutas y topología. Los estudiantes también aprenderán cómo DUAL usa esta información para enrutar los datos. Los routers EIGRP mantienen información de ruta y topología a disposición en la RAM, de manera que se puede reaccionar rápidamente ante los cambios. Al igual que OSPF, EIGRP guarda esta información en varias tablas o bases de datos. DUAL, el algoritmo de vector-distancia de EIGRP, usa la información de la tabla de vecinos y las tablas de topología y calcula las rutas de menor costo hacia el destino. La ruta principal se denomina ruta del sucesor. Una vez calculada esta ruta, DUAL la coloca en la tabla de enrutamiento y una copia en la tabla de topología. DUAL también intenta calcular una ruta de respaldo en caso de que falle la ruta del sucesor. Ésta se denomina la ruta del sucesor factible. Una vez calculada, DUAL coloca la ruta factible en la tabla de topología. Esta ruta se

Page 207: Semestre1 Ccna

puede utilizar si la ruta del sucesor a un destino quedara inalcanzable o no fuera confiable. La Actividad de Medios Interactivos ayudará a los estudiantes a comprender algunos conceptos y términos importantes de EIGRP. En la siguiente página se presenta más información acerca de la forma en que DUAL selecciona una ruta. 3.2.6 Seleccionar rutas En esta página se explica la forma en que DUAL selecciona una ruta alternativa en la tabla de topología cuando se desactiva un enlace. Si no se encuentra un sucesor factible, la ruta se marca como Activa, o como no utilizable en ese momento. Los paquetes de consulta se envían a los routers vecinos solicitando información de topología. DUAL usa esa información para recalcular las rutas del sucesor y las rutas de los sucesores factibles al destino. Una vez que DUAL haya completado estos cálculos, la ruta del sucesor se coloca en la tabla de enrutamiento. Entonces, tanto la ruta del sucesor como la ruta del sucesor factible se colocan en la tabla de topología. Entonces, el estado de la ruta hacia el destino final cambia de Activo a Pasivo. Esto significa que la ruta es ahora operativa y confiable. El resultado del complejo algoritmo de DUAL es una convergencia excepcionalmente rápida para EIGRP. Para comprender mejor la convergencia con DUAL, vea el ejemplo en la Figura . Todos los routers han construido una tabla de topología que contiene información acerca de la manera de enrutar a la red destino Z. Cada tabla identifica lo siguiente: * El protocolo de enrutamiento o EIGRP * El costo más bajo de la ruta, o Distancia Factible (FD) * El costo de la ruta, según lo publica el router vecino, o Distancia Informada (RD) DUAL identifica la ruta primaria preferida, que se conoce como ruta del sucesor (Successor). DUAL también identificará rutas de respaldo, si existe, que se conocen como sucesores factibles (FS). Notese que no es necesario tener un sucesor factible identificado. En la siguiente página se explica la manera en que DUAL mantiene las tablas de enrutamiento. 3.2.7 Mantenimiento de las tablas de enrutamiento En esta página se explica cómo DUAL mantiene y actualiza las tablas de enrutamiento. DUAL rastrea todas las rutas publicadas por los vecinos, comparándolas en base a la métrica compuesta de cada ruta. DUAL también garantiza que cada ruta esté libre de bucles. Entonces, el algoritmo DUAL inserta las rutas de menor costo en la tabla de enrutamiento. Estas rutas principales se denominan rutas del sucesor. Una copia de las rutas del sucesor también se coloca en la tabla de topología. EIGRP mantiene información importante de ruta y topología a disposición en una tabla de vecinos y una tabla de topología. Estas tablas proporcionan información detallada de las rutas a DUAL en caso de problemas en la red. DUAL usa la información en estas tablas para seleccionar rápidamente las rutas alternativas. Si un enlace se desactiva, DUAL busca una ruta alternativa, o sucesor factible, en la tabla de topología. Si no se encuentra un sucesor factible, la ruta se marca como Activa, o como no utilizable en ese momento. Los paquetes de consulta se envían a los routers vecinos solicitando información de topología. DUAL usa esa información para recalcular las rutas del sucesor y las rutas del sucesor factibles al destino. Una vez que DUAL haya completado estos cálculos, la ruta del sucesor se coloca en la tabla de enrutamiento. Entonces, tanto la ruta del sucesor como la ruta del sucesor factible se colocan en la tabla de topología. Luego, el estado de la ruta hacia el destino final cambia de activo a pasivo. Esto significa que la ruta es ahora operativa y confiable. Los routers EIGRP establecen y mantienen adyacencias con los routers vecinos mediante pequeños paquetes hello. Los hellos se envían por defecto cada cinco segundos. Un router EIGRP supone que, siempre y cuando reciba paquetes hello de los vecinos conocidos, estos vecinos y sus rutas seguirán siendo viables o pasivas. Al conocer nuevos vecinos, se registran la dirección y la interfaz del vecino. Esta información se guarda en la estructura de datos del vecino. Cuando un vecino envía un paquete hello, publica un tiempo de espera. El tiempo de espera es la cantidad de tiempo durante el cual un router considera que un vecino se puede alcanzar y que funciona. En otras palabras, si no se reciben ningún paquete hello dentro del tiempo de espera, entonces vence el tiempo de espera. Cuando vence el tiempo de espera, se informa a DUAL acerca del cambio en la topología y debe recalcular la nueva topología.

Page 208: Semestre1 Ccna

En el ejemplo de las Figuras – , DUAL debe reconstruir la topología después de la detección de un enlace interrumpido entre el router D y el router B. Las nuevas rutas del sucesor se colocan en la tabla de enrutamiento actualizada. Con esta página se concluye la lección. En la siguiente lección se analizan los protocolos de enrutamiento. En la primera página se explica a los estudiantes cómo realizar el diagnóstico de fallas de los protocolos de enrutamiento. 3.3.1 Proceso de diagnóstico de fallas del protocolo de enrutamiento En esta página se explica la secuencia lógica de pasos que se deben seguir diagnosticar las fallas de todos los protocolos de enrutamiento. Toda la detección de fallas de los protocolos de enrutamiento debe comenzar con una secuencia lógica, o flujo de proceso. Este flujo de proceso no es un esquema rígido para la detección de fallas en una internetwork. Sin embargo, representa la base sobre la cual un administrador de red puede desarrollar un proceso de resolución de problemas adaptado a un entorno en particular. 1. Al analizar una falla de red, es necesario hacer una declaración clara del problema. 2. Reunir la información necesaria para ayudar a aislar las posibles causas. 3. Considerar los posibles problemas, de acuerdo a la información reunida. 4. Crear un plan de acción a base de los problemas potenciales restantes. 5. Implementar el plan de acción, realizando cada paso cuidadosamente y a la vez probando para ver si el síntoma desaparece. 6. Analizar los resultados para determinar si el problema se ha resuelto. Si es así, el proceso está completo. 7. Si el problema no se ha resuelto, es necesario crear un plan de acción basado en el siguiente problema más probable de la lista. Volver al Paso 4, cambiando una variable a la vez, y repetir el proceso hasta que se resuelva el problema. Una vez identificada la causa real del problema, intentar resolverlo. Los routers Cisco proporcionan varios comandos integrados para ayudar a controlar y realizar el diagnóstico de fallas de una internetwork: * Los comandos show ayudan a controlar el comportamiento de la instalación y el comportamiento normal de la red, así como también aislar las áreas problemáticas * Los comandos debug ayudan a aislar los problemas de configuración y de protocolo. * Las herramientas TCP/IP como ping, traceroute y telnet Los comandos show del Cisco IOS son algunas de las herramientas más importantes para la comprensión del estado de un router, la detección de routers vecinos, el control de la red en general y el aislamiento de problemas en la red. Los comandos EXEC debug pueden ofrecer una gran cantidad de información acerca del tráfico de interfaz, los mensajes de errores internos, los paquetes de diagnóstico específicos de un protocolo y otros datos útiles de diagnóstico de fallas. Use los comandos debug para aislar los problemas, no para monitorear la operación normal de la red. Sólo se deben usar los comandos debug para observar tipos específicos de tráfico o problemas. Antes de usar el comando debug, reduzca los problemas a un subconjunto de causas posibles. Use el comando show debugging para ver cuáles son las funciones de depuración que están habilitadas. En la siguiente página se describe el diagnóstico de fallas de RIP. 3.3.2 Diagnóstico de fallas de la configuración de RIP En esta página se analizará VLSM, que representa el problema más común de las redes RIP. VLSM impide la publicación de las rutas RIP. Esto ocurre porque RIP Versión 1 no admite VLSM. Si las rutas RIP no se publican, verifique lo siguiente: * La existencia de problemas de conectividad de Capa 1 o Capa 2. * La configuración de la división en subredes VLSM. La división en subredes VLSM no se puede usar con RIP v1. * Una falta de concordancia en las configuraciones de enrutamiento RIP v1 y RIP v2 * Sentencias de red faltantes, o una asignación incorrecta de las mismas. * La interfaz saliente está desactivada. * La interfaz de red publicada está desactivada. El comando show ip protocols ofrece información sobre los parámetros y estado actual del proceso de protocolo de enrutamiento activo. RIP envía actualizaciones a las interfaces en las redes especificadas. Si la interfaz FastEthernet 0/1 se configuró pero la red no se agregó al enrutamiento RIP, no se envían, ni tampoco se reciben actualizaciones por la interface.

Page 209: Semestre1 Ccna

Use el comando EXEC debug ip rip para mostrar información sobre las transacciones de enrutamiento RIP. Los comandos no debug ip rip, no debug all o undebug all desactivan todo el proceso de depuración. En la Figura se muestra que el router que se está depurando ha recibido una actualización desde otro router con dirección origen 192.168.3.1. Ese router envió información sobre dos destinos en la actualización de la tabla de enrutamiento. El router que se está depurando también envió actualizaciones. Ambos routers enviaron en broadcast la dirección 255.255.255.255 como destino. El número entre paréntesis representa la dirección origen encapsulada en el encabezado IP. En el siguiente resultado, aparece una entrada causada probablemente por un paquete mal formado desde el transmisor: RIP: bad version 128 from 160.89.80.43 En la página siguiente se analiza IGRP. 3.3.3 Diagnóstico de fallas de la configuración de IGRP En esta página se enseñará a los estudiantes a realizar el diagnóstico de fallas de IGRP. IGRP es un protocolo de enrutamiento por vector-distancia avanzado desarrollado por Cisco en la década de 1980. IGRP posee varias funciones que lo diferencian de otros protocolos de enrutamiento por vector-distancia, tales como RIP. Use el comando router igrp autonomous-system para habilitar el proceso de enrutamiento IGRP: R1(config)#router igrp 100 Use el comando de configuración del router network network-number para habilitar a las interfaces para que participen en el proceso de actualización de IGRP: R1(config-router)#network 172.30.0.0 R1(config-router)#network 192.168.3.0 Verifique la configuración de IGRP con los comandos show running-configuration y show ip protocols: R1#show ip protocols Verifique la operación IGRP con el comando show ip route: R1#show ip route Si IGRP no parece funcionar correctamente, verifique lo siguiente: * La existencia de problemas de conectividad de Capa 1 o Capa 2. * Los números de sistema autónomo en los routers IGRP no coinciden. * Sentencias de red faltantes, o una asignación incorrecta de las mismas. * La interfaz saliente está desactivada. * La interfaz de red publicada está desactivada. Para visualizar la información de depuración de IGRP, use los siguientes comandos: * debug ip igrp transactions [host ip address] para visualizar la información de transacción de IGRP * debug ip igrp events [host ip address] para visualizar la información de actualización de enrutamiento Para desactivar la depuración, use el comando no debug ip igrp. Si una red queda inaccesible, los routers que ejecutan IGRP envían actualizaciones desencadenadas a los vecinos para informarles. Un router vecino entonces responde con actualizaciones inversas envenenadas y mantiene a la red sospechosa en estado de espera por 280 segundos. En la siguiente página se enseñará a los estudiantes a realizar el diagnóstico de fallas de EIGRP. 3.3.4 Diagnóstico de fallas de la configuración de EIGRP En esta página se proporcionan algunos comandos útiles para el diagnóstico de fallas de EIGRP. La operación normal de EIGRP es estable, eficiente en su utilización del ancho de banda y relativamente simple de monitorear y diagnosticar. Use el comando router eigrp autonomous-system para habilitar el proceso de enrutamiento EIGRP:

Page 210: Semestre1 Ccna

R1(config)#router eigrp 100 Para intercambiar actualizaciones de enrutamiento, cada router en la red EIGRP se debe configurar con el mismo número de sistema autónomo. Use el comando de configuración del router network network-number para habilitar a las interfaces para que participen en el proceso de actualización de EIGRP: R1(config-router)#network 172.30.0.0 R1(config-router)#network 192.168.3.0 Verifique la configuración de EIGRP con los comandos show running-configuration y show ip protocols: R1#show ip protocols Algunas de las posibles razones por las cuales EIGRP puede no estar funcionando correctamente son: * La existencia de problemas de conectividad de Capa 1 o Capa 2. * Los números de sistema autónomo en los routers EIGRP no coinciden. * Es posible que el enlace esté congestionado o inhabilitado. * La interfaz saliente está desactivada. * La interfaz de red publicada está desactivada. * El autoresumen está habilitado en routers con subredes que no son contiguas. Use el comando no auto-summary para deshabilitar la sumarización automática de redes. Uno de los motivos más comunes para que falte un vecino es una falla en el enlace en sí. Otra causa posible para los vecinos faltantes es un temporizador de espera vencido. Como los hellos se envían cada 5 segundos en la mayoría de las redes, el valor del tiempo de espera del resultado del comando show ip eigrp neighbors normalmente sería de entre 10 y 15. Para controlar y diagnosticar las fallas de una red EIGRP de manera efectiva, use los comandos que se describen en las Figuras – . En la siguiente página se analiza OSPF. 3.3.5 Diagnóstico de fallas de la configuración de OSPF En esta página se enseñará a los estudiantes a realizar el diagnóstico de fallas de OSPF. OSPF es un protocolo de estado de enlace. Un enlace es una interfaz de un router. El estado del enlace es una descripción de esa interfaz y su relación con los routers vecinos. Por ejemplo, una descripción de la interfaz debe incluir la dirección IP, la máscara, el tipo de red a la cual se conecta, los routers conectados a esa red, etc. Esta información forma una base de datos del estado de enlace. La mayoría de los problemas que se producen en OSPF se relacionan con la formación de adyacencias y la sincronización de las bases de datos del estado de enlace. El comando show ip ospf neighbor es útil para el diagnóstico de fallas de la formación de adyacencias. Los comandos show que se pueden usar para realizar el diagnóstico de fallas de OSPF se muestran en la Figura . Use el comando EXEC privilegiado debug ip ospf events para mostrar la siguiente información sobre los eventos relacionados con OSPF: * Adyacencias * Información de inundación * Selección del router designado * Cálculos de primero la ruta libre más corta (SPF) Si un router configurado para el enrutamiento OSPF no encuentra un vecino OSPF en una red conectada, realice las siguientes tareas: * Verificar que ambos routers se hayan configurado con la misma máscara IP, intervalo hello de OSPF, e intervalo muerto de OSPF. * Verificar que ambos vecinos formen parte de la misma área. Para mostrar información acerca de cada paquete de Primero la Ruta Libre más Corta (OSPF) recibido, use el comando EXEC privilegiado debug ip ospf packet. La forma no de este comando deshabilita el resultado de la depuración. El comando debug ip ospf packet produce un conjunto de información para cada paquete recibido. El resultado varía ligeramente, según el tipo de autenticación utilizada.

Page 211: Semestre1 Ccna

Con esta página se concluye la lección. En la siguiente página se resumen los puntos principales de este módulo. Resumen En esta página se resumen los temas analizados en este módulo. Aunque IGRP y EIGRP son compatibles entre sí, existen algunas diferencias. EIGRP ofrece compatibilidad multiprotocolo, mientras que IGRP no lo hace. EIGRP e IGRP usan cálculos de métrica diferentes. IGRP tiene un número de saltos máximo de 255. EIGRP tiene un límite de saltos máximo de 224. Los routers EIGRP mantienen la información de ruta y topología disponible en la RAM. Al igual que OSPF, EIGRP guarda esta información en tres tablas. La tabla de vecinos enumera los routers adyacentes, la tabla de topología, compuesta por todas las tablas de enrutamiento EIGRP en el sistema autónomo, y la tabla de enrutamiento que contiene las mejores rutas hacia un destino. DUAL (el algoritmo de vector-distancia de EIGRP) calcula las rutas de menor costo hacia cada destino en base a la información proporcionada en la tabla de vecinos y la tabla de topología. La ruta principal preferida se denomina ruta del sucesor, y la ruta de respaldo se denomina sucesor factible (FS). EIGRP es un protocolo de enrutamiento por vector-distancia avanzado, y actúa como protocolo del estado de enlace a la hora de actualizar los vecinos y mantener la información de enrutamiento. Entre las ventajas se cuentan convergencia rápida, uso eficiente del ancho de banda, compatibilidad con VLSM y CIDR, compatibilidad para múltiples capas de red e independencia de los protocolos enrutados. El resultado del algoritmo DUAL es una convergencia rápida con EIGRP. Cada router ha construido una tabla de topología que contiene información acerca de la manera de enrutar hacia los destinos específicos. Cada tabla de topología identifica el protocolo de enrutamiento o EIGRP, el menor costo de la ruta, denominado Distancia Factible (FD), y el costo de la ruta tal como lo publica el router vecino denominado Distancia Informada (RD). Los comandos de configuración de EIGRP varían según el protocolo utilizado. Algunos ejemplos de estos protocolos son IP, IPX y AppleTalk. El comando network configura sólo las redes conectadas. EIGRP resume automáticamente las rutas en la frontera con clase. Si existen subredes no contiguas el resumen automático debe deshabilitarse para que el enrutamiento funcione correctamente. Se verifica la operación de EIGRP mediante varios comandos show. La tabla más importante de EIGRP es la tabla de vecinos, que enumera los routers adyacentes. Los paquetes hello se utilizan para establecer adyacencias con los routers vecinos. Por defecto, los hellos se envían cada cinco segundos. Las tablas de vecinos contienen campos para la dirección de vecino, tiempo de espera, temporizador normal de viaje de ida y vuelta (SRTT), número de cola (Q Cnt), y número de secuencia (Seq NO). Si un enlace se desactiva, DUAL busca una ruta alternativa, o sucesor factible, en la tabla de topología. Si no se encuentra un sucesor factible, la ruta se marca como Activa, o como no utilizable en ese momento. Los paquetes de consulta se envían a los routers vecinos solicitando información de topología. DUAL usa esa información para recalcular las rutas del sucesor y las rutas del sucesor factibles al destino. Deben seguirse los ocho pasos del proceso de diagnóstico de fallas al determinar la causa de los problemas de protocolo de enrutamiento. La máscara de subred de longitud variable (VLSM) es el problema más común del Protocolo de Información de Enrutamiento (RIP) que impide la publicación de las rutas de RIP. El comando show ip protocols ofrece información sobre los parámetros y estado actual del proceso de protocolo de enrutamiento activo. Para IGRP, use el comando router igrpautonomous-system para habilitar el proceso de enrutamiento IGRP. Para EIGRP, use el comando router eigrp autonomous-system para habilitar el proceso de enrutamiento EIGRP. El comando show ip ospf neighbor resulta útil para realizar el diagnóstico de fallas de la formación de adyacencias para OSPF dado que la mayoría de los problemas se relacionan con la formación de adyacencias y la sincronización de la base de datos del estado de enlace. Módulo 4: Conceptos sobre la conmutación Descripción general El diseño de las LAN ha evolucionado. Hasta hace poco, los diseñadores de redes utilizaban hubs y puentes para construir redes. Hoy los switches y los routers son los componentes claves del diseño de las LAN, y las capacidades y el desempeño de estos dispositivos son cada vez mejores. Este módulo describe las raíces de las LAN Ethernet modernas con énfasis en la evolución de Ethernet/802.3, la arquitectura de LAN de implementación más generalizada. Un vistazo al contexto histórico del desarrollo de las LAN y diversos dispositivos de red que se pueden utilizar en las diversas capas del modelo OSI ayudarán a los estudiantes a comprender mejor las razones por las cuales los dispositivos de red han evolucionado como lo han hecho.

Page 212: Semestre1 Ccna

Hasta hace poco, la mayoría de las redes Ethernet usaban repetidores. El desempeño de red sufría, dado que demasiados dispositivos compartían el mismo segmento. Entonces, los ingenieros de redes agregaron puentes para crear múltiples dominios de colisión. A medida que las redes crecieron en tamaño y complejidad, el puente evolucionó hasta transformarse en el switch moderno, que permite la microsegmentación de la red. Hoy en día las redes modernas se construyen con switches y routers, a menudo con ambas funcionalidades en el mismo dispositivo. Muchos switches modernos pueden realizar tareas variadas y complejas en la red. Este módulo proporciona una introducción a la segmentación de redes y describirá los aspectos básicos de la operación de switches. Los switches y puentes realizan una gran parte del trabajo duro en las LAN, donde deben tomar decisiones casi instantáneas al recibir las tramas. Este módulo describe en detalle la forma en que los switches conocen las direcciones físicas de los nodos, y cómo los switches transmiten y filtran tramas. También se describen los principios de la segmentación de LAN y los dominios de colisión. Los switches son dispositivos de Capa 2 que se utilizan para aumentar el ancho de banda disponible y reducir la congestión de redes. Un switch puede segmentar una LAN en microsegmentos, que son segmentos de un solo host. La microsegmentación crea múltiples dominios libres de colisión a partir de un dominio grande. Como dispositivo de Capa 2, el switch de LAN aumenta el número de dominios de colisión, pero todos los hosts conectados al switch siguen perteneciendo al mismo dominio de broadcast. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: * Describir la historia y función de Ethernet compartida o half-duplex * Definir colisión en relación con las redes Ethernet * Definir microsegmentación * Definir CSMA/CD * Describir algunos de los elementos claves que afectan el desempeño de la red * Describir la función de los repetidores. * Definir latencia de red * Definir tiempo de transmisión * Definir la segmentación de red mediante routers, switches y puentes * Definir la latencia del switch Ethernet * Explicar las diferencias entre la conmutación de Capa 2 y Capa 3 * Definir la conmutación simétrica y asimétrica * Definir la creación de búferes en la memoria * Señalar las similitudes y diferencias entre la conmutación por almacenamiento y envío y por método de corte * Comprender las diferencias entre los hubs, puentes y switches * Describir las funciones principales de los switches * Enumerar los modos principales de transmisión de tramas * Describir el proceso mediante el cual los switches apreden las direcciones * Identificar y definir los modos de envío * Definir la segmentación de LAN * Definir la microsegmentación mediante el uso de switches * Describir el proceso de filtrado de trama * Establecer las similitudes y diferencias entre dominios de colisión y de broadcast * Identificar los cables necesarios para conectar los switches a las estaciones de trabajo * Identificar los cables necesarios para conectar los switches a otros switches 4.1 Introducción a las LAN Ethernet/802.3 4.1.1 Desarrollo de LAN Ethernet/802.3 En esta página se presentará un repaso de los dispositivos que se encuentran en una red. Las tecnologías LAN más antiguas usaban infraestructuras de Ethernet de cable fino o grueso. Es importante comprender las limitaciones de estas infraestructuras, como se muestra en la Figura , para comprender los avances en la conmutación de LAN. La adición de hubs o concentradores a la red representó un avance en la tecnología de Ethernet de cable fino o grueso. Un hub es un dispositivo de Capa 1 que a veces se denomina concentrador de Ethernet o repetidor multipuerto. Los hubs permiten un mejor acceso a la red para un número mayor de usuarios. Los hubs regeneran las señales de datos que permiten que las redes se amplíen a distancias mayores. Un hub logra esto regenerando la señal de datos. Los hubs no toman decisiones cuando reciben señales de datos. Los hubs simplemente regeneran y amplifican las señales de datos a todos los dispositivos conectados, salvo el dispositivo que envió originalmente la señal. Ethernet es básicamente una tecnología compartida donde todos los usuarios en un segmento LAN dado

Page 213: Semestre1 Ccna

compiten por el mismo ancho de banda disponible. Esta situación es similar a lo que ocurre cuando varios automóviles intentan acceder a una carretera de un solo carril al mismo tiempo. Como la carretera consta de un solo carril, sólo puede entrar un automóvil a la vez. A medida que se agregaban hubs a la red, más usuarios entraban a la competencia por el mismo ancho de banda. Las colisiones son un producto secundario de las redes Ethernet. Si dos o más dispositivos intentan transmitir señales al mismo tiempo, se produce una colisión. Esta situación es similar a lo que ocurre cuando dos automóviles intentan entrar al mismo tiempo en un solo carril de carretera y provocan una colisión. El tráfico debe interrumpirse hasta que se despeje la carretera. La consecuencia del exceso de colisiones en una red son los tiempos de respuesta de red lentos. Esto indica que la red se encuentra demasiado congestionada o que demasiados usuarios necesitan acceder a la red al mismo tiempo. Los dispositivos de Capa 2 son más inteligentes que los de Capa 1. Los dispositivos de Capa 2 toman decisiones de envío en base a las direcciones de Control de Acceso a los Medios (MAC) que forman parte de los encabezados de tramas de datos transmitidas. Un puente es un dispositivo de Capa 2 que se utiliza para dividir, o segmentar una red. Los puentes reúnen y hacen pasar tramas de datos entre dos segmentos de red de forma selectiva. Para lograr esto, los puentes aprenden las direcciones MAC de los dispositivos de cada segmento conectado. Con esta información, el puente construye una tabla de puenteo, y envía o bloquea el tráfico de acuerdo a esa tabla. El resultado son dominios de colisión más pequeños, y mayor eficiencia de la red. Los puentes no restringen el tráfico de broadcast. Sin embargo, ofrecen mayor control de tráfico dentro de una red. Un switch es también un dispositivo de Capa 2 que a veces se denomina puente multipuerto. Los switches toman decisiones de envío sobre en base a las direcciones MAC que se encuentran en las tramas de datos transmitidos. Los switches aprenden las direcciones MAC de los dispositivos conectados a cada puerto, y esta información se guarda en una tabla de conmutación. Los switches crean un circuito virtual entre dos dispositivos conectados que desean comunicarse. Al crearse el circuito virtual, se establece una comunicación dedicada entre los dos dispositivos. La implementación de un switch en la red proporciona la microsegmentación. Esto crea un entorno libre de colisiones entre el origen y el destino, que permite la máxima utilización del ancho de banda disponible. Los switches pueden facilitar conexiones múltiples y simultáneas entre circuitos virtuales. Esto es análogo a una carretera que se divide en varios carriles, en la que cada automóvil tiene su propio carril exclusivo. La desventaja de los dispositivos de Capa 2 es que envían tramas de broadcast a todos los dispositivos conectados de la red. Un exceso de broadcasts en una red produce tiempos de respuesta de red lentos. Un router es un dispositivo de Capa 3. Los routers toman decisiones en base a los grupos de direcciones de red o clases, en lugar de las direcciones MAC individuales. Los routers usan tablas de enrutamiento para registrar las direcciones de Capa 3 de las redes que se encuentran directamente conectadas a las interfaces locales y las rutas de red aprendidas de los routers vecinos. * Las siguientes son funciones de un router: Examinar los paquetes entrantes de datos de Capa 3 * Seleccionar la mejor ruta para los datos a través de la red * Enrutar los datos al puerto de salida correspondiente Los routers no envían los broadcasts a menos que estén programados para hacerlo. Por lo tanto, los routers reducen el tamaño de los dominios de colisión y de broadcast en una red. Los routers son los dispositivos de regulación de tráfico más importantes en las redes de gran envergadura. Los routers posibilitan la comunicación entre dos computadores sin importar la ubicación o el sistema operativo. Las LAN normalmente utilizan una combinación de dispositivos de Capa 1, Capa 2 y Capa 3. La implementación de estos dispositivos depende de las necesidades específicas de la organización. La Actividad de Medios Interactivos requiere que los estudiantes establezcan la correspondencia entre los dispositivos de red y las capas del modelo OSI. En la página siguiente se analiza la congestión de redes. 4.1.2 Factores que afectan el rendimiento de la red En esta página se describen algunos factores que hacen que las LAN se congestionen y sobrecarguen. En la actualidad, las LAN están cada vez más congestionadas y sobrecargadas. Además de una gran cantidad de usuarios de red, algunos otros factores se han combinado para poner a prueba las capacidades de las LAN tradicionales: * El entorno multitarea, presente en los sistemas operativos de escritorio actuales como Windows, Unix/Linux y MAC OS X, permite transacciones de red simultáneas. Esta capacidad aumentada ha dado como resultado una mayor demanda de recursos de red.

Page 214: Semestre1 Ccna

* El uso de las aplicaciones que hacen uso intensivo de la red, como la World Wide Web, ha aumentado. Las aplicaciones de cliente/servidor permiten que los administradores centralicen la información, facilitando así el mantenimiento y la protección de la información. * Las aplicaciones de cliente/servidor no requieren que las estaciones de trabajo mantengan información ni proporcionen espacio del disco duro para almacenarla. Debido a la relación costo-beneficio de las aplicaciones cliente/servidor, es probable que dichas aplicaciones se utilicen aún con más frecuencia en el futuro. En la página siguiente se analizan las redes Ethernet. 4.1.3 Elementos de las redes Ethernet/802.3 En esta página se describen algunos de los factores que pueden afectar el desempeño de una red Ethernet de forma negativa. Ethernet es una tecnología de transmisión en broadcast. Por lo tanto, los dispositivos de red como los computadores, las impresoras y los servidores de archivos se comunican entre sí a través de un medio de red compartida. El rendimiento de una LAN Ethernet/802.3 de medio compartido puede verse afectado de forma negativa por distintos factores: * La naturaleza de broadcast de la entrega de trama de datos de las LAN Ethernet/802.3. * El método de acceso múltiple con detección de portadora y detección de colisiones (CSMA/CD) sólo permite que una estación a la vez pueda transmitir. * Las aplicaciones multimediales con mayor demanda de ancho de banda, tales como vídeo e Internet, sumadas a la naturaleza de broadcast de Ethernet, pueden crear congestión de red. * Se produce latencia normal a medida que las tramas recorren el medio de red y atraviesan los dispositivos de red. Ethernet usa CSMA/CD y puede admitir velocidades de transmisión rápidas. Fast Ethernet, o 100BASE-T, proporciona velocidades de transmisión de hasta 100 Mbps. Gigabit Ethernet proporciona velocidades de transmisión de hasta 1000 Mbps y 10-Gigabit Ethernet ofrece velocidades de transmisión de hasta 10.000 Mbps. El objetivo de Ethernet es proporcionar un servicio de entrega de mejor intento y permitir que todos los dispositivos en el medio puedan transmitir de forma equitativa. La producción de cierta cantidad de colisiones en el diseño de Ethernet y CSMA/CD es de esperarse. Las colisiones son un hecho natural en las redes Ethernet y pueden transformarse en un problema grave. En la página siguiente se describirán las redes half-duplex. 4.1.4 Redes half-duplex En esta página se explica de qué maneras se producen colisiones en una red half-duplex. Originalmente, Ethernet era una tecnología half duplex. Half-duplex permite que los hosts transmitan o reciban en un momento dado, pero no permite que hagan ambas cosas a la vez. Cada host verifica la red para comprobar si se están transmitiendo datos antes de transmitir datos adicionales. Si la red está en uso, la transmisión se retarda. A pesar de la demora de transmisión, dos hosts o más pueden transmitir al mismo tiempo. Esto produce una colisión. Cuando se produce una colisión, el host que detecta primero la colisión envía una señal de atascamiento a los demás hosts. Cuando se recibe una señal de atascamiento, cada host interrumpe la transmisión de datos, y luego espera por un período aleatorio de tiempo para retransmitir los datos. El algoritmo de retroceso genera este retardo aleatorio. A medida que más hosts se agregan a la red y empiezan a transmitir, es más probable que se produzcan colisiones. Las LAN Ethernet se saturan porque los usuarios ejecutan software que utiliza intensivamente la red, como aplicaciones cliente/servidor que hacen que los hosts deban transmitir con mayor frecuencia y durante períodos de tiempo más prolongados. La tarjeta de interfaz de red (NIC) utilizada por los dispositivos LAN proporciona varios circuitos para que se pueda producir la comunicación entre dispositivos. En la página siguiente se analizan otros factores que causan congestión de redes. 4.1.5 Congestión de redes En esta página se analizan algunos factores que crean la necesidad de mayor ancho de banda en una red. Los avances de la tecnología están produciendo computadores de escritorio y estaciones de trabajo cada vez más rápidos e inteligentes. La combinación de estaciones de trabajo más potentes y de aplicaciones que hacen mayor uso de la red ha creado la necesidad de una capacidad mayor de red, o ancho de banda. Todos estos factores representan una gran exigencia para las redes de 10 Mbps de ancho de banda disponible, y por este motivo, muchas redes ahora ofrecen anchos de banda de 100 Mbps en sus LAN. * Los siguientes tipos de medios se están transmitiendo a través de redes con cada vez mayor frecuencia: Grandes archivos de gráficos * Imágenes

Page 215: Semestre1 Ccna

* Video totalmente móvil * Aplicaciones multimedia También existe un mayor número de usuarios en una red. Mientras más personas utilizan las redes para compartir grandes archivos, acceder a servidores de archivo y conectarse a Internet, se produce más congestión de red. Esto puede dar como resultado tiempos de respuesta más lentos, transferencias de archivos muy largas y usuarios de red menos productivos. Para aliviar la congestión de red, se necesita más ancho de banda o bien, el ancho de banda disponible debe usarse con mayor eficiencia. En la página siguiente se analiza la latencia de redes. 4.1.6 Latencia de red En esta página se ayuda a los estudiantes a que comprendan los factores que aumentan la latencia de las redes. La latencia, o retardo, es el tiempo que una trama o paquete tarda en hacer el recorrido desde la estación origen hasta su destino final. Es importante determinar con exactitud la cantidad de latencia que existe en la ruta entre el origen y el destino para las LAN y las WAN. En el caso específico de una LAN Ethernet, un buen entendimiento de la latencia y de su efecto en la temporización de la red es de importancia fundamental para determinar si CSMA/CD podrá funcionar correctamente. La latencia consiste en por lo menos tres componentes: * En primer lugar, el tiempo que tarda la NIC origen en colocar pulsos de voltaje en el cable y el tiempo que tarda la NIC destino en interpretar estos pulsos. A esto se le denomina a veces retardo NIC (típicamente es de 1 microsegundo para las NIC 10BASE-T. * En segundo lugar, el retardo de propagación en sí, ya que la señal tarda en recorrer el cable. Normalmente, éste es de unos 0,556 microsegundos por 100 m para Cat 5 UTP. Los cables más largos y la velocidad nominal de propagación menor (NVP) tiene como resultado un retardo de propagación mayor. * En tercer lugar, la latencia aumenta por los dispositivos de red que se encuentren en el camino entre dos computadores. Estos pueden ser dispositivos de Capa 1, Capa 2 o Capa 3. La latencia no depende únicamente de la distancia y de la cantidad de dispositivos. Por ejemplo, si dos estaciones de trabajo están separadas por tres switches correctamente configurados, las estaciones de trabajo pueden experimentar una latencia menor de la que se produciría si estuvieran separadas por dos routers correctamente configurados. Esto se debe a que los routers ejecutan funciones más complejas y que llevan más tiempo. Un router debe analizar los datos de la Capa 3. En la página siguiente se analiza el tiempo de transmisión. 4.1.7 Tiempo de transmisión de Ethernet 10BASE-T En esta página se explica de qué manera se determina el tiempo de transmisión para 10BASE-T. Todas las redes cuentan con lo que se denomina tiempo de bit. En muchas tecnologías LAN tales como Ethernet, el tiempo de bit se define como la unidad básica de tiempo en la que se puede transmitir un bit de datos. Para que los dispositivos electrónicos u ópticos puedan reconocer un dígito binario (uno o cero), se debe definir un lapso mínimo durante el cual el bit se considera encendido o apagado. El tiempo de transmisión equivale al número de bits enviados multiplicado por el tiempo de bit de una tecnología determinada. Otra forma de considerar al tiempo de transmisión es como el intervalo entre el comienzo y el fin de una transmisión de trama, o entre el inicio de una transmisión de trama y una colisión. Las tramas pequeñas tardan menos tiempo. Las tramas grandes tardan más tiempo. Cada bit de Ethernet de 10 Mbps cuenta con una ventana de 100 ns para realizar la transmisión. Éste es el tiempo de bit. Un byte equivale a ocho bits. Por lo tanto, 1 byte tarda un mínimo de 800 ns para transmitirse. Una trama de 64 bytes, que es la trama 10BASE-T más pequeña que permite que CSMA/CD funcione correctamente, tiene un tiempo de transmisión de 51.200 ns o 51,2 microsegundos. La transmisión de una trama completa de 1000 bytes desde el origen requiere 800 microsegundos. El tiempo requerido para que la trama llegue a la estación destino depende de la latencia adicional introducida por la red. Esta latencia puede deberse a una serie de retardos, incluyendo todas las siguientes posibilidades: * Retardos de NIC * Retardos de propagación * Retardos de dispositivos de Capa 1, Capa 2 o Capa 3 La Actividad de Medios Interactivos ayudará a los estudiantes a determinar los tiempos de transmisión 10BASE-T para cuatro tamaños de trama diferentes. En la página siguiente se describen las ventajas de los repetidores.

Page 216: Semestre1 Ccna

4.1.8 Ventajas del uso de repetidores En esta página se explica de qué manera se puede usar un repetidor para ampliar la distancia de una LAN. La distancia que una LAN puede cubrir se encuentra limitada por la atenuación. La atenuación significa que la señal se debilita a medida que recorre la red. La resistencia del cable o medio recorrido por la señal provoca la pérdida de la potencia de señal. Un repetidor de Ethernet es un dispositivo de capa física de la red que incrementa o regenera la señal en una LAN Ethernet. Al utilizar un repetidor para extender la distancia de una LAN, una sola red puede abarcar una distancia mayor y más usuarios pueden compartir esta misma red. Sin embargo, el uso de repetidores y hubs produce problemas adicionales asociados con los broadcasts y las colisiones. También tiene un efecto negativo en el desempeño general de las LAN de medios compartidos. La Actividad de Medios Interactivos enseñará a los estudiantes los detalles del Micro Hub Cisco 1503. En la página siguiente se analiza la tecnología full-duplex. 4.1.9 Transmisión full duplex En esta página se explica de qué manera Ethernet full duplex permite la transmisión de un paquete y la recepción de un paquete distinto al mismo tiempo. Esta transmisión y recepción simultánea requiere del uso de dos pares de hilos dentro del cable y una conexión conmutada entre cada nodo. Esta conexión se considera de punto a punto y está libre de colisiones. Debido a que ambos nodos pueden transmitir y recibir al mismo tiempo, no existen negociaciones para el ancho de banda. Ethernet full duplex puede utilizar una infraestructura de cables ya implementada, siempre y cuando el medio cumpla con los estándares de Ethernet mínimos. Para transmitir y recibir de forma simultánea, se necesita un puerto de switch dedicado para cada nodo. La conexiones full duplex pueden utilizar medios 10BASE-T, 100BASE-TX o 100BASE-FX para crear conexiones punto a punto. Las NIC en todos los dispositivos conectados deben tener capacidades full-duplex. El switch Ethernet full-duplex aprovecha los dos pares de hilos en un cable y crea una conexión directa entre el transmisor (TX) en un extremo del circuito y el receptor (RX) en el otro extremo. Con las dos estaciones conectadas de esta manera, se crea un dominio libre de colisiones debido a que se produce la transmisión y la recepción de los datos en circuitos distintos no competitivos. Ethernet generalmente puede usar únicamente 50%-60% del ancho de banda de 10 Mbps disponible debido a las colisiones y la latencia. Ethernet full duplex ofrece 100% del ancho de banda en ambas direcciones. Esto produce una tasa de transferencia potencial de 20 Mbps, lo que resulta de 10 Mbps TX y 10 Mbps RX. La Actividad Interactiva de Medios ayudará a los estudiantes a aprender las diferentes características de los estándares Ethernet full-duplex. Con esta página se concluye la lección. En la siguiente lección se presenta la conmutación LAN. La primera página describe la segmentación LAN. 4.2.1 Segmentación LAN En esta página se explica la segmentación LAN. La figura muestra un ejemplo de una red Ethernet segmentada. La red consta de quince computadores. De esos quince computadores, seis son servidores y nueve son estaciones de trabajo. Cada segmento utiliza el método de acceso CSMA/CD y mantiene el tráfico entre los usuarios del segmento. Cada segmento se considera como su propio dominio de colisión. La segmentación permite que la congestión de red se reduzca de forma significativa dentro de cada segmento. Al transmitir datos dentro de un segmento, los dispositivos dentro de ese segmento comparten el ancho de banda total. Los datos que pasan entre los segmentos se transmiten a través del backbone de la red por medio de un puente, router o switch. En la siguiente página se analizan los puentes. 4.2.2 Segmentación LAN con puentes En esta página se describen las funciones principales de un puente en una LAN. Los puentes son dispositivos de Capa 2 que envían tramas de datos basados en la dirección MAC. Los puentes leen la dirección MAC origen de los paquetes de datos para detectar los dispositivos en cada segmento. Las direcciones MAC se utilizan entonces para construir una tabla de puenteo. Esto permite que los puentes bloqueen paquetes que no necesitan salir del segmento local. Aunque los puentes son transparentes para los otros dispositivos de red, la latencia de una red aumenta en un diez a treinta por ciento cuando se utiliza un puente. Este aumento en la latencia se debe a las decisiones que toman los puentes antes de que se envíen las tramas. Un puente se clasifica como un dispositivo de

Page 217: Semestre1 Ccna

almacenamiento y envío. Los puentes examinan el campo de dirección destino y calculan la verificación por redundancia cíclica (CRC) en el campo de Secuencia de Verificación de Tramas antes de enviar la trama. Si el puerto destino se encuentra ocupado, el puente puede almacenar la trama temporalmente hasta que el puerto esté disponible. En la página siguiente se analizan los routers. 4.2.3 Segmentación de LAN con routers En esta página se explica de qué manera se utilizan los routers para segmentar una LAN. Los routers proporcionan segmentación de red que agrega un factor de latencia del veinte al treinta por ciento a través de una red conmutada. Esta mayor latencia se debe a que el router opera en la capa de red y usa la dirección IP para determinar la mejor ruta al nodo de destino. La Figura muestra un router Cisco. Los puentes y switches proporcionan segmentación dentro de una sola red o subred. Los routers proporcionan conectividad entre redes y subredes. Además, los routers no envían broadcasts, mientras que los switches y puentes deben enviar tramas de broadcast. Las Actividades de Medios Interactivos ayudarán a los estudiantes a familiarizarse con los routers Cisco 2621 y 3640. En la página siguiente se analizan los switches. 4.2.4 Segmentación de LAN con switches En esta página se explica de qué manera se utilizan los switches para segmentar una LAN. Los switches reducen la escasez de ancho de banda y los cuellos de botella en la red, como los que surgen entre varias estaciones de trabajo y un servidor de archivos remoto. La Figura muestra un switch Cisco. Los switches segmentan las LAN en microsegmentos, lo que reduce el tamaño de los dominios de colisión. Sin embargo, todos los hosts conectados a un switch siguen en el mismo dominio de broadcast. En una LAN Ethernet totalmente conmutada, los nodos de origen y destino funcionan como si fueran los únicos nodos de la red. Cuando estos dos nodos establecen un enlace o circuito virtual, tienen acceso al ancho de banda máximo disponible. Estos enlaces proporcionan una tasa de transferencia mucho mayor que las LAN de Ethernet conectadas por puentes o hubs. Este circuito de red virtual se establece dentro del switch y existe solamente cuando los dos nodos necesitan comunicarse. En la siguiente página se explica la función de un switch en una LAN. 4.2.5 Operaciones básicas de un switch En esta página se describen las funciones básicas de un switch en una LAN. La conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token Ring y la Interfaz de datos distribuida por fibra (FDDI). Los switches utilizan la microsegmentación para reducir los dominios de colisión y el tráfico de red. Esta reducción da como resultado un uso más eficiente del ancho de banda y mayor tasa de transferencia. Con frecuencia, se utilizan los switches de LAN para reemplazar los hubs compartidos y están diseñados para funcionar con infraestructuras de cable ya instaladas. Las siguientes son las dos operaciones básicas que realizan los switches: * Conmutación de tramas de datos: Los switches reciben tramas en una interfaz, seleccionan el puerto correcto por el cual enviar las tramas, y entonces envían la trama de acuerdo a la selección de ruta. * Mantenimiento de operaciones de switch: Los switches elaboran y mantienen las tablas de envío. Los switches también elaboran y mantienen una topología sin bucles en toda la LAN. Las Figuras a muestran las operaciones básicas de un switch. En la siguiente página se analiza la latencia. 4.2.6 Latencia del switch Ethernet En esta página se explica de qué manera los switches Ethernet contribuyen a la latencia. La latencia de switch es el período transcurrido desde el momento que una trama entra a un switch hasta que la trama sale del switch. La latencia se relaciona directamente con el proceso de conmutación y el volumen de tráfico.

Page 218: Semestre1 Ccna

La latencia se mide en fracciones de segundo. Los dispositivos de red operan a velocidades increiblemente rápidas, de manera que cada nanosegundo adicional de latencia afecta de forma adversa el desempeño de la red. En la siguiente página se describe la conmutación de Capa 2 y Capa 3 4.2.7 Conmutación de Capa 2 y Capa 3 En esta página se muestra a los estudiantes cómo se produce la conmutación en las capas de enlace de datos y de red. Los routers y los switches de Capa 3 utilizan direcciones IP para enrutar un paquete. Los switches LAN o de la Capa 2 envían tramas en base a la información de la dirección MAC. Se puede decir que en la actualidad los términos conmutación de Capa 3 y enrutamiento se utilizan con frecuencia de manera indistinta. Existen dos métodos de conmutación de trama de datos: la conmutación de Capa 2 y de Capa 3. Los routers y los switches de Capa 3 utilizan la conmutación de Capa 3 para conmutar los paquetes. Los switches de Capa 2 y los puentes utilizan la conmutación de Capa 2 para enviar tramas. La diferencia entre la conmutación de Capa 2 y Capa 3 es el tipo de información que se encuentra dentro de la trama y que se utiliza para determinar la interfaz de salida correcta. La conmutación de la Capa 2 se basa en la información de la dirección MAC. La conmutación de la Capa 3 se basa en las direcciones de la capa de red o en las direcciones IP. Las funciones y la funcionalidad de los switches de Capa 3 y los routers son muy parecidas. La única diferencia importante entre la operación de conmutación de paquetes de un router y de un switch de Capa 3 es la implementación física. En los routers de propósito general, la conmutación de paquetes se produce en el software, mediante motores basados en el microprocesador, mientras que un switch de Capa 3 realiza el envío de paquetes por medio del hardware de circuito integrado de aplicación específica (ASIC). La conmutación de la Capa 2 busca una dirección MAC destino en el encabezado de la trama y envía la trama a la interfaz o puerto apropiado basándose en la dirección MAC de la tabla de conmutación. La tabla de conmutación se encuentra en la Memoria de contenido direccionable (CAM). Si el switch de Capa 2 no sabe dónde enviar la trama, envía la trama en broadcast por todos los puertos hacia la red, excepto por el puerto por el que se recibió la trama. Cuando se recibe una respuesta, el switch registra la nueva dirección en la CAM. La conmutación de Capa 3 es una función de la capa de red. La información de encabezado de la Capa 3 se examina y el paquete se envía de acuerdo a la dirección IP. El flujo de tráfico en una red conmutada o plana es de por sí diferente del flujo de tráfico en una red enrutada o jerárquica. Las redes jerárquicas ofrecen un flujo de tráfico más flexible que las redes planas. En la siguiente página se analizará la conmutación simétrica y asimétrica. 4.2.8 Conmutación simétrica y asimétrica En esta página se explica la diferencia que existe entre la conmutación simétrica y asimétrica. La conmutación LAN se puede clasificar como simétrica o asimétrica según la forma en que el ancho de banda se asigna a los puertos de conmutación. Un switch simétrico ofrece conexiones conmutadas entre puertos con el mismo ancho de banda. Un switch LAN asimétrico proporciona conexiones conmutadas entre puertos con distinto ancho de banda, tal como una combinación de puertos de 10 Mbps y de 100 Mbps. Una conmutación permite la dedicación de más ancho de banda al puerto de conmutación del servidor a fin de evitar un cuello de botella. Esto permite flujos de tráfico más parejos, donde varios clientes se comunican con un servidor al mismo tiempo. Se requieren búferes de memoria en un switch asimétrico. El uso de búferes mantiene las tramas contiguas entre distintos puertos de velocidad de datos. En la siguiente página se describen los búferes de memoria. 4.2.9 Búferes de memoria En esta página se explica lo que es un búfer de memoria y de qué manera se utiliza. Un switch Ethernet puede usar una técnica de búferes para almacenar y enviar tramas. Los búferes también pueden utilizarse cuando el puerto destino está ocupado. El área de la memoria en la que el switch almacena los datos se denomina "búfer de memoria". Este búfer de memoria puede utilizar dos métodos para enviar tramas, el búfer de memoria basado en puerto y el búfer de memoria compartida. En el búfer de memoria basado en puerto, las tramas se almacenan en colas conectadas a puertos de entrada específicos. Una trama se transmite al puerto de salida una vez que todas las tramas que están delante de ella en la cola se hayan transmitido con éxito. Es posible que una sola trama retarde la transmisión de todas las tramas almacenadas en la memoria debido al tráfico del puerto destino. Este retardo se produce aunque las

Page 219: Semestre1 Ccna

demás tramas se puedan transmitir a puertos destino abiertos. El búfer de memoria compartida deposita todas las tramas en un búfer de memoria común que comparten todos los puertos del switch. La cantidad de memoria de búfer que requiere un puerto se asigna de forma dinámica. Las tramas en el búfer se vinculan de forma dinámica al puerto destino. Esto permite la recepción del paquete por un puerto y la transmisión por otro puerto, sin tener que colocarlo en otra cola. El switch conserva un mapa de enlaces de trama a puerto que indica por dónde una trama debe transmitirse. El enlace del mapa se elimina una vez que la trama se haya transmitido con éxito. El búfer de memoria se comparte. La cantidad de tramas almacenadas en el búfer se encuentra limitada por el tamaño del búfer de memoria en su totalidad y no se limita a un solo búfer de puerto. Esto permite la transmisión de tramas más amplias descartando menos tramas. Esto es importante para la conmutación asimétrica, donde las tramas se intercambian entre puertos de distintas velocidades. En la siguiente página se describen dos métodos de conmutación. 4.2.10 Dos métodos de conmutación En esta página se presenta la conmutación de almacenamiento y envío y por método de corte. Los siguientes dos modos de conmutación están disponibles para el envío de tramas: * Almacenamiento y envío: La trama completa se recibe antes de que se realice cualquier tipo de envío. Se leen las direcciones destino y origen y se aplican filtros antes de enviar la trama. La latencia se produce mientras la trama se está recibiendo. La latencia es mayor con tramas más grandes dado que toda la trama debe recibirse antes de que empiece el proceso de conmutación. El switch puede verificar toda la trama para ver si hay errores, lo que permite detectar más errores. * Método de corte: La trama se envía a través del switch antes de que se reciba la trama completa. Como mínimo, la dirección destino de la trama debe leerse antes de que la trama se pueda enviar. Este modo reduce la latencia de la transmisión, pero también reduce la detección de errores. A continuación, presentamos dos formas de conmutación por método de corte: * Conmutación rápida: La conmutación rápida ofrece el nivel más bajo de latencia. La conmutación rápida envía un paquete inmediatamente después de leer la dirección destino. Como la conmutación rápida empieza a realizar los envíos antes de recibir el paquete completo, de vez en cuando los paquetes se pueden entregar con errores. Sin embargo, esto ocurre con poca frecuencia y además el adaptador de red destino descarta los paquetes defectuosos en el momento de su recepción. En el modo rápido, la latencia se mide desde el primer bit recibido al primer bit transmitido. * Libre de fragmentos: La conmutación libre de fragmentos filtra los fragmentos de colisión antes de empezar el envío. Los fragmentos de colisión representan la mayoría de los errores de paquete. En una red que funciona correctamente, los fragmentos de colisión deben ser menores de 64 bytes. Cualquier cosa superior a 64 bytes es un paquete válido y se recibe generalmente sin errores. La conmutación libre de fragmentos espera hasta que se determine si el paquete es un fragmento de colisión o no antes de enviar el paquete. En el modo libre de fragmentos, la latencia también se mide desde el primer bit recibido al primer bit transmitido. La latencia de cada modo de conmutación depende de la manera en que el switch envía las tramas. Para agilizar el envío de la trama, el switch dedica menos tiempo a la verificación de errores. Sin embargo, reducir la verificación de errores puede resultar en el aumento de la cantidad de retransmisiones. Con esta página se concluye la lección. En la siguiente lección se describen los switches Ethernet. La primera página explica las principales funciones de los switches. 4.3.1 Funciones de los switches Ethernet En esta página se analizan las funciones de los switches de la Capa 2. Un switch es un dispositivo que conecta los segmentos LAN mediante una tabla de direcciones MAC para determinar el segmento al que una trama necesita transmitirse. Los switches y los puentes operan en la capa 2 del modelo OSI. A veces, los switches se denominan puentes multipuerto o hubs de conmutación. Los switches toman decisiones en base a las direcciones MAC y por lo tanto, son dispositivos de la Capa 2. Por otra parte, los hubs regeneran las señales de la Capa 1 y las envían por todos los puertos sin tomar ninguna decisión. Dado que un switch tiene la capacidad de tomar decisiones de selección de la ruta, la LAN se vuelve mucho más eficiente. Con frecuencia, en una red Ethernet, las estaciones de trabajo están conectadas directamente al switch. Los switch aprenden qué hosts están conectados a un puerto leyendo la dirección MAC origen en las tramas. El switch abre un circuito virtual sólo entre los nodos origen y destino. Esto limita la comunicación a estos dos puertos sin afectar el tráfico en otros puertos. Por su parte, un hub envía datos fuera de todos sus puertos de manera que todos los hosts puedan ver los datos y tengan que procesarlos, aunque no sean el destino final de los datos. Las LAN de alto rendimiento por lo general están totalmente conmutadas.

Page 220: Semestre1 Ccna

* Un switch concentra la conectividad, convirtiendo a la transmisión de datos en un proceso más eficiente. Las tramas se conmutan desde puertos de entrada a puertos de salida. Cada puerto o interfaz puede ofrecer el ancho de banda completo de la conexión al host. * En un hub Ethernet típico, todos los puertos conectados a un backplane común o a una conexión física dentro del hub y todos los dispositivos adjuntos al hub comparten el ancho de banda de la red. Si dos estaciones establecen una sesión que utiliza un nivel significativo del ancho de banda, se degrada el rendimiento de la red de todas las demás estaciones conectadas al hub. * Para reducir la degradación, el switch trata cada interfaz como un segmento individual. Cuando las estaciones en las distintas interfaces necesitan comunicarse, el switch envía tramas a la velocidad máxima que el cable admite, de una interfaz a otra, para asegurarse de que cada sesión reciba el ancho de banda completo. Para conmutar con eficiencia las tramas entre las distintas interfaces, el switch mantiene una tabla de direcciones. Cuando una trama llega al switch, se asocia la dirección MAC de la estación transmisora con la interfaz en la cual se recibió. Las principales funciones de los switches Ethernet son: * Aislar el tráfico entre los segmentos * Obtener un ancho de banda más grande por usuario creando dominios de colisión más pequeños La primera función, aislar el tráfico entre los segmentos, permite lograr mayor seguridad para los hosts de la red. Cada segmento utiliza el método de acceso CSMA/CD para mantener el flujo del tráfico de datos entre los usuarios del segmento. Dicha segmentación permite a varios usuarios enviar información al mismo tiempo a través de los distintos segmentos sin causar demoras en la red. Al utilizar los segmentos de la red, menos usuarios y/o dispositivos comparten el mismo ancho de banda al comunicarse entre sí. Cada segmento cuenta con su propio dominio de colisión. Los switches Ethernet filtran el tráfico redireccionando los datagramas hacia el puerto o puertos correctos, que están basados en las direcciones MAC de la Capa 2. La segunda función se denomina microsegmentación. La microsegmentación permite la creación de segmentos de red dedicados con un host por segmento. Cada host recibe acceso al ancho de banda completo y no tiene que competir por la disponibilidad del ancho de banda con otros hosts. Los servidores más populares se pueden colocar entonces en enlaces individuales de 100-Mbps. Con frecuencia en las redes de hoy, un switch Fast Ethernet puede actuar como el backbone de la LAN, con hubs Ethernet, switches Ethernet o hubs Fast Ethernet que ofrecen las conexiones de escritorio en grupos de trabajo. A medida que aumenta la popularidad de nuevas aplicaciones como por ejemplo las aplicaciones multimedia de escritorio o las de videoconferencia, algunos equipos de escritorio individuales tendrán enlaces dedicados de 100-Mbps para la red. La siguiente página introduce tres modos de transmisión de trama. 4.3.2 Modos de transmisión de la trama En esta página se describen los tres modos principales de transmisión de trama: * Método de corte: Un switch que efectúa la conmutación por método de corte sólo lee la dirección destino cuando recibe la trama. El switch empieza a enviar la trama antes de que la trama llegue en su totalidad. Este modo reduce la latencia de la transmisión pero la detección de errores es pobre. A continuación, presentamos dos formas de conmutación por método de corte: o Conmutación rápida: La conmutación rápida ofrece el nivel de latencia más bajo, enviando el paquete inmediatamente después de recibir la dirección destino. La latencia se mide desde el primer bit recibido al primer bit transmitido, o bien el primero en entrar y el primero en salir (FIFO). Este modo tiene una detección deficiente de errores de conmutación LAN. o Conmutación libre de fragmentos: La conmutación libre de fragmentos filtra los fragmentos de colisión, que constituyen la mayoría de los errores de paquete, antes de iniciar el envío. Por lo general, los fragmentos de colisión son inferiores a 64 bytes. La conmutación libre de fragmentos espera hasta que se determine si el paquete no es un fragmento de colisión antes de enviar el paquete. La latencia también se mide como FIFO. o Almacenamiento y envío: La trama completa se recibe antes de que se realice cualquier tipo de envío. Se leen las direcciones destino y origen y se aplican filtros antes de enviar la trama. La latencia se produce mientras la trama se está recibiendo. La latencia es mayor con tramas más grandes dado que toda la trama debe recibirse antes de que empiece el proceso de conmutación. El switch tiene suficiente tiempo para verificar los errores, lo que permite una mayor detección de los errores. * Método de corte adaptado: Este modo de transmisión es un modo híbrido que es una combinación del método de corte con el método de almacenamiento y envío. En este modo, el switch utiliza el método de corte hasta que detecta una determinada cantidad de errores. Una vez que se alcanza el umbral de error, el switch cambia al modo almacenamiento y envío. La Actividad de Medios Interactivos ayudará a los estudiantes a comprender los tres métodos principales de conmutación.

Page 221: Semestre1 Ccna

En la siguiente página se explica de qué manera los switches obtienen información sobre la red. 4.3.3 De qué manera los switches y los puentes aprenden las direcciones En esta página se explica de qué manera los puentes y los switches aprenden las direcciones y envían las tramas. Los puentes y los switches sólo envían tramas que necesitan viajar de un segmento LAN a otro. Para lograr esta tarea, deben aprender qué dispositivos están conectados a qué segmento de la LAN. Se considera que un puente es un dispositivo inteligente porque puede tomar decisiones basadas en las direcciones MAC. Para hacerlo, un puente consulta una tabla de direcciones. Cuando un puente se enciende, se envían mensajes en broadcast pidiendo a todas las estaciones del segmento local de la red que respondan. A medida que las estaciones contestan el mensaje de broadcast, el puente va creando una tabla de direcciones locales. Este proceso se denomina aprendizaje. Los puentes y los switches aprenden de la siguiente manera: * Leyendo la dirección MAC origen de cada trama o datagrama recibidos * Registrando el puerto por el cual se recibió la dirección MAC De esta forma, el puente o el switch aprenden qué direcciones pertenecen a los dispositivos conectados a cada puerto. Las direcciones aprendidas y el puerto o interfaz asociado se almacenan en la tabla de direccionamiento. El puente examina la dirección destino de todas las tramas recibidas. El puente luego explora la tabla de direcciones en busca de la dirección destino. * La tabla de conmutación se almacena en la Memoria de contenido direccionable (CAM). Éste es un tipo de memoria a cuyo contenido se accede rápidamente. CAM se utiliza en las aplicaciones de switch para realizar las siguientes funciones: Para obtener y procesar la información de dirección desde los paquetes de datos entrantes * Para comparar la dirección destino con una tabla de direcciones almacenada dentro de la misma memoria La CAM almacena direcciones MAC de host y números de puerto asociados. La CAM compara la dirección MAC destino recibida con el contenido de la tabla CAM. Si la comparación muestra una coincidencia, se proporciona el puerto y el control de enrutamiento envía el paquete al puerto y dirección correctos. Un switch Ethernet puede aprender la dirección de cada dispositivo de la red leyendo la dirección origen de cada trama transmitida y anotando el puerto por donde la trama se introdujo en el switch. El switch entonces agrega esta información a su base de datos de envío. Las direcciones se aprenden de forma dinámica. Esto significa que, a medida que se leen las nuevas direcciones, éstas se aprenden y se almacenan en la CAM. Cuando no se encuentra una dirección origen en la CAM, se aprende y se almacena para su uso futuro. Cada vez que una dirección se almacena, se le agrega una marca horaria. Esto permite almacenar las direcciones durante un período de tiempo determinado. Cada vez que se hace referencia a una dirección o que se encuentra en CAM, recibe una nueva marca horaria. Las direcciones a las cuales no se hace referencia durante un determinado período de tiempo, se eliminan de la lista. Al eliminar direcciones antiguas, CAM mantiene una base de datos de envío precisa y funcional. La CAM sigue los procesos que se describen a continuación: 1. Si no se encuentra la dirección, el puente envía la trama por todos los puertos salvo el puerto por el cual se recibió la trama. Este proceso se denomina inundación. Es posible el puente haya borrado la dirección porque el software del puente se reinició recientemente, quedó sin entradas de direcciones en la tabla de direcciones o borró la dirección porque era demasiado antigua. Como el puente no sabe qué puerto utilizar para enviar la trama, la enviará por todos los puertos salvo el por donde recibió esta trama. Se sobreentiende que no es necesario enviarla al mismo segmento de cable por el que la recibió dado que todos los demás equipos o puentes en ese cable ya habrán recibido el paquete. 2. Si se encuentra la dirección en una tabla de direcciones y que la dirección está asociada con el puerto en el que se recibió la trama, ésta se descarta. El destino ya lo habrá recibido. 3. Si se encuentra la dirección en una tabla de direcciones y la dirección no está asociada al puerto que recibió la trama, el puente envía la trama por el puerto asociado con la dirección. Si se encuentra la dirección en una tabla de direcciones y la dirección no está asociada al puerto que recibió la trama, el puente envía la trama por el puerto asociado con la dirección. En la página siguiente se describe el proceso utilizado para filtrar tramas. 4.3.4 Proceso de filtrado de tramas por parte de switches y puentes

Page 222: Semestre1 Ccna

En esta página se explica de qué manera los switches y los puentes filtran las tramas. Durante esta lección, los términos "switch" y "puente" son sinónimos. La mayoría de los puentes pueden filtrar tramas basándose en cualquier campo de trama de Capa 2. Por ejemplo, se puede programar un puente para que rechace, sin enviar, todas las tramas que se originan desde una red en particular. Como la información de la capa de enlace a menudo incluye la referencia de un protocolo de capa superior, los puentes generalmente pueden hacer filtrado en base a este parámetro. Además, los filtros pueden ser útiles para manejar paquetes innecesarios de broadcast y de multicast. Una vez que el puente ha creado la tabla de direcciones local, está listo para operar. Cuando recibe la trama, examina la dirección destino. Si la dirección de la trama es local, el puente la pasa por alto. Si la trama tiene la dirección de otro segmento LAN, el puente copia la trama al segundo segmento. * Pasar por alto una trama se denomina filtrar. * Copiar la trama se denomina enviar. El filtrado básico mantiene las tramas locales como locales y envía las tramas remotas a otro segmento LAN. El proceso de filtrado en base a direcciones origen y destino específicas logra lo siguiente: * Evita que una estación envíe tramas fuera de su segmento LAN local * Detiene todas las tramas "externas" destinadas a una estación en particular, restringiendo por lo tanto a las demás estaciones de trabajo con las cuales puede comunicar. Ambos tipos de filtrado ofrecen algún control sobre el tráfico de internetwork y pueden aumentar la seguridad. La mayoría de los puentes Ethernet pueden filtrar las tramas de broadcast y multicast. Los puentes y los switches que pueden filtrar tramas en base a su dirección MAC también se pueden utilizar para filtrar tramas Ethernet con direcciones de multicast y broadcast. Este filtrado se logra a través de la implementación de redes de área local virtuales o VLAN. Las VLAN permiten a los administradores de red evitar la transmisión de mensajes de multicast y broadcast innecesarios a través de una red. A veces, es posible que un dispositivos funcione mal y envíe continuamente tramas de broadcast, que se copian por toda la red. Esto se denomina tormenta de broadcast y puede reducir significativamente el rendimiento de la red. Un puente que puede filtrar las tramas de broadcast hace que la tormenta de broadcast provoque daños menores. En la actualidad, los puentes también pueden filtrar según el tipo de protocolo de capa de red. Esto hace más difusa la demarcación entre los puentes y los routers. Un router opera en la capa de red mediante un protocolo de enrutamiento para dirigir el tráfico alrededor de la red. Un puente que implementa técnicas de filtrado avanzadas normalmente se denomina brouter. Los brouters filtran buscando la información de capa de red pero no usan un protocolo de enrutamiento. La siguiente página explicará cómo se utilizan los puentes para segmentar una LAN. 4.3.5 ¿Por qué segmentar las LAN? En esta página se explican las dos razones principales para segmentar una LAN. Hay dos motivos fundamentales para dividir una LAN en segmentos. La primera es aislar el tráfico entre segmentos. La segunda razón es lograr más ancho de banda por usuario mediante la creación de dominios de colisión más pequeños. Sin la segmentación LAN, las LAN más grandes que un pequeño grupo de trabajo podrían atascarse rápidamente con el tráfico y las colisiones. La segmentación LAN se puede implementar mediante el uso de puentes, switches y routers. Cada uno de estos dispositivos tiene ventajas y desventajas particulares. Con la adición de los dispositivos como puentes, switches y routers, la LAN está segmentada en una serie de dominios de colisión más pequeños. En el ejemplo, se han creado cuatro dominios de colisión. Al dividir redes de gran tamaño en unidades autónomas, los puentes y los switches ofrecen varias ventajas. Un puente, o switch, reduce el tráfico que experimentan los dispositivos en todos los segmentos conectados ya que sólo se envía un determinado porcentaje de tráfico. Los puentes y switches reducen el dominio de colisión pero no el dominio de broadcast. Cada interfaz en el router se conecta a una red distinta. Por lo tanto, la inserción del router en una LAN creará pequeños dominios de colisión y dominios de broadcast más pequeños. Esto sucede porque los routers no envían los broadcasts a menos que sean programados para hacerlo. Un switch emplea "microsegmentación" para reducir el dominio de colisión en una LAN. El switch hace esto creando segmentos de red dedicados o conexiones punto a punto. El switch conecta estos segmentos en una

Page 223: Semestre1 Ccna

red virtual dentro del switch. Este circuito de red virtual existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es necesario y se establece dentro del switch. En la siguiente página se analiza la microsegmentación. 4.3.6 Implementación de la microsegmentación En esta página se explican las funciones de un switch en una LAN como resultado de la microsegmentación. Los switches de LAN se consideran puentes multipuerto sin dominio de colisión debido a la microsegmentación. Los datos se intercambian a altas velocidades conmutando la trama hacia su destino. Al leer la información de Capa 2 de dirección MAC destino, los switches pueden realizar transferencias de datos a altas velocidades de forma similar a los puentes. Esto provoca niveles de latencia bajos y una alta velocidad para el envío de tramas. La conmutación Ethernet aumenta el ancho de banda disponible en la red. Esto se hace creando segmentos de red dedicados, o conexiones punto a punto, y conectando estos segmentos en una red virtual dentro del switch. Este circuito de red virtual existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es necesario y se establece dentro del switch. Aunque el switch LAN reduce el tamaño de los dominios de colisión, todos los hosts conectados al switch pertenecen al mismo dominio de broadcast. Por lo tanto, un broadcast emitido de un nodo seguirá siendo percibido por todos los demás nodos conectados a través del switch LAN. Los switches son dispositivos de enlace de datos que, al igual que los puentes, permiten la interconexión de múltiples segmentos físicos de LAN para formar una sola red de mayor tamaño. De forma similar a los puentes, los switches envían e inundan el tráfico basándose en las direcciones MAC. Dado que la conmutación se ejecuta en el hardware en lugar del software, es significativamente más veloz. Cada puerto de switch puede considerarse como un micropuente que actúa como un puente distinto y ofrece el ancho de banda completo del medio a cada host. En la siguiente página se analizan las colisiones. 4.3.7 Switches y dominios de colisión En esta página se estudian las colisiones, que son una de las principales desventajas de las redes Ethernet 802.3. Las colisiones se producen cuando dos hosts transmiten tramas de forma simultánea. Cuando se produce una colisión, las tramas transmitidas se dañan o se destruyen en la colisión. Los hosts transmisores detienen la transmisión por un tiempo aleatorio, conforme a las reglas de Ethernet 802.3 de CSMA/CD. El exceso de colisiones puede hacer que las redes resulten improductivas. El área de red donde se originan las tramas y se producen las colisiones se denomina dominio de colisión. Todos los entornos de medios compartidos son dominios de colisión. Cuando un host se conecta a un puerto de switch, el switch crea una conexión dedicada. Esta conexión se considera como un dominio de colisión individual. Por ejemplo, si un switch de doce puertos tiene un dispositivo conectado a cada puerto, entonces se crean doce dominios de colisión. Un switch crea una tabla de conmutación al aprender las direcciones MAC de los hosts que están conectados a cada puerto de switch. Cuando dos hosts conectados desean comunicarse entre sí, el switch analiza la tabla de conmutación y establece una conexión virtual entre los puertos. El circuito virtual se mantiene hasta que la sesión se termina. En la Figura , el Host B y el Host C desean comunicarse entre sí. El switch crea la conexión virtual, conocida como microsegmento. El microsegmento se comporta como una red de sólo dos hosts, un host que envía y otro que recibe, y se utiliza el máximo ancho de banda disponible. Los switches reducen las colisiones y aumentan el ancho de banda en los segmentos de red ya que ofrecen un ancho de banda dedicado para cada segmento de red. En la siguiente página se analizan tres métodos de transmisión de datos en una red. 4.3.8 Switches y dominios de broadcast En esta página se describen tres métodos de transmisión de datos que se utilizan en una red. La forma de comunicación más común se realiza por transmisión unicast. En una transmisión unicast, un transmisor intenta comunicarse con un receptor. Otra forma de comunicarse se conoce como transmisión multicast. La transmisión multicast se produce cuando

Page 224: Semestre1 Ccna

un transmisor trata de comunicarse con sólo un subconjunto o un grupo del segmento. La última forma de comunicarse es envío en broadcast. La transmisión en broadcast se produce cuando un transmisor trata de comunicarse con todos los receptores de la red. La estación servidora envía un mensaje y todos los que se encuentran en el segmento reciben el mensaje. Cuando un dispositivo desea enviar un broadcast de Capa 2, la dirección MAC destino en la trama se establece en sólo unos. Una dirección MAC de sólo unos es FF:FF:FF:FF:FF:FF en números hexadecimales. Al configurar el destino en este valor, todos los dispositivos aceptarán y procesarán la trama de broadcast. El dominio de broadcast de la Capa 2 se conoce como dominio MAC de broadcast. El dominio MAC de broadcast incluye todos los dispositivos de la LAN que reciben broadcasts de trama a través de un host a todas las demás máquinas en la LAN. El switch es un dispositivo de la Capa 2 cuando un switch recibe un broadcast, lo envía por cada puerto del switch salvo por el puerto receptor. Cada dispositivo adjunto debe procesar la trama de broadcast. Esto lleva a la reducción de la eficiencia de red, dado que se utiliza el ancho de banda disponible con propósitos de enviar un broadcast. Cuando se conectan dos switches, el dominio de broadcast aumenta. En este ejemplo, una trama de broadcast se envía a todos los puertos conectados al Switch 1. El Switch 1 está conectado al Switch 2. La trama se propaga a todos los dispositivos conectados al Switch 2. El resultado general es una reducción del ancho de banda disponible. Esto ocurre porque todos los dispositivos en el dominio de broadcast deben recibir y procesar la trama de broadcast. Los routers son dispositivos de la Capa 3 los routers no propagan los broadcasts. Los routers se utilizan para segmentar los dominios de colisión y de broadcast. En la siguiente página se explica cómo se conecta una estación de trabajo a una LAN. 4.3.9 Comunicación entre los switches y la estación de trabajo En esta página se explica cómo los switches obtienen información sobre las estaciones de trabajo en una LAN. Cuando una estación de trabajo se conecta a una LAN, no se preocupa por los demás dispositivos que estén conectados a los medios de la LAN. La estación de trabajo simplemente transmite las tramas de datos a los medios de la red mediante una NIC. La estación de trabajo se puede conectar directamente a otra estación de trabajo con un cable de interconexión cruzada. Los cables de interconexión cruzada se utilizan para conectar los siguientes dispositivos: * Estación de trabajo a estación de trabajo * Switch a switch * Switch a hub * Hub a hub * Router a router * Router a PC Los cables de conexión directa se utilizan para conectar los siguientes dispositivos: * Switch a router * Switch a estación de trabajo o servidor * Hub a estación de trabajo o servidor Los switches son dispositivos de la Capa 2 que usan la inteligencia para aprender las direcciones MAC de los dispositivos conectados a los puertos del switch. Estos datos se introducen en una tabla de conmutación. Una vez que la tabla se completa, el switch puede leer la dirección MAC destino de una trama de datos que llega a un puerto y enviarla inmediatamente. Hasta que un dispositivo no empieza a transmitir, el switch no sabe su dirección MAC. Los switches ofrecen una escalabilidad significativa en una red y se pueden conectar directamente. La Figura muestra una situación de transmisión de trama que utiliza una red multiswitch. Con esta página se concluye la lección. En la siguiente página se resumen los puntos principales de este módulo. Resumen En esta página se resumen los temas analizados en este módulo.

Page 225: Semestre1 Ccna

Ethernet es la arquitectura LAN más común y fue diseñada para transmitir datos entre los dispositivos de una red. Originalmente, Ethernet era una tecnología half duplex. Mediante la tecnología half-duplex, un host podía transmitir o recibir directamente pero no al mismo tiempo. Cuando dos o más hosts Ethernet transmiten al mismo tiempo en un medio compartido, el resultado es una colisión. El tiempo que tarda una trama o a un paquete en viajar de la estación origen al destino final se conoce como latencia o retardo. Las tres fuentes de latencia incluyen el retardo NIC, el retardo de propagación real y el retardo debido a dispositivos de red específicos. El tiempo de bit es la unidad básica de tiempo en la cual se puede enviar un solo bit. Debe de existir un período mínimo durante el cual el bit está activado o desactivado para que el dispositivo pueda reconocer un uno o un cero binario. La atenuación significa que una señal se debilita a medida que recorre la red. Esto limita la distancia que una LAN puede abarcar. Un repetidor puede extender la distancia de una LAN pero también tendrá un efecto negativo sobre el rendimiento general de la LAN. La transmisión full-duplex entre estaciones se logra por medio de conexiones Ethernet punto a punto. La transmisión full-duplex ofrece un entorno de transmisión libre de colisiones. Ambas estaciones pueden transmitir y recibir al mismo tiempo, no existen negociaciones para el ancho de banda. La infraestructura de cable existente se puede utilizar siempre y cuando el medio cumpla con los estándares Ethernet mínimos. La segmentación divide una red en unidades más pequeñas para reducir la congestión de la red y mejorar la seguridad. El método de acceso CSMA/CD en cada segmento mantiene el tráfico entre los usuarios. La segmentación con un puente de Capa 2 es transparente para otros dispositivos de red pero la latencia aumenta significativamente. Cuanto más trabajo realiza un dispositivo de red, más latencia podrá introducir el dispositivo en la red. Los routers ofrecen segmentación de redes pero pueden agregar un factor de latencia de 20% a 30% sobre una red conmutada. Esta mayor latencia se debe a que el router opera en la capa de red y usa la dirección IP para determinar la mejor ruta al nodo de destino. Un switch puede segmentar una LAN en microsegmentos que disminuyen el tamaño de los dominios de colisión. Sin embargo, todos los hosts conectados al switch siguen estando en el mismo dominio de broadcast. La conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token Ring y la Interfaz de datos distribuida por fibra (FDDI). La conmutación es el proceso de recibir una trama que llega de una interfaz y enviarla a través de otra interfaz. Los routers utilizan la conmutación de Capa 3 para enrutar un paquete. Los switches utilizan conmutación de Capa 2 para enviar tramas. Un switch simétrico ofrece conexiones conmutadas entre puertos con el mismo ancho de banda. Un switch LAN asimétrico proporciona conexiones de conmutación entre puertos con distinto ancho de banda por ejemplo, una combinación de puertos de 10 Mbps y de 100 Mbps. Un búfer de memoria es un área de la memoria donde el switch almacena datos. Puede utilizar dos métodos para enviar tramas, el búfer de memoria basado en puerto y el búfer de memoria compartida. Existen dos modos que se utilizan para enviar tramas. El almacenamiento y envío recibe la trama completa antes de enviarla mientras que el método de corte envía la trama a medida que la va recibiendo, reduciendo de esta manera la latencia. Conmutación rápida y libre de fragmentos son dos formas de envío de método de corte. Módulo 5: Switches Descripción general La tarea de diseñar una red puede ser una tarea fascinante e implica mucho más que simplemente conectar dos computadoras entre sí. Una red requiere muchas funciones para que sea confiable, escalable y fácil de administrar. Para diseñar redes confiables, fáciles de administrar, y escalables, los diseñadores de red deben darse cuenta de que cada uno de los componentes principales de una red tiene requisitos de diseño específicos. El diseño de red se ha vuelto cada vez más difícil a pesar de los avances que se han logrado a nivel del rendimiento de los equipos y las capacidades de los medios. El uso de distintos tipos de medios y de las LAN que se interconectan con otras redes agrega complejidad al entorno de red. Los buenos diseños de red permiten mejorar el rendimiento y reducir las dificultades asociadas con el crecimiento y la evolución de la red. Una LAN abarca una sola habitación, un edificio o un conjunto de edificios que se encuentran cerca unos de otros. Un grupo de instalaciones cuyos edificios se encuentran ubicados a corta distancia unos de otros y que pertenecen a una sola organización se conoce como campus. Los siguientes aspectos de la red deben ser identificados antes de diseñar una LAN más amplia: * Una capa de acceso que conecte los usuarios finales a la LAN * Una capa de distribución que ofrezca conectividad basada en políticas entre las LAN de usuario final * Una capa núcleo que ofrezca la conexión más rápida que sea posible entre los distintos puntos de distribución Cada una de estas capas de diseño de LAN requiere los switches más adecuados para realizar tareas

Page 226: Semestre1 Ccna

específicas. Las características, las funciones y las especificaciones técnicas de cada switch varían en función de la capa de diseño de la LAN para la cual el switch fue creado. Para lograr el mejor rendimiento de la red, es importante comprender la función de cada capa y luego elegir el switch que mejor se adecua a los requisitos de la capa. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: * Describir los cuatro principales objetivos del diseño de LAN * Enumerar las consideraciones claves en el diseño de la LAN * Comprender los pasos en el diseño sistemático de la LAN * Comprender los problemas de diseño relacionados con la estructura o la topología de la LAN de las Capas 1 a 3 * Describir el modelo de diseño de tres capas * Identificar las funciones de cada capa del modelo de tres capas. * Enumerar los switches de capa de acceso Cisco y sus funciones * Enumerar los switches de capa de distribución Cisco y sus funciones * Enumerar los switches de capa núcleo Cisco y sus funciones 5.1.1 Objetivos del diseño de LAN El primer paso en el diseño de una LAN es establecer y documentar los objetivos de diseño. Estos objetivos son específicos para cada organización o situación. Esta página describirá los requisitos de la mayoría de los diseños de red: * Funcionalidad: La red debe funcionar. Es decir, debe permitir que los usuarios cumplan con sus requisitos laborales. La red debe suministrar conectividad de usuario a usuario y de usuario a aplicación con una velocidad y confiabilidad razonables. * Escalabilidad: La red debe poder aumentar de tamaño. Es decir, el diseño original debe aumentar de tamaño sin que se produzcan cambios importantes en el diseño general. * Adaptabilidad: La red debe diseñarse teniendo en cuenta futuras tecnologías. La red no debería incluir elementos que limiten la implementación de nuevas tecnologías a medida que éstas van apareciendo. * Facilidad de administración: La red debe estar diseñada para facilitar su monitoreo y administración, con el objeto de asegurar una estabilidad de funcionamiento constante. La Actividad de Medios Interactivos ayudará a los estudiantes a familiarizarse con los cuatro objetivos de diseño principales En la página siguiente se analizan algunas de las consideraciones del diseño de una LAN. 5.1.2 Consideraciones del diseño de una LAN En esta página se describen algunos factores importantes a considerar en el momento de diseñar una LAN. Muchas organizaciones han actualizado sus LAN en la actualidad o planean implementar nuevas LAN. Esta expansión en el diseño de la LAN se debe al desarrollo de tecnologías de alta velocidad como por ejemplo el Modo de Transferencia Asíncrona (ATM). Esta expansión también se debe a arquitecturas LAN complejas que utilizan conmutación de LAN y LAN virtuales (VLAN). Para maximizar el ancho de banda y el rendimiento disponible de la LAN, deberán tenerse en cuenta las siguientes consideraciones de diseño de LAN: * Función y ubicación de los servidores * Temas relacionados con los dominios de colisión * Temas de segmentación * Temas relacionados con los dominios de broadcast Los servidores permiten que los usuarios de red se comuniquen y compartan archivos, impresoras y servicios de aplicación. Los servidores por lo general no operan como estaciones de trabajo. Los servidores ejecutan sistemas operativos especializados como por ejemplo NetWare, Windows NT, UNIX y Linux. Cada servidor por lo general está dedicado a una función, por ejemplo, correo electrónico o archivos compartidos. Los servidores se pueden categorizar en servidores empresariales o servidores de grupo de trabajo. Un servidor empresarial soporta todos los usuarios en la red ofreciendo servicios tales como correo electrónico o Sistema de Nombres de Dominio (DNS). El correo electrónico o el DNS son servicios que cualquier persona de una organización necesita porque son funciones centralizadas. Un servidor de grupo de trabajo soporta un conjunto específico de usuarios y ofrece servicios como por ejemplo el procesamiento de texto y capacidades de archivos compartidos. Como se ve en la Figura , los servidores empresariales deben colocarse en el servicio de distribución principal

Page 227: Semestre1 Ccna

(MDF). Siempre que sea posible, el tráfico hacia los servidores empresariales sólo tiene que viajar hacia el MDF y no transmitirse a través de otras redes. Sin embargo, algunas redes utilizan un núcleo enrutado o incluso pueden tener un servidor central para los servidores empresariales. En estos casos, el tráfico de red viaja a través de otras redes y por lo general no se puede evitar. Lo ideal es que los servidores de grupo de trabajo se coloquen en el servicio de distribución intermedia (IDF) más cercano a los usuarios que acceden a las aplicaciones en estos servidores. Esto permite al tráfico viajar por la infraestructura de red hacia un IDF y no afecta a los demás usuarios en ese segmento de red. Los switches LAN de Capa 2 ubicados en el MDF y los IDF deben tener 100 Mbps o más asignados para estos servidores. Los nodos Ethernet utilizan CSMA/CD. Cada nodo debe disputar con otros nodos para acceder al medio compartido o al dominio de colisión. Si dos nodos transmiten al mismo tiempo, se produce una colisión. Cuando se produce una colisión la trama transmitida se elimina y se envía una señal de embotellamiento a todos los nodos del segmento. Los nodos esperan un período de tiempo al azar y luego vuelven a enviar los datos. Las colisiones excesivas pueden reducir el ancho de banda disponible de un segmento de red a treinta y cinco o cuarenta por ciento del ancho de banda disponible La segmentación se realiza cuando un sólo dominio de colisión se divide en dominios de colisión más pequeños. Los dominios de colisión más pequeños reducen la cantidad de colisiones en un segmento LAN y permiten una mayor utilización del ancho de banda. Los dispositivos de la Capa 2 como por ejemplo puentes y switches se pueden utilizar para segmentar una LAN. Los routers pueden lograr esto a nivel de la Capa 3. Se produce un broadcast cuando el control de acceso al medio destino (MAC) se configura en FF-FF-FF-FF-FF-FF. Un dominio de broadcast se refiere al conjunto de dispositivos que reciben una trama de datos de broadcast desde cualquier dispositivo dentro de este conjunto. Todos los hosts que reciben una trama de datos de broadcast deben procesarla. Este proceso consume los recursos y el ancho de banda disponible del host. Los dispositivos de Capa 2 como los puentes y switches reducen el tamaño de un dominio de colisión. Estos dispositivos no reducen el tamaño del dominio de broadcast. Los routers reducen el tamaño del dominio de colisión y el tamaño del dominio de broadcast en la Capa 3. En la página siguiente se explica la metodología a seguir para el diseño de una LAN. 5.1.3 Metodología de diseño de una LAN Para que una LAN sea efectiva y satisfaga las necesidades de los usuarios, se la debe diseñar e implementar de acuerdo con una serie planificada de pasos sistemáticos. En esta página se describen los siguientes pasos: * Reunir requisitos y expectativas * Analizar requisitos y datos * Diseñar la estructura o topología de las Capas 1, 2 y 3 de la LAN * Documentar la implementación física y lógica de la red El proceso destinado a recabar información ayuda a aclarar e identificar cualquier problema de red actual. Esta información incluye el historial de la organización y su estado actual, el crecimiento proyectado, las políticas operativas y los procedimientos de administración, los sistemas y procedimientos de oficina y los puntos de vista de las personas que utilizarán las LAN. Deberán formularse las siguientes preguntas al reunir la información: * ¿Quiénes son las personas que utilizarán la red? * ¿Cuál es el nivel de capacitación de estas personas? * ¿Cuáles son sus actitudes con respecto a las computadoras y las aplicaciones informáticas? * ¿Cuál es el nivel de desarrollo de las políticas documentadas organizacionales? * ¿Algunos de los datos han sido declarados críticos para el trabajo? * ¿Algunas operaciones han sido declaradas críticas para el trabajo? * ¿Cuáles son los protocolos que están permitidos en la red? * ¿Sólo se soportan determinados hosts de escritorio? * ¿Quién es responsable de las direcciones, la denominación, el diseño de topología y la configuración de las LAN? * ¿Cuáles son los recursos humanos organizacionales, de hardware y de software? * ¿Cómo se vinculan y comparten estos recursos actualmente? * ¿Cuáles son los recursos financieros de los que dispone la organización? La documentación de los requisitos permite una estimación informada de los costos y líneas temporales para la implementación de diseño de LAN. Es importante comprender los problemas de rendimiento de cualquier red. La disponibilidad mide la utilidad de la red. A continuación, presentamos algunas de las muchas cosas que afectan la disponibilidad: * Tasa de transferencia * Tiempo de respuesta * Acceso a los recursos

Page 228: Semestre1 Ccna

Cada cliente tiene una definición distinta de lo que es la disponibilidad. Por ejemplo, es posible que sea necesario transportar datos de voz y de vídeo a través de la red. Estos servicios requieren un ancho de banda mucho mayor que el que está disponible en la red o el backbone. Para aumentar la disponibilidad, se pueden agregar más recursos pero esto aumenta el costo de la red. Los diseños de red deben suministrar la mayor disponibilidad posible al menor costo posible. El siguiente paso en el diseño de red es analizar los requisitos de la red y de sus usuarios. Las necesidades del usuario de la red cambian constantemente. A medida que se introducen más aplicaciones de red basadas en voz y vídeo, la presión por aumentar el ancho de banda de la red se torna también más intensa. Una LAN que no puede suministrar información veloz y precisa a los usuarios no tiene ninguna utilidad. Se deben tomar medidas para asegurar que se cumplan los requisitos de información de la organización y de sus trabajadores. El siguiente paso es decidir cuál será la topología LAN general que satisface los requisitos del usuario. En este currículum, nos concentraremos en la topología en estrella y la topología en estrella extendida. La topología en estrella y la topología en estrella extendida usan la tecnología CSMA/CD Ethernet 802.3. La topología en estrella CSMA/CD es la configuración dominante en la industria. El diseño de topología LAN se puede dividir en las tres siguientes categorías únicas del modelo de referencia OSI: * Capa de red * Capa de enlace de datos * Capa física El paso final en la metodología de diseño LAN es documentar la topología física y lógica de la red. La topología física de la red se refiere a la forma en que distintos componentes de LAN se conectan entre sí. El diseño lógico de la red se refiere al flujo de datos que hay dentro de una red. También se refiere a los esquemas de nombre y dirección que se utilizan en la implementación de la solución de diseño LAN. A continuación, presentamos documentación de diseño LAN importante: * Mapa de topología de capa OSI * Mapa lógico de LAN * Mapa físico de la LAN * Planes de distribución * Mapa lógico de VLAN * Mapa lógico de Capa 3 * Mapas de dirección En la página siguiente se analizan algunos temas de diseño de la Capa 1. 5.1.4 Diseño de Capa 1 En esta página se enseña a los estudiantes cómo diseñar la topología de Capa 1 de una red. Uno de los componentes más importantes a considerar en el diseño de red son los cables. En la actualidad, la mayor parte del cableado LAN se basa en la tecnología Fast Ethernet. Fast Ethernet es la tecnología Ethernet que se ha actualizado de 10 Mbps a 100 Mbps y tiene la capacidad de utilizar la funcionalidad full-duplex. Fast Ethernet utiliza la topología de bus lógica orientada a broadcast Ethernet estándar de 10BASE-T, y el método CSMA/CD para direcciones MAC. Los temas de diseño en la Capa 1 incluyen el tipo de cableado que se debe utilizar (normalmente cable de cobre o fibra óptica) y la estructura general del cableado. Esto también incluye el estándar TIA/EIA-568-A para la configuración y conexión de los esquemas de cableado. Los tipos de medios de la Capa 1 incluyen el par trenzado no blindado (UTP) o el par trenzado blindado (STP) Categoría 5, 5e o 6 10/100BASE-TX y el cable de fibra óptica 100BaseFX. Deberá realizarse una evaluación minuciosa de los puntos fuertes y debilidades de las topologías. Una red tiene la misma efectividad que la de los cables que se utilizan. Los temas de Capa 1 provocan la mayoría de los problemas de red. Se deberá llevar a cabo una auditoria de cableado cuando se planee realizar cambios significativos en una red. Esto ayuda a identificar las áreas que requieren actualizaciones y nuevo cableado. En todos los diseños de cable se debe utilizar cable de fibra óptica en el backbone y en los conductos verticales. El cable UTP Categoría 5e se deberá utilizar en los tendidos horizontales. La actualización de cable debe tener prioridad sobre cualquier otro cambio necesario. Las empresas también deberán asegurarse de que estos sistemas se implementen de conformidad con estándares de la industria bien definidos como por ejemplo las especificaciones TIA/EIA-568-A.

Page 229: Semestre1 Ccna

El estándar TIA/EIA-568-A especifica que cada dispositivo conectado a la red debe estar conectado a una ubicación central a través de cableado horizontal. Esto se aplica si todos los hosts que necesitan acceso a la red se encuentran dentro de un límite de distancia de 100 metros (328 pies) para el UTP Ethernet Categoría 5e. En una topología en estrella simple con un solo armario del cableado, el MDF incluye uno o más paneles de conexión cruzada horizontal (HCC). Los cables de conexión HCC se utilizan para conectar el cableado horizontal de Capa 1 con los puertos del switch LAN de Capa 2. El puerto uplink del switch LAN, basado en el modelo, está conectado al puerto Ethernet del router de Capa 3 con un cable de conexión. En este punto, el host final tiene una conexión física completa hacia el puerto del router. Cuando los hosts de las redes de mayor tamaño están ubicados fuera del límite de 100 metros (328ft.) para el UTP Categoría 5e, se requiere más de un armario de cableado. La presencia de varios armarios de cableado implica la existencia de múltiples áreas de captación. Los armarios secundarios de cableado se denominan IDF. Los estándares TIA/EIA -568-A especifican que los IDF se deben conectar al MDF utilizando cableado vertical, también denominado cableado backbone. Se utiliza un cable de conexión cruzada vertical (VCC) para interconectar los diversos IDF con el MDF central. Se utiliza normalmente el cable de fibra óptica debido a que las longitudes del cable vertical son generalmente más largas que el límite de 100metros (328 pies) del cable UTP Categoría 5e. El diagrama lógico es el modelo de topología de red sin todos los detalles de la instalación exacta del cableado. El diagrama lógico es el mapa de ruta básico de la LAN que incluye los siguientes elementos: * Especificar las ubicaciones e identificaciones de los armarios de cableado MDF e IDF. * Documentar el tipo y la cantidad de cables que se utilizan para interconectar los IDF con el MDF. * Documentar la cantidad de cables de repuesto que están disponibles para aumentar el ancho de banda entre los armarios de cableado. Por ejemplo, si el cableado vertical entre el IDF 1 y el MDF se ejecuta a un 80% de su uso, se pueden utilizar dos pares adicionales para duplicar la capacidad. * Proporcionar documentación detallada sobre todos los tendidos de cable, los números de identificación y en cuál de los puertos del HCC o VCC termina el tendido de cableado. El diagrama lógico es esencial para diagnosticar los problemas de conectividad de la red. Si la habitación 203 pierde conectividad a la red, el plan de distribución muestra que la habitación tiene un tendido de cable 203-1, que se termina en el puerto 13 de HCC1. Se pueden utilizar analizadores de cables para determinar las fallas de la Capa 1. De haber alguna, uno de los dos tendidos se puede utilizar para reestablecer la conectividad y ofrecer tiempo para diagnosticar las fallas del tendido 203-1. En la página siguiente se analizan algunos temas de diseño de la Capa 2. 5.1.5 El diseño de Capa 2 En esta página se analizan algunas consideraciones de diseño importantes de la Capa 2. El propósito de los dispositivos de la Capa 2 en la red es conmutar tramas basadas en sus direcciones MAC destino, ofrecer detección de errores y reducir la congestión en la red. Los dos dispositivos de networking de Capa 2 más comunes son los puentes y switches LAN. Los dispositivos de la Capa 2 determinan el tamaño de los dominios de colisión. Las colisiones y el tamaño de los dominios de colisión son dos factores que afectan de forma negativa el rendimiento de una red. La microsegmentación de la red reduce el tamaño de los dominios de colisión y reduce las colisiones. La microsegmentación se implementa a través del uso de puentes y switches. El objetivo es aumentar el rendimiento de un grupo de trabajo o de un backbone. Los switches se pueden utilizar junto con hubs para suministrar el nivel de rendimiento adecuado para distintos usuarios y servidores. Otra característica importante de un switch LAN es la forma en que puede asignar ancho de banda por puerto. Esto permite ofrecer más ancho de banda para el cableado vertical, los uplinks y los servidores. Este tipo de conmutación se conoce como conmutación asimétrica. La conmutación asimétrica proporciona conexiones de conmutación entre puertos con distinto ancho de banda por ejemplo, una combinación de puertos de 10 Mbps y de 100 Mbps. La conmutación simétrica ofrece conexiones conmutadas entre puertos de ancho de banda similar. La capacidad deseada de un tendido de cable vertical es mayor que la de un tendido de cable horizontal. La instalación de un switch LAN en MDF e IDF, permite al tendido de cable vertical administrar el tráfico de datos que se transmiten desde el MDF hasta el IDF. Los tendidos horizontales entre el IDF y las estaciones de trabajo utilizan UTP Categoría 5e. Una derivación de cableado horizontal debería ser superior a 100 metros (328 pies). En un entorno normal, 10 Mbps es lo adecuado para la derivación del cableado horizontal. Los switches LAN asimétricos permiten la mezcla de los puertos 10-Mbps y 100-Mbps en un solo switch. La nueva tarea consiste en determinar el número de puertos de 10 Mbps y 100 Mbps que se necesitan en el MDF y cada IDF. Esto se logra revisando los requisitos del usuario para la cantidad de derivaciones de cable horizontal por habitación y la cantidad de derivaciones totales en cualquier área de captación. Esto incluye la cantidad de tendidos de cable vertical. Por ejemplo, digamos que los requisitos para el usuario establecen que

Page 230: Semestre1 Ccna

se deben instalar cuatro tendidos de cable horizontal en cada habitación. El IDF que brinda servicios a un área de captación abarca 18 habitaciones. Por lo tanto, cuatro derivaciones en cada una de las 18 habitaciones es igual a 4x18 ó 72 puertos de switch LAN. El tamaño de un dominio de colisión se determina por la cantidad de hosts que se conectan físicamente a cualquier puerto en el switch. Esto también afecta la cantidad de ancho de banda de la red que está disponible para cualquier host. En una situación ideal, hay solamente un host conectado a un puerto de switch LAN. El dominio de colisión consistiría solamente en el host origen y el host destino. El tamaño del dominio de colisión sería de dos. Debido al pequeño tamaño de este dominio de colisión, prácticamente no se producen colisiones cuando alguno de los dos hosts se comunica con el otro. Otra forma de implementar la conmutación LAN es instalar hubs de LAN compartidos en los puertos del switch. Esto permite a varios hosts conectarse a un solo puerto de switch. Todos los hosts conectados al hub de LAN compartido comparten el mismo dominio de colisión y el mismo ancho de banda. Esto significa que las colisiones podrían producirse con más frecuencia. Los hubs de medios compartidos, generalmente, se utilizan en un entorno de switch LAN para crear más puntos de conexión al final de los tendidos de cableado horizontal. Los hubs de medios compartidos, generalmente, se utilizan en un entorno de switch LAN para crear más puntos de conexión al final de los tendidos de cableado horizontal. Ésta es una situación aceptable pero que debe tomarse con precaución. Los dominios de colisión deben mantenerse pequeños y el ancho de banda hacia el host se debe suministrar de acuerdo con las especificaciones establecidas en la fase de requisitos del proceso de diseño de red. En la página siguiente se analizan algunos temas de diseño de la Capa 3. 5.1.6 Diseño de Capa 3 En esta página se analizan algunas consideraciones de diseño de la Capa 3. Un router es un dispositivo de Capa 3 que se considera como uno de los dispositivos más poderosos en la topología de red. Los dispositivos de la Capa 3 se pueden utilizar para crear segmentos LAN únicos. Los dispositivos de Capa 3 permiten la comunicación entre los segmentos basados en las direcciones de Capa 3, como por ejemplo direcciones IP. La implementación de los dispositivos de Capa 3 permite la segmentación de la LAN en redes lógicas y físicas exclusivas. Los routers también permiten la conectividad a las WAN como, por ejemplo, Internet. El enrutamiento de Capa 3 determina el flujo de tráfico entre los segmentos de red física exclusivos basados en direcciones de Capa 3. Un router envía paquetes de datos basados en direcciones destino. Un router no envía broadcasts basados en LAN, tales como las peticiones ARP. Por lo tanto, la interfaz del router se considera como el punto de entrada y salida de un dominio de broadcast y evita que los broadcasts lleguen hasta los otros segmentos LAN. Los routers ofrecen escalabilidad dado que sirven como cortafuegos para los broadcasts y pueden dividir las redes en subredes, basadas en direcciones de Capa 3. Para decidir si es conveniente utilizar routers o switches, es importante determinar el problema que necesita resolverse. Si el problema está relacionado con el protocolo en lugar de temas de contención, entonces, los routers son una solución apropiada. Los routers solucionan los problemas de broadcasts excesivos, protocolos que no son escalables, temas de seguridad y direccionamiento de la capa de red. Sin embargo, los routers son más caros y más difíciles de configurar que los switches. La Figura muestra un ejemplo de implementación con múltiples redes. Todo el tráfico de datos desde la Red 1 destinado a la Red 2 debe atravesar el router. En esta implementación, hay dos dominios de broadcast. Las dos redes tienen esquemas de direccionamiento de red de Capa 3 únicos. Se pueden crear varias redes físicas si el cableado horizontal y el cableado vertical se conectan al switch de Capa 2 apropiado. Esto se puede hacer con cables de conexión. Esta implementación también ofrece un diseño de seguridad sólido dado que todo el tráfico que llega a y que sale de la LAN pasa a través del router. Una vez que se desarrolla el esquema de direccionamiento IP para un cliente, éste se debe documentar con precisión. Se debe establecer una convención estándar para el direccionamiento de hosts importantes en la red. Este esquema de direccionamiento debe ser uniforme en toda la red. Los mapas de direccionamiento ofrecen una instantánea de la red. Los mapas físicos de la red ayudan a diagnosticar las fallas de la red. La implementación de las VLAN combina las conmutación de Capa 2 y las tecnologías de enrutamiento de Capa 3 para limitar tanto los dominios de colisión como los dominios de broadcast. Las VLAN también ofrecen seguridad con la creación de grupos VLAN que se comunican con otras VLAN a través de routers. Una asociación de puerto físico se utiliza para implementar la asignación de VLAN. Los puertos P1, P4 y P6 han sido asignados a la VLAN 1. La VLAN 2 tiene los puertos P2, P3 y P5. La comunicación entre la VLAN1 y la

Page 231: Semestre1 Ccna

VLAN2 se puede producir solamente a través del router. Esto limita el tamaño de los dominios de broadcast y utiliza el router para determinar si la VLAN 1 puede comunicarse con la VLAN 2. Con esta página se concluye la lección. En la lección siguiente se describen los switches de LAN. En la primera página se describe el modelo de diseño jerárquico. 5.2.1 Descripción general de las LAN conmutadas y la capa de acceso La construcción de una LAN que satisfaga las necesidades tanto de las organizaciones medianas como grandes tiene muchas más probabilidades de ser exitosa si se utiliza un modelo de diseño jerárquico. En esta página se analizan las tres capas del modelo de diseño jerárquico: * La capa de acceso proporciona a los usuarios de grupos de trabajo acceso a la red. * La capa de distribución brinda conectividad basada en políticas. * La capa núcleo proporciona transporte óptimo entre sitios. A la capa núcleo a veces se la denomina backbone. Este modelo jerárquico se aplica a cualquier diseño de red. Es importante darse cuenta de que estas tres capas pueden existir en entidades físicas claras y definidas. Sin embargo, éste no es un requisito. Estas capas se definen para ayudar a lograr un diseño de red exitoso y representan la funcionalidad que debe existir en una red. La capa de acceso es el punto de entrada para las estaciones de trabajo y los servidores de usuario a la red. En un campus LAN el dispositivo utilizado en la capa de acceso puede ser un switch o un hub. Si se utiliza un hub, se comparte el ancho de banda. Si se utiliza un switch, entonces el ancho de banda es dedicado. Si una estación de trabajo o un servidor se conecta directamente a un puerto de switch, entonces el ancho de banda completo de la conexión al switch está disponible para la computadora conectada. Si un hub se conecta a un puerto de switch, el ancho de banda se comparte entre todos los dispositivos conectados al hub. Las funciones de la capa de acceso también incluyen el filtrado y la microsegmentación de la capa MAC. El filtrado de la capa MAC permite a los switches dirigir las tramas sólo hacia el puerto de switch que se encuentra conectado al dispositivo destino. El switch crea pequeños segmentos de Capa 2 denominados microsegmentos. El dominio de colisión puede ser tan pequeño como el equivalente a dos dispositivos. Los switches de Capa 2 se utilizan en la capa de acceso. La página siguiente decribe los switches de capa de acceso. Vínculos de Web 5.2.2 Switches de capa de acceso En esta página se explican las funciones de los switches de la capa de acceso. Los switches de la capa de acceso operan en la Capa 2 del modelo OSI y ofrecen servicios como el de asociación de VLAN. El principal propósito de un switch de capa de acceso es permitir a los usuarios finales el acceso a la red. Un switch de capa de acceso debe proporcionar esta funcionalidad con bajo costo y una alta densidad de puerto. Los siguientes switches Cisco se utilizan comúnmente en la capa de acceso: * Serie Catalyst 1900 * Serie Catalyst 2820 * Serie Catalyst 2950 * Serie Catalyst 4000 * Serie Catalyst 5000 El switch de las series Catalyst 1900 ó 2820 es un dispositivo de acceso efectivo para redes de campus medias o pequeñas. El switch serie Catalyst 2950 ofrece acceso efectivo para servidores y usuarios que requieren un alto ancho de banda. Esto se logra con puertos de switch adaptados para Fast Ethernet. Los switches serie Catalyst 4000 y 5000 incluyen puertos Gigabit Ethernet y son dispositivos de acceso efectivos para una mayor cantidad de usuarios en redes de campus más grandes. La Actividad de Medios Interactivos describirá las funciones de un switch Cisco Catalyst 1912. En la página siguiente se analiza la capa de distribución. 5.2.3 Descripción general de la capa de distribución En esta página se describe la capa de distribución y su propósito. La capa de distribución de la red se encuentra entre las capas de acceso y núcleo. Ayuda a definir y separar el

Page 232: Semestre1 Ccna

núcleo. El propósito de esta capa es ofrecer una definición fronteriza en la cual se puede llevar a cabo la manipulación de paquetes. Esta capa segmenta las redes en dominios de broadcast. Se pueden aplicar políticas y las listas de control de acceso pueden filtrar los paquetes. La capa de distribución aísla los problemas de red para los grupos de trabajo en los cuales se producen. La capa de distribución también evita que estos problemas afecten la capa núcleo. Los switches en esta capa operan en la Capa 2 y Capa 3. A continuación presentamos algunas de las funciones de la capa de distribución en una red conmutada: * Unificación de las conexiones del armario de cableado * Definición de dominio de broadcast/multicast * Enrutamiento VLAN * Cualquier transición de medio que deba producirse * Seguridad La página siguiente describe los switches de capa de distribución. 5.2.4 Switches de la capa de distribución En esta página se explican las características y funciones de los switches de la capa de distribución. Los switches de la capa de distribución son los puntos de totalización de múltiples switches de la capa de acceso. El switch debe poder adecuarse al monto total del tráfico desde los dispositivos de la capa de acceso. El switch de la capa de distribución debe tener un alto rendimiento, dado que es un punto en el cual se encuentra delimitado el dominio de broadcast. La capa de distribución combina el tráfico VLAN y es un punto focal para las decisiones de política sobre flujo de tráfico. Por estas razones, los switches que residen en la capa de distribución operan tanto en la Capa 2 como en la Capa 3 del modelo OSI. Los switches en esta capa se conocen como switches multicapa. Estos switches multicapa combinan las funciones de un router y de un switch en un dispositivo. Están diseñados para conmutar el tráfico a fin de obtener un rendimiento mayor que el de un router estándar. Si no tienen un módulo de router asociado, entonces, se utiliza un router externo para la función de la Capa 3. Los siguientes switches de Cisco son adecuados para la capa de distribución: * Catalyst 2926G * Familia Catalyst 5000 * Familia Catalyst 6000 La página siguiente describe la capa de núcleo. 5.2.5 Descripción general de la capa núcleo En esta página se analizan las principales funciones de la capa núcleo. La capa núcleo es un backbone de conmutación de alta velocidad. Si no tienen un módulo de router asociado, se utiliza un router externo para la función de la Capa 3. Esta capa del diseño de red no debería realizar ninguna manipulación de paquete. La manipulación de paquetes, como por ejemplo el filtrado de la lista de acceso, desaceleraría la conmutación de paquetes. Una infraestructura central con rutas alternadas redundantes ofrece estabilidad a la red en caso de que se produzca una única falla del dispositivo. El núcleo se puede diseñar para utilizar la conmutación de Capa 2 o de Capa 3. Se pueden utilizar los switches ATM o Ethernet. La Actividad de Medios Interactivos permitirá a los estudiantes identificar las principales funciones de las capas de acceso, distribución y núcleo. En la página siguiente se analizan los switches de la capa núcleo. 5.2.6 Switches de la capa núcleo En esta página se explican los requisitos básicos de los switches de la capa núcleo. La capa núcleo es el backbone de la red conmutada de campus. Los switches en esta capa pueden hacer uso de una serie de tecnologías de Capa 2. Teniendo en cuenta que la distancia entre los switches de la capa núcleo no es demasiado grande, los switches pueden usar la tecnología Ethernet. También se pueden utilizar otras tecnologías de Capa 2 como por ejemplo la conmutación de celdas ATM. En un diseño de red, la capa núcleo puede ser enrutada o de Capa 3. Los switches de capa núcleo están diseñados para ofrecer una funcionalidad de Capa 3 eficiente cuando sea necesario. Se deben tener en cuenta factores como por ejemplo la necesidad, el costo y el rendimiento antes de realizar una elección. Los siguientes switches de Cisco son adecuados para la capa núcleo: * Serie Catalyst 6500

Page 233: Semestre1 Ccna

* Serie Catalyst 8500 * Serie IGX 8400 * Lightstream 1010 Con esta página se concluye la lección. En la página siguiente se resumen los puntos principales de este módulo. Resumen En esta página se resumen los temas analizados en este módulo. El diseño de LAN depende de los requisitos de cada organización pero generalmente se concentra en la funcionalidad, escalabilidad, facilidad de administración y adaptabilidad. Para que una LAN sea efectiva, se la debe diseñar e implementar de acuerdo con una serie planificada de pasos sistemáticos. Los pasos requieren que los datos y requisitos se reúnan y analicen, que se implementen las capas 1, 2 y 3 y que todo se documente. A continuación, presentamos documentación de diseño LAN importante: * Mapa de topología de capa OSI * Mapa lógico de LAN * Mapa físico de la LAN * Planes de distribución * Mapa lógico de la VLAN * Mapa lógico de Capa 3 * Mapas de dirección Los temas de diseño de Capa 1 incluyen el tipo de cables que se deberán utilizar y la estructura general del cableado. Esto también incluye el estándar TIA/EIA-568-A para la configuración y conexión de los esquemas de cableado. Los tipos de medios de la Capa 1 incluyen el par trenzado no blindado (UTP) o el par trenzado blindado (STP) Categoría 5, 5e o 6 10/100BASE-TX y el cable de fibra óptica 100BaseFX. El diagrama lógico de la LAN incluye las ubicaciones y la identificación de los armarios de cableado MDF e IDF, el tipo y la cantidad de cables utilizados para interconectar los IDF con el MDF, y la cantidad de cables de repuesto disponibles para aumentar el ancho de banda entre los armarios de cableado. Los dispositivos de Capa 2 ofrecen control de flujo, detección de errores, corrección de errores y reducción de la congestión en la red. Los puente y switches LAN son los dos dispositivos de red de capa 2 más comunes. La microsegmentación de la red reduce el tamaño de los dominios de colisión y reduce las colisiones. Los routers son dispositivos de la Capa 3 que se pueden utilizar para crear segmentos LAN únicos. Permiten la comunicación entre los segmentos basados en las direcciones de Capa 3, como por ejemplo direcciones IP. La implementación de los dispositivos de Capa 3 permite la segmentación de la LAN en redes lógicas y físicas exclusivas. Los routers también permiten la conectividad a las WAN como, por ejemplo, Internet. La implementación de las VLAN combina las conmutación de Capa 2 y las tecnologías de enrutamiento de Capa 3 para limitar tanto los dominios de colisión como los dominios de broadcast. Las VLAN también se pueden utilizar para ofrecer seguridad creando grupos de VLAN según la función y utilizando routers para comunicarse entre las VLAN. El modelo de diseño jerárquico incluye tres capas. La capa de acceso proporciona a los usuarios de grupos de trabajo acceso a la red. La capa de distribución brinda conectividad basada en políticas. La capa núcleo proporciona transporte óptimo entre sitios. A la capa núcleo a veces se la denomina backbone. Los switches de la capa de acceso operan en la Capa 2 del modelo OSI y ofrecen servicios como el de asociación de VLAN. El principal propósito de un switch de capa de acceso es permitir a los usuarios finales el acceso a la red. Un switch de capa de acceso debe proporcionar esta funcionalidad con bajo costo y una alta densidad de puerto. El switch de la capa de distribución es un punto en el cual se encuentra delimitado el dominio de broadcast. La capa de distribución combina el tráfico VLAN y es un punto focal para las decisiones de política sobre flujo de tráfico. Por estas razones, los switches de la capa de distribución operan tanto en la Capa 2 como en la Capa 3 del modelo OSI. Los switches en esta capa se conocen como switches multicapa. La capa núcleo es un backbone de conmutación de alta velocidad. Esta capa del diseño de red no debería realizar ninguna manipulación de paquete. La manipulación de paquetes, como por ejemplo el filtrado de la lista de acceso, desaceleraría la conmutación de paquetes. Una infraestructura central con rutas alternadas redundantes ofrece estabilidad a la red en caso de que se produzca una única falla del dispositivo. Módulo 6: Configuración de switch Descripción general

Page 234: Semestre1 Ccna

Un switch es un dispositivo de red de Capa 2 que actúa como punto de concentración para la conexión de estaciones de trabajo, servidores, routers, hubs y otros switches. Un hub es un tipo más antiguo de dispositivo de concentración que también dispone de varios puertos. Sin embargo, los hubs son inferiores a los switches dado que todos los dispositivos conectados a un hub comparten el ancho de banda y tienen el mismo dominio de colisión. Otra desventaja de los hubs es que sólo operan en modo half-duplex. En modo half-duplex, los hubs sólo pueden enviar o recibir datos en determinado momento pero no pueden hacer las dos cosas al mismo tiempo. Los switches pueden operar en modo full-duplex, lo que significa que pueden enviar y recibir datos simultáneamente. Los switches son puentes multipuerto. Los switches pertenecen a la tecnología estándar actual de las LAN Ethernet que utilizan una topología en estrella. Un switch ofrece varios circuitos virtuales punto a punto dedicados entre los dispositivos de red conectados, de manera que es poco probable que se produzcan colisiones. Debido a la función dominante de los switches en las redes modernas, la capacidad para comprender y configurar switches es esencial para la asistencia técnica de la red. Los nuevos switches tienen una configuración preestablecida con valores de fábrica. Esta configuración rara vez cumple con las necesidades de los administradores de red. Los switches se pueden configurar y administrar desde una interfaz de línea de comando (CLI). Los dispositivos de red también se pueden configurar y administrar a través de una interfaz y un navegador basados en web. Los administradores de red deben familiarizarse con todas las tareas relacionadas con la administración de redes con switches. Algunas de estas tareas incluyen el mantenimiento del switch y de su IOS. Otras tareas incluyen la administración de interfaces y tablas para lograr una operación óptima, confiable y segura. La configuración básica del switch, las actualizaciones de IOS y la recuperación de contraseñas son capacidades esenciales del administrador de red. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: *Identificar los principales componentes de un switch Catalyst *Controlar la actividad y el estado del switch con el uso de indicadores LED *Examinar el resultado del arranque del switch utilizando HyperTerminal *Usar las funciones de ayuda en la interfaz de línea de comando *Enumerar los principales modos de comando del switch *Verificar las configuraciones por defecto de un switch Catalyst *Establecer una dirección IP y un gateway por defecto para el switch para permitir la conexión y administración dentro de una red *Visualizar las configuraciones de switch con un navegador de Web *Configurar las interfaces para la operación duplex y velocidad *Examinar y administrar la tabla de direcciones MAC del switch *Configurar la seguridad del puerto *Administrar los archivos de configuración y las imágenes de IOS *Realizar la recuperación de contraseña en un switch *Actualizar el IOS de un switch 6.1 Arranque del switch 6.1.1 Arranque físico del switch Catalyst En esta página se explican las características, funciones y el arranque de los switches. Los switches son computadoras dedicadas y especializadas que contienen una unidad de procesamiento central (CPU), memoria de acceso aleatorio (RAM), y un sistema operativo. Como se ve en la Figura , los switches generalmente poseen varios puertos a los cuales los hosts se pueden conectar así como puertos especializados para fines de administración. Los switches se pueden administrar y la configuración se puede visualizar y cambiar mediante el puerto de consola. Los switches generalmente no tienen interruptores para encenderlos o apagarlos. Simplemente se conectan o se desconectan de una fuente de energía eléctrica. En la Figura aparecen algunos switches de la serie Cisco Catalyst 2900. Existen modelos de 12 puertos, 24 puertos y 48 puertos. Los dos switches principales en la Figura son switches simétricos de configuración fija que ofrecen FastEthernet en todos los puertos o una combinación de puertos de 10Mbps y 100Mbps. Los siguientes tres switches son modelos asimétricos con dos puertos fijos Gigabit Ethernet de fibra o cobre. Los cuatro switches de la parte inferior son modelos asimétricos con ranuras modulares de Convertidor de Interfaz Gigabit (GBIC), que pueden alojar una serie de opciones de medios de cobre y de fibra.

Page 235: Semestre1 Ccna

En la página siguiente se analizan los indicadores LED de un switch. 6.1.2 Indicadores LED del switch El panel frontal de un switch tiene varias luces que ayudan a controlar la actividad y desempeño del sistema. Esas luces se llaman diodos emisores de luz (LED). En esta página se analizan los LED que se encuentran en la parte frontal de un switch: *LED del sistema *LED de suministro remoto de energía (RPS) *LED de modo de puerto *LED de estado de puerto El LED del sistema analiza si el sistema está recibiendo energía y está funcionando correctamente. El LED RPS indica si se está utilizando o no el suministro de energía remota. Los LED de modo indican el estado del botón Mode (Modo). Los modos se utilizan para determinar de qué manera se interpretan los LED de estado de puerto. Para seleccionar o cambiar el modo de puerto, presione el botón Mode (Modo) reiteradas veces hasta que los LED de modo indiquen el modo deseado. En la Figura se describen los colores del LED de estado de puerto dado que estos dependen del valor de los LED de modo. En la página siguiente se explica de qué manera los LED se utilizan para verificar la funcionalidad de un switch. 6.1.3 Verificación de los LED de puerto durante la ejecución de una POST de switch En esta página se explica de qué manera se pueden utilizar los LED para determinar si un switch funciona correctamente y ha establecido un enlace con su objetivo. Una vez que se conecta el cable de energía eléctrica, el switch inicia una serie de pruebas denominadas Autocomprobación de Encendido (POST). POST se ejecuta automáticamente para verificar que el switch funcione correctamente. El LED del sistema indica el éxito o falla de la POST. Si el LED del sistema está apagado pero el switch está enchufado, entonces POST está funcionando. Si el LED del sistema está verde, entonces la POST fue exitosa. Si el LED del sistema está ámbar, entonces la POST falló. La falla de la POST se considera como un error fatal. No se puede esperar que el switch funcione de forma confiable si la POST falla. Los LED de estado de puerto también cambian durante el proceso de POST. Los LED de estado de puerto se vuelven ámbar durante unos 30 segundos mientras el switch detecta la topología de red y busca loops. Si los LED de estado de puerto se ponen verdes, esto significa que el switch ha establecido un enlace entre el puerto y el objetivo, como por ejemplo, una computadora. Si los LED de estado de puerto se desactivan, el switch determina que nada se encuentra conectado. En la página siguiente se enseña a los estudiantes a establecer una sesión de comunicación con un switch. 6.1.4 Visualización del resultado de arranque inicial desde el switch En esta página se explica de qué manera se puede usar HyperTerminal para verificar y configurar un switch. Para poder configurar o verificar el estado de un switch, conecte una computadora al switch para establecer una sesión de comunicación. Utilice un cable transpuesto (rollover) para conectar el puerto de consola de la parte trasera del switch a un puerto COM en la parte trasera de la computadora. Inicie HyperTerminal en la computadora. Aparece una ventana de diálogo. Primero debe otorgarse un nombre a la conexión al configurar por primera vez la comunicación de HyperTerminal con el switch. Seleccione el puerto COM al cual el switch está conectado desde el menú desplegable y haga clic en el botón OK. Aparece otra ventana de diálogo. Establezca los parámetros tal como aparecen en la Figura y haga clic en el botón OK. Conecte el switch al tomacorriente. El resultado del arranque inicial desde el switch debe aparecer en la pantalla de HyperTerminal. Este resultado muestra información sobre el switch, detalles sobre el estado de la POST y datos de hardware del switch. Una vez que el switch ha arrancado y completado la POST, aparecen indicadores de diálogo de Configuración del Sistema. El switch se puede configurar manualmente con o sin ayuda del diálogo de Configuración del Sistema. El diálogo de Configuración del Sistema del switch es mucho más simple que el de los routers. En la página siguiente se explica cómo se utiliza el comando help en los switch Cisco. 6.1.5 Examinando el comando help en la CLI del switch Esta página explicará como se usa el sistema de ayuda en la CLI de los switches Cisco.

Page 236: Semestre1 Ccna

La CLI de los switches Cisco es muy similar a la CLI de los routers Cisco. Para usar el sistema de ayuda ingrese un signo de pregunta (?). Cuando se ingresa este caracter en el indicador del sistema, se muestra una lista de los comandos disponibles para el modo de comando actual. El sistema de ayuda es muy flexible. Para obtener una lista de comandos que empiecen con una determinada secuencia de caracteres, introduzca estos caracteres seguidos inmediatamente por el signo de interrogación (?). No introduzca ningún espacio antes del signo de interrogación. Esta forma de ayuda se denomina ayuda de palabra, porque completa una palabra. Para mostrar palabras clave o argumentos asociados a un determinado comando, introduzca una o más palabras asociadas con el comando, seguidas de un espacio y luego un signo de interrogación (?). Esta forma de ayuda se denomina ayuda de sintaxis de comando, porque indica palabras clave o argumentos aplicables basados en un comando parcial. La Actividad de Medios Interactivos ayudará a los estudiantes a comprender de qué manera los switches crean redes más pequeñas para reducir el tamaño de los dominios de colisión. En la página siguiente se analizan los modos de comando del switch. 6.1.6 Modos de comando de los switch En esta página sea analizan dos modos de comando de switch. El modo por defecto es el modo EXEC usuario.

El modo EXEC usuario se reconoce por su indicador, que termina en un carácter de "mayor que" (> . Los comandos disponibles en el modo EXEC usuario se limitan a los que cambian las configuraciones de terminal, realizan pruebas básicas y muestran información del sistema. La Figura describe los comandos show que están disponibles en el modo EXEC usuario. El comando enable se utiliza para entrar al modo EXEC privilegiado desde el modo EXEC usuario. El modo EXEC privilegiado también se reconoce por su indicador, que termina con el carácter numeral (#). El conjunto de comandos del modo EXEC privilegiado incluye el comando configure así como todos los comandos del modo EXEC usuario. El comando configure permite el acceso a otros modos de comando. Dado que estos modos se utilizan para configurar el switch, el acceso al modo EXEC privilegiado debe protegerse con contraseña para evitar el uso no autorizado. Si se establece una contraseña, se le solicita a los usuarios que introduzcan esa contraseña para poder acceder al modo EXEC privilegiado. La contraseña no aparece en pantalla y distingue entre mayúsculas y minúsculas. Con esta página se concluye la lección. En la página siguiente se explica de qué manera se configura un switch. En la página siguiente se analiza la configuración por defecto. 6.2.1 Verificación de la configuración por defecto de un switch Catalyst En esta página se explica a los estudiantes la configuración por defecto de un switch y cómo verificarla. Al encenderse por primera vez, un switch tiene datos por defecto en el archivo de configuración activo. El nombre de host por defecto es Switch. No se establece ninguna contraseña en las líneas del terminal de consola o virtual (vty). Se le puede otorgar al switch una dirección IP para fines de administración. Esto se configura en la interfaz virtual, VLAN 1. Por defecto, el switch no tiene dirección IP. Los puertos o interfaces del switch se establecen en modo automático y todos los puertos de switch están en VLAN 1. VLAN 1 se conoce como la VLAN de administración por defecto. El directorio flash por defecto tiene un archivo que contiene la imagen IOS, un archivo llamado env_vars y un subdirectorio llamado html. Una vez que se configura el switch, el directorio flash contiene un archivo con el nombre config.text así como una base de datos de VLAN. Como se ve en la Figura , el directorio flash no contiene el archivo config.text ni una base de datos de VLAN con el nombre vlan.dat. La versión del IOS y los parámetros de registro de configuración se pueden verificar con el comando show version. En este estado por defecto, el switch tiene un dominio de broadcast y se puede usar la CLI para administrar y configurar el switch a través del puerto de consola. El protocolo Spanning-Tree también se habilita y permite que el puente pueda construir una topología sin loops a través de una LAN extendida. Para pequeñas redes, la configuración por defecto puede ser suficiente. Los beneficios de un mejor rendimiento con microsegmentación se obtienen inmediatamente.

Page 237: Semestre1 Ccna

Las Actividades de Laboratorio permitirán a los estudiantes verificar las configuraciones por defecto de dos switches Cisco serie 2900. En la página siguiente se explica de qué manera se configura un switch. 6.2.2 Configuración del switch Catalyst En esta página se enseñará a los estudiantes a realizar la configuración de un switch. Es posible que un switch ya esté preconfigurado y sólo deban introducirse contraseñas para los modos EXEC usuario o EXEC privilegiado. Se entra al modo de configuración de un switch desde el modo EXEC privilegiado. En la CLI, el indicador del modo EXEC privilegiado por defecto es Switch#. En el modo EXEC usuario el indicador es Switch>. Los siguientes pasos permitirán que una nueva configuración se sobrescriba completamente a la configuración actual: *Para eliminar la información de VLAN actual, borre el archivo de la base de datos VLAN, denominado vlan.dat, del directorio flash *Borre el archivo de configuración de respaldo con el nombre startup-config *Reinicie el switch con el comando reload La seguridad, la documentación y la administración son importantes para cada dispositivo de red. Al switch se le debe otorgar un nombre de host y se deben establecer contraseñas en las líneas de consola y vty. Se debe asignar una dirección IP a un switch para que pueda ser accesado remotamente usando Telnet u otra aplicación TCP/IP. Se debe asignar una puerta de enlace por defecto para que se puedan alcanzar otras redes cuando se trabaja desde la interfaz de línea de comandos. Por defecto, la VLAN 1 es la VLAN de administración. La VLAN de administración se usa para administrar todos los dispositivos de red en una red. En una red conmutada, todos los dispositivos de red deben estar en la VLAN de administración. Todos los puertos pertenecen por defecto a la VLAN 1. Una práctica recomendada es remover todos los puertos de acceso de la VLAN 1 y colocarlos en otra VLAN. Esto permite la adminstración de los dispositivos de red a la vez que mantiene el tráfico de los hosts de la red fuera de la VLAN de adminsitración. Los puertos de switch Fast Ethernet se establecen por defecto con velocidad y duplex automáticos. Esto permite a las interfaces negociar estos parámetros. Los administradores de red pueden configurar manualmente los valores de velocidad y duplex de interfaz, de ser necesario. Algunos dispositivos de red pueden ofrecer una interfaz basada en Web con fines de configuración y administración. Una vez que se configura un switch con una dirección IP y gateway, se puede acceder a éste de la siguiente manera. Un navegador de web puede acceder a este servicio utilizando la dirección IP y el puerto 80, el puerto por defecto de http. El servicio HTTP se puede activar o desactivar y se puede elegir la dirección de puerto para el servicio. Cualquier software adicional, como por ejemplo un applet, se puede descargar al navegador desde el switch. Además, la red se puede administrar a través de una interfaz de usuario gráfico basada en navegador (GUI). Las actividades de laboratorio ayudarán a los estudiantes a familiarizarse con la configuración básica de un switch. En la siguiente página se tratarán las tablas de direcciones MAC. 6.2.3 Administración de la tabla de direcciones MAC En esta página se explica de qué manera los switches crean y administran las tablas de direcciones MAC. Los switches examinan la dirección origen de las tramas que se reciben en los puertos para aprender la dirección MAC de las estaciones de trabajo o las PC conectadas a estos. Estas direcciones MAC aprendidas se registran luego en una tabla de direcciones MAC. Las tramas que tienen una dirección MAC destino, que se ha registrado en la tabla, se pueden conmutar hacia la interfaz correcta. El comando show mac-address-table se puede introducir en el modo EXEC privilegiado para examinar las direcciones que un switch ha aprendido. Un switch aprende en forma dinámica y mantiene miles de direcciones MAC. Para preservar la memoria y para una operación optima del switch, las entradas aprendidas se pueden descartar de la tabla de direcciones MAC. Es posible que se hayan eliminado máquinas de un puerto, se hayan apagado o trasladado a otro puerto en el mismo switch o en un switch diferente. Esto puede provocar confusión al momento de enviar las tramas. Por todas estas razones, si no se ven tramas con una dirección aprendida anteriormente, la entrada de direcciones

Page 238: Semestre1 Ccna

MAC se descarta automáticamente o expiran después de 300 segundos. En lugar de esperar que una entrada dinámica expire, los administradores de red pueden utilizar el comando clear mac-address-table en el modo EXEC privilegiado. Las entradas de direcciones MAC configuradas por los administradores de red también se pueden eliminar con este comando. Este método para borrar entradas de tabla permite eliminar de forma inmediata las direcciones no válidas. En las Actividades de Laboratorio se enseña a los estudiantes cómo crear una configuración básica de switch y cómo administrar la tabla de direcciones MAC. En la página siguiente se analizan las direcciones MAC estáticas. 6.2.4 Configuración de direcciones MAC En esta página se explica de qué manera se configuran las direcciones MAC estáticas en un switch Catalyst 2900. Se puede asignar una dirección MAC a una interfaz de forma permanente. A continuación presentamos algunas razones para asignar una dirección MAC permanente a una interfaz: *El switch no hace expirar automáticamente la dirección MAC. *Se deberá conectar una estación de trabajo de servidor o de usuario específica al puerto y se debe conocer la dirección MAC. *Se mejora la seguridad. Se puede utilizar el siguiente comando para configurar una dirección MAC estática para un switch: Switch(config)#mac-address-table static <mac-address of host> interface FastEthernet <Ethernet number> vlan <vlan name> Se puede utilizar el siguiente comando para eliminar una dirección MAC estática para un switch: Switch(config)#no mac-address-table static <mac-address of host> interface FastEthernet <Ethernet number> vlan <vlan name> En las Actividades de Laboratorio, los estudiantes deberán configurar las direcciones MAC estáticas. En la página siguiente se analiza la seguridad de los puertos. 6.2.5 Configuración de seguridad de puerto En esta página se explica por qué la seguridad de puerto es importante y de qué manera se la configura en un switch Catalyst 2900. La seguridad de la red es una responsabilidad importante para los administradores de red. Se puede acceder a los puertos de switch de la capa de acceso a través de los conectores de red del cableado estructurado. Cualquier persona puede enchufar una PC o computadora portátil a uno de esos conectores de red. Éste es un posible punto de entrada a la red por parte de usuarios no autorizados. Los switches ofrecen una función que se conoce como seguridad de puertos. Es posible limitar la cantidad de direcciones que se pueden aprender en una interfaz. El switch se puede configurar para realizar una acción si ésta se supera. Las direcciones MAC seguras se pueden configurar de forma estática. Sin embargo, la tarea de configurar direcciones MAC seguras es compleja y por lo general con una elevada tendencia a los errores. Un enfoque alternativo es establecer una seguridad de puertos en una interfaz de switch. La cantidad de direcciones MAC por puerto se puede limitar a 1. La primera dirección aprendida de forma dinámica por el switch se convierte en dirección segura. Para revertir la seguridad del puerto en una interfaz utilice la forma no del comando . Para verificar el estado de seguridad de un puerto, se utiliza el comando show port security. En las Actividades de Laboratorio se muestra a los estudiantes cómo configurar la seguridad de puerto en un switch. En la página siguiente se analizan algunas otras configuraciones de switch. 6.2.6 Cómo agregar, mover y cambiar En esta página se analizan algunos elementos que deben configurarse antes de agregar un switch a una red. A continuación, presentamos algunos parámetros que deben configurarse en un nuevo switch que se agrega a una red: *Nombre del switch

Page 239: Semestre1 Ccna

*Dirección IP del switch en la VLAN de administración *Un gateway por defecto *Contraseñas de línea Cuando un host se desplaza de un puerto o de un switch a otro, deben eliminarse las configuraciones que pueden provocar comportamientos inesperados. Entonces se puede reconfigurar el switch para reflejar los cambios. En las Actividades de Laboratorio se enseña a los estudiantes a agregar, mover y cambiar las direcciones MAC en un switch. En la página siguiente se analiza la copia de seguridad de los archivos de configuración de switch. 6.2.7 Administración del archivo del sistema operativo del switch En esta página se enseña a los estudiantes cómo documentar y mantener los archivos de configuración operacional de los dispositivos de red. Los administradores de red deben documentar y mantener los archivos de configuración operacional de los dispositivos de red. Debe realizarse una copia de seguridad del archivo de configuración actual en un servidor o en un disco. Esta documentación no sólo es esencial sino también muy útil en caso de que se necesite restaurar la configuración. También debe realizarse una copia de seguridad del IOS en un servidor local. Entonces se puede recargar el IOS en la memoria flash si es necesario. En la Actividad de Laboratorio se muestra a los estudiantes como crear, verificar, realizar una copia de seguridad y restaurar una configuración básica de switch. En la página siguiente se analiza la recuperación de contraseñas. 6.2.8 Recuperación de contraseña 1900/2950 En esta página se analiza la importancia de las contraseñas y se explica de qué manera se las puede recuperar. Con fines de seguridad y administración, se deben establecer contraseñas en las líneas de consola y vty. También se debe establecer una contraseña enable y una contraseña enable secret. Estas prácticas ayudan a garantizar que sólo los usuarios autorizados tengan acceso a los modos EXEC usuario y privilegiado del switch. En ciertas circunstancias es posible que se produzca acceso físico al switch, pero no pueda accederse al modo EXEC usuario o privilegiado debido a que las contraseñas no se conocen o se han olvidado. En estas circunstancias, se deberá seguir un procedimiento de recuperación de contraseña. En las Actividades de Laboratorio se muestra a los estudiantes cómo recuperar una contraseña en un switch serie Catalyst 2900. En la página siguiente se analizan las actualizaciones el IOS y el firmware. 6.2.9 Actualización de firmware 1900/2950 En esta página se explica el propósito de las actualizaciones del IOS y el firmware y de qué manera se realizan. Se lanzan periódicamente imágenes del SO y firmware , con reparación de problemas, introducción de nuevas funciones y mejora del desempeño. Si la red puede quedar más segura, o se puede operar con mayor eficiencia con una nueva versión del IOS, entonces debe actualizarse el IOS. Para actualizar el IOS, descargue una copia de la nueva imagen en un servidor local desde el Centro de Software Cisco Connection Online (CCO). En las Actividades de Laboratorio se muestra a los estudiantes cómo actualizar el firmware de un switch. Con esta página se concluye la lección. En la página siguiente se resumen los puntos principales de este módulo. Resumen En esta página se resumen los temas analizados en este módulo. Los switches son similares a los routers. Tienen componentes informáticos básicos que incluyen CPU, RAM y un sistema operativo. Existen varios puertos que se utilizan para conectar hosts y otros puertos con fines de

Page 240: Semestre1 Ccna

administración. Los LED en la parte delantera del switch muestran el estado del sistema, RPS, el modo de puerto y el estado del puerto. Cuando se conecta un switch este realiza la POST automáticamente para verificar que el switch funcione correctamente. Se puede utilizar HyperTerminal para configurar o verificar el estado de un switch. Otra similitud con los routers Cisco es la CLI. Introduzca un signo de interrogación (?) para acceder a la ayuda. Aparece una serie de comandos disponibles. Los switches ofrecen ayuda de sintaxis de comando y ayuda de palabra. Los switches y los routers tienen los mismos modos de comando. El modo EXEC usuario es el modo por

defecto y está indicado por el carácter "mayor que" (> . El comando enable cambia el modo EXEC usuario por el EXEC privilegiado como lo indica el numeral (#). El acceso al modo EXEC privilegiado debe estar protegido con contraseña para evitar el uso no autorizado. El comando configure permite el acceso a otros modos de comando. Los datos por defecto se suministran cuando el switch se conecta por primera vez. Para fines de administración, se asigna una dirección IP a un switch. Use el comando show version para verificar la versión del IOS y los parámetros de registro de configuración. Una vez que se configura un switch con una dirección IP y un gateway se puede acceder a él a través de una interfaz basada en web. Esto permite la configuración y la administración del switch. Este servicio se puede acceder a través de un navegador de web con la dirección IP y el puerto 80, el puerto por defecto de http. Un switch aprende en forma dinámica y mantiene miles de direcciones MAC. Si no se reciben las tramas con una dirección previamente aprendida la entrada de la dirección MAC se descarta automáticamente o expira después de 300 segundos. El comando clear mac-address-table en el modo EXEC privilegiado se puede utilizar para despejar manualmente las tablas de direcciones. Una dirección MAC permanente asignada a una interfaz permite evitar que el switch haga expirar automáticamente la dirección MAC y permite mejorar la seguridad. El comando mac-address-table static <mac-address of host> interface FastEthernet <Ethernet number> vlan <vlan name > se puede utilizar para configurar una dirección MAC estática. Utilice la forma no de este comando para eliminarla. El comando show port security se puede utilizar para verificar la seguridad del puerto. Se deben configurar el nombre del switch, la dirección IP, el gateway por defecto y las contraseñas de línea en un nuevo switch que se agrega a una red. Cuando un host se desplaza de un puerto o de un switch a otro, deben eliminarse las configuraciones que pueden provocar comportamientos inesperados. Se debe mantener actualizada la documentación de la configuración y además se deben realizar periódicamente copias de seguridad en un servidor o en un disco. Módulo 7: Protocolo Spanning-Tree Descripción general La redundancia en una red es fundamental. Permite que las redes sean tolerantes a las fallas. Las topologías redundantes proporcionan protección contra el tiempo de inactividad, o no disponibilidad, de la red El tiempo de inactividad puede deberse a la falla de un solo enlace, puerto o dispositivo de red. Los ingenieros de red a menudo deben equilibrar el costo de la redundancia con la necesidad de disponibilidad de la red. Las topologías redundantes basadas en switches y puentes son susceptibles a las tormentas de broadcast, transmisiones de múltiples tramas e inestabilidad de la base de datos de direcciones MAC: Estos problemas pueden inutilizar la red Por lo tanto, la redundancia se debe planificar y supervisar cuidadosamente. Las redes conmutadas brindan las ventajas de dominios de colisión más pequeños, microsegmentación y operación full duplex. Las redes conmutadas brindan un mejor rendimiento. La redundancia en una red es necesaria para protegerla contra la pérdida de conectividad debido a la falla de un componente individual. Sin embargo, esta medida puede dar como resultado topologías físicas con loops. Los loops de la capa física pueden causar problemas graves en las redes conmutadas. El protocolo Spanning-Tree se usa en redes conmutadas para crear una topología lógica sin loops a partir de una topología física con loops. Los enlaces, puertos y switches que no forman parte de la topología activa sin loops no envían tramas de datos. El protocolo Spanning Tree es una herramienta poderosa que le otorga a los administradores de red la seguridad de contar con una topología redundante sin que exista el riesgo de que se produzcan problemas provocados por los loops de conmutación. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas:

Page 241: Semestre1 Ccna

* Definir la redundancia y su importancia en networking * Describir los elementos claves de una topología de red redundante. * Definir las tormentas de broadcast y su impacto en las redes conmutadas. * Definir las transmisiones múltiples de trama y su impacto en las redes conmutadas. * Identificar las causas y los resultados de la inestabilidad de la base de datos de direcciones MAC. * Identificar las ventajas y los riesgos de una topología redundante. * Describir el rol del spanning tree en una red conmutada con rutas redundantes. * Identificar los elementos clave de la operación del spanning tree * Describir el proceso para la selección del puente raíz. * Enumerar los estados del spanning tree en orden * Comparar el protocolo Spanning Tree y el Protocolo Rapid Spanning Tree 7.1 Topologías redundantes 7.1.1 Redundancia En esta página se explica cómo la redundancia puede mejorar la confiabilidad y el rendimiento de la red. Muchas empresas y organizaciones dependen cada vez más de las redes informáticas para realizar sus operaciones. El acceso a los servidores de archivo, bases de datos, Internet, redes internas y redes externas es fundamental para las empresas exitosas. Si la red está fuera de servicio, la productividad y la satisfacción del cliente disminuyen. . Cada vez más, las empresas requieren disponibilidad de red, o tiempo de actividad, continuo. Probablemente sea imposible obtener un tiempo de actividad del 100 por ciento, pero varias organizaciones intentan alcanzar un tiempo de actividad del 99,999 por ciento, o de "cinco nueves". Es necesario contar con redes altamente confiables para lograr este objetivo. Esto significa una hora de inactividad como promedio cada 4.000 días, o aproximadamente 5,25 minutos de tiempo de inactividad por año. Para lograr este objetivo, se necesitan redes sumamente confiables. La confiabilidad de red se logra con equipos y diseños de red confiables que sean tolerantes a las fallas. Las redes deben estar diseñadas para reconverger rápidamente de modo que la falla se pase por alto. La Figura 1 muestra la redundancia. Suponga que se debe usar un automóvil para llegar al lugar donde uno trabaja. Si el automóvil tiene un desperfecto que hace que no se pueda utilizar, es imposible usar el automóvil para ir hasta el trabajo hasta que se lo repare. Si el automóvil no se puede utilizar debido a un desperfecto uno de cada diez días, el promedio de uso del automóvil es del noventa por ciento. Por lo tanto, la confiabilidad también es del 90 por ciento. El problema se puede solucionar con un segundo automóvil. No es necesario tener dos automóviles sólo para ir a trabajar. Sin embargo, proporciona redundancia o respaldo en caso que el vehículo principal sufra un desperfecto. La capacidad de llegar al trabajo ya no depende de un solo automóvil. Ambos automóviles pueden sufrir un desperfecto simultáneamente, un día cada 100. El segundo automóvil aumenta la confiabilidad a un 99 por ciento. En la página siguiente se analizan las topologías redundantes. 7.1.2 Topologías redundantes En esta página se explica el concepto y las ventajas de una topología redundante. Uno de los objetivos de las topologías redundantes es eliminar las interrupciones del servicio de la red provocadas por un único punto de falla. Todas las redes necesitan redundancia para brindar mayor confiabilidad. Una red de carreteras es un ejemplo global de topología redundante. Si una carretera se cierra por reparaciones, es probable que haya una ruta alternativa hacia el destino. Suponga que una comunidad está separada del centro de la ciudad por un río. Si sólo hay un puente que cruza el río, hay sólo un camino para llegar hasta la ciudad. La topología no tiene redundancia. Si el puente sufre daños a causa de un accidente o una inundación, es imposible llegar hasta el centro de la ciudad cruzando el puente. Un segundo puente que cruce el río crea una topología redundante. El suburbio ya no queda aislado del centro de la ciudad si resulta imposible utilizar uno de los puentes. En la página siguiente se describen las topologías redundantes conmutadas. 7.1.3 Topologías conmutadas redundantes

Page 242: Semestre1 Ccna

En esta página se explica cómo operan los switches en una topología redundante. Las redes que tienen rutas y dispositivos redundantes permiten más tiempo de actividad de la red. Las topologías redundantes eliminan los puntos únicos de falla. Si una ruta o un dispositivo fallan, la ruta o el dispositivo redundante pueden asumir las tareas ejecutadas por la ruta o el dispositivo que ha fallado. Si el Switch A falla, el tráfico puede continuar fluyendo desde el Segmento 2 al Segmento 1 y al router a través del Switch B. Los switches aprenden las direcciones MAC de los dispositivos en sus puertos de modo que los datos se puedan enviar correctamente al destino. Los switches inundan tramas hacia destinos desconocidos hasta que aprenden la dirección MAC de los dispositivos. También se inunda con broadcasts y multicasts. Una topología conmutada redundante puede provocar tormentas de broadcast, copias de múltiples tramas y problemas de inestabilidad en la tabla de direcciones MAC: En la página siguiente se analizan las tormentas de broadcast. 7.1.4 Tormentas de broadcast En esta página se explican los efectos de los broadcasts y los multicasts en una red conmutada. Los switches consideran a los multicasts como si fueran broadcasts. Las tramas de broadcast y multicast se envían por inundación desde todos los puertos, salvo el puerto que recibió la trama. Si el Host X envía un broadcast como, por ejemplo, una petición ARP para la dirección de Capa 2 del router, el Switch A envía el broadcast desde todos los puertos. El Switch B, al estar en el mismo segmento, también envía todos los broadcasts. El Switch B recibe todos los broadcasts que el Switch A ha enviado y el Switch A recibe todos los broadcasts que el Switch B ha enviado. El Switch A envía los broadcasts que recibió del Switch B. El Switch B envía todos los broadcasts que recibió del Switch A. Los switches siguen propagando tráfico de broadcast una y otra vez. Esto se denomina tormenta de broadcast. Esta tormenta de broadcast se mantendrá hasta que uno de los switches se desconecta. Dado que los broadcasts necesitan tiempo y recursos de red para su procesamiento, reducen el flujo de tráfico de usuario. La red parecerá estar inactiva o extremadamente lenta. En la página siguiente se analizan las transmisiones de tramas múltiples. 7.1.5 Transmisiones de tramas múltiples En esta página se explican las transmisiones de tramas múltiples en una red conmutada redundante. Suponga que el límite de tiempo de la dirección MAC del Router Y se vence en ambos switches. También suponga que el Host X todavía tiene la dirección MAC del Router Y en su caché ARP y envía una trama unicast al Router Y. El router recibe la trama dado que está en el mismo segmento que el Host X. El Switch A no tiene la dirección MAC del Router Y y, por lo tanto, inunda la trama desde sus puertos. El Switch B tampoco conoce cuál es el puerto en que se encuentra el Router Y. El Switch B inunda la trama que ha recibido. Esto hace que el Router Y reciba múltiples copias de la misma trama. Esto se debe al uso innecesario de los recursos de red. 7.1.6 Inestabilidad de la base de datos de control de acceso a los medios En esta página se explica cómo se puede enviar la información incorrecta en una red conmutada redundante. Un switch puede recibir información incorrecta que indica que una dirección MAC está en un puerto, cuando en realidad está en un puerto distinto. En este ejemplo, la dirección MAC del Router Y no está en la tabla de direcciones MAC de ninguno de los switches. El Host X envía una trama dirigida al Router Y. Los Switches A y B encuentran la dirección MAC del Host X en el puerto 0. La trama del Router Y se envía por inundación desde el puerto 1 de ambos switches. Los Switches A y B reciben esta información en el puerto 1 y encuentran erróneamente la dirección MAC del Host X en el puerto 1. Cuando el Router Y envía una trama al Host X, el Switch A y el Switch B también reciben la trama y la envían desde el puerto 1. Esto es innecesario, pero los switches han recibido la información incorrecta que indica que el Host X está en el puerto 1. En este ejemplo, la trama unicast del Router Y al Host X quedará atrapada en un loop. Con esta página se concluye la lección. En la lección siguiente se describe el Protocolo Spanning Tree (STP).

Page 243: Semestre1 Ccna

En la primera página se analizan los loops físicos y lógicos en una red redundante. 7.2.1 Topología redundante y spanning tree En esta página se enseña a los estudiantes cómo crear una topología lógica sin loops. Las topologías de red redundantes están diseñadas para garantizar que las redes continúen funcionando en presencia de puntos únicos de falla. El trabajo de los usuarios sufre menos interrupciones dado que la red continúa funcionando. Cualquier interrupción provocada por una falla debe ser lo más breve posible. La confiabilidad aumenta gracias a la redundancia. Una red basada en switches o puentes presentará enlaces redundantes entre aquellos switches o puentes para superar la falla de un solo enlace. Estas conexiones introducen loops físicos en la red. Estos loops de puenteo se crean de modo que si un enlace falla, otro enlace puede hacerse cargo de la función de enviar tráfico. Cuando un switch desconoce el destino del tráfico, inunda el tráfico desde todos los puertos salvo el puerto que recibió el tráfico. Las tramas de broadcast y multicast también se envían por inundación desde todos los puertos, salvo el puerto que recibió el tráfico. Este tráfico puede quedar atrapado en un loop. En el encabezado de Capa 2, no hay ningún valor de Tiempo de existencia (TTL). Si una trama se envía a una topología con loops de switches de Capa 2, puede circular por el loop indefinidamente. Esto desperdicia ancho de banda e inutiliza la red. En la Capa 3, el TTL decrece y el paquete se descarta cuando el TTL llega a 0. Esto genera un dilema. Una topología física que contiene loops de conmutación o puenteo es necesaria con fines de confiabilidad, sin embargo, una red conmutada no puede tener loops. La solución consiste en permitir loops físicos, pero creando una topología lógica sin loops. Para esta topología lógica, el tráfico destinado al servidor central conectado a Cat 5 desde cualquier estación de trabajo conectada a Cat 4 viajará a través de Cat 1 y Cat 2. Esto ocurre incluso si hay una conexión física directa entre Cat 5 y Cat 4. La topología lógica sin loops que se ha creado se denomina árbol. La topología resultante es una topología lógica en estrella o en estrella extendida. Esta topología es el spanning tree (árbol de extensión) de la red. Se considera como un spanning tree dado que todos los dispositivos de la red se pueden alcanzar o abarcar. El algoritmo que se utiliza para crear esta topología lógica sin loops es el algoritmo spanning-tree. Este algoritmo puede tardar un tiempo bastante prolongado para converger. Se desarrolló un nuevo algoritmo denominado algoritmo rapid spanning-tree para reducir el tiempo que tarda una red en calcular una topología lógica sin loops. En la página siguiente se analiza STP. 7.2.2 Protocolo Spanning-Tree En esta página se explica cómo utilizar STP para crear una topología sin loops. Los puentes y switches Ethernet pueden implementar el protocolo Spanning-Tree IEEE 802.1d y usar el algoritmo spanning-tree para desarrollar una red de ruta más corta sin loops. La ruta más corta se basa en costos de enlace acumulativos. Los costos de enlace se basan en la velocidad del enlace. El Protocolo Spanning Tree establece un nodo raíz denominado puente raíz. El Protocolo Spanning-Tree desarrolla una topología que tiene una ruta para llegar a todos los nodos de la red. El árbol se origina desde el puente raíz Los enlaces redundantes que no forma parte del árbol de primero la ruta más corta se bloquean. Dado que determinadas rutas están bloqueadas, es posible desarrollar una topología sin loops. Las tramas de datos que se reciben en enlaces que están bloqueados se descartan. El Protocolo Spanning Tree requiere que los dispositivos de red intercambien mensajes para detectar los loops de puenteo. Los enlaces que generan loops se colocan en estado de bloqueo. Los switches envían mensajes denominados unidades de datos del protocolo puente (BPDU) para permitir la creación de una topología lógica sin loops. Las BPDU se siguen recibiendo en los puertos que están bloqueados. Esto garantiza que si una ruta o un dispositivo activo falla, se puede calcular un nuevo spanning-tree. Las BPDU contienen información que permite que los switches ejecuten acciones específicas: *Seleccionar un solo switch que actúe como la raíz del spanning-tree. *Calcular la ruta más corta desde sí mismo hacia el switch raíz *Designar uno de los switches como el switch más cercano a la raíz, para cada segmento LAN. Este switch se denomina switch designado. El switch designado adminstra todas las comunicaciones desde la LAN hacia el

Page 244: Semestre1 Ccna

puente raíz. *Elegir uno de sus puertos como su puerto raíz, para cada switch que no es un switch raíz. Esta es la interfaz que brinda la mejor ruta hacia el switch raíz. *Seleccionar puertos que forman parte del spanning-tree. Estos puertos se denominan puertos designados. Los puertos no designados se bloquean. La Actividad de Medios Interactivos le enseña a los estudiantes lo que es el STP. En la página siguiente se describen las características de una red spanning tree. 7.2.3 Operación de spanning-tree En esta página se le enseña a los estudiantes acerca de los puertos y dispositivos que se pueden encontrar en una red STP conmutada. Una vez que la red se ha estabilizado, se ha producido la convergencia y hay un spanning-tree por red. Como resultado, existen los siguientes elementos para cada red conmutada: *Un puente raíz por red *Un puerto raíz por puente que no sea raíz *Un puerto designado por segmento *Puertos no designados o que no se utilizan Los puertos raíz y los puertos designados se usan para enviar (F) tráfico de datos. Los puertos no designados descartan el tráfico de datos. Estos puertos se denominan puertos de bloqueo (B) o de descarte. En la página siguiente se analiza el puente raíz. 7.2.4 Selección del puente raíz En esta página se explica cómo se selecciona el puente raíz en una red STP. La primera decisión que toman todos los switches de la red es identificar el puente raíz. La posición del puente raíz en una red afecta el flujo de tráfico. Cuando el switch se enciende, se usa el algoritmo spanning tree para identificar el puente raíz. Las BPDU son enviadas con el ID de puente (BID). El BID se compone de una prioridad de puente que asume un valor por defecto de 32768 y la dirección MAC del switch. Por defecto, las BPDUs se envían cada dos segundos. Cuando el switch se enciende por primera vez, supone que es el switch raíz y envía las BPDU que contienen la dirección MAC del switch tanto en el BID raíz como emisor. Estas BPDU se consideran inferiores dado que se generan en el switch designado que ha perdido su enlace con el puente raíz. El switch designado transmite las BPDU con la información de que es el puente raíz y el puente designado a la vez. Estas BPDU contienen la dirección MAC del switch tanto en el BID raíz como emisor. Los BID se reciben en todos los switches. Cada switch reemplaza los BID de raíz más alta por BID de raíz más baja en las BPDU que se envían. Todos los switches reciben las BPDU y determinan que el switch que cuyo valor de BID raíz es el más bajo será el puente raíz. El administrador de red puede establecer la prioridad de switch en un valor más pequeño que el del valor por defecto, lo que hace que el BID sea más pequeño. Esto sólo se debe implementar cuando se tiene un conocimiento cabal del flujo de tráfico en la red. Las Actividades de Laboratorio le enseñan a los estudiantes cómo seleccionar el puente raíz para una configuración básica de switch. En la página siguiente se analizan los estados del puerto STP. 7.2.5 Etapas de los estados del puerto Spanning Tree En esta página se explican los cinco estados del puerto de un switch que utiliza STP. Se necesita tiempo para que la información de protocolo se propague a través de una red conmutada. Los cambios de topología en una parte de la red no se conocen de inmediato en las otras partes de la red. Hay retardo de propagación. Un switch no debe cambiar el estado de un puerto de inactivo a activo de forma inmediata dado que esto puede provocar loops de datos. Cada puerto de un switch que usa protocolo de spanning- tree se encuentra en uno de los cinco estados diferentes, como se indica en la Figura .

Page 245: Semestre1 Ccna

En el estado de bloqueo, los puertos sólo pueden recibir las BPDU. Las tramas de datos se descartan y no se puede aprender ninguna dirección. El cambio de un estado a otro puede tardar hasta unos 20 segundos. Los puertos pasan del estado de bloqueo al estado de escuchar. En este estado, los switches determinan si hay alguna otra ruta hacia el puente raíz. La ruta que no sea la ruta con un menor costo hacia el puente raíz vuelve al estado de bloqueo. El período de escuchar se denomina retardo de envío y dura 15 segundos. En el estado de escuchar, los datos no se envían y no se reciben las direcciones MAC. Las BPDU todavía se siguen procesando. Los puertos pasan del estado de escuchar al estado de aprender. En este estado, los datos de usuario no se envían pero se aprenden las direcciones MAC del tráfico que se recibe. El estado de aprender dura 15 segundos y también se denomina retardo de envío. Las BPDU todavía se siguen procesando. El puerto pasa del estado de aprender al estado de envíar. En este estado, los datos se envían y se siguen aprendiendo las direcciones MAC. Las BPDU todavía se siguen procesando. El puerto puede estar en estado deshabilitado. Este estado deshabilitado se puede producir cuando un administrador desactiva el puerto o el puerto falla. Los valores de tiempo determinados para cada estado son los valores por defecto. Estos valores se calculan basándose en que habrá una cantidad máxima de siete switches en cualquier rama del spanning-tree desde el puente raíz. La Actividad de Medios Interactivos ayuda a los estudiantes a aprender los cinco estados de puerto de spanning-tree. En la página siguiente se analiza la convergencia de red. 7.2.6 Recálculo de Spanning-Tree En esta página se describe la convergencia de una red spanning tree. Una internetwork conmutada converge cuando todos los puertos de switch y de puente están en estado de enviar o bloquear. Los puertos que realizan el envío envían y reciben tráfico de datos y las BPDU. Los puertos que están bloqueados sólo pueden recibir las BPDU. Cuando la topología de red cambia, los switches y los puentes vuelven a calcular el spanning-tree y provocan una interrupción del tráfico de red. La convergencia en una nueva topología de spanning-tree que usa el estándar IEEE 802.1d puede tardar hasta 50 segundos. Esta convergencia está compuesta por una antigüedad máxima de 20 segundos, además del retardo de envío al escuchar, que es de 15 segundos, y el retardo de envío al recibir, que es de 15 segundos. Las Actividades de Laboratorio le enseñan a los estudiantes cómo crear y verificar una configuración básica de switch. La página siguiente presenta el Protocolo Rapid Spanning-Tree. 7.2.7 Protocolo Rapid Spanning-Tree En esta página se describe el Protocolo Rapid Spanning-Tree. *El protocolo Rapid Spanning-Tree se define en el estándar de LAN IEEE 802.1w. El estándar y el protocolo presentan nuevas características: Aclaración de los estados de puerto y los roles *Definición de un conjunto de tipos de enlace que pueden pasar rápidamente al estado enviar. *El concepto de permitir que los switches de una red en la que hay convergencia generen las BPDU en lugar de transferir las BPDU del puente raíz. Se ha cambiado el nombre del estado "bloqueado" por un estado de "descarte". El rol de un puerto de descarte es el de un puerto alternativo. El puerto de descarte se puede convertir en el puerto designado si el puerto designado del segmento falla. Los tipos de enlace se han definido como punto a punto, de extremo y compartido. Estos cambios permiten la detección rápida de una falla de enlace en las redes conmutadas. Los enlaces punto a punto y los enlaces de tipo de extremo pueden pasar al estado de enviar de forma inmediata. Con estos cambios, la convergencia de red no debe tardar más de 15 segundos. Con el tiempo, el protocolo Rapid Spanning-Tree, IEEE 802.1w reemplazará al protocolo Spanning-Tree, IEEE 802.1d. Con esta página se concluye la lección. En la página siguiente se resumen los puntos principales de este módulo.

Page 246: Semestre1 Ccna

Resumen En esta página se resumen los temas analizados en este módulo. La redundancia se define como la duplicación de componentes que permiten funcionalidad continua a pesar de las fallas de un componente individual. En una red, redundancia significa contar con un método de respaldo para conectar todos los dispositivos. Las topologías redundantes aumentan la confiabilidad de la red y reducen el tiempo de inactividad provocado por un único punto de falla. Una topología conmutada redundante puede provocar tormentas de broadcast, transmisiones de múltiples tramas y problemas de inestabilidad en la tabla de direcciones MAC. Una tormenta de broadcast se produce cuando múltiples hosts envían y reciben múltiples mensajes de broadcast. El resultado es que continúan propagando el tráfico de broadcast ininterrumpidamente hasta que uno de los switches se desconecta. Durante una tormenta de broadcast, la red parece estar inactiva o extremadamente lenta. Las transmisiones de múltiples tramas se producen cuando un router recibe múltiples copias de una trama de múltiples switches debido a una dirección MAC desconocida. Estas transmisiones excesivas hacen que el límite de tiempo del router expire. Cuando un switch recibe la información incorrecta acerca de la dirección MAC de un puerto, puede provocar loops e inestabilidad en la tabla de direcciones MAC. Dado que los switches operan en la capa 2 del modelo OSI, todas las decisiones de envío se toman a este nivel. La Capa 2 no brinda ningún valor de TTL, que es la cantidad de tiempo fija que se le otorga a un paquete para llegar a destino. El problema es que las topologías físicas contienen loops de conmutación o puenteo que son necesarios para fines de confiabilidad, pero una red conmutada no puede tener loops. La solución consiste en permitir loops físicos, pero creando una topología lógica sin loops. La topología lógica sin loops que se ha creado se denomina árbol. La topología es una topología en estrella o en estrella extendida que abarca el árbol de la red. Todos los dispositivos se pueden alcanzar o abarcar. El algoritmo que se utiliza para crear esta topología lógica sin loops es el algoritmo spanning-tree. El Protocolo Spanning Tree establece un nodo raíz denominado puente raíz. El Protocolo Spanning-Tree desarrolla una topología que tiene una ruta para cada nodo de la red. Esto da como resultado un árbol que se origina desde el puente raíz. Los enlaces redundantes que no forma parte del árbol de primero la ruta más corta se bloquean. Dado que determinadas rutas están bloqueadas, es posible desarrollar una topología sin loops. Las tramas de datos que se reciben en enlaces que están bloqueados se descartan. Los switches envían mensajes denominados unidades de datos del protocolo puente (BPDU) para permitir la creación de una topología lógica sin loops. Las BPDU se siguen recibiendo en los puertos que están bloqueados. Las BPDU contienen información que permite que los switches ejecuten acciones específicas: *Seleccionar un solo switch que actúe como la raíz del spanning-tree. *Calcular la ruta más corta desde sí mismo hacia el switch raíz *Designar uno de los switches como el switch designado. *Elegir uno de sus puertos como su puerto raíz, para cada switch que no es un switch raíz. *Seleccionar puertos que forman parte del spanning-tree. Estos puertos se denominan puertos designados. El estándar de LAN IEEE 802.1w describe el protocolo Rapid Spanning-Tree. Este estándar permite esclarecer los roles y estados de los puertos, definir un conjunto de tipos de enlace y permitir que los switches de una red en la que hay convergencia generen las BPDU en lugar de usar las BPDU del puente raíz. Se ha cambiado el nombre del estado de bloqueo por un estado de descarte. El rol de un puerto de descarte es el de un puerto alternativo. El puerto de descarte se puede convertir en el puerto designado si el puerto designado del segmento falla. Módulo 8: LAN virtuales Descripción general Una característica importante de la conmutación de Ethernet es la capacidad para crear redes de área local virtuales (VLAN). Una VLAN es un agrupamiento lógico de estaciones y dispositivos de red. Las VLAN se pueden agrupar por función laboral o departamento, sin importar la ubicación física de los usuarios. El tráfico entre las VLAN está restringido. Los switches y puentes envían tráfico unicast, multicast y broadcast sólo en segmentos de LAN que atienden a la VLAN a la que pertenece el tráfico. En otras palabras, los dispositivos en la VLAN sólo se comunican con los dispositivos que están en la misma VLAN. Los routers suministran conectividad entre diferentes VLAN. Las VLAN mejoran el desempeño general de la red agrupando a los usuarios y los recursos de forma lógica. Las empresas con frecuencia usan las VLAN como una manera de garantizar que un conjunto determinado de usuarios se agrupen lógicamente más allá de su ubicación física. Las organizaciones usan las VLAN para agrupar usuarios en el mismo departamento. Por ejemplo, los usuarios del departamento de Mercadotecnia se ubican en la VLAN de Mercadotecnia, mientras que los usuarios del Departamento de Ingeniería se ubican en la VLAN de Ingeniería.

Page 247: Semestre1 Ccna

Las VLAN pueden mejorar la escalabilidad, seguridad y gestión de red. Los routers en las topologías de VLAN proporcionan filtrado de broadcast, seguridad y gestión de flujo de tráfico. Las VLAN que están correctamente diseñadas y configuradas son herramientas potentes para los administradores de red. Las VLAN simplifican las tareas cuando es necesario hacer agregados, mudanzas y modificaciones en una red. Las VLAN mejoran la seguridad de la red y ayudan a controlar los broadcasts de Capa 3. Sin embargo, cuando se las configura de manera incorrecta, las VLAN pueden hacer que una red funcione de manera deficiente o que no funcione en absoluto. La configuración e implementación correctas de las VLAN son fundamentales para el proceso de diseño de red. Cisco tiene una estrategia positiva con respecto a la interoperabilidad de los proveedores, pero las LAN pueden contener topologías de red y configuraciones de dispositivos mixtas. Cada proveedor desarrolla su propio producto VLAN propietario, que posiblemente no sea totalmente compatible con otros productos de VLAN debido a diferencias en los servicios de VLAN. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: * Definir las VLAN * Enumerar las ventajas de las VLAN * Explicar de qué manera se utilizan las VLAN para crear dominios de broadcast * Explicar de qué manera se utilizan los routers para comunicarse entre las VLAN. * Enumerar los tipos comunes de VLAN * Definir ISL y 802.1Q * Explicar el concepto de VLAN geográficas * Configurar VLAN estáticas en switches de la serie Catalyst 2900. * Verificar y guardar configuraciones de VLAN * Borrar las VLAN de una configuración de switch 8.1 Conceptos de VLAN 8.1.1 Introducción a las VLAN En esta página se explica lo que es una VLAN y cómo funciona. Una VLAN es una agrupación lógica de estaciones, servicios y dispositivos de red que no se limita a un segmento de LAN físico. Las VLAN facilitan la administración de grupos lógicos de estaciones y servidores que se pueden comunicar como si estuviesen en el mismo segmento físico de LAN. También facilitan la administración de mudanzas, adiciones y cambios en los miembros de esos grupos. Las VLAN segmentan de manera lógica las redes conmutadas según las funciones laborales, departamentos o equipos de proyectos, sin importar la ubicación física de los usuarios o las conexiones físicas a la red. Todas las estaciones de trabajo y servidores utilizados por un grupo de trabajo en particular comparten la misma VLAN, sin importar la conexión física o la ubicación. La configuración o reconfiguración de las VLAN se logra mediante el software. Por lo tanto, la configuración de las VLAN no requiere que los equipos de red se trasladen o conecten físicamente. Una estación de trabajo en un grupo de VLAN se limita a comunicarse con los servidores de archivo en el mismo grupo de VLAN. Las VLAN segmentan de forma lógica la red en diferentes dominios de broadcast, de manera tal que los paquetes sólo se conmutan entre puertos y se asignan a la misma VLAN. Las VLAN se componen de hosts o equipos de red conectados mediante un único dominio de puenteo. El dominio de puenteo se admite en diferentes equipos de red. Los switches de LAN operan protocolos de puenteo con un grupo de puente separado para cada VLAN. Las VLAN se crean para brindar servicios de segmentación proporcionados tradicionalmente por routers físicos en las configuraciones de LAN. Las VLAN se ocupan de la escalabilidad, seguridad y gestión de red. Los routers en las topologías de VLAN proporcionan filtrado de broadcast, seguridad y gestión de flujo de tráfico. Los switches no puentean ningún tráfico entre VLAN, dado que esto viola la integridad del dominio de broadcast de las VLAN. El tráfico sólo debe enrutarse entre VLAN. En la página siguiente se analizan los dominios de broadcast. 8.1.2 Dominios de broadcast con VLAN y routers En esta página se explica de qué manera se enrutan los paquetes entre diferentes dominios de broadcast.

Page 248: Semestre1 Ccna

Una VLAN es un dominio de broadcast que se crea en uno o más switches. El diseño de red en las Figuras y requiere de tres dominios de broadcast separados. La Figura muestra como los tres dominios de broadcast se crean usando tres switches. El enrutamiento de capa 3 permite que el router mande los paquetes a tres dominios de broadcast diferentes. En la Figura , se crea una VLAN con un router y un switch. Existen tres dominios de broadcast separados. El router enruta el tráfico entre las VLAN mediante enrutamiento de Capa 3. El switch en la Figura envía tramas a las interfaces del router cuando se presentan ciertas circunstancias: *Si es una trama de broadcast *Si está en la ruta a una de las direcciones MAC del router Si la Estación de Trabajo 1 de la VLAN de Ingeniería desea enviar tramas a la Estación de Trabajo 2 en la VLAN de Ventas, las tramas se envían a la dirección MAC Fa0/0 del router. El enrutamiento se produce a través de la dirección IP de la interfaz del router Fa0/0 para la VLAN de Ingeniería. Si la Estación de Trabajo 1 de la VLAN de Ingeniería desea enviar una trama a la Estación de Trabajo 2 de la misma VLAN, la dirección MAC de destino de la trama es la de la Estación de Trabajo 2. La implementación de VLAN en un switch hace que se produzcan ciertas acciones: *El switch mantiene una tabla de puenteo separada para cada VLAN. *Si la trama entra en un puerto en la VLAN 1, el switch busca la tabla de puenteo para la VLAN 1. *Cuando se recibe la trama, el switch agrega la dirección origen a la tabla de puenteo si es desconocida en el momento. *Se verifica el destino para que se pueda tomar una decisión de envío. *Para aprender y enviar se realiza la búsqueda en la tabla de direcciones para esa VLAN solamente. En la página siguiente se analizan los diferentes tipos de VLAN. 8.1.3 Operación de las VLAN En esta página se explican las características de los diferentes tipos de VLAN. Una VLAN se compone de una red conmutada que se encuentra lógicamente segmentada. Cada puerto de switch se puede asignar a una VLAN. Los puertos asignados a la misma VLAN comparten broadcasts. Los puertos que no pertenecen a esa VLAN no comparten esos broadcasts. Esto mejora el desempeño de la red porque se reducen los broadcasts innecesarios. Las VLAN de asociación estática se denominan VLAN de asociación de puerto central y basadas en puerto. Cuando un dispositivo entra a la red, da por sentado automáticamente que la VLAN está asociada con el puerto al que se conecta. Los usuarios conectados al mismo segmento compartido comparten el ancho de banda de ese segmento. Cada usuario adicional conectado al medio compartido significa que el ancho de banda es menor y que se deteriora el desempeño de la red. Las VLAN ofrecen mayor ancho de banda a los usuarios que una red Ethernet compartida basada en hubs. La VLAN por defecto para cada puerto del switch es la VLAN de administración. La VLAN de administración siempre es la VLAN 1 y no se puede borrar. Por lo menos un puerto debe asignarse a la VLAN 1 para poder gestionar el switch. Todos los demás puertos en el switch pueden reasignarse a VLAN alternadas. Las VLAN de asociación dinámica son creadas mediante software de administración de red. Se usa CiscoWorks 2000 o CiscoWorks for Switched Internetworks para crear las VLAN dinámicas. Las VLAN dinámicas permiten la asociación basada en la dirección MAC del dispositivo conectado al puerto de switch. Cuando un dispositivo entra a la red, el switch al que está conectado consulta una base de datos en el Servidor de Configuración de VLAN para la asociación de VLAN. En la asociación de VLAN de puerto central basada en puerto, el puerto se asigna a una asociación de VLAN específica independiente del usuario o sistema conectado al puerto. Al utilizar este método de asociación, todos los usuarios del mismo puerto deben estar en la misma VLAN. Un solo usuario, o varios usuarios pueden estar conectados a un puerto y no darse nunca cuenta de que existe una VLAN. Este método es fácil de manejar porque no se requieren tablas de búsqueda complejas para la segmentación de VLAN. Los administradores de red son responsables por configurar las VLAN de forma estática y dinámica. Los puentes filtran el tráfico que no necesita ir a los segmentos, salvo el segmento destino. Si una trama necesita atravesar un puente y la dirección MAC destino es conocida, el puente sólo envía la trama al puerto de puente correcto. Si la dirección MAC es desconocida, inunda la trama a todos los puertos en el dominio de broadcast, o la VLAN, salvo el puerto origen donde se recibió la trama. Los switches se consideran como puentes multipuerto. La Actividad de Medios Interactivos ayudará a los estudiantes a comprender cómo los paquetes viajan entre las VLAN. En la página siguiente se describen las ventajas de las VLAN. 8.1.4 Ventajas de las VLAN

Page 249: Semestre1 Ccna

En esta página se explican las ventajas administrativas de las VLAN. Las VLAN permiten que los administradores de red organicen las LAN de forma lógica en lugar de física. Ésta es una ventaja clave. Esto permite que los administradores de red realicen varias tareas: *Trasladar fácilmente las estaciones de trabajo en la LAN *Agregar fácilmente estaciones de trabajo a la LAN *Cambiar fácilmente la configuración de la LAN *Controlar fácilmente el tráfico de red *Mejorar la seguridad En la página siguiente se describen tres tipos básicos de VLAN. 8.1.5 Tipos de VLAN En esta página se describen tres asociaciones básicas de VLAN que se utilizan para determinar y controlar de qué manera se asigna un paquete: - *VLAN basadas en puerto *VLAN basadas en direcciones MAC *VLAN basadas en protocolo La cantidad de VLAN en un switch varía según diversos factores: *Patrones de tráfico *Tipos de aplicaciones *Necesidades de administración de red *Aspectos comunes del grupo El esquema de direccionamiento IP es otra consideración importante al definir la cantidad de VLAN en un switch. Por ejemplo, una red que usa una máscara de 24 bits para definir una subred tiene en total 254 direcciones de host permitidas en una subred. Dado que es altamente recomendada una correspondencia de uno a uno entre las VLAN y las subredes IP, no puede haber más de 254 dispositivos en una VLAN. También se recomienda que las VLAN no se extiendan fuera del dominio de Capa 2 del switch de distribución. Existen dos métodos principales para el etiquetado de tramas: el enlace Inter-Switch (ISL) y 802.1Q. ISL es un protocolo propietario de Cisco y antiguamente era el más común, pero está siendo reemplazado por el etiquetado de trama estándar IEEE 802.1Q. A medida que los paquetes son recibidos por el switch desde cualquier dispositivo de estación final conectado, se agrega un identificador único de paquetes dentro de cada encabezado. Esta información de encabezado designa la asociación de VLAN de cada paquete. El paquete se envía entonces a los switches o routers correspondientes sobre la base del identificador de VLAN y la dirección MAC. Al alcanzar el nodo destino, el ID de VLAN es eliminado del paquete por el switch adyacente y es enviado al dispositivo conectado. El etiquetado de paquetes brinda un mecanismo para controlar el flujo de broadcasts y aplicaciones, mientras que no interfiere con la red y las aplicaciones. La emulación de LAN (LANE) es una forma en que una red de Modo de Transferencia Asíncrona (ATM) simula una red Ethernet. No hay etiquetado en LANE, pero la conexión virtual utilizada implica un ID de VLAN. Con esta página se concluye la lección. En la siguiente lección se hablará de la configuración de VLAN. En la primera página se ofrece una descripción general de las redes VLAN. 8.2.1 Aspectos básicos de las VLAN En esta página se ofrece información básica acerca de las VLAN y se describen las características de una red VLAN de extremo a extremo. En un entorno conmutado, una estación de trabajo sólo recibe tráfico dirigido a ella. Como los switches filtran el tráfico de red, las estaciones de trabajo en un entorno conmutado envían y reciben datos con ancho de banda completo y dedicado. Al contrario de lo que ocurre con un sistema de hubs compartidos, en el que sólo una estación puede transmitir por vez, una red conmutada permite varias transmisiones simultáneas en un dominio de broadcast. Este proceso no afecta directamente a las demás estaciones dentro o fuera de un dominio de broadcast. La Figura ilustra que la comunicación entre los pares A/B, C/D y E/F no afecta a los demás pares de estación. Cada VLAN debe tener una dirección única de subred de red de Capa 3 asignada a ella. Las VLAN pueden existir como redes de extremo a extremo, o pueden existir dentro de las fronteras geográficas. Una red VLAN de extremo a extremo tiene varias características:

Page 250: Semestre1 Ccna

*La asociación a las VLAN para los usuarios se basa en el departamento o función laboral, sin importar la ubicación de los usuarios. *Todos los usuarios en una VLAN deberían tener los mismos patrones de flujo de tráfico 80/20. *Todos los usuarios en una VLAN deberían tener los mismos patrones de flujo de tráfico 80/20 *Cada VLAN tiene un conjunto común de requisitos de seguridad para todos los miembros. Se proporcionan puertos de switch para cada usuario en la capa de acceso. Cada color representa una subred. Dado que los usuarios se reubican, cada switch con el tiempo se transforma en miembro de todas las VLAN. El etiquetado de tramas se utiliza para transportar información desde múltiples VLAN entre los switches de la capa de acceso y los switches de la capa de distribución. ISL es un protocolo propietario de Cisco que mantiene información de VLAN a medida que el tráfico fluye entre switches y routers. IEEE 802.1Q ies un mecanismo de etiquetado de VLAN (IEEE) de estándares abiertos, en las instalaciones conmutadas. Los switches Catalyst 2950 no admiten los enlaces troncales ISL. Los servidores de grupos de trabajo operan de acuerdo con un modelo de cliente/servidor. Por este motivo, se asigna a los usuarios la misma VLAN que el servidor que usan para maximizar el desempeño de la conmutación de Capa 2 y mantener el tráfico localizado. En la Figura , se utiliza un router de capa núcleo para enrutar entre subredes. La red se diseña, sobre la base de los patrones de flujo de tráfico, para que tengan el 80 por ciento del tráfico contenido en una VLAN. El 20 por ciento restante atraviesa el router a los servidores de la empresa y a la Internet y la WAN. En la página siguiente se analizan las VLAN geográficas. 8.2.2 VLAN geográficas En esta página se explica el motivo por el cual las VLAN geográficas se han vuelto más comunes que las VLAN de extremo a extremo. Las VLANs de extremo a extremo permiten que los dispositivos se agrupen según el uso de recursos. Esto incluye parámetros como el uso de servidores, equipos de proyecto y departamentos. El objetivo de las VLAN de extremo a extremo es mantener el 80 por ciento del tráfico en la VLAN local. A medida que las redes empresariales buscan centralizar sus recursos, las VLAN de extremo a extremo se vuelven más difíciles de mantener. Se requiere que los usuarios usen varios recursos diferentes, muchos de los cuales ya no están en sus VLAN. El cambio en la asignación y uso de recursos requiere que se creen las VLAN en torno de límites geográficos en lugar de límites de aspectos comunes. Esta ubicación geográfica puede ser tan grande como un edificio entero o tan pequeña como un solo switch dentro de un armario para el cableado. En una estructura geográfica, es típico encontrar en uso la nueva norma 20/80. Esto significa que el 20 por ciento del tráfico permanece dentro de la VLAN local y 80 por ciento del tráfico de la red viaja fuera de la VLAN local. Aunque esta topología significa que los servicios desde los recursos deben viajar a través de un dispositivo de Capa 3, este diseño permite que la red aplique un método determinístico y coherente para acceder a los recursos. La siguiente página le explicará de qué manera se configuran las VLAN estáticas. 8.2.3 Configuración de VLAN estáticas En esta página se describe el tipo de red en la que se puede configurar una VLAN estática. Los estudiantes también aprenden a configurar una VLAN. Las VLAN estáticas son puertos en un switch que se asignan manualmente a una VLAN. Esto se hace con una aplicación de administración de VLAN o configurarse directamente en el switch mediante la CLI. Estos puertos mantienen su configuración de VLAN asignada hasta que se cambien manualmente. Este tipo de VLAN funciona bien en las redes que tienen requisitos específicos: *Todos los movimientos son controlados y gestionados. *Existe un software sólido de gestión de VLAN para configurar los puertos. *El gasto adicional requerido para mantener direcciones MAC de estación final y tablas de filtrado personalizadas no es aceptable. Las VLAN dinámicas no se basan en puertos asignados a una VLAN específica. Para configurar las VLAN en los switches serie Cisco 2900, se deben aplicar pautas específicas: *La cantidad máxima de VLAN depende del switch. *Una de las VLAN por defecto de fábrica es VLAN1. *La VLAN Ethernet por defecto es VLAN1. *Se envían publicaciones del Protocolo de Descubrimiento de Cisco (CDP) y Protocolo de Enlace Troncal de VLAN (VTP) en la VLAN 1. (VTP se analiza en el Módulo 9). *La dirección IP del switch se encuentra por defecto en el dominio de broadcast de la VLAN 1.

Page 251: Semestre1 Ccna

*El switch debe estar en el modo de servidor VTP para crear, agregar o borrar VLAN. La creación de una VLAN en un switch es una tarea muy directa y simple. Si se usa un switch basado en comandos del IOS, se puede usar el comando vlan database en el modo EXEC privilegiado para entrar al modo de configuración de VLAN. También se puede configurar un nombre de VLAN, de ser necesario: Switch#vlan database Switch(vlan)#vlan vlan_number Switch(vlan)#exit Al salir, se aplica la VLAN al switch. El paso siguiente es asignar la VLAN a una o más interfaces: Switch(config)#interface fastethernet 0/9 Switch(config-if)#switchport access vlan vlan_number En las Actividades de Laboratorio, los estudiantes crearán vlans y verificarán una configuración de switch básica. En la página siguiente se explica cómo verificar configuraciones de VLAN. 8.2.4 Verificación de la configuración de VLAN En esta página se explica de qué manera se pueden usar los comandos show vlan, show vlan brief, o show vlan id id_number para verificar las configuraciones de VLAN. Se aplican los siguientes hechos a las VLAN: *Una VLAN creada permanece sin usar hasta que se la asigna a puertos de switch. *Todos los puertos Ethernet son asignados a VLAN 1 por defecto. La Figura muestra una lista de comandos aplicables. La Figura muestra los pasos necesarios para asignar una nueva VLAN a un puerto en el switch de Sydney. Las Figuras y muestran el resultado de los comandos show vlan y show vlan brief. En las Actividades de Laboratorio, los estudiantes crearán y verificarán una configuración de switch básica con dos VLAN. En la página siguiente se explica de qué manera se guarda una configuración de switch. 8.2.5 Cómo guardar la configuración de VLAN En esta página se enseña a los estudiantes cómo crear un archivo de texto de una configuración de VLAN para usarla como copia de seguridad. Resulta útil mantener una copia de la configuración de VLAN como archivo de texto, especialmente si se necesita hacer copias de seguridad o auditorías. Los valores de configuración del switch se pueden copiar en un servidor TFTP con el comando copy running-config tftp. Como alternativa, se puede usar la función de captura de HyperTerminal junto con los comandos show running-config y show vlan para guardar los valores de configuración. En la página siguiente se explica de qué manera se elimina una configuración de VLAN. 8.2.6 Eliminación de VLAN En esta página se explica a los estudiantes cómo se elimina una VLAN de una interfaz de switch basada en comandos Cisco IOS. Este proceso es similar al procedimiento utilizado para eliminar un comando de un router. En la Figura , se asignó Fastethernet 0/9 a la VLAN 300 con el comando switchport access vlan 300. Para eliminar esta VLAN de la interfaz, basta con usar la forma no del comando. El comando que aparece a continuación se utiliza para eliminar una VLAN de un switch: Switch#vlan database Switch(vlan)#no vlan 300 Cuando se elimina una VLAN, todos los puertos asignados a esa VLAN quedan inactivos. Los puertos, sin embargo, quedan asociados a la VLAN eliminada hasta que se los asigna a una nueva VLAN. Las Actividades de Laboratorio mostrarán a los estudiantes cómo borrar las configuraciones de VLAN.

Page 252: Semestre1 Ccna

Con esta página se concluye la lección. En la lección siguiente se enseñará a los estudiantes a realizar el diagnóstico de fallas de VLAN. En la primera página se ofrece una descripción general de la lección. 8.3.1 Descripción general En esta página se explica lo que los estudiantes aprenderán de esta lección. Las VLAN ahora son comunes en las redes de los campus. Las VLAN ofrecen a los ingenieros de redes flexibilidad al diseñar e implementar redes. Las VLAN también permiten la limitación de los broadcast, seguridad y comunidades de interés geográficamente dispersas. Sin embargo, tal como ocurre con la conmutación básica de LAN, se pueden producir problemas cuando se implementan las VLAN. En esta lección se muestran algunos de los problemas más comunes que se pueden producir con las VLAN, y ofrece varias herramientas y técnicas para la detección de fallas. Al completar esta lección, los estudiantes deberán poder: *Utilizar un enfoque sistemático en el diagnóstico de fallas de VLAN *Demostrar los pasos de la detección de fallas general en las redes conmutadas *Describir de qué manera los problemas de spanning-tree pueden provocar tormentas de broadcast *Usar los comandos show y debug para diagnosticar las fallas de las VLAN En la página siguiente se describe el proceso utilizado para realizar el diagnóstico de fallas de VLAN. 8.3.2 Proceso de diagnóstico de fallas de VLAN En esta página se explica a los estudiantes cómo se desarrolla un enfoque sistemático que puede utilizarse para realizar el diagnóstico de fallas de los problemas relacionados con los switches. Los siguientes pasos explican cómo se aisla un problema en una red conmutada: 1. Verifique las indicaciones físicas como el estado de LED. 2. Comience con una sola configuración en un switch y prosiga el proceso hacia afuera. 3. Verifique el enlace de Capa 1. 4. Verifique el enlace de Capa 2. 5. Haga el diagnóstico de fallas de las VLAN que abarcan varios switches. Al realizar el diagnóstico de fallas, verifique si el problema es un problema recurrente en lugar de una falla aislada. Algunos problemas recurrentes se deben un crecimiento de la demanda de servicios por parte de puertos de estación de trabajo que excede los recursos de configuración, enlace troncal o capacidad para acceder a los recursos de servidor. Por ejemplo, el uso de tecnologías de Web y aplicaciones tradicionales, como la transferencia de archivos y correo electrónico, provoca un crecimiento en el tráfico de red que las redes de las empresas deben manejar. Muchas LAN de campus se enfrentan a patrones de tráfico de red impredecibles resultantes de la combinación de tráfico de intranet, menos ubicaciones de servidor de campus centralizadas y el uso creciente de aplicaciones multicast. La antigua norma de 80/20, que establecía que sólo el 20 por ciento del tráfico de la red pasaba por el backbone, es obsoleta. La exploración de Web interna ahora permite que los usuarios localicen y accedan a la información desde cualquier lugar en la intranet corporativa. Los patrones de tráfico están determinados por la ubicación de los servidores y no por las configuraciones del grupo de trabajo físico con el que se agrupan. Si una red presenta con frecuencia síntomas de cuello de botella, como desbordes excesivos, tramas descartadas y retransmisiones, es posible que haya demasiados puertos en un solo enlace troncal o demasiados requerimientos de recursos globales y acceso a los servidores de intranet. Los síntomas de cuello de botella también pueden producirse porque la mayor parte del tráfico se ve obligado a atravesar el backbone. Otra causa puede ser que el acceso de "cualquiera a cualquiera" es común, cuando los usuarios utilizan los recursos corporativos basados en Web y aplicaciones multimedia. En este caso, puede resultar necesario tener en cuenta el aumento de los recursos de la red para satisfacer la demanda creciente. En la página siguiente se analizan las tormentas de broadcast. 8.3.3 Cómo evitar las tormentas de broadcast En esta página se enseñará a los estudiantes a evitar que se produzcan tormentas de broadcast. Una tormenta de broadcast se produce cuando se recibe una gran cantidad de paquetes de broadcast en un puerto. El envío de esos paquetes puede hacer que la red quede más lenta o que expire el límite de tiempo. El control de tormentas se configura para el switch como un todo, pero opera por puerto. El control de tormentas se encuentra inhabilitado por defecto. La prevención de las tormentas de broadcast mediante el establecimiento de valores demasiado altos o bajos de umbral descarta el tráfico MAC excesivo de broadcast, multicast o unicast. Además, la configuración de valores para elevar umbrales en un switch puede desactivar el puerto.

Page 253: Semestre1 Ccna

Los problemas de STP incluyen tormentas de broadcast, loops, BPDU y paquetes descartados. La función de STP es de garantizar que no se produzcan loops lógicos en una red mediante la designación de un puente raíz. El puente raíz es el punto central de una configuración spanning-tree que controla la manera en que opera el protocolo. La ubicación del puente raíz en la red extendida de router y switch es necesaria para el diagnóstico efectivo de fallas. Los comandos show en el router y el switch pueden mostrar información de puente raíz. Configuración de parámetros fijos de temporizadores de puente raíz para el retardo de envío o antigüedad máxima para la información STP. La configuración manual de un dispositivo como puente raíz es otra opción de configuración. Si la red extendida de router y switch pasa por un período de inestabilidad, es recomendable minimizar los procesos STP que se producen entre dispositivos. Si se vuelve necesario reducir el tráfico BPDU, establezca los valores máximos para los temporizadores en el puente raíz. Específicamente, establezca el parámetro de retardo de envío en el valor máximo de 30 segundos, y el parámetro max_age en el máximo de 40 segundos. Un puerto físico en un router o switch puede formar parte de más de un spanning tree si se trata de un enlace troncal. El Protocolo Spanning-Tree (STP) se considera como uno de los protocolos más importantes de Capa 2 en los switches Catalyst. Al evitar los loops lógicos en una red puenteada, STP permite la redundancia de Capa 2 sin generar tormentas de broadcast. Minimice los problemas de spanning-tree desarrollando activamente un estudio de base de la red. En la página siguiente se analizan los comandos show y debug. 8.3.4 Diagnóstico de fallas de las VLAN En esta página se explica de qué manera los comandos show y debug se pueden utilizar para realizar el diagnóstico de fallas de las VLAN. La Figura ilustra los problemas más comunes que se encuentran cuando se realiza el diagnóstico de fallas de las VLAN. Para realizar el diagnóstico de fallas de la operación de las conexiones de router Fast Ethernet a los switches, es necesario asegurarse de que la configuración de interfaz del router sea completa y correcta. Verifique que no se haya configurado una dirección IP en la interfaz Fast Ethernet. Las direcciones IP se configuran en cada subinterfaz de una conexión de VLAN. Verifique que la configuración de duplex en el router coincida con el puerto/interfaz correspondiente en el switch. El comando show vlan muestra la información de VLAN en el switch. La Figura , muestra el resultado del comando show vlan. El resultado muestra el ID de VLAN, su nombre, estado y puertos asignados. También se muestran las opciones de palabra clave show vlan y las descripciones de sintaxis de palabra clave de cada campo. El comando show vlan muestra información de esa VLAN en el router. El comando show vlan seguido por el número de VLAN muestra información específica de esa VLAN en el router. El resultado del comando incluye el ID de VLAN, la subinterfaz del router e información de protocolo. El comando show spanning-tree muestra la topología de spanning-tree que el router conoce. Este comando muestra los valores de STP utilizados por el router para un puente spanning-tree en la red del router y switch. La primera parte del resultado de show spanning-tree muestra parámetros de configuración global spanning tree, seguidos por aquellos que son específicos de determinadas interfaces. El Grupo de Puente 1 ejecuta el protocolo Spanning-Tree compatible con IEEE. Las siguientes líneas del resultado muestran los parámetros de operación actuales del spanning tree: Bridge Identifier has priority 32768, address 0008.e32e.e600 Configured hello time 2, Max age 20, forward delay 15 La siguiente línea del resultado muestra que el router es la raíz del spanning tree: We are the root of the spanning tree. La información clave del comando show spanning-tree crea un mapa de la red STP.

Page 254: Semestre1 Ccna

El comando debug sw-vlan packets muestra información general acerca de los paquetes VLAN recibidos pero no configurados para admitir el router. Los paquetes VLAN que el router está configurado para enrutar o conmutar se cuentan e indican al utilizar el comando show vlans. En la página siguiente se enseñará a los estudiantes a realizar el diagnóstico de fallas de una VLAN. 8.3.5 Situaciones de diagnóstico de fallas de VLAN Los administradores de red pueden hacer el diagnóstico de fallas de redes conmutadas de manera eficiente después de aprender las técnicas y adaptarlas a las necesidades de la empresa. La experiencia es la mejor manera de mejorar estas capacidades. En esta página se describen tres situaciones de diagnóstico de fallas de VLAN relacionadas con los problemas que se presentan más comúnmente. Cada una de estas situaciones contiene un análisis del problema y su posterior resolución. Mediante el uso de comandos específicos apropiados y la reunión de imformación significativa de los resultados, se puede completar el proceso de diagnóstico de fallas. Situación 1: No se puede establecer un enlace troncal entre un switch y un router Cuando existan dificultades con una conexión de enlace troncal entre un switch y un router, tenga en cuenta las siguientes causas posibles: 1. Asegúrese de que el puerto esté conectado y no reciba ningún error de capa física, alineación o secuencia de verificación de trama (FCS). Esto puede hacerse con el comando show interface en el switch. 2. Verifique que el duplex y la velocidad se encuentren correctamente configurados entre el switch y el router. Esto puede hacerse con el comando show interface status en el switch o el comando show interfaces en el router. 3. Configure la interfaz física del router con una subinterfaz por cada VLAN que enrute el tráfico. Verifique esto introduciendo el comando IOS show interfaces. Asegúrese también de que cada subinterfaz en el router tenga el tipo de encapsulamiento, número de VLAN, dirección IP y máscara de subred correctos configurado. Esto puede hacerse con los comandos IOS show interfaces o show running-config. 4. Confirme que el router esté ejecutando una versión del IOS que admita enlaces troncales. Esto se puede realizar con el comando show version. Situación 2: Paquetes y loops descartados Los puentes de spanning-tree usan los paquetes de Unidad de Datos de Protocolo de Puentes (BPDUs) de notificación de cambios para notificar a los demás puentes acerca de cualquier cambio en la topología de spanning-tree de la red. El puente con el identificador menor en la red se transforma en el raíz. Los puentes envían estas BPDU en cualquier momento en que el puerto haga una transición desde o hacia un estado de envío, siempre y cuando haya otros puertos en el mismo grupo de puenteo. Estas BPDU migran hacia el puente raíz. Sólo puede haber un puente raíz por red puenteada. Un proceso de elección determina el puente raíz. La raíz determina valores para mensajes de configuración en las BPDU y luego establece los temporizadores para los demás puentes. Otros puentes designados determinan la ruta más corta al puente raíz y son responsables de la publicación de BPDU a otros puentes a través de puertos designados. Un puente debe tener puertos en el estado de bloqueo si hay un loop físico. Pueden surgir problemas para las internetworks en las que se usan algoritmos spanning-tree IEEE y DEC mediante nodos de puenteo. Estos problemas son causados por diferencias en la forma en que los nodos de puenteo manejan los paquetes BPDU spanning tree, o paquetes hello, y en la forma en que manejan los datos. En esta situación, el Switch A, Switch B y Switch C ejecutan el algoritmo spanning-tree IEEE. Involuntariamente se configura el Switch D para usar el algoritmo spanning-tree DEC. El Switch A dice ser la raíz IEEE y el Switch D dice ser la raíz DEC. El Switch B y el Switch C propagan información de raíz en todas las interfaces para el spanning tree IEEE. Sin embargo, el Switch D descarta la información spanning-tree IEEE. De la misma forma, los demás routers ignoran la declaración de que el Router D es raíz. El resultado es que ninguno de los puentes cree que se ha producido un loop y cuando se envía un paquete de broadcast en la red, se produce una tormenta de broadcast en toda la internetwork. Esta tormenta de broadcast incluye los Switches X y Y, y más allá. Para resolver este problema, es necesario reconfigurar el Switch D como IEEE. Aunque es necesario un cambio de configuración, puede no ser suficiente para reestablecer la conectividad. Se produce un retardo de reconvergencia mientras los dispositivos intercambian BPDU y recalculan un spanning tree para la red. Con esta página se concluye la lección. En la página siguiente se resumen los puntos principales de este módulo.

Page 255: Semestre1 Ccna

Resumen En esta página se resumen los temas analizados en este módulo. Una VLAN es una agrupación de servicios de red que no se limita a un segmento o switch de LAN físico. La configuración o reconfiguración de las VLAN se realiza mediante software que hace que resulte innecesario conectar o mover físicamente cables y equipo. Las VLAN se ocupan de la escalabilidad, seguridad y gestión de red. Los routers en las topologías de VLAN proporcionan filtrado de broadcast, seguridad y gestión de flujo de tráfico. El tráfico sólo debe enrutarse entre VLAN. Los switches no puentean ningún tráfico, dado que esto viola la integridad del dominio de broadcast de las VLAN. El beneficio principal de las VLAN es que permiten que el administrador de red organice la LAN de forma lógica en lugar de física. Esto incluye la capacidad para mover estaciones de trabajo en la LAN, agregar estaciones de trabajo a la LAN, cambiar la configuración de la LAN, controlar el tráfico de red y mejorar la seguridad. Una VLAN es un dominio de broadcast creado por uno o más switches. Las VLAN se usan para crear dominios de broadcast para mejorar el desempeño general de la red. Al implementar VLAN en un switch, el switch mantiene una tabla de puenteo separada para cada VLAN. Si viene la trama a un puerto en la VLAN 1, el switch busca la tabla de puenteo para la VLAN 1. Cuando se recibe la trama, el switch agrega la dirección origen a la tabla de puenteo si no se la conoce actualmente. El switch entonces verifica el destino para que se pueda tomar una decisión de envío. Para aprender y enviar se realiza la búsqueda en la tabla de direcciones para esa VLAN solamente. Existen tres asociaciones básicas de VLAN para determinar y controlar la manera en que se asigna un paquete. Éstas incluyen VLAN basadas en puertos, VLAN basadas en direcciones MAC y VLAN basadas en protocolo. El enlace Inter-Switch (ISL) es un método de etiquetado de trama que está haciendo rápidamente reemplazado por el etiquetado de trama 802.1Q. El etiquetado de paquetes brinda un mecanismo para controlar el flujo de broadcasts y aplicaciones, mientras que no interfiere con la red y las aplicaciones. Cada VLAN debe tener una dirección única de red de Capa 3 asignada a ella. Esto permite que los routers intercambien paquetes entre VLAN. Las VLAN pueden existir como redes de extremo a extremo, o pueden existir dentro de las fronteras geográficas. Una red VLAN de extremo a extremo agrupa usuarios en VLAN según el grupo o función laboral. Todos los usuarios en una VLAN deberían tener los mismos patrones de flujo de tráfico 80/20. La asociación a una VLAN no cambia para un usuario que cambia de lugar físico. Cada VLAN tiene un conjunto común de requisitos de seguridad para todos los miembros. Las VLANs estáticas son puertos en un switch que se asignan manualmente a una VLAN utilizando la aplicación de gestión de VLAN o trabajando directamente dentro del switch. Estos puertos mantienen su configuración de VLAN asignada hasta que se cambien manualmente. Las VLAN dinámicas no se basan en puertos asignados a una VLAN específica. Se usan los comandos show vlan, show vlan brief, o show vlan id id_number para verificar las configuraciones de VLAN. Se aplica un enfoque sistemático para el diagnóstico de fallas en una VLAN. Para aislar un problema, verifique las indicaciones físicas como el estado de LED. Comience con una sola configuración en un switch y prosiga el proceso hacia afuera. Verifique el enlace de Capa 1 y luego el de Capa 2. Haga el diagnóstico de fallas de las VLAN que abarcan varios switches. Algunos problemas recurrentes se deben a un crecimiento de la demanda de servicios por parte de puertos de estación de trabajo que excede los recursos de configuración, enlace troncal o capacidad para acceder a los recursos de servidor. Módulo 9: Protocolos de enlace troncal de VLAN Descripción general Las primeras VLAN eran difíciles de implementar entre redes. Cada VLAN se configuraba de forma manual en cada switch. La administración de VLAN a través de una red amplia era una tarea complicada. Para complicar aun más las cosas, cada fabricante de switches tenía distintos métodos para las capacidades de VLAN. Se desarrollaron los enlaces troncales de VLAN para resolver estos problemas. El enlace troncal de VLAN permite que se definan varias VLAN en toda la organización, agregando etiquetas especiales a las tramas que identifican la VLAN a la cual pertenecen. Este etiquetado permite que varias VLAN sean transportadas por toda una gran red conmutada a través de un backbone, o enlace troncal, común. El enlace troncal de VLAN se basa en estándares, siendo el protocolo de enlace troncal IEEE 802.1Q el que se implementa por lo general en la actualidad. El enlace Inter-Switch (ISL) es un protocolo de enlace troncal propietario de Cisco que se puede implementar en todas las redes Cisco. La configuración y el mantenimiento manual del protocolo de enlace troncal virtual (VTP) de VLAN en varios switches puede ser un desafío. Una de las ventajas clave de VTP es la automatización de varias de las tareas

Page 256: Semestre1 Ccna

de configuración de la VLAN una vez que VTP se configura en una red. Este módulo explica la implementación de VTP en una red conmutada. La tecnología VLAN brinda varias ventajas a los administradores de red. Entre otras cosas, las VLAN ayudan a controlar los broadcasts de Capa 3, mejoran la seguridad de la red y pueden ayudar a agrupar de forma lógica a los usuarios de la red. Sin embargo, las VLAN tienen una limitación importante. Las VLAN operan en la Capa 2, lo que significa que los dispositivos en distintas VLAN no se pueden comunicar sin utilizar routers y direcciones de capa de red. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: *Explicar el origen y las funciones del enlace troncal de VLAN *Describir cómo el enlace troncal permite la implementación de las VLAN en una red de gran tamaño *Definir IEEE 802.1Q *Definir ISL de Cisco *Configurar y verificar un enlace troncal de VLAN *Definir VTP *Explicar por qué se desarrolló VTP *Describir el contenido de los mensajes de VTP *Enumerar y definir los tres modos de VTP *Configurar y verificar VTP en un switch basado en IOS *Explicar por qué son necesarios los routers para la comunicación entre las VLAN *Explicar la diferencia entre interfaces físicas y lógicas *Definir subinterfaces *Configurar el enrutamiento entre las VLAN con subinterfaces en un puerto de router 9.1 Enlace troncal 9.1.1 Historia del enlace troncal En esta página se explica la evolución del enlace troncal. La historia del enlace troncal se remonta a los orígenes de las tecnologías radiales y telefónicas. En la tecnología radial, un enlace troncal es una sola línea de comunicaciones que transporta múltiples canales de señales de radio. En la industria telefónica, el concepto de enlace troncal se asocia con la ruta o el canal de la comunicación telefónica entre dos puntos. Generalmente, uno de estos dos puntos es la oficina central (CO). También se pueden crear enlaces troncales compartidos para la redundancia entre las CO. El concepto utilizado en las industrias radial y telefónica luego fue adoptado para las comunicaciones de datos. Un ejemplo de ello en una red de comunicaciones es un enlace backbone entre un MDF y un IDF. Un backbone se compone de varios enlaces troncales. En la actualidad, el mismo principio de enlace troncal se aplica en las tecnologías de conmutación de redes. Un enlace troncal es una conexión física y lógica entre dos switches a través de la cual viaja el tráfico de red. En la página siguiente se describe cómo se usan los enlaces troncales. 9.1.2 Conceptos de enlace troncal En esta página se explica cómo se usan los enlaces troncales en un entorno de VLAN conmutada. Como se ha mencionado anteriormente, un enlace troncal es una conexión física y lógica entre dos switches a través de la cual se transmite el tráfico de red. Es un único canal de transmisión entre dos puntos. Generalmente, los dos puntos son centros de conmutación. En una red conmutada, un enlace troncal es un enlace punto a punto que admite varias VLAN. El propósito de un enlace troncal es conservar los puertos cuando se crea un enlace entre dos dispositivos que implementan las VLAN. La Figura muestra dos VLAN compartidas entre los switches Sa y Sb. Cada switch usa dos enlaces físicos de modo que cada puerto transporta tráfico para una sola VLAN. Ésta es una forma sencilla de implementar la comunicación entre las VLAN de diferentes switches, pero no funciona bien a mayor escala. La adición de una tercera VLAN requiere el uso de dos puertos adicionales, uno para cada switch conectado. Este diseño también es ineficiente en lo que se refiere al método de compartir la carga. Además, el tráfico en algunas de las VLAN puede no justificar un enlace dedicado. El enlace troncal agrupa múltiples enlaces virtuales en un enlace físico. Esto permite que el tráfico de varias VLAN viaje a través de un solo cable entre los switches. Un enlace troncal se puede comparar con las carreteras de distribución de una autopista. Las carreteras que

Page 257: Semestre1 Ccna

tienen distintos puntos de inicio y fin comparten una autopista nacional principal durante algunos kilómetros, luego se vuelven a dividir para llegar a sus destinos individuales. Este método es más económico que la construcción de una carretera entera desde el principio al fin para cada destino conocido o nuevo. En la página siguiente se analizan los protocolos de enlace troncal. 9.1.3 Operación del enlace troncal En esta página se explica cómo los enlaces troncales administran las transmisiones de trama entre las VLAN. Las tablas de conmutación en ambos extremos del enlace troncal se pueden usar para tomar decisiones de envío basadas en las direcciones MAC destino de las tramas. A medida que aumenta la cantidad de VLAN que viajan a través del enlace troncal, las decisiones de envío se tornan más lentas y más difíciles de administrar. El proceso de decisión se torna más lento dado que las tablas de conmutación de mayor tamaño tardan más en procesarse. Los protocolos de enlace troncal se desarrollaron para administrar la transferencia de tramas de distintas VLAN en una sola línea física de forma eficaz. Los protocolos de enlace troncal establecen un acuerdo para la distribución de tramas a los puertos asociados en ambos entremos del enlace troncal. Los dos tipos de mecanismos de enlace troncal que existen son el filtrado de tramas y el etiquetado de tramas. La IEEE adoptó el etiquetado de tramas como el mecanismo estándar de enlace troncal. Los protocolos de enlace troncal que usan etiquetado de tramas logran un envío de tramas más veloz y facilitan la administración. El único enlace físico entre dos switches puede transportar tráfico para cualquier VLAN. Para poder lograr esto, se rotula cada trama que se envía en el enlace para identificar a qué VLAN pertenece. Existen distintos esquemas de etiquetado. Los dos esquemas de etiquetado más comunes para los segmentos Ethernet son ISL y 802.1Q: *ISL – Un protocolo propietario de Cisco *802.1Q – Un estándar IEEE que es el punto central de esta sección La Actividad de Medios Interactivos ayuda a los estudiantes a entender cómo los enlaces troncales reducen la necesidad de interfaces físicas en un switch. En la página siguiente se analiza el etiquetado de tramas. 9.1.4 VLANs y enlace troncal Se usan protocolos, o normas, específicos para implementar los enlaces troncales. El enlace troncal proporciona un método eficaz para distribuir la información del identificador de VLAN a otros switches. Los dos tipos de mecanismos de enlace troncal estándar que existen son el etiquetado de tramas y el filtrado de tramas. En esta página se explica cómo se puede usar el etiquetado de tramas para ofrecer una solución más escalable para la implementación de las VLAN. El estándar IEEE 802.1Q establece el etiquetado de tramas como el método para implementar las VLAN. El etiquetado de trama de VLAN se ha desarrollado específicamente para las comunicaciones conmutadas. El etiquetado de trama coloca un identificador único en el encabezado de cada trama a medida que se envía por todo el backbone de la red. El identificador es comprendido y examinado por cada switch antes de enviar cualquier broadcast o transmisión a otros switches, routers o estaciones finales. Cuando la trama sale del backbone de la red, el switch elimina el identificador antes de que la trama se transmita a la estación final objetivo. El etiquetado de trama funciona a nivel de Capa 2 y requiere pocos recursos de red o gastos administrativos. Es importante entender que un enlace troncal no pertenece a una VLAN específica. Un enlace troncal es un conducto para las VLAN entre los switches y los routers. ISL es un protocolo que mantiene la información de VLAN a medida que el tráfico fluye entre los switches. Con ISL, la trama Ethernet se encapsula con un encabezado que contiene un identificador de VLAN. 9.1.5 Implementación del enlace troncal En esta página se enseña a los estudiantes a crear y configurar un enlace troncal de VLAN en un switch basado en comandos de Cisco IOS. En primer lugar, configure el puerto primero como un enlace troncal y luego use los comandos que se muestran en la Figura para especificar el encapsulamiento del enlace troncal. Verifique que se ha configurado el trunking y verifique la configuración con el comando show interfaces interface-type module/port trunk desde el modo EXEC Privilegiado del switch.

Page 258: Semestre1 Ccna

Las actividades de laboratorio enseñarán a los estudiantes a crear enlaces troncales entre dos switches, permitiendo la comunicación entre VLANs. 9.2.1 Historia del VTP En esta página se presenta el protocolo de enlace troncal de VLAN (VTP). El protocolo de enlace troncal de VLAN (VTP) fue creado por Cisco para resolver los problemas operativos en una red conmutada con VLAN. Es un protocolo propietario de Cisco. Piense en el ejemplo de un dominio con varios switches interconectados que admiten varias VLAN. Un dominio es una agrupación lógica de usuarios y recursos bajo el control de un servidor denominado Controlador de Dominio Primario (PDC). Para mantener la conectividad entre las VLAN, cada VLAN se debe configurar de forma manual en cada switch. A medida que la organización crece y se agregan switches adicionales a la red, cada nueva red debe configurarse manualmente con la información de VLAN. La asignación incorrecta de una sola VLAN puede causar dos problemas potenciales: *Conexión cruzada entre las VLAN debido a las incongruencias de la configuración de VLAN. *Los errores de configuración de VLAN entre entornos de medios mixtos como, por ejemplo, Ethernet e Interfaz de Datos Distribuida por Fibra (FDDI). Con VTP, la configuración de VLAN se mantiene unificada dentro de un dominio administrativo común. Además, VTP reduce la complejidad de la administración y el monitoreo de redes que tienen VLAN. En la página siguiente se explica cómo funciona VTP. 9.2.2 Conceptos de VTP En esta página se explica cómo se usa VTP en una red. El rol de VTP es mantener la configuración de VLAN de manera unificada en todo un dominio administrativo de red común. VTP es un protocolo de mensajería que usa tramas de enlace troncal de Capa 2 para agregar, borrar y cambiar el nombre de las VLAN en un solo dominio. VTP también admite cambios centralizados que se comunican a todos los demás switches de la red. Los mensajes de VTP se encapsulan en las tramas del protocolo de enlace Inter-Switch (ISL), propietario de Cisco, o IEEE 802.1Q y se envían a través de enlaces troncales a otros dispositivos. En el caso de las tramas IEEE 802.1Q, se usa un campo de 4 bytes para etiquetar la trama. Ambos formatos transportan el identificador de VLAN Aunque los puertos de switch generalmente se asignan a una sola VLAN, los puertos de enlace troncal por defecto transportan tramas desde todas las VLAN. 9.2.3 Operación del VTP En esta página se explica cómo se transmiten los mensajes de VTP. Los estudiantes también aprenderán acerca de los tres modos de switch de VTP. Un dominio VTP se compone de uno o más dispositivos interconectados que comparten el mismo nombre de dominio VTP. Un switch puede estar en un solo dominio VTP. Cuando se transmiten mensajes VTP a otros switches en la red, el mensaje VTP se encapsula en una trama de protocolo de enlace troncal como por ejemplo ISL o IEEE 802.1Q. La Figura muestra el encapsulamiento genérico para VTP dentro de una trama ISL. El encabezado VTP varía según el tipo de mensaje VTP, pero por lo general siempre se encuentran los mismos cuatro elementos en todos los mensajes VTP. *Versión de protocolo VTP, ya sea la versión 1 ó 2: *Tipo de mensaje VTP: Indica uno de los cuatro tipos de mensajes *Longitud del nombre de dominio de administración: Indica el tamaño del nombre que aparece a continuación *Nombre de dominio de administración: Nombre que se configura para el dominio de administración Los switches VTP operan en uno de estos tres modos: *Servidor *Cliente *Transparente Los servidores VTP pueden crear, modificar y eliminar la VLAN y los parámetros de configuración de VLAN de todo un dominio. Los servidores VTP guardan la información de la configuración VLAN en la NVRAM del switch. Los servidores VTP envían mensajes VTP a través de todos los puertos de enlace troncal. Los clientes VTP no pueden crear, modificar ni eliminar la información de VLAN. Este modo es útil para los switches que carecen de memoria suficiente como para guardar grandes tablas de información de VLAN. El único rol de los clientes VTP es procesar los cambios de VLAN y enviar mensajes VTP desde todos los puertos

Page 259: Semestre1 Ccna

troncales. Los switches en modo VTP transparente envían publicaciones VTP pero ignoran la información que contiene el mensaje. Un switch transparente no modifica su base de datos cuando se reciben actualizaciones o envían una actualización que indica que se ha producido un cambio en el estado de la VLAN. Salvo en el caso de envío de publicaciones VTP, VTP se desactiva en un switch transparente. Las VLAN que se detectan dentro de las publicaciones sirven como notificación al switch que indica que es posible recibir tráfico con los ID de VLAN recientemente definidos. En la Figura , el Switch C transmite una entrada de base de datos VTP con adiciones o eliminaciones al Switch A y Switch B. La base de datos de configuración tiene un número de revisión que aumenta de a uno. Un número de revisión de configuración más alto indica que la información de VLAN que se recibe está más actualizada que la copia guardada. Siempre que un switch recibe una actualización cuyo número de revisión de configuración es más alto, el switch sobrescribe la información guardada con la nueva información enviada en la actualización VTP. El Switch F no procesa la actualización dado que se encuentra en un dominio distinto. Este proceso de sobreescritura significa que si la VLAN no existe en la nueva base de datos, se la elimina del switch. Además, VTP mantiene su propia configuración en NVRAM. El comando erase startup-configuration borra la configuración de la NVRAM pero no borra el número de revisión de la base de datos VTP. Para establecer el número de revisión de configuración nuevamente en cero, se debe reiniciar el switch. Por defecto, los dominios de administración se establecen en modo no seguro. Eso significa que los switches interactúan sin utilizar una contraseña. Para establecer automáticamente el dominio de administración en modo seguro, se debe agregar una contraseña. Para usar el modo seguro, se debe configurar la misma contraseña en cada uno de los switches del dominio de administración. En la página siguiente se analiza la implementación de VTP. 9.2.4 Implementación de VTP En esta página se describen los dos tipos de publicaciones VTP y los tres tipos de mensajes VTP. Con VTP, cada switch publica en sus puertos troncales su dominio de administración, número de revisión de configuración, las VLAN que conoce y determinados parámetros para cada VLAN conocida. Estas tramas de publicación se envían a una dirección multicast de modo que todos los dispositivos vecinos puedan recibir las tramas. Sin embargo, las tramas no se envían mediante los procedimientos de puenteo normales. Todos los dispositivos en el mismo dominio de administración reciben información acerca de cualquier nueva VLAN que se haya configurado en el dispositivo transmisor. Se debe crear y configurar una nueva VLAN en un dispositivo solamente en el dominio de administración. Todos los demás dispositivos en el mismo dominio de administración automáticamente reciben la información. Las publicaciones en las VLAN con valores por defecto preconfigurados de fábrica se basan en los tipos de medios. Los puertos de usuario no se deben configurar como enlaces troncales VTP: Cada publicación se inicia con un número de revisión de configuración 0. A medida que se producen cambios, el número de revisión de configuración aumenta de a uno, o n + 1. El número de revisión continúa aumentando hasta que llega a 2.147.483.648. Cuando llega a este punto, el contador se vuelve a colocar en cero. Existen dos clases de publicaciones VTP: *Peticiones de clientes que desean obtener información en el momento del arranque *Respuesta de los servidores Existen tres clases de mensajes VTP: *Peticiones de publicación *Publicaciones de resumen *Publicaciones de subconjunto Con las peticiones de publicación los clientes solicitan información de la VLAN y el servidor responde con publicaciones de resumen y de subconjunto. Por defecto, los switches Catalyst de servidor y de cliente emiten publicaciones de resumen cada cinco minutos. Los servidores informan a los switches vecinos lo que consideran como el número de revisión VTP actual. Si los nombres de dominio concuerdan, el servidor o el cliente comparan el número de revisión de configuración que recibieron. Si el switch recibe un número de revisión más alto que el número de revisión actual en ese switch, emite una petición de publicación para obtener nueva información de VLAN. Las publicaciones de subconjunto contienen información detallada sobre las VLAN, como por ejemplo el tipo de versión VTP, el nombre de dominio y los campos relacionados así como el número de revisión de configuración. Determinadas acciones pueden desencadenar publicaciones de subconjunto: *Creación o eliminación de VLAN *Suspensión o activación de VLAN *Cambio de nombre de VLAN *Cambio de unidad máxima de transmisión (MTU) de VLAN

Page 260: Semestre1 Ccna

Las publicaciones pueden contener parte de o toda la información que se detalla a continuación: *Nombre de dominio de administración: :Las publicaciones que tienen nombres distintos se ignoran. *Número de revisión de configuración: Un número más alto indica que es una configuración más reciente. *Message Digest 5 (MD5): MD5 es la clave que se envía con el VTP cuando se ha asignado una contraseña. Si la clave no concuerda, se ignora la actualización. *Identidad del dispositivo que realiza la actualización: La identidad del dispositivo que realiza la actualización es la identidad del switch que envía la publicación de resumen de VTP. En la página siguiente se analiza la configuración de VTP. 9.2.5 Configuración de VTP En esta página se enseña a los estudiantes cómo configurar VTP. Se deben planear los pasos específicos antes de configurar VTP y las VLAN en la red: 1. Determinar el número de versión del VTP que se utilizará. 2. Decidir si este switch será miembro de un dominio de administración que ya existe o si se deberá crear un nuevo dominio. Si un dominio de administración ya existe, determinar el nombre y la contraseña del dominio. 3. Elegir un modo VTP para el switch. Hay dos versiones diferentes de VTP disponibles, Versión 1 y Versión 2. Ninguna de las dos versiones son interoperables. Si un switch se configura en un dominio para VTP Versión 2, todos los switches del dominio de administración deberán configurarse para VTP Versión 2. VTP Versión 1 es la versión por defecto. Se puede implementar VTP versión 2 si las funciones requeridas no se encuentran en la versión 1. La función más común que se necesita es el soporte VLAN de Token Ring. Para configurar la versión VTP en un switch basado en comandos de Cisco IOS, introduzca primero el modo de la base de datos VLAN. Se puede utilizar el siguiente comando para introducir el modo de la base de datos VLAN y configurar el número de versión del VTP. Switch#vlan database Switch(vlan)#vtp v2-mode Si el switch es el primer switch en la red, deberá crearse el dominio de administración. Si se ha asegurado el dominio de administración, configure una contraseña para el dominio. Se puede utilizar el siguiente comando para crear un dominio de administración. Switch(vlan)#vtp domain cisco El nombre del dominio puede contener de 1 a 32 caracteres. La contraseña debe contener de 8 a 64 caracteres. Para agregar un cliente VTP a un dominio VTP que ya existe, verifique que su número de revisión de configuración VTP sea inferior al número de revisión de configuración de los demás switches en el dominio VTP. Utilice el comando show vtp status. Los switches en un dominio VTP siempre usan la configuración de VLAN del switch con el número de revisión de configuración VTP más alto. Si se agrega un switch con un número de revisión más alto que el que figura actualmente en el dominio VTP, éste puede borrar toda la información de VLAN del servidor VTP y del dominio VTP. Elija uno de los tres modos VTP disponibles para el switch. Si éste es el primer switch en el dominio de administración y si es posible que se agreguen switches adicionales, coloque el modo en servidor. Los switches adicionales podrán obtener la información de VLAN de este switch. Deberá haber al menos un servidor. Las VLAN se pueden crear, eliminar y renombrar a voluntad sin que el switch propague los cambios a otros switches. Las VLAN pueden superponerse si varias personas configuran dispositivos dentro de una red. Por ejemplo, se puede usar el mismo ID de VLAN para las VLAN con propósitos diferentes. Se puede utilizar el siguiente comando para establecer el modo correcto del switch: Switch(vlan)#vtp {client | server | transparent} La Figura muestra el resultado del comando show vtp status. Este comando se utiliza para verificar los parámetros de configuración de VTP en un switch basado en comandos Cisco IOS. La Figura muestra un ejemplo del comando show vtp counters. Este comando se utiliza para mostrar estadísticas sobre las publicaciones enviadas y recibidas a través del switch. Las Actividades de Laboratorio permitirán a los estudiantes practicar las configuraciones de cliente y servidor VTP.

Page 261: Semestre1 Ccna

Con esta página se concluye la lección. En la lección siguiente se analiza el enrutamiento entre VLANs. En la primera página se describen las VLAN. 9.3.1 Aspectos básicos de las VLAN En esta página se repasa el concepto de VLAN y de qué manera se utiliza. Una VLAN es una agrupación lógica de dispositivos o usuarios que se pueden agrupar por función, departamento o aplicación, sin importar su ubicación física. Las VLAN se configuran en el switch a través del software. Debido a la cantidad de implementaciones de VLAN que compiten entre sí es posible que deba requerirse el uso de un software propietario por parte del fabricante del switch. La agrupación de puertos y usuarios en comunidades de interés, conocidos como organizaciones VLAN, puede obtenerse mediante el uso de un solo switch o una conexión más potente entre los switches ya conectados dentro de la empresa. Al agrupar puertos y usuarios en varios switches, las VLAN pueden abarcar infraestructuras contenidas en un solo edificio o en edificios interconectados. Las VLAN ayudan a utilizar con efectividad el ancho de banda dado que comparten el mismo dominio de broadcast o la misma red de Capa 3. Las VLAN optimizan el uso del ancho de banda. Las VLAN se disputan el mismo ancho de banda aunque los requisitos del ancho de banda pueden variar considerablemente según el grupo de trabajo o el departamento. A continuación, presentamos algunos de los temas de configuración de las VLAN: *Un switch crea un dominio de broadcast *Las VLAN ayudan a administrar los dominios de broadcast *Las VLAN se pueden definir en grupos de puerto, usuarios o protocolos *Los switches LAN y el software de administración de red suministran un mecanismo para crear las VLAN Las VLAN ayudan a controlar el tamaño de los dominios de broadcast y a ubicar el tráfico. Las VLAN se asocian con redes individuales. Por lo tanto, los dispositivos de red en las distintas VLAN no se pueden comunicar directamente entre sí sin la intervención de un dispositivo de enrutamiento de Capa 3. Cuando un nodo en una VLAN necesita comunicarse con un nodo de otra VLAN, se necesita un router para enrutar el tráfico entre las distintas VLAN. Sin este dispositivo de enrutamiento, el tráfico entre las VLAN no puede efectuarse. En la página siguiente se presenta el enrutamiento entre VLAN. 9.3.2 Introducción al enrutamiento entre VLAN En esta página se explica de qué manera los routers operan ente las distintas VLAN. Cuando el host en un dominio de broadcast desea comunicarse con un host en otro dominio de broadcast, debe utilizarse un router. El puerto 1 en un switch forma parte de la VLAN 1 y el puerto 2 forma parte de la VLAN 200. Si todos los puertos de switch formaran parte de la VLAN 1, es posible que los hosts conectados a estos puertos puedan comunicar entre sí. Sin embargo, en este caso, los puertos forman parte de distintas VLAN, la VLAN 1 y la VLAN 200. Se debe utilizar un router si los hosts de las distintas VLAN necesitan comunicarse entre sí. La ventajas más importante del enrutamiento es su probado historial de facilitar la administración de redes, especialmente de grandes redes. Aunque la Internet sirva de ejemplo obvio, este punto es válido para cualquier tipo de red, como por ejemplo un backbone de campus de gran tamaño. Dado que los routers evitan la propagación de broadcast y utilizan algoritmos de envío más inteligentes que los puentes y los switches, los routers ofrecen un uso más eficiente del ancho de banda. Esto da como resultado simultáneamente una selección de ruta flexible y óptima. Por ejemplo, es muy fácil implementar el equilibrio de carga a través de varias rutas en la mayoría de las redes cuando se realiza el proceso de enrutamiento. Por otra parte, el equilibrio de carga de la Capa 2 puede resultar muy difícil de diseñar, implementar y mantener. Si una VLAN abarca varios dispositivos se utiliza un enlace troncal para interconectar los dispositivos. El enlace troncal transporta el tráfico para varias VLAN. Por ejemplo, un enlace troncal puede conectar un switch a otro switch, un switch a un router entre VLAN o un switch a un servidor instalando una NIC especial que admite enlace troncal. Recuerde que cuando un host en una VLAN desea comunicarse con un host de otra VLAN, se debe utilizar un router. En la página siguente se analizan las conexiones lógicas y físicas. 9.3.3 Problemas y soluciones entre VLAN En esta página se describen algunos problemas de conectividad lógica y física que se producen entre distintas VLAN.

Page 262: Semestre1 Ccna

Cuando las VLAN se conectan entre sí, surgen algunos problemas técnicos. Dos de los problemas más comunes que pueden surgir en un entorno de varias VLAN son los siguientes: *La necesidad de que los dispositivos de usuario final alcancen hosts no locales *Las necesidad de que los hosts en distintas VLAN se comuniquen entre sí Cuando un router necesita realizar una conexión a un host remoto, verifica su tabla de enrutamiento para determinar si existe alguna ruta conocida. Si el host remoto entra en una subred que sabe cómo llegar al destino, el sistema verifica si puede conectarse a través de esta interfaz. Si todas las rutas conocidas fallan, el sistema tiene una última opción, la ruta por defecto. Esta ruta es un tipo especial de ruta gateway y por lo general es la única que está presente en el sistema. En un router, un asterisco (*) permite indicar una ruta por defecto en el resultado del comando show ip route. Para los hosts en una red de área local, este gateway se establece en cualquier máquina que tiene conexión directa con el mundo exterior y corresponde al Gateway por defecto que aparece en las configuraciones TCP/IP de la estación de trabajo. Si la ruta por defecto se configura para un router que está funcionando como gateway para la Internet pública, entonces la ruta por defecto apuntará a la máquina de gateway en un sitio de proveedor de servicios Internet (ISP). Las rutas por defecto se implementan usando el comando ip route. Router(Config)#ip route 0.0.0.0 0.0.0.0 192.168.1.1 En este ejemplo, 192.168.1.1 es el gateway. La conectividad entre VLAN se puede lograr a través de una conectividad lógica o física. La conectividad lógica involucra una conexión única, o un enlace troncal, desde el switch hasta el router. Ese enlace troncal puede admitir varias VLAN. Esta topología se denomina "router en un palo" porque existe una sola conexión al router. Sin embargo, existen varias conexiones lógicas entre el router y el switch. La conectividad física implica una conexión física separada para cada VLAN. Esto significa una interfaz física separada para cada VLAN. Los primeros diseños de VLAN se basaban en routers externos conectados a switches que admitían VLAN. En este enfoque, los routers tradicionales se conectan a una red conmutada a través de uno o más enlaces. Los diseños de "router en un palo" emplean un enlace troncal único que conecta el router al resto de la red campus. El tráfico entreVLANs debe atravesar el backbone de Capa 2 para alcanzar el router desde donde podrá desplazarse entre las VLAN. El tráfico viaja entonces de vuelta hacia la estación final deseada utilizando el método de envío de Capa 2 normal. Este flujo de ida y vuelta es característico de los diseños de "router en un palo". La Actividad de Medios Interactivos ayudará a los estudiantes a familiarizarse con algunos temas y soluciones de enrutamiento comunes. En la página siguiente se analizan las interfaces físicas y lógicas. 9.3.4 Interfaces físicas y lógicas En esta página se explica de qué manera las interfaces físicas y lógicas se agregan a un diseño de red. En una situación tradicional, una red con cuatro VLAN requeriría cuatro conexiones físicas entre el switch y el router externo. A medida que las tecnologías como por ejemplo el Enlace inter-switch (ISL) se vuelven más comunes, los diseñadores de red empiezan a utilizar enlaces troncales para conectar los routers a los switches. A pesar de que se puede utilizar cualquier tecnología de enlace troncal como por ejemplo ISL, 802.1Q, 802.10 o la emulación LAN (LANE), los enfoques basados en Ethernet como por ejemplo ISL y 802.1Q son más comunes. El protocolo propietario de Cisco ISL así como el estándar 802.1q de varios vendedores IEEE, se utilizan para efectuar el enlace troncal de las VLAN en los enlaces Fast Ethernet. La línea sólida en el ejemplo se refiere a un enlace físico único entre el switch Catalyst y el router. Se trata de la interfaz física que conecta el router al switch. A medida que aumenta la cantidad de VLAN en una red, el enfoque físico de tener una interfaz de router por VLAN se vuelve rápidamente inescalable. Las redes con muchas VLAN deben utilizar el enlace troncal de VLAN para asignar varias VLAN a una interfaz de router única. Las líneas punteadas en el ejemplo se refieren a los distintos enlaces lógicos que se ejecutan a través de este enlace físico utilizando subinterfaces. El router puede admitir varias interfaces lógicas en enlaces físicos individuales. Por ejemplo, la interfaz física FastEthernet 1/0 podría soportar tres interfaces virtuales denominadas FastEthernet 1/0.1, 1/0.2 y 1/0.3. La ventaja principal del uso del enlace troncal es una reducción en la cantidad de puertos de router y switch que se utiliza. Esto no sólo permite un ahorro de dinero sino también reduce la complejidad de la configuración. Como consecuencia, el enfoque de router conectado a un enlace troncal puede ampliarse hasta un número

Page 263: Semestre1 Ccna

mucho más alto de VLAN que el diseño de "un enlace por VLAN". En la página siguiente se describen las subinterfaces. 9.3.5 División de interfaces físicas en subinterfaces En esta página se presentan las subinterfaces. Una subinterfaz es una interfaz lógica dentro de una interfaz física, como por ejemplo la interfaz Fast Ethernet en un router. Pueden existir varias subinterfaces en una sola interfaz física. Cada subinterfaz admite una VLAN y se le asigna una dirección IP. Para que varios dispositivos en una misma VLAN se puedan comunicar, las direcciones IP de todas las subinterfaces en malla deben encontrarse en la misma red o subred. Por ejemplo, si la subinterfaz FastEthernet 0/0.1 tiene una dirección IP de 192.168.1.1 entonces 192.168.1.2, 192.168.1.3 y 192.1.1.4 son las direcciones IP de dispositivos conectados a la subinterfaz FastEthernet 0/0.1. Para poder establecer una ruta entre las distintas VLAN con subinterfaces, se debe crear una subinterfaz para cada VLAN. La siguiente página tratará los comandos que se utilizan para crear una subinterfaz, aplicar un protocolo de enlace troncal y una dirección IP. 9.3.6 Configuración de un enrutamiento entre distintas VLAN En esta página se muestran los comandos que se utilizan para configurar el enrutamiento entre VLAN entre un router y un switch. Antes de implementar cualquiera de estos comandos, debe verificarse cada router y switch para comprobar qué encapsulamientos de VLAN admiten. Los switches Catalyst 2950 han admitido el enlace troncal 802.1q desde que se lanzó al mercado la versión 12.0(5.2)WC(1) de Cisco IOS, pero no admiten el enlace troncal Inter-Switch (ISL). Para que el enrutamiento entre VLAN funcione correctamente, todos los routers y switches involucrados deben admitir el mismo encapsulamiento. En un router, una interfaz se puede dividir lógicamente en varias subinterfaces virtuales. Las subinterfaces ofrecen una solución flexible para el enrutamiento de varias corrientes de datos a través de una interfaz física única. Para definir las subinterfaces en una interfaz física, realice las siguientes tareas: *Identifique la interfaz. *Defina el encapsulamiento de la VLAN. *Asigne una dirección IP a la interfaz. Para identificar la interfaz utilice el comando interface en el modo de configuración global. Router(config)#interface fastethernet port-number. subinterface-number port-number identifica la interfaz física y subinterface-number identifica la interfaz virtual. El router debe poder comunicarse con el switch utilizando un protocolo de enlace troncal estandarizado. Esto significa que ambos dispositivos conectados entre sí deben comprenderse. En el ejemplo, se utiliza 802.1Q. Para definir el encapsulamiento de la VLAN, introduzca el comando encapsulation en el modo de configuración de interfaz. Router(config-if)#encapsulation dot1q vlan-number vlan-number identifica la VLAN para la cual la subinterfaz transportará el tráfico. Se agrega un ID de VLAN a la trama sólo cuando la trama está destinada a una red no local. Cada paquete de VLAN transporta el ID de VLAN dentro del encabezado del paquete. Para asignar una dirección IP a la interfaz, introduzca el siguiente comando en el modo de configuración de interfaz. Router(config-if)#ip address ip-address subnet-mask ip-address y subnet-mask son las direcciones y la máscara de red de 32 bits de la interfaz específica. En el ejemplo, el router tiene tres subinterfaces configuradas en la interfaz Fast Ethernet 0/0. Estas tres subinterfaces se identifican como 0/0.1, 0/0.2 y 0/0.3. Todas las interfaces se encapsulan para 802.1q. La interfaz 0/0.1 enruta paquetes para la VLAN 1, mientras que la interfaz 0/0.2 enruta paquetes para la VLAN 20 y la interfaz 0/0.3 enruta paquetes para la VLAN 30. En las Actividades de Laboratorio, los estudiantes aprenderán a configurar el enrutamiento entre VLAN entre un router y un switch. Con esta página se concluye la lección. En la página siguiente se resumen los puntos principales de este

Page 264: Semestre1 Ccna

módulo. Resumen En esta página se resumen los temas analizados en este módulo. Un enlace troncal es una conexión física y lógica entre dos switches a través de la cual viaja el tráfico de red. El concepto de enlace troncal se remonta a los orígenes de las tecnologías de radio y telefonía. En el contexto de un entorno de conmutación de VLAN, un enlace troncal es un enlace punto a punto que admite varias VLAN. El propósito del enlace troncal es conservar puertos al crear un enlace entre dos dispositivos implementando distintas VLAN. El enlace troncal agrupará varios enlaces virtuales de un enlace físico permitiendo que el tráfico de varias VLAN viaje a través de un sólo cable entre los distintos switches. Las tablas de conmutación en ambos extremos del enlace troncal se pueden utilizar para tomar decisiones de envío de puerto basadas en direcciones MAC de destino de trama. Este proceso se desacelera a medida que aumenta la cantidad de VLAN que viajan a través del enlace troncal. Para administrar con efectividad la transferencia de tramas desde distintas VLAN se desarrolló el envío a través de protocolos de enlace troncal de línea física única. Los protocolos de enlace troncal establecen un acuerdo para la distribución de tramas a los puertos asociados en ambos entremos del enlace troncal. Existen dos tipos de mecanismos de enlace troncal, el filtrado de tramas y el etiquetado de tramas. Los protocolos de enlace troncal que utilizan un mecanismo de etiquetado de tramas asignan un identificador a las tramas. Esto permite una mejor administración y una entrega más rápida. La identificación de trama funciona a nivel de Capa 2 y requiere escaso procesamiento o encabezado administrativo. ISL, el protocolo de enlace entre switch propietario de Cisco y 802-1Q, el estándar de IEEE son los esquemas de etiquetado más comunes de los segmentos Ethernet. Antes de implementar el enlace troncal, determine qué encapsulamiento puede admitir el puerto utilizando el comando show port capabilities. Para verificar que el enlace troncal se haya configurado utilice el comando show trunk [mod_num/port_num] del modo privilegiado en el switch. El protocolo de enlace troncal de VLAN (VTP) se creó para resolver problemas operacionales en una red conmutada con VLAN. Los dos problemas más comunes incluyen VLAN interconectadas provocadas por incoherencias de configuración y mala configuración en entornos de medios mixtos. Con VTP, la configuración de VLAN se mantiene unificada dentro de un dominio administrativo común. Un dominio VTP se compone de uno o más dispositivos interconectados que comparten el mismo nombre de dominio VTP. Un switch puede estar en un solo dominio VTP. Cuando se transmiten mensajes VTP a otros switches en la red, el mensaje VTP se encapsula en una trama de protocolo de enlace troncal como por ejemplo ISL o IEEE 802.1Q. Los switches VTP operan en uno de tres modos. Estos incluyen el servidor que puede crear, modificar y eliminar VLAN así como los parámetros de configuración de una VLAN para todo el dominio, cliente que procesa los cambios de la VLAN y envía mensajes VTP por afuera de todos los puertos de enlace troncal y transparente, que envía publicaciones VTP pero que ignora la información que contiene el mensaje. Con VTP, cada switch publica en los puertos de sus enlaces troncales, su dominio de administración, el número de revisión de configuración, las VLAN que conoce y algunos parámetros para cada VLAN conocida. Estos son dos tipos de publicaciones VTP; peticiones de clientes y respuestas de servidor. Generan tres tipos de mensajes VTP incluyendo una petición de publicación, publicación de resumen y una publicación de subconjunto. Con las peticiones de publicación los clientes solicitan información de la VLAN y el servidor responde con publicaciones de resumen y de subconjunto. Por defecto, los switches Catalyst de servidor y de cliente emiten publicaciones de resumen cada cinco minutos. Los servidores informan a los switches vecinos lo que consideran como el número de revisión VTP actual. Ese número se compara y si existen diferencias, se solicita nueva información sobre la VLAN. Las publicaciones de subconjunto contienen información detallada sobre las VLAN, como por ejemplo el tipo de versión VTP, el nombre de dominio y los campos relacionados así como el número de revisión de configuración. Antes de configurar VTP y una VLAN en una red, determine el número de versión de VTP, en caso de que deba crearse un nuevo dominio y el modo VTP. Deberá haber al menos un servidor. Para establecer el modo correcto del switch basado en comandos Cisco IOS, utilice el comando Switch(vlan)#vtp {client | server | transparent}. Utilice el comando show vtp status para verificar que el número de revisión de configuración VTP sea inferior al número de revisión de configuración de los demás switches en el dominio VTP antes de agregar un cliente. Cuando el host en un dominio de broadcast desea comunicarse con un host en otro dominio de broadcast, debe utilizarse un router. En un router, una interfaz se puede dividir lógicamente en varias subinterfaces virtuales. Las subinterfaces ofrecen una solución flexible para el enrutamiento de varias corrientes de datos a través de una interfaz física única.

Page 265: Semestre1 Ccna

Semestre 4 CCNA

Descargar en PDF Módulo 1: Escalabilidad de direcciones IP Descripción general El rápido crecimiento de la Internet ha dejado atónitos a la mayoría de los observadores. Una de las razones por las que la Internet ha crecido tan rápidamente es debido a la flexibilidad del diseño original. Sin el desarrollo de nuevas tecnologías de asignación de direcciones IP, el rápido crecimiento de Internet habría agotado la cantidad actual de direcciones IP. Para poder compensar esta falta de direcciones IP, se buscaron diferentes soluciones. Una solución ampliamente implementada, es la Traducción de direcciones de red (NAT). NAT es un mecanismo para conservar direcciones IP registradas en las grandes redes y simplificar las tareas de administración de direccionamiento IP. Mientas se enruta un paquete a través de un dispositivo de red, por lo general un firewall o router fronterizo, la dirección IP fuente se traduce de una dirección de red interna privada a una dirección IP pública enrutable. Esto permite que se transporte el paquete a través de redes externas públicas como la Internet. La dirección pública de la respuesta se traduce de nuevo a la dirección interna privada para su entrega dentro de la red interna. Una variación de NAT, conocida como Traducción de direcciones de puerto (PAT), permite la traducción de muchas direcciones privadas internas con una sola dirección pública externa. Los routers, servidores y otros dispositivos fundamentales de la red por lo general requieren de una configuración IP estática, la cual se introduce de forma manual. Sin embargo, los clientes de escritorio no necesitan una dirección específica, sino una que pertenezca a un rango de direcciones. Este rango se encuentra por lo general dentro de una subred IP. A una estación de trabajo dentro de una red específica se le puede asignar cualquier dirección dentro de un rango, mientras que otros valores son estáticos, incluyendo la máscara de subred, el gateway por defecto y el servidor DNS. El protocolo de configuración dinámica de host (DHCP) se diseñó para asignar las direcciones IP y toda información de configuración de red importante de forma dinámica. Como los clientes de escritorio por lo general conforman la mayoría de los nodos de red, el DHCP es una herramienta muy útil que ahorra tiempo a los administradores de red. Los estudiantes que completan este módulo deberán poder hacer lo siguiente: * Identificar las direcciones IP privadas tal como se describen en RFC 1918 * Explicar las características de NAT y PAT * Explicar los beneficios de NAT * Explicar cómo se configuran NAT y PAT, incluyendo la traducción estática y dinámica y la sobrecarga * Identificar los comandos utilizados en la verificación de la configuración de NAT y PAT * Enumerar los pasos mediante los cuales se diagnostican las fallas en la configuración NAT y PAT * Explicar las ventajas y desventajas de NAT * Describir las características del DHCP * Explicar las diferencias entre BOOTP y DHCP * Explicar el proceso de configuración del cliente DHCP * Configurar un servidor DHCP * Verificar la operación de DHCP * Diagnosticar las fallas en una configuración DHCP * Explicar las peticiones de relay DHCP 1.1 Escalabilidad de redes con NAT y PAT 1.1.1 Direccionamiento privado RFC 1918 aparta los tres siguientes bloques de direcciones IP privadas: * Una dirección Clase A * Dieciséis direcciones Clase B * 256 direcciones Clase C Estas direcciones son sólo para el uso particular de la red interna. Los paquetes que contienen a estas direcciones no se enrutan a la Internet.

Page 266: Semestre1 Ccna

Es necesario registrar las direcciones de Internet públicas con una autoridad de Internet como por ejemplo, el Registro americano de números de Internet (ARIN) o la Réseaux IP Européennes (RIPE), el Registro regional de Internet responsable de Europa y África del Norte. Estas direcciones de Internet públicas pueden alquilarse a una ISP también. Las direcciones IP privadas quedan reservadas y cualquiera las puede utilizar. Eso quiere decir que dos redes, o dos millones de redes, pueden utilizar la misma dirección privada. Un router nunca debe enrutar las direcciones RFC 1918 fuera de una red interna. Los ISP por lo general configuran los routers fronterizos para impedir que el tráfico direccionado de forma privada se envíe al exterior. NAT ofrece grandes beneficios a empresas individuales y a la Internet. Antes del desarrollo de NAT, un host con dirección privada no podía acceder a la Internet. Con NAT, las empresas individuales pueden direccionar algunos o todos sus hosts con direcciones privadas y utilizar NAT para brindar acceso a la Internet. 1.1.2 Introducción al NAT y PAT NAT está diseñada para conservar las direcciones IP y permitir que las redes utilicen direcciones IP privadas en las redes internas. Estas direcciones privadas e internas se convierten en direcciones públicas enrutables. Esto se logra mediante el uso de dispositivos de internetwork que ejecutan un software NAT especializado, el cual puede aumentar la privacidad de la red al esconder las direcciones IP internas. Un dispositivo que ejecuta NAT generalmente opera en la frontera de una red stub. Una red stub es una red que posee una sola conexión a su red vecina. Cuando un host dentro de una red stub desea hacer una transmisión a un host en el exterior, envía el paquete al router del gateway fronterizo. El router del gateway fronterizo realiza el proceso de NAT, traduciendo la dirección privada interna de un host a una dirección pública, enrutable y externa. En la terminología de NAT, la red interna es el conjunto de redes que están sujetos a traducción. La red externa se refiere a todas las otras direcciones. Cisco define los siguientes términos NAT: * Dirección local interna: la dirección IP asignada al host en la red interna. En general, la dirección no es una dirección IP asignada por el Centro de Información de la Red de Internet (InterNIC) o el proveedor de servicios. Es probable que esta dirección sea una dirección privada de RFC 1918. * Dirección global interna: una dirección IP legítima asignada por InterNIC o un proveedor de servicios que representa una o más direcciones IP locales internas al mundo exterior. * Dirección local externa: la dirección IP de un host externo, como la conocen los hosts en la red interna. * Dirección global externa: la dirección IP asignada a un host en la red externa. El dueño del host asigna esta dirección. 1.1.3 Características principales de NAT y PAT Las traducciones NAT se pueden usar para una variedad de propósitos y pueden asignarse de manera dinámica o estática. NAT estática está diseñada para permitir que cada dirección local se mapee a su correspondiente dirección global. Esto resulta particularmente útil para los hosts que deban tener una dirección constante que esté accesible desde la Internet. Estos hosts internos pueden ser servidores de empresas o dispositivos de networking. NAT dinámica está diseñada para mapear una dirección IP privada a una dirección pública. Cualquier dirección IP de un conjunto de direcciones IP públicas se asigna a un host de red. La sobrecarga, o Traducción de direcciones de puerto (PAT), mapea varias direcciones IP privadas a una sola dirección IP pública. Se pueden mapear varias direcciones a una sola dirección porque cada dirección privada se diferencia por el número de puerto. PAT utiliza números únicos de puerto origen en la dirección IP global interna para distinguir entre las traducciones. El número de puerto se codifica en 16 bits. En teoría, el número total de direcciones internas que se pueden traducir a una dirección externa podría ser hasta 65,536 por dirección IP . En realidad, el número de puertos que se pueden asignar a una sola dirección IP es aproximadamente 4000. PAT intenta preservar el puerto origen original. Si el puerto origen está en uso, PAT asigna el primer número de puerto disponible comenzando desde el principio del grupo de puertos correspondiente 0-511, 512-1023, o 1024-65535. Cuando no hay más puertos disponibles y hay más de una dirección IP externa configurada, PAT utiliza la próxima dirección IP para tratar de asignar nuevamente el puerto origen original. Este proceso continúa hasta que no haya puertos ni direcciones IP externas disponibles. NAT ofrece las siguientes ventajas: * Elimina la reasignación de una nueva dirección IP a cada host cuando se cambia a un nuevo ISP. NAT elimina la necesidad de re-direccionar todos los hosts que requieran acceso externo, ahorrando tiempo y dinero. * Conserva las direcciones mediante la multiplexión a nivel de puerto de la aplicación. Con PAT, los hosts internos pueden compartir una sola dirección IP pública para toda comunicación externa. En este tipo de configuración, se requieren muy pocas direcciones externas para admitir muchos hosts internos, y de este modo se conservan las direcciones IP * Protege la seguridad de la red. Debido a que las redes privadas no publican sus direcciones o topología interna, ellas son razonablemente seguras cuando se las utiliza en conjunto con NAT para tener un acceso externo controlado.

Page 267: Semestre1 Ccna

1.1.4 Configuración de NAT y PAT Traducción estática Para configurar la traducción estática de direcciones internas origen, realice las operaciones descriptas en las Figuras y . La Figura muestra el uso de la traducción NAT estática. El router traduce los paquetes provenientes del host 10.1.1.2 a la dirección origen de 192.168.1.2. Traducción dinámica Para configurar la traducción dinámica de direcciones internas origen, realice las operaciones descriptas en la Figura . La lista de acceso debe permitir sólo aquellas direcciones que se deben traducir. Recuerde que existe un "denegar todo" implícito al final de una lista de acceso. Una lista de acceso que es demasiado permisiva puede desencadenar resultados impredecibles. Cisco no recomienda configurar listas de acceso con el comando permit any si los comandos NAT se refieren a esas listas. El uso de permit any puede hacer que NAT consuma demasiados recursos de los routers, lo que puede provocar problemas en la red. La figura traduce todas las direcciones origen que pasan la lista de acceso 1, que tienen direcciones origen de 10.1.0.0/24, a una dirección del conjunto llamado nat-pool1. El conjunto contiene direcciones desde 179.9.8.80/24 a 179.9.8.95/24. NOTA: NAT no traduce el host 10.1.1.2, ya que la lista de acceso no permite que se traduzca. Sobrecarga La sobrecarga se puede configurar de dos formas según la asignación de las direcciones IP públicas. Una ISP puede asignar sólo una dirección IP pública a una red, y ésta por lo general se asigna a la interfaz externa que se conecta al ISP. La Figura muestra cómo se configura la sobrecarga en esta situación. Otra forma de configurar la sobrecarga es si el ISP ha asignado una o más direcciones IP públicas para uso en un conjunto NAT. Este conjunto puede sobrecargarse como se observa en la configuración de la Figura . La Figura muestra un ejemplo de configuración de PAT. 1.1.5 Verificación de la configuración PAT. Una vez se ha configurado NAT, se puede utilizar los comandos clear y show para verificar que esté operando correctamente. Por defecto, las traducciones de direcciones dinámicas se borran de la tabla de traducción de NAT después de pasar cierto límite de tiempo de inactividad. Si el puerto de traducción no está configurado, las entradas de traducción se borran después de 24 horas, a menos que los temporizadores se reconfiguren mediante el comando ip nat translation timeouttimeout_seconds en el modo de configuración global. Se pueden borrar las entradas antes de que se venza el tiempo de espera utilizando uno de los comandos de la Figura . La información de traducción se puede visualizar, llevando a cabo una de las operaciones descriptas en el modo EXEC . Otra alternativa, es utilizar el comando show run y buscar los comandos de NAT, de lista de acceso, de interfaz, o de conjunto con los valores requeridos. 1.1.6 Diagnóstico de fallas en la configuración de NAT y PAT Cuando existen problemas de conectividad IP en un entorno NAT, muchas veces resulta difícil determinar la causa del problema. Con frecuencia se culpa a NAT equivocadamente, cuando en realidad hay un problema subyacente. Al intentar determinar la causa del problema de conectividad IP, es útil excluir NAT. Siga los pasos que aparecen a continuación para determinar si NAT está funcionando correctamente: 1. Basándose en la configuración, defina con claridad lo que NAT debe lograr. 2. Verifique que haya traducciones correctas en la tabla de traducción. 3. Verifique por medio de los comandos show y debug que la traducción se está realizando. 4. Revise detalladamente lo que le está pasando al paquete y verifique que los routers tengan la información de enrutamiento correcta para enviar el paquete. Utilice el comando debug ip nat para verificar la operación de NAT visualizando la información acerca de cada

Page 268: Semestre1 Ccna

paquete que el router traduce. El comando debug ip nat detailed genera una descripción de cada paquete considerado para su traducción. Este comando también muestra información sobre ciertos errores o condiciones de excepción, como la imposibilidad de asignar una dirección global. La Figura muestra un ejemplo de salida de debug ip nat. En este ejemplo, las primeras dos líneas de la salida de depuración muestran que se produjeron una petición y una respuesta de Sistema de denominación de dominio (DNS). Las líneas restantes muestran la salida de depuración de una conexión Telnet desde un host en dentro la red a otro host fuera de la red. Utilice los siguientes puntos para descodificar la salida de debug: * El asterisco que se encuentra al lado de NAT indica que la traducción se está realizando en la ruta de conmutación rápida. El primer paquete de una conversación siempre se envía por la ruta lenta, lo que significa que el primer paquete es de conmutación de procesos. Los otros paquetes se envían por una ruta de conmutación rápida, si existe una entrada de caché. * s = a.b.c.d es la dirección origen. * La dirección origen a.b.c.d se traduce a w.x.y.z * d = e.f.g.h es la dirección destino. * El valor entre corchetes corresponde al número de identificación IP. Esta información puede resultar útil en la depuración. Esto resulta útil, por ejemplo, porque permite establecer una correlación con otros rastreos de paquetes de analizadores de protocolos. 1.1.7 Problemas con NAT NAT presenta varias ventajas, a saber: * Conserva el esquema de direccionamiento legalmente registrado al permitir la privatización de redes internas. * Aumenta la flexibilidad de las conexiones con la red pública. Se pueden implementar varios conjuntos, conjuntos de respaldo y de equilibrio de la carga para garantizar que las conexiones de red pública sean confiables. * Uniformidad en el esquema de direccionamiento de red interno. En una red sin direcciones IP privadas y NAT, cambiar de direcciones IP públicas requiere la renumeración de todos los hosts en la red existente. El costo de renumerar los host puede ser elevado. NAT permite que permanezca el esquema existente, admitiendo a la vez un nuevo sistema de direccionamiento público. Sin embargo, NAT presenta algunas desventajas. Permitir la traducción de direcciones causa una pérdida en la funcionalidad, en particular con cualquier protocolo o aplicación que implique el envío de información de dirección IP dentro de los datos del paquete (payload) IP. Esto requiere que el dispositivo NAT tenga más funcionalidad. NAT aumenta el retardo. Se introducen retardos en la conmutación de rutas debido a la traducción de cada dirección IP dentro de los encabezados del paquete. El primer paquete siempre se envía por la ruta lenta, lo que significa que el primer paquete es de conmutación de procesos. Los otros paquetes se envían por la ruta de conmutación rápida, si existe una entrada de caché. Es posible que se comprometa el desempeño, ya que, en la actualidad, NAT se logra a través de la conmutación de procesos. La CPU tiene que inspeccionar cada paquete para decidir si es necesario traducirlo. La CPU debe modificar el encabezado IP, y posiblemente el encabezado TCP también: Una desventaja significativa que surge al implementar y utilizar NAT, es la pérdida de la posibilidad de rastreo IP de extremo a extremo. Se hace mucho más difícil rastrear paquetes que sufren varios cambios en la dirección del paquete al atravesar múltiples saltos NAT. Afortunadamente, los hackers que quieran determinar la fuente del paquete, descubrirán que es muy difícil rastrear u obtener la dirección origen o destino original. NAT también hace que algunas aplicaciones que utilizan el direccionamiento IP dejen de funcionar, porque esconde las direcciones IP de extremo a extremo. Las aplicaciones que utilizan las direcciones físicas en vez de un nombre de dominio calificado no llegarán a los destinos que se traducen en el router NAT. Algunas veces, este problema puede evitarse implementando mapeos NAT estáticos. Cisco IOS NAT admite los siguientes tipos de tráfico: * ICMP * Protocolo de transferencia de archivos (FTP), incluyendo los comandos PORT y PASV * NetBIOS a través de los servicios TCP/IP, de datagrama, de nombre y de sesión. * RealAudio de RealNetworks. * CUSeeMe de White Pines. * StreamWorks de Xing Technologies. * Consultas de DNS "A" y "PTR" * H.323/Microsoft NetMeeting, versiones IOS 12.0(1)/12.0(1)T y posteriores * VDOLive de VDOnet , versiones IOS 11.3(4)11.3(4)T y posteriores * Web Theater de VXtreme, versiones IOS11.3(4)11.3(4)T y posteriores

Page 269: Semestre1 Ccna

* Multicast IP, versión IOS12.0(1)T con traducción de las direcciones origen únicamente * Cisco IOS NAT no admite los siguientes tipos de tráfico: * Actualizaciones de la tabla de enrutamiento * Transferencias de la zona DNS * BOOTP * Protocolos talk y ntalk * Protocolo simple de administración de red (SNMP) 1.2.1 Introducción al DHCP El Protocolo de configuración dinámica del host (DHCP) funciona en el modo cliente/servidor. DHCP permite que los clientes DHCP de una red IP obtengan sus configuraciones de un servidor DHCP. Es menos trabajoso administrar una red IP cuando se utiliza DHCP. La opción de configuración más significativa que el cliente recibe del servidor es su dirección IP. El protocolo DHCP se describe en RFC 2131. Un cliente DHCP está incluido en la mayoría de los sistemas operativos modernos, inclusive en varios sistemas operativos de Windows, Novell Netware, Sun Solaris, Linux y MAC OS. El cliente pide valores de direccionamiento al servidor DHCP de red. Este servidor administra la asignación de las direcciones IP y responde a las peticiones de configuración de los clientes. El servidor DHCP puede responder a las peticiones provenientes de muchas subredes. DHCP no está destinado a la configuración de routers, switches y servidores. Estos tipos de hosts necesitan contar con direcciones IP estáticas. La función de DHCP es brindar un proceso para que el servidor pueda asignar información IP a los clientes. Los clientes alquilan la información de los servidores por un período definido administrativamente. Cuando el período de alquiler se termina, el cliente debe pedir otra dirección, aunque en general, se le reasigna la misma dirección. Los administradores en general prefieren que los servidores de red ofrezcan servicios DHCP porque estas soluciones facilitan el crecimiento y la administración. Los routers de Cisco pueden utilizar un conjunto de funciones Cisco IOS, que se llama Easy IP, para ofrecer un servidor DHCP opcional con todas las funciones. Easy IP alquila las configuraciones por 24 horas por defecto. Esto resulta muy útil en las oficinas pequeñas y para aquellos que trabajan en sus casas, donde el usuario puede aprovechar DHCP y NAT sin contar con un servidor NT o UNIX. Los administradores configuran los servidores DHCP para asignar direcciones de conjuntos predefinidos. Los servidores DHCP pueden ofrecer otra información, tal como direcciones del servidor DNS, direcciones del servidor WINS y nombres de dominios. La mayoría de los servidores DHCP también permiten que el administrador defina de forma específica cuáles direcciones MAC de cliente se pueden servir y asignarles cada vez la misma dirección IP de forma automática. DHCP utiliza el Protocolo de datagrama del usuario (UDP) como su protocolo de transporte. El cliente envía mensajes al servidor en el puerto 67. El servidor envía mensajes al cliente en el puerto 68. 1.2.2 Diferencias entre BOOTP y DHCP La comunidad de Internet comenzó a desarrollar el protocolo BOOTP para permitir la configuración de estaciones de trabajo sin disco. BOOTP se definió originalmente en RFC 951 en 1985. Como predecesor de DHCP, BOOTP comparte algunas de las características operacionales. Ambos protocolos se basan en la relación cliente/servidor y utilizan los puertos UDP 67 y 68. Estos puertos todavía se conocen como puertos BOOTP. Los cuatro parámetros IP básicos incluyen: * Dirección IP * Dirección de gateway * Máscara de subred * Dirección de servidor DNS. BOOTP no asigna direcciones IP a un host de forma dinámica. Cuando un cliente solicita una dirección IP, el servidor BOOTP busca una entrada que coincida con la dirección MAC del cliente en una tabla predefinida. Si la entrada existe, entonces la dirección IP correspondiente a esa entrada se envía al cliente. Esto significa que el enlace entre las direcciones MAC e IP se tiene que haber configurado previamente en el servidor BOOTP. Existen dos diferencias principales entre DHCP y BOOTP: * DHCP define mecanismos por medio de los cuales se les puede asignar una dirección IP a los clientes por un período de tiempo de alquiler determinado. Este período de alquiler permite la reasignación de la dirección IP a otro cliente más tarde, o que el cliente reciba otra asignación si se cambia a otra subred. Además, los clientes pueden renovar los alquileres y mantener la misma dirección IP. * DHCP proporciona el mecanismo para que un cliente reúna otros parámetros de configuración IP, tales como WINS y denominación de dominio.

Page 270: Semestre1 Ccna

1.2.3 Funciones principales del DHCP Tres son los mecanismos para asignar direcciones IP a un cliente. * Asignación automática: DHCP asigna de manera automática una dirección IP a un cliente. * Asignación manual: el administrador asigna una dirección IP al cliente. DHCP comunica la dirección al cliente. * Asignación dinámica: DHCP asigna, o alquila, una dirección IP al cliente por un período de tiempo limitado. El enfoque de esta sección es el mecanismo de asignación dinámico. Algunos de los parámetros de configuración disponibles están enumerados en IETF RFC 1533: * Máscara de subred * Router * Nombre de dominio * Servidor(es) de denominación de dominio * Servidor(es) WINS El servidor DHCP crea conjuntos de direcciones IP y parámetros asociados. Los conjuntos están dedicados a una subred IP lógica individual. Esto permite que varios servidores DHCP respondan y que los clientes IP sean móviles. Si varios servidores responden, el cliente puede elegir sólo una de las ofertas. 1.2.4 Operación DHCP El proceso de configuración de un cliente DHCP consta de los siguientes pasos: 1. Un cliente debe tener DHCP configurado al comenzar su proceso de participación en la red. El cliente envía una petición al servidor para obtener una configuración IP. Algunas veces el cliente sugiere la dirección IP que quiere, como cuando pide una extensión de un alquiler DHCP. El cliente ubica el servidor DHCP enviando un broadcast llamado DHCPDISCOVER. 2. Cuando un servidor recibe el broadcast, determina si puede servir esa petición de su propia base de datos. Si no puede, es posible que el servidor envíe la petición a otro servidor DHCP. Si puede, el servidor DHCP ofrece al cliente información de configuración IP como DHCPOFFER unicast DHCPOFFER es una configuración propuesta que puede incluir direcciones IP, direcciones de servidores DNS y tiempo de alquiler. 3. Si el cliente encuentra que la propuesta es buena, envía otro broadcast, un DHCPREQUEST, pidiendo de forma específica aquellos parámetros IP en particular. ¿Por qué un cliente envía la petición en forma broadcast en lugar de enviarla en unicast directamente al servidor? Se utiliza un broadcast porque el primer mensaje, el DHCPDISCOVER, pudo haber llegado a más de un servidor DHCP. Si más de un servidor realiza una oferta, el DHCPREQUEST enviado permite que los otros servidores sepan cuál oferta se aceptó. Por lo general, la oferta que se acepta es la primera que se recibe. 4. El servidor que recibe el DHCPREQUEST formaliza la configuración mandando un recibo unicast, el DHCPACK. Es posible, aunque muy poco probable, que el servidor no envíe el DHCPACK. Esto puede ocurrir porque entretanto, el servidor pudo haber alquilado esa información a otro cliente. La recepción del mensaje DHCPACK permite que un cliente comience a utilizar la dirección asignada de inmediato. 5. Si el cliente detecta que la dirección ya está en uso en el segmento local, envía un mensaje DHCPDECLINE y el proceso vuelve a comenzar. Si el cliente recibe un DHCPNACK del servidor luego de enviar el DHCPREQUEST, entonces comienza el proceso nuevamente. 6. Si el cliente ya no desea la dirección IP, envía un mensaje DHCPRELEASE al servidor. Según la política de la organización, es posible que un usuario final o un administrador asigne a un host de forma estática una dirección IP que pertenezca al conjunto de direcciones del servidor DHCP. Por las dudas, el servidor Cisco IOS DHCP siempre se asegura de que una dirección no esté en uso antes de que el servidor la ofrezca a un cliente. El servidor enviará una petición eco ICMP o hará ping a una dirección del conjunto antes de enviar una DHCPOFFER al cliente. Aunque es configurable, el número por defecto de pings utilizados para buscar un conflicto potencial de dirección IP es dos. 1.2.5 Configuración de DHCP Al igual que NAT, un servidor DHCP requiere que el administrador defina un conjunto de direcciones. El comando ip dhcp pool define cuáles direcciones se asignarán a los hosts. El primer comando, ip dhcp pool, crea un conjunto con la denominación especificada y coloca al router en un modo especializado de configuración DHCP. En este modo, utilice el comando network para definir el rango de direcciones que se arrendarán. Si se ha de excluir direcciones de la red específicas, vuelva al modo de configuración global. El comando ip dhcp excluded-address configura al router para excluir una dirección individual o un rango de direcciones a la hora de asignar las direcciones a los clientes. El comando ip dhcp excluded-address se puede utilizar para reservar las direcciones asignadas de forma estática a los hosts clave, por ejemplo, la dirección de interfaz del router.

Page 271: Semestre1 Ccna

En general, el servidor DHCP se configura para asignar mucho más que una dirección IP. Otros valores de configuración IP, tales como el gateway por defecto pueden establecerse del modo de configuración DHCP. El comando default-router establece el gateway por defecto. Aquí también se puede configurar la dirección DNS del servidor, dns-server y el servidor WINS, netbios-name-server. El servidor IOS DHCP puede configurar clientes con casi cualquier información TCP/IP. La figura muestra una lista de los principales comandos de servidor DHCP IOS que pueden ser introducidos en el modo de configuración ip dhcp pool. El servidor DHCP se habilita por defecto en las versiones de Cisco IOS que lo admitan. Para desactivar el servicio, utilice el comando no service dhcp Utilice el comando de configuración global service dhcp para rehabilitar el proceso de servidor DHCP. 1.2.6 Verificación de la operación DHCP Para verificar la operación DHCP, se puede utilizar el comando show ip dhcp binding. Esto muestra una lista de todos los enlaces que el servicio DHCP creó. Para verificar que el router esté recibiendo o enviando los mensajes, utilice el comando show ip dhcp server statistics. Esto mostrará información numérica acerca de la cantidad de mensajes DHCP que se envían y reciben. 1.2.7 Diagnóstico de fallas de DHCP Para diagnosticar las fallas en el funcionamiento del servidor DHCP, se puede utilizar el comando debug ip dhcp server events. Este comando mostrará que el servidor, de forma periódica, verifica si se venció algún alquiler. También se muestran los procesos de devolución y asignación de direcciones. 1.2.8 Relay (envío) de DHCP Los clientes DHCP utilizan broadcasts IP para encontrar el servidor DHCP en el segmento. ¿Qué sucede cuando el servidor y el cliente no se encuentran en el mismo segmento y están separados por un router? Los routers no envían estos broadcasts. DHCP no es el único servicio crítico que utiliza broadcasts. Los routers Cisco y otros dispositivos pueden utilizar broadcasts para encontrar los servidores TFTP. Es posible que algunos clientes realicen broadcasts para encontrar los servidores TACACS. Un servidor TACACS es un servidor de seguridad. En general, en una red jerárquica compleja, los clientes se encuentran en la misma subred que los servidores principales. Estos clientes remotos enviarán un broadcast para encontrar estos servidores. Sin embargo, los routers, por defecto, no enviarán los broadcasts de los clientes más allá de sus subredes. Debido a que algunos clientes no pueden funcionar sin los servicios tales como DHCP, se debe implementar una de dos alternativas. El administrador necesitará colocar servidores en todas las subredes o utilizar la función de ayudante de dirección Cisco IOS. El hacer funcionar servicios como DHCP o DNS en varios computadores crea gastos y dificultades administrativas que hacen que la primera opción sea ineficiente. Cuando sea posible, los administradores deben utilizar el comando ip helper-address para transmitir las peticiones de broadcast en relay para estos servicios UDP fundamentales. Al utilizar la función de ayudante de dirección, un router se puede configurar para aceptar una petición en broadcast para un servicio UDP y luego enviarla como unicast a una dirección IP específica. Por defecto, el comando ip helper-address envía los siguientes ocho servicios UDP: * Tiempo * TACACS * DNS * Servidor BOOTP/DHCP * Cliente BOOTP/DHCP * TFTP * NetBIOS Name Service (Resolución de nombres NetBIOS) * NetBIOS datagram Service (servicio de datagrama NetBIOS) En el caso particular de DHCP, un cliente envía un paquete DHCPDISCOVER en su segmento local. El gateway toma este paquete. Si la dirección de ayudante está activa, el paquete DHCP se envía a la dirección especificada. Antes de enviar el paquete, el router completa el campo GIADD del paquete con la dirección IP del router para ese segmento. Esta dirección entonces será la dirección de gateway para el cliente DHCP cuando reciba la dirección IP. El servidor DHCP recibe el paquete de descubrimiento. El servidor utiliza el campo GIADDR para cotejar la lista del conjunto de direcciones y hallar una que contenga la dirección de gateway asignada al valor en GIADDR. Este conjunto entonces se utiliza para brindar al cliente su dirección IP.

Page 272: Semestre1 Ccna

Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: * Las direcciones privadas son para uso interno y particular y un router de Internet público nunca debe enrutarlas. * NAT modifica los encabezados IP de los paquetes de modo que la dirección destino, la dirección origen o ambas direcciones se remplacen con otras direcciones. * PAT utiliza números únicos de puerto origen en la dirección IP global interna para distinguir entre las traducciones. * Las traducciones NAT pueden ocurrir dinámica o estáticamente y se pueden usar para varias aplicaciones. * Se pueden configurar NAT y PAT para la traducción estática, dinámica y de sobrecarga. * El proceso para verificar la configuración de NAT y PAT incluye los comandos clear y show. * El comando debug ip nat se utiliza para diagnosticar fallas en la configuración de NAT y PAT. * NAT presenta ventajas y desventajas. * DHCP funciona en un modo cliente/servidor, permitiendo que los clientes obtengan configuraciones IP de un servidor DHCP. * BOOTP es el predecesor de DHCP y comparte algunas características operacionales con DHCP, pero BOOTP no es dinámico. * Un servidor DHCP gestiona conjuntos de direcciones IP y los parámetros asociados. Cada conjunto está dedicado a una subred IP lógica individual. * El proceso de configuración del cliente DHCP consiste en cuatro pasos. * En general, un servidor DHCP se configura para asignar más que direcciones IP. * El comando show ip dhcp binding se utiliza para verificar la operación de DHCP. * El comando debug ip dhcp server events se utiliza para detectar las fallas de DCHP. * Cuando un servidor DHCP y un cliente no se encuentran en el mismo segmento y están separados por un router, el comando ip helper-address se utiliza para transferir la petición de broadcast en relay. Módulo 2: Tecnologías WAN Descripción general A medida que la empresa crece y ocupa más de un sitio, es necesario interconectar las LAN de las sucursales para formar una red de área amplia (WAN). Este módulo analiza algunas de las opciones disponibles para efectuar estas interconexiones; el hardware que se necesita para implementarlas y la terminología utilizada para explicarlas. En la actualidad existen muchas opciones para implementar soluciones WAN. Ellas difieren en tecnología, velocidad y costo. Estar familiarizado con estas tecnologías es una parte importante del diseño y evaluación de la red. Si todo el tráfico de información de una empresa se encuentra dentro de un mismo edificio, una LAN puede cubrir las necesidades de la organización. Los edificios pueden estar interconectados con enlaces de datos de alta velocidad para formar una LAN de campus, en el caso en que los datos tengan que pasar de un edificio a otro en un solo campus. Sin embargo, se necesita una WAN para transportar los datos si es necesario transferirlos a lugares geográficamente distintos. El acceso remoto individual a la LAN y la conexión de LAN a Internet son temas de estudio distintos y no se tratarán en este módulo. La mayoría de los estudiantes no tendrán la oportunidad de diseñar una nueva WAN, pero muchos participarán en el diseño de agregados y actualizaciones a las WAN existentes, y podrán aplicar las técnicas aprendidas en este módulo. Los estudiantes que completan este módulo deberán poder hacer lo siguiente: * Diferenciar entre una LAN y una WAN. * Identificar los dispositivos de una WAN. * Enumerar los estándares WAN * Describir el encapsulamiento WAN * Clasificar las distintas opciones de enlace WAN * Diferenciar entre tecnologías WAN conmutadas por paquete y conmutadas por circuito * Hacer una comparación de las tecnologías WAN actuales * Describir el equipo necesario para la implementación de varios servicios WAN * Recomendar un servicio WAN a una empresa según sus necesidades. * Describir los principios básicos de la conectividad DSL y de cable módem * Describir un procedimiento metódico para el diseño de las WAN * Hacer una comparación de las topologías WAN * Hacer una comparación de los modelos de diseño WAN * Recomendar un diseño WAN a una empresa a base de sus necesidades

Page 273: Semestre1 Ccna

2.1 Descripción general de la tecnología WAN 2.1.1 Tecnología WAN Una WAN es una red de comunicación de datos que opera más allá del alcance geográfico de una LAN. Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una operadora de servicios WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de otras organizaciones, con servicios externos y con usuarios remotos. Las WAN generalmente transportan varios tipos de tráfico, tales como voz, datos y vídeo. Los servicios telefónicos y de datos son los servicios WAN de uso más generalizado. Los dispositivos de las instalaciones del suscriptor se conocen como equipo terminal del abonado (CPE). El suscriptor es dueño de un CPE o alquila un CPE del proveedor de servicios. Un cable de cobre o fibra conecta el CPE a la central telefónica del proveedor de servicio más cercano. Este cableado muchas veces se llama bucle local, o última milla. Una llamada marcada se conecta de forma local a otros bucles locales o de forma no local a través de un troncal a un centro primario. Luego se dirige a un centro de sección y luego a un centro de operación internacional o regional a medida que la llamada viaja a su destino. Para que el bucle local transporte datos, se necesita un dispositivo como un módem que prepare los datos para su transmisión. Los dispositivos que colocan los datos en el bucle local se llaman equipos de terminación de circuito de datos, o equipos de comunicación de datos (DCE). Los dispositivos del cliente que transmiten datos al DCE se llaman equipo terminal de datos (DTE). El propósito principal del DCE es suministrar una interfaz para el DTE al enlace de comunicación en la nube WAN. La interfaz DTE/DCE utiliza varios protocolos de capa física, tales como la Interfaz serial de alta velocidad (HSSI) y V.35. Estos protocolos establecen los códigos y parámetros eléctricos que los dispositivos utilizan para comunicarse entre sí. Los enlaces WAN vienen en varias velocidades medidos en bits por segundo (bps), kilobits por segundo (kbps o 1000 bps), megabits por segundo (Mbps o 1000 kbps) o gigabits por segundo (Gbps o 1000 Mbps) Los valores de bps por lo general son de full duplex. Esto significa que una línea E1 puede transportar 2 Mbps, o T1 puede transportar 1,5 Mbps en cada dirección de manera simultánea. 2.1.2 Dispositivos WAN Las WAN son grupos de LAN conectadas con enlaces de comunicaciones desde un proveedor de servicios. Como los enlaces de comunicaciones no pueden conectarse directamente a la LAN, es necesario identificar las distintas piezas del equipo que realiza las interfaces. Las computadoras basadas en LAN con datos a transmitir, envían datos a un router que contiene tanto interfaces LAN como WAN. El router utiliza información de dirección de Capa 3 para enviar los datos en la interfaz WAN apropiada. Los routers son dispositivos de red activos e inteligentes y por lo tanto pueden participar en la administración de una red. Los routers administran las redes suministrando un control dinámico sobre los recursos y dando soporte a las tareas y objetivos de las redes. Algunos de estos objetivos son: conectividad, desempeño confiable, control de administración y flexibilidad. El enlace de comunicaciones necesita señales en un formato correcto. Para las líneas digitales, se requiere una unidad de servicio de canal (CSU) y una unidad de servicio de datos (DSU). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo, llamada CSU/DSU. La CSU/DSU también puede integrarse a la tarjeta de interfaz del router. Si el bucle local es analógico y no digital, requiere de un módem. Los módems transmiten datos a través de las líneas telefónicas de grado de voz, modulando y demodulando la señal. Las señales digitales se superponen en la señal analógica de la voz que se modula para su transmisión. Si se enciende el altavoz del módem interno, la señal modulada se oye como una serie de silbidos. En el destino, las señales analógicas se convierten a su forma digital de nuevo, o se demodulan. Cuando se utiliza ISDN como el enlace de comunicaciones, todos los equipos conectados al bus ISDN tienen que ser compatibles con ISDN. La compatibilidad, en general, se integra a la interfaz de la computadora para conexiones de acceso telefónico directas o a la interfaz del router para conexiones LAN o WAN. Los equipos más antiguos sin interfaz ISDN requieren un adaptador de terminal ISDN (TA) para la compatibilidad con ISDN. Los servidores de comunicaciones concentran la comunicación de usuarios de acceso telefónico entrante y de acceso remoto a una LAN. Pueden tener una mezcla de interfaces analógicas y digitales (ISDN) y admitir a cientos de usuarios al mismo tiempo. 2.1.3 Normas WAN Las WAN utilizan el modelo de referencia OSI, pero se enfocan principalmente en las Capas 1 y 2. Los estándares WAN, por lo general, describen tanto los métodos de envío de la capa física como los requisitos de la capa de enlace de datos, incluyendo el direccionamiento físico, el control de flujo y el encapsulamiento. Hay varias autoridades reconocidas que definen y administran los estándares WAN.

Page 274: Semestre1 Ccna

Los protocolos de capa física describen cómo proporcionar las conexiones eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de servicios de comunicaciones. Algunos de los estándares de la capa física más comunes se enumeran en la Figura y sus conectores se ilustran en la Figura . Los protocolos de la capa de enlace de datos definen cómo se encapsulan los datos para su transmisión a lugares remotos, y los mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad de tecnologías, tales como ISDN, Frame Relay o el Modo de Transferencia Asíncrona (ATM). Estos protocolos utilizan los mismos mecanismos de entramado, control de enlace de datos de alto nivel (HDLC), un estándar ISO o uno de sus subgrupos o variantes. 2.1.4 Encapsulamiento WAN Los datos de la capa de red se envían a la capa de enlace de datos para su transmisión en un enlace físico, que normalmente es de punto a punto en una conexión WAN. La capa de enlace de datos crea una trama alrededor de los datos de capa de red de modo que se apliquen los controles y verificaciones necesarios. Cada tipo de conexión WAN utiliza un protocolo de Capa 2 para encapsular el tráfico mientras atraviesa el enlace WAN. Para asegurarse de que se esté utilizando el protocolo de encapsulamiento correcto, se debe configurar el tipo de encapsulamiento de Capa 2 utilizado en cada interfaz serial del router. El protocolo de encapsulamiento que se debe usar depende de la tecnología WAN y del equipo. La mayoría del entramado se basa en el estándar HDLC. El entramado HDLC garantiza una entrega confiable de datos en líneas poco confiables e incluye mecanismos de señalización para el control de flujo y errores. La trama siempre comienza y termina con un campo de señaladores de 8 bits, con un patrón de bit de 01111110. Como existe la posibilidad de que este patrón ocurra en los datos mismos, el sistema de envío HDLC siempre inserta un bit 0 después de cada cinco 1s en el campo de datos, de modo que en la práctica la secuencia de señaladores sólo puede tener lugar en los extremos de la trama. El sistema receptor quita los bits insertados. Cuando las tramas se transmiten de forma consecutiva, el señalador del final de la primera trama se utiliza como señalador de inicio de la trama siguiente. El campo de dirección no es necesario para los enlaces WAN, los cuales casi siempre son de punto a punto. El campo de dirección está aún presente y puede ser de uno a dos bytes de longitud. El campo de control indica el tipo de trama, que puede ser de información, de supervisión o sin enumerar. * Las tramas sin enumerar transportan mensajes de configuración de la línea. * Las tramas de información transportan datos de la capa de red. * Las tramas de supervisión controlan el flujo de tramas de información y peticiones de retransmisión de datos si hubiera algún error. El campo de control, por lo general, consta de un byte, pero en los sistemas de ventanas deslizantes extendidos, tendrá dos bytes. Juntos los campos de control y de dirección se denominan encabezado de la trama. El dato encapsulado sigue el campo de control. Entonces, una secuencia de verificación de trama (FCS) utiliza el mecanismo de verificación por redundancia cíclica (CRC) para establecer un campo de dos o cuatro bytes. Se utilizan varios protocolos de enlace de datos, incluyendo subgrupos y versiones propietarias de HDLC. Tanto PPP como la versión de Cisco de HDLC tienen un campo extra en el encabezado para identificar el protocolo de capa de red del dato encapsulado. 2.1.5 Conmutación de paquetes y circuitos. Las redes conmutadas por paquetes se desarrollaron para compensar el gasto de las redes conmutadas por circuitos públicas y suministrar una tecnología WAN más económica. Cuando un suscriptor realiza una llamada telefónica, el número marcado se utiliza para establecer switches en las centrales a lo largo de la ruta de la llamada de modo que haya un circuito continuo entre quien hace la llamada y quien recibe la llamada. Debido a la operación de conmutación usada para establecer el circuito, el sistema telefónico se conoce como red conmutada por circuito. Si los módems reemplazan a los teléfonos, entonces el circuito conmutado puede transportar datos de computador. Varias conversaciones comparten la ruta interna que sigue el circuito entre los centrales. Se utiliza la multiplexión por división de tiempo (TDM) para dar a cada conversación una parte de la conexión por turno. TDM garantiza que una conexión de capacidad fija esté disponible al suscriptor. Si el circuito transporta datos de computador, es posible que el uso de esta capacidad fija no sea eficiente. Por ejemplo, si se utiliza el circuito para tener acceso a Internet, habrá "ráfagas" de actividad en el circuito mientras se transfiere una página Web. Entonces, es posible que le siga un período sin actividad mientras el usuario lee la página y luego otra ráfaga de actividad mientras se transfiere la página siguiente. Esta variación en el uso entre máximo y nada es típica del tráfico informático de red. Como el suscriptor tiene uso exclusivo de la capacidad fija asignada, los circuitos conmutados, en general, son una forma cara de transferir datos.

Page 275: Semestre1 Ccna

Una alternativa es asignar la capacidad al tráfico solo cuando es necesario y compartir la capacidad disponible entre varios usuarios. Con una conexión conmutada por circuito, los bits de datos puestos en el circuito se transmiten de forma automática al extremo más lejano porque el circuito ya está establecido. Si es necesario compartir el circuito, tiene que haber un mecanismo para rotular los bits de modo que el sistema sepa dónde transmitirlos. Es difícil rotular bits individuales, por lo tanto, se juntan en grupos llamados celdas, tramas o paquetes. Los paquetes se transfieren de central a central para su envío a través de la red del proveedor. Las redes que implementan este sistema se llaman redes conmutadas por paquetes. Los enlaces que conectan estos switches en la red del proveedor pertenecen a un suscriptor individual durante la transferencia de datos, de modo que muchos suscriptores pueden compartir el enlace. Los costos pueden ser significativamente menores que en la conexión conmutada por circuitos. Los datos en redes conmutadas por paquetes están sujetos a demoras impredecibles cuando paquetes individuales esperan que los switches transmitan los paquetes de otros suscriptores. Los switches de una red conmutada por paquetes determinan, según la información de direccionamiento en cada paquete, cuál es el siguiente enlace por el que se debe enviar el paquete. Hay dos maneras de determinar este enlace: orientada a conexión o sin conexión. Los sistemas sin conexión, tal como Internet, transmiten toda la información de direccionamiento en cada paquete. Cada switch debe evaluar la dirección para determinar dónde enviar el paquete. Los sistemas orientados a conexión predeterminan la ruta del paquete y cada paquete necesita llevar sólo un identificador. En el caso de Frame Relay, estos se denominan Identificadores de control de enlace de datos (DLCI). El switch determina la ruta a seguir buscando el identificador en las tablas que tiene en su memoria. Este grupo de entradas en las tablas identifica una ruta o circuito particular a través del sistema. Si este circuito está físicamente disponible sólo mientras el paquete esté pasando por él, se llama Circuito virtual (VC). Las entradas de la tabla que constituyen el VC se pueden establecer enviando peticiones de conexión a través de la red. En este caso, el circuito resultante se llama Circuito virtual conmutado (SVC). Los datos a transmitir en un SVC deben esperar hasta que se hayan establecido las entradas de la tabla. Una vez establecido, el SVC puede permanecer en operación durante horas, días o semanas. Cuando se requiere que un circuito esté siempre disponible, se establece un Circuito virtual permanente (PVC). Los switch cargan las entradas de la tabla durante el arranque, de modo que el PVC está siempre disponible. 2.1.6 Opciones de enlace WAN La Figura ofrece una descripción de las opciones de enlace WAN. La conmutación de circuitos establece una conexión dedicada para voz y datos entre el emisor y el receptor. Antes de que comience la conmutación, es necesario establecer la conexión configurando los switch. El sistema telefónico lleva a cabo esta función, mediante el número marcado. ISDN se usa tanto en las líneas digitales como en las de grado de voz. Para evitar las demoras asociadas con la configuración de una conexión, los proveedores de servicio telefónico también ofrecen circuitos permanentes. Estas líneas alquiladas o dedicadas ofrecen mayor ancho de banda que el disponible en los circuitos conmutados. Ejemplos de conexiones conmutadas por circuitos son: * Sistema de servicio telefónico analógico (POTS) * Interfaz de acceso básico ISDN (BRI) * Interfaz de acceso primario ISDN (PRI) Muchos usuarios WAN no utilizan de manera eficiente el ancho de banda fijo que está disponible para los circuitos dedicados, conmutados o permanentes porque el flujo de datos fluctúa. Los proveedores de comunicaciones cuentan con redes de datos, disponibles para brindar un mejor servicio a estos usuarios. En estas redes, los datos se transmiten en celdas rotuladas, tramas o paquetes a través de una red conmutada por paquetes. Como los enlaces internos entre los switch se comparten entre varios usuarios, los costos de la conmutación de paquetes son más bajos que aquellos de conmutación de circuitos. Los retardos (latencia) y la variación en los retardos (fluctuación de fase) son mayores en las redes conmutadas por paquetes que en las conmutadas por circuitos. Esto ocurre porque se comparten los enlaces y es necesario que un switch reciba todos los paquetes antes de seguir adelante. A pesar de la latencia y las fluctuaciones de fase inherentes a las redes compartidas, la tecnología moderna permite el transporte satisfactorio de las comunicaciones de voz y hasta video por estas redes. Las redes conmutadas por paquetes pueden establecer rutas a través de los switch para realizar conexiones de extremo a extremo particulares. Las rutas establecidas cuando el switch comienza son PVC. Las rutas establecidas a petición son SVC. Si la ruta no está preestablecida y cada switch la determina para cada paquete, la red se conoce como sin conexión. Para conectar una red conmutada por paquetes, el suscriptor necesita un bucle local a la ubicación más cercana donde el proveedor ofrece el servicio. Esto se llama punto de presencia (POP) del servicio. Por lo general ésta es una línea alquilada dedicada. Esta línea es mucho más corta que una línea alquilada conectada directamente a las diferentes ubicaciones del suscriptor y muchas veces transporta VC. Como que es poco probable que todos los VC enfrenten la máxima demanda al mismo tiempo, la capacidad de una línea alquilada puede ser

Page 276: Semestre1 Ccna

menor a la de la suma de los VC individuales. Ejemplos de conexiones conmutadas por paquetes o celdas son: * Frame Relay * X.25 * ATM 2.2.1 Conexión telefónica analógica Cuando se necesitan transferencias de datos de bajo volumen e intermitentes, los módems y las líneas telefónicas analógicas ofrecen conexiones conmutadas dedicadas y de baja capacidad. La telefonía convencional utiliza cables de cobre, llamados bucle local, para conectar el equipo telefónico a las instalaciones del suscriptor a la red telefónica pública conmutada (PSTN). La señal en el bucle local durante una llamada es una señal electrónica en constante cambio, que es la traducción de la voz del suscriptor. El bucle local no es adecuado para el transporte directo de datos informáticos binarios, pero el módem puede enviar datos de computador a través de la red telefónica de voz. El módem modula los datos binarios en una señal analógica en el origen y, en el destino, demodula la señal analógica a datos binarios. Las características físicas del bucle local y su conexión a PSTN limitan la velocidad de la señal. El límite superior está cercano 33 kbps. Es posible aumentar la velocidad a 56 kbps si la señal viene directamente por una conexión digital. Para las empresas pequeñas, esto puede resultar adecuado para el intercambio de cifras de ventas, precios, informes regulares y correo electrónico. Al usar el sistema de conexión automático de noche o durante los fines de semana para realizar grandes transferencias de archivos y copias de respaldo de datos, la empresa puede aprovecharse de las tarifas más bajas de las horas no pico (cargos por línea) Las tarifas se calculan según la distancia entre los extremos, la hora del día y la duración de la llamada. Las ventajas del módem y las líneas analógicas son simplicidad, disponibilidad y bajo costo de implementación. Las desventajas son la baja velocidad en la transmisión de datos y el relativamente largo tiempo de conexión. Los circuitos dedicados que ofrece el sistema de conexión telefónica tendrán poco retardo y fluctuación de fase para el tráfico punto a punto, pero el tráfico de voz o video no funcionará de forma adecuada a las velocidades de bits relativamente bajas. 2.2.2 ISDN Las conexiones internas o troncales de PSTN evolucionaron y pasaron de llevar señales de multiplexión por división de frecuencia, a llevar señales digitales de multiplexión por división de tiempo (TDM). El próximo paso evidente es permitir que el bucle local lleve las señales digitales que resultan en conexiones conmutadas de mayor capacidad. La red digital de servicios integrados (ISDN) convierte el bucle local en una conexión digital TDM. La conexión utiliza canales portadores de 64 kbps (B) para transportar voz y datos, y una señal, canal delta (D), para la configuración de llamadas y otros propósitos. La interfaz de acceso básico (BRI) ISDN está destinada al uso doméstico y a las pequeñas empresas y provee dos canales B de 64 kbps y un canal D de 16 kbps Para las instalaciones más grandes, está disponible la interfaz de acceso principal (PRI) ISDN. En América del Norte, PRI ofrece veintitrés canales B de 64 kbps y un canal D de 64 kbps, para un total de velocidad de transmisión de hasta 1,544 Mbps. Esto incluye algo de carga adicional para la sincronización. En Europa, Australia, y otras partes del mundo, PRI ISDN ofrece treinta canales B y un canal D para un total de velocidad de transmisión de hasta 2,048 Mbps, incluyendo la carga de sincronización. En América del Norte, PRI corresponde a una conexión T1. La velocidad de PRI internacional corresponde a una conexión E1. El canal D BRI no utiliza su potencial máximo, ya que tiene que controlar solamente dos canales B. Algunos proveedores permiten que los canales D transmitan datos a una velocidad de transmisión baja como las conexiones X.25 a 9,6 kbps. Para las WAN pequeñas, ISDN BRI puede ofrecer un mecanismo de conexión ideal. BRI posee un tiempo de establecimiento de llamada que es menor a un segundo y su canal B de 64 kbps ofrece mayor capacidad que un enlace de módem analógico. Si se requiere una mayor capacidad, se puede activar un segundo canal B para brindar un total de 128 kbps. Aunque no es adecuado para el video, esto permitiría la transmisión de varias conversaciones de voz simultáneas además del tráfico de datos. Otra aplicación común de ISDN es la de ofrecer capacidad adicional según la necesidad en una conexión de línea alquilada. La línea alquilada tiene el tamaño para transportar el tráfico usual mientras que ISDN se agrega durante los períodos de demanda pico. ISDN también se utiliza como respaldo en caso de que falle la línea alquilada. Las tarifas de ISDN se calculan según cada canal B y son similares a las de las conexiones analógicas.

Page 277: Semestre1 Ccna

Con ISDN PRI, se pueden conectar varios canales B entre dos extremos. Esto permite que se realicen conferencias de video y conexiones de datos de banda ancha sin latencia ni fluctuación de fase. Las conexiones múltiples pueden resultar muy caras para cubrir grandes distancias. 2.2.3 Línea alquilada Cuando se requieren conexiones dedicadas permanentes, se utilizan líneas alquiladas con capacidades de hasta 2.5 Gbps Un enlace punto a punto ofrece rutas de comunicación WAN preestablecidas desde las instalaciones del cliente a través de la red hasta un destino remoto. Las líneas punto a punto se alquilan por lo general a una operadora de servicios de telecomunicaciones y se denominan líneas alquiladas. líneas punto a punto se alquilan por lo general a una operadora y se denominan líneas alquiladas. Se pueden conseguir líneas alquiladas con distintas capacidades. Estos circuitos dedicados se cotizan, en general, según el ancho de banda necesario y la distancia entre los dos puntos conectados. Los enlaces punto a punto por lo general son más caros que los servicios compartidos como Frame Relay. El costo de las soluciones de línea dedicada puede tornarse considerable cuando se utilizan para conectar varios sitios. Sin embargo, a veces los beneficios de una línea alquilada son mayores que los costos. La capacidad dedicada no presenta ni latencia ni fluctuaciones de fase entre extremos. La disponibilidad constante es esencial para algunas aplicaciones tales como el comercio electrónico. Cada conexión de línea alquilada requiere un puerto serial de router. También se necesita un CSU/DSU y el circuito físico del proveedor de servicios. Las líneas alquiladas se utilizan con mucha frecuencia en la construcción de las WAN y ofrecen una capacidad dedicada permanente. Han sido la conexión tradicional de preferencia aunque presentan varias desventajas. El tráfico de WAN es a menudo variable y las líneas alquiladas tienen una capacidad fija. Esto da por resultado que el ancho de banda de la línea rara vez sea el que se necesita. Además, cada punto necesitaría una interfaz en el router que aumentaría los costos de equipos. Todo cambio a la línea alquilada, en general, requiere que el proveedor haga una visita al establecimiento para cambiar la capacidad. Las líneas alquiladas ofrecen conexiones punto a punto entre las LAN de la compañía y conectan sucursales individuales a una red conmutada por paquete. Varias conexiones se pueden mutiplexar en las líneas alquiladas, dando por resultado enlaces más cortos y menos necesidad de interfaces. 2.2.4 X.25 Debido al costo de las líneas alquiladas, los proveedores de telecomunicaciones introdujeron las redes conmutadas por paquetes utilizando líneas compartidas para reducir los costos. La primera de estas redes conmutadas por paquetes se estandarizó como el grupo de protocolos X.25. X.25 ofrece una capacidad variable y compartida de baja velocidad de transmisión que puede ser conmutada o permanente. X.25 es un protocolo de capa de red y los suscriptores disponen de una dirección en la red. Los circuitos virtuales se establecen a través de la red con paquetes de petición de llamadas a la dirección destino. Un número de canal identifica la SVC resultante. Los paquetes de datos rotulados con el número del canal se envían a la dirección correspondiente. Varios canales pueden estar activos en una sola conexión. Los suscriptores se conectan a la red X.25 con una línea alquilada o con una conexión de acceso telefónico. Además, las redes X.25 pueden tener canales preestablecidos entre los suscriptores que proveen un PVC. X.25 puede resultar muy económica porque las tarifas se calculan con base en la cantidad de datos enviados y no el tiempo de conexión ni la distancia. Los datos se pueden enviar a cualquier velocidad igual o menor a la capacidad de conexión. Esto ofrece más flexibilidad. Las redes X.25 por lo general tienen poca capacidad, con un máximo de 48 kbps. Además, los paquetes de datos están sujetos a las demoras típicas de las redes compartidas. En los Estados Unidos, la tecnología X.25 ya no está ampliamente disponible como una tecnología WAN. Frame Relay ha reemplazado a X.25 en muchos sitios donde se encuentran los proveedores de servicios. Las aplicaciones típicas de X.25 son los lectores de tarjeta de punto de venta. Estos lectores utilizan X.25 en el modo de conexión telefónica para validar las transacciones en una computadora central. Algunas empresas usan también las redes de valor agregado (VAN) basadas en X.25 para trasmitir facturas, pólizas de embarque y otros documentos comerciales usando el Intercambio electrónico de datos (EDI). Para estas aplicaciones, el bajo ancho de banda y la alta latencia no constituyen un problema, porque el bajo costo de X.25 lo compensa. 2.2.5 Frame Relay Con la creciente demanda de mayor ancho de banda y menor latencia en la conmutación de paquetes, los proveedores de comunicaciones introdujeron el Frame Relay. Aunque la configuración de la red parece similar a la de X.25, la velocidad de transmisión de datos disponible es por lo general de hasta 4 Mbps y algunos proveedores ofrecen aún mayores velocidades.

Page 278: Semestre1 Ccna

Frame Relay difiere de X.25 en muchos aspectos. El más importante es que es un protocolo mucho más sencillo que funciona a nivel de la capa de enlace de datos y no en la capa de red. Frame Relay no realiza ningún control de errores o flujo. El resultado de la administración simplificada de las tramas es una reducción en la latencia, y las medidas tomadas para evitar la acumulación de tramas en los switches intermedios ayudan a reducir las fluctuaciones de fase. La mayoría de las conexiones de Frame Relay son PVC y no SVC. La conexión al extremo de la red con frecuencia es una línea alquilada, pero algunos proveedores ofrecen conexiones telefónicas utilizando líneas ISDN. El canal D ISDN se utiliza para configurar una SVC en uno o más canales B. Las tarifas de Frame Relay se calculan con base en la capacidad del puerto de conexión al extremo de la red. Otros factores son la capacidad acordada y la velocidad de información suscripta (CIR) de los distintos PVC a través del puerto. Frame Relay ofrece una conectividad permanente, compartida, de ancho de banda mediano, que envía tanto tráfico de voz como de datos. Frame Relay es ideal para conectar las LAN de una empresa. El router de la LAN necesita sólo una interfaz, aún cuando se estén usando varios VC. La línea alquilada corta que va al extremo de la red Frame Relay permite que las conexiones sean económicas entre LAN muy dispersas. 2.2.6 ATM Los proveedores de comunicaciones vieron la necesidad de una tecnología de red compartida permanente que ofreciera muy poca latencia y fluctuación a anchos de banda mucho más altos. Su solución fue el Modo de Transferencia Asíncrona (ATM). ATM tiene una velocidad de transmisión de datos superior a los 155 Mbps. Al igual que las otras tecnologías compartidas, como X.25 y Frame Relay, los diagramas de las WAN ATM se ven igual. La tecnología ATM es capaz de transferir voz, video y datos a través de redes privadas y públicas. Tiene una arquitectura basada en celdas más bien que una basada en tramas. Las celdas ATM tienen siempre una longitud fija de 53 bytes. La celda ATM de 53 bytes contiene un encabezado ATM de 5 bytes seguido de 48 bytes de carga ATM. Las celdas pequeñas de longitud fija son adecuadas para la transmisión de tráfico de voz y video porque este tráfico no tolera demoras. El tráfico de video y voz no tiene que esperar que se transmita un paquete de datos más grande. La celda ATM de 53 bytes es menos eficiente que las tramas y paquetes más grandes de Frame Relay y X.25 Además, la celda ATM tiene un encabezado de por lo menos 5 bytes por cada 48-bytes de datos. Cuando la celda está transportando paquetes de capa de red segmentados, la carga general será mayor porque el switch ATM tiene que poder reagrupar los paquetes en el destino. Una línea ATM típica necesita casi un 20% más de ancho de banda que Frame Relay para transportar el mismo volumen de datos de capa de red. ATM ofrece tanto los PVC como los SVC, aunque los PVC son más comunes en las WAN. Como las otras tecnologías compartidas, ATM permite varios circuitos virtuales en una sola conexión de línea alquilada al extremo de red. 2.2.7 DSL La tecnología de línea Digital del suscriptor (DSL) es una tecnología de banda ancha que utiliza líneas telefónicas de par trenzado para transportar datos de alto ancho de banda para dar servicio a los suscriptores. El servicio DSL se considera de banda ancha, en contraste con el servicio de banda base típico de las LAN. Banda ancha se refiere a la técnica que utiliza varias frecuencias dentro del mismo medio físico para transmitir datos. El término xDSL se refiere a un número de formas similares, aunque en competencia, de tecnologías DSL: * DSL Asimétrico (ADSL) * DSL simétrico (SDSL) * DSL de alta velocidad de bits (HDSL) * ISDN (como) DSL (IDSL) * DSL para consumidores (CDSL), también llamado DSL-lite o G.lite La tecnología DSL permite que el proveedor de servicios ofrezca a los clientes servicios de red de alta velocidad, utilizando las líneas de cobre de bucle local instaladas. La tecnología DSL permite que la línea de bucle local se utilice para realizar conexiones telefónicas de voz normales y conexiones permanentes para tener conectividad de red al instante. Las líneas del suscriptor DSL múltiples se pueden multiplexar a un enlace de alta capacidad al usar el Multiplexor de acceso DSL (DSLAM) en el sitio del proveedor. Los DSLAM incorporan la tecnología TDM para juntar muchas líneas del suscriptor a un solo medio más pequeño, en general una conexión T3/DS3. Las tecnologías DSL están utilizando técnicas de codificación y modulación complejas para lograr velocidades de transmisión de datos de hasta 8.192 Mbps. El canal de voz de un teléfono estándar cubre un rango de frecuencia de 330 Hz a 3.3 KHz. Un rango de frecuencia, o ventana, de 4 KHz se considera como requisito para cualquier transmisión de voz en un bucle local. Las tecnologías DSL cargan (upstream: corriente arriba) y descargan (downstream: corriente abajo) datos

Page 279: Semestre1 Ccna

a frecuencia superiores a esta ventana de 4 KHz . Esta técnica es lo que permite que la transmisión de voz y datos tenga lugar de modo simultáneo en un servicio DSL. Existen dos tipos básicos de tecnología DSL: la asimétrica (ADSL) y la simétrica (SDSL). Todas las formas de servicio DSL se pueden clasificar como ADSL o SDSL y existen muchas variedades de cada tipo. El servicio asimétrico brinda mayor ancho de banda de descarga o downstream al usuario que el ancho de banda de carga. El servicio simétrico brinda la misma capacidad en ambas direcciones. No todas las tecnologías DSL permiten el uso de un teléfono. SDSL se conoce como cobre seco porque no tiene un tono de llamada y no ofrece servicio telefónico en la misma línea. Por eso se necesita una línea separada para el servicio SDSL. Los distintos tipos de DSL brindan diferentes anchos de banda, con capacidades que exceden aquellas de línea alquilada T1 o E1. La velocidad de transferencia depende de la longitud real del bucle local y del tipo y condición de su cableado. Para obtener un servicio satisfactorio, el bucle debe ser menor a 5,5 kilómetros (3,5 millas). La disponibilidad de DSL está lejos de ser universal, y hay una gran variedad de tipos, normas y normas emergentes. No es una opción popular entre los departamentos de computación de las empresas para apoyar a las personas que trabajan en sus hogares. Por lo general, el suscriptor no puede optar por conectarse a la red de la empresa directamente, sino que primero tiene que conectarse a un proveedor de servicios de Internet (ISP). Desde allí, se realiza una conexión IP a través de Internet hasta la empresa. Así se corren riesgos de seguridad. Para tratar las cuestiones de seguridad, los servicios DSL ofrecen funciones para utilizar conexiones la Red privada virtual (VPN) a un servidor VPN, que por lo general se encuentra ubicado en la empresa. 2.2.8 Cable módem El cable coaxial es muy usado en áreas urbanas para distribuir las señales de televisión. El acceso a la red está disponible desde algunas redes de televisión por cable. Esto permite que haya un mayor ancho de banda que con el bucle local de teléfono. Los cable módem mejorados permiten transmisiones de datos de alta velocidad de dos vías, usando las mismas líneas coaxiales que transmiten la televisión por cable. Algunos proveedores de servicio de cable prometen velocidades de transmisión de datos de hasta 6,5 veces más altas que las líneas alquiladas T1. Esta velocidad hace que el cable sea un medio atractivo para transferir grandes cantidades de información digital de manera rápida, incluyendo video clips, archivos de audio y grandes cantidades de datos. La información que tardaría dos minutos en descargar usando un BRI ISDN puede descargarse en dos segundos a través de una conexión de cable módem. Los cable módem ofrecen una conexión permanente y una instalación simple. Una conexión de cable permanente significa que los computadores conectados pueden estar sujetos a una ruptura en la seguridad en cualquier momento y necesitan estar adecuadamente asegurados con firewalls. Para tratar las cuestiones de seguridad, los servicios cable módem ofrecen funciones para utilizar conexiones de Red privada virtual (VPN) a un servidor VPN, que por lo general se encuentra ubicado en la empresa. Un cable módem puede ofrecer de 30 a 40 Mbps de datos en un canal de cable de 6 MHz. Esto es casi 500 veces más rápido que un módem de 56 Kbps. Con un cable módem, el suscriptor puede continuar recibiendo servicio de televisión por cable mientras recibe datos en su computador personal de forma simultánea. Esto se logra con la ayuda de un divisor de señal uno a dos. Los suscriptores de cable módem deben utilizar el ISP asociado con el proveedor de servicio. Todos los suscriptores locales comparten el mismo ancho de banda del cable. A medida que más usuarios contratan el servicio el ancho de banda disponible puede caer por debajo de la velocidad esperada. – 2.3.1 Comunicaciones con WAN Se considera que las WAN son un conjunto de enlaces de datos que conectan los routers en una LAN. Las estaciones de usuarios finales y los servidores de las LAN intercambian datos. Los routers transmiten datos entre las redes a través de los enlaces de datos. Debido a los costos y por razones legales, un proveedor de comunicaciones o una empresa de comunicaciones común, en general, es dueño de los enlaces de datos que componen una WAN. Los enlaces están disponibles a los suscriptores por una tarifa y se utilizan para interconectar las LAN o conectar redes remotas. La velocidad de transmisión de datos en una WAN (ancho de banda) es mucho menor a 100 Mbps, que es común en una LAN. Los costos de provisión de enlace son el elemento más caro de las WAN y el diseño debe buscar proveer un máximo de ancho de banda a un costo aceptable. Con la presión por parte de los usuarios para obtener mayor acceso al servicio a velocidades más altas y la presión de los administradores para contener los costos, el determinar la configuración óptima de WAN no es una tarea fácil. Las WAN transportan varios tipos de tráfico, tales como datos, voz y video. El diseño seleccionado debe ofrecer capacidad adecuada y tiempos de tránsito que cumplan con de las necesidades de las empresas. Entre las

Page 280: Semestre1 Ccna

especificaciones, el diseño debe tener en cuenta la topología de las conexiones entre varias ubicaciones, la naturaleza de aquellas conexiones y la capacidad del ancho de banda. Las WAN más antiguas a menudo consistían de enlaces de datos directamente conectados a computadores mainframe remotos. Sin embargo, en la actualidad las WAN conectan las LAN que están geográficamente separadas. Las estaciones de usuarios finales, servidores y routers se comunican a través de las LAN y los enlaces de datos WAN terminan en los routers locales. Al intercambiar información de dirección de Capa 3 en las LAN directamente conectadas, los routers determinan la ruta más adecuada a través de la red para los flujos de datos requeridos. Los routers pueden también ofrecer manejo en la calidad de servicio (QoS), que asigna prioridades a los diferentes flujos de tráfico. Como las WAN son simplemente un grupo de interconexiones entre los routers basados en las LAN, no hay servicios en la WAN. Las tecnologías WAN funcionan en las tres capas inferiores del modelo de referencia OSI. Los routers determinan el destino de los datos a partir de los encabezados de capa de red y transfieren los paquetes a la conexión de enlace de datos indicada para su envío en la conexión física. 2.3.2 Pasos para el diseño WAN Diseñar una WAN puede ser un desafío, pero realizar el diseño de una forma sistemática puede dar como resultado un rendimiento mayor a menor costo. Muchas WAN han evolucionado con el tiempo, por lo tanto, es posible que no se hayan considerado muchas de las pautas aquí presentadas. Cada vez que se considere hacer una modificación a una WAN existente, se deben seguir los pasos descriptos en este módulo. Las modificaciones a las WAN pueden surgir de cambios como la expansión de la empresa que la WAN sirve, o la inclusión de nuevas prácticas y métodos de trabajo. Las empresas implementan la conectividad WAN porque hay necesidad de transportar datos en forma oportuna entre sucursales externas. La WAN está allí para cumplir los requerimientos de la empresa. El cumplir con estos requerimientos trae aparejado costos, tales como provisión de equipo y administración de enlaces de datos. Al diseñar la WAN, es necesario saber qué clase de tráfico de datos se debe transportar, su origen y su destino. Las WAN transportan una variedad de tipos de tráfico que requieren diferentes anchos de banda, latencia y fluctuación. Para cada par de puntos finales y para cada tipo de tráfico, se necesita información sobre las distintas características del tráfico. Determinar esto puede requerir de un estudio exhaustivo y la consulta a los usuarios de la red. El diseño con frecuencia implica actualizar, expandir o modificar una WAN ya existente. Muchos de los datos necesarios pueden provenir de estadísticas de administración de redes existentes. Conocer los varios puntos finales permite la selección de una topología o diseño para la WAN. Las cuestiones geográficas y las necesidades, como la disponibilidad, tendrán influencia en la topología. Un gran requisito de disponibilidad requiere de enlaces adicionales que ofrezcan rutas de datos alternativos para la redundancia y el equilibrio de las cargas. Cuando se hayan elegido los puntos finales y los enlaces, es posible estimar el ancho de banda necesario. El tráfico en los enlaces puede tener distintos requisitos de latencia y fluctuación. Una vez que se determine la disponibilidad de ancho de banda, se deben elegir las tecnologías de enlace adecuadas. Por último, los costos de instalación y operación de la WAN se pueden determinar y comparar con la necesidad que tiene el negocio de provisión de WAN. En la práctica, seguir los pasos de la Figura rara vez es un proceso lineal. Es posible que sea necesario realizar muchas modificaciones antes de finalizar el diseño. También es necesario realizar un seguimiento y reevaluación continuos después de instalar la WAN para mantener un rendimiento óptimo. 2.3.3 Cómo identificar y seleccionar las capacidades de networking El diseño de una WAN consiste básicamente en lo siguiente: * Seleccionar un patrón de conexión o diseño de enlaces entre las diferentes ubicaciones. * Seleccionar las tecnologías para que esos enlaces cumplan con las necesidades de la empresa a un costo razonable. Muchas WAN utilizan una topología en forma de estrella. A medida que la empresa crece y se agregan nuevos sucursales, estas se conectan con la oficina central y producen una topología en forma de estrella. Algunas veces se establece una conexión cruzada con los puntos finales de la estrella creando una topología de malla o de malla parcial. Esto posibilita muchas combinaciones de interconexión. Al diseñar, reevaluar o modificar una WAN, se debe seleccionar una topología que cumpla con las necesidades de diseño. Al seleccionar un diseño, se deben tener en cuenta varios factores. Más enlaces aumentan el costo de los servicios de red, y la existencia de más rutas entre los destinos aumenta la confiabilidad. Agregar más dispositivos a la ruta de datos aumentará la latencia y disminuirá la confiabilidad. Por lo general, cada paquete

Page 281: Semestre1 Ccna

debe recibirse por completo en un nodo, antes de que se envíe al siguiente. Hay una gran variedad de tecnologías dedicadas con características diferentes disponibles para realizar los enlaces de datos. Las tecnologías que requieren el establecimiento de una conexión antes de transmitir los datos, como por ejemplo el servicio telefónico básico, ISDN o X.25, no son adecuadas para las WAN ya que requieren un tiempo de respuesta rápido o baja latencia. Una vez establecidos, los servicios de ISDN y otros de comunicación telefónica son circuitos de baja latencia y fluctuación de fase. ISDN es con frecuencia la aplicación de preferencia para conectar una red de una oficina pequeña o de personas que trabajan en sus hogares a la red de la empresa, y ofrece conectividad confiable y ancho de banda adaptable. A diferencia del cable y DSL, ISDN es una opción dondequiera que se encuentre un servicio telefónico moderno. ISDN resulta también útil como enlace de respaldo para las conexiones principales y para brindar conexiones que provean ancho de banda acorde a la demanda junto con la conexión principal. Una característica de estas tecnologías es que a la empresa sólo se le cobra cuando el circuito está en uso. Las diferentes partes de la empresa pueden conectarse de forma directa por medio de las líneas alquiladas o pueden conectarse a un enlace de acceso al punto de presencia más cercano (POP) de una red compartida. X.25, Frame Relay y ATM son ejemplos de redes compartidas. Las líneas alquiladas, por lo general, son mucho más largas y en consecuencia más caras que las de enlaces de acceso, sin embargo están disponibles en casi cualquier ancho de banda. Tienen una latencia y fluctuación de fase muy bajas. Las redes ATM, Frame Relay y X.25 transportan el tráfico de varios clientes en los mismos enlaces internos. La empresa no tiene control sobre el número de enlaces o saltos que los datos deben atravesar en la red compartida. No puede controlar el tiempo que los datos deben esperar en cada nodo antes de pasar al enlace siguiente. Esta incertidumbre en la latencia y la fluctuación hace que estas tecnologías no sean adecuadas para algunos tipos de tráfico de red. Sin embargo, los costos reducidos de una red compartida con frecuencia pueden compensar las desventajas que estas tienen. Debido a que varios clientes están compartiendo el enlace, el costo de cada uno será, en general, menor al costo de un enlace directo de la misma capacidad. Aunque ATM es una red compartida, se diseñó para producir una latencia y fluctuación de fase mínimas en los enlaces internos de alta velocidad que envían unidades de datos fácilmente administrables, llamadas celdas. Las celdas ATM tienen una longitud de 53 bytes, 48 de datos y 5 de encabezado. ATM se usa con frecuencia en el transporte de tráfico sensible a las demoras. Frame Relay también se puede utilizar para el transporte de tráfico sensible a las demoras, y con frecuencia utiliza mecanismos QoS para dar prioridad a los datos más sensibles. Una WAN típica utiliza una combinación de tecnologías que se eligen según el tipo y volumen de tráfico. ISDN, DSL, Frame Relay o las líneas alquiladas se utilizan para conectar los sucursales individuales en una sola área. Frame Relay, ATM o las líneas alquiladas se utilizan para conectar áreas externas nuevamente al backbone. ATM o las líneas alquiladas forman el backbone de la WAN. 2.3.4 Modelo de diseño de tres capas Es necesario un enfoque sistemático cuando se deben unir varios lugares. Una solución jerárquica con tres capas ofrece muchas ventajas. Imagine una empresa que opera en todos los países de la Unión Europea y que tiene un sucursal en cada ciudad con una población superior a 10000 habitantes. Cada sucursal tiene una LAN, y la empresa ha decidido interconectar los sucursales. Claramente, no es posible hacer una red en malla porque serían necesarios casi 500.000 enlaces para los 900 centros. Una estrella simple sería muy difícil de implementar porque necesita un router con 900 interfaces en el hub o una sola interfaz que transporte 900 circuitos virtuales a una red conmutada por paquetes. Es mejor considerar un modelo de diseño jerárquico. Un grupo de LAN ubicadas en cierta área se interconectan, entonces, se interconectan varias áreas para formar una región, y varias regiones se interconectan para formar el núcleo de la WAN. El área puede basarse en el número de ubicaciones que se debe conectar con un límite máximo entre 30 y 50. El área tendría una topología en estrella, con los hubs de las estrellas conectados para formar la región. Las regiones pueden ser geográficas, conectando entre tres y diez áreas, y el hub de cada región puede tener un enlace punto a punto. Este modelo de tres capas sigue el diseño jerárquico de los sistemas telefónicos. Los enlaces que conectan los distintos sitios en un área que ofrece acceso a la red de la empresa se llaman enlaces de acceso o capa de acceso de la WAN. Los enlaces de distribución distribuyen el tráfico entre las áreas. Se envía el tráfico a los enlaces núcleo para su transferencia a otras regiones cuando es necesario. Esta jerarquía a menudo es útil cuando el tráfico de red refleja la estructura de los sucursales de la empresa y se subdivide en regiones, áreas y sucursales. También es útil cuando hay un servicio central al que todos los sucursales deben tener acceso, pero los niveles de tráfico son insuficientes para justificar la conexión directa de la sucursal al servicio.

Page 282: Semestre1 Ccna

La LAN del centro del área puede tener servidores que provean servicio local y del área. Según los volúmenes y tipos de tráfico, las conexiones de acceso pueden ser por acceso telefónico, alquiladas o de Frame Relay. El Frame Relay facilita el enmallado para la redundancia sin requerir de conexiones físicas adicionales. Los enlaces de distribución pueden ser de Frame Relay o ATM y el núcleo de la red puede ser ATM o de línea alquilada. 2.3.5 Otros modelos con diseño de capa Muchas redes no requieren la complejidad de una jerarquía completa de tres capas. Se pueden utilizar jerarquías más sencillas. Una empresa con muchas sucursales relativamente pequeñas que requiere un tráfico entre sucursales mínimo puede elegir un diseño de una sola capa. Históricamente, esto no ha sido popular debido a la longitud de las líneas alquiladas. Frame Relay posibilita esta solución de diseño, ya que las tarifas no dependen de la distancia. Si existe la necesidad de concentración geográfica, un diseño de dos capas es adecuado. Esto produce un patrón de "estrella de estrellas". Una vez más, si el patrón elegido se basa en la tecnología de línea alquilada, será considerablemente distinto al patrón basado en la tecnología de Frame Relay. Al planear las redes más sencillas, aún se debe considerar el modelo de tres capas ya que ofrece una mejor escalabilidad de la red. El hub en el centro del modelo de dos capas es también un núcleo, pero no tiene otros routers núcleo conectados a él. De la misma forma, en una solución de una sola capa, el hub del área sirve como hub regional y como hub núcleo. Esto permite un crecimiento rápido y fácil en un futuro ya que se puede reproducir el diseño para agregar nuevas áreas de servicio. 2.3.6 Otras consideraciones sobre el diseño WAN Muchas WAN de empresas estarán conectadas a Internet. Esto supone problemas en la seguridad, pero también es una alternativa para el tráfico entre sucursales. Parte del tráfico que se debe considerar durante el diseño va o viene por Internet. Ya que Internet probablemente se encuentra en todos los lugares donde la empresa tiene LAN, hay dos maneras principales en las que este tráfico puede transportarse. Cada LAN puede tener una conexión a su ISP local o puede haber una conexión única desde uno de los routers núcleo a un ISP. La ventaja del primer método es que el tráfico se transporta por Internet en lugar de por la red de la empresa, que probablemente lleve a enlaces WAN más pequeños. La desventaja de permitir varios enlaces, es que toda la WAN de la empresa está abierta a ataques basados en Internet. También es difícil controlar y asegurar los muchos puntos de conexión. Es más fácil de controlar y asegurar un solo punto de conexión, aunque la WAN de la empresa tenga que transportar parte del tráfico que de otro modo se habría transportado en Internet. Si cada LAN de la empresa tiene una conexión a Internet distinta, se abre otra posibilidad para la WAN de la empresa. Cuando los volúmenes de tráfico son relativamente pequeños, Internet puede usarse como WAN de la empresa y todo el tráfico entre sucursales se envía a través de Internet. Asegurar las distintas LAN puede ser un problema, pero es posible que el ahorro en conexiones LAN compense la falta de seguridad. Los servidores deben estar ubicados lo más cerca posible de los sitios que los utilizarán más frecuentemente. La duplicación de los servidores, con configuraciones para actualizaciones entre servidores fuera de pico, reducirá la capacidad de enlace requerida. La ubicación de servicios con acceso por Internet dependerá de la naturaleza del servicio, del tráfico anticipado y de los problemas de seguridad. Este es un tema de diseño especializado que no trata este programa de estudios. Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: * Diferencias en las áreas geográficas servidas entre las WAN y las LAN. * Similitudes de las capas del modelo OSI implicadas entre las WAN y las LAN. * Conocimiento de la terminología WAN que describe equipos tales como, CPE, CO, bucle local , DTE, DCE, CSU/DSU y TA * Conocimiento de la terminología WAN que describe las normas tales como ISDN, Frame Relay, ATM, T1, HDLC, PPP, POST, BRI, PRI, X.25 y DSL * Diferencias entre las redes conmutadas por paquetes y por circuitos * Diferencias y similitudes entre las tecnologías WAN actuales, incluyendo la conexión telefónica analógica, ISDN, las líneas alquiladas, X.25, Frame Relay y servicios ATM * Ventajas y desventajas de los servicios DSL y de cable módem * Propiedad y costos asociados con los enlaces de datos WAN * Requisitos de capacidad y tiempo de tránsito para los distintos tipos de tráfico de WAN, como voz, datos y video * Conocimiento de la topología de WAN, como punto a punto, estrella y malla * Elementos del diseño de WAN, incluyendo actualizaciones, extensiones, modificaciones a la WAN existente y recomendación de servicios WAN a organizaciones basándose en sus necesidades.

Page 283: Semestre1 Ccna

* Ventajas que ofrece un diseño WAN jerárquico de tres capas * Alternativas para el tráfico de WAN entre sucursales Módulo 3: PPP Descripción general Este módulo presenta un panorama de las tecnologías WAN. Presenta y explica las tecnologías WAN tales como la transmisión serial, multiplexión por división de tiempo (TDM), demarcación, equipo terminal de datos (DTE) y equipo de comunicación de datos (DCE). Presenta el desarrollo y uso del encapsulamiento del control de enlace de datos de alto nivel (HDLC) así como de los métodos para configurar y diagnosticar los problemas en una interfaz serial. El Protocolo punto a punto (PPP) es el protocolo de preferencia para las conexiones WAN conmutadas seriales. Puede manejar tanto la comunicación síncrona como la asíncrona e incluye la detección de los errores. Y, lo que es más, incorpora un proceso de autenticación que utiliza CHAP o PAP. PPP se puede utilizar en diversos medios físicos, incluyendo cable de par trenzado, líneas de fibra óptica o transmisión satelital. Los procedimientos para la configuración de PPP, así como las opciones disponibles y los conceptos de diagnóstico de fallas se describen en este módulo. Entre las opciones disponibles se encuentra la capacidad que tiene el PPP para utilizar tanto la autenticación PAP como la CHAP. Los estudiantes que completan este módulo deberán poder hacer lo siguiente: * Explicar la comunicación serial. * Describir y dar un ejemplo de TDM * Identificar el punto de demarcación de una WAN * Describir las funciones del DTE y del DCE * Explicar el desarrollo del encapsulamiento HDLC. * Utilizar el comando encapsulation hdlc para configurar HDLC * Diagnosticar las fallas en una interfaz serial mediante los comandos show interface y show controllers. * Identificar las ventajas del uso de PPP * Explicar las funciones del Protocolo de control de enlace (LCP) y del Protocolo de control de red (NCP) que son componentes de PPP * Describir las partes de una trama PPP * Identificar las tres fases de una sesión PPP * Explicar las diferencias entre PAP y CHAP * Enumerar los pasos del proceso de autenticación PPP * Identificar las distintas opciones de configuración PPP * Configurar el encapsulamiento PPP * Configurar la autenticación CHAP y PAP * Utilizar el comando show interface para verificar el encapsulamiento serial. * Diagnosticar cualquier problema que se produzca en la configuración PPP mediante el comando debug PPP 3.1 Enlaces seriales punto a punto 3.1.1 Introducción a la comunicación serial Las tecnologías WAN se basan en la transmisión serial en la capa física. Esto significa que los bits de una trama se transmiten uno por uno a lo largo del medio físico. Los procesos de la capa física utilizan señalización para pasar los bits que componen la trama de Capa 2, uno por uno, al medio físico. Los métodos de señalización incluyen el Nivel sin retorno a cero (NRZ-L), Binario 3 de alta densidad (HDB3) e Inversión alternada de marcas (AMI). Estos son ejemplos de normas de codificación de capa física, y son similares a la codificación Manchester de Ethernet. Entre otras cosas, estos métodos de señalización pueden diferenciar un método de comunicación serial de otro. Las siguientes son algunas de las muchas normas de comunicación seriales: RS-232-E * V.35 * Interfaz serial de alta velocidad (HSSI) 3.1.2 Multiplexión por división de tiempo La multiplexión por división de tiempo (TDM) consiste en transmitir varias fuentes de información por un canal o señal común, y luego reconstruir las corrientes originales en el extremo remoto. En el ejemplo que presenta la Figura , tres fuentes de información se transportan, a su vez, por el canal de salida. Primero, se toma un bloque de información de cada canal de entrada. El tamaño del bloque puede variar, pero, en general, es de un bit o un byte a la vez. Según se utilicen bits o bytes, este tipo de TDM se denomina

Page 284: Semestre1 Ccna

entrelazado de bits o entrelazado de bytes. Cada uno de los tres canales de entrada tiene su propia capacidad. Para que el canal de salida pueda aceptar toda la información proveniente de las tres entradas, su capacidad no debe ser inferior a la suma de las entradas. En TDM, el intervalo de tiempo de salida siempre está presente, tenga o no tenga TDM información para transmitir. La salida TDM puede compararse con un tren de 32 vagones. Cada uno es propiedad de una compañía de transporte diferente y cada día, el tren parte con los 32 vagones. Si una de las compañías tiene un producto que enviar, carga su vagón. Si la compañía no tiene nada que enviar, el vagón permanece vacío, pero sigue siendo parte del tren. TDM es un concepto de la capa física, y es completamente independiente de la naturaleza de la información que se multiplexa en el canal de salida. TDM es independiente del protocolo de Capa 2 que utilizan los canales de entrada. Un ejemplo de TDM es la Red digital de servicios integrados (Integrated Services Digital Network, ISDN). El acceso básico (BRI) ISDN cuenta con tres canales que constan de dos canales B de 64 kbps (B1 y B2) y un canal D de 16 kbps. TDM tiene nueve intervalos de tiempo que se repiten. Esto permite que la compañía telefónica administre y diagnostique de forma activa los problemas del bucle local cuando el punto de demarcación ocurre después de la unidad de terminación de la red (NTU) en los lugares donde NT1 no forma parte del CPE. 3.1.3 Punto de demarcación El punto de demarcación o "demarc", como se conoce más comúnmente, es el punto de la red donde termina la responsabilidad del proveedor del servicio o compañía telefónica. En los Estados Unidos, una compañía telefónica provee bucles locales a las instalaciones del cliente y el cliente provee el equipo activo, como por ejemplo la unidad de servicio del canal/unidad de servicio de datos (CSU/DSU) donde termina el bucle local. Esta terminación a menudo se produce en un armario de telecomunicaciones y el cliente es responsable de mantener, reemplazar y reparar el equipo. En otros países del mundo, la compañía telefónica provee y administra la unidad de terminación de la red (NTU). Esto permite que la compañía telefónica administre y diagnostique de forma activa los problemas en el bucle local cuando el punto de demarcación ocurre después de la NTU. El cliente conecta un dispositivo del equipo terminal del abonado (CPE), como por ejemplo un router o un dispositivo de acceso de frame relay a la NTU por medio de una interfaz serial V.35 o RS-232. 3.1.4 DTE/DCE Una conexión serial cuenta con un dispositivo de equipo terminal de datos (DTE) en un extremo de la conexión y un dispositivo de equipo de comunicación de datos (DCE) en el otro. La conexión entre los dos DCE es la red de transmisión del proveedor del servicio WAN. El CPE, que en general es un router, es el DTE. Otros ejemplos de DTE podrían ser una terminal, un computador, una impresora o una máquina de fax. El DCE, en general un módem o CSU/DSU, es el dispositivo que se utiliza para convertir los datos del usuario del DTE en una forma que sea aceptable para el enlace de la transmisión del proveedor del servicio WAN. La señal se recibe en el DCE remoto, que decodifica la señal nuevamente en una secuencia de bits. Esta secuencia se envía, a su vez, al DTE remoto. Se han desarrollado muchas normas que permiten que los DTE se comuniquen con los DCE. La Asociación de Industrias Electrónicas (EIA) y el Sector de Normalización de las Telecomunicaciones de la Unión de Telecomunicaciones Internacional (UIT-T) han trabajado muy activamente en el desarrollo de estas normas. El UIT-T se refiere al DCE como al equipo que termina el circuito de los datos. La EIA se refiere al DCE como el equipo de comunicación de datos. La interfaz DTE/DCE para un norma en particular define las siguientes especificaciones: * Mecánica/física: número de pins y tipo de conector. * Eléctrica: define los niveles de tensión de 0 y 1. * Funcional: especifica las funciones que se ejecutan asignando significado a cada una de las líneas de señalización de la interfaz. * Procesal: especifica la secuencia de eventos para la transmisión de los datos. Si se deben conectar dos DTE entre sí, como por ejemplo dos computadores o dos routers en el laboratorio, resulta necesario el uso de un cable especial llamado módem nulo para eliminar la necesidad de un DCE. En las conexiones síncronas, donde se requiere la señal de reloj, un dispositivo externo o bien uno de los DTE debe generar la señal de reloj. El puerto serial síncrono de un router se configura como DTE o DCE según el tipo de cable de conexión, que se solicita para DTE o DCE para que coincida con la configuración del router. Si el puerto se configura como DTE, que es la configuración por defecto, es necesario una temporización externa desde la CSU/DSU u otro

Page 285: Semestre1 Ccna

dispositivo DCE. El cable para la conexión DTE a DCE es un cable de transición serial y blindado. En el extremo del router, el cable de transición serial y blindado puede utilizar un conector DB-60, que se conecte al puerto DB-60 de una tarjeta serial de interfaz WAN. El otro extremo del cable de transición serial viene con el conector adecuado para el estándar que se utiliza. Por lo general, el proveedor WAN o la CSU/DSU determina el tipo de cable. Los dispositivos Cisco admiten los estándares seriales EIA/TIA-232, EIA/TIA-449, V.35, X.21 y EIA/TIA-530. Para admitir mayores densidades en un factor de forma más pequeño, Cisco ha introducido el cable serial inteligente. La interfaz del router del cable serial inteligente es un conector de 26 pins mucho más compacto que el conector DB-60. 3.1.5 Encapsulamiento HDLC Al principio, las comunicaciones seriales se basaban en protocolos orientados a los caracteres. Los protocolos orientados a bits eran más eficientes pero también eran propietarios. En 1979, ISO aceptó al HDLC como protocolo estándar de enlace de datos orientado a bit que encapsula los datos en enlaces de datos seriales y síncronos. La normalización instó a otros comités a que también lo adoptaran y así extendieran el uso del protocolo. Desde 1981, UIT-T ha desarrollado una serie de protocolos derivados del HDLC. Los siguientes ejemplos de protocolos derivados reciben el nombre de protocolos de acceso a enlaces. * Procedimiento de acceso al enlace balanceado (LAPB) para X.25 * Procedimiento de acceso al enlace en el canal D (LAPD) para ISDN. * Procedimiento de acceso al enlace para módems (LAPM) y PPP para módems. * Procedimiento de acceso a enlaces para Frame Relay (LAPF) HDLC utiliza la transmisión síncrona serial y brinda una comunicación entre dos puntos libre de errores. HDLC define la estructura del entramado de Capa 2 que permite el control de flujo y de errores mediante acuses de recibo y un esquema de ventanas. Cada trama presenta el mismo formato ya sea una trama de datos o una trama de control. El HDLC estándar, en sí, no admite múltiples protocolos en un solo enlace ya que no cuenta con una forma de indicar cuál es el protocolo que se transporta. Cisco ofrece una versión propietaria de HDLC. La trama HDLC de Cisco utiliza un campo "tipo" propietario que actúa como campo de protocolo. Este campo permite que varios protocolos de capa de red compartan el mismo enlace serial. HDLC es el protocolo de Capa 2 por defecto para las interfaces seriales de los routers Cisco. HDLC define los tres siguientes tipos de tramas, cada uno con diferente formato de campo de control. * Tramas de información (tramas I): transportan los datos que se transmitirán para la estación. Se cuenta con control adicional de flujo y de errores y los datos pueden ser adicionados a una trama de información. * Tramas de supervisión (tramas S): proporcionan los mecanismos de petición/respuesta cuando no se utiliza el adicionar datos. * Tramas no enumeradas (tramas U): brindan funciones de control de enlace suplementarias tales como configuración inicial de la conexión. El campo del código identifica el tipo de trama U. Los primeros uno o dos bits del campo de control sirven para identificar el tipo de trama. En el campo de control de una trama de información (I), el número de la secuencia de envío se refiere al número de la trama que se envía a continuación. El número de secuencia de recepción proporciona el número de la trama que se recibe a continuación. Tanto el transmisor como el receptor mantienen los números de secuencia de recepción y transmisión. 3.1.6 Configuración de encapsulamiento HDLC El HDLC de Cisco es el método de encapsulamiento por defecto que utilizan los dispositivos Cisco en las líneas seriales síncronas. Si la interfaz serial se configura con otro protocolo de encapsulamiento y entonces resulta necesario cambiarlo nuevamente a HDLC, entre al modo de configuración de la interfaz serial. Luego introduzca el comando encapsulation hdlc para especificar el protocolo de encapsulamiento de la interfaz. El HDLC de Cisco es un protocolo de punto a punto que puede utilizarse en líneas alquiladas entre dos dispositivos Cisco. Cuando la comunicación es con un dispositivo que no es Cisco, el PPP síncrono es una opción más viable. 3.1.7 Diagnóstico de fallas de una interfaz serial El resultado del comando show interfaces serial muestra información específica de las interfaces seriales. Al configurar HDLC, las palabras "Encapsulation HDLC", indicando el encapsulamiento HDLC, deben aparecer en la salida. Al configurar PPP, las palabras "Encapsulation PPP", indicando el encapsulamiento PPP, deben aparecer en la salida. Se pueden identificar cinco estados problemáticos de la línea de estado de la interfaz en la salida de show

Page 286: Semestre1 Ccna

interfaces serial: * Serial x is down, line protocol is down * Serial x is up, line protocol is down * Serial x is up, line protocol is up (looped) * Serial x is up, line protocol is down (disabled) * Serial x is administratively down, line protocol is down El comando show controllers es otra herramienta importante al diagnosticar las fallas en las líneas seriales. El resultado de show controllers indica el estado de los canales de la interfaz y si un cable está conectado a la interfaz o no. En la Figura , la interfaz serial 0/0 tiene conectado un cable DTE V.35. La sintaxis del comando varía de acuerdo con la plataforma. Para las interfaces seriales de los routers serie Cisco 7000, utilice el comando show controllers cbus Si el resultado de la interfaz eléctrica muestra UNKNOWN (DESCONOCIDO), en lugar de V.35, EIA/TIA-449 o algún otro tipo de interfaz eléctrica, el problema radica en un cable conectado incorrectamente. También es posible que se trate de un problema con el cableado interno de la tarjeta. Si se desconoce la interfaz eléctrica, el resultado del comando show interfaces serial <X> mostrará que la interfaz y el protocolo de línea se encuentran desactivados. Los comandos de depuración que se presentan a continuación son útiles a la hora de diagnosticar los problemas seriales y de la WAN: * debug serial interface: Verifica si los paquetes de actividad HDLC están aumentando. Si no lo están, es posible que haya un problema de temporización en la tarjeta de la interfaz o en la red. * debug arp: Indica si el router está enviando o recibiendo información acerca de routers (por medio de paquetes ARP) en el otro lado de la nube WAN. Use este comando cuando algunos nodos de una red TCP/IP responden, pero otros no. * debug frame-relay lmi: Obtiene la información de la Interfaz de administración local (LMI) que resulta útil para determinar si un router y un switch Frame Relay están enviando y recibiendo paquetes LMI. * debug frame-relay events: Determina si se están produciendo intercambios entre un router y un switch Frame Relay. * debug ppp negotiation: muestra los paquetes del Protocolo de punto a punto (PPP) que se transmiten durante el inicio del PPP, cuando se negocian sus opciones. * debug ppp packet: muestra los paquetes PPP enviados y recibidos. Este comando muestra las descargas de los paquetes de bajo nivel. * debug ppp: muestra los errores PPP tales como tramas ilegales o malformadas, asociados con la negociación y funcionamiento de la conexión. * debug ppp authentication: muestra los intercambios de paquetes del Protocolo de autenticación de intercambio de señales (CHAP) PPP y el Protocolo de autenticación de contraseña (PAP). PRECAUCIÓN: El resultado de la depuración es de alta prioridad para el proceso de la CPU y puede dejar al sistema inutilizable. Es por esto que los comandos de depuración sólo se deben utilizar para diagnosticar problemas específicos o durante las sesiones de diagnóstico de fallas con personal de servicio técnico de Cisco. Se recomienda utilizar los comandos debug (depurar) durante los períodos de poco tráfico en la red y cuando está conectada la menor cantidad de usuarios en línea. Realizar la depuración durante estos períodos disminuye la probabilidad de que la mayor carga de procesamiento debido al comando debug afecte el uso del sistema. 3.2.1 Arquitectura PPP en capas PPP utiliza una arquitectura en capas. La arquitectura en capas es un modelo, diseño o plan lógico que ayuda a la comunicación entre las capas interconectadas. El modelo de Interconexión de sistemas abiertos (OSI) es la arquitectura en capas que se utiliza en el networking. PPP proporciona un método para encapsular datagramas de varios protocolos en un enlace de punto a punto y utiliza la capa de enlace de datos para probar esta conexión. Por lo tanto, PPP está compuesto por dos subprotocolos: * Protocolo de control de enlaces: se utiliza para establecer el enlace de punto a punto. * Protocolo de control de red: se utiliza para configurar los distintos protocolos de capa de red. Se puede configurar PPP en los siguientes tipos de interfaces físicas: * Serial asíncrona. * Serial síncrona * Interfaz serial de alta velocidad (HSSI) * Red digital de servicios integrados (Integrated Services Digital Network, ISDN) PPP utiliza el Protocolo de control de enlace (LCP) para negociar y configurar las opciones de control en el enlace de datos de la WAN. PPP utiliza el componente del Protocolo de control de red (NCP) para encapsular y negociar las opciones para los diferentes protocolos de capa de red. El LCP se ubica en la parte más alta de la

Page 287: Semestre1 Ccna

capa física y se utiliza para establecer, configurar y probar la conexión de enlace de datos. PPP también utiliza LCP para acordar, de forma automática, opciones de formato de encapsulamiento tales como: * Autenticación: las opciones de autenticación requieren que la parte del enlace que realiza la llamada introduzca información de autenticación para ayudar a asegurar que el usuario cuente con el permiso del administrador de red para realizar la llamada. Los routers pares intercambian mensajes de autenticación. Las dos opciones de autenticación son: el Protocolo de autenticación de contraseña (PAP) y el Protocolo de autenticación de intercambio de señales (CHAP). * Compresión: las opciones de compresión aumentan la tasa de transferencia efectiva en las conexiones PPP al reducir la cantidad de datos en la trama que debe recorrer el enlace. El protocolo descomprime la trama al llegar a su destino. Stacker y Predictor son dos protocolos de compresión disponibles en los routers Cisco. * Detección de errores: los mecanismos de detección de errores con PPP habilitan un proceso para identificar las condiciones de falla. Las opciones de Calidad y Número mágico ayudan a garantizar un enlace de datos confiable y sin bucles. * Multienlace: Cisco IOS Versión 11.1 y posteriores admiten el PPP multienlace. Esta alternativa proporciona balanceo de la carga en las interfaces del router que usa PPP. * Devolución de llamadas en PPP: para aumentar la seguridad, Cisco IOS Versión 11.1 ofrece devolución de llamadas en PPP. Con esta opción LCP, un router Cisco puede actuar como cliente de la devolución de llamada o servidor de la devolución de llamada. El cliente realiza la llamada inicial, solicita que se le devuelva la llamada y termina la comunicación inicial. El router de devolución de llamadas responde al llamado inicial y se comunica nuevamente con el cliente basándose en las sentencias de configuración. LCP también hace lo siguiente: * Maneja límites variables del tamaño de paquete. * Detecta errores comunes de mala configuración. * Termina el enlace. * Determina cuándo un enlace funciona correctamente o cuándo falla. PPP permite que varios protocolos de capa de red operen en el mismo enlace de comunicación. Para cada protocolo de capa de red que se utiliza, se proporciona un Protocolo de control de red (NCP) distinto. Por ejemplo: el Protocolo de Internet (IP) utiliza el Protocolo de control de IP (IPCP) y el Intercambio de paquetes en internetworking (IPX) utiliza el Protocolo de control IPX de Novell (IPXCP). Los NCP incluyen campos funcionales que contienen códigos estandarizados que indican el tipo de protocolo de capa de red que encapsula PPP. Los campos de una trama PPP son los siguientes: * Señalador: indica el comienzo o el fin de una trama y consiste en la secuencia binaria 01111110. * Dirección: está formada por la dirección de broadcast estándar, que es la secuencia binaria 11111111. PPP no asigna direcciones de estaciones individuales. * Control: 1 byte que consta de la secuencia binaria 00000011, que requiere la transmisión de datos del usuario en una trama no secuencial. Se suministra un servicio de enlace sin conexión similar al del Control de enlace lógico (LLC) Tipo 1. * Protocolo: 2 bytes que identifican el protocolo encapsulado en el campo de datos de la trama. * Datos: 0 o más bytes que contienen el datagrama para el protocolo especificado en el campo de protocolo. El fin del campo de datos se detecta al encontrar la secuencia de señalador de cierre y dejando 2 bytes para el campo de la secuencia de verificación de trama (FCS). La longitud máxima por defecto del campo de datos es 1500 bytes. * FCS: en general, 16 bits o 2 bytes que se refieren a los caracteres adicionales que se agregan a la trama con el fin de controlar los errores. 3.2.2 Cómo establecer una sesión PPP El establecimiento de una sesión PPP tiene tres fases: Estas son: establecimiento del enlace, autenticación y fase del protocolo de la capa de red. Las tramas LCP se utilizan para realizar el trabajo de cada una de las fases LCP. Las tres siguientes clases de tramas LCP se utilizan en una sesión PPP: * Las tramas de establecimiento de enlace se utilizan para establecer y configurar un enlace. * Las tramas de terminación del enlace se utilizan para terminar un enlace. * Las tramas de mantenimiento del enlace se utilizan para administrar y depurar un enlace. Las tres fases para el establecimiento de una sesión PPP son: * Fase de establecimiento del enlace: en esta fase, cada dispositivo PPP envía tramas LCP para configurar y probar el enlace de datos. Los paquetes LCP contienen un campo de opción de configuración que permite que los dispositivos negocien el uso de opciones tales como la unidad máxima de transmisión (MTU), la compresión de determinados campos PPP y el protocolo de autenticación de enlace. Si no se incluye ninguna opción de configuración en un paquete LCP, se adopta el valor por defecto para esa configuración. Antes de poder

Page 288: Semestre1 Ccna

intercambiar cualquier datagrama de capa de red, primero, LCP debe abrir la conexión y negociar los parámetros de configuración. Esta fase queda completa después de enviar y recibir una trama de acuse de recibo de configuración. * Fase de autenticación (optativa): una vez establecido el enlace, y seleccionado el protocolo de autenticación, se puede autenticar el dispositivo par. La autenticación, en caso de que se utilice, se lleva a cabo antes de que comience la fase del protocolo de la capa de red. Como parte de esta fase, el LCP también permite efectuar una prueba opcional de determinación de la calidad del enlace. El enlace se prueba para determinar si su calidad es suficiente para activar los protocolos de capa de red. * Fase de protocolo de capa de red: en esta fase, los dispositivos PPP envían paquetes NCP para seleccionar y configurar uno o varios protocolos de capa de red (como IP). Después de configurar cada uno de los protocolos de la capa de red elegidos, se pueden enviar paquetes de cada uno de los protocolos de capa de red a través del enlace. Si LCP cierra el enlace, informa los protocolos de la capa de red, para que puedan tomar las medidas adecuadas. El comando show interfaces revela los estados de LCP y NCP bajo la configuración PPP. El enlace PPP queda configurado para las comunicaciones hasta que se presenta una de las siguientes situaciones: * Las tramas LCP o NCP cierran el enlace. * Se vence el tiempo de inactividad. * Interviene el usuario. 3.2.3 Protocolos de autenticación PPP La fase de autenticación de una sesión PPP es opcional. Una vez establecido el enlace y seleccionado el protocolo de autenticación, se puede autenticar el dispositivo par. La autenticación, si se utiliza, se lleva a cabo antes de que comience la fase de configuración del protocolo de la capa de red. Las opciones de autenticación requieren que la parte del enlace que realiza la llamada introduzca la información de autenticación. Esto ayuda a garantizar que el usuario tenga el permiso del administrador de la red para efectuar la llamada. Los routers pares intercambian mensajes de autenticación. Al configurar la autenticación PPP, el administrador de la red puede seleccionar el Protocolo de autenticación de contraseña (PAP) o el Protocolo de autenticación de intercambio de señales (CHAP). Por lo general, el protocolo de preferencia es CHAP. 3.2.4 Protocolo de autenticación de contraseña (PAP) PAP ofrece un método sencillo para que un nodo remoto establezca su identidad, mediante el intercambio de señales de dos vías. Una vez que se ha completado la fase de establecimiento del enlace PPP, el nodo remoto envía el conjunto de nombre de usuario/contraseña por el enlace repetidas veces hasta que se acusa recibo de la autenticación o la conexión se termina. PAP no es un protocolo de autenticación sólido. Las contraseñas se envían por el enlace en texto no cifrado, y no hay protección contra la reproducción o los intentos de descubrimiento mediante intentos reiterados de ensayo y error. El nodo remoto tiene control de la frecuencia y la temporización de los intentos de conexión. 3.2.5 Protocolo de autenticación de intercambio de señales (CHAP) CHAP se utiliza al iniciar un enlace y verifica, de forma periódica, la identidad del nodo remoto por medio de un intercambio de señales de tres vías. CHAP se realiza al establecer el enlace inicial y se repite durante el tiempo que dure el enlace. Después de completar la fase de establecimiento del enlace PPP, el host envía un mensaje de comprobación al nodo remoto. El nodo remoto responde con un valor calculado mediante la función hash de una vía que, en general, es Message Digest 5 (MD5). Esta respuesta se basa en la contraseña y el mensaje de comprobación. El router local verifica la respuesta contra su propio cálculo del valor hash esperado. Si los valores concuerdan, se acusa recibo de la autenticación; de lo contrario, la conexión termina de inmediato. CHAP brinda protección contra los intentos de reproducción a través del uso de un valor de comprobación variable que es exclusivo e impredecible. Como la comprobación es única y aleatoria, el valor hash resultante también será único y aleatorio. El uso de comprobaciones reiteradas tiene como fin limitar el tiempo de exposición ante cualquier ataque. El router local o un servidor de autenticación de terceros tiene el control de la frecuencia y la temporización de las comprobaciones. 3.2.6 Proceso de encapsulamiento y autenticación PPP Cuando se utiliza el comando encapsulation ppp, la autenticación CHAP o PAP se puede agregar de forma optativa. Si no se especifica ninguna clase de autenticación, la sesión PPP comienza de inmediato. Si se requiere de autenticación, el proceso da los siguientes pasos: * Se determina el método de autenticación.

Page 289: Semestre1 Ccna

* Se revisa la base de datos local o el servidor de seguridad, que tiene una base de datos de contraseñas y nombres de usuario, para verificar que el nombre de usuario y la contraseña dados concuerdan con alguna entrada. * El proceso verifica la respuesta de autenticación que envía la base de datos local. Si la respuesta es positiva, se inicia la sesión PPP. Si es negativa, se termina la sesión. La Figura y la Figura correspondiente detallan el proceso de autenticación CHAP. 3.3.1 Introducción a la configuración de PPP Los aspectos configurables de PPP incluyen los métodos de autenticación, la compresión, la detección de errores y si admite multienlace o no. La siguiente sección describe las distintas opciones de configuración de PPP. Los routers Cisco que utilizan el encapsulamiento PPP pueden incluir las opciones de configuración de LCP que se describen en la Figura . 3.3.2 Configuración de PPP El siguiente ejemplo activa el encapsulamiento PPP en una interfaz serial 0/0: Router#configure terminal Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp La compresión de software de punto a punto puede configurarse en las interfaces seriales que utilizan encapsulamiento PPP. La compresión se ejecuta en el software y puede afectar el rendimiento del sistema de forma significativa. No se recomienda la compresión si la mayor parte del tráfico está compuesto por archivos comprimidos. Para configurar la compresión en PPP, introduzca los siguientes comandos: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#compress [predictor | stac] Introduzca los siguientes comandos para monitorear los datos que se pasan al enlace y para evitar la formación de bucles en las tramas: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#ppp quality percentage Los siguientes comandos ejecutan el equilibrio de las cargas en múltiples enlaces: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#ppp multilink 3.3.3 Configuración de la autenticación PPP El procedimiento que se describe en la tabla detalla la configuración del encapsulamiento PPP y los protocolos de autenticación PAP/CHAP. Es esencial realizar una configuración correcta, ya que PAP y CHAP utilizarán estos parámetros para la autenticación. La Figura presenta un ejemplo de una configuración de autenticación PAP de dos vías. Ambos routers autentican y son autenticados de modo que los comandos de autenticación se reflejan entre sí. El nombre de usuario y la contraseña PAP que cada router envía debe coincidir con aquellos especificados en el comando username name password password del otro router. PAP ofrece un método sencillo para que un nodo remoto establezca su identidad, por medio del intercambio de señales de dos vías. Esto se realiza sólo en el momento del establecimiento inicial del enlace. El nombre de host de un router debe coincidir con el nombre de usuario que el otro router ha configurado. Las contraseñas también deben coincidir. CHAP se utiliza para verificar periódicamente la identidad del nodo remoto, por medio de un intercambio de señales de tres vías. El nombre de host de un router debe coincidir con el nombre de usuario que el otro router ha configurado. Las contraseñas también deben coincidir. Esto se realiza durante el establecimiento inicial del enlace y se puede repetir en cualquier momento una vez establecido el enlace.

Page 290: Semestre1 Ccna

3.3.4 Verificación de la configuración de encapsulamiento Serial PPP Utilice el comando show interfaces serial para verificar que la configuración del encapsulamiento PPP o HDLC esté correcta. El resultado del comando de la Figura ilustra una configuración PPP. Cuando se configura un control de enlace de datos de alto nivel (HDLC), las palabras "Encapsulation HDLC" (Encapsulamiento HDLC) deben aparecer en el resultado del comando show interfaces serial. Una vez que se ha configurado PPP, los estados del Protocolo de control de enlace (LCP) y del Protocolo de control de red (NCP) podrán verificarse mediante el comando show interfaces serial. La Figura enumera los comandos que se utilizan para habilitar, configurar y verificar el PPP. 3.3.5 Diagnóstico de fallas de la configuración de encapsulamiento serial El comando debug ppp authentication muestra la secuencia de intercambio de la autenticación. La Figura muestra el resultado del router de la izquierda durante la autenticación CHAP del router de la derecha mientras está habilitado debug ppp authentication. Con la autenticación de dos vías configurada, los dos routers se autentican entre sí. Los mensajes aparecen tanto para el proceso de autenticación como para el proceso de ser autenticado. Utilice el comando debug ppp authentication para mostrar la secuencia de intercambio, a medida que se produce. La Figura resalta el resultado del router para la autenticación PAP de dos vías. El comando debug ppp se utiliza para mostrar información sobre el funcionamiento de PPP. La forma no de este comando deshabilita el resultado de la depuración. Router#debug ppp {authentication | packet | negotiation | error | chap} Router#no debug ppp {authentication | packet | negotiation | error | chap} Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: * La multiplexión por división de tiempo * El punto de demarcación de una WAN * La definición y las funciones del DTE y del DCE * El desarrollo del encapsulamiento HDLC * El uso del comando encapsulation hdlc para configurar HDLC * El diagnostico de fallas de una interfaz serial mediante los comandos show interface y show controllers. * Las ventajas del uso del protocolo PPP * Las funciones del Protocolo de control de enlace (LCP) y del Programa de control de red que son componentes de PPP. * Las partes de una trama PPP * Las tres fases de una sesión PPP * La diferencia entre PAP y CHAP * Los pasos del proceso de autenticación PPP * Las distintas opciones de configuración de PPP * Cómo configurar el encapsulamiento PPP * Cómo configurar la autenticación CHAP y PAP * El uso del comando show interface para verificar el encapsulamiento serial. * El diagnóstico de los problemas en la configuración del PPP mediante el comando debug ppp Módulo 4: ISDN y DDR Descripción general Las Redes digitales de servicios integrados (Integrated Services Digital Network, ISDN) son redes que proporcionan conectividad digital de extremo a extremo para dar soporte a una amplia gama de servicios, que incluye servicios de datos y de voz. Las ISDN permiten la operación de múltiples canales digitales al mismo tiempo a través del mismo cable telefónico normal utilizado en las líneas analógicas, pero las ISDN transmiten señales digitales y no analógicas. La latencia es mucho menor en una línea ISDN que en una línea analógica. El enrutamiento telefónico por demanda (DDR) es una técnica desarrollada por Cisco que permite el uso de las líneas telefónicas existentes para formar redes de área amplia (WAN), en lugar de utilizar líneas dedicadas e individuales. Las Redes públicas de telefonía conmutada (PSTN) son un elemento de este esquema. El DDR se utiliza cuando no se requiere de una conexión permanente, reduciendo así los costos. El DDR es un esquema en el que un router se conecta mediante líneas telefónicas cuando debe transmitir tráfico, y luego se

Page 291: Semestre1 Ccna

desconecta una vez finalizada la transferencia. Los estudiantes que completen este módulo deberán ser capaces de: * Definir los estándares ISDN que se utilizan para el direccionamiento, los conceptos y la señalización * Describir de qué manera las ISDN utilizan la capa física y la de enlace de datos * Enumerar las interfaces y los puntos de referencia de las ISDN * Configurar una interfaz ISDN del router * Determinar cuáles tipos de tráfico pueden transmitirse al configurar el DDR * Configurar las rutas estáticas para el DDR * Seleccionar el tipo de encapsulamiento adecuado para el DDR * Ser capaz de determinar y aplicar una lista de acceso para el tráfico en DDR * Configurar las interfaces de marcación 4.1 ISDN Conceptos 4.1.1 Introducción a las ISDN Son varias las tecnologías WAN que se utilizan para brindar acceso a redes desde ubicaciones remotas. Una de esas tecnologías es la ISDN. La tecnología ISDN está diseñada específicamente para solucionar los problemas de ancho de banda reducido que aquejan a las pequeñas oficinas o usuarios individuales que usan líneas telefónicas tradicionales. Las PSTN tradicionales están basadas en conexiones analógicas entre el cliente y la central telefónica local, también denominadas enlaces o loops locales. Los circuitos analógicos introducen limitaciones en el ancho de banda que es posible obtener del loop local. Las restricciones en el circuito no permiten anchos de banda analógicos superiores a unos 3000 Hz. La tecnología ISDN permite el uso de datos digitales en el loop local proporcionando a los usuarios remotos mayores velocidades de acceso. Las compañías telefónicas desarrollaron la tecnología ISDN con el fin de crear redes totalmente digitales. La ISDN permite que las señales digitales se transmitan a través del cableado telefónico existente. Esto se hizo posible cuando se actualizaron los switches de las compañías telefónicas para que manejaran señales digitales. En general, las ISDN se utilizan para los empleados que trabajan fuera de la oficina y para la interconexión de pequeñas oficinas remotas a las LAN corporativas. Las compañías telefónicas desarrollaron las ISDN como parte del esfuerzo por estandarizar los servicios para los abonados. Esto incluye la Interfaz de red del usuario (UNI), mejor conocida como loop local. Los estándares ISDN definen el hardware y los esquemas de configuración de llamadas para la conectividad digital de extremo a extremo. Dichos estándares ayudan a alcanzar la meta de una conectividad mundial, para garantizar que las redes ISDN puedan interconectarse fácilmente. En las ISDN, la digitalización se realiza en el sitio del usuario y no en la compañía telefónica. ISDN lleva la conectividad digital a los sitios remotos. A continuación, se enumeran algunos de los beneficios de las ISDN: * Transportan diversos tipos de tráfico de usuario, que incluyen datos, voz y video. * Las llamadas se establecen mucho más rápidamente que con conexiones de módem. * Los canales B brindan tasas de transferencia de datos mayores que los módems. * Los canales B son adecuados para los enlaces negociados de Protocolo de punto a punto (PPP). Las ISDN son un servicio versátil, capaz de transportar tráfico de voz, video y datos. Es posible utilizar múltiples canales para transportar distintos tipos de tráfico en una sola conexión. La tecnología ISDN utiliza señalización fuera de banda, delta (canal D), para el establecimiento y señalización de la llamada. Para efectuar llamadas telefónicas normales, el usuario marca el número un dígito a la vez. Una vez recibidos todos los números, se transfiere la llamada al usuario remoto. En las ISDN los números llegan al switch a la velocidad del canal D, lo que reduce el tiempo necesario para establecer la llamada. Las ISDN también proporcionan anchos de banda mayores a los de las conexiones telefónicas tradicionales de 56 Kbps. Las ISDN utilizan canales portadores, también llamados canales B como rutas para datos de cualquier tipo. Cada canal B proporciona un ancho de banda de 64 Kbps. Con múltiples canales B, las ISDN pueden formar WANS cuyo ancho de banda es mayor que el de algunas líneas arrendadas. Una conexión ISDN con dos canales B proporciona un ancho de banda total utilizable de 128 Kbps. Cada canal B puede efectuar una conexión serial aparte con cualquier otro sitio de la red ISDN. Como el PPP opera tanto en enlaces seriales síncronos como asíncronos, es posible utilizar enlaces ISDN en conjunto con el encapsulamiento PPP. 4.1.2 Métodos de acceso y estándares de las ISDN

Page 292: Semestre1 Ccna

La investigación de los estándares para las ISDN comenzó a fines de la década de los 60. En 1984, se publicó un conjunto completo de recomendaciones para las ISDN, el cual es actualizado constantemente por el Sector de Estandarización de la Unión Internacional de las Telecomunicaciones (UIT-T), conocido anteriormente como Comité Consultivo Internacional Telegráfico y Telefónico (CCITT). Los estándares ISDN son un conjunto de protocolos que agrupa las comunicaciones de datos y de telefonía. La UIT-T agrupa y organiza los protocolos ISDN de acuerdo con los siguientes aspectos generales: * Protocolos E: recomiendan estándares de telefonía para las ISDN. Por ejemplo, el protocolo E.164 describe el direccionamiento internacional para las ISDN. * Protocolos I: se refieren a los conceptos, terminología y métodos generales. La serie I.100 incluye conceptos generales sobre ISDN y la estructura de otras recomendaciones de la serie I. Los I.200 se refieren a los aspectos del servicio de las ISDN. Los I.300 describen los aspectos de la red. Los I.400 describen cómo se proveen las UNI. * Protocolos Q: se refieren a cómo debe operar la conmutación y la señalización. El término señalización, en este contexto, significa el proceso de establecer una llamada ISDN. Los estándares ISDN definen dos tipos principales de canal, cada uno de distinta velocidad de transmisión. El canal portador o canal B se define como una ruta digital libre de 64 Kbps. Se le llama libre porque puede transmitir cualquier tipo de datos digitalizados, en modo full duplex. Por ejemplo, es posible hacer un enlace digital de voz en un canal B. El segundo tipo de canal recibe el nombre de canal delta o canal D. Puede ser de 16 Kbps para la Interfaz de acceso básico (BRI) o de 64 Kbps para la Interfaz de acceso principal (PRI). El canal D transporta la información de control del canal B. Una vez establecida la conexión TCP, se produce un intercambio de información denominado "la configuración de la conexión". Dicha información se intercambia en la ruta en la que al final se transmitirá los datos. Tanto la información de control como los datos comparten la misma ruta. Esto se denomina señalización dentro de banda. Sin embargo, la tecnología ISDN utiliza un canal aparte para la información de control, el canal D. Esto se denomina señalización fuera de banda. La tecnología ISDN especifica dos métodos de acceso estándar, BRI y PRI. Una única interfaz BRI o PRI provee un grupo multiplexado de canales B y D. La BRI utiliza dos canales B de 64 Kbps más un canal D de 16 Kbps. La BRI se usa en muchos routers de Cisco. Como la BRI utiliza dos canales B y un canal D, a veces se conoce como 2B+D. Los canales B se pueden usar para transmisiones digitales de voz. En este caso, se utiliza métodos especializados para la digitalización de la voz. Los canales B también pueden utilizarse para el transporte de datos a velocidades relativamente altas. De este modo, la información se transporta en el formato de tramas, mediante el control de enlace de datos de alto nivel (HDLC) o el protocolo PPP como protocolos de Capa 2. El PPP es mucho más sólido que el HDLC ya que ofrece un mecanismo para la autenticación y negociación de la configuración de protocolos y enlaces compatibles. Se considera a las ISDN como conexiones conmutadas por circuito. El canal B es la unidad elemental para la conmutación por circuito. El canal D transporta mensajes de señalización tales como establecimiento y corte de la llamada, para el control de llamadas en los canales B. El tráfico en el canal D emplea el Protocolo de procedimiento de acceso al enlace en canales D (LAPD). El LAPD es un protocolo de capa de enlace de datos basado en el HDLC. En América del Norte y Japón, las PRI ofrecen veintitrés canales B de 64 Kbps y un canal D de 64 Kbps. Las PRI ofrecen el mismo nivel de servicio que las conexiones T1 o DS1. En Europa y en gran parte del resto del mundo, las PRI ofrecen 30 canales B y un canal D, para así ofrecer el mismo nivel de servicio que un circuito E1. Las PRI utilizan la Unidad de servicio de datos/Unidad de servicio del canal (DSU/CSU) para las conexiones T1/E1. 4.1.3 Protocolos y modelo de tres capas de las ISDN La tecnología ISDN utiliza un conjunto de estándares UIT-T que abarcan las capas física, de enlace de datos y de red del modelo de referencia OSI: * Las especificaciones ISDN PRI y BRI de la capa física se denominan UIT-T I.430 e I.431 respectivamente. * La especificación de la capa de enlace de datos está basada en el protocolo LAPD y se define formalmente en los siguientes documentos: o UIT-T Q.920 o UIT-T Q.921 o UIT-T Q.922 o UIT-T Q.923 * La especificación de capa de red se define en UIT-T Q.930 (también denominado L450) y UIT-T Q.931 (también denominado I.451). Estos dos estándares especifican las conexiones de usuario a usuario, conmutadas por circuito y por paquete.

Page 293: Semestre1 Ccna

El servicio BRI se proporciona en un loop local que tradicionalmente transporta el servicio telefónico analógico por cable. Aunque existe una sola ruta física en las BRI, hay tres rutas de información separadas, 2B+D. La información de los tres canales es multiplexada en una ruta física única. Los formatos de la trama de la capa física o Capa 1 varían según la trama sea entrante o saliente. La trama es saliente si viaja desde el terminal hasta la red. Las tramas salientes usan el formato TE. La trama es entrante si viaja desde la red hacia el terminal. Las tramas entrantes usan el formato NT. Cada trama BRI RDSI se compone de dos subtramas cada una de las cuales se compone a su vez de lo siguiente: * 8 bits del canal B1. * 8 bits del canal B2. * 2 bits del canal D. * 6 bits de encabezado. Las tramas BRI RDSI por lo tanto se componen de 48 bits. Cuatro mil de estas tramas se transmiten cada segundo. Cada canal B, B1 y B2, tiene una capacidad de 8 * 4000 * 2 = 64 kbps, mientras que el canal D tiene una capacidad de 2 * 4000 * 2 = 16 kbps. Esto suma 144 kbps (B1 + B2 + D) del total de la tasa binaria de 192 kbps de la interfaz físca BRI RDSI. El resto de la tasa binaria representan los bits extras que se requieren para la transmisión: 6 * 4000 * 2 = 48 kbps. Los bits adicionales de una subtrama RDSI se usan de la siguiente manera: * Bit de entramado: suministra la sincronización * Bit de equilibrado de la carga: ajusta el valor de bit promedio * Eco de los bits anteriores del canal D: se utiliza para la resolución de contención cuando varias terminales de un bus pasivo se disputan un canal. * Bit de activación: activa los dispositivos * Bit extra: no asignado Cabe notar que la velocidad física de la interfaz BRI es de 48*4000 = 192 Kbps. La velocidad efectiva es de 144 Kbps = 64 Kbps + 64 Kbps + 16 Kbps (2B+D). La Capa 2 del canal de señalización usa el LAPD. El LAPD es similar al HDLC. El LAPD se utiliza en todo el canal D para garantizar que la información de control y señalización fluya y se reciba correctamente. Los campos de control y señalización del LAPD son idénticos a los de HDLC. En el LAPD, el campo de la dirección tiene una longitud de 2 bytes. El primer byte del campo de dirección contiene el identificador del punto de acceso al servicio (SAPI), que identifica el portal en el cual se suministra los servicios de LAPD a la Capa 3. El bit de Comando/Respuesta (C/R) indica si la trama contiene un comando o una respuesta. El segundo byte contiene el identificador del terminal final (TEI). Cada elemento del equipo terminal del cliente requiere de un identificador TEI único. El TEI puede asignarse de forma estática durante la instalación, o el switch puede asignarlo dinámicamente durante el arranque del equipo. Si se asigna el TEI de forma estática durante la instalación, es entonces un número que varía de 0 a 63. El rango de un TEI de asignación dinámica varía de 64 a 126. Un TEI de 127 o todos 1s indica un broadcast. 4.1.4 ISDN - Funciones Se deben producir varios intercambios para que un router se conecte a otro mediante ISDN. Para establecer una llamada ISDN, se utiliza el canal D entre el router y el switch ISDN. El Sistema de señalización 7 (SS7) se utiliza entre los switches dentro de la red del proveedor del servicio. El canal D entre el router y el switch ISDN siempre está habilitado. El estándar ISDN Q.921 describe los procesos LAPD de enlace de datos que funcionan como procesos de Capa 2 en el modelo de referencia OSI. El canal D se utiliza para las funciones de control de llamada tales como establecimiento, señalización y corte de la llamada. Estas funciones se implementan según el protocolo Q.931. El Q.931 especifica las funciones de la Capa 3 del modelo de referencia OSI. El estándar Q.931 recomienda una conexión de capa de red entre el terminal final y el switch ISDN local, pero no impone una recomendación de extremo a extremo. Debido a que algunos switches ISDN fueron desarrollados antes de la estandarización del Q.931, distintos proveedores de ISDN y distintos tipos de switch pueden utilizar (de hecho lo hacen) diferentes implementaciones del Q.931. Como los tipos de switch no son estándar, los routers deben contar con comandos en su configuración que especifiquen el switch ISDN al que se conectan. Al establecer una llamada BRI o PRI se produce la siguiente secuencia de eventos: 1. El canal D se utiliza para enviar el número marcado hasta el switch ISDN local. 2. El switch local utiliza el protocolo de señalización SS7 para configurar una ruta y enviar el número marcado al switch ISDN remoto. 3. El switch ISDN remoto hace una señalización al destino mediante el canal D. 4. El dispositivo ISDN NT-1 de destino envía al switch ISDN remoto un mensaje de conexión de llamada. 5. El switch ISDN remoto utiliza el SS7 para enviar un mensaje de conexión de llamada al switch local.

Page 294: Semestre1 Ccna

6. El switch ISDN local conecta un canal B de extremo a extremo y deja disponible al otro canal B para una nueva conversación o transferencia de datos. Ambos canales B pueden utilizarse al mismo tiempo. 4.1.5 ISDN - Puntos de referencia Los estándares ISDN definen a los grupos funcionales como dispositivos o componentes de hardware que permiten al usuario tener acceso a los servicios de las BRI o PRI. Los fabricantes pueden crear hardware que soporte una o más funciones. Las especificaciones ISDN definen cuatro puntos de referencia que conectan los dispositivo ISDN unos con otros. Cada dispositivo de una red ISDN realiza una tarea específica para facilitar la conectividad de extremo a extremo. Para conectar los dispositivos que realizan funciones específicas, la interfaz entre los dos dispositivos debe estar bien definida. Estas interfaces reciben el nombre de puntos de referencia. Los puntos de referencia que afectan el extremo del cliente de la conexión ISDN son los siguientes: * R: hace referencia a conexiones entre un dispositivo terminal tipo 2 (TE2) no compatible con ISDN y un adaptador de terminales (TA), por ejemplo una interfaz serial RS-232. * S: hace referencia a los puntos de conexión a un dispositivo de conmutación del tipo Terminación de red tipo 2 (NT2) del cliente y permite realizar llamadas entre los distintos tipos de equipos del cliente. * T: idéntico a la interfaz S desde el punto de vista eléctrico, hace referencia a la conexión saliente desde el dispositivo NT2 hacia la red ISDN o hacia dispositivos de Terminación de red tipo 1 (NT1). * U: hace referencia a las conexiones entre dispositivos NT1 y la red ISDN propiedad de la compañía telefónica. Como las referencias S y T son similares desde el punto de vista eléctrico, algunas interfaces se especifican como interfaces S/T. Aunque realizan funciones diferentes, el puerto es el mismo, desde el punto de vista eléctrico, y puede utilizarse para ambas funciones. 4.1.6 Determinación de la interfaz ISDN del router En los Estados Unidos, el cliente debe proveer el dispositivo NT1. En Europa y en otros países, la compañía telefónica provee la función NT1 y presenta una interfaz S/T al abonado. En estas configuraciones, el abonado no necesita proveer un dispositivo NT1 aparte ni una función NT1 integrada en el dispositivo terminal. Equipos tales como los módulos y las interfaces ISDN del router deben solicitarse según el esquema correspondiente. Para seleccionar un router Cisco con la interfaz ISDN adecuada, proceda de la siguiente forma: 1. Determine si el router soporta la interfaz ISDN BRI. Busque en la parte posterior del router un conector BRI o una Tarjeta de interfaz WAN (WIC) para BRI. 2. Determine el proveedor del dispositivo NT1. El dispositivo NT1 termina el loop local en la central (CO) del proveedor de servicios ISDN. En los Estados Unidos, el dispositivo NT1 forma parte de los Equipos terminales del cliente (CPE) y éste debe suplirlos. En Europa, por lo general, el proveedor suple el dispositivo NT1. 3. Si el NT1 está integrado en un CPE, el router debe contar con una interfaz U. Si el router cuenta con una interfaz S/T, entonces necesitará un dispositivo NT1 externo para conectarse con el proveedor de ISDN. Si el router cuenta con un conector BRI entonces ya está habilitado para ISDN. En el caso de una interfaz ISDN nativa ya integrada, el router es un TE1 y necesita conectarse a un NT1. Si el router cuenta con una interfaz U, también dispone de un dispositivo NT1 incorporado. Si el router no cuenta con un conector BRI y es de configuración fija o es un router no modular, entonces, debe utilizar la interfaz serial existente. En el caso de interfaces ISDN no nativas tales como las interfaces seriales, se debe conectar un dispositivo TA externo a la interfaz serial para proporcionar la conectividad BRI. Si el router es modular, es posible que se le pueda añadir una interfaz ISDN nativa, siempre que haya una ranura disponible. PRECAUCIÓN: Nunca debe conectarse una interfaz U a un dispositivo NT1 ya que se dañará la interfaz. 4.1.7 Tipos de switches ISDN Los routers deben estar configurados para identificar el tipo de switch al cual se comunican. Los tipos de switches ISDN disponibles varían en parte según el país en el que se usa el switch. Como consecuencia de las diversas implementaciones del Q.931, el protocolo de señalización del canal D utilizado en los switches ISDN varía entre los distintos suplidores. Los servicios que ofrecen los proveedores de ISDN varían considerablemente de un país a otro y de una región a otra. Al igual que los módems, cada tipo de switch opera de forma ligeramente distinta y tiene un conjunto específico de requisitos para el establecimiento de la llamada. Antes de conectar el router al servicio ISDN, debe configurarse para el tipo de switch que utiliza la CO. Esta información debe especificarse durante la configuración del router a fin de que éste pueda comunicarse con el switch, establecer la llamada a nivel de la red ISDN y enviar datos. Además de conocer el tipo de switch utilizado por el proveedor del servicio, también puede ser necesario

Page 295: Semestre1 Ccna

conocer cuáles son los identificadores del perfil de servicio (SPID) asignados por la compañía telefónica. El SPID es un número que proporciona el proveedor de ISDN para identificar la configuración del servicio BRI. Los SPID permiten que múltiples dispositivos ISDN, como dispositivos de voz y datos, compartan el loop local. Los switches DMS-100 y ISDN-1 National requieren SPID. Los SPID sólo se utilizan en América del Norte y Japón. El proveedor de ISDN suministra un SPID para identificar la configuración del servicio ISDN. En muchos casos, al configurar un router, es necesario introducir los SPID. Cada SPID indica información acerca de la configuración de la línea y del proceso de establecimiento de llamadas. Los SPID son una serie de caracteres semejantes por lo general a números de teléfono. Los SPID permiten que el switch de las oficinas centrales identifique cada canal B. Una vez identificado, el switch enlaza los servicios disponibles a la conexión. Recuerde que la tecnología ISDN se utiliza comúnmente para conectividad mediante líneas de marcación telefónica. Los SPID se procesan cuando el router efectúa la conexión inicial con el switch ISDN. Si es necesario el uso de SPID, pero no están correctamente configurados, la inicialización fallará y no será posible utilizar los servicios ISDN. 4.2.1 Configuración de la interfaz ISDN BRI El comando isdn switch-type switch-type puede ejecutarse en el modo de configuración global o en el modo de configuración de interfaz para especificar el switch ISDN del proveedor. La configuración del comando isdn switch-type en el modo de configuración global define el mismo tipo de switch ISDN para todas las interfaces ISDN. Una vez ejecutado el comando de configuración global, cada interfaz puede ser configurada individualmente para reflejar un tipo de switch diferente. Una vez instalado el servicio ISDN, el proveedor del servicio enviará información sobre el tipo de switch y los SPID. Los SPID se utilizan para definir los servicios disponibles para cada abonado individual del servicio ISDN. Según el tipo de switch, es posible que haya que agregar estos SPID a la configuración. Los switches National ISDN-1 y los ISDN DMS-100 requieren la configuración de los SPID, pero no así el switch AT&T 5ESS. Es necesario especificar los SPID cuando se utiliza un simulador de ISDN Adtran. El formato de los SPID puede variar según el tipo de switch ISDN y los requisitos específicos del proveedor. Utilice los comandos isdn spid1 y isdn spid2 del modo de configuración de interfaz para especificar el SPID que se requiere para iniciar una llamada a la central ISDN. – La configuración de la interfaz ISDN BRI es una mezcla de comandos de interfaz y global. Para configurar el tipo de switch ISDN, utilice el comando isdn switch-type en el modo de configuración global. Router(config)#isdn switch-type switch-type El argumento switch-type indica el tipo de switch del proveedor del servicio. Para inhabilitar el switch en una interfaz ISDN, especifique isdn switch-type none. El siguiente ejemplo configura el tipo de switch National ISDN-1 en el modo de configuración global. Router(config)#isdn switch-type basic-ni Para definir un SPID, utilice el comando isdn spid# en el modo de configuración de interfaz. Este comando se utiliza para definir los números SPID que han sido asignados a los canales B. Router(config-if)#isdn spid1 spid-number [ldn] Router(config-if)#isdn spid2 spid-number [ldn] El argumento opcional ldn define un número de directorio de marcación local. En la mayoría de los switches, el número debe coincidir con el del destinatario de la llamada que proviene del switch ISDN. Los SPID se especifican en el modo de configuración de interfaz. Para ingresar al modo de configuración de interfaz, utilice el comando interface bri en el modo de configuración global. Router(config)#interface bri slot/port Router(config)#interface bri0/0 Router(config-if)#isdn spid1 51055540000001 5554000 Router(config-if)#isdn spid2 51055540010001 5554001 4.2.2 Configuración de la interfaz ISDN PRI La interfaz ISDN PRI se provee en líneas arrendadas T1 o E1. Las principales tareas de configuración de la interfaz PRI son las siguientes: 1. Especificar correctamente el tipo de switch PRI al que se conecta la interfaz del router en la central del proveedor de ISDN. 2. Especificar el controlador T1/E1, el tipo de entramado y la codificación de línea del equipo terminal del

Page 296: Semestre1 Ccna

proveedor de ISDN. 3. Establecer la secuencia de multiplexado de la interfaz PRI para el equipo terminal T1/E1 e indicar la velocidad utilizada. Como los routers se conectan a las interfaces PRI mediante líneas T1/E1, no existe un comando "interface pri". En cambio, la interfaz física del router que se conecta con la línea arrendada recibe el nombre de controlador T1 o de controlador E1, en caso de utilizar una línea E1. Este controlador debe estar correctamente configurado a fin de comunicarse con la red del proveedor. La configuración de los canales D y B de las interfaces ISDN PRI se hace aparte de la configuración del controlador, mediante el comando interface serial Utilice el comando isdn switch-type para especificar el switch ISDN que utiliza el proveedor al que se conecta la interfaz PRI. Como sucede con las BRI, este comando puede introducirse en modo de configuración global o de configuración de interfaz. La tabla muestra los tipos de switch disponibles para la configuración de las interfaces ISDN PRI: Router(config)#isdn switch-type primary-net5 La configuración de un controlador T1 o E1 se realiza en cuatro pasos: 1. Desde el modo de configuración global, especifique el controlador y la ranura/puerto del router donde está instalada la tarjeta PRI. Router(config)#controller {t1 | e1} {slot/port} Router(config-controller)# 2. Configure el tipo de trama, la codificación de línea y la sincronización, según lo indicado por el proveedor del servicio. El comando framing se utiliza para seleccionar el tipo de trama que usa el proveedor del servicio ISDN PRI. Para líneas T1, use el comando siguiente: Router(config-controller)#framing {sf | esf} Para líneas E1, use el comando framing con las siguientes opciones: Router(config-controller)#framing {crc4 | no-crc4} [australia] Utilice el comando linecode para identificar el método de señalización de la capa física en el equipo terminal digital del proveedor. Router(config-controller)#linecode {ami | b8zs| hdb3} En América del Norte, los proveedores de conexiones T! utilizan el método de señalización B8ZS. Permite aprovechar totalmente los 64 Kbps de cada canal ISDN. En Europa se utiliza normalmente la codificación HDB3. 3. Configure la interfaz para usar PRI y el número de intervalos de tiempo fijos asignados en el equipo terminal digital del proveedor. Router(config-controller)#pri-group [timeslotsrange] Para T1, el rango de intervalos de tiempo utilizados es 1-24. Para E1 es 1-31. 4. Especifique una interfaz para la operación del canal D PRI. La interfaz es una interfaz serial conectada a una línea T1/E1 en el router: Router(config)#interface serial{slot/port: | unit:}{23 | 15} En las líneas E1 o T1, los canales comienzan su numeración en 1. La numeración varía de 1 a 31 para E1 y de 1 a 24 para T1. Las interfaces seriales del router Cisco comienzan su numeración en 0. Por lo tanto, el canal 16, el canal de señalización en una conexión E1, es el canal 15 de la interfaz. El canal 24, el canal de señalización T1, se convierte en el canal 23 en la interfaz. De esta manera, la interfaz serial 0/0:23 se refiere al canal D de una interfaz PRI T1. Las subinterfaces, generalmente utilizadas con Frame Relay, se designan con un punto o una coma. Por ejemplo, 0/0.16 serial es una subinterfaz. No confunda los canales de una T1 o E1 con las subinterfaces. Los canales utilizan dos puntos en lugar de un punto para indicar el número del canal: * S0/0.23 se refiere a una subinterfaz. * S0/0:23 se refiere a un canal. 4.2.3 ISDN - Verificación de la configuración Se puede usar diversos comandos show para verificar que la configuración ISDN se ha hecho correctamente. Para confirmar las operaciones de las BRI, utilice el comando show isdn status para inspeccionar el estado de las interfaces BRI. Es posible utilizar este comando después de configurar la interfaz BRI para verificar que el

Page 297: Semestre1 Ccna

dispositivo TE1 o el router se comuniquen con el switch ISDN de forma correcta. En la Figura , los TE1 se han negociado con éxito y la Capa 3 ISDN está lista para efectuar o recibir llamadas. Verifique que el Estado de la capa 1 sea ACTIVE (ACTIVO) y que el Estado de la capa 2 muestre la leyenda MULTIPLE_FRAME_ESTABLISHED (TRAMAS MÚLTIPLES ESTABLECIDAS). Este comando también muestra el número de llamadas activas. El comando show isdn active muestra la información actual de las llamadas incluyendo: * Número marcado. * Tiempo hasta el final de la llamada. * Aviso de carga (AOC) * Unidades de carga utilizadas durante la llamada. * Si la información de AOC se proporciona durante o al finalizar las llamadas. El comando show dialer presenta la información sobre la interfaz de marcación: * Estado actual de la llamada. * Valores del temporizador del acceso telefónico. * Razón del marcación. * Dispositivo remoto al que está conectado. show interface bri0/0 muestra las estadísticas de la interfaz BRI configurada en el router. La información específica del canal aparece cuando se introduce el número del canal al final del comando. En este caso, el comando show interface bri0/0:1 muestra lo siguiente: * El canal B está utilizando encapsulamiento de PPP. El LCP ha negociado y se encuentra abierto. * Hay dos tipos de protocolos NCP en ejecución, el IPCP y el Protocolo de control del Cisco Discovery Protocol (CDPCP). 4.2.4 ISDN - Diagnóstico de fallas en la configuración Los siguientes comandos se utilizan para depurar y diagnosticar fallas en la configuración de ISDN: * El comando debug isdn q921 muestra los mensajes de la capa de enlace de datos o Capa 2 en el canal D entre el router y el switch ISDN. Utilice este comando si el comando show isdn status no muestra que el estado de la capa 1 sea "ACTIVE" y el de la capa 2 sea "MULTIPLE_FRAME_ESTABLISHED". * El comando debug isdn q931 muestra el intercambio de mensajes de establecimiento y corte de la llamada en la Capa 3 de la conexión ISDN. * El comando debug ppp authentication muestra los mensajes del protocolo de autenticación PPP, incluyendo los intercambios de paquetes del Protocolo de autenticación de intercambio de señales (CHAP) y del Protocolo de autenticación de contraseña (PAP). * El comando debug ppp negotiation muestra la información sobre el tráfico del PPP y de sus intercambios mientras se negocian los componentes del PPP. Esto incluye los intercambios del LCP, de autenticación y del NCP. Una exitosa negociación del PPP abrirá primero el estado de LCP, luego autenticará y finalmente negociará el NCP. * El comando debug ppp error muestra los errores del protocolo y las estadísticas de los errores asociados con la conexión, negociación y operación del PPP. Utilice los comandos debug ppp para diagnosticar un problema de Capa 2 si el comando show isdn status no indica problemas en la ISDN. 4.3.1 Operación del DDR El enrutamiento telefónico por demanda (DDR) se activa cuando se dirige tráfico de características previamente definidas hacia la salida de una interfaz habilitada para DDR. Al tráfico que activa una llamada del DDR se le conoce como tráfico interesante. Una vez que el router ha transmitido el tráfico interesante la llamada se interrumpe. La clave para una eficiente operación por DDR se encuentra en la definición de tráfico interesante. Se define al tráfico interesante mediante el comando dialer-list. Las listas de marcación pueden establecer que todo el tráfico que proviene de un protocolo específico active un enlace DDR, o se puede consultar una lista de acceso para determinar cuáles tipos de tráfico pueden activar el enlace. Las listas de marcación no filtran el tráfico en una interfaz. Incluso un tráfico que no sea interesante se transmitirá si la conexión con el destino se encuentra activa. El DDR se implementa en los routers Cisco de la siguiente manera: 1. El router recibe el tráfico, realiza la búsqueda en la tabla de enrutamiento para determinar si existe una ruta hacia el destino e identifica la interfaz saliente. 2. Si la interfaz saliente está configurada para DDR, el router hace una búsqueda para determinar si el tráfico es interesante. 3. El router identifica la información de marcación necesaria para efectuar la llamada, mediante un mapa de

Page 298: Semestre1 Ccna

marcación para acceder al router del salto siguiente. 4. Entonces, el router verifica si el mapa de marcación se encuentra en uso. Si en ese momento la interfaz se encuentra conectada al destino remoto deseado, se transmite el tráfico. Si en ese momento la interfaz no se encuentra conectada al destino remoto, el router envía información para la configuración inicial de la llamada a través de la BRI mediante el canal D. 5. Una vez habilitado el enlace, el router transmite tanto el tráfico interesante como el no interesante. El tráfico no interesante puede incluir datos y actualizaciones de enrutamiento. 6. El temporizador de espera se inicia y ejecuta en tanto no se observe tráfico interesante durante el período de expiración del tiempo de espera y desconecta la llamada de acuerdo con la configuración del temporizador de espera. La configuración del temporizador de espera especifica el lapso durante el cual el router debe permanecer conectado aunque no haya tráfico interesante. Una vez establecida la conexión por DDR, se permitirá la transmisión de cualquier tipo de tráfico hacia el destino. Sin embargo, sólo el tráfico interesante reinicia el temporizador de espera. 4.3.2 Configuración del DDR obsoleto El DDR obsoleto o "heredado" es un término que se utiliza para definir una configuración muy básica del DDR, en la cual se aplica un único conjunto de parámetros de marcación a una interfaz. Si se necesitan múltiples configuraciones de marcación en una interfaz, se deben utilizar perfiles de marcación. Para configurar el DDR heredado proceda con los siguientes pasos: * Defina las rutas estáticas * Especifique el tráfico interesante * Configure la información de marcación 4.3.3 Definición de rutas estáticas para el DDR Para transmitir el tráfico, los routers necesitan conocer cuál ruta utilizar hacia un destino dado. Al utilizar un protocolo de enrutamiento dinámico, la interfaz DDR activará una conexión telefónica al destino para cada mensaje de salutación o actualización de enrutamiento si estos paquetes se definen como tráfico interesante. Para evitar la activación frecuente o constante de un enlace DDR, configure las rutas necesarias de forma estática. Para configurar una ruta estática para tráfico IP utilice el siguiente comando: Router(config)#ip route net-prefix mask {address | interface} [distance] [permanent] El router Central tiene una ruta estática hacia la red 10.40.0.0 en el router Home. El router Home tiene dos rutas estáticas definidas para las dos subredes de la LAN Central. Si la red conectada al router Home es una red de comunicación única, entonces todo el tráfico que no es local se transmite al Central. En este caso, una ruta por defecto es la mejor elección para el router Home. Home(config)#ip route 0.0.0.0 0.0.0.0 10.1.0.2 Al configurar las rutas estáticas, tenga en cuenta lo siguiente: * Por defecto, una ruta estática tendrá prioridad sobre una ruta dinámica debido a su menor distancia administrativa. Sin configuraciones adicionales, una ruta dinámica hacia una red no será tomada en cuenta ante la presencia de una ruta estática hacia la misma red en la tabla de enrutamiento. * Para reducir el número de entradas de rutas estáticas, defina una ruta estática por defecto o acortada. 4.3.4 Cómo especificar el tráfico interesante para el DDR El tráfico interesante genera las llamadas por DDR. Es posible definir este tráfico según cualquiera de estas opciones: * Tráfico IP de un tipo de protocolo particular. * Paquetes con una dirección de origen o destino particular. * Otros criterios según lo establezca el administrador de la red. Utilice el comando dialer-list para identificar el tráfico interesante. La sintaxis del comando es la siguiente: Router(config)#dialer-list dialer-group-num protocol protocol-name {permit | deny | list access-list-number} El dialer-group-num es un número entero entre 1 y 10 que identifica la lista de marcación del router. El comando dialer-list 1 protocol ip permit permite que todo tipo de tráfico IP active una llamada. En lugar de permitir cualquier tráfico IP, la lista de marcación puede designar una lista de acceso a fin de especificar exactamente cuáles tipos de tráfico pueden activar un enlace. La referencia a la lista de acceso 101 de la lista de marcación 2

Page 299: Semestre1 Ccna

evita que el tráfico de Telnet y de FTP activen el enlace DDR. Todos los demás paquetes de IP se consideran interesantes y, por lo tanto, iniciarán el enlace por DDR. 4.3.5 Configuración de la información de marcación en el DDR Son varios los pasos necesarios para la configuración de la interfaz DDR. El PPP se configura en la interfaz de marcación mediante los mismos comandos que habilitan el PPP en una interfaz serial. El HDLC es el encapsulamiento por defecto para una interfaz ISDN en un router Cisco, pero la mayoría de las redes emplean el PPP para las conexiones conmutadas por circuito. Debido a su solidez, interoperabilidad y otras características tales como la autenticación, el PPP es el protocolo de enlace de datos en uso en los canales B de la mayoría de los routers. Para configurar el PPP en la interfaz DDR, utilice los siguientes comandos: Home(config)#username Central password cisco Home(config)#interface bri0/0 Home(config-if)#encapsulation ppp Home(config-if)#ppp authentication chap Home(config-if)#ip address 10.1.0.1 255.255.255.0 Una lista de marcación que defina el tráfico interesante para esta interfaz DDR debe ser asociada a la interfaz DDR. Esto se realiza mediante el comando dialer-groupgroup-number: Home(config-if)#dialer-group 1 En el comando, group-number se especifica el número del grupo de marcación al que pertenece la interfaz. El número del grupo puede ser un número entero de 1 a 10. Este número debe coincidir con el dialer-listgroup-number. Cada interfaz puede tener un solo grupo de marcación. Sin embargo, es posible asignar la misma lista de marcación a múltiples interfaces con el comando dialer-group. La información de marcación correcta para la interfaz remota DDR debe ser especificada. Esto se realiza mediante el comando dialer map. El comando dialer map vincula direcciones remotas a números de teléfono. Este comando es necesario para marcar a múltiples sitios. Router(config-if)#dialer map protocol next-hop-address [name hostname] [speed 56 | 64] [broadcast] dial-string Si sólo se marca a un único sitio, utilice un comando incondicional dialer string que siempre marca el mismo número de teléfono sin considerar el destino del tráfico. Este paso sólo se aplica al DDR heredado. Aunque siempre es necesaria la información, los pasos para configurar la información sobre el destino son distintos cuando se utilizan perfiles de marcación en lugar de DDR heredado. Es posible utilizar el comando dialer idle-timeoutseconds para especificar el número de segundos de espera sin tráfico que transcurren antes de desconectar la llamada. seconds" representa el número de segundos que transcurren hasta que se desconecta la llamada una vez enviado el último paquete interesante. Por defecto es 120. 4.3.6 Perfiles de marcación El DDR heredado es limitado porque la configuración se aplica directamente a una interfaz física. Como la dirección IP se aplica directamente a la interfaz, sólo las interfaces DDR configuradas en esa subred específica pueden establecer una conexión DDR con dicha interfaz. Esto significa que hay una correspondencia uno a uno entre las dos interfaces DDR en cada extremo del enlace. Los perfiles de marcación aíslan la configuración de la interfaz que recibe o efectúa las llamadas, y sólo vinculan la configuración a la interfaz en cada llamada en particular. Los perfiles de marcación permiten que las interfaces físicas adquieran distintas características de forma dinámica, basándose en los requisitos de las llamadas entrantes y salientes. Los perfiles de marcación hacen el resto: * Definen el encapsulamiento y las listas de control de acceso. * Determinan el mínimo o el máximo de llamadas. * Activan o desactivan las funciones. Los perfiles de marcación son útiles en el diseño y distribución de redes de internetwork conmutadas por circuitos, ya que las hacen más escalables y permiten mayor complejidad al implementar un modelo DDR más escalable en los routers Cisco y los servidores de acceso. Los perfiles de marcación separan la porción lógica del DDR, como por ejemplo la capa de red, el encapsulamiento y los parámetros de marcación, de la interfaz física que envía o recibe las llamadas. Mediante los perfiles de marcación, es posible realizar las siguientes tareas: * Configurar los canales B en una interfaz ISDN con diferentes subredes IP.

Page 300: Semestre1 Ccna

* Utilizar diferentes encapsulamientos en los canales B de la interfaz ISDN. * Definir diferentes parámetros DDR para los canales B de la interfaz ISDN. * Eliminar las ineficiencias en el uso de los canales B ISDN al permitir que las interfaces ISDN BRI pertenezcan a múltiples conjuntos de marcación. Un perfil de marcación consta de los siguientes elementos: * Interfaz de marcación: una entidad lógica que utiliza un perfil de marcación por destinos. * Conjunto de marcación: cada interfaz de marcación hace referencia al conjunto de marcación, el cual es un grupo de una o más interfaces físicas asociadas a un perfil de marcación. * Interfaces físicas: las interfaces de un conjunto de marcación se configuran para los parámetros de encapsulamiento y para identificar los conjuntos de marcación a los cuales pertenece. La autenticación y el tipo de encapsulamiento del PPP, así como el PPP multienlace, se configuran en la interfaz física. Como sucede con el DDR heredado, los perfiles de marcación se activan cuando se dirige tráfico interesante a la interfaz DDR para ser enviado. Primero, se enruta un paquete interesante hacia una dirección IP DDR remota. El router entonces verifica las interfaces de marcación configuradas, para hallar una que comparta la misma subred que la dirección IP DDR remota. Si existe una, el router busca una interfaz física DDR inactiva en el conjunto de marcación. La configuración del perfil de marcación se aplica entonces a la interfaz y el router intenta crear una conexión DDR. Una vez finalizada la conexión, la interfaz vuelve al conjunto de marcación a la espera de la siguiente llamada. 4.3.7 Configuración de los perfiles de marcación En un router se pueden configurar múltiples interfaces de marcación. Cada interfaz de marcación es la configuración completa para un destino. El comando interface dialer crea una interfaz de marcación y activa el modo de configuración de interfaz. Para configurar la interfaz de marcación ejecute las siguientes tareas: 1. Configure una o más interfaces de marcación mediante todos los comandos básicos del DDR: * Dirección IP * Tipo de encapsulamiento y autenticación. * Temporizador de espera. * Grupo de marcación para tráfico interesante. 2. Configure dialer string y dialer remote-name para especificar el nombre del router remoto y su número de teléfono. El dialer pool asocia la interfaz lógica a un conjunto de interfaces físicas. 3. Configure las interfaces físicas y asígnelas a un conjunto de marcación mediante el comando dialer pool-member. Es posible asignar una interfaz a múltiples conjuntos de marcación mediante los diversos comandos dialer pool-member. Si existe más de una interfaz física en el conjunto, utilice la opción priority del comando dialer pool-member para establecer la prioridad de la interfaz dentro del conjunto de marcación. Si es necesario efectuar múltiples llamadas y sólo una interfaz se encuentra disponible, entonces el conjunto de marcación de mayor prioridad es el que hace la llamada. Una combinación de cualquiera de las siguientes interfaces puede utilizarse con conjuntos de marcación: * Serial síncrona * Serial asíncrona * BRI * PRI 4.3.8 Verificación de la configuración del DDR El comando show dialer interface [BRI] muestra la información en el mismo formato que las estadísticas del DDR heredado de las llamadas entrantes y salientes.

El mensaje "Dialer state is data link layer up" (El estado de marcación es "Capa de enlace de datos activa" sugiere que la llamada se activó y que la interfaz BRI 0/0:1 está vinculada al perfil de marcación 1. El comando show isdn active muestra información sobre las llamadas ISDN activas. En este resultado, la llamada ISDN es saliente hacia un router remoto llamado Seattle. El comando show isdn status muestra la información acerca de las tres capas de la interfaz BRI. En este resultado, la Capa 1 se encuentra activa, la Capa 2 se estableció con SPID1 y SPID2 validados y hay una conexión activa en la Capa 3. 4.3.9 Diagnóstico de fallas en la configuración del DDR

Page 301: Semestre1 Ccna

Hay dos tipos principales de problemas con el DDR. Que el router no marque cuando tenga que hacerlo o que marque constantemente cuando no deba. Se utiliza varios comandos debug para ayudar en el diagnóstico de problemas en una configuración DDR. En las siguientes líneas, los números hexadecimales más significativos séptimo y octavo indican el tipo de mensaje. * 0x05 indica un mensaje de establecimiento o iniciación de llamada. * 0x02 indica un mensaje de aceptación de la llamada. * 0x07 indica un mensaje de llamada establecida. * 0x0F indica un mensaje de acuse de recibo (ack) del establecimiento de la llamada. El comando debug isdn q931 es útil para observar los intercambios durante el establecimiento inicial de la llamada, tanto para las llamadas entrantes como salientes. – El comando debug dialer [events | packets] se utiliza para diagnosticar fallas del DHCP. El comando debug dialer events envía un mensaje a la consola que indica cuándo se ha activado un enlace DDR y cuál tipo de tráfico produjo la conexión. Si un router no está configurado de forma correcta para DDR, entonces el resultado del comando, en general, indicará el origen del problema. Si no se muestra el resultado de la depuración, entonces el router no tiene conocimiento de tráfico interesante alguno. Una interfaz de marcación o una lista de acceso mal configuradas pueden ser la causa. No todos los problemas con el DDR causan que la interfaz no marque. Los protocolos de enrutamiento pueden hacer que una interfaz marque de forma continua, aun cuando no haya datos de usuario por enviar. Se dice que una interfaz que continuamente se activa y desactiva se está "sacudiendo". El comando debug dialer packet envía un mensaje a la consola cada vez que se envía un paquete hacia la interfaz DDR. Utilice este comando de depuración para saber exactamente cuál es el tráfico responsable de sacudir la interfaz DDR. Si un router no se conecta cuando tiene que hacerlo, entonces es posible que la causa sea un problema con el ISDN, y no un problema con el DDR. El router remoto puede estar mal configurado o podría haber un problema en la red del proveedor de ISDN. Utilice el comando isdn call interface para forzar al router local a intentar establecer una llamada al router remoto. Si los routers no se pueden comunicar mediante este comando, entonces la falta de conectividad es un problema de la ISDN, no del DDR. Sin embargo, si los routers se pueden comunicar, entonces tanto la red del proveedor como la configuración de los routers ISDN están funcionando correctamente. En este caso, el problema seguramente es un error en la configuración del DDR en cualquiera de los routers. En algunos casos, resulta de utilidad reiniciar la conexión entre el router y el switch local ISDN. El comando clear interface bri libera las conexiones establecidas en la interfaz y reinicia la interfaz con el switch ISDN. Este comando fuerza al router a renegociar sus SPID con el switch ISDN y a veces resulta necesaria su ejecución al efectuar cambios mediante los comandos isdn spid1 y isdn spid2 en la interfaz. Resumen La tecnología ISDN se refiere a un conjunto de protocolos de comunicación propuestos por las compañias telefónicas para permitir que las redes telefónicas transporten voz, video y datos de manera integrada. ISDN permite la comunicación a través de canales de comunicación digital de alta calidad y alta velocidad. El DDR se usa para eliminar el costo de una línea WAN dedicada, en aquellas organizaciones y empresas que no necesitan una conexión permanente. También puede utilizarse como conexión de respaldo en aquellas organizaciones que utilizan una línea dedicada para aplicaciones críticas. Módulo 5: Frame Relay Descripción general La tecnología Frame Relay se creó originalmente como una extensión de la tecnología ISDN. Fue diseñada para permitir que la tecnología de conmutación por circuitos viaje por redes conmutadas por paquetes. Frame Relay se ha convertido en un esquema independiente y económico de crear WANs. Los switches Frame Relay crean circuitos virtuales para la interconexión de LANs remotas a WANs. La red Frame Relay se establece entre un dispositivo de frontera de una LAN, por lo general un router, y el switch del proveedor del servicio. La tecnología utilizada por el proveedor para transportar los datos entre los switches no es importante en el caso de Frame Relay. La complejidad de la tecnología requiere una profunda comprensión de los términos utilizados para describir el funcionamiento de la tecnología Frame Relay. Sin una completa comprensión de la tecnología Frame Relay, es difícil diagnosticar las fallas de desempeño. La tecnología Frame Relay se convirtió en uno de los protocolos WAN más utilizados. Una de las razones de su

Page 302: Semestre1 Ccna

popularidad es que resulta atractiva económicamente cuando se la compara con líneas arrendadas. Otra razón por la que es tan popular es que la configuración del equipo del usuario en las redes Frame Relay es muy sencilla. Este módulo explica cómo configurar Frame Relay en un router Cisco. Las conexiones Frame Relay se crean al configurar routers u otros dispositivos para comunicarse con un switch Frame Relay. El proveedor del servicio, en general, configura el switch Frame Relay. Esto ayuda a mantener las tareas de configuración del usuario final al mínimo. Los estudiantes que completen este módulo deberán ser capaces de: * Explicar el alcance y propósito de Frame Relay. * Analizar la tecnología Frame Relay. * Comparar las topologías punto a punto y punto a multipunto. * Examinar la topología de una red Frame Relay. * Configurar un Circuito virtual permanente (PVC) de Frame Relay. * Crear un mapa de asignaciones Frame Relay en una red remota. * Explicar los problemas de una red multiacceso sin broadcast. * Analizar la necesidad de subinterfaces y cómo configurarlas. * Verificar y diagnosticar fallas en una conexión Frame Relay. 5.1 Conceptos de Frame Relay 5.1.1 Introducción a la tecnología Frame Relay La tecnología Frame Relay es un estándar del Sector de Normalización de Telecomunicaciones de la Unión Internacional de Telecomunicaciones (UIT-T) y del Instituto Nacional Americano de Normalización (ANSI). Frame Relay es un servicio WAN de conmutación de paquetes, orientado a conexión. Opera en la capa de enlace de datos del modelo de referencia OSI. Frame Relay utiliza un subconjunto del protocolo de Control de enlace de datos de alto nivel (HDLC) llamado Procedimiento de acceso a enlaces para Frame Relay (LAPF) Las tramas transportan datos entre los dispositivos de usuarios, llamados equipo terminal de datos (DTE), y el equipo de comunicaciones de datos (DCE) en la frontera de la WAN. Originalmente, Frame Relay fue diseñada para permitir que los equipos ISDN tuvieran acceso a servicios conmutados por paquetes en un canal B. Sin embargo, Frame Relay es ahora una tecnología independiente. Una red Frame Relay puede ser privada, pero es más común que se use los servicios de una compañía de servicios externa. Una red Frame Relay consiste, en general, de muchos switches Frame Relay esparcidos geográficamente, los cuales se interconectan mediante líneas troncales. Con frecuencia, se usa Frame Relay para la interconexión de LANs. En estos casos, un router en cada una de las LANs será el DTE. Una conexión serial, como una línea arrendada T1/E1, conecta el router al switch Frame Relay de la compañía de servicio en su punto de presencia más cercano al router. El switch Frame Relay es un dispositivo DCE. Las tramas se envian y entregan desde un DTE a otro DTE utilizando la red de Frame Relay creada por los DCE de la compañía de servicios. Otros equipos de computación que no se encuentren en la LAN pueden también enviar datos a través de la red Frame Relay. Dichos equipos utilizan como DTE a un dispositivo de acceso a Frame Relay (FRAD). 5.1.2 Frame Relay - Terminología La conexión a través de la red Frame Relay entre dos DTE se denomina circuito virtual (VC). Los circuitos virtuales pueden establecerse de forma dinámica mediante el envío de mensajes de señalización a la red. En este caso se denominan circuitos virtuales conmutados (SVC). Sin embargo, los SVC no son muy comunes. Por lo general se usan circuitos virtuales permanentes (PVC), previamente configurados por la compañía de servicios. Un VC se crea al almacenar la información de asignación de puerto de entrada a puerto de salida en la memoria de cada switch y así se enlaza un switch con otro hasta que se identifica una ruta continua de un extremo del circuito al otro. Frame Relay no tiene mecanismos de recuperación de errores, porque fue diseñada para operar en líneas digitales de alta calidad. Si un nodo detecta un error en la trama, se descarta sin notificación. El FRAD o router conectado a la red Frame Relay puede disponer de múltiples circuitos virtuales que lo conectan a diversos destinos. Esto hace que Frame Relay sea una alternativa muy económica a las marañas de líneas de acceso. Con esta configuración, todos los destinos comparten una sola línea de acceso y una sola interfaz. Se generan ahorros adicionales ya que la capacidad de la línea de acceso se establece según las necesidades de ancho de banda promedio de los circuitos virtuales, y no según las necesidades máximas de ancho de banda. Los diversos circuitos virtuales en la línea de acceso única se diferencian mediante un identificador de canal de

Page 303: Semestre1 Ccna

enlace de datos (DLCI) para cada circuito. El DLCI se almacena en el campo de dirección de cada trama transmitida. El DLCI en general tiene sólo importancia local y puede ser diferente en cada extremo de un VC. 5.1.3 Frame Relay - Soporte de las capas de la pila OSI La tecnología Frame Relay opera de acuerdo al siguiente esquema: * Toma los paquetes de datos provenientes de un protocolo de capa de red como IP o IPX. * Los encapsula como la porción de datos de una trama Frame Relay * Los pasa a la capa física para que su envío por el cable La Secuencia de verificación de trama (FCS) se utiliza para determinar si durante la transmisión se produjo algún error en el campo de dirección de la Capa 2. La FCS se calcula antes de la transmisión y el resultado se inserta en el campo de la FCS. En el otro extremo, un segundo valor de FCS se calcula y compara con la FCS de la trama. Si los resultados son iguales, se procesa la trama. Si existe una diferencia, la trama se descarta. No se envía una notificación a la fuente cuando se descarta una trama. El control de errores tiene lugar en las capas superiores del modelo OSI. 5.1.4 Frame Relay - Control de flujo y ancho de banda La conexión serial o el enlace de acceso a la red Frame Relay se hace, generalmente, mediante una línea arrendada. La velocidad de la línea es la velocidad de acceso o velocidad de puerto. Las velocidades de puerto por lo general son de 64 Kbps y 4 Mbps. Algunos proveedores ofrecen velocidades de hasta 45 Mbps. En general, hay varios PVC operando en el enlace de acceso y cada VC tiene disponibilidad de ancho de banda dedicada. Esto se denomina velocidad de información suscrita (CIR). La CIR es la velocidad a la que el proveedor del servicio acuerda aceptar bits en el VC. Las CIR individuales son por lo general menores a la velocidad del puerto. Sin embargo, la suma de las CIR, en general, será mayor que la velocidad del puerto. Algunas veces, este factor es de 2 o 3. La multiplexión estadística aprovecha el hecho de que las comunicaciones en computación son usualmente por ráfagas, lo que hace improbable que los diversos canales estén a su máxima velocidad de transmisión de datos al mismo tiempo. Mientras se transmite una trama, todos sus bits se envían a la velocidad del puerto. Por esta razón, debe haber un intervalo entre tramas en el VC si la velocidad promedio va a ser la de CIR. El switch acepta las tramas del DTE a velocidades que exceden al CIR. Esto efectivamente brinda a cada canal un ancho de banda por demanda, cuyo máximo es la velocidad del puerto. Algunos proveedores de servicio imponen un máximo a cada VC, el cual es inferior a la velocidad del puerto. La diferencia entre la CIR y la velocidad máxima, ya sea que el máximo corresponda a la velocidad de puerto o sea menos, se llama Velocidad de información excesiva (EIR). El intervalo de tiempo con el cual se calculan las velocidades se llama tiempo suscrito (Tc). El número de bits suscritos durante un período Tc es la ráfaga suscrita (Bc). El número adicional de bits que exceda la ráfaga suscrita, hasta la velocidad máxima del enlace de acceso, es la ráfaga excesiva (Be).

Aunque el switch acepta el tráfico de tramas que excede la CIR, el switch activa (es decir, coloca en "1" el bit elegible de descarte (DE) en el campo de la dirección a todas las tramas que se excedan. El switch mantiene un contador de bits para cada VC. Cualquier trama entrante que lleve al contador mayor a la Bc se marca como DE. Una trama entrante se descarta si lleva el contador mayor a la suma de Bc + Be. Después de cada Tc segundos se reinicia el contador. El contador no puede ser negativo, de modo que no es posible acumular el tiempo de inactividad. Las tramas que entran a un switch se ponen en cola en un buffer de memoria antes de su envío. Como en cualquier sistema de colas, es posible que haya una acumulación excesiva de tramas en el switch. Eso causa retardos. Los retardos acarrean retransmisiones innecesarias que tienen lugar cuando los protocolos de las capas superiores no reciben acuses de recibo dentro de un tiempo determinado. En casos severos esto puede provocar un descenso importante en la velocidad de la red. Para evitar este problema, los switches Frame Relay incorporan una política de descarte de tramas para acortar las colas. Las tramas con el bit DE activo son las primeras en eliminarse. Cuando un switch detecta el crecimiento de su cola, trata de reducir el flujo de tramas hacia él. Esto lo hace notificando a los DTE de la existencia del problema, al activar los bits de la notificación explícita de congestión (ECN) en el campo de dirección de las tramas. El bit de Notificación explícita de congestión hacia adelante (FECN) se activa en cada trama que el switch recibe en el enlace congestionado. El bit de Notificación explícita de congestión hacia atrás (BECN) se configura en

Page 304: Semestre1 Ccna

cada trama que el switch coloca en el enlace congestionado. Se espera que los DTE que reciben tramas con el grupo de bits ECN activos intenten reducir el flujo de tramas hasta que la congestión desaparezca. Si la congestión tiene lugar en un troncal interno, los DTE pueden recibir una notificación aun cuando ellos no sean la causa. Los bits DE, FECN y BECN forman pare del campo de dirección de las tramas LAPF. 5.1.5 Frame Relay - Topología y mapas de direcciones Cuando se requiere interconectar más de dos lugares, es necesario tener en cuenta la topología de las conexiones entre ellos. Es improbable que Frame Relay sea económica cuando sólo se necesita interconectar dos lugares mediante una conexión punto a punto. Frame Relay resulta más atractiva económicamente cuando se requiera interconectar múltiples lugares. Con frecuencia, las WAN se interconectan mediante una topología en estrella. El nodo central aloja los servicios primarios y se conecta a todos los lugares remotos que necesitan tener acceso a los servicios. En una topología en estrella, la ubicación de el nodo central se elige de modo que resulte en el menor costo de líneas arrendadas. Al implementar una topología en estrella con Frame Relay, cada ubicación remota tiene un enlace de acceso a la nube de Frame Relay mediante un único VC. El nodo central tiene un enlace de acceso con múltiples VC, uno por cada ubicación remota. Debido a que las tarifas de Frame Relay no se establecen en función de la distancia, el nodo central no necesita estar situado en el centro geográfico de la red. Se elige una topología de malla completa cuando los servicios a los que se debe tener acceso están geográficamente dispersos y se necesita de un acceso altamente confiable a los mismos. Con una malla completa, todos los sitios están interconectados entre ellos. A diferencia de lo que ocurre con las interconexiones mediante líneas arrendadas, con Frame Relay se puede implementar una malla completa sin hardware adicional. Es necesario configurar VC adicionales en los enlaces existentes para pasar de una topología en estrella a una de malla completa. En general, los múltiples VC en un enlace de acceso harán mejor uso del Frame Relay que un VC único. Esto se debe a que ellos aprovechan la multiplexión estadística integrada. En las redes de gran tamaño la topología de malla completa rara vez resulta atractiva económicamente. Esto se debe a que el número de enlaces necesario para una topología de malla completa crece hasta alcanzar casi el cuadrado del número de lugares. Aunque en Frame Relay los equipos no son un problema, hay un límite de 1000 VC por enlace. En la práctica el límite es inferior y las redes de mayor tamaño usan por lo general una topología de malla parcial. Con la malla parcial, hay más interconexiones que las de una disposición en estrella, pero no tantas como en una malla completa. El esquema a usar depende en mucho de las necesidades de flujo de datos. Puede haber problemas de alcance, sin importar la topología de Frame Relay, cuando se usa una sola interfaz para interconectar varios lugares. Esto se debe a la naturaleza de acceso múltiple sin broadcast (NBMA) de la tecnología Frame Relay. El horizonte dividido es una técnica que se utiliza en los protocolos de enrutamiento para prevenir los loops de enrutamiento. El horizonte dividido no permite el envío de actualizaciones de enrutamiento por la misma interfaz que originó la información de la ruta. Esto puede causar problemas en las actualizaciones de enrutamiento en un entorno de Frame Relay donde múltiples PVC comparten una sola interfaz física. No importa cuál sea la topología subyacente de la red física, todos los FRAD o routers necesitan una vinculación entre las direcciones Frame Relay de la capa de enlace de datos y las dirección de la capa de red, por ejemplo: las direcciones IP. Principalmente, el router necesita saber cuáles redes se pueden alcanzar más allá de una interfaz en particular. Existe el mismo problema si una línea arrendada ordinaria se conecta a una interfaz. La diferencia es que el extremo remoto de una línea arrendada se conecta directamente a un único router. Las tramas del DTE viajan a través de la línea arrendada hasta el switch de la red, donde pueden esparcirse a muchos routers, hasta 1000. El DLCI de cada VC debe estar vinculado a la dirección de red de su router remoto. La información se puede configurar de forma manual mediante los comandos de asignaciones. El DLCI puede configurarse de manera automática mediante el protocolo ARP inverso. Este proceso se describe en más detalle en otra sección. 5.1.6 Frame Relay - LMI La tecnología Frame Relay fue diseñada para ofrecer transferencias de datos conmutados por paquetes con un mínimo retardo de extremo a extremo. Se omitió todo lo que pudiera contribuir a los retardos. Cuando los fabricantes implementaron la Frame Relay como una tecnología separada y no como un componente de ISDN, decidieron que era necesario disponer de DTE para obtener información sobre el estado de la red de forma dinámica. Esta característica no estaba incluida en el diseño original. Las extensiones creadas para habilitar la

Page 305: Semestre1 Ccna

transferencia de la información de estado se llaman Interfaz de administración local (LMI). El campo de 10 bits del DLCI permite identificadores de VC que van desde 0 hasta 1023. Las extensiones LMI se reservan algunos de estos identificadores. Esto reduce el número de VC permitidos. Los mensajes LMI se intercambian entre los DTE y los DCE utilizando los DLCI reservados. Las extensiones LMI incluyen las siguientes: * El mecanismo de actividad, el cual comprueba que un VC esté en funcionamiento * El mecanismo multicast * El control de flujo * La capacidad de dar significado global a los DLCIs. * El mecanismo de estado de los VC Existen varios tipos de LMI, todos incompatibles entre ellos. El tipo de LMI configurado en el router debe coincidir con el utilizado por el proveedor de servicios. Los routers Cisco soportan tres tipos de LMI: * Cisco: las extensiones LMI originales * ANSI: las correspondientes al estándar ANSI T1.617 Anexo D * q933a: las correspondientes al estándar UIT Q933 Anexo A Los mensajes LMI se envían a través de una variante de las tramas LAPF. Esta variante incluye cuatro campos adicionales en el encabezado, a fin de hacerlos compatibles con las tramas LAPD que se utilizan en la tecnología ISDN. El campo de dirección lleva uno de los DLCI reservados. Seguido a esto se encuentran los campos de control, de discriminación de protocolos y el de referencia de llamadas, los cuales no cambian. El cuarto campo indica el tipo de mensaje LMI. Hay uno o más elementos de información (IE) que siguen a la trama. Cada IE consta de lo siguiente: * Un identificador del IE, de un byte * Un campo que indica la longitud del IE * Uno o más bytes que contienen los datos propiamente dichos, que por lo general incluyen el estado de un DLCI Los mensajes de estado ayudan a verificar la integridad de los enlaces físico y lógico. Esta información resulta fundamental en un entorno de enrutamiento, ya que los protocolos de enrutamiento toman decisiones según la integridad del enlace. 5.1.7 Etapas del ARP inverso y operación de los LMI Los mensajes de estado LMI combinados con los mensajes del ARP inverso permiten que un router vincule direcciones de capa de red con direcciones de la capa de enlace de datos. Cuando un router que está conectado a una red Frame Relay arranca, envía un mensaje de consulta de estado LMI a la red. La red contesta con un mensaje de estado LMI que contiene detalles de cada VC configurado en el enlace de acceso. Periódicamente el router repite la consulta de estado, pero las respuestas siguientes sólo incluyen los cambios en el estado. Después de un determinado número de respuestas abreviadas, la red enviará un mensaje de estado completo. Si el router necesita asignar los VC a direcciones de capa de red, enviará un mensaje ARP inverso desde cada VC. El mensaje ARP inverso incluye la dirección de capa de red del router, de modo que el DTE o el router remoto, pueda realizar la vinculación. La respuesta ARP inversa permite que el router haga los registros necesarios en su tabla de asignaciones de direcciones a DLCIs. Si el enlace soporta varios protocolos de capa de red, se enviarán mensajes ARP inversos para cada uno de ellos. 5.2.1 Frame Relay - Configuración básica Esta sección explica cómo configurar un PVC de Frame Relay básico. La Frame Relay se configura en una interfaz serial. El tipo de encapsulamiento por defecto es una versión propietaria de Cisco del HDLC. Para cambiar el encapsulamiento de Frame Relay use el comando encapsulation frame-relay [cisco | ietf]. cisco Usa el encapsulamiento Frame Relay propietario de Cisco. Use esta opción para conectarse a otro router Cisco. Muchos dispositivos de otras marcas también soportan este tipo de encapsulamiento. Esta es la opción por defecto. ietf

Page 306: Semestre1 Ccna

Establece el método de encapsulamiento para cumplir con el estándar de la Fuerza de Tareas de Ingeniería de Internet (IETF) RFC 1490. Elija ésta si se conecta a un router que no es Cisco. El encapsulamiento Frame Relay propietario de Cisco usa encabezados de 4 bytes, con dos bytes para indicar el identificador de conexión de enlace de datos (DLCI) y dos bytes para identificar el tipo de paquete. Configure una dirección IP en la interfaz mediante el comando ip address. Configure el ancho de banda de la interfaz serial mediante el comando bandwidth. El ancho de banda se indica en Kilobits por segundo (Kbps). Este comando se usa para notificar al protocolo de enrutamiento que el ancho de banda del enlace se configuró estáticamente. El Protocolo de enrutamiento de gateway interior (IGRP), el Protocolo de enrutamiento de gateway interior mejorado (EIGRP) y el protocolo Primero la ruta libre más corta (OSPF) utilizan el valor del ancho de banda para determinar la métrica de los enlaces. El comando ip address se usa para establecer una dirección IP en una interfaz dada. Por otra parte, para establecer el ancho de banda de la misma interfaz, se usa el comando bandwidth. El comando frame-relay lmi-type [ansi | cisco | q933a] establece y configura la conexión LMI. Este comando es necesario sólo si se usa el Cisco IOS Release 11.1 o una versión anterior. Con la versión 11.2 del software Cisco IOS o posterior, el tipo LMI se detecta automáticamente y no se requiere configuración. El tipo de LMI por defecto es Cisco. El tipo LMI se configura interfaz por interfaz y se muestra en la resultado del comando show interfaces. Estos pasos de configuración son los mismos, independientemente de los protocolos de capa de red que operan a través de la red. 5.2.2 Configuración de un mapa estático de Frame Relay Se debe asignar de forma estática el DLCI local a la dirección de capa de red de un router remoto cuando el router remoto no soporte el protocolo ARP inverso. Esto también es válido cuando se deba controlar el tráfico de broadcast y de multicast a través de un PVC. Este método de asignación de DLCI se denominan en Frame Relay asignaciones estáticas. Utilice el comando frame-relay map protocol protocol-address dlci [broadcast] para asignar de forma estática la dirección de capa de red remota al DLCI local. 5.2.3 Problemas de alcance de las actualizaciones de enrutamiento en NBMA Por defecto, una red Frame Relay ofrece conectividad de acceso múltiple sin broadcast (NBMA) entre dos sitios remotos. Un entorno NBMA se considera igual a otros entornos de medios de acceso múltiple, por ejemplo Ethernet, en el que todos los routers se encuentran en la misma subred. Sin embargo, para reducir los costos, las nubes NBMA generalmente se construyen siguiendo una topología en estrella. En la topología en estrella, la topología física no provee las funciones de acceso múltiple que sí brinda Ethernet. La topología física consta de múltiples PVCs. La topología NBMA de Frame Relay puede causar dos problemas: * Problemas de alcance relativos a las actualizaciones de enrutamiento. * La necesidad de replicar los paquetes broadcast en cada uno de los PVCs cuando una interfaz física contiene más de un PVC La actualización mediante horizonte dividido reduce los loops de enrutamiento al no permitir que una actualización de enrutamiento recibida en una interfaz sea reenviada por la misma interfaz. Si el router B, un router en una punta de la estrella, envía una actualización de enrutamiento broadcast al router A, el router de el nodo central, y el router A tiene varios PVCs en una sola interfaz física, entonces el router A no puede enviar la actualización de enrutamiento a través de la misma interfaz física a otro router en una punta de la estrella. Si el horizonte dividido está inhabilitado, es posible enviar la actualización de enrutamiento a través de la misma interfaz física por la que se recibió. El horizonte dividido no presenta problemas cuando hay un único PVC en la interfaz física. Esta sería una conexión Frame Relay punto a punto. Los routers que dan soporte a conexiones múltiples a través de una interfaz física tienen varios PVCs que terminan en un único router. Este router debe replicar los paquetes broadcast, por ejemplo: los broadcasts de actualización de enrutamiento, en todos los PVCs y enviarlos a los routers remotos. Los paquetes broadcast replicados pueden consumir ancho de banda y aumentar significativamente la latencia en el tráfico de usuario. Puede parecer lógico apagar el horizonte dividido para resolver los problemas de alcance que origina. Sin embargo, no todos los protocolos de la capa de red permiten inhabilitar el horizonte dividido y el desconectarlo aumenta la probabilidad de que ocurran loops de enrutamiento. Una forma de resolver los problemas del horizonte dividido es utilizar una topología de malla completa. Sin embargo, esto aumentará el costo porque se requieren más PVCs. La solución de mayor aceptación es el uso de subinterfaces.

Page 307: Semestre1 Ccna

5.2.4 Subinterfaces en Frame Relay Para permitir el envío de las actualizaciones broadcast de enrutamiento en una topología Frame Relay en estrella, configure el router de la central con interfaces asignadas lógicamente. Estas interfaces reciben el nombre de subinterfaces. Las subinterfaces son subdivisiones lógicas de una interfaz física. En entornos de horizonte dividido, es posible reenviar las actualizaciones de enrutamiento recibidas en una subinterfaz a través de otra subinterfaz. En una configuración de subinterfaces, cada circuito virtual puede configurarse como una conexión punto a punto. Esto permite que cada subinterfaz actúe de modo similar a una línea arrendada. Al utilizar una interfaz Frame Relay punto a punto, cada pareja de routers punto a punto se encuentra en su propia subred. Las subinterfaces Frame Relay pueden configurarse en modo punto a punto y en modo multipunto: * Punto a punto: se utiliza una sola subinterfaz punto a punto para establecer una conexión PVC a otra interfaz física o subinterfaz de un router remoto. En este caso, cada pareja de routers punto a punto está en su propia subred y cada subinterfaz punto a punto tiene un solo DLCI. En un entorno punto a punto, cada subinterfaz actúa como una interfaz punto a punto. Entonces, el tráfico de actualización de enrutamiento no está sujeto a la regla del horizonte dividido. * Multipunto: se utiliza una sola subinterfaz multipunto para establecer múltiples conexiones PVC a múltiples interfaces físicas o subinterfaces en routers remotos. Todas las interfaces involucradas se encuentran en la misma subred. La subinterfaz actúa como una interfaz Frame Relay NBMA de modo que el tráfico de actualización de enrutamiento está sujeto a la regla de horizonte dividido. El comando encapsulation frame-relay está asignado a la interfaz física. Todos los demás aspectos de la configuración, tales como la dirección de capa de red y los DLCI se asignan a cada subinterfaz. Las configuraciones multipunto pueden utilizarse para ahorrar direcciones, lo que puede ser de utilidad si no se está utilizando una Máscara de subred de longitud variable (VLSM). Sin embargo, las configuraciones multipunto podrían funcionar inapropiadamente dadas las consideraciones de tráfico de broadcasts y del horizonte dividido. La opción de la subinterfaz punto a punto se creó para evitar esos problemas. 5.2.5 Configuración de las subinterfaces Frame Relay El proveedor de servicios Frame Relay asignará los números DLCI. Estos números van del 16 al 992, y por lo general, sólo tienen importancia local. Los DLCI pueden tener importancia global en algunas circunstancias. Este intervalo numérico varía de acuerdo con el LMI utilizado. En la figura, el Router A tiene dos subinterfaces punto a punto. La subinterfaz s0/0.110 se conecta al router B y la subinterfaz s0/0.120, al router C. Cada subinterfaz se encuentra en una subred diferente. Para configurar las subinterfaces en una interfaz física, siga los pasos siguientes. * Configure el encapsulamiento Frame Relay en la interfaz física mediante el comando encapsulation frame-relay. * Para cada uno de los PVCs definidos, cree una subinterfaz lógica router(config-if)#interface serialnumber.subinterface-number [multipoint | point-to-point] Para crear una subinterfaz, utilice el comando interface serial. Especifique el número de puerto, seguido de un punto (.), y luego del número de la interfaz. Por lo general, se usa como el número de la subinterfaz el del DLCI. Esto facilita la detección de fallas. El parámetro final requerido establece si la subinterfaz es punto a punto o punto a multipunto. Se necesita la palabra clave multipoint o point-to-point. No hay valor por defecto. Los comandos siguientes crean la subinterfaz del PVC al router B. routerA(config-if)#interface serial 0/0.110 point-to-point Si la subinterfaz se configura como point-to-point (punto a punto), entonces el DLCI local para la subinterfaz debe también configurarse para distinguirlo de la interfaz física. También se requiere el DLCI para las subinterfaces multipoint (multipunto) en las que se habilita el ARP inverso. No es necesario que las subinterfaces multipunto estén configuradas con mapas de enrutamiento estáticos. El comando frame-relay interface-dlci se utiliza para configurar el DLCI local en la subinterfaz. router(config-subif)#frame-relay interface-dlcidlci-number 5.2.6 Verificación de la configuración de Frame Relay El comando show interfaces muestra la información relativa al encapsulamiento y estado de la Capa 1 y la Capa 2. También muestra la información acerca de lo siguiente: * El tipo de LMI

Page 308: Semestre1 Ccna

* La LMI del DLCI * El tipo de equipo terminal de datos Frame Relay/equipo de terminación de circuito (DTE/DCE) Normalmente, el router se considera como un dispositivo de terminal de datos (DTE). Sin embargo, los routers Cisco pueden configurarse como switches Frame Relay. El router se convierte en el dispositivo de terminación de circuito (DCE) cuando se le configura como un switch Frame Relay. Utilice el comando show frame-relay lmi para mostrar las estadísticas de tráfico LMI. Por ejemplo, este comando muestra el número de mensajes de estado intercambiados entre el router local y el switch Frame Relay local. Utilice el comando show frame-relay pvc [interfaceinterface] [dlci] para mostrar el estado de cada PVC configurado así como las estadísticas de tráfico. Este comando resulta útil para ver el número de los paquetes de BECN y FECN que el router recibe. El estado del PVC puede ser activo, inactivo o eliminado. El comando show frame-relay pvc muestra el estado de todos los PVCs configurados en el router. Al indicar un PVC se verá sólo el estado de ese PVC. En la Figura , el comando show frame-relay pvc 100 muestra sólo el estado del PVC 100. Utilice el comando show frame-relay map para mostrar las asignaciones actuales e información acerca de las conexiones. La siguiente información interpreta el resultado del comando show frame-relay map que se muestra en la figura : * 10.140.1.1 es la dirección IP de un router remoto, que se aprende de forma dinámica a través de un proceso ARP inverso. * 100 es el valor decimal del número DLCI local. * 0x64 es la conversión hexadecimal del número DLCI, , 0x64 = 100 decimal * 0x1840 es el valor tal como se mostraría en el cable debido a la forma en que los bits DLCI se reparten en el campo de dirección de la trama Frame Relay. * La capacidad broadcast/multicast está habilitada en el PVC. * El estado del PVC es activo. Para borrar, de forma dinámica, los mapas de asignación Frame Relay creados mediante ARP inverso, use el comando clear frame-relay-inarp. 5.2.7 Diagnóstico de fallas de la configuración de Frame Relay Utilice el comando debug frame-relay lmi para determinar si el router y el switch Frame Relay están enviando y recibiendo paquetes LMI de manera adecuada. "Out" (salida) se refiere a los mensajes de estado enviados por el router. "In" (entrada) se refiere a los mensajes recibidos del switch Frame Relay. Un mensaje de estado LMI

completo es del tipo 0 ("type 0" . Un intercambio LMI es del tipo 1 ("type 1" . El texto "dlci 100, estado 0x2" significa que el estado del DLCI 100 es activo. Los valores posibles del campo de estado son los siguientes. * 0x0: agregado/inactivo. Significa que el switch tiene el DLCI programado pero, por alguna razón no se puede usar. Es posible que esto ocurra porque el extremo opuesto del PVC está desactivado. * 0x2: agregado/activo. Significa que el switch Frame Relay tiene el DLCI y que todo está en funcionamiento. * 0x4: eliminado. Significa que el switch Frame Relay no tiene este DLCI programado para el router, pero que estuvo programado en algún momento en el pasado. Esto puede deberse a una reversión del DLCI en el router, o que el proveedor de servicios haya eliminado el PVC en la nube Frame Relay. Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: * Alcance y propósito de Frame Relay. * Tecnología de Frame Relay. * Topologías punto a punto y punto a multipunto. * La topología de una red Frame Relay. * Cómo configurar un Circuito virtual permanente (PVC) de Frame Relay. * Cómo crear un mapa de asignaciones Frame Relay en una red remota. * Los problemas potenciales en el enrutamiento de una red de acceso múltiple sin broadcast. * Por qué se necesitan subinterfaces y cómo se las configura. * Cómo verificar y hacer diagnóstico de fallas de una conexión Frame Relay. Módulo 6: Introducción a la administración de redes Descripción general Las primeras PC fueron diseñadas como equipos de escritorio independientes. El sistema operativo (OS)

Page 309: Semestre1 Ccna

permitía el acceso a los archivos y recursos del sistema a un solo usuario a la vez. El usuario debía tener acceso físico a la PC. A medida que las redes de computación basadas en PC ganaron popularidad en el mundo corporativo, las compañías de software desarrollaron los NOS, los sistemas operativos especializados para redes. Los programadores diseñaron los NOS para brindar seguridad a nivel de archivos, privilegios de usuario y el acceso a los recursos por parte de múltiples usuarios. El crecimiento explosivo de la Internet llevó a los programadores a crear los NOS actuales alrededor de tecnologías relacionadas con la Internet y de servicios como la World Wide Web (WWW). La conectividad a redes es esencial hoy en día para la computación de escritorio. Ya no es tan clara la distinción entre los sistemas operativos modernos de escritorio, en la actualidad cargados con funciones y servicios para networking, y sus contrapartidas los NOS. En la actualidad, los sistemas operativos más populares, tales como Windows 2000 de Microsoft y Linux, se pueden encontrar tanto en servidores de gran potencia para redes y en los escritorios de los usuarios. El conocimiento de los distintos sistemas operativos garantizará la selección del sistema operativo correcto, el cual ofrezca todos los servicios requeridos. A continuación se hará una introducción de los sistemas operativos UNIX, Linux y Mac OS X, así como varias versiones de Windows. La efectiva administración de las LAN y WAN constituye el elemento clave para mantener un entorno productivo en el mundo del networking. A medida que un mayor número de usuarios dispone de más y más servicios, el rendimiento de las redes se ve afectado negativamente. Los administradores de redes, a través de un constante monitoreo, deben reconocer los problemas y ser capaces de corregirlos antes de que se hagan evidentes a los usuarios finales. Se dispone de diversos protocolos y herramientas para monitorear las redes de forma local y remota. El entendimiento profundo de estas herramientas es fundamental para una efectiva administración de las redes. Los estudiantes que completen este módulo deberán ser capaces de: * Identificar diversas tareas que posiblemente deba realizar una estación de trabajo. * Identificar varias funciones posibles de un servidor. * Describir el papel de los equipos en un entorno cliente/servidor. * Describir las diferencias entre un NOS y un sistema operativo de escritorio. * Enumerar varios sistemas operativos Windows y sus características. * Enumerar diferentes alternativas a los sistemas operativos Windows y sus características. * Identificar las herramientas para la administración de redes. * Identificar las fuerzas que impulsan la administración de redes. * Describir el modelo de administración de redes y el modelo OSI. * Describir el Protocolo Simple de Administración de Redes (SNMP) y el Protocolo de Información de Administración Común (CMIP) * Describir de qué manera el software de administración recopila información y lleva un registro de los problemas. 6.1 Estaciones de trabajo y servidores 6.1.1 Estaciones de trabajo Una estación de trabajo es una computadora cliente la cual se utiliza para ejecutar aplicaciones. Está conectada y obtiene datos de un servidor el cual comparte datos con otras computadoras. Un servidor es una computadora que ejecuta un NOS. Una estación de trabajo utiliza un software especial, como por ejemplo un programa shell de interconexión con la red, para realizar las siguientes tareas: * Interceptar los datos del usuario y los comandos de las aplicaciones. * Decidir si el comando está dirigido al sistema operativo local o al NOS. * Enviar el comando hacia el sistema operativo local o hacia la tarjeta de interfaz de red (NIC) para ser procesado y transmitido a la red. * Enviar transmisiones recibidas de la red a la aplicación que se ejecuta en la estación de trabajo. Algunos de los sistemas operativos Windows pueden instalarse tanto en estaciones de trabajo como en servidores. Las versiones NT, 2000 y XP de Windows proveen capacidades de servidor de red. Las versiones Windows 9x y ME sólo proporcionan soporte para estaciones de trabajo. El UNIX o el Linux pueden funcionar como sistemas operativos de escritorio pero generalmente se les encuentra en computadoras de alto nivel. Estas estaciones de trabajo se utilizan en aplicaciones científicas y de ingeniería, las cuales requieren de computadoras dedicadas de alto rendimiento. Algunas de las aplicaciones específicas que con frecuencia se ejecutan en estaciones de trabajo UNIX figuran en la siguiente lista: * Diseño asistido por computadora (CAD). * Diseño de circuitos electrónicos. * Análisis de datos climatológicos. * Animación gráfica por computadora.

Page 310: Semestre1 Ccna

* Administración de equipos para telecomunicaciones. La mayoría de los actuales sistemas operativos de escritorio incluyen capacidades de networking y permiten el acceso a múltiples usuarios. Por esta razón, es cada vez más común el clasificar las computadoras y los sistemas operativos de acuerdo con el tipo de aplicaciones que ejecuta la computadora. Esta clasificación se basa en el papel o en la función que desempeña la computadora, por ejemplo, una estación de trabajo o un servidor. Las aplicaciones típicas de las estaciones de trabajo de bajo nivel o de escritorio pueden incluir el procesamiento de palabras, hojas de cálculo y programas de administración financiera. En las estaciones de trabajo de alto nivel, las aplicaciones pueden incluir el diseño gráfico o la administración de equipos y otras más, como se ha mencionado antes. Una estación de trabajo sin disco es una clase especial de computadora diseñada para funcionar en una red. Como su nombre lo indica, no tiene disco duro pero sí incluye monitor, teclado, memoria, instrucciones de arranque en la ROM y una tarjeta de interfaz de red. El software que se utiliza para establecer una conexión con la red se carga desde un chip de ROM que se encuentra en la NIC. Como las estaciones de trabajo sin disco no cuentan con unidad de disco, no es posible subir datos desde ellas o descargar nada en ellas. Una estación de trabajo sin disco no puede transmitir un virus a la red ni tampoco puede utilizarse para tomar datos desde la red y copiarlos a una unidad de disco. Como resultado, las estaciones de trabajo sin disco ofrecen mayor seguridad que las estaciones de trabajo comunes. Es por esto que dichas estaciones de trabajo se utilizan en las redes donde la seguridad es prioritaria. Las laptops pueden usarse como estaciones de trabajo en una LAN y pueden conectarse a la red mediante una estación docking, un adaptador LAN externo o una tarjeta PCMCIA (Personal Computer Memory Card International Association). Una estación docking es un aditamento que convierte una laptop en una computadora de escritorio. 6.1.2 Servidores En el entorno de un sistema operativo de red, muchos sistemas cliente tienen acceso a uno o más servidores y comparten los recursos de éstos. Los sistemas cliente de escritorio están equipados con su propia memoria y dispositivos periféricos, tales como teclado, monitor y disco duro. Los sistemas de los servidores deben equiparse para permitir el acceso simultáneo de múltiples usuarios y la realización de múltiples tareas, en la medida que los clientes soliciten los recursos remotos del servidor. Para la administración de redes, los NOS cuentan con herramientas y funciones adicionales diseñadas para permitir el acceso de numerosos usuarios a la vez. En todas las redes, excepto en las de menor tamaño, los NOS se instalan en servidores de alto nivel. Muchos usuarios, conocidos como clientes, comparten dichos servidores. A menudo, los servidores cuentan con discos duros de gran velocidad y capacidad, con NIC de alta velocidad y, en algunos casos, con múltiples CPU. Dichos servidores en general se configuran para ofrecer uno o más servicios de red utilizando la familia de protocolos de la Internet, TCP/IP. Los servidores que ejecutan NOS también se utilizan para autenticar usuarios y brindar acceso a recursos compartidos. Estos servidores están diseñados para manejar peticiones de distintos clientes al mismo tiempo. Antes de que un cliente pueda tener acceso a los recursos del servidor, debe identificarse y recibir la autorización para el uso de dichos recursos. La identificación y autorización se efectúa mediante la asignación de un nombre de cuenta y una contraseña a cada cliente. Un servicio de autenticación verifica el nombre de cuenta y la contraseña para permitir o denegar el acceso a la red. Al centralizar las cuentas de los usuarios, la seguridad y el control de acceso, las redes basadas en servidores simplifican el trabajo de administración de la red. Los servidores son generalmente sistemas de mayor magnitud que las estaciones de trabajo. Disponen de memoria adicional para dar soporte simultáneo a múltiples tareas activas, es decir, residentes en la memoria. También es necesario espacio adicional en los discos de los servidores para guardar los archivos compartidos y para funcionar como extensión de la memoria interna del sistema. Es usual que los servidores requieran de ranuras de expansión adicionales en sus tarjetas madre para conectar los dispositivos compartidos, tales como impresoras y múltiples interfaces de red. Otra característica de los sistemas capaces de actuar como servidores es la alta capacidad de procesamiento. Por lo general, las computadoras cuentan con una sola CPU que ejecuta las instrucciones que conforman una tarea o un proceso dados. A fin de trabajar de forma eficiente y responder con rapidez a las peticiones de los clientes, un servidor NOS requiere de una CPU potente para ejecutar sus tareas o programas. Los sistemas de procesador único con una CPU pueden satisfacer la mayoría de las necesidades si la CPU tiene la velocidad necesaria. Para lograr mayores velocidades de ejecución, algunos sistemas cuentan con más de una CPU. Dichos sistemas reciben el nombre de sistemas multiprocesador. Los sistemas multiprocesador son capaces de ejecutar múltiples tareas en paralelo, al asignar cada tarea a un procesador diferente. La cantidad total de trabajo que el servidor puede realizar en un tiempo dado es mucho mayor en los sistemas multiprocesador. Como los servidores funcionan como depósitos centrales de recursos vitales para la operación de los sistemas cliente, deben ser eficientes y robustos. El término robusto expresa que los sistemas de servidores deben ser capaces de funcionar con eficiencia bajo grandes cargas de trabajo. También significa que los sistemas deben

Page 311: Semestre1 Ccna

ser capaces de sobrevivir a la falla de uno o más procesos o componentes sin experimentar una falla general del sistema. Este objetivo se cumple creando redundancia en los sistemas de servidores. La redundancia es la incorporación de componentes de hardware adicionales que puedan hacer las funciones de otro componente en caso de fallas. La redundancia es una característica de los sistemas tolerantes a fallas. Estos sistemas están diseñados para sobrevivir a las fallas y es posible repararlos sin interrupciones mientras los sistemas se encuentran activos y en funcionamiento. Como los NOS dependen del funcionamiento continuo de su servidor, se justifica el gasto adicional de los componentes de hardware redundantes. Las aplicaciones y funciones de los servidores incluyen servicios web mediante el Protocolo de transferencia de hipertexto (HTTP), el Protocolo de transferencia de archivos (FTP) y el Sistema de nombres de dominios (DNS). Los protocolos estándar de correo electrónico usados en los servidores de las redes incluyen el Protocolo sencillo de transferencia de correo (SMTP), el Protocolo de oficina de correos Versión 3 (POP3) y el Protocolo Internet de acceso a mensajes (IMAP). Los protocolos usados para compartir archivos incluyen el Sistema de archivos en red de Sun Microsystems (NFS) y el Bloque de mensajes del servidor de Microsoft (SMB). Los servidores de redes a menudo proveen servicios de impresión. Un servidor también puede proveer el Protocolo de configuración de host dinámico (DHCP), el cual automáticamente asigna las direcciones IP a las estaciones de trabajo. Además de brindar servicios para los clientes en la red, es posible configurar un servidor para que actué como un firewall básico para la red. Esto se logra mediante el esquema proxy o el de Traducción de direcciones de red (NAT), los cuales esconden las direcciones privadas internas de la red. Un único servidor que ejecuta un NOS puede funcionar bien cuando brinda servicios a unos pocos clientes. Pero la mayoría de las organizaciones deben instalar varios servidores a fin de lograr un rendimiento aceptable. En un diseño típico, los servicios están separados de modo que un servidor está a cargo del correo electrónico, otro de compartir archivos y otro del FTP. La concentración en servidores de los recursos de la red, tales como archivos, impresoras y aplicaciones, también hace que los datos generados sean más fáciles de mantener y respaldar. En vez de tener dichos recursos distribuidos en muchos equipos individuales, los recursos de la red pueden asignarse a servidores dedicados y especializados para facilitar el acceso y los respaldos. 6.1.3 Relación cliente-servidor El modelo de computación cliente-servidor distribuye el procesamiento entre múltiples computadoras. El procesamiento distribuido permite el acceso a sistemas remotos con el fin de compartir información y los recursos de la red. En un entorno cliente-servidor, el cliente y el servidor comparten o se distribuyen las responsabilidades de procesamiento. La mayoría de los sistemas operativos de redes usan el modelo cliente-servidor para proporcionar los servicios de red a los usuarios. Las computadoras en una red pueden denominarse hosts, estaciones de trabajo, clientes o servidores. Cualquier computadora que ejecute TCP/IP, ya sea una estación de trabajo o un servidor, es considerada una computadora host. Las siguientes son definiciones de otros términos de uso común: * Host local: el equipo en el que el usuario trabaja en ese momento. * Host remoto: un sistema al que el usuario tiene acceso desde otro sistema. * Servidor: proporciona recursos a uno o más clientes por medio de una red. * Cliente: un equipo que utiliza los servicios de uno o más servidores de una red. Un ejemplo de relación cliente-servidor es el de una sesión FTP. El FTP es un método universal para transferir archivos de una computadora a otra. Para que el cliente intercambie archivos con el servidor, éste debe estar ejecutando el servicio o "daemon" FTP. En este caso, el cliente solicita la transferencia del archivo. El servidor provee los servicios necesarios para enviar o recibir dicho archivo. La Internet también es un buen ejemplo de una relación cliente-servidor de procesamiento distribuido. El cliente o "front end" generalmente maneja las funciones de interfaz al usuario tales como la presentación en pantalla, los formularios de ingreso y la edición de datos. Esto se realiza con navegadores como el Netscape o el Internet Explorer. Los navegadores envían peticiones a los servidores web. Cuando el navegador solicita datos al servidor, éste responde y el navegador recibe una respuesta del servidor web. Entonces, el navegador muestra los datos HTTP recibidos. El servidor o "back end" maneja las peticiones de páginas web del cliente y provee servicios HTTP/WWW. Otro ejemplo de una relación cliente-servidor es el servidor de una base de datos y la realización de una consulta o un ingreso de datos por parte de un cliente en una LAN. El cliente puede estar ejecutando una aplicación escrita en C o Java y el servidor puede estar ejecutando Oracle u otro software de administración de bases de datos. En este caso el cliente maneja las tareas de presentación al usuario. El servidor provee los servicios de almacenamiento y recuperación de datos para el usuario. En un entorno típico de servidor de archivos, el cliente podría trasladar grandes cantidades de archivos de la base de datos para procesarlos localmente. El traslado de los archivos desde la base de datos podría producir un excesivo tráfico en la red. En el modelo cliente-servidor en cambio, el cliente envía una consulta al servidor y el software de base de datos del servidor puede procesar centenares de miles de registros y transferir sólo unos

Page 312: Semestre1 Ccna

pocos al cliente para satisfacer la consulta. Los servidores son usualmente mucho más poderosos que las computadoras cliente y están mejor dotados para el procesamiento de grandes cantidades de datos. En la computación cliente-servidor, el almacenamiento de la base de datos y su procesamiento se realiza en el servidor. El cliente sólo debe generar y enviar la consulta. Una cantidad relativamente pequeña de datos o de resultados podría pasar por la red. Se satisface la consulta del cliente y se utiliza una porción menor del ancho de banda de la red. El gráfico muestra un ejemplo de un esquema cliente-servidor. Cabe notar que usualmente la estación de trabajo y el servidor se conectan a la LAN por medio de un hub o concentrador o un switch. La distribución de las funciones en redes cliente-servidor tiene ventajas significativas, pero también genera algunos costos. Aunque la concentración de recursos en los servidores brinda mayor seguridad, además de facilitar el acceso y el control coordinado, el servidor se convierte en un elemento indispensable en la red, lo que se conoce como un punto único de falla. Sin un servidor operativo, la red no puede funcionar en lo absoluto. Además, los servidores requieren de personal experto y capacitado para su administración y mantenimiento, lo que aumenta los gastos de operación de la red. Los servidores requieren de hardware adicional y software especializado, lo cual aumenta sustancialmente los costos. 6.1.4 Introducción a los NOS El OS (sistema operativo) de una computadora conforma los cimientos de software sobre los cuales se ejecutan las aplicaciones y los servicios en una estación de trabajo. De igual manera, un NOS permite la comunicación entre múltiples dispositivos y el compartir recursos a través de la red. Los servidores de red UNIX, Microsoft Windows NT, o Windows 2000 incluyen un NOS. Las funciones comunes de los OS para estaciones de trabajo incluyen el control del hardware de la computadora, la ejecución de programas y el proveer una interfaz al usuario. Los OS llevan a cabo estas funciones para los usuarios individuales. Varios usuarios pueden compartir el equipo pero no se pueden registrar en él al mismo tiempo. Los NOS en cambio distribuyen las funciones entre varias computadoras en la red. Los NOS dependen de los servicios de los OS locales de cada computadora individual. Los NOS agregan entonces funciones adicionales que permiten el acceso a los recursos compartidos por varios usuarios al mismo tiempo. Las estaciones de trabajo funcionan como clientes en un entorno NOS. Cuando una estación de trabajo se convierte en un cliente en un entorno NOS, un software especializado adicional permite que el usuario local tenga acceso a recursos no locales o remotos, tal como si estos recursos formaran parte del sistema local. Los NOS aumentan el alcance de las estaciones de trabajo clientes, haciendo que los servicios remotos estén disponibles como extensiones del sistema operativo local. Un sistema capaz de operar como servidor NOS debe estar capacitado para permitir el acceso de múltiples usuarios simultáneos. El administrador de la red crea una cuenta para cada usuario, lo que permite que éstos se registren y se conecten al servidor. La cuenta del usuario en el servidor permite que el servidor reconozca a dicho usuario y le asigne los recursos que se le han otorgado. Los sistemas que proveen esta capacidad reciben el nombre de sistemas multiusuario. Un NOS para servidores es un sistema multitarea capaz de ejecutar múltiples tareas o procesos al mismo tiempo. El software de secuenciación del NOS divide el tiempo del procesador interno, la memoria y el uso de otros elementos del sistema entre diferentes tareas a fin de compartir los recursos del sistema. Cada usuario del sistema multiusuario está soportado por una tarea o proceso individual interno del servidor. Estas tareas internas se crean de forma dinámica a medida que los usuarios se conectan al sistema y se eliminan cuando los usuarios se desconectan. Las características principales a considerar en la selección de un NOS son el rendimiento, las herramientas disponibles de administración y monitoreo, la seguridad, la escalabilidad y la robustez o tolerancia a las fallas. La siguiente sección define brevemente cada una de estas características. Rendimiento Un NOS debe tener un alto rendimiento en cuanto a las funciones de lectura y escritura de archivos a través de la red entre clientes y servidores. Debe ser capaz de mantener un ágil rendimiento bajo grandes cargas de trabajo, cuando muchos clientes realizan peticiones simultáneamente. Un desempeño estable bajo gran demanda es un estándar importante para un NOS. Administración y monitoreo La interfaz de administración del NOS del servidor provee las herramientas para el monitoreo del servidor, la administración de clientes, de archivos, de los servicios de impresión y del almacenamiento en discos. La interfaz de administración provee las herramientas para la instalación de nuevos servicios y su configuración. Además, los servidores requieren de monitoreo y ajustes periódicos. Seguridad Un NOS debe proteger los recursos compartidos que controla. La seguridad incluye el control del acceso de los usuarios a los servicios para prevenir el acceso no autorizado a los recursos de la red. La seguridad también involucra el cifrado de la información, a fin de protegerla cuando se transfiere entre clientes y servidores.

Page 313: Semestre1 Ccna

Escalabilidad La escalabilidad es la capacidad que tiene un NOS para crecer sin degradación de su rendimiento. Un NOS debe ser capaz de mantener su rendimiento a medida que nuevos usuarios se incorporen a la red y nuevos servidores se agreguen para brindarles soporte. Robustez/tolerancia a las fallas La medida de la robustez es la capacidad de brindar servicios eficazmente bajo grandes cargas y de mantener dichos servicios aun en caso de fallas en los componentes o procesos. El uso de discos redundantes y el equilibrio de la carga de trabajo entre múltiples servidores puede mejorar la robustez del NOS. 6.1.5 Microsoft NT, 2000 y .NET Desde el lanzamiento de Windows 1.0 en noviembre de 1985, Microsoft ha creado muchas versiones del sistema operativo Windows, con mejoras y cambios para adecuarse a una diversidad de usuarios y propósitos. La Figura hace un resumen del Windows OS actual. El NT 4 fue diseñado para brindar un entorno de misión crítica para corporaciones, el cual sería más estable que los sistemas operativos Microsoft para consumidores. Está disponible en versiones de escritorio (NT 4.0 Workstation) así como para servidores (NT 4.0 Server). Una ventaja que presenta el NT sobre las versiones anteriores de los OS de Microsoft es que el DOS y los programas Windows antiguos pueden ejecutarse en máquinas virtuales (VM). Los programas se ejecutan de forma aislada y al ocurrir una falla no es necesario reiniciar el sistema. El Windows NT provee una estructura de dominio para controlar el acceso de usuarios y clientes a los recursos de los servidores. Se administra a través de la aplicación "Administrador de usuarios para dominios" en el controlador de dominio. Todos los dominios NT requieren de un controlador primario de dominio el cual guarda la Base de datos de administración de cuentas de seguridad (SAM) y además pueden disponer de uno o más controladores de respaldo, cada uno de los cuales cuenta con una copia de solo-lectura de la SAM. Cuando un usuario intenta registrarse, la información enviada por éste se transfiere a la base de datos SAM. Si la información de dicha cuenta existe en la base de datos, el usuario recibirá la autenticación para el dominio y tendrá acceso a los recursos de la red y de la estación de trabajo. El Windows 2000 es una versión más reciente desarrollada a partir del núcleo básico del NT y presenta versiones de escritorio y para servidores. El Windows 2000 soporta la tecnología "plug-and-play" que permite la instalación de nuevos dispositivos sin necesidad de reiniciar el sistema. El Windows 2000 también incluye un sistema de cifrado de archivos para dar seguridad a los datos en el disco duro. El Windows 2000 permite que objetos, tales como usuarios y recursos, sean colocados en objetos contenedores que reciben el nombre de unidades de organización (OU). La autoridad administrativa sobre cada OU puede delegarse a un usuario o a un grupo. Esta característica permite un control más específico que el que es posible con Windows NT 4.0. La versión Professional del Windows 2000 no está diseñada para ser un NOS completo. No provee un controlador de dominio, servidor DNS, servidor DHCP ni brinda muchos de los servicios que pueden ser activados en el Windows 2000 Server. El objetivo principal del Windows 2000 Professional es formar parte de un dominio como un sistema operativo cliente. El tipo de hardware que se puede instalar en este OS es limitado. El Windows 2000 Professional puede brindar capacidades de servidor limitadas para redes pequeñas y para redes de par a par. Puede ser un servidor de archivos, un servidor de impresión, un servidor FTP y un servidor web pero sólo soportará hasta diez conexiones a la vez. A las características del Windows 2000 Professional, el Windows 2000 Server agrega muchas de las nuevas funciones específicas de los servidores. También puede operar como servidor de archivos, de impresión, de web y de aplicaciones. Los Servicios de directorio activo de Windows 2000 Server funcionan como punto centralizado de administración de usuarios, grupos, servicios de seguridad y recursos de red. Incluye las capacidades multipropósito necesarias para grupos de trabajo y sucursales, así como para la implementación de servidores de impresión, de archivos, de páginas web y de comunicación a nivel de departamentos. El Windows 2000 Server se utiliza para entornos de pequeñas y medianas empresas. Brinda conectividad integrada con los sistemas Novell NetWare, UNIX y redes AppleTalk. También puede configurarse como servidor de comunicaciones para brindar servicios de interconexión mediante líneas telefónicas para usuarios móviles. El Windows 2000 Advanced Server brinda el soporte adicional de hardware y software que necesitan las empresas y las redes de gran tamaño. Microsoft desarrolló el servidor Windows .NET con la habilidad de proveer un sistema seguro y confiable para ejecutar sitios web y FTP de nivel corporativo para competir con Linux, UNIX y One NET de Novell. El Windows .NET Server Ofrece los Servicios Web XML a compañías que requieren de tráfico web de volumen medio a alto. 6.1.6 UNIX, Sun, HP y LINUX Los orígenes del UNIX UNIX es el nombre de un grupo de sistemas operativos que tienen sus orígenes en el año 1969 en los

Page 314: Semestre1 Ccna

laboratorios Bell. Desde su concepción, el UNIX fue diseñado para soportar usuarios y tareas múltiples. El UNIX también fue uno de los primeros sistemas operativos que incorporó soporte para los protocolos de redes conectadas a la Internet. La historia de UNIX, que hasta hoy abarca tres décadas, es complicada porque muchas compañías y organizaciones han contribuido a su desarrollo. En un principio, el UNIX se escribió en lenguaje de máquina, un conjunto de instrucciones de bajo nivel que controlan los comandos internos de una computadora en particular. Debido a ello, el UNIX sólo podía ejecutarse en un tipo específico de computadora. En 1971, Dennis Ritchie creó el lenguaje C. En 1973, Ritchie y Ken Thompson, un colega programador de los laboratorios Bell, reescribieron los programas del sistema UNIX en lenguaje C. Como C era un lenguaje de mayor nivel, el UNIX pudo trasladarse a otras computadoras con mucho menor esfuerzo de programación. La decisión de desarrollar un sistema operativo portátil probó ser la clave para el éxito del UNIX. Durante los años 70, el UNIX evolucionó a través del trabajo de los programadores de los laboratorios Bell y de los de distintas universidades, principalmente los de la Universidad de California en Berkeley. – Cuando el UNIX comenzó a comercializarse por primera vez en los años 80, se utilizó en poderosos servidores de redes y no en computadoras de escritorio. En la actualidad, existen decenas de versiones diferentes del UNIX que incluyen entre otros: * El UNIX de Hewlett Packard (HP-UX) * El UNIX de Berkeley Software Design, Inc. (BSD UNIX), del cual han surgido derivados como el FreeBSD * El UNIX de Santa Cruz Operation (SCO) * El de Sun Solaris * El UNIX de IBM (AIX) El UNIX, en sus diversas formas, continúa afianzándose en su posición como la primera opción para aplicaciones de misión crítica, cruciales para el funcionamiento de las corporaciones u otras organizaciones. El UNIX también está integrado estrechamente al TCP/IP. Los protocolos TCP/IP surgieron a partir de UNIX debido a la necesidad de comunicaciones en LAN y WAN. El entorno operativo Solaris de Sun Microsystems y su OS base, el SunOS, es una implementación de UNIX de 64 bits, versátil y de alto rendimiento. El Solaris funciona en una amplia gama de computadoras, desde equipos personales de tecnología Intel hasta poderosos mainframes y supercomputadoras. En la actualidad, Solaris es la versión más utilizada del UNIX en el mundo para grandes redes y sitios web de la Internet. Sun también ha desarrollado la tecnología Java, la cual proclama "Codifique una vez y córralo donde sea (Write Once, Run Anywhere)". A pesar de la popularidad del Windows de Microsoft en las LAN corporativas, gran parte de la Internet funciona sobre poderosos sistemas UNIX. Aunque el UNIX se asocia con frecuencia a hardware costoso y no es amigable para el usuario, ha habido mejoras recientes, entre ellas la creación de Linux, que han cambiado dicha imagen. Orígenes de Linux En 1991, un estudiante finlandés llamado Linus Torvalds comenzó a trabajar en un sistema operativo para computadoras con procesador Intel 80386. Torvalds se sintió frustrado por la situación de los sistemas operativos de escritorio tales como el DOS, y por el costo y las trabas de licenciamiento de los UNIX comerciales. Torvalds se propuso desarrollar un sistema operativo que fuera como UNIX en su funcionamiento pero que utilizara un código de software abierto y fuese absolutamente gratis para el usuario. El trabajo de Torvalds condujo a un esfuerzo de colaboración mundial para desarrollar el Linux, un sistema operativo de código fuente abierto que luce y se siente como el UNIX. Para finales de los años 90, el Linux se había convertido en una alternativa viable de UNIX para los servidores, y de Windows para los ambientes de escritorio. La popularidad de Linux en las PC de escritorio también ha contribuido al interés en el uso de otras versiones del UNIX, tales como la FreeBSD y la Solaris de Sun, en equipos de escritorio. En la actualidad existen versiones de Linux que pueden funcionar en casi cualquier procesador de 32 bits, y hasta en chips Intel 80386, Motorola 68000, Alpha y PowerPC. Al igual que con el UNIX, existen numerosas versiones de Linux. Algunas son descargas gratis de la web y otras se distribuyen comercialmente. Las siguientes son algunas de las versiones más populares de Linux: * El Red Hat Linux: distribuido por Red Hat Software * El OpenLinux; distribuida por Caldera * El Corel Linux * El Linux de Slackware * El Debian GNU/Linux * El SuSE Linux El Linux es hoy uno de los sistemas operativos más confiables y poderosos del mundo. Por ello, ya ha hecho avances como una plataforma para usuarios avanzados y en el escenario de los servidores corporativos. El Linux no es muy utilizado como sistema operativo de escritorio en las empresas. Aunque cuenta con interfaces gráficas de usuario (GUI) para hacerlo más amigable, la mayoría de los usuarios encuentran a Linux más difícil

Page 315: Semestre1 Ccna

de utilizar que el Mac OS o el Windows. En la actualidad, muchas compañías tales como Red Hat, SuSE, Corel y Caldera se esfuerzan por hacer de Linux un sistema operativo de escritorio viable. – Se debe tener en cuenta la disponibilidad de software al implementar Linux en sistemas de escritorio. La cantidad de programas de uso empresarial es limitada en comparación con el caso de Windows. Sin embargo, algunos distribuidores proveen programas de emulación de Windows como el WABI y el WINE, los cuales permiten que muchas de las aplicaciones de Windows se ejecuten sobre Linux. Además, compañías como Corel están fabricando versiones Linux de sus conjuntos de programas de uso empresarial y de otros paquetes populares de software. Networking con Linux Las versiones recientes de Linux incorporan componentes de red para conexión a LAN, conexión telefónica con la Internet o con redes remotas.. De hecho, los protocolos TCP/IP están integrados al kernel del Linux en lugar de estar implementados como un subsistema separado. Algunas de las ventajas del Linux como sistema operativo de escritorio y como cliente de red son las siguientes: * Es un verdadero sistema operativo de 32 bits. * Soporta tareas múltiples aisladas y memoria virtual. * El código fuente es abierto (open source) y por lo tanto está disponible para cualquiera que desee ampliarlo y mejorarlo. 6.1.7 Apple Las computadoras Apple Macintosh fueron diseñadas para facilitar su conexión a redes en situaciones de grupos de trabajo par a par. Las interfaces de red se incluyen como parte del hardware original de fábrica y los componentes de networking están incorporados al sistema operativo Macintosh. Están disponibles adaptadores para redes Ethernet y Token Ring para las Macintosh. Las computadoras Macintosh, o Macs, son populares en muchos departamentos gráficos de empresas y en instituciones educativas. Las Macs pueden conectarse entre ellas en grupos de trabajo y pueden tener acceso a servidores AppleShare de archivos. También pueden conectarse a LAN de PC que incluyan servidores Microsoft, NetWare o UNIX. El Mac OS X (10) El sistema operativo Mac OS X de Macintosh a veces recibe el nombre de Apple System 10. Algunas de las características del Mac OS X se observan en su interfaz de usuario o GUI, llamada Aqua. La GUI Aqua luce como una combinación entre la GUI del Microsoft Windows XP y la X-windows del Linux. El Mac OS X está diseñado para ofrecer funciones para computadoras de uso en el hogar tales como navegación por Internet, edición fotográfica y de videos, y juegos, a la vez que continúa brindando características que proveen de poderosas herramientas adaptables que los profesionales de IT exigen de un sistema operativo. El Mac OS X es totalmente compatible con las versiones anteriores de los sistemas operativos Macintosh. El Mac OS X provee una nueva característica que permite la conectividad a redes AppleTalk así como a redes Windows. El núcleo central del Mac OS X recibe el nombre de Darwin. El Darwin es un poderoso sistema basado en UNIX el cual brinda estabilidad y rendimiento. Estas mejoras proveen al Mac OS X de capacidades de memoria protegida, tareas múltiples aisladas , administración avanzada de la memoria y multiprocesamiento simétrico. Esto hace del Mac OS X un formidable competidor entre los sistemas operativos. 6.1.8 Concepto de servicio en los servidores Los NOS están diseñados para proveer procesos de red a los clientes. Los servicios de red incluyen servidores web, el compartir archivos, intercambiar correo electrónico, los servicios de directorio, de administración remota y los servicios de impresión. La administración remota es un servicio poderoso que permite a los administradores configurar sistemas en red en lugares lejanos. Es importante comprender que estos procesos de red se denominan "servicios" en Windows 2000 y "daemons" en UNIX y Linux. Todos los procesos de red proveen las mismas funciones, pero la forma en que se cargan e interactúan con el NOS es diferente en cada sistema operativo. Según cada NOS en particular, algunos de estos procesos claves de red pueden ser habilitados durante una instalación por defecto. Los procesos de red más populares se apoyan en el conjunto de protocolos TCP/IP. Como el TCP/IP es un conjunto de protocolos abierto y bien conocido, los servicios que se basan en TCP/IP son vulnerables a rastreos no autorizados y ataques malintencionados. Los Ataques de negación de servicio (DoS), los virus de computadora y los gusanos de Internet de rápida distribución han forzado a los creadores de NOS a reevaluar cuáles servicios de red se deben habilitar de forma automática. Las versiones recientes de los NOS populares, tales como el Windows 2000 y el Red Hat Linux 7, restringen la cantidad de servicios de red que se habilitan por defecto. Al instalar un NOS, los servicios de red claves deben habilitarse de forma manual.

Page 316: Semestre1 Ccna

Cuando un usuario decide imprimir en un entorno de impresión en red, la tarea se envía a la cola correspondiente a la impresora elegida. Las colas de impresión ordenan los trabajos entrantes y los atienden siguiendo el esquema FIFO, "primero en entrar, primero en salir". Cuando se agrega un trabajo a la cola, se le coloca al final de la lista de espera y es el último en imprimirse. El tiempo de espera para la impresión a veces puede ser prolongado, en función del tamaño de los trabajos de impresión que se encuentren adelante en la cola. Un servicio de impresión en red proporciona a los administradores del sistema las herramientas necesarias para administrar un gran número de trabajos de impresión que se enrutan a través de la red. Esto incluye la capacidad de asignar prioridades, suspender temporalmente e inclusive eliminar los trabajos de impresión en la cola. Compartir archivos La capacidad de compartir archivos en una red es un importante servicio de red. Hoy en día existen muchos protocolos y aplicaciones para compartir archivos. Dentro de una red casera o corporativa, los archivos se comparten generalmente mediante Windows File Sharing o el protocolo NFS. En tales entornos, los usuarios finales podrían no necesitar saber si un archivo dado se encuentra en un disco duro local o en un servidor remoto. Al usar Windows File Sharing y NFS los usuarios pueden fácilmente trasladar, crear y borrar archivos en directorios remotos. FTP Muchas organizaciones hacen que los archivos estén disponibles para empleados remotos, clientes y para el público general mediante el protocolo FTP. Los servicios FTP se ofrecen al público en conjunto con los servicios web. Por ejemplo, un usuario puede navegar por un sitio web, leer acerca de una actualización de un software en una página web y luego descargar dicha actualización mediante FTP. Las compañías de menor tamaño pueden utilizar un único servidor para proveer los servicios FTP y HTTP, mientras que compañías de mayor tamaño podrían elegir utilizar servidores FTP dedicados. Aunque los clientes FTP deben registrarse en el servidor, muchos servidores FTP están configurados para permitir el acceso anónimo. Cuando los usuarios se conectan de forma anónima, no necesitan tener una cuenta de usuario en el sistema. El protocolo FTP permite que los usuarios puedan cargar archivos al servidor así como cambiarles el nombre o borrarlos. Los administradores deben ser cuidadosos al configurar los niveles de acceso de un servidor FTP. El FTP es un protocolo orientado a sesión. Los clientes deben abrir una sesión en la capa de aplicaciones con el servidor y luego realizar una acción como una descarga o una carga por ejemplo. Si la sesión del cliente permanece inactiva durante un cierto tiempo, el servidor desconecta al cliente. Este lapso de inactividad recibe el nombre de tiempo de espera. La duración del tiempo de espera del FTP varía según el software. Servicios web La World Wide Web es el servicio de red más notorio. En menos de una década, la World Wide Web se ha convertido en una red global de información, comercio, educación y entretenimiento. Millones de compañías, organizaciones e individuos mantienen sitios web en la Internet. Los sitios web son conjuntos de páginas web almacenadas en un servidor o grupo de servidores. La World Wide Web se basa en el modelo cliente-servidor. Los clientes solicitan establecer sesiones TCP con servidores web. Una vez establecida la sesión, un cliente puede solicitar datos al servidor. Las peticiones del cliente y las transferencias del servidor son regidas por el protocolo HTTP. El software del cliente de la web incluye navegadores de interfaz gráfica tales como el Netscape Navigator y el Internet Explorer. Las páginas web se alojan en computadoras que ejecutan el software de servicios web. Los dos paquetes de software para servidores web más comunes son el Microsoft Internet Information Services (IIS) y el Apache Web Server. El Microsoft IIS funciona sobre plataformas Windows y el Apache Web Server funciona sobre plataformas UNIX y Linux. Están disponibles paquetes de software de servicios web para casi todos los sistemas operativos vigentes hoy en día. DNS El protocolo DNS traduce un nombre de Internet, como por ejemplo "www.cisco.com", en una dirección IP. Muchas aplicaciones se apoyan en los servicios de directorio que provee el DNS para esta tarea. Todos lo navegadores de web, los programas de correo electrónico y los programas de transferencia de archivos utilizan nombres para identificar a los sistemas remotos. El protocolo DNS permite que estos clientes soliciten a los servidores DNS de la red la traducción de dichos nombres a direcciones IP. Las aplicaciones pueden entonces utilizar dichas direcciones para enviar sus mensajes. Sin este servicio de directorios de búsqueda, la Internet sería casi imposible de usar. DHCP El objetivo del protocolo DHCP es permitir que las computadoras individuales de una red IP reciban su configuración TCP/IP de uno o varios servidores DHCP. Los servidores DHCP no tienen información acerca de las computadoras individuales en la red hasta que reciben una solicitud de ellas. El objetivo global de este esquema es reducir el trabajo necesario para administrar una red IP de gran tamaño. La unidad de información más significativa que se distribuye de esta forma es la dirección IP, la cual identifica a cada host en la red. El DHCP también permite la captura y la renovación automática de las direcciones IP mediante un mecanismo de uso temporal. Este mecanismo asigna una dirección IP durante un tiempo específico, luego la libera y asigna al

Page 317: Semestre1 Ccna

host una nueva dirección IP. El protocolo DHCP hace estas funciones mediante un servidor DHCP, el cual reduce significativamente el tiempo de administración del sistema. 6.2.1 Introducción a la administración de redes A medida que una red evoluciona y crece, se convierte en un recurso cada vez más indispensable y crítico para la organización. A medida que los usuarios disponen de más recursos en la red, la red se vuelve más compleja y su mantenimiento se torna más complicado. La pérdida de los recursos de la red y el bajo rendimiento son el resultado de una mayor complejidad y son inaceptables para los usuarios. Los encargados de la red deben administrarla de forma activa, diagnosticar los problemas, evitar que se produzcan incidentes y brindar a los usuarios el mejor rendimiento de la red. Llega un momento en el que las redes se vuelven demasiado grandes para ser administradas sin herramientas automatizadas. La administración de redes incluye las siguientes tareas: * Monitoreo de la disponibilidad de la red. * Mejoras en la automatización. * Monitoreo del tiempo de respuesta. * Proveer funciones de seguridad. * Re-enrutamiento del tráfico. * Capacidades de restauración. * Registro de usuarios. Las fuerzas que impulsan la administración de redes se muestran en la Figura y se explican a continuación: * Control de los activos empresariales: si los recursos de una red no se controlan de forma efectiva, no proporcionarán los resultados exigidos por los procesos gerenciales. * Control de la complejidad: con el crecimiento masivo del número de componentes, usuarios, interfaces, protocolos y proveedores de equipos, la pérdida de control de la red y de sus recursos amenaza los procesos gerenciales. * Mejor nivel de servicio: los usuarios esperan un nivel de servicio igual o mejor a medida que crece la red y que aumente la distribución de los recursos. * Equilibrio de las diversas necesidades: los usuarios deben poder contar con diversas aplicaciones a un nivel de servicio dado, con requisitos específicos en cuanto a rendimiento, disponibilidad y seguridad. * Reducción de las interrupciones del servicio: garantizar una alta disponibilidad de los recursos mediante un adecuado diseño redundante. * Control de costos: monitorear y controlar la utilización de los recursos a fin de satisfacer las necesidades del usuario a un costo razonable. La Figura presenta algunos términos básicos relacionados con la administración de redes. 6.2.2 Modelo OSI y modelo de administración de redes La Organización de Estándares Internacionales (ISO) creó una comisión para crear un modelo de administración de redes, bajo la dirección del grupo OSI. Este modelo consta de cuatro partes: * Organizacional. * Informativo. * Comunicacional. * Funcional. Esta es una visión de arriba hacia abajo de la administración de redes, dividida en cuatro submodelos y reconocida por el estándar OSI. El submodelo Organizacional describe los componentes de la administración de redes tales como administrador, agente y otros, y sus interrelaciones. La estructura de estos componentes conduce a distintos tipos de arquitectura, los cuales se tratarán más adelante. El submodelo Informativo trata de la estructura y almacenamiento de la información relativa a la administración de la red. Esta información se guarda en una base de datos la cual recibe el nombre de Base de datos de información sobre administración (MIB). La ISO definió la estructura de la información de administración (SMI) para especificar la sintaxis y la semántica de la información sobre administración que se guarda en la MIB. Más adelante se hablará de las MIB y la SMI en más detalle. El submodelo Comunicacional trata de la forma como se comunican los datos de administración en el proceso agente-administrador. Atiende lo relacionado con el protocolo de transporte, el protocolo de aplicaciones y los comandos y respuestas entre pares. El submodelo Funcional atiende las aplicaciones de administración de redes que residen en la estación de

Page 318: Semestre1 Ccna

administración de la red (NMS). El modelo de administración de redes OSI distingue cinco áreas funcionales y a veces recibe el nombre de modelo FCAPS: * Falla * Configuración * Responsabilidad * Rendimiento * Seguridad Este modelo de administración de redes ha ganado una amplia aceptación por parte de los proveedores, como una forma útil de describir los requisitos de cualquier sistema de administración de red. 6.2.3 Estándares SNMP y CMIP Para permitir la interoperabilidad de la administración en las distintas plataformas de red, se han creado estándares de administración de redes para que los proveedores puedan implementarlos y cumplirlos. Existen dos estándares principales: * El Protocolo simple de administración de red (SNMP) – Comunidad IETF * El Protocolo de información de administración común – Comunidad de las telecomunicaciones. El SNMP en realidad se refiere a un conjunto de estándares para la administración de redes el cual incluye un protocolo, una especificación de la estructura de la base de datos y un conjunto de objetos de datos. El SNMP se adoptó como estándar para las redes TCP/IP en 1989 y se hizo muy popular. En 1993 se adoptó una actualización conocida como el SNMP versión 2c (SNMPv2c). El SNMPv2c brinda soporte a las estrategias administrativas distribuidas y centralizadas e incluía mejoras en la estructura de la información de administración (SMI), las operaciones de protocolo, la arquitectura administrativa y la seguridad. Se diseñó para operar en redes basadas tanto en OSI como en TCP/IP. El SNMPv3 surgió después. Para resolver las limitaciones del SNMPv1 y el SNMPv2c, el SNMPv3 brinda acceso seguro a las MIB mediante la autenticación y el cifrado de los paquetes que viajan por la red. El CMIP es un protocolo OSI de administración de redes creado y estandarizado por la ISO para el monitoreo y control de redes heterogéneas. 6.2.4 Operación del SNMP El SNMP es un protocolo de la capa de aplicación diseñado para facilitar el intercambio de la información de administración entre los dispositivos de red. Al usar el SNMP para tener acceso a los datos de información de administración, tales como los paquetes enviados a una interfaz cada segundo o el número de conexiones TCP abiertas, los encargados de las redes pueden administrar más fácilmente el rendimiento a fin de encontrar y resolver los problemas en las redes. El SNMP es en la actualidad el protocolo más popular para la administración de redes corporativas, universitarias y de investigación. La actividad de estandarización continúa aun cuando los proveedores desarrollan y lanzan al mercado aplicaciones administrativas novedosas basadas en el SNMP. El SNMP es un protocolo sencillo, aunque su conjunto de funciones es lo suficientemente poderoso como para manejar los difíciles problemas relacionados con la administración de redes heterogéneas. El submodelo Organizacional para la administración de redes basada en el SNMP incluye cuatro elementos: * Estación de administración (NMS) * Agente de administración * Datos de información de administración * Protocolo de administración de red La NMS es generalmente una sola estación de trabajo independiente, pero puede implementarse entre varios sistemas. Incluye un conjunto de programas los cuales se denominan la Aplicación de administración de redes (NMA). La NMA incluye una interfaz de usuario que permite a los administradores autorizados la administración de la red. Responde a comandos de usuario emitidos en toda la red. Los agentes de administración son módulos de software de administración de red que residen en dispositivos de red claves tales como otros hosts, routers, puentes y hubs. Responden a peticiones de información y a peticiones de acción por parte de la NMS, tales como peticiones de sondeo, y pueden proporcionar a la NMS información importante pero no solicitada tales como las notificaciones de incidentes conocidas como traps. Toda la información de administración de un agente en particular se guarda en la base de datos de información de administración de dicho agente. Un agente puede realizar el seguimiento de: * Cantidad y estado de sus circuitos virtuales. * Cantidad recibida de ciertos tipos de mensajes de error. * Cantidad de bytes y de paquetes que entran y salen del dispositivo. * Longitud máxima de la cola de entrada para los routers y otros dispositivos de internetworking. * Mensajes de broadcast enviados y recibidos.

Page 319: Semestre1 Ccna

* Interfaces de red que se desactivan y que se activan. La NMS realiza la función de monitoreo mediante la recuperación de los datos de la MIB. La NMS puede hacer que se inicie una acción en un agente. La comunicación entre el administrador y el agente se realiza mediante un protocolo de administración de la red de la capa de aplicaciones. El SNMP utiliza el Protocolo de datagrama de usuario (UDP) y se comunica mediante los puertos 161 y 162. Actúa mediante un intercambio de mensajes. Los tipos de mensajes más comunes son tres: * Get (Obtener): permite a la estación administrativa recuperar el valor de los objetos de la MIB correspondientes al agente. * Set (Establecer): permite a la estación administrativa establecer el valor de los objetos de la MIB correspondientes al agente. * Trap: permite al agente notificar de eventos significativos a la estación administrativa. Este modelo se conoce como un modelo de dos niveles. Sin embargo, este modelo considera que todos los elementos de la red se pueden administrar mediante SNMP. Ese no es siempre el caso ya que algunos dispositivos cuentan con una interfaz de administración propietaria. En esos casos se requiere de un modelo de tres niveles. Un administrador de redes que desee obtener información o controlar ese dispositivo propietario se comunica con un agente intermediario. El agente intermediario traduce entonces esta petición SNMP del administrador a la forma adecuada para el dispositivo en cuestión y utiliza el protocolo de administración propietario que sea apropiado para comunicarse con el dispositivo. Las respuestas del dispositivo hacia el agente intermediario se traducen en mensajes SNMP y se envían de vuelta al administrador. Las aplicaciones administrativas de red a menudo descargan parte de la funcionalidad administrativa en una sonda RMON (de monitoreo remoto). La sonda RMON recoge información de administración a nivel local y el administrador de la red recupera periódicamente un resumen de dicha información. La NMS es una estación de trabajo común que ejecuta un sistema operativo típico. Cuenta con una gran cantidad de RAM para guardar todas las aplicaciones administrativas que funcionan simultáneamente. En ella se ejecuta una pila convencional de protocolos de red, como TCP/IP. Las aplicaciones administrativas de la red se apoyan en el sistema operativo del host y en su arquitectura de comunicaciones. Ejemplos de aplicaciones administrativas de red son la Ciscoworks2000, la HP Openview y el IBM NetView. Como ya se ha mencionado, el administrador puede ser una estación de trabajo independiente centralizada que envía peticiones a todos los agentes, sin tener en cuenta dónde están ubicados. En una red distribuida, una arquitectura descentralizada resulta más apropiada, al proveer una NMS local para cada red local. Estas NMS distribuidas pueden actuar de acuerdo a una arquitectura cliente-servidor, en la que una NMS actúa como un servidor maestro y las otras como clientes. Los clientes envían sus datos al servidor maestro para que éste centralice su almacenamiento. Una alternativa es que todas las NMS distribuidas tengan responsabilidades similares, cada una con sus bases de datos de administración propias, de modo que la información de administración se distribuya de par a par entre las NMS. 6.2.5 Estructura de la información de administración y de las MIB Las MIB se utilizan para guardar información estructurada que representa los elementos de la red y sus atributos. La estructura en sí está definida por un estándar llamado SMI, el cual define los tipos de datos que se pueden utilizar para guardar un objeto, cómo se les da nombre a dichos objetos y cómo se codifican para su transmisión a través de la red. Las MIB son depósitos muy estructuradas de información sobre los dispositivos. Existen muchas MIB estándar, pero son más numerosas las MIB propietarias utilizadas para administrar los dispositivos de los diversos proveedores. La MIB original constaba de ocho grupos diferentes que totalizan 114 objetos administrados. Se agregaron grupos adicionales al definir la MIB-II, la cual reemplaza hoy en día a la MIB-I. Todos los objetos administrados en el entorno SNMP se encuentran dispuestos en una estructura jerárquica también conocida como de árbol. Los objetos que representan las hojas de los árboles, que son los elementos que aparecen en la parte inferior del diagrama, son los objetos administrados propiamente dichos. Cada objeto administrado representa algún recurso, actividad o información relativa que se debe administrar. Un identificador único del objeto, el cual es un número en notación punteada, identifica a cada uno de los objetos administrados. Cada identificador de objeto es descrito mediante la notación de sintaxis abstracta (ASN.1). El SNMP utiliza estos identificadores de objeto para identificar las variables de la MIB a recuperar o modificar. Los objetos de dominio público, no propietarios, se describen en las MIB introducidas en la correspondiente solicitud de comentarios (RFC). Es posible encontrarlas en: http://www.ietf.org Se insta a todos los proveedores a hacer públicas sus definiciones de MIB. Una vez otorgado el código de empresa, el proveedor es responsable de crear y mantener los sub-árboles. 6.2.6 Protocolo SNMP Los agentes son funciones de software incorporados a la mayoría de los dispositivos de red como por ejemplo

Page 320: Semestre1 Ccna

los routers, switches, hubs administrados, impresoras y servidores. Son responsables de procesar las solicitudes SNMP del administrador. También son responsables de ejecutar las rutinas que mantienen las variables, según se definen en las diversas MIB que soportan. El SNMP facilita la interacción entre el administrador y los agentes. El término "sencillo" en "Protocolo Sencillo de Administración de Redes" (SNMP) viene del número restringido de tipos de mensajes que forman parte de la especificación de protocolo inicial. La estrategia fue establecida para facilitar a los programadores la creación de capacidades de administración en los dispositivos de red. La especificación de protocolo inicial se conoce como SNMPv1 (versión 1). Los tipos de mensajes SNMP que emite la NMS son tres. Ellos son GetRequest, GetNextRequest y SetRequest. El agente acusa recibo de los tres mensajes en forma de un mensaje GetResponse. Un agente puede emitir un mensaje Trap en respuesta a un incidente que afecte a la MIB y a los recursos subyacentes. El desarrollo del SNMPv2c buscó resolver las limitaciones del SNMPv1. Las mejoras más notables fueron la introducción del tipo de mensaje GetBulkRequest y la adición de contadores de 64 bits a la MIB. El recuperar información mediante GetRequest y GetNextRequest era un método ineficiente para recolectar la información. En el SNMPv1 sólo se podía solicitar una variable a la vez. El tipo de mensaje GetBulkRequest soluciona esta debilidad ya que solicita más información con una sola petición. En segundo lugar, los contadores de 64 bits resolvieron el problema del rápido reinicio de los contadores, especialmente con los enlaces de mayor velocidad como Gigabit Ethernet. A la entidad de administración también se la conoce como el administrador o NMS. Es responsable de solicitar información al agente. Las solicitudes se basan en peticiones muy específicas. El administrador procesa la información recuperada de diversas maneras. Puede llevarse un registro de la información recuperada para su análisis posterior, puede mostrarse mediante un programa de graficación o puede compararse con valores preconfigurados para comprobar si se ha cumplido con alguna condición en particular. No todas las funciones de administración se basan en la recuperación de datos. También está la capacidad de efectuar cambios en un valor en el dispositivo administrado. Esta característica le permite al administrador configurar un dispositivo administrado mediante el SNMP. La interacción entre el administrador y el dispositivo administrado introduce tráfico en la red. Se debe tener cuidado al introducir administradores en la red. Las estrategias agresivas de monitoreo pueden afectar negativamente el rendimiento de la red. La utilización del ancho de banda será mayor y también puede ser un problema en los entornos WAN. El monitoreo tiene además un impacto en el rendimiento de los dispositivos monitoreados, ya que se ocupan de procesar las peticiones del administrador. Este procesamiento no debe tomar precedencia sobre los servicios de producción. La regla general es que se debe solicitar la mínima cantidad de información con la menor frecuencia posible. Se debe determinar cuáles son los dispositivos y enlaces más críticos y que tipo de información se requiere. El SNMP utiliza el protocolo de datagrama de usuario (UDP) como protocolo de transporte. Como el UDP no está orientado a conexiones y no es confiable, es posible que se pierdan mensajes a nivel del SNMP. El SNMP en sí mismo no cuenta con mecanismos que garanticen la entrega de los mensajes, de modo que la aplicación que utiliza SNMP está a cargo de resolver las pérdidas de mensajes. Cada mensaje SNMP contiene una cadena de texto no cifrado denominada cadena de comunidad. La cadena de comunidad se utiliza como una contraseña para restringir el acceso a los dispositivos administrados. El SNMPv3 busca resolver los problemas de seguridad que surgen de la transmisión de la cadena de comunidad en texto no cifrado. Una muestra de cómo es la apariencia de un mensaje SNMPv2c se puede ver en la Figura . Una presentación detallada del protocolo se encuentra en el estándar RFC1905 de la Internet. El hecho de que la cadena de comunidad no esté cifrada no será sorpresa para alguien que haya estudiado el conjunto de protocolos IP. Todos los campos especificados en dicho conjunto de protocolos usan texto sin cifrar, excepto en lo relativo a las especificaciones de cifrado y la autenticación de seguridad. La cadena de comunidad creó una previsión en el estándar hasta que el grupo de trabajo de SNMPv2 pudo ratificar los mecanismos de seguridad. Se encargó ese desarrollo al grupo de trabajo del SNMPv3. Todas las aplicaciones de administración basadas en el SNMP necesitan configurarse para utilizar las cadenas de comunidad apropiadas. Es frecuente que algunas organizaciones cambien los valores de la cadena de comunidad para reducir el riesgo de actividades malintencionadas que hacen uso no autorizado del servicio SNMP. A pesar de la debilidad asociada con la autenticación a nivel de comunidad, las estrategias de administración aun se basan en el SNMPv1. Los dispositivos Cisco soportan los tipos de mensaje del SNMPv3 y sus capacidades aumentadas de seguridad, pero la mayoría de las aplicaciones administrativas del software no soportan el SNMPv3.

Page 321: Semestre1 Ccna

El SNMPv3 permite la convivencia de múltiples modelos de seguridad. 6.2.7 Configuración del SNMP Para que la NMS se comunique con los dispositivos de red, éstos deben habilitar el SNMP y configurar sus cadenas de comunidad. Estos dispositivos se configuran mediante los comandos que se describen en los párrafos a continuación. Permite más de una cadena de sólo-lectura. En la mayoría de los sistemas dicha cadena de comunidad es pública por defecto. No se recomienda utilizar el valor por defecto en redes corporativas. Para establecer la cadena de comunidad de sólo-lectura que utilizará el agente, utilice el siguiente comando: Router(config)#snmp-server community string ro * String : la cadena de comunidad que actúa como contraseña y le da acceso al protocolo SNMP. * ro: (Opcional) especifica el acceso en modo sólo-lectura. Las estaciones de administración autorizadas sólo pueden recuperar objetos MIB. Soporta más de una cadena de lectura-escritura. Todos los objetos SNMP permiten el acceso a la escritura. En la mayoría de los sistemas esta cadena de comunidad es privada por defecto. No se recomienda utilizar el valor por defecto en redes corporativas. Para establecer la cadena de comunidad de lectura-escritura que utilizará el agente, utilice el siguiente comando: Router(config)#snmp-server community string rw * rw: (Opcional) Especifica el acceso de lectura-escritura. Las estaciones de administración autorizadas pueden tanto recuperar como modificar los objetos MIB. Existen diversas cadenas que pueden ser utilizadas para especificar la ubicación de un dispositivo administrado y el contacto principal en relación a dicho dispositivo. Router(config)#snmp-server locationtext Router(config)#snmp-server contact text * location text : Cadena que indica la información acerca de la ubicación del dispositivo en el sistema. * contact text : Cadena que indica la información acerca del contacto principal en relación a dicho dispositivo. Estos valores se guardan en los objetos MIB sysLocation y sysContact. 6.2.8 RMON El RMON es un gran paso hacia la administración de redes interconectadas. Define una MIB de monitoreo remoto la cual complementa a la MIB-II y provee información vital sobre la red al administrador de redes. La característica más notable del RMON es que a pesar de que es sólo una sencilla especificación de una MIB, sin cambios en el protocolo SNMP subyacente, brinda una importante expansión en la funcionalidad del SNMP. Con la MIB-II, el administrador de la red puede obtener información que es exclusivamente particular de los dispositivos individuales. Suponga una LAN con un número de dispositivos conectados, cada uno con un agente SNMP. Un administrador SNMP puede conocer la cantidad de tráfico que entra y sale de cada dispositivo, pero con la MIB-II no puede conocer fácilmente la información acerca del tráfico global de la LAN. La administración de redes en entornos de redes interconectadas requiere por lo general de un monitor por cada subred. El estándar RMON se designaba originalmente como IETF RFC 1271, hoy conocido como la RFC 1757, y se diseñó para proporcionar el monitoreo y diagnóstico proactivo de redes distribuidas. Los dispositivos de monitoreo, llamados agentes o sondas, en segmentos críticos de la red permiten la creación de alarmas definidas por el usuario y la recolección de gran cantidad de estadísticas vitales mediante el análisis de cada trama en un segmento. El estándar RMON divide las funciones de monitoreo en nueve grupos para soportar las topologías de Ethernet y agrega un décimo grupo en la RFC 1513 para los parámetros que son exclusivos de Token Ring. El estándar RMON se creó para ser implementada según una arquitectura de computación distribuida, donde los agentes y las sondas se comunican con una estación central de administración, un cliente, por medio del SNMP. Estos agentes han definido estructuras MIB para los nueve o diez grupos RMON Token Ring y Ethernet, lo que permite la interoperabilidad entre los diversos proveedores de herramientas de diagnóstico basadas en RMON. Los grupos RMON se definen como: * Grupo de estadísticas: lleva las estadísticas de errores y de utilización para la subred o segmento que se monitorea. Unos ejemplos son la utilización de ancho de banda, broadcast, multicast, alineación de CRC, fragmentos entre otros.

Page 322: Semestre1 Ccna

* Grupo de historial: conserva muestras estadísticas periódicas del grupo de estadística y las almacena para su posterior recuperación. Unos ejemplos son la utilización, el recuento de errores y el recuento de paquetes. * Grupo de alarma: permite que el administrador establezca un intervalo y umbral de muestreo para cualquier elemento que registre el agente. Unos ejemplos son los valores absolutos o relativos y umbrales ascendentes y descendentes. * Grupo de hosts: define la medición de los distintos tipos de tráfico desde y hacia los hosts conectados a la red. Unos ejemplos son paquetes enviados o recibidos, bytes enviados o recibidos, errores y paquetes de multicast y broadcast. * Grupo Host TopN: proporciona un informe de los hosts TopN que se basa en las estadísticas del grupo host. * Grupo de matriz de tráfico: almacena los errores y las estadísticas de utilización para pares de nodos que se comunican en la red. Unos ejemplos son errores, bytes y paquetes. * Grupo de filtro: un software de filtro el cual genera una corriente de paquetes a partir de las tramas que coinciden con el patrón especificado por el usuario. * Grupo de captura de paquetes: define cómo los paquetes que coinciden con los criterios del filtro se guardan internamente en la memoria buffer. * Grupo de incidentes: permite que se lleve un registro de los incidentes, también llamado generación de traps, junto con la fecha y hora en la cual se produjeron. Unos ejemplos son los informes confeccionados según el tipo de alarma. 6.2.9 Syslog El programa de registro syslog de Cisco se basa en el programa syslog de UNIX. En general, los sucesos del sistema se registran en la consola del sistema a menos que no esté activa. El programa syslog es un mecanismo para las aplicaciones, procesos y el sistema operativo de los dispositivos de Cisco el cual permite informar acerca de condiciones de error y de actividad. El protocolo syslog se utiliza para que los dispositivos Cisco puedan enviar mensajes no solicitados a una estación de administración de la red. Cada mensaje de syslog registrado está asociado a una marca horaria, un equipo, una severidad y un mensaje textual de registro. Estos mensajes son a veces el único medio para diagnosticar las fallas de un dispositivo. El nivel de severidad indica la importancia del mensaje de error. Existen ocho niveles de severidad, entre el 0 y el 7. El nivel 0 (cero) es el más crítico y el nivel 7 es el menos crítico. Los niveles son los siguientes: 0 Emergencias 1 Alertas 2 Crítico 3 Errores 4 Advertencias 5 Notificaciones 6 Informativo 7 Depuración Los campos de equipo y nivel de severidad se utilizan para procesar los mensajes. Los niveles 0 (cero) a 7 identifican tipos de equipos a efectos del procesamiento particular de los mensajes de registro. El IOS de Cisco establece por defecto el nivel de severidad 6. Este ajuste es configurable. Para que la NMS pueda recibir y hacer el registro de los mensajes del sistema provenientes de un dispositivo, este último debe tener configurado el syslog. A continuación se da una breve descripción de los comandos que se usan para configurar estos dispositivos: Para permitir el registro a todos los destinos soportados: Router(config)#logging on Para enviar mensajes de registro a un host de un servidor syslog, como por ejemplo CiscoWorks2000:

Page 323: Semestre1 Ccna

Router(config)#logginghostname | ip address Para establecer el nivel de severidad del registro en el nivel 6, Informativo: Router(config)#logging trap informational Para incluir una marca horaria con el mensaje de syslog: Router(config)#service timestamps log datetime Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: * Funciones de una estación de trabajo y de un servidor. * El papel de los diversos equipos en un entorno cliente/servidor. * El desarrollo de los Sistemas operativos para networking (NOS). * Generalidades sobre las distintas plataformas Windows. * Generalidades sobre algunas de las alternativas a los sistemas operativos Windows. * Razones para la administración de redes. * Las capas del modelo de administración de redes y el modelo OSI. * Tipos y aplicación de las herramientas de administración de redes. * El papel que el SNMP y el CMIP desempeñan en el monitoreo de las redes. * Cómo el software de administración recopila información y lleva un registro de los problemas. * Cómo recopilar informes acerca del desempeño de la red.