40505298 Monografia TERMINADA
-
Upload
jordy-earlo-baltazar-malpartida -
Category
Documents
-
view
218 -
download
0
description
Transcript of 40505298 Monografia TERMINADA
UNIVERSIDAD TECNOLÒGICA DE PANAMÁ
FACULTAD DE INGENIERÍA DE SISTEMAS COMPUTACIONALES
MAESTRÍA EN CIENCIAS COMPUTACIONALES
REDES DE ÁREA LOCAL
VIRTUALIZACIÓN EN REDES DE ÁREA LOCAL
Por:
JUAN V. FERNÁNDEZ A.
Prof.: Lydia de Toppin
PANAMA, MAYO 2010
Resumen De la Monografía presentada a consideración para el curso de Metodología para el Desarrollo de Software del Programa de Maestría en Ciencias Computacionales.
VIRTUALIZACIÓN EN REDES DE
ÁREA LOCAL
JUAN FERNÁNDEZ
Prof.: Lydia de Toppin
Resumen
La virtualización ha estado presente desde hace tiempo, pero la tecnología sigue
evolucionando. De hecho, la palabra en sí tiene significados distintos para diferentes
personas. No obstante, en términos generales, la virtualización hace referencia a la
abstracción de una capa de la pila de tecnología de la siguiente capa, como, por ejemplo,
el almacenamiento de los servidores o el sistema operativo de las aplicaciones. La
abstracción de las diferentes capas, a su vez, permite la consolidación y una mejor
capacidad de administración.
Como concepto, la virtualización se aplica al almacenamiento, las redes, los servidores,
las aplicaciones y el acceso. En relación con el almacenamiento y las redes, el objetivo
de la virtualización es agregar un conjunto de distintos dispositivos de modo que el
grupo total de recursos parezca y actúe como una sola entidad. Por ejemplo, puede
configurar una solución de almacenamiento de 40 TB en vez de un conjunto de 20
dispositivos de almacenamiento de 2 TB. Pero con otros componentes, la virtualización
actúa en la dirección contraria y le ayuda a que un único sistema aparezca como si
hubiera múltiples sistemas.
CONTENIDO
CAPÍTULO I – INTRODUCCIÓN
1.1 La virtualización y automatización
CAPÍTULO II – REVISIÓN DE LA LITERATURA
2.1 Virtualización de plataforma
2.2 Diferencias entre virtualizar un Sistema operativo e instalarlo
2.3 Ventajas de la Virtualización
2.4 Programas útiles para virtualizar sistemas operativos
2.5 Virtualización por Hardware
2.6 La virtualización de almacenamiento
2.7 Infraestructura Virtual
2.8 Virtualización en sistemas operativos más reconocidos
CAPÍTULO III – DISCUSIÓN DE LA PROPUESTA
3.1 Virtualización de servidores: una propuesta atractiva pero no exenta de
riesgos
3.2 Pueden no conseguirse los esperados ahorros en hardware
CONCLUSIÓN
REFERENCIAS BIBLIOGRÁFICAS
CAPÍTULO I – INTRODUCCIÓN
Recientemente se habla mucho de la virtualización, y gran parte de la discusión
trata específicamente de la virtualización de servidores. Es una de las tendencias más
interesantes en el sector y la que tiene la capacidad, en los próximos años, de cambiar el
paradigma de la implementación de los sistemas de TI. Pero la virtualización de
servidores no sólo cambiará el modo en que los administradores y arquitectos de TI
perciben los servidores y el uso del sistema, sino que también va a afectar a los procesos
y herramientas que se usan para administrar lo que, sin duda, se convertirá en un
entorno cada vez más dinámico.
Esta virtualización de servidores es un concepto utilizado para definir el proceso de
agrupar varios servidores en uno solo, manteniendo cada ambiente individual al mismo
tiempo que se optimiza el uso de recursos tales como procesadores, memoria, redes y
almacenamiento. El propósito es utilizar los recursos ociosos, balancear adecuadamente
las cargas de trabajo en los momentos peak y dar una administración centralizada.
Si revisamos cualquier organización ya sea una gran corporación o una Pyme nos
encontraremos con una cantidad insospechada de servidores, cada uno con servicios
importantes: correo, file server, web server, imágenes, Intranet, aplicaciones. En fin,
recursos complejos, costosos y, peor aún, difíciles de administrar.
1.1 La virtualización y automatización
La virtualización como tal no es la solución completa, la automatización es la clave para
que la virtualización funcione satisfactoriamente en aplicaciones reales, es necesario
hacer un uso intensivo de la automatización, de las herramientas administrativas basadas
en políticas que sirven para implantar y gestionar instancias virtualizadas.
La automatización es la siguiente etapa de la virtualización. De hecho, analistas han
pronosticado que “Dado que la virtualización ha madurado, la siguiente revolución va a
consistir en automatizar la composición y gestión de estos recursos virtualizados”.
La introducción de la automatización inteligente en un datacenter traerá una
significativa mejora en el rendimiento del datacenter. La estandarización y la
automatización permiten una rápida respuesta y capacidad de adaptación manteniendo
los controles de calidad, eficiencia y asegurando retornos de inversión predecible y
consistente.
Mediante la automatización, es posible obtener todavía más ventajas que las que la
virtualización por sí sola aporta:
• Despliegues más rápidos
• Menor tiempo de paradas
• Recuperación ante desastres
• Respuesta dinámica y autoajustable a las cargas de trabajo
Toda la automatización se realiza mediante herramientas de gestión y automatización
centralizada, con las que le resultará más sencillo aprovechar todos los recursos
disponibles, le permitirá ejecutar en todo momento sus cargas de trabajo en la
plataforma más adecuada. Hoy en día existes múltiples herramientas disponibles para
trabajar directamente en ambientes virtualizados, mediante monitoreo de status de
equipos, balanceo automático de data, monitoreo de red, gestionadores de procesos, etc.
CAPÍTULO II – REVISIÓN DE LA LITERATURA
Figura 1. Ambiente completamente virtualizado
En informática, virtualización se refiere a la abstracción de los recursos de una
computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una
capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo
de la máquina virtual (virtual machine, guest), siendo un medio para crear una versión
virtual de un dispositivo o recurso, como un servidor, un dispositivo de
almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en
uno o más entornos de ejecución.
Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales
de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir
dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el
computador central. De modo que nos permite tener varios ordenadores virtuales
ejecutándose sobre el mismo ordenador físico.
1
Tal término es antiguo; se viene usando desde 1960, y ha sido aplicado a diferentes
aspectos y ámbitos de la informática, desde sistemas computacionales completos, hasta
capacidades o componentes individuales. Lo más importante en este tema de
virtualización es la de ocultar detalles técnicos a través de la encapsulación.
La virtualización se encarga de crear un interfaz externo que esconde una
implementación subyacente mediante la combinación de recursos en locaciones físicas
diferentes, o por medio de la simplificación del sistema de control. Un avanzado
desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se
vuelva a prestar atención a este importante concepto. De modo similar al uso de
términos como “abstracción” y “orientación a objetos”, virtualización es usado en
muchos contextos diferentes.
Este concepto que es realmente interesante y que se lleva desarrollando desde hace
muchos años, parece que finalmente está encontrando sus caminos productivos y de
desarrollo para profesionales.
La máquina virtual en general es un sistema operativo completo que corre como si
estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas
máquinas virtuales son simuladas en un computador central. Para que el sistema
operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre
dependiendo del tipo de virtualización).
2
2.1 Virtualización de plataforma
Esta involucra la simulación de máquinas virtuales. La virtualización de plataforma se
lleva a cabo en una plataforma de hardware mediante un software "host" (“anfitrión”),
que es un programa de control que simula un entorno computacional (máquina virtual)
para su software "guest" ("invitado"). Este software que generalmente es un sistema
operativo completo, se ejecuta como si estuviera instalado en una plataforma de
hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en una
máquina física dada. Para que el sistema operativo funcione, la simulación debe ser lo
suficientemente grande como para soportar todas las interfaces externas de los sistemas
invitados, las cuales se pueden incluir (todo esto dependiendo del tipo de virtualización)
los drivers de hardware.
Ejemplos
VMware Workstation
VMware Server
VirtualBox
Parallels Desktop
Virtual Iron
Adeos
Mac-on-Linux
Win4BSD
Win4Lin Pro
y z/VM
openvz
Oracle VM
XenServer
Microsoft Virtual PC 2007
Hyper-V
3
Virtualización parcial
“Address Space Virtualization”. La máquina virtual simula múltiples instancias de gran
parte (pero no de todo) del entorno subyacente del hardware, particularmente espacio de
direcciones. Tal entorno acepta compartir recursos y alojar procesos, pero no permite
instancias separadas de sistemas operativos “guest”. Aunque no es vista como dentro de
la categoría de máquina virtual, históricamente éste fue un importante acercamiento, y
lo usaron en sistemas como CTSS, el experimental IBM M44/44X, y podría
mencionarse que en sistemas como OS/VS1, OS/VS2 y MVS.
2.2 Diferencias entre virtualizar un Sistema operativo e instalarlo
Virtualizar el sistema operativo es una opción interesante si no queremos instalar dos
sistemas operativos en el mismo ordenador, pero si por el contrario lo que hacemos es
instalarlo, todos los sistemas operativos que tengamos instalados funcionaran de la
misma manera que si estuvieran instalados en distintos ordenadores.
El único y pequeño inconveniente es que necesitamos un gestor de arranque que al
encender nuestro ordenador nos de la opción de elegir que sistema operativo queremos
utilizar, lo que conlleva a que si por ejemplo estamos en Windows y queremos cambiar
a Linux deberíamos reiniciar nuestro ordenador. La virtualización por el contrario
permite cambiar de sistema operativo como si se tratase de cualquier otro programa, sin
embargo, esta agilidad tiene la desventaja de que un sistema operativo virtualizado no es
tan potente como uno que ya estuviera instalado.
Retos de la Virtualización
Índices de utilización más altos antes que la virtualización, los índices de
utilización del servidor y almacenamiento en los centros de datos de la empresa
típicamente promediaron menos que el 50% (de hecho, del 10% al 15% de los
índices de utilización fueron comunes). A través de la virtualización, las cargas
de trabajo pueden ser encapsuladas y transferidas a los sistemas inactivos o sin
uso lo cual significa que los sistemas existentes pueden ser consolidados, así
que las compras de capacidad adicional del servidor pueden ser retrasadas o
evitadas.
4
Consolidación de Recursos — La virtualización permite la consolidación de
múltiples recursos de TI. Más allá de la consolidación de almacenamiento, la
virtualización proporciona una oportunidad para consolidar la arquitectura de
sistemas, infraestructura de aplicación, datos y base de datos, interfaces, redes,
escritorios, e incluso procesos de negocios, resultando en ahorros de costo y
mayor eficiencia.
Uso/costo menor energía — La electricidad requerida para que funcionen los
centros de datos de clase empresarial ya no está disponible en suministros
ilimitados, y el costo está en una espiral ascendente. Por cada dólar gastado en
un servidor hardware, un dólar adicional es gastado en energía (incluyendo el
costo de los servidores en función y los enfriadores). Utilizando virtualización
para consolidar hace posible cortar el consumo total de energía y ahorrar dinero
de una manera significativa.
Ahorros de espacio — La extensión del servidor permanece como un serio
problema en la mayoría de los centros de datos empresariales, pero la expansión
del centro de datos no es siempre una opción, con los costos de construcción
promediando miles de dólares por pie cuadrado. La virtualización puede aliviar
la tensión mediante la consolidación de muchos sistemas virtuales en menos
sistemas físicos.
Recuperación de desastre/continuidad del negocio — La virtualización puede
incrementar la disponibilidad de los índices del nivel de servicio en general y
proporcionar nuevas opciones de soluciones para la recuperación de desastre.
Costos de operación reducidos — La empresa promedio gasta $8 dólares en
mantenimiento por cada $1 dólar invertido en nueva infraestructura. La
virtualización puede cambiar el radio de servicio-a administración reducir la
total carga de trabajo administrativo, y cortar el total de costos de operación.
5
2.3 Ventajas de la Virtualización
Rápida incorporación de nuevos recursos para los servidores virtualizados.
Reducción de los costes de espacio y consumo necesario de forma proporcional
al índice de consolidación logrado (Estimación media 10:1).
Administración global centralizada y simplificada.
Nos permite gestionar nuestro CPD como un pool de recursos o agrupación de
toda la capacidad de procesamiento, memoria, red y almacenamiento disponible
en nuestra infraestructura
Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad para la
creación de entornos de test que permiten poner en marcha nuevas aplicaciones
sin impactar a la producción, agilizando el proceso de las pruebas.
Aislamiento: un fallo general de sistema de una máquina virtual no afecta al
resto de máquinas virtuales.
No sólo aporta el beneficio directo en la reducción del hardware necesario, así
como de sus costos asociados
Reduce los tiempos de parada.
Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un
servidor físico a otro, eliminando la necesidad de paradas planificadas por
mantenimiento de los servidores físicos.
Balanceo dinámico de máquinas virtuales entre los servidores físicos que
componen el pool de recursos, garantizando que cada máquina virtual ejecute en
el servidor físico más adecuado y proporcionando un consumo de recursos
homogéneo y óptimo en toda la infraestructura.
Alto grado de satisfacción general
6
2.4 Programas útiles para virtualizar sistemas operativos
Como todos conocemos existen dos tipos de programas: los que son de pago y los que
no. Dentro de los programas pagos encontramos uno de los más famosos: el VMware,
que es uno de los referentes en el mercado. A pesar de ser pago también existe una
versión más básica que es gratuita, VMware Player, que permite virtualizar a través de
una máquina virtual ya configurada. También existen webs que nos permiten rellenar un
formulario y descargarnos nuestra máquina virtual a nuestro gusto como EasyVMX!
Parallels Virtuozzo Containers, es otro de los programas pagos más famosos, que
permite la virtualización a nivel de sistema operativo o hardware Parallesl Bare Metal.
Típicamente suele emplearse para virtualizar Windows y, en menor medida,
GNU/Linux. Dentro de los programas gratuitos tenemos el Virtual PC de Microsoft, que
es un producto de Windows, compatible con versiones avanzadas de XP y Vista.
Dentro de los programas de código libre están el Xen, OpenVZ y VirtualBox, que
funcionan tanto en Windows como en GNU/Linux y ambos permiten virtualizar los tres
sistemas operativos más famosos.
Tipos de virtualización
La virtualización se puede hacer desde un sistema operativo Windows, ya sea XP, Vista
u otra versión que sea compatible con el programa que utilicemos, en el que
virtualizamos otro sistema operativo como Linux o viceversa, que tengamos instalado
Linux y queramos virtualizar una versión de Windows.
2.5 Virtualización por Hardware
Virtualización asistida por Hardware, son extensiones introducidas en la arquitectura
del procesador x86 y x64 para facilitar las tareas de virtualización al software corriendo
sobre el sistema. Si cuatro son los niveles de privilegio o "anillos" de ejecución en esta
arquitectura, desde el cero o de mayor privilegio, que se destina a las operaciones del
kernel de SO, al tres, con privilegios menores que es el utilizado por los procesos de
usuario, en esta nueva arquitectura se introduce un anillo interior o ring -1 que será el
que un hypervisor o Virtual Machine Monitor usará para aislar todas las capas
superiores de software de las operaciones de virtualización.
7
Como de costumbre, los dos principales fabricantes de procesadores llegan a lo mismo
usando diferentes tecnologías, con similitudes pero incompatibles entre sí. Intel, con su
Intel Virtualization Technology (o Intel-VT), y AMD con su AMD Virtualization (o
AMD-V o también AMD "Pacífica").
Al igual que sucede con las extensiones de 64-bit (EM64T para Intel y AMD64 para
AMD), casi la totalidad de los procesadores de gama media-alta puestos en el mercado
en el último año soportan la virtualización asistida por hardware.
Además de todo esto, no basta con tener un procesador o procesadores compatibles. La
BIOS del equipo debe soportarla, lo que agrega otra variable a la ecuación y nos obliga
a visitar la página de descargas correspondiente del fabricante de nuestro hardware. En
las siguientes figuras aparece la opción en la BIOS para habilitar/deshabilitar la
virtualización.
Procesadores actuales con mejor tecnología de virtualización
Los procesadores AMD Opteron™ de Cuatro Núcleos:
Con Arquitectura de Conexión Directa y Virtualización™ AMD (AMD-V™) impulsan
las soluciones de alto rendimiento, flexibles y seguras para virtualización de servidores
disponibles actualmente.
La Indexación Rápida de Virtualización, una mejora de la tecnología AMD-V presente
en los procesadores AMD Opteron de Cuatro Núcleos, está desarrollada para aumentar
drásticamente el desempeño de las aplicaciones virtualizadas, permitiendo también una
8
Alternancia más rápida entre las máquinas virtuales para que puedas alojar más
máquinas por servidor, maximizando los beneficios de la virtualización.
La Arquitectura de Conexión Directa de AMD incluye un controlador de memoria en la
pastilla para una administración óptima de la memoria un factor clave para el aumento
del desempeño, al tiempo que la tecnología HyperTransport™ aumenta la escalabilidad
de la plataforma y la tasa de transferencia.
Arquitectura de Conexión Directa:
La Arquitectura de Conexión Directa de AMD ofrece conexiones directas del
procesador a la memoria, del procesador al dispositivo de E/S y del procesador a otro
procesador, agilizando la virtualización del servidor. Los procesadores de cuatro
núcleos de AMD con computación de 64 bits ofrecen más ancho de banda de memoria y
más recursos del procesador para virtualización que cualquier otro procesador para
servidor comparable.
El Controlador de Memoria Integrado está desarrollado para mejorar el desempeño en
ambientes de virtualización con uso intensivo de memoria, alto ancho de banda, baja
latencia y acceso escalable a la memoria.
9
Indexación Rápida de Virtualización: mejor desempeño en ambientes
virtualizados
La Indexación Rápida de Virtualización permite que las máquinas virtuales administren
más directamente la memoria para mejorar el rendimiento en muchas aplicaciones
virtualizadas.
Utilizando recursos del propio procesador en vez de software, La Indexación Rápida de
Virtualización puede reducir mucho los ciclos del Hypervisor y la pérdida de
rendimiento asociada comúnmente a la virtualización.
La Indexación Rápida de Virtualización también fue desarrollada para disminuir el
tiempo de alternancia entre una máquina virtual y la otra en un 25%, ofreciendo un
aumento de la capacidad de repuesta
La tecnología HyperTransport optimiza el movimiento de los datos y permite compartir
mejor los recursos entre las máquinas virtuales, proporcionando mayor escalabilidad del
sistema.
Los procesadores Intel Xeon serie 5500:
Constituyen una plataforma física mejor para la virtualización, con exclusivas
funciones asistidas por hardware para mejorar el centro de datos virtual y ayudar a
dominar la proliferación de servidores. El procesador Intel Xeon serie 5500, basado en
la microarquitectura Nehalem de Intel®, denominada con el código “Nehalem”, amplía
las ventajas de la virtualización con innovaciones que potencian el rendimiento, mejoran
las E/S, y permiten combinar servidores de diferentes generaciones en el mismo grupo
de servidores virtualizados, mejorando así la recuperación de fallos de las máquinas
virtuales, el equilibrio de cargas y las capacidades de recuperación ante desastres.
Tecnologías como Intel® Turbo Boost Technology, Intel Hyper-Threading Technology,
puertas de energía integradas e Intel Virtualization Technology (VT), mejoradas por
medio de tablas de páginas extendidas, le permiten al sistema adaptarse a un amplio
espectro de cargas de trabajo.
10
Estas tecnologías están totalmente integradas y probadas y son ampliamente
compatibles con las principales soluciones de software de virtualización. Ofrecen a las
empresas de TI una base probada líder en el sector para optimizar el valor de sus
inversiones en servidores y virtualización.
2.6 La virtualización de almacenamiento
Se refiere al proceso de abstraer el almacenamiento lógico del almacenamiento físico, y
es comúnmente usado en SANs ("Storage Area Network" Red de área de
almacenamiento). Los recursos de almacenamiento físicos son agregados al "storage
pool" (almacén de almacenamiento), del cual es creado el almacenamiento lógico.
Una red SAN se distingue de otros modos de almacenamiento en red por el modo de
acceso a bajo nivel. El tipo de tráfico en una SAN es muy similar al de los discos duros
como ATA,SATA y SCSI. En otros métodos de almacenamiento, (como SMB o NFS),
el servidor solicita un determinado fichero, p.ej."/home/usuario/rocks". En una SAN el
servidor solicita "el bloque 6000 del disco 4". La mayoría de las SAN actuales usan el
protocolo SCSI para acceder a los datos de la SAN, aunque no usen interfaces físicas
SCSI. Este tipo de redes de datos se han utilizado y se utilizan tradicionalmente en
grandes main frames como en IBM, SUN o HP. Aunque recientemente con la
incorporación de Microsoft se ha empezado a utilizar en máquinas con sistemas
operativos Microsoft.
Una SAN es una red de almacenamiento dedicada que proporciona acceso de nivel de
bloque a LUNs. Un LUN, o número de unidad lógica, es un disco virtual proporcionado
11
por la SAN. El administrador del sistema el mismo acceso y los derechos a la LUN
como si fuera un disco directamente conectado a la misma. El administrador puede
particionar y formatear el disco en cualquier medio que él elija.
Dos protocolos de red utilizados en una SAN son Fibre Channel e iSCSI. Una red de
canal de fibra es muy rápida y no está agobiada por el tráfico de la red LAN de la
empresa. Sin embargo, es muy cara. Las tarjetas de canal de fibra óptica cuestan
alrededor de $ 1000.00 USD cada una. También requieren especial conmutadores de
canal de fibra. iSCSI es una nueva tecnología que envía comandos SCSI sobre una red
TCP / IP. Este método no es tan rápido como una red Fibre Channel, pero ahorra costes,
ya que utiliza un hardware de red menos costoso.
A partir de desastres como lo fue el "martes negro" en el año 2001 la gente de TI, han
tomado acciones al respecto, con servicios de cómo recuperarse ante un desastre, cómo
recuperar miles de datos y lograr la continuidad del negocio, una de las opciones es
contar con la Red de área de almacenamiento, sin embargo las compañías se pueden
enfrentar a cientos de ataques, por lo que es necesario contar con un plan en caso de
contingencia; es de vital importancia que el sitio dónde se encuentre la Red de
almacenamiento, se encuentre en un área geográfica distinta a dónde se ubican los
servidores que contienen la información crítica; además se trata de un modelo
centralizado fácil de administrar, puede tener un bajo costo de expansión y
administración, lo que la hace una red fácilmente escalable; fiabilidad, debido a que se
hace más sencillo aplicar ciertas políticas para proteger a la red.
Una SAN se puede considerar una extensión de Direct Attached Storage (DAS). Donde
en DAS hay un enlace punto a punto entre el servidor y su almacenamiento, una SAN
permite a varios servidores acceder a varios dispositivos de almacenamiento en una red
compartida. Tanto en SAN como en DAS, las aplicaciones y programas de usuarios
hacen sus peticiones de datos al sistema de ficheros directamente. La diferencia reside
en la manera en la que dicho sistema de ficheros obtiene los datos requeridos del
almacenamiento. En DAS, el almacenamiento es local al sistema de ficheros, mientras
que en SAN, el almacenamiento es remoto. SAN utiliza diferentes protocolos de acceso
como Fibre Channel y Gigabit Ethernet. En el lado opuesto se encuentra la tecnología
Network-attached storage (NAS), donde las aplicaciones hacen las peticiones de datos a
los sistemas de ficheros de manera remota mediante protocolos CIFS y Network File
System (NFS).
12
Estructura básica de una SAN
Las SAN proveen conectividad de E/S a través de las computadoras host y los
dispositivos de almacenamiento combinando los beneficios de tecnologías Fibre
Channel y de las arquitecturas de redes brindando así una aproximación más robusta,
flexible y sofisticada que supera las limitaciones de DAS empleando la misma interfaz
lógica SCSI para acceder al almacenamiento.
Las SAN se componen de tres capas:
Capa Host. Esta capa consiste principalmente en Servidores, dispositivos ó
componentes (HBA, GBIC, GLM) y software (sistemas operativos).
Capa Fibra. Esta capa la conforman los cables (Fibra óptica) así como los SAN
Hubs y los SAN switches como punto central de conexión para la SAN.
Capa almacenamiento. Esta capa la componen las formaciones de discos (Disk
Arrays, Memoria Caché, RAIDs) y cintas empleados para almacenar datos.
13
SAN vs NAS vs DAS
La red de almacenamiento puede ser de dos tipos:
Red Fibre Channel. La red Fibre Channel es la red física de dispositivos Fibre
Channel que emplea Fibre Channel Switches y Directores y el protocolo Fibre
Channel Protocol (FCP) para transporte (SCSI-3 serial sobre Fibre Channel).
Red IP. Emplea la infraestructura del estándar LAN con hubs y/o switches
Ethernet interconectados. Una SAN IP emplea iSCSI para transporte (SCSI-3
serial sobre IP)
Híbrido SAN-NAS
Aunque la necesidad de almacenamiento es evidente, no siempre está claro cuál es la
solución adecuada en una determinada organización. Elegir la solución correcta puede
ser una decisión con notables implicaciones, aunque no hay una respuesta correcta
única, es necesario centrarse en las necesidades y objetivos finales específicos de cada
usuario u organización. Por ejemplo, en el caso concreto de las empresas, el tamaño de
la compañía es un parámetro a tener en cuenta. Para grandes volúmenes de información,
una solución SAN sería más acertada. En cambio, pequeñas compañías utilizan una
solución NAS. Sin embargo, ambas tecnologías no son excluyentes y pueden convivir
en una misma solución. Como se muestra en el gráfico, hay una serie de resultados
posibles que implican la utilización de tecnologías DAS, NAS y SAN en una misma
solución.
14
Características:
Latencia - Una de las diferencias y principales características de las SAN es que
son construidas para minimizar el tiempo de respuesta del medio de transmisión.
Conectividad - Permite que múltiples servidores sean conectados al mismo
grupo de discos o librerías de cintas, permitiendo que la utilización de los
sistemas de almacenamiento y los respaldos sean óptimos.
Distancia - Las SAN al ser construidas con fibra óptica heredan los beneficios de
ésta, por ejemplo, las SAN pueden tener dispositivos con una separación de
hasta 10 Km sin ruteadores.
Velocidad - El rendimiento de cualquier sistema de computo dependerá de la
velocidad de sus subsistemas, es por ello que las SAN han incrementado su
velocidad de transferencia de información, desde 1 Gigabit, hasta actualmente 2
y 4 Gigabits por segundo.
Disponibilidad - Una de las ventajas de las SAN es que al tener mayor
conectividad, permiten que los servidores y dispositivos de almacenamiento se
conecten más de una vez a la SAN, de esta forma, se pueden tener rutas
redundantes que a su vez incrementaran la tolerancia a fallos.
Seguridad - La seguridad en las SAN ha sido desde el principio un factor
fundamental, desde su creación se notó la posibilidad de que un sistema
accediera a un dispositivo que no le correspondiera o interfiriera con el flujo de
información, es por ello que se ha implementado la tecnología de zonificación,
la cual consiste en que un grupo de elementos se aíslen del resto para evitar estos
problemas, la zonificación puede llevarse a cabo por hardware, software o
ambas, siendo capaz de agrupar por puerto o por WWN (World Wide Name),
una técnica adicional se implementa a nivel del dispositivo de almacenamiento
que es la Presentación, consiste en hacer que una LUN (Logical Unit Number)
sea accesible sólo por una lista predefinida de servidores o nodos (se implementa
con los WWN)
Componentes - Los componentes primarios de una SAN son: switches,
directores, HBAs, Servidores, Ruteadores, Gateways, Matrices de discos y
Librerías de cintas.
15
Topología - Cada topología provee distintas capacidades y beneficios las
topologías de SAN son:
o Cascada (cascade)
o Anillo (ring)
o Malla (meshed)
o Núcleo/borde (core/edge)
ISL (Inter Switch Link, enlace entre conmutadores) - Actualmente las
conexiones entre los switches de SAN se hacen mediante puertos tipo "E" y
pueden agruparse para formar una troncal (trunk) que permita mayor flujo de
información y tolerancia a fallos.
Arquitectura - channel actuales funcionan bajo dos arquitecturas básicas, FC-AL
(Fibre Channel Arbitrated Loop) y Switched Fabric, ambos esquemas pueden
convivir y ampliar las posibilidades de las SAN. La arquitectura FC-AL puede
conectar hasta 127 dispositivos, mientras que switched fabric hasta 16 millones
teóricamente.
Ventajas:
Compartir el almacenamiento simplifica la administración y añade flexibilidad, puesto
que los cables y dispositivos de almacenamiento no necesitan moverse de un servidor a
otro, salvo en el modelo de SAN file system y en los cluster, el almacenamiento SAN
tiene una relación de uno a uno con el servidor. Cada dispositivo (o Logical Unit
Number LUN) de la SAN es "propiedad" de un solo ordenador o servidor. Como
ejemplo contrario, NAS permite a varios servidores compartir el mismo conjunto de
ficheros en la red. Una SAN tiende a maximizar el aprovechamiento del
almacenamiento, puesto que varios servidores pueden utilizar el mismo espacio
reservado para crecimiento.
Las rutas de almacenamiento son muchas, un servidor puede acceder a uno o "n" discos
y un disco puede ser accedido por más de un servidor, lo que hace que aumente el
beneficio o retorno de la inversión, es decir, el ROI (Return On Investment). La Red de
área de almacenamiento tiene la capacidad de respaldar en locaciones físicamente
distantes. Su objetivo es perder el menor tiempo posible o mejor aún, no perder tiempo,
así que tanto el respaldo como la recuperación son en línea. Una de las grandes ventajas
que también tiene es que proporciona alta disponibilidad de los datos.
16
Una ventaja primordial de la SAN es su compatibilidad con los dispositivos SCSI ya
existentes, aprovechando las inversiones ya realizadas y permitiendo el crecimiento a
partir del hardware ya existente. Mediante el empleo de dispositivos modulares como
hubs, switches, bridges y routers, se pueden crear topologías totalmente flexibles y
escalables, asegurando la inversión desde el primer día y, lo que es más importante,
aprovechando dispositivos SCSI de costo considerable como subsistemas RAID SCSI a
SCSI, librerías de cintas o torres de CD-ROM, ya que a través de un bridge Fibre
Channel a SCSI podemos conectarlos directamente a la SAN. Puesto que están en su
propia red, son accesibles por todos los usuarios de manera inmediata.
El rendimiento de la SAN está directamente relacionado con el tipo de red que se
utiliza. En el caso de una red de canal de fibra, el ancho de banda es de
aproximadamente 100 megabytes/segundo (1.000 megabits/segundo) y se puede
extender aumentando la cantidad de conexiones de acceso.
La capacidad de una SAN se puede extender de manera casi ilimitada y puede alcanzar
cientos y hasta miles de terabytes. Una SAN permite compartir datos entre varios
equipos de la red sin afectar el rendimiento porque el tráfico de SAN está totalmente
separado del tráfico de usuario. Son los servidores de aplicaciones que funcionan como
una interfaz entre la red de datos (generalmente un canal de fibra) y la red de usuario
(por lo general Ethernet).
Desventajas:
Por otra parte, una SAN es mucho más costosa que una NAS ya que la primera es una
arquitectura completa que utiliza una tecnología que todavía es muy cara. Normalmente,
cuando una compañía estima el TCO (Coste total de propiedad) con respecto al costo
por byte, el coste se puede justificar con más facilidad.
Protocolos:
Existen tres protocolos básicos usados en una red de área de almacenamiento:
FC-AL
FC-SW
SCSI
FC-AL: Protocolo Fibre Channel Arbitrated Loop, usado en hubs, en la SAN hub este
protocolo es el que se usa por excelencia, el protocolo controla quién puede
comunicarse, sólo uno a la vez.
17
FC-SW: Protocolo Fibre Channel Switched, usado en switches, en este caso varias
comunicaciones pueden ocurrir simultáneamente. El protocolo se encarga de conectar
las comunicaciones entre dispositivos y evitar colisiones.
SCSI: Usado por las aplicaciones, es un protocolo usado para que una aplicación de un
equipo se comunique con el dispositivo de almacenamiento. En la SAN, el SCSI se
encapsula sobre FC-AL o FC-SW. SCSI trabaja diferente en una SAN que dentro de un
servidor, SCSI fue originalmente diseñado para comunicarse dentro de un mismo
servidor con los discos, usando cables de cobre. Dentro de un servidor, los datos SCSI
viajan en paralelo y en la SAN viajan serializados.
Seguridad:
Una parte esencial de la seguridad de las redes de área de almacenamiento es la
ubicación física de todos y cada uno de los componentes de la red. La construcción de
un data center es sólo la mitad del desafío, es el hecho de decidir dónde pondremos los
componentes de la red (tanto Software como Hardware) la otra mitad y la más difícil.
Los componentes críticos de la red, como pueden ser los switches, matrices de
almacenamiento o hosts los cuales deben estar en el mismo data center. Al implementar
seguridad física, sólo los usuarios autorizados pueden tener la capacidad de realizar
cambios tanto físicos como lógicos en la topología, cambios como pueden ser: cambio
de puerto de los cables, acceso a reconfigurar algún equipo, agregar o quitar
dispositivos entre otros.
La planificación también debe tomar en cuenta las cuestiones del medio ambiente como
puede ser la refrigeración, la distribución de energía y los requisitos para la
recuperación de desastres. Al mismo tiempo se debe asegurar que las redes IP que se
utilizan para gestionar los diversos componentes de la SAN son seguros y no son
accesibles para toda la compañía. También tiene sentido cambiar las contraseñas por
defecto que tienen los dispositivos de la red para así prevenir el uso no autorizado.
18
2.7 Infraestructura Virtual
Una infraestructura virtual consiste en el mapping dinámico de recursos físicos en
función de las necesidades de la empresa. Una máquina virtual representa los recursos
físicos de un único ordenador, mientras que una infraestructura virtual representa los
recursos físicos de la totalidad del entorno de TI, aglutinando ordenadores x86, así
como su red y almacenamiento asociados, en un pool unificado de recursos de TI.
Estructuralmente, una infraestructura virtual consta de los siguientes componentes:
Hypervisor de un solo nodo para hacer posible la virtualización de todos los
ordenadores x86.
Un conjunto de servicios de infraestructura de sistemas distribuida basada en la
virtualización, como gestión de recursos, para optimizar los recursos disponibles
entre las máquinas virtuales .
Soluciones de automatización que proporcionen capacidades especiales para
optimizar un proceso de TI concreto, como aprovisionamiento o recuperación
ante desastres. Mediante la separación de la totalidad del entorno de software de
su infraestructura de hardware subyacente, la virtualización hace posible la
reunión de varios servidores, estructuras de almacenamiento y redes en pools
compartidos de recursos que se pueden asignar de forma dinámica, segura y
fiable a las aplicaciones según sea necesario. Este enfoque innovador permite a
las organizaciones crear una infraestructura informática con altos niveles de
utilización, disponibilidad, automatización y flexibilidad utilizando componentes
básicos de servidores económicos y estándar del sector.
Ventajas de la Infraestructura Virtual:
Las soluciones de infraestructura virtual son ideales para entornos de producción en
parte debido a que se ejecutan en servidores y escritorios estándar de la industria y son
compatibles con una amplia gama de sistemas operativos y entornos de aplicación, así
como de infraestructuras de red y almacenamiento. Se han diseñado las soluciones para
que funcionen de manera independiente del hardware y del sistema operativo y poder
brindar a los clientes amplias posibilidades de elección de plataforma. Como resultado,
son soluciones que proporcionan un punto de integración clave para los proveedores de
19
hardware y gestión de infraestructuras de cara a ofrecer un valor único y aplicable por
igual en todos los entornos de aplicación y sistemas operativos.
Las empresas que han adoptado estas soluciones de infraestructura virtual nos han
comunicado unos clarísimos resultados positivos, entre ellos:
Índices de utilización del 60 al 80% para servidores x86 (frente al 5 a 15% en
hardware no virtualizado).
Capacidad para el aprovisionamiento de nuevas aplicaciones en cuestión de
minutos, en lugar de días o semanas.
Mejora en tiempo de recuperación de paradas imprevistas.
Desventajas de la Infraestructura Virtual:
Menor rendimiento, dado que una máquina virtual corre en una capa intermedia
a la del hardware real, siempre tendrá un rendimiento inferior. Si es necesario
virtualizar, elegir bien la solución necesaria en función de rendimiento y por
supuesto costos y escalabilidad.
Teóricamente no se podrá utilizar hardware que no esté soportado por el
hypervisor de virtualización.
Hardware virtual obsoleto. Hasta hoy las máquinas virtuales solo nos ofrecen el
acceso a tecnología antiguas como USB 1.0, Firewire 400, Ethernet 100, pero
por suerte hypervisor sigue evolucionando para estar al día con las últimas
tendencias.
La aceleración de vídeo se ve afectada por el menor rendimiento, pero se han
conseguido que funcione muy bien las últimas versiones de aplicaciones de
20
virtualización de escritorio como VmWare o Parallels ya incluyen soporte para
OpenGL y DirectX.
Aumento de las máquinas virtuales, como una vía para ahorrar compra de hierro,
servidores dedicados reales, y con la idea de mejorar la escalabilidad de los
proyectos, aunque también es necesario más tiempo de administración de
sistemas, gestión de licencia (si tenemos virtualización de pago), posibles
riesgos de seguridad.
A veces se desaprovechan los recursos con la creación de máquinas virtuales que
no son necesarias.
La avería o fallo de un servidor anfitrión de virtualización afecta a todos los
servidores virtuales que aloja, por lo que es importante no solo realizar copias de
seguridad de las máquinas, incluso según lo crítico que sea el proyecto un
clústeres de servidores anfitriones para evitar este posible fallo.
Como cada producto de virtualización usa su propio sistema, no hay
uniformidad o estandarización de formatos, la portabilidad entre plataformas es
realmente complicada. Por eso es importante esa decisión al principio, lo más
normal es utilizar GNU/Linux como base.
La virtualización incide de forma directa en la venta de servidores reales, aunque
los servidores utilizados para virtualizar suelen ser más potentes y por supuesto
más caros.
El sistema operativo anfitrión se vuelve crítico, por lo que la seguridad de este es
vital, así como evitar reinicios innecesarios que hacen todas las máquinas
virtuales que alojan puedan quedar fuera de servicio. El reiniciar ya no es la
solución, como quizás muchas veces lo es.
21
2.8 Virtualización en sistemas operativos más reconocidos
Virtualización en Microsoft WindowsIntroducción a Hyper-V en Windows Server 2008
Microsoft ha abordado la virtualización en diferentes niveles, que van desde el
escritorio hasta el centro de datos con soluciones para la virtualización de servidores,
virtualización de aplicaciones, virtualización de presentaciones y virtualización de
escritorios. El denominador común de todos ellos es la administración con Microsoft
System Center. El componente de virtualización de servidores y, específicamente, en el
modo en que Hyper-V, una característica clave de Windows Server 2008, encaja en la
ecuación de un centro de datos dinámico.
Hyper-V es una tecnología de virtualización avanzada basada en hypervisor de 64 bits
que ofrece capacidades de plataforma confiables y escalables. Junto con System Center,
proporciona un único conjunto de herramientas de administración integradas para los
recursos físicos y virtuales.
Todo esto sirve para reducir costos, mejorar el uso, optimizar la infraestructura y
permitir que las empresas aprovisionen rápidamente nuevos servidores.
Tipos de soluciones de virtualización:
Esencialmente existen tres arquitecturas generales que se usan para la virtualización de
servidores, tal y como se muestra en la figura abajo expuesta. Las diferencias
fundamentales tienen que ver con la relación entre la capa de virtualización y el
hardware físico. La capa de virtualización es la capa de software denominada monitor
de máquina virtual (VMM, que no se debe confundir con Virtual Machine Manager).
Esta es la capa que proporciona la capacidad de crear varias instancias aisladas que
comparten los mismos recursos de hardware subyacentes.
22
La arquitectura VMM de tipo 2 se ejemplifica mediante máquinas virtuales Java. Aquí,
el objetivo de virtualización es crear un entorno de tiempo de ejecución en el que el
proceso puede ejecutar un conjunto de instrucciones sin basarse en el sistema host. En
este caso, el aislamiento es para los distintos procesos y permite que una sola aplicación
se ejecute en varios sistemas operativos sin tener que preocuparse de las dependencias
de sistema operativo. La virtualización de servidores no se incluye en esta categoría.
El VMM de tipo 1 y los VMM híbridos son dos tipos de planteamientos que
probablemente tengan una mayor difusión en la actualidad. El VMM híbrido constituye
una etapa en la que el VMM se ejecuta junto al sistema operativo host y ayuda a crear
máquinas virtuales en él. Algunos ejemplos de VMM híbrido son Microsoft Virtual
Server, Microsoft Virtual PC, VMware Workstation y VMware Player. Debe tener en
cuenta que estos tipos de soluciones son excelentes para un escenario de cliente donde
sólo se ejecutan máquinas virtuales una parte del tiempo, ya que los VMM agregan una
sobrecarga considerable y, por lo tanto, no resultan adecuados para cargas de trabajo
que realicen un uso intensivo de los recursos.
En una arquitectura VMM de tipo 1, la capa de VMM se ejecuta directamente sobre el
hardware. Se suele denominar capa de hypervisor. Esta arquitectura la diseñó IBM
originalmente en la década de 1960 para los grandes sistemas (mainframe) y
recientemente se ha hecho disponible en las plataformas x86/x64 con una amplia
variedad de soluciones, incluido Windows Server 2008 Hyper-V.
Existen soluciones en las que el hypervisor es una parte incrustada del firmware. No
obstante, se trata simplemente de una opción de empaquetado y no cambia realmente la
tecnología subyacente.
En lo que respecta a los VMM de tipo 1, existen principalmente dos modos principales
de diseñar las soluciones de hypervisor: con microkernel y monolítico. Ambos de estos
enfoques, tal y como se muestra en la figura de abajo, son auténticos VMM de tipo 1 en
los que el hypervisor se instala directamente en el hardware físico.
23
El enfoque de hypervisor monolítico hospeda el hypervisor/VMM en una sola capa que
también incluye la mayor parte de los componentes requeridos, como el kernel, los
controladores de dispositivo y la pila de E/S. Se trata del enfoque que usan soluciones
como VMware ESX y los grandes sistemas (mainframe) tradicionales.
El enfoque con microkernel usa un hypervisor muy ligero y especializado que sólo lleva
a cabo las tareas principales para garantizar el aislamiento de particiones y la
administración de la memoria. Esta capa no incluye la pila de E/S ni los controladores
de dispositivo. Es el enfoque que usa Hyper-V. En esta arquitectura, la pila de
virtualización y los controladores de dispositivo específicos del hardware se encuentran
en una partición especializada que se denomina la partición principal.
Hypervisor de Windows:
La separación sólida entre los múltiples sistemas operativos se garantiza con la creación
de procesadores virtuales, memoria, temporizadores y controladores de interrupciones.
Los sistemas operativos usan estos recursos virtuales del mismo modo que usarían sus
homólogos físicos.
El hypervisor de Windows, parte de Hyper-V, realiza las siguientes tareas:
Crea particiones lógicas.
Administra la programación de memoria y procesador para los sistemas operativos
invitados.
Proporciona mecanismos para virtualizar la entrada/salida y establecer comunicación
entre las particiones.
Aplica las reglas de acceso a la memoria.
Aplica la directiva de uso de la CPU.
Expone una interfaz de programación sencilla denominada hiperllamadas.
Debido a que usa el enfoque con microkernel, el hypervisor de Windows es bastante
pequeño, con un tamaño de menos de 1 MB. Este espacio mínimo contribuye a mejorar
la seguridad general del sistema.
Uno de los requisitos para ejecutar Hyper-V es disponer de un sistema x64 que tenga
tecnologías Intel VT o AMD-V. La tecnología x64 permite el acceso a un espacio de
direcciones mayor y compatibilidad con sistemas con más memoria, con lo que se
pueden ejecutar más máquinas virtuales en un solo sistema host. Intel VT y AMD-V son
las soluciones de virtualización asistida por hardware que proporcionan una capa con
24
grandes privilegios en la arquitectura de anillo que ayuda a mantener el entorno de
ejecución del hypervisor separado del resto del sistema. También permiten que Hyper-V
ejecute un sistema operativo no modificado sin que suponga una penalización
importante en el rendimiento de emulación.
Partición principal:
Hyper-V consta de una partición principal, que es esencialmente una máquina virtual
que tiene un acceso especial o privilegiado. Es la única máquina virtual con acceso
directo a los recursos de hardware. Todas las demás máquinas virtuales, que se
denominan particiones invitadas, pasan por la partición principal para obtener acceso a
sus dispositivitos.
La existencia de la partición principal es bastante transparente. Cuando se comienza a
instalar Hyper-V, lo primero que debe hacer es instalar Windows Server 2008 x64
Edition en el sistema físico. A continuación, se debe ir a Administrador de servidores,
habilitar la función de Hyper-V y reiniciar el sistema. Una vez reiniciado el sistema,
primero se carga el hypervisor de Windows y, después, el resto de la pila se convierte en
la partición principal.
La partición principal es la propietaria del teclado, el mouse, la pantalla de vídeo y otros
dispositivos conectados al servidor host. No tiene control directo sobre los
temporizadores y los controladores de interrupciones que usa el hypervisor.
La partición principal contiene un proveedor de Instrumental de administración de
Windows (WMI) para facilitar la administración de todos los aspectos del entorno
virtualizado, así como una pila de virtualización que lleva a cabo las tareas relacionadas
con el hardware en nombre de las particiones secundarias. Además, los controladores de
fabricante de hardware independiente (IHV) que necesita el hardware del sistema host
se incluyen en la partición principal y los controladores creados para las ediciones de
Windows Server 2008 x64 también funcionan en la partición principal.
Arquitectura de uso compartido de dispositivos:
Uno de los componentes de arquitectura innovadores en Hyper-V es la nueva
arquitectura de uso compartido de dispositivos que admite los dispositivos emulados y
sintéticos en cada sistema operativo invitado. La emulación de dispositivos resulta
bastante útil para la compatibilidad de sistemas operativos anteriores en controladores
de dispositivo diseñados para generaciones de hardware antiguas. Por ejemplo, Hyper-V
25
incluye una emulación del adaptador de red Intel 21140, que se denominó adaptador de
red DEC 21140 cuando se distribuían numerosos sistemas operativos antiguos.
Por lo general, la emulación de dispositivos es lenta, no se puede ampliar fácilmente y
no se escala bien. Pero la emulación sigue siendo importante porque permite ejecutar la
mayoría de los sistemas operativos x86 en Hyper-V. Debido a que la virtualización
ahora está pasando de una tecnología nicho principalmente para pruebas y desarrollo a
una tecnología esencial para entornos de producción, los usuarios requieren un mejor
rendimiento para ejecutar mayores cargas de trabajo. Los dispositivos emulados ya no
cumplen estas demandas cada vez más exigentes.
Una solución alternativa a esto es usar dispositivos sintéticos de Hyper-V. Los
dispositivos sintéticos son dispositivos virtuales que se asignan directamente a
dispositivos físicos. A diferencia de los dispositivos emulados, los sintéticos no emulan
el hardware heredado. Con el modelo de uso compartido de hardware de Hyper-V, los
sistemas operativos invitados compatibles pueden interactuar directamente con los
dispositivos sintéticos que tal vez no tengan equivalentes físicos. Estos sistemas
operativos usan clientes de servicio virtuales (VSC), que actúan como controladores de
dispositivo dentro del sistema operativo invitado.
En vez de obtener acceso al hardware físico directamente, los VSC usan VMBus, que es
un bus de alta velocidad en memoria, para tener acceso a los proveedores de servicios
virtuales (VSP) en la partición principal. A continuación, los VSP administran el acceso
al hardware físico subyacente, tal y como se ilustra en la figura de abajo. Una ventaja
clave de los dispositivos sintéticos es que el rendimiento de dichos dispositivos sobre
VMBus se aproxima al de los dispositivos de hardware no virtualizados.
26
Componentes de integración:
Hyper-V se ha diseñado para proporcionar límites sólidos entre las distintas instancias
que se ejecutan en un equipo. Para habilitar la interacción entre los sistemas operativos
invitado y host, y para suministrar funcionalidad adicional a los sistemas operativos
invitados compatibles, Hyper-V proporciona componentes de integración.
Las componentes de integración de Hyper-V admiten las siguientes características:
Sincronización de hora
Servicio de instantáneas de volumen (VSS)
Funcionalidad Latido
Apagado de invitado
Intercambio de pares de clave y-valor (se usa para el acceso al Registro de un sistema
operativo invitado)
Identificación de sistema operativo
Conjunto de características de Hyper-V:
Cuanto más se aproxima la plataforma de virtualización a la forma de actuar de un
servidor físico, más fácil resulta para las organizaciones implementar y confiar en las
cargas de trabajo virtuales.
En la actualidad, la mayoría de las soluciones de virtualización basadas en hypervisor se
parecen mucho en cuanto a características y funcionalidad. A medida que se avanza,
cuestiones como el costo total de propiedad (TCO) y la facilidad de uso serán los
diferenciadores clave. Se realizarán inversiones continuas en las soluciones de
administración y el desarrollo nos acercará a la visión de un entorno de TI dinámico,
donde la infraestructura es lo suficientemente flexible como para adaptarse a las
necesidades de la empresa, y los modelos y directivas ayudarán a impulsar una mayor
automatización y administración.
Escalabilidad:
Gracias a la arquitectura de hypervisor con microkernel, Hyper-V tiene muy poca
sobrecarga de CPU, lo que deja mucho espacio para virtualizar las cargas de trabajo. Al
permitir que las máquinas virtuales hagan uso de características y hardware eficaces,
como la tecnología de multinúcleo, el acceso a disco mejorado y más memoria, Hyper-
V mejora la escalabilidad y el rendimiento de la plataforma de virtualización.
27
Combinado con el resto de las capacidades de Windows Server 2008, Hyper-V permite
consolidar la mayoría de las cargas de trabajo (incluidas las de 32 y 64 bits) en un solo
sistema. Y puede ayudar a equilibrar la adopción de tecnología de 64 bits con
compatibilidad continua con las cargas de trabajo de 32 bits que ya se usan en el
entorno.
El hecho de que Hyper-V requiera un sistema host de 64 bits con virtualización asistida
por hardware contribuye a garantizar que el sistema host podrá obtener acceso a un
grupo grande de recursos de memoria. Hyper-V puede admitir hasta 1 TB de memoria
en el host, con hasta 64 GB de memoria por máquina virtual. Esto resulta clave para
quien planifique virtualizar cargas de trabajo que hacen un uso intensivo de la memoria,
como Exchange Server y SQL Server.
Hyper-V también admite hasta 16 procesadores lógicos en el sistema host, lo que
convierte a Hyper-V en escalable para la mayoría de los sistemas de dos y cuatro
zócalos comerciales con varios núcleos. También puede crear una máquina virtual con
un máximo de cuatro procesadores virtuales con el fin de admitir cargas de trabajo que
requieran o aprovechen las ventajas de un multiprocesador.
La consolidación de servidores mediante Hyper-V también permite a dichos servidores
utilizar la sólida compatibilidad de funciones de red, incluido VLAN, Traducción de
direcciones de red (NAT) y las directivas (cuarentena) de Protección de acceso a redes
(NAP). Y como una característica de Windows Server 2008, Hyper-V funciona bien con
otras características de Windows Server, como BitLocker y Windows PowerShell.
Alta disponibilidad:
La alta disponibilidad es un escenario donde Hyper-V y las capacidades de agrupación
en clúster del host colaboran para atender las necesidades de continuidad de negocio y
la recuperación ante desastres. La continuidad de negocio es la capacidad de minimizar
el tiempo de inactividad programado y el no programado. Esto incluye el tiempo que se
pierde con las funciones rutinarias tales como el mantenimiento o la copia de seguridad,
así como las interrupciones imprevistas.
La recuperación ante desastres es un componente clave de la continuidad de negocio.
Los desastres naturales, los ataques malintencionados e incluso los problemas sencillos
de configuración, como los conflictos de software, pueden paralizar los servicios y las
aplicaciones hasta que los administradores resuelven el problema y restauran los datos.
28
Una estrategia confiable de negocio y de recuperación ante desastres debe ofrece una
mínima pérdida de datos y capacidades de administración remota eficaces.
En lo que respecta a la alta disponibilidad, debe considerar tres categorías distintas:
tiempo de inactividad planificado, tiempo de inactividad no planificado y copias de
seguridad. La protección para el tiempo de inactividad no planificado normalmente es
necesaria para quitar las máquinas virtuales del sistema host para poder realizar tareas
de mantenimiento de hardware o aplicar revisiones al sistema host o la plataforma de
virtualización (que puede requerir que se reinicie).
La mayoría de las organizaciones tienen intervalos de mantenimiento planificado y lo
que se busca realmente es minimizar o eliminar el período de tiempo en el que las
máquinas virtuales no estarán disponibles mientras el sistema está inactivo durante el
mantenimiento. Con la característica Migración rápida se puede migrar rápidamente una
máquina virtual en ejecución desde un nodo físico a otro en cuestión de segundos. De
este modo puede mantener la disponibilidad de las máquinas virtuales para el entorno de
producción mientras lleva a cabo el mantenimiento en el host original. Una vez
terminado el mantenimiento, puede usar Migración rápida para devolver las máquinas
virtuales a su sistema host original.
El tiempo de inactividad no planificado es el que no se ha previsto. Puede ser de
naturaleza catastrófica o tan simple como que un usuario desenchufe accidentalmente
un cable de alimentación y apague un servidor.
Con Hyper-V, puede configurar un clúster de hosts para los distintos sistemas host y
configurar todas las máquinas virtuales como recursos de clúster que pueden realizar la
conmutación por error en otro sistema en el caso de que se produzca un error en uno de
los hosts. Mientras tanto, la capacidad de agrupación en clúster multisitio de Windows
Server 2008 permitirá configurar un clúster disperso geográficamente de modo que, si
se produce un error en el centro de datos principal, se tenga la capacidad de recuperar
las distintas máquinas virtuales en un centro de datos remoto.
Esto también resulta útil para proteger todas las sucursales. Una de las ventajas de
administrar el tiempo de inactividad no planificado con Hyper-V es que es
independiente del sistema operativo invitado, lo que significa que puede ampliar sus
ventajas de alta disponibilidad a máquinas virtuales Linux y a versiones anteriores de
Windows Server para proteger y recuperar estos sistemas de forma similar.
29
Capacidad de administración:
Es fácil pasar de un ligero problema de dispersión de servidores a una dispersión de
servidores masiva. Es el riesgo que conlleva la facilidad de implementación de las
máquinas virtuales. Y con la mayor movilidad de las máquinas virtuales, debe saber
exactamente dónde se ejecutan las distintas máquinas virtuales, mantener un
seguimiento de sus contextos de seguridad, etc.
Afortunadamente, con Hyper-V no tiene que crear una infraestructura de administración
independiente para su entorno virtual. Se integra con las herramientas de administración
de Microsoft, System Center Virtual Machine Manager y Microsoft System Center
Operations Manager, así como con herramientas de administración de terceros. Esto
permite administrar todos los recursos físicos y virtuales desde una consola.
Virtualización en GNU/Linux
Hay instrucciones de modo protegido que impiden ejecutar dos sistemas operativos
simultáneamente, pero mediante software se pueden suplir (con bastante complejidad)
las carencias de hardware. Así mismo mediante software se emulan componentes del
hardware como discos, tarjeta gráfica, de red y de sonido.
Además de la virtualización de la CPU, está la del resto del hardware: tarjeta de red,
discos, tarjeta gráfica... Para esta parte la mayoría de los proyectos libres toman código
de Qemu.
Hay varios métodos de implementar la virtualización del procesador:
1. Emuladores totales: emulan totalmente el hardware, incluyendo el procesador. Es el
caso de Booch. Su rendimiento es muy pobre.
2. Emuladores con compilación JIT: es el caso de Qemu, cuando se ejecuta sin el
módulo kqemu. El código necesita "compilarse" para la máquina virtual, si bien como
los compiladores JIT de Java se hace sólo la primera vez que se ejecuta el código, luego
ya está compilado. Mucho más rápidos que los emuladores totales, pero más lentos que
el resto de soluciones. Se puede ejecutar como usuario normal sin instalar nada como
root. Se pueden emular procesadores distintos.
30
3. Virtualizadores completos: es el caso de Vmware (software privativo), Qemu con el
módulo de aceleración Kqemu (antes privativo ahora libre) y Virtual Box (software con
una versión libre y otra más funcional privativa). Se basan en un VMM (Virtual
Machine Monitor, también conocido como hypervisor) que mediante complicadas
técnicas (como traps y análisis del código antes de su ejecución) detecta en tiempo de
ejecución el código que no puede ejecutarse directamente porque afectaría a todo el
sistema, modificando dinámicamente las instrucciones conflictivas. El rendimiento varía
mucho según lo avanzado que sea el VMM: Vmware tiene varias patentes. Estos tres
programas permiten instalar un sistema operativo sobre un virtualizador del mismo
modo que sobre un PC: la ventana del virtualizador asemeja el monitor de un PC,
podemos entrar en la BIOS, reiniciar el ordenador.
4. Paravirtualizadores: es el caso de Xen y UML (User mode Linux). En lugar de tener
que detectar un VMM los casos conflictivos en tiempo de ejecución, se modifica el
código fuente de los sistemas operativos para evitar esos casos conflictivos. En lugar de
el VMM tener que analizar el código, es el código quien invoca al VMM cuando sea
necesario. Esta técnica simplifica muchísimo el VMM y ofrece muy buen rendimiento,
aunque en el caso concreto de UML el rendimiento es mediocre. La pega es que haya
que parchear el sistema operativo, sobre todo para poder ejecutar Windows. Xen
parcheó un Windows XP en un programa de investigación que permitía acceso al
código fuente de Microsoft, pero ese tipo de licencias no permitía distribuir el resultado.
UML también se puede considerar dentro de esta categoría, pues es una modificación
del kernel de Linux para que pueda ejecutarse dentro de otro Linux. Xen no emula una
tarjeta gráfica SVGA "completa" como Qemu, Vmware o VirtualBox, pero utiliza VNC
que para el sistema guest se ve como una tarjeta VGA. Vmware y VirtualBox no son
paravirtualizadores, pero utilizan esta técnica para virtualizar la E/S en los drivers
especiales que se ejecutan en el sistema guest (por ejemplo el driver de red y el de la
tarjeta gráfica: se comunican con el hypervisor en lugar de ser drivers normales sobre el
hardware emulado). Lo mismo planea hacer KVM.
5. Virtualizadores apoyados en el hardware (un tanto pretenciosamente llamados
nativos): los nuevos procesadores de Intel (los Core Duo y la mayoría, pero no todos, de
los Core Duo2 añaden las extensiones VT) y los más recientes de AMD (a partir de
stepping F; las extensiones se llaman SVM) cuentan con nuevas instrucciones que
31
permiten la virtualización de la CPU. De este modo ya no es necesario ni un complicado
VMM ni parchear el sistema operativo, si bien sigue siendo necesario virtualizar otros
dispositivos y emular discos, tarjetas gráficas, de red. Ejemplos de estas soluciones son
KVM (integrado en el kernel desde la versión 2.6.20, utiliza qemu para la virtualización
del resto del hardware) y Virtual Iron (basado en Xen, pero ya no es paravirtualizador;
en cualquier caso es una solución propietaria, con algo de código bajo GPL). Además
Xen soporta también estas instrucciones, como método para poder ejecutar Windows o
simplemente sistemas sin paravirtualizar. Los virtualizadores apoyados en el hardware
son más lentos que los paravirtualizadores e incluso que los virtualizadores completos,
al menos que los que tienen un VMM avanzado. VirtualBox no usa por defecto estas
instrucciones, aunque las soporte, por este motivo. Lo mismo ocurre con Vmware,
aunque sí lo utiliza para poder utilizar como host un sistema operativo de 64bits
(VirtualBox actualmente no permite esta configuración).
6. Virtualización a nivel de sistema operativo (OS level Virtualization): no permite
ejecutar dos sistemas operativos simultáneamente, sino servidores privados virtuales
(SVP) dentro de un único servidor, es decir, es un único kernel, pero que permite aislar
(isolate) los servidores. Cada servidor tendrá su propia red, espacio de disco, de
memoria, se podrá reiniciar.. así mismo tendrá limitación de uso de CPU con el fin de
evitar que un servidor virtual esquilme recursos de los otros. También esta tecnología se
denomina como Jail, pues es extender el concepto de chroot. Tantao Linux VServer
como Virtuozzo lo vienen ofreciendo proveedores de hosting desde hace años. Estas son
las dos soluciones libres más destacadas:
a. Linux VServer: (no confundir con Linux virtual server, que es sobre clusters).
Software libre. Una limitación es que no admite usar tablas de ip dentro de cada SVP,
sino dentro del host. Tampoco admite migración de procesos. Así mismo está más
limitado en lo que se virtualiza, por ejemplo no se virtualiza nada de /proc). Por otro
lado la distribución host parece menos restringida que en OpenVZ, que como host sólo
admite Fedora, algunas versiones de CentOS y algunas de RHEL. Hay varias
distribuciones que funcionan como guest directamente (las instalamos en su partición y
luego las usamos, con sus programas y librerías, pero no obviamente con su kernel)
aunque otras como Gentoo no.
32
b. OpenVZ: Virtuozzo es un virtualizador bajo una licencia privativa; OpenVZ es el
producto de la misma compañía que es software libre y que es la base de Virtuozzo. Un
hecho positivo es que OpenVZ no es un conjunto de código GPL difícil de integrar y sin
soporte como ocurre con otros productos en los que hay versión GPL y privativa:
también venden soporte para OpenVZ. Admite distintas distribuciones como host, a
través de templates, que son repositorios para bajar los paquetes necesarios para esa
distribución. Hosting con OpenVZ: En algún caso es más caro con OpenVZ que con
Virtuozzo, por ser menos maduro y requerir más recursos.
Entre las posibilidades más avanzadas de algunos virtualizadores está el migrar en
caliente con una indisponibilidad inapreciable un dominio de un servidor a otro. Dentro
de los productos libres lo permiten Xen, KVM y OpenVZ. Vmware lo permite sólo en
su servidor de pago (EXS). En Vmware Server (antiguo Vmware GSX), ahora gratis
(que no libre) no es posible.
Un debate interesante es el de los virtualizadores que se ejecutan "bare metal", es decir,
directamente sobre el hardware, en lugar de sobre un sistema operativo "host". Vmware
EXS sigue esta fórmula de forma pura, de tal modo que sólo funciona con determinado
hardware. En el caso de Xen, se ejecuta sobre un host, pero asume parte de las
funciones de un sistema operativo, al tener código por ejemplo para planificar la CPU.
En cambio KVM utiliza todo lo que aporta Linux, lo que para muchos desarrolladores
es la opción preferible pues difícilmente una empresa que desarrolla un producto de
virtualización tendrá más experiencia en elementos de sistemas operativos como un
planificador, que el grupo de personas que llevan desarrollando estos componentes
desde hace años en un sistema tan extendido como el kernel Linux.
VMWare y la red:
En VMWare a la hora de crear un dispositivo de red se puede elegir entre:
1. NAT: en el host aparecerá como la interfaz vmnet8, pero no podremos hacer nada
con esta interfaz, por ejemplo usar Iptables para restringir las Ips que se pueden alcanzar
desde el sistema que se ejecuta dentro de Vmware. El motivo es que no se usa realmente
el NAT del núcleo sino un demonio, vmnet-natd, por lo que los paquetes no pasan
33
realmente por vmnet8. Si se quiere abrir puertos, basta con editar el fichero
/etc/vmware/vmnet8/nat.conf
2. Bridge: también se implementa utilizando un demonio privativo, en este caso vmnet-
bridge, en lugar de utilizar el soporte del núcleo, por lo que no se puede restringir la red
con tabla de ip’s sobre la interfaz vmnet2. Como en el caso de vmnet8, realmente el
tráfico no pasa por esta interfaz.
3. Host only: aparentemente este modo es el más limitado. Pues bien, en realidad es el
más flexible, pues por la interfaz de red que crea, vmnet1, sí que pasan todos los
paquetes. De este modo podemos utilizar esta interfaz para hacer NAT a través de tablas
de ip’s, o crear un bridge con brctl. Al usar tablas de ip’s, podemos restringir el tráfico
como con cualquier otra unidad de red. En Qemu hay dos formas de utilizar la red. Por
defecto se usa -net socket, que sería el equivalente al modo NAT de Vmware. Mediante
la opción -redir se pueden abrir puertos de servidor. Una diferencia interesante sobre
Vmware es que esta solución se implementa enteramente en espacio de usuario, por lo
que no se crea interfaz de red ni se precisa cargar ningún módulo del kernel, lo que es
bueno porque en el caso de Vmware es un módulo privativo que activa la marca
"tained" del kérnel, con lo que perdemos toda opción de soporte. Además así no hay que
tener privilegios de superusuario para instalar Qemu (Vmware no requiere privilegios
para ejecutarse, pero sí hace falta para insertar el módulo en el kernel). Las interfaces de
red vmnet1, vmnet2, vment8, se crean al ejecutar vmware-config, en la parte de
configuración de red. Una posibilidad interesante si vamos a ejecutar varios sistemas
simultáneamente o si queremos que un sistema tenga más de una interfaz es crear más
de un dispositivo de red para "host only", de modo que aparte de vmnet1 haya otros. De
otro modo todas las máquinas virtuales estarán conectadas a la misma red, la de vmnet1.
Así, una máquina podrá tener la IP 192.168.152.128, otra la 192.168.152.129 y el host
la 192.168.152.1; las dos máquinas virtuales se verán la una a la otra y podrán
comunicarse, aunque eso sí, con un sniffer una máquina no verá el tráfico de los otros
nodos. La red vmnet1 que crea Vmware es de máscara de red 255.255.255.0; ejecuta un
servidor DHCP automáticamente, cuya configuración y arrendamientos pueden verse en
/etc/vmware/vmnet1. Pero nada impide que podamos cambiar esta configuración, pues
se emula a una interfaz ethernet. Por ejemplo un nodo puede cambiar su IP a otra de la
red o incluso crear un alias y usar una red distinta, tanto en el host como en las
34
máquinas virtuales. Si usamos vmnet1 para hacer NAT utilizando tablas de ip’s, hay
que tener en cuenta que habrá que configurar la red de la máquina virtual para añadirle
una ruta por defecto y la configuración del DNS y que el firewall deberá permitir que
llegue al servidor DNS. Para pasar la configuración de DNS y ruta por defecto podemos
usar el servidor DHCP de Vmware: "option routers" y "option domain-name-servers".
Qemu y TUN/TAP:
Un inconveniente de -net socket es que como ocurre con los modos NAT y Bridge de
Vmware los paquetes no pasan por ninguna interfaz de red, por lo que no se puede
utilizar tablas de ip’s para restringir la red. La solución está en el uso del soporte de
TUN/TAP del kernel. Consiste en que una aplicación puede abrir el fichero de
dispositivo /dev/net/tun y con eso crear una nueva interfaz de red (por defecto tun0).
Todo lo que la aplicación escriba en ese dispositivo se recibirá en la interfaz de red
recién creada; de igual modo todo lo que llegue a esa interfaz de red (por ejemplo a
través de enrutamiento) lo leerá la aplicación del fichero de dispositivo.
Los dispositivos TUN operan a nivel IP y son punto a punto. Los dispositivos TAP
operan a nivel 2 y son multipunto, como las interfaces Ethernet . Un dispositivo tap0 y
un dispositivo vmnet1 vienen a funcionar de forma muy similar y a nivel de ejemplos de
configuración con tablas de ip’s o brctl (Bridge) donde aparezca un tap0 podría aparecer
un vmnet1 y viceversa. Por lo general se usa tun0 en lugar de tap0; para la mayoría de
los usos son equivalentes por lo que es mucho más habitual utilizar tun0 que resulta más
sencillo y directo.
Normalmente un dispositivo tun/tap sólo existe mientras el programa no cierra el
fichero /dev/net/tun. Esto a veces es problemático, especialmente porque para crear un
dispositivo TUN/TAP hacen falta privilegios de superusuario. Afortunadamente, con
root se puede abrir un dispositivo en modo persistente para un determinado usuario, de
modo que luego un programa ejecutado por ese usuario sin privilegios podrá abrir ese
dispositivo tun/tap creado para él por el root. Este se puede hacer con el programa
tunctl, que forma parte del paquete uml-utilities.
¿Por qué no usa Vmware TUN/TAP en lugar de vmnet1? quizás por unicidad entre
plataformas, o por diferencia de implementación; es posible que vmnet1 también
35
permita driver de red de la máquina virtual directamente en espacio del kernel.
TUN/TAP es la solución utilizada también por otros virtualizadores, como Virtual Box.
Ejemplos:
Permitir acceso sólo a red local 192.168.10.0 y además excluir el nodo 9 de esa red.
iptables -A FORWARD -i vmnet1 --destination 192.168.10.9 -j REJECT
iptables -A FORWARD -i vmnet1 --destination 192.168.10.0/24 -j ACCEPT
iptables -A FORWARD -i vmnet1 -j REJECT
iptables -t nat -A POSTROUTING -j MASQUERADE -o eth0
echo 1 > /proc/sys/net/ipv4/conf/eth0/forwarding
echo 1 > /proc/sys/net/ipv4/conf/vmnet1/forwarding
Crear un bridge, pero prohibiendo el acceso a la IP 157.88.10.20. Se puede filtrar con
ebtables o con iptables.
Muchas tarjetas wireless no soportan bridge. Un AP generalmente sí.
ifconfig eth0 0.0.0.0
ifconfig vmnet1 0.0.0.0
brctl addbr puente
brctl addbr puente
brctl addif eth0
brctl addif vmnet1
ifconfig puente 192.168.10.1
36
iptables -O FORWARD -m physdev --physdev-in vmnet1 --destination 157.88.10.20 -j
REJECT
Instalar QEMU
Para compilar kqemu no hace falta versión vieja de compilador gcc, ni las fuentes de
qemu. Es bastante
rápido:
./configure
make
sudo make install
modprobe kqemu
Por defecto, necesitamos permisos de root para leer /dev/kqemu
1. creamos grupo qemu: sudo addgroup qemu
2. añadimos nuestro usuario (jomar) al grupo: sudo gpasswd -a jomar qemu
3. configuramos udev para que cree fichero de dispositivo con permisos para grupo
qemu. Para ello
editamos fichero /etc/udev/rules.d/60-kqemu.rules con este contenido:
KERNEL=="kqemu",
NAME="%k", MODE="0666", GROUP="qemu", RUN="/root/prueba.sh"
4. hacemos lo propio con el fichero /dev/net/tun. A partir del kernel 2.6.18 no pasa nada
por dar permiso para todo el mundo, pues nadie sin privilegios puede crear una nueva
interfaz si no se ha creado antes por el root para ese usuario. Esto se puede hacer con la
herramienta tunctl, que forma parte del paquete uml-utilities. También se puede usar el
programa que adjuntamos más adelante, cambiando el tipo de dispositivo de tun a tap.
37
Para crear el dispositivo con tunctl se usa tunctl –u jomar -t tap0; para borrarlo tunctl -d
tap0.
Ejemplos:
./qemu -net nic -net tap,script=no ~/linux-0.2.img -net nic,vlan=1 -net
socket,vlan=1,listen=:8081
centos.qcow2
ifconfig tap0 up
ifconfig eth0
brctl addif puente tap0
ifconfig eth0 0.0.0.0
brctl addif puente eth0
ifconfig eth0 192.168.15.45
./qemu -net nic -net tap,script=no ~/centos.qcow2 -no-kqemu
Crear una imagen con Qemu
qemu-img create -f qcow2 centos.qcow2 3G
Con esta orden se crea una imagen de un disco de 3GB; en realidad con GNU/Linux
este fichero no ocupa 3GB; el espacio sin usar del fichero no ocupa espacio en el disco.
Para arrancar del CD de instalación podemos ejecutar:
qemu -kernel-kqemu -cdrom /home/jomar/centos1of6.iso -boot d -m 512 centos.qcow2
La opción -kernel-kqemu es para obtener la máxima aceleración: acelera también el
código del espacio del kernel; por defecto sólo se acelera la de usuario. Si se produce
algún problema, reintentaremos sin esta opción; si sigue habiendo problemas podemos
probar con -no-kqemu a quitar incluso la aceleración de espacio de usuario. Tras la
38
instalación, podemos probar a volver a utilizar aceleración: a veces los posibles
problemas sólo se dan durante la instalación, aunque esta situación es más propia de
Windows que GNU/Linux. Con la opción -cdrom le indicamos que el CDROM es en
realidad esa ISO; así evitamos el tener que grabar un CD. Con la opción -boot d
indicamos que arranque de CD en vez de disco duro. La opción –m 512 establece que la
máquina virtual tenga 512 MB de memoria. La cantidad de memoria puede cambiarse
de una ejecución a otra, pero hay que tener en cuenta que los instaladores suelen crear
una partición de intercambio con el doble de la memoria RAM.
39
CAPÍTULO III – DISCUSIÓN DE LA PROPUESTA
Ciertamente, la virtualización de servidores ofrece beneficios irresistibles a las
empresas, pero también puede ocasionarles complejos problemas. Entre los primeros
cabe destacar el ahorro de aparatos hardware en el centro de datos y el consiguiente
ahorro de espacio, la agilización de las cargas de trabajo, una mayor flexibilidad en la
recuperación ante desastres, la reducción de costos, y, por ende, la disminución de las
emisiones de carbono que perjudican a nuestro planeta. Todas estas ventajas tienen, no
obstante, un precio, que puede llegar a ser muy alto si la planificación no es la
adecuada.
3.1 Virtualización de servidores: una propuesta atractiva pero no exenta de riesgos
En el camino hacia la virtualización existen algunos obstáculos difíciles de superar y
que la empresa debe conocer y prever de antemano. Un tropezón podría llegar a arruinar
cualquier proyecto de esta naturaleza. Sin duda, le resultará traumático el darse cuenta
repentinamente de que la plantilla TI de su empresa no está preparada para llevarlo a
cabo y requiere una importante formación al respecto, por ejemplo. O quizá se lleve una
sorpresa desagradable al no haber previsto que le llevaría al menos un mes tomar el
control de su entorno servidor para poder empezar a trabajar en su transformación.
También podría verse obligado a gastar dinero extra para cubrir algunos costos ocultos
o comprar nuevo equipamiento, porque para lo que se supone un proyecto de
consolidación servidor, probablemente necesitará al principio adquirir nuevas máquinas.
Probablemente existe un exceso de marketing en los discursos de los suministradores de
este tipo de tecnologías. Bajando a la realidad, podría decirse que, en rigor, el rasgo
esencial de la virtualización servidor consiste en romper el matrimonio tradicional entre
el hardware y el software (en este caso, entre el sistema físico y el software de sistema
operativo), y en permitir, como consecuencia, que un único servidor físico hospede
muchos servidores virtuales con sistemas operativos diferentes.
Realmente el mercado está inundado de casos de éxito relacionados con la
virtualización servidor, y el ritmo con que se producen aumenta cada día.
Pero más allá de la fiebre de virtualización que inunda el mercado, lo cierto es que la
virtualización servidor cambia desde sus fundamentos más profundos la apariencia y el
funcionamiento de los centros de datos. Y ninguna gran transformación es fácil.
3.2 Pueden no conseguirse los esperados ahorros en hardware
Una de las mayores ironías de la virtualización servidor consiste en que muchas
empresas esperan conseguir ahorrar con ella grandes cantidades de dinero desde el
principio, cuando, como se ha apuntado, la realidad es muy diferente. A menudo les
exigirá al principio gastos adicionales. Esto se debe a que la virtualización servidor
demandará ineludiblemente dos cosas: almacenamiento compartido y servidores
potentes, ricamente configurados y equipados con chips de memoria basada en
hardware del tipo de algunos de los ofrecidos por AMD e Intel.
Incluso si usted ya cuenta con este tipo de servidores, no podrá evitar cierta inversión
derivadas de las peculiares exigencias del nuevo entorno que planea introducir. Las
cuestiones de interoperabilidad servidor, por ejemplo, frustrarán muchas jornadas de los
trabajadores implicados en proyectos de virtualización. Por poner un caso, no se puede
mezclar plataformas AMD e Intel en el mismo cluster ESX (VMware),
Algo parecido ocurre con las redes de área de almacenamiento (SAN). No todas las
SAN soportan un entorno virtualizado. Además, el ancho de banda existente en la
empresa quizá resulte de pronto insuficiente para satisfacer las demandas de un número
creciente de servidores virtuales, lo que obligará a terminar gastando dinero adicional en
nuevos servidores, conmutadores y otros equipamientos TI, lo que es peor, los costos de
actualización pueden llegar a eclipsar casi todos los ahorros iniciales derivados de los
servidores que se hayan logrado eliminar mediante la consolidación.
Cuando la virtualización de servidores empezó a ganar adeptos, los observadores de la
industria pensaron que el mercado de servidores podría entrar en una etapa difícil,
debido a la previsible reducción en la demanda de equipos. Después de todo, como se
ha dicho varias veces, la virtualización permite consolidar un mayor número de
aplicaciones en uno menor de servidores, preferiblemente en aquellos ya existentes en la
empresa.
CONCLUSIÓN
Hay varios factores por el cual se habla mucho hoy día del término virtualización y el
más importante es la temporización. Se han combinado una serie de factores clave del
sector al mismo tiempo, lo que contribuye a impulsar la mayor adopción de la
virtualización. Entre estos factores sectoriales se incluye el cambio a la computación de
64 bits, los procesadores de varios núcleos e, incluso, el impulso de una computación
sostenible para mejorar el uso del sistema.
Los sistemas están aumentando de tamaño y requieren una tecnología como la
virtualización para realizar un uso completo de la eficacia del sistema. Pero aunque es
cierto que la tecnología principal ha avanzado de forma continua en lo que respecta a la
producción de una mayor capacidad de procesamiento de la que los sistemas pueden
usar, ahora tenemos una mayor conciencia del impacto medioambiental, los requisitos
de energía y los costos de refrigeración.
Todos estos factores, además del rendimiento de la inversión al adoptar la
virtualización, deberían acelerar la adopción de la virtualización en empresas grandes y
pequeñas. Y nosotros, los profesionales de TI, podemos esperar que las principales
empresas sigan invirtiendo en esta tecnología en los próximos años y mejorando las
características y la funcionalidad.
Es importante tener en cuenta dónde se adopta la virtualización. Los clientes
empresariales ciertamente son los que han abierto camino con sus pruebas y al ser los
primeros usuarios. Sin embargo, hay pequeñas y medianas empresas que también
implementan la virtualización. La adopción de la virtualización abarca distintos tipos de
cargas de trabajo, desde aplicaciones empresariales y administrativas hasta la Web y el
correo electrónico.
REFERENCIAS BIBLIOGRÁFICAS
http://carrero.es/desventajas-de-la-virtualizacion-de-servidores/4459
http://es.wikipedia.org/wiki/Virtualizaci%C3%B3n
http://www.consultoras.org/frontend/aec/Virtualizacion-De-Servidores--Una-
Propuesta-Atractiva-Pero-No-Exenta-De-Riesgos-vn8500-vst778
http://www.commondigital.commonperu.com/index.php?
option=com_content&view=article&id=254:intel-lanza-su-nuevo-procesador-para-
servidores-intel-xeon-5500&catid=422:intel&Itemid=458
http://technet.microsoft.com/es-es/magazine/2008.10.hyperv.aspx
http://es.wikipedia.org/wiki/Red_de_%C3%A1rea_de_almacenamiento