Post on 11-Jul-2020
PROCEDIMIENTOS.
INSTALACIÓN VIRTUALIZADA
CENTRO SIMPLE
CON PROXMOX 5.X
Autor: Javier Estellés Dasí Servei d’Informàtica per als Centres Educatius
Versión: 20180327.43.0
Validez: Pública
1
INTRODUCCIÓN 4
REQUISITOS HARDWARE. 5 Servidores SEE1 y posteriores. 5
REQUISITOS DE DIRECCIONAMIENTO IP. 7
ESQUEMA DE DIRECCIONAMIENTO IP EN LA RED MACROLAN 9
ESQUEMA DE RED. CENTRO VIRTUALIZADO CON UN ÚNICO HIPERVISOR 12
INSTALACIÓN DE PROXMOX EN EL HIPERVISOR 13
CONFIGURACIÓN DEL SO EN EL HIPERVISOR 17
CONFIGURACIÓN DEL STORAGE ‘backup’ EN EL HIPERVISOR 19
CONFIGURACIÓN DEL MODO GRÁFICO DE LA CONSOLA DE PROXMOX 23
CONFIGURACIÓN DE LA RED DEL HIPERVISOR 24 Redes independientes para cada servidor 24
CONFIGURACIÓN DE LOS USUARIOS DEL HIPERVISOR 28
PROCEDIMIENTO DE CREACIÓN Y CONFIGURACIÓN DE LAS MÁQUINAS VIRTUALES 32
MODIFICACIÓN DE LAS MÁQUINAS VIRTUALES: Tarjetas de red. 36 MODIFICACIÓN DE LAS MÁQUINAS VIRTUALES: Añadir disco duro al servidor Maestro. 39 MODIFICACIÓN DE LAS OPCIONES DE ARRANQUE A LAS MÁQUINAS VIRTUALES. 39
PROGRAMACIÓN DE LAS COPIAS DE SEGURIDAD EN EL HIPERVISOR 42
LISTADO DE USUARIOS / PASSWORDS ESTÁNDAR 44
ANEXO 1. Subir ISO LliureX server al hipervisor. 45
ANEXO 2. INSTALACIÓN LLIUREX EN [CODCENTRO]MAS 47 INSTALACIÓN SERVIDOR Maestro 47 INICIALIZACIÓN SERVIDOR Maestro 58 INICIALIZACIÓN SERVIDOR CENTRO/AULA1... 63
ANEXO 3: SCRIPT COMPLETO CONFIGURACIÓN PROXMOX. 68
ANEXO 4. CONFIGURACIÓN CON AGREGADOS 72 VLANs 72 Esquema de conexionado. Tabla mínima. 72 Asignación Puerto a LAG - IEEE 802.1q 73 Tabla PVID - IEEE 802.1q 73
2
Asignación VLANs - IEEE 802.1q. Tabla mínima 73
ANEXO 5. COMPROBANDO PROXMOX DE FORMA AUTOMÁTICA 77 Simple: 77 ConAgregados: 78
3
INTRODUCCIÓN
El objetivo de este documento es documentar la instalación de un centro educativo
virtualizado con Proxmox sus servidores LliureX. Esta solución económica y simple se basa
en hardware (servidor) estándar y software libre (Proxmox y LliureX).
El documento va dirigido a cualquier persona con conocimientos básicos sobre virtualización
y de Linux, que necesite implementar esta solución, modelo de centro LliureX, en cualquier
ubicación que tenga estas necesidades.
Al terminar la configuración, el usuario tendrá un sistema funcional donde el hipervisor, más
bien sus máquinas virtuales, proporcionarán servicio a varios espacios del centro: Biblioteca,
Sala de Profesorado, Ordenadores de Centro y Aula de Informática.
Los apartados que se van a tratar, son:
● Requisitos hardware. Descripción sobre el hardware a utilizar como hipervisor.
● Requisitos de direccionamiento. Descripción del esquema de direccionamiento
estándar.
● Esquema de red. Descripción del esquema de red físico propuesto.
● Configuración de la administración remota. Configuración del iAMT de los
hipervisores.
● Configuración del hipervisor. Configuración e instalación del hipervisor.
● Configuración de los servidores virtuales. Instalación y configuración de un modelo
de Centro basado en LliureX 16.
● Configuración de los servicios de copias de seguridad.
4
REQUISITOS HARDWARE.
Los requisitos básicos del modelo simplificado son:
1. Disponemos de un servidor SEE1 o posterior. Las características del hipervisor en
caso de que no dispongamos de estos modelos en particular son:
○ un procesador con un índice passmark superior a 10000,
○ 32 GB de ram,
○ dos discos duros de 2 TB
○ iAMT (Tecnología Intel® de gestión activa), si queremos poder administrar o
instalar el hardware/software del hipervisor incluso estando apagado
[Opcional].
○ Varias tarjetas de red (mínimo 4)
2. El centro dispone de cableado estructurado con enlaces entre el hipervisor y los
switches de los espacios de destino (biblioteca, sala de profesores y aula de
informática), de calidad y que permiten velocidades de 1 Gbps.
Una vez expuestos estos requisitos, pasamos a hacer una descripción más detallada de los
hipervisores SEE1 y posteriores:
Servidores SEE1 y posteriores.
Estos servidores tienen un hardware muy especial. De momento resaltaremos las
características del básicas del hardware, que permiten la administración remota del mismo y
el orden de las tarjetas de red.
Disponemos de un servidor SEE1 o posterior. Las características del hipervisor en caso de
que no dispongamos de estos modelos en particular son:
○ un procesador i7-7700 con un índice passmark (https://www.passmark.com/)
superior a 10000,
○ 32 GB de ram,
○ dos discos duros de 2 TB
5
○ iAMT (Tecnología Intel® de gestión activa), si queremos poder administrar o
instalar el hardware/software del hipervisor incluso estando apagado
[Opcional].
○ Varias tarjetas de red (4 SEE1, 5 SEF1 y posteriores)
Aspecto físico y descripción de las tarjetas de red.
EQUIPOS VISTOS DESDE ATRÁS
4 TARJETAS DE RED (Estándar) 5 TARJETAS DE RED (SEH1)
Arriba ● Integrada (la única que debería estar
conectada a macrolan) ● interna del aula2 ● interna del centro ● interna del aula1
Abajo
Arriba ● Integrada (la única que debería estar
conectada a macrolan) ● interna del aula3 ● interna del centro ● interna del aula1 ● interna del aula2
Abajo
VISTA de los Hipervisores
4 TARJETAS DE RED (Estándar) 5 TARJETAS DE RED (1 adicional)
6
7
REQUISITOS DE DIRECCIONAMIENTO IP.
A fin de facilitar el mantenimiento de los centros, cualquiera de ellos debería seguir el
esquema:
En particular, las direcciones IP que vamos a utilizar durante la instalación son:
IPs tarjetas del hipervisor IPs ILO IPs servidores virtuales
CODCENTROHV1:
172.X.Y.240 CODCENTROHV1:
172.X.Y.235 CODCENTROMAS:
172.X.Y.254
CODCENTROCEN:
172.X.Y.253
CODCENTROAU1:
172.X.Y.252
CODCENTROAU2:
172.X.Y.251
. . .
CODCENTROWIFI:
172.X.Y.245
8
ESQUEMA DE DIRECCIONAMIENTO IP EN LA RED MACROLAN
Con motivo de la reestructuración de las redes en los centros de la Comunidad Valenciana, se
establece el sistema de redireccionamiento que se muestra a continuación con la finalidad de
estandarizar los direccionamientos MacroLAN, así como los accesos externos a los
servidores, para facilitar la gestión remota a los centros por parte del personal de
mantenimiento del SAI y Servicio de Tecnología e Informática de la Conselleria de
Educación.
Servidor Lliurex:
172.X.Y.254 → Servidor Maestro
172.X.Y.253 → Servidor de Centro
172.X.Y.252 → Servidor de Aula 1
172.X.Y.251 → Servidor de Aula 2
172.X.Y.250 → Servidor de Aula 3
.
.
172.X.Y.245 → Servidor Wifi 1
Cabinas o dispositivos de almacenamiento externo:
172.X.Y.244 → IP2 Cabina
172.X.Y.243 → IP1 Cabina
172.X.Y.242 → ILO2 Cabina
172.X.Y.241 → ILO1 Cabina
Hipervisores:
172.X.Y.240 → Hipervisor 1
172.X.Y.239 → Hipervisor 2
172.X.Y.238 → Hipervisor 3
172.X.Y.237 → Hipervisor 4
172.X.Y.236 → Hipervisor 5
9
172.X.Y.235 → ILO / IAMT Hipervisor 1
172.X.Y.234 → ILO / IAMT Hipervisor 2
172.X.Y.233 → ILO / IAMT Hipervisor 3
172.X.Y.232 → ILO / IAMT Hipervisor 4
172.X.Y.231 → ILO / IAMT Hipervisor 5
Impresoras
172.X.Y.221 a 172.X.Y.230 (Impresoras del centro)
172.X.Y.220 → LLIURE
Rango DHCP:
172.X.Y.50 a 172.X.Y.219 (Rango DHCP para ordenadores del centre)
Máquinas IP fija del centre:
172.X.Y.30 a 172.X.Y.49
Puntos de Acceso:
10.2.20.10 a 10.2.20.29 (Red wifi) se hacen reservas en el dnsmasq del servidor wifi.
Son puntos de acceso que estarán en la red interna del servidor Wifi.
Switches (gestionables):
172.X.Y.10 a 172.X.Y.19 (si faltan direcciones podríamos hacer uso de las direcciones de
los routers)
Reservado para routers adicionales y por si faltan para switches:
10
172.X.Y.2 a 172.X.Y.9
Router:
172.X.Y.1
En el caso de que no sean suficientes (poco probable) para el centro las 169 IPs por DHCP,
mas las 19 fijas, podemos optar por dar al centro un /23 en el caso de que el rango
superior/inferior esté disponible.
MUY IMPORTANTE
Se recomienda que, para llevar el control exhaustivo de los direccionamientos en cada uno de
los centros, se haga saber al centro la necesidad de utilizar los rangos de IP que aparecen en
este documento. En caso de participar alguna empresa externa, como por ejemplo de
impresoras, en el sistema de red del centro, éste cumpla dicho direccionamiento.
Esta tabla debe de estar accesible en todo momento por los técnicos del SAI y con custodia
en el centro. Copia de dicha tabla debe de ser reportada al Servicio de Informática de la
Consellería cada vez que se realice una modificación en la misma.
El formato de dicha tabla debe de ser en formato electrónico y proporcionado inicialmente
por Consellería.
11
ESQUEMA DE RED. CENTRO VIRTUALIZADO CON UN ÚNICO HIPERVISOR
En este esquema simplificado, podemos distinguir 3 espacios estándar de cualquier centro:
Aula de informática, Biblioteca y Sala de Profesores. Desde las tarjetas de red del hipervisor
tenemos enlace directo a los switches de cada espacio y desde estos cable de red a cualquiera
de los clientes allí situados. Además podemos distinguir como otros espacios, aulas de
docencia o en general cualquier equipo de centro que necesite de conexión a internet y de los
servicios de archivo, impresión, etc, que le proporciona el modelo de centro LliureX.
INSTALACIÓN DE PROXMOX EN EL HIPERVISOR
1. Arrancamos la máquina desde la última imagen ISO de proxmox
2. Aceptamos la licencia
12
3. Automáticamente selecciona como disco de instalación por defecto (/dev/sda). Hacemos
clic sobre Options y en el cuadro de diálogo que se abre, editamos los siguientes campos:
hdsize: 18XX (lo que ofrezca); swapsize: 64. Pulsar Ok y a continuación Next en la ventana
principal para continuar con la instalación.
4. Configuración de la zona horaria. Seleccionamos Country: Spain; Time Zone:
Europe/Madrid; Keyboard Layout: Spanish. Damos click sobre el botón Next.
13
6. Confirmación del password de root y cuenta de correo asociado en el registro:
test@email.me
7. Configuración de la red. Editamos los siguientes parámetros:
Hostname (FQDN): CODCENTROHV1.centres.edu.gva.es
IP Address: IP_EXTERNA_HV
Netmask: 255.255.255.0
Gateway: IP_ROUTER_MACROLAN
DNS Server: 172.27.111.5
14
7. Finalización de la instalación. Hacer clic sobre Reboot (quitar el disco USB)
15
CONFIGURACIÓN DEL SO EN EL HIPERVISOR
Durante la configuración de proxmox haremos un uso intensivo de la API del mismo. La
documentación la podemos encontrar en:
https://pve.proxmox.com/pve-docs/api-viewer/index.html
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
echo "deb http://download.proxmox.com/debian stretch pve-no-subscription" > \
/etc/apt/sources.list.d/pve-no-subscription.list
wget -O- "http://download.proxmox.com/debian/key.asc" | apt-key add -
sed -i.bak 's|deb https://enterprise.proxmox.com/debian stretch \
pve-enterprise|\# deb https://enterprise.proxmox.com/debian stretch \
pve-enterprise|' /etc/apt/sources.list.d/pve-enterprise.list
apt update
apt upgrade --assume-yes
apt install ethtool iperf parted libfile-pid-perl libposix-2008-perl
libpve-apiclient-perl liblog-log4perl-perl --assume-yes
O, gráficamente, podemos hacerlo de la siguiente forma:
1. Desde la interfaz gráfica abrimos una Shell sobre cada uno de los servidores y
configuramos los orígenes del software.
a. Modificar el fichero /etc/apt/sources.list.d/pve-no-subscription.list y añadir la
línea del repositorio de proxmox pve-no-subscription.
root@CODCENTRO-HV[n]#nano /etc/apt/sources.list.d/pve-no-subscription.list
...
deb http://download.proxmox.com/debian stretch pve-no-subscription
...
16
Salimos de la edición guardando los cambios Ctrl+X y para confirmar,
pulsamos ‘Y’ y a continuación [INTRO]
b. Comentar el repositorio enterprise de Proxmox en el sources.list. Para ello,
edita el fichero de configuración /etc/apt/sources.list.d/pve-enterprise.list y
comentar la línea del repositorio pve-enterprise
root@CODCENTRO-HV[n] # nano /etc/apt/sources.list.d/pve-enterprise.list
...
# deb https://enterprise.proxmox.com/debian stretch pve-enterprise
...
Salimos de la edición guardando los cambios Ctrl+X y para confirmar,
pulsamos ‘Y’ y a continuación [INTRO]
2. Actualizar la lista de paquetes disponibles
root@CODCENTRO-HV[n]# apt update
3. Actualizar la lista de paquetes disponibles
root@CODCENTRO-HV[n]# apt upgrade
4. Instalar aplicaciones adicionales
root@CODCENTRO-HV[n]# apt install ethtool iperf parted nut libfile-pid-perl
libposix-2008-perl libpve-apiclient-perl liblog-log4perl-perl
17
CONFIGURACIÓN DEL STORAGE ‘backup’ EN EL HIPERVISOR
Debemos crear un espacio de almacenamiento en el hipervisor que contenga las copias de
seguridad iniciales de las máquinas virtuales y la copia semanal (2) del servidor maestro.
Consola: (ATENCION: Borramos el contenido de /dev/sdb)
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
for part in /dev/sdb* ; do umount $part ; done
echo -e "o\nw" | fdisk /dev/sdb
partprobe /dev/sdb
echo -e "n\np\n1\n\n\nw" | fdisk /dev/sdb
mkfs.ext4 -q -F /dev/sdb1
mkdir -p /backup
echo "/dev/sdb1 /backup ext4 defaults 0 1" >> /etc/fstab
mount -a
pvesh create storage --storage backup --type dir --content iso,backup \
--maxfiles 2 --path /backup --shared 0
Para hacerlo de forma gráfica:
1. Creación de la partición de almacenamiento backup en el disco sdb
root@12345678HV1:~# fdisk /dev/sdb
Welcome to fdisk (util-linux 2.29.2).
Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.
Device does not contain a recognized partition table.
Created a new DOS disklabel with disk identifier 0xf51921b0.
Command (m for help): p
Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
18
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0xf51921b0
Command (m for help): n
Partition type
p primary (0 primary, 0 extended, 4 free)
e extended (container for logical partitions)
Select (default p):
Using default response p.
Partition number (1-4, default 1):
First sector (2048-3907029167, default 2048):
Last sector, +sectors or +size{K,M,G,T,P} (2048-3907029167, default 3907029167):
Created a new partition 1 of type 'Linux' and of size 1.8 TiB.
Command (m for help): w
The partition table has been altered.
Calling ioctl() to re-read partition table.
Syncing disks.
2. Formateo de la partición de almacenamiento backup en el disco sdb
root@12345678HV1:~# mkfs.ext4 /dev/sdb1
mke2fs 1.43.4 (31-Jan-2017)
Creating filesystem with 488378390 4k blocks and 122101760 inodes
Filesystem UUID: f24f6cc3-c016-4482-8aa7-df471c8db0c4
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848
Allocating group tables: done
Writing inode tables: done
Creating journal (262144 blocks): done
19
Writing superblocks and filesystem accounting information: done
3. Creación del punto de montaje de backup en el sistema de archivos.
root@12345678HV1:~# mkdir /backup
4. Edición del /etc/fstab para montaje automático de backup en el sistema de archivos.
Añadir la línea: /dev/sdb1 /backup ext4 defaults 0 0
root@12345678HV1:~# nano /etc/fstab
. . .
/dev/sdb1 /backup ext4 defaults 0 0
. . .
5. Probar el montaje automático de backup en el sistema de archivos.
root@12345678HV1:~# mount -a
6. Comprobar el montaje automático de backup en el sistema de archivos. Debe aparecer
la línea: /dev/sdb1 on /backup type ext4 (rw,relatime,data=ordered)
root@12345678HV1:~# mount -l | grep sdb1
/dev/sdb1 on /backup type ext4 (rw,relatime,data=ordered)
7. Añadir /backup al storage de proxmox. Nos situamos sobre Datacenter y en el menú
contextual seleccionamos Storage, a continuación pulsamos sobre Add y
20
seleccionamos Directory en el submenú.
8. En la ventana emergente, en los campos siguientes: ID, tecleamos backup, en
Directory, /backup, en content dejamos marcados ISO image y VZDump backup
file y en Max Backups seleccionamos 2 (para mantener al límite el número de copias
de seguridad).
21
CONFIGURACIÓN DEL MODO GRÁFICO DE LA CONSOLA DE PROXMOX
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
sed -i.bak \
's|GRUB_CMDLINE_LINUX_DEFAULT="quiet"|GRUB_CMDLINE_LINUX_DEFAULT="quiet
nomodeset i915.modeset=0"|' /etc/default/grub
update-grub2
1. Editamos el fichero /etc/default/grub y cambiamos la línea
GRUB_CMDLINE_LINUX_DEFAULT="quiet" añadiendo nomodeset y i915.modeset=0
root@CODCENTRO-HV[n]# nano /etc/default/grub
...
GRUB_DISTRIBUTOR="Proxmox Virtual Environment"
GRUB_CMDLINE_LINUX_DEFAULT="quiet nomodeset i915.modeset=0"
GRUB_CMDLINE_LINUX=""
...
Salimos de la edición guardando los cambios Ctrl+X y para confirmar, pulsamos ‘Y’ e
[INTRO]
5. Actualizamos el grub
root@CODCENTROHV# update-grub2
6. [Opcional] Reiniciamos el equipo
root@CODCENTROHV# reboot
22
CONFIGURACIÓN DE LA RED DEL HIPERVISOR
Disponemos de 4 tarjetas de red adicionales para poder dar servicio de forma independiente.
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
pvesh create /nodes/localhost/network/ --iface vmbr9 --type bridge \
--bridge_ports "" --autostart 1 --comments "Maestro interna"
pvesh create /nodes/localhost/network/ --iface vmbr40 --type bridge \
--bridge_ports "" --autostart 1 --comments "Interfaz de sincronización"
pvesh create /nodes/localhost/network/ --iface vmbr10 --type bridge \
--bridge_ports "enp1s0" --autostart 1 --comments "Interfaz interna Centro"
pvesh create /nodes/localhost/network/ --iface vmbr11 --type bridge \
--bridge_ports "enp2s0" --autostart 1 --comments "Interfaz interna Aula1"
pvesh create /nodes/localhost/network/ --iface vmbr12 --type bridge \
--bridge_ports "enp3s0" --autostart 1 --comments "Interfaz interna Aula2"
pvesh create /nodes/localhost/network/ --iface vmbr13 --type bridge \
--bridge_ports "enp4s0" --autostart 1 --comments "Interfaz interna Wifi"
Usando la interfaz web lo podemos hacer de la siguiente forma:
Redes independientes para cada servidor
Nos situamos de nuevo en el hipervisor a configurar.
a. En el panel Network, seleccionamos Create… y a continuación Linux Bridge. Se
abrirá un cuadro de diálogo y editaremos los campos siguientes, Name: vmbr10;
Bridge ports: enp1s0. Para finalizar, hacer clic sobre Create.
23
b. En el panel Network, seleccionamos Create… y a continuación Linux Bridge. Se
abrirá un cuadro de diálogo y editaremos los campos siguientes, Name: vmbr11;
Bridge ports: enp2s0. Para finalizar, hacer clic sobre Create.
c. En el panel Network, seleccionamos Create… y a continuación Linux Bridge. Se
abrirá un cuadro de diálogo y editaremos los campos siguientes, Name: vmbr12;
Bridge ports: enp3s0. Para finalizar, hacer clic sobre Create.
24
d. En el panel Network, seleccionamos Create… y a continuación Linux Bridge. Se
abrirá un cuadro de diálogo y editaremos los campos siguientes, Name: vmbr13;
Bridge ports: enp4s0. Para finalizar, hacer clic sobre Create.
Adicionalmente, creamos dos bridges virtuales que no están asociados a ninguna tarjeta
física, son: vmbr9 (interna Maestro) y vmbr40 (interfaz de sincronización)
e. En el panel Network, seleccionamos Create… y a continuación Linux Bridge. Se
abrirá un cuadro de diálogo y editaremos los campos siguientes, Name: vmbr9;
Bridge ports: ninguno (en blanco); Comment: Maestro Interna. Para finalizar, hacer
clic sobre Create.
f. En el panel Network, seleccionamos Create… y a continuación Linux Bridge. Se
abrirá un cuadro de diálogo y editaremos los campos siguientes, Name: vmbr40;
25
Bridge ports: ninguno (en blanco); Comment: Sincronización. Para finalizar, hacer
clic sobre Create.
Para finalizar debemos reiniciar el hipervisor. En la interfaz web, con el hipervisor
seleccionado, hacer clic sobre Restart y esperar a que se cargue de nuevo la información
(pulsar cada 30 sg [F5] en el navegador para refrescar el contenido).
26
CONFIGURACIÓN DE LOS USUARIOS DEL HIPERVISOR
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
pveum groupadd sai -comment "Tecnicos del SAI"
pveum groupadd tic -comment "Coordinadores TIC del Centro"
pveum aclmod /nodes -group sai -role "Administrator"
pveum aclmod /vms -group tic -role "PVEVMUser"
pveum useradd sai@pve -group sai
pveum useradd tic@pve -group tic
pvesh set /access/password --password [la que decidas] --userid sai@pve
pvesh set /access/password --password [la que decidas] --userid tic@pve
Creación de los grupos y usuarios necesarios para administrar el hipervisor desde la consola
web.
1. Creación de grupo SAI, ‘sai’.
a. Para ello, en Datacenter->Permissions->Groups, hacemos clic sobre el botón
Create.
b. Editar los campos con los valores siguientes: Name, sai, Comment, Técnicos
del SAI. A continuación hacer clic sobre Create.
2. Creación de grupo TIC, ‘tic’
a. Para ello, en Datacenter->Permissions->Groups, hacemos clic sobre el botón
Create.
27
b. Editar los campos con los valores siguientes: Name, tic, Comment,
Coordinadores TIC del Centro. A continuación hacer clic sobre Create.
3. Creación del usuario SAI, ‘sai’ y asignarlo al grupo ‘sai’.
a. Para ello, en Datacenter->Permissions->Users, hacemos clic sobre el botón
Add.
b. A continuación, como User name: sai, como Realm: seleccionamos Proxmox
VE Authentication, como Password y Confirm Password: ‘según anexo’,
como Group, tecleamos sai. Para finalizar hacer clic sobre Add.
4. Creación del usuario TIC, ‘tic’ y asignarlo al grupo ‘tic’.
a. Para ello, en Datacenter->Permissions->Users, hacemos clic sobre el botón
Add.
b. A continuación, como User name: tic, como Realm: seleccionamos Proxmox
VE Authentication, como Password y Confirm Password: ‘según anexo’,
cómo Group, tecleamos sai. Para finalizar hacer clic sobre Add.
28
5. Asignar los privilegios de administrador del hipervisor al grupo SAI.
a) Para ello, en Datacenter->Permissions, hacemos clic sobre el botón Add y
seleccionar Group Permission.
b) En los cuadros de edición, completar de la siguiente forma: En Path, /nodes/,
en Group, seleccionar sai y en Role, seleccionar Administrator. Para terminar
hacer clic sobre Add.
29
6. Asignar privilegios PVEMUser al grupo tic.
a. Para ello, en Datacenter->Permissions, hacemos clic sobre el botón Add y
seleccionar Group Permission
b. En los cuadros de edición, completar de la siguiente forma: En Path, /vms, en
Group, seleccionar tic y en Role, seleccionar PVEVMUser. Para terminar
hacer clic sobre Add.
30
PROCEDIMIENTO DE CREACIÓN Y CONFIGURACIÓN DE LAS MÁQUINAS VIRTUALES
En esta instalación simplificada vamos a configurar 3 servidores de forma estandarizada:
Servidor Maestro, Servidor de Centro y Servidor de Aula.
Las máquinas virtuales se configurarán con tres tarjetas de red, la interna, la externa y la de
sincronización; con 1 socket y 2 cores y con 8 GB de RAM; el disco duro de instalación de
los servidores será de 150 GB y el servidor Maestro tendrá un disco duro adicional de 750
GB. Estos discos duros se definirán sobre el storage local-lvm.
Las tarjetas de red de los servidores virtuales se asignarán de la siguiente forma:
[CODCENTRO]MAS:
eth0 vmbr9
eth1 vmbr0
eth2 vmbr40
[CODCENTRO]CEN:
eth0 vmbr10
eth1 vmbr0
eth2 vmbr40
[CODCENTRO]AU1:
eth0 vmbr11
eth1 vmbr0
eth2 vmbr40
El cliente se creará sin disco duro (1CPU+2GB RAM) y conectado inicialmente a la VLAN
de Centro.
Mediante el uso de consola, se puede hacer de la siguiente forma:
Consola:
31
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
pvesh create /nodes/localhost/qemu --vmid 2254 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr9 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=1,up=240" -name "[CODCENTRO]MAS"
pvesh create /nodes/localhost/qemu/2254/config -virtio0
"local-lvm:150,cache=writeback"
pvesh create /nodes/localhost/qemu/2254/config -virtio1
"local-lvm:750,cache=writeback"
pvesh create /nodes/localhost/qemu --vmid 2253 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr10 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=2,up=120" -name "[CODCENTRO]CEN"
pvesh create /nodes/localhost/qemu/2253/config -virtio0
"local-lvm:150,cache=writeback"
pvesh create /nodes/localhost/qemu --vmid 2252 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr11 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=2,up=120" -name "[CODCENTRO]AU1"
pvesh create /nodes/localhost/qemu/2252/config -virtio0
"local-lvm:150,cache=writeback"
pvesh create /nodes/localhost/qemu --vmid 2201 \
-memory 2048 -sockets 1 -cores 1 \
-net0 virtio,bridge=vmbr10 \
-ide2 none,media=cdrom \
32
-onboot 0 -name “[CODCENTRO]CSD"
De forma gráfica, la creación de las máquinas virtuales se realizará situándonos en el
hipervisor, de la siguiente forma:
1. Creación de las máquinas virtuales
[CODCENTRO]MAS/[CODCENTRO]CEN/[CODCENTRO]AU1 (repetir 3 veces,
una por cada máquina)
a. En el menú de la interfaz gráfica, hacer clic sobre el botón Create VM.
b. En la ventana Create Virtual Machine panel General, en Node seleccionar el
hipervisor [COD_CENTRO]HV1. el VM ID, 2254/2253/2252
(respectivamente para [CODCENTRO]MAS/ [CODCENTRO]CEN/
[CODCENTRO]AU1), y en Name, [CODCENTRO]MAS/
[CODCENTRO]CEN/ [CODCENTRO]Au1. Hacer clic sobre Next.
c. En el panel siguiente, OS, seleccionar Do not use any media y hacer clic
sobre Next.
33
d. En el panel siguiente, Hard disk: seleccionar VirtIO Block, 0 en Bus device;
local-lvm, en Storage; 150GB, en Disk size (GB); Write back en Cache. Para
continuar, hacer clic sobre Next.
e. En el panel siguiente, CPU, seleccionar 2, en Cores y hacer clic sobre Next.
34
f. En el siguiente panel, Memory, seleccionar Use fixed size memory y
establecer 8192 en Memory (MB). Hacer clic en Next para continuar.
g. En el panel, Network, seleccionar Bridged mode, y en Bridge, vmbr0, en
Model VirtIO (paravirtualized). Hacer clic en Next para continuar.
h. En el panel, Confirm, de confirmación, hacer clic en Finish para continuar.
MODIFICACIÓN DE LAS MÁQUINAS VIRTUALES: Tarjetas de red.
Hemos de añadir dos tarjetas de red adicionales por cada servidor y asignarlas según la tabla
anterior. Para ello:
1. Añadir tarjeta de red externa a los servidores
[CODCENTRO]MAS/[CODCENTRO]CEN/[CODCENTRO]AU1.
35
a. En el Panel principal seleccionar
DataCenter->[CODCNETRO]HV1->2254/2253/2252
([CODCENTRO]MAS/[CODCENTRO]CEN/[CODCENTRO]Au1 ). En el
menú contextual, seleccionar Hardware y hacer clic sobre el botón Add.
Seleccionar Network device
b. En el cuadro de diálogo, Add: Network Device, seleccionar vmbr0 en Bridge
y VirtIO (paravirtualized) en Model. Pulsar sobre Add para finalizar.
2. Añadir tarjeta de red de sincronización a los servidores [CODCENTRO]MAS /
[CODCENTRO]CEN/ [CODCENTRO]AU1.
a. En el Panel principal seleccionar
DataCenter->[CODCNETRO]HV1->2254/2253/2252
([CODCENTRO]MAS/ [CODCENTRO]CEN/ [CODCENTRO]Au1 ). En el
menú contextual, seleccionar Hardware y hacer clic sobre el botón Add.
Seleccionar Network device.
36
b. En el cuadro de diálogo, Add: Network Device, seleccionar vmbr40 en
Bridge y VirtIO (paravirtualized) en Model. Pulsar sobre Add para finalizar.
3. Modificar la tarjeta de red interna de los servidores
[CODCENTRO]MAS/[CODCENTRO]CEN/[CODCENTRO]AU1.
a. En el Panel principal seleccionar
DataCenter->[CODCENTRO]HV1->2254/2253/2252
([CODCENTRO]MAS/[CODCENTRO]CEN/[CODCENTRO]Au1 ). En el
menú contextual, seleccionar Hardware, a continuación seleccionar Network
Device (net0).
b. Hacer clic sobre el botón Edit y cambiar el campo Bridge cuyo valor actual es
vmbr0 por:
■ vmbr9 para el servidor 2254 ([CODCENTRO]MAS)
■ vmbr10 para el servidor 2253 ([CODCENTRO]CEN)
■ vmbr11 para el servidor 2252 ([CODCENTRO]AU1)
Hacer clic sobre Ok para finalizar.
37
MODIFICACIÓN DE LAS MÁQUINAS VIRTUALES: Añadir disco duro al servidor Maestro.
1. En el Panel principal seleccionar DataCenter->[CODCNETRO]HV1->2254
([CODCENTRO]MAS). En el menú contextual, seleccionar Hardware y hacer clic
sobre el botón Add. A continuación seleccionar Hard Disk en el menú contextual.
○ En el cuadro de diálogo, Add: Hard Disk, editar los campos siguientes:
○ Bus/Device: VirtIO Block, 1
○ Storage: local-lvm
○ Disk size (GB): 750GB
○ Cache: Write back
A continuación hacer clic sobre Add.
MODIFICACIÓN DE LAS OPCIONES DE ARRANQUE A LAS MÁQUINAS VIRTUALES.
En las opciones de los servidores tenemos que configurar que se inician en el arranque del
hipervisor de forma automática: Start at boot. Para conseguirlo:
1. Seleccionar Datacenter->[COD_CENTRO]HV1->2254 ([CODCENTRO]MAS) /
2253 ([CODCENTRO]CEN) / 2252 ([CODCENTRO]AU1) (hacer lo mismo en todas
las máquinas virtuales) y en el menú contextual, seleccionar Options y a continuación
38
seleccionar Start at boot y pulsar sobre el botón de Edit. Marcar la casilla de
selección Start at boot y hacer clic sobre Ok para finalizar.
2. Seleccionar Datacenter->2253 ([CODCENTRO]CEN) / 2252 ([CODCENTRO]AU1)
(hacer lo mismo en las dos máquinas virtuales) y en el menú contextual, seleccionar
Options y a continuación seleccionar Startup/Shutdown order y hacer clic sobre el
botón de Edit.
○ Para el [CODCENTRO]MAS cambiar los parámetros, Boot Order como 1 y
de Startup delay 180.
○ Para los servidores [CODCENTRO]CEN y [CODCENTRO]AU1. cambiar los
parámetros, Boot Order como 2 y Startup delay como 120.
39
40
PROGRAMACIÓN DE LAS COPIAS DE SEGURIDAD EN EL HIPERVISOR
Se programará exclusivamente la copia de seguridad del servidor Maestro (contiene datos,
usuarios, etc). Los otros servidores se reinstalarán de una forma sencilla y sin pérdida apenas
de tiempo. Con este montaje aseguramos dos copias de seguridad en el storage backup de dos
semanas atrás y de la semana anterior.
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
pvesh create /cluster/backup --starttime "00:00" \
-mailnotification failure -compress lzo -dow "sat" -enabled 1 -quiet 1 \
-storage "backup" -vmid "2254" -remove 1 -mode snapshot
En modo gráfico:
1. En la consola de administración seleccionamos Datacenter. A continuación, en el
menú contextual, seleccionamos Backup y pulsamos sobre el botón Add. Aparecerá
una ventana de programación de la copia de seguridad.
41
2. En Storage seleccionar backup, y marcar la máquina virtual 2254 para realizar los
domingos a las 0:0 horas una copia del snapshot del momento. Pulsar sobre Create para
continuar.
3. Para mantener el número de copias de seguridad en 2 (semana actual y anterior),
editaremos en el hipervisor el fichero /etc/cron.d/vzdump:
root@CODCENTROHV1# nano /etc/cron.d/vzdump
Comprobamos la línea de creación de copias y si no existe, añadimos el parámetro remove y
lo ponemos a 1.
0 0 * * 6 root vzdump 2254 --compress lzo --mode snapshot --remove 1 --quiet 1 --storage
Backup --mailnotification always
42
LISTADO DE USUARIOS / PASSWORDS ESTÁNDAR
Consola de gestión:
usuario: admin
Usuario root hipervisor:
usuario: root
Usuario administrador consola web hipervisor:
usuario: sai
Usuario de gestión de máquina virtual:
usuario: tic
Usuario local de servidores virtuales lliurex:
usuario: admin0
Usuario netadmin de servidores virtuales lliurex:
usuario: netadmin
Usuario roadmin de servidores virtuales lliurex:
usuario: roadmin
43
ANEXO 1. Subir ISO LliureX server al hipervisor.
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
axel -n 10 -o /backup/template/iso/ \
http://releases.lliurex.net/isos/16.06_64bits/lliurex-servidor_64bits_16_latest.
iso
En modo gráfico desde el equipo utilizado para realizar las instalaciones:
1. Acceder a releases.lliurex.net para obtener la última ISO disponible de LliureX.
a. Hacer clic sobre el sabor a descargar (1) Servidor 16.06
b. Hacer clic sobre la imagen a descargar (64 bits, la última disponible)
2. Aceptar para confirmar la descarga y guardarla en local.
44
3. Acceder con el navegador a la gui del hipervisor y seleccionar Datacenter ->
[CODCENTRO]HV1 -> backup, en la ventana de menú seleccionar Content.
4. A continuación hacer clic sobre Upload y en el cuadro de diálogo hacer clic sobre
Select File… para seleccionar el archivo a subir al hipervisor. Para terminar hacer clic
sobre Upload.
45
ANEXO 2. INSTALACIÓN LLIUREX EN [CODCENTRO]MAS
INSTALACIÓN SERVIDOR Maestro
1. Seleccionar la .ISO de server como imagen de arranque. Seleccionar
Datacenter->[COD_CEN]HV1->2254 ([CODCENTRO]MAS) y a continuación la
opción del menú contextual, Hardware. Finalmente, hacer doble clic sobre CD/DVD
Drive (ide2) o seleccionarlo y hacer clic sobre el botón Edit.
2. En el cuadro de edición, Edit: CD/DVD Drive , seleccionar Use CD/DVD disc
image file (iso), en Storage, seleccionar backup y en ISO image, seleccionar
lliurex-servidor_64bits_16_latest.iso. Para finalizar, hacer clic sobre Ok.
3. Iniciar la máquina virtual. Seleccionar Datacenter->[COD_CEN]HV1->2254
([CODCENTRO]MAS) y a continuación con el botón secundario del ratón
seleccionar Console del menú contextual.
46
4. Se abrirá una ventana y seleccionamos el botón de Inicio/Apagado para seleccionar a
continuación Start.
5. Se abrirá un cuadro de diálogo para confirmar el inicio de la máquina virtual, hacer
clic sobre Aceptar.
6. A continuación se realizará una instalación estándar de LliureX sobre la ventana como
si fuese un ordenador físico.
47
7. Pulsamos una tecla y nos aparecerá el menú. Si tenemos claro que lo queremos es
instalar, directamente le damos a la segunda opción:
48
8. Lo primero que tenemos que hacer es escoger la lengua con la que vamos a seguir el
proceso de instalación:
9. Nos aparecerá una ventana avisando que el equipo se está preparando para instalar
LliureX, hacer clic en Continuar.
49
10. Ahora seleccionaremos el tipo de instalación. Hacer clic sobre Más opciones y pulsar
sobre Continuar.
11. Seleccionamos /dev/vda y hacemos clic sobre Nueva tabla de particiones, a
continuación nos aparecerá un mensaje de confirmación, hacer clic sobre Aceptar
12. Ahora disponemos de todo el espacio del disco /dev/vda, seleccionamos Espacio
libre disponible y a continuación para crear las particiones / y swap.
50
a. Primero creamos /. Los campos son:
● Tamaño: 149000
● Tipo de la nueva partición: Primaria
● Ubicación de la nueva partición: Al principio de este espacio
● Utilizar como: seleccionar sistema de ficheros ext4 transaccional
● Punto de montaje: /
b. A continuación swap. Los campos son:
i. Tamaño: ‘el resto’
ii. Tipo de la nueva partición: Lógica
iii. Ubicación de la nueva partición: Al principio de este espacio
iv. Utilizar como: seleccionar área de intercambio
13. Ahora seleccionamos /dev/vdb y hacemos clic sobre Nueva tabla de particiones, a
continuación nos aparecerá un mensaje de confirmación, hacer clic sobre Aceptar
a. Creamos /net. Los campos son:
● Tamaño: ‘todo el tamaño disponible’
51
● Tipo de la nueva partición: Primaria
● Ubicación de la nueva partición: Al principio de este espacio
● Utilizar como: seleccionar sistema de ficheros ext4 transaccional
● Punto de montaje: /net
14. Para terminar el proceso de particionado, hacer clic sobre Instalar ahora. Aparecerá
una ventana de confirmación para avisar que este paso supone la pérdida de los datos
de los discos duros. Hacer clic en Continuar.
15. Seleccionamos el lugar donde nos encontramos. Normalmente la opción que viene por
defecto es la correcta por lo que sólo habría que darle a continuar:
52
16. Y la distribución de teclado. Al igual que antes, la opción que viene por defecto suele
ser la correcta:
17. Si queremos instalar software adicional en la instalación inicial lo podemos hacer
aquí. Podemos instalar estos paquetes a posteriori si queremos. Por tanto, no
seleccionar nada y hacer clic en continuar.
[****IMAGEN A INSERTAR****]
53
18. En la siguiente pantalla nos pregunta si queremos que el equipo se actualice
automáticamente en el caso de que se detecte algún fallo de seguridad. Es importante
marcar esta opción para estar siempre protegidos. Además se nos pregunta si
queremos enviar estadísticas anónimas sobre el uso que damos al ordenador. En el
caso de ser una instalación personal podemos desactivarla, pero si es una instalación
en el centro es muy recomendable dejarla activada, ya que permite conocer al equipo
de LliureX cuáles son los programas más utilizados y dónde centrar los esfuerzos.
19. Luego nos pide si queremos instalar controladores adicionales. Esta opción es
importante NO marcarla a no ser que sepamos con certeza que tenemos una tarjeta
NVIDIA:
54
20. Posteriormente sólo nos quedaría escoger nuestro usuario y contraseña y el nombre de
nuestro equipo. Este usuario y contraseña es local, debemos escoger:
● Introduzca su nombre: admin0
● Nombre de equipo: [CODCENTRO]MAS
● Nombre de usuario: admin0
● Introduzca su contraseña / Confirme su contraseña: según anexo
A continuación hacer clic en Continuar
55
21. Con todos estos datos el sistema ya puede instalarse en nuestro equipo. Ahora ya sólo
queda esperar hasta que termine el proceso de instalación. Este proceso suele llevar
unos 20 minutos, dependiendo de la configuración de nuestro equipo
22. Finalmente ya nos avisa que ya ha terminado el proceso de instalación. Ya sólo queda
reiniciar el sistema y quitar el dispositivo que hemos usado para instalarlo (cuando se
apague el sistema).
56
INICIALIZACIÓN SERVIDOR Maestro
Vamos a ponerlo en funcionamiento y a continuación ejecutar el zero-server-wizard para
inicializarlo y hacer el mirror para el centro.
1. Iniciar sesión con el usuario admin0 y contraseña ‘según anexo’
2. Actualizar el servidor.
a. Una vez instalado el servidor lo primero que debemos hacer es actualizarlo, ya
que pueden haber salido nuevas actualizaciones desde que se generó la imagen
ISO que hemos utilizado para instalar el equipo. Para actualizar el servidor
iremos al menú principal de aplicaciones y en la sección de "Administración
de LliureX" escogeremos la aplicación "Actualizador de LliureX":
b. Se abrirá una ventana que solicita la contraseña de admin0 (usuario
administrador local).
57
c. A continuación se abre una ventana que muestra el proceso de actualización.
d. Si hay actualizaciones disponibles nos aparecerá el siguiente cuadro de
diálogo. Hacer clic sobre Actualizar ahora para continuar con el proceso de
actualización.
58
e. A continuación se inicia el proceso de actualización…
f. Que finaliza con este cuadro de diálogo. Hacer clic sobre Ok para terminar el
proceso de actualización.
3. Inicializar el servidor como maestro.
59
a. Para inicializar el servidor iremos al menú principal de aplicaciones y en la
sección de "Administración de LliureX" escogeremos la aplicación Zero
Center y dentro de la misma, seleccionaremos el Zero Server Wizard.
b. En el cuadro de diálogo seleccionar el panel Maestro. Y en los cuadros de
edición teclear:
■ Contraseña de netadmin: ‘según anexo’
■ Nombre del servidor: [CODCENTRO]MAS
■ Opciones de NFS: exportar /net
■ Red del servidor
1. Red interna: eth0; IP Interna: 10.2.0.254; Máscara interna:
255.255.255.0
2. Interfaz externa: eth1; Modo de configuración: Manual
a. IP Externa: [IPREDCENTRO].254; Máscara externa:
255.255.255.0; Puerta de enlace externa:
[IPREDCENTRO].1
3. Interfaz de replicación: eth2
4. DNS: 172.27.111.5; 172.27.111.6
60
c. Hacer clic en Aplicar, se abrirá un cuadro de diálogo para terminar con la
configuración. Hacer clic sobre la casilla de selección I understand than
current LDAP users will be deleted (los usuarios actuales se borrarán) y
hacer clic sobre Aplicar.
d. Para terminar la configuración hacer clic sobre Aceptar.
e. Reiniciar el servidor.
61
INICIALIZACIÓN SERVIDOR CENTRO/AULA1...
Tenemos definido el servidor de CENTRO que va a hacer de servidor esclavo de nuestro
centro. Vamos a ponerlo en funcionamiento y a continuación ejecutar el zero-server-wizard
para inicializarlo.
1. Iniciar sesión con el usuario admin0 y contraseña ‘la conocida’
2. Actualizar el servidor.
a. Una vez instalado el servidor lo primero que debemos hacer es actualizarlo, ya
que pueden haber salido nuevas actualizaciones desde que se generó la imagen
ISO que hemos utilizado para instalar el equipo. Para actualizar el servidor
iremos al menú principal de aplicaciones y en la sección de "Administración
de LliureX" escogeremos la aplicación "Actualizador de LliureX":
b. Se abrirá una ventana que solicita la contraseña de admin0 (usuario
administrador local).
62
c. A continuación se abre una ventana que muestra el proceso de actualización.
d. Si hay actualizaciones disponibles nos aparecerá el siguiente cuadro de
diálogo. Hacer clic sobre Actualizar ahora para continuar con el proceso de
actualización.
63
e. A continuación se inicia el proceso de actualización…
f. Que finaliza con este cuadro de diálogo. Hacer clic sobre Ok para terminar el
proceso de actualización.
3. Inicializar el servidor como esclavo.
64
a. Para inicializar el servidor iremos al menú principal de aplicaciones y en la
sección de "Administración de LliureX" escogeremos la aplicación Zero
Center y dentro de la misma, seleccionaremos el Zero Server Wizard.
b. En el cuadro de diálogo seleccionar el panel Esclavo. Y en los cuadros de
edición teclear:
■ Contraseña de netadmin: ‘la que sabes’
■ Nombre del servidor: [CODCENTRO]CEN/[CODCENTRO]AU1/...
■ Opciones de NFS: Montar /net del maestro
■ Red del servidor
1. Red interna: eth0; IP Interna: 10.2.10.254/10.2.11.254/...;
Máscara interna: 255.255.255.0
2. Interfaz externa: eth1; Modo de configuración: Manual
a. IP externa: [IPREDCENTRO].253/252/...; Máscara
externa: 255.255.255.0; Puerta de enlace externa:
[IPREDCENTRO].1
3. Interfaz de replicación: eth2
4. DNS: 172.27.111.5; 172.27.111.6
65
c. Hacer clic en Aplicar, se abrirá un cuadro de diálogo para terminar con la
configuración. Hacer clic sobre Aplicar.
d. Para terminar la configuración hacer clic sobre Aceptar.
e. Reiniciar el servidor.
66
ANEXO 3: SCRIPT COMPLETO CONFIGURACIÓN PROXMOX.
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
#!/bin/bash
##############################################################################
# Configuración del código de centro a partir del nombre del hipervisor
# Elimina la coletilla del hipervisor (8 primeros carácteres)
##############################################################################
codcentro=$(cat /etc/hostname | cut -c1-8)
##############################################################################
# Configuración sources.list y actualización
##############################################################################
echo "deb http://download.proxmox.com/debian stretch pve-no-subscription" > \
/etc/apt/sources.list.d/pve-non-subscription-repo.list
wget -O- "http://download.proxmox.com/debian/key.asc" | apt-key add -
sed -i.bak 's|deb https://enterprise.proxmox.com/debian/pve stretch
pve-enterprise|# deb https://enterprise.proxmox.com/debian/pve stretch
pve-enterprise|' /etc/apt/sources.list.d/pve-enterprise.list
apt update
apt upgrade --assume-yes
apt install ethtool iperf parted libfile-pid-perl libposix-2008-perl \
libpve-apiclient-perl liblog-log4perl-perl --assume-yes
##############################################################################
# Configuración disco duro
##############################################################################
for part in /dev/sdb* ; do umount $part ; done
echo -e "o\nw" | fdisk /dev/sdb
67
partprobe /dev/sdb
echo -e "n\np\n1\n\n\nw" | fdisk /dev/sdb
mkfs.ext4 -q -F /dev/sdb1
mkdir -p /backup
echo "/dev/sdb1 /backup ext4 defaults 0 1" >> /etc/fstab
mount -a
pvesh create storage --storage backup --type dir --content iso,backup \
--maxfiles 2 --path /backup --shared 0
##############################################################################
# Configuración grub
##############################################################################
sed -i.bak
's|GRUB_CMDLINE_LINUX_DEFAULT="quiet"|GRUB_CMDLINE_LINUX_DEFAULT="quiet
nomodeset i915.modeset=0"|' /etc/default/grub
update-grub2
##############################################################################
# Configuración interfaces
##############################################################################
pvesh create /nodes/localhost/network/ --iface vmbr9 --type bridge \
--bridge_ports "" --autostart 1 --comments "Maestro interna"
pvesh create /nodes/localhost/network/ --iface vmbr40 --type bridge \
--bridge_ports "" --autostart 1 --comments "Interfaz de sincronización"
pvesh create /nodes/localhost/network/ --iface vmbr10 --type bridge \
--bridge_ports "enp1s0" --autostart 1 --comments "Interfaz interna Centro"
pvesh create /nodes/localhost/network/ --iface vmbr11 --type bridge \
--bridge_ports "enp2s0" --autostart 1 --comments "Interfaz interna Aula1"
pvesh create /nodes/localhost/network/ --iface vmbr12 --type bridge \
--bridge_ports "enp3s0" --autostart 1 --comments "Interfaz interna Aula2"
pvesh create /nodes/localhost/network/ --iface vmbr20 --type bridge \
--bridge_ports "enp4s0" --autostart 1 --comments "Interfaz interna Wifi"
##############################################################################
# Configuración interfaces
##############################################################################
68
pveum groupadd sai -comment "Técnicos del SAI"
pveum groupadd tic -comment "Coordinadores TIC del Centro"
pveum aclmod /nodes -group sai -role "Administrator"
pveum aclmod /vms -group tic -role "PVEVMUser"
pveum useradd sai@pve -group sai
pveum useradd tic@pve -group tic
pvesh set /access/password --password [la que decidas] --userid sai@pve
pvesh set /access/password --password [la que decidas] --userid tic@pve
##############################################################################
# Configuración máquinas virtuales
##############################################################################
pvesh create /nodes/localhost/qemu --vmid 2254 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr9 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=1,up=240" -name $codcentro"MAS"
pvesh create /nodes/localhost/qemu/2254/config -virtio0
"local-lvm:150,cache=writethrough"
pvesh create /nodes/localhost/qemu/2254/config -virtio1
"local-lvm:750,cache=writethrough"
pvesh create /nodes/localhost/qemu --vmid 2253 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr10 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=2,up=120" -name $codcentro"CEN"
pvesh create /nodes/localhost/qemu/2253/config -virtio0
"local-lvm:150,cache=writethrough"
pvesh create /nodes/localhost/qemu --vmid 2252 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr11 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr40 \
69
-ide2 none,media=cdrom \
-onboot 1 -startup "order=2,up=120" -name $codcentro"AU1"
pvesh create /nodes/localhost/qemu/2252/config -virtio0
"local-lvm:150,cache=writethrough"
pvesh create /nodes/localhost/qemu/2245/config -virtio0
"local-lvm:150,cache=writethrough"
pvesh create /nodes/localhost/qemu --vmid 2245 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr20 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr40 \
-ide2 none,media=cdrom \
-onboot 0 -startup "order=2,up=120" -name $codcentro"WF1"
pvesh create /nodes/localhost/qemu/2252/config -virtio0
"local-lvm:150,cache=writethrough"
pvesh create /nodes/localhost/qemu --vmid 2201 \
-memory 2048 -sockets 1 -cores 1 \
-net0 virtio,bridge=vmbr1,tag=10 \
-ide2 none,media=cdrom \
-onboot 0 -name $codcentro"CSD"
##############################################################################
# Configuración copias de seguridad
##############################################################################
pvesh create /cluster/backup --starttime "00:00" \
-mailnotification failure -compress lzo -dow "sat" -enabled 1 -quiet 1 \
-storage "backup" -vmid "2254" -remove 1 -mode snapshot
echo "El proceso ha terminado correctamente. El hipervisor se reiniciará en 5
segundos...."
pause 5
reboot
70
ANEXO 4. CONFIGURACIÓN CON AGREGADOS
En esta configuración necesitamos tener un switch que permita agregados (LACP, 802.3ad) y
VLANs.
La configuración será la siguiente:
● Se configura el hipervisor con la tarjeta de gestión conectada directamente a
MacroLAN
● Se configuran las restantes tarjetas del hipervisor como un agregado (bond1) y sobre
la misma se crea un bridge (vmbr1).
● Las máquinas virtuales se configuran utilizando VLANs (10 -> Interna Centro; 11 ->
Interna Aula1; 12 -> Interna Aula2; 20 -> Wifi; 40 -> Interconexión; 9 -> Interna
Wifi) sobre el bridge 1 (vmbr1)
Evidentemente el switch se deberá configurarse con las VLANs y los agregados necesarios.
El particular, para estandarizar las configuraciones tendremos:
VLANs
PVID LAG Name Dirección Red Máscara Descripción
1 Default 172.X.Y.0 Acceso a MACROLAN/Internet. VLAN administración SW
10 Centro 10.2.10.0 255.255.255.0 Red de centro
11 Aula1 10.2.11.0 255.255.255.0 Aula de informática 1
12 Aula2 10.2.12.0 255.255.255.0 Aula de informática 2
13 Aula3 10.2.13.0 255.255.255.0 Aula de informática 3
14 Aula4 10.2.14.0 255.255.255.0 Aula de informática 4
15 Aula5 10.2.15.0 255.255.255.0 Aula de informática 5
20 Wifi1 10.2.20.0 255.255.254.0 Wifi 1
21 Wifi2 10.2.22.0 255.255.254.0 Wifi 2
30 DRBD-CEPH 192.168.1.0 255.255.255.0 Cluster-Almacenamiento distribuido
40 REPLICA 10.2.40.0 255.255.255.0 Red de REPLICA
Esquema de conexionado. Tabla mínima.
Port Port
01 ROUTER p9 n-7 Interna Wifi
02 Externa HV1 n-6 Interna Aula2
03 PC 1 n-5 Interna Aula1
04 PC 2 n-4 Interna Centro
.. .. n-3 Reservado o LACP HV1 p4
.. .. n-2 LACP HV1 p3
.. .. n-1 LACP HV1 p2
m PC m n LACP HV1 p1
71
Asignación Puerto a LAG - IEEE 802.1q
ID LAG Name Puertos miembro Descripción
1 LAG1 [pn:pn-3] Cuatro puertos bond del hipervisor
2 LAG2 Deshabilitados
3 LAG3 Deshabilitados
4 LAG4 Deshabilitados
5 LAG5 Deshabilitados
6 LAG6 Deshabilitados
7 LAG7 Deshabilitados
8 LAG8 Deshabilitados
Tabla PVID - IEEE 802.1q
Port PVID Port PVID Port PVID Port PVID Port PVID Port PVID Port PVID Port PVID
01 1 02 1 03 1 04 1 05 1 06 1 07 1 08 1
09 1 10 1 11 1 12 1 13 1 14 1 15 1 16 1
17 20 18 12 19 11 20 10 21 1 22 1 23 1 24 1
25 26 27 28 29 30 31 32
33 34 35 36 37 38 39 40
41 42 43 44 45 46 47 48
49 50 51 52
LAG I1 1 LAG I2 LAG I3 LAG I4 LAG I5 LAG I6 LAG I7 LAG I8
Asignación VLANs - IEEE 802.1q. Tabla mínima
VLAN
ID
Configuración VLAN a puerto
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
LAG I1
1 U U U U U U U U U U U U U U U U T T T T
10 U T T T T
11 U T T T T
12 U T T T T
20 U T T T T
40 T T T T
Finalmente, en el hipervisor, la configuración de los interfaces de red y de las máquinas
virtuales se hará con los siguientes comandos:
Consola:
[Opcional]
$ ssh root@[IPHIPERVISOR]
[Ya en la consola del hipervisor]
#!/bin/bash
##############################################################################
# Configuración sources.list y actualización
##############################################################################
echo "deb http://download.proxmox.com/debian stretch pve-no-subscription" > \
/etc/apt/sources.list.d/pve-non-subscription.list
72
wget -O- "http://download.proxmox.com/debian/key.asc" | apt-key add -
sed -i.bak 's|deb https://enterprise.proxmox.com/debian/pve stretch
pve-enterprise|# deb https://enterprise.proxmox.com/debian/pve stretch
pve-enterprise|' /etc/apt/sources.list.d/pve-enterprise.list
apt update
apt upgrade --assume-yes
apt install ethtool iperf parted libfile-pid-perl libposix-2008-perl
libpve-apiclient-perl liblog-log4perl-perl --assume-yes
##############################################################################
# Configuración disco duro
##############################################################################
for part in /dev/sdb* ; do umount $part ; done
echo -e "o\nw" | fdisk /dev/sdb
partprobe /dev/sdb
echo -e "n\np\n1\n\n\nw" | fdisk /dev/sdb
mkfs.ext4 -q -F /dev/sdb1
mkdir -p /backup
echo "/dev/sdb1 /backup ext4 defaults 0 1" >> /etc/fstab
mount -a
pvesh create storage --storage backup --type dir --content iso,backup \
--maxfiles 2 --path /backup --shared 0
##############################################################################
# Configuración grub
##############################################################################
sed -i.bak
's|GRUB_CMDLINE_LINUX_DEFAULT="quiet"|GRUB_CMDLINE_LINUX_DEFAULT="quiet
nomodeset i915.modeset=0"|' /etc/default/grub
update-grub2
##############################################################################
# Configuración interfaces
##############################################################################
73
pvesh create /nodes/localhost/network/ --iface bond1 --type bond --slaves
"enp1s0 enp2s0 enp3s0" --bond_mode 802.3ad --autostart 1 --comments "Bond de
hipervisor"
pvesh create /nodes/localhost/network/ --iface vmbr1 --type bridge \
--bridge_ports "bond1" --autostart 1 --comments "Bond servicios de red"
##############################################################################
# Configuración interfaces
##############################################################################
pveum groupadd sai -comment "Técnicos del SAI"
pveum groupadd tic -comment "Coordinadores TIC del Centro"
pveum aclmod /nodes -group sai -role "Administrator"
pveum aclmod /vms -group tic -role "PVEVMUser"
pveum useradd sai@pve -group sai
pveum useradd tic@pve -group tic
pvesh set /access/password --password [la que decidas] --userid sai@pve
pvesh set /access/password --password [la que decidas] --userid tic@pve
##############################################################################
# Configuración máquinas virtuales
##############################################################################
pvesh create /nodes/localhost/qemu --vmid 2254 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr1,tag=9 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr1,tag=40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=1,up=240" -name "[CODCENTRO]MAS"
pvesh create /nodes/localhost/qemu/2254/config -virtio0
"local-lvm:150,cache=writeback"
pvesh create /nodes/localhost/qemu/2254/config -virtio1
"local-lvm:750,cache=writeback"
pvesh create /nodes/localhost/qemu --vmid 2253 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr1,tag=10 \
74
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr1,tag=40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=2,up=120" -name "[CODCENTRO]CEN"
pvesh create /nodes/localhost/qemu/2253/config -virtio0
"local-lvm:150,cache=writeback"
pvesh create /nodes/localhost/qemu --vmid 2252 \
-memory 8192 -sockets 1 -cores 2 \
-net0 virtio,bridge=vmbr1,tag=11 \
-net1 virtio,bridge=vmbr0 \
-net2 virtio,bridge=vmbr1,tag=40 \
-ide2 none,media=cdrom \
-onboot 1 -startup "order=2,up=120" -name "[CODCENTRO]AU1"
pvesh create /nodes/localhost/qemu/2252/config -virtio0
"local-lvm:150,cache=writeback"
pvesh create /nodes/localhost/qemu --vmid 2201 \
-memory 2048 -sockets 1 -cores 1 \
-net0 virtio,bridge=vmbr1,tag=10 \
-ide2 none,media=cdrom \
-onboot 0 -name "[CODCENTRO]CSD"
##############################################################################
# Configuración copias de seguridad
##############################################################################
pvesh create /cluster/backup --starttime "00:00" \
-mailnotification always -compress lzo -dow "sat" -enabled 1 -quiet 1 \
-storage "backup" -vmid "2254" -remove 1 -mode snapshot
reboot
75
ANEXO 5. COMPROBANDO PROXMOX DE FORMA AUTOMÁTICA
Habilitamos scripts para comprobar que el proxmox o sus máquinas virtuales están
configurados según una plantilla determinada.
Tenemos las siguientes plantillas en un centro con un único hipervisor: Simple y
ConAgregados.
Simple:
Las plantilla de configuración de la red del hipervisor se obtendrá mediante los siguientes
comandos:
pvesh get /nodes/localhost/network/vmbr0
pvesh get /nodes/localhost/network/vmbr9
pvesh get /nodes/localhost/network/vmbr10
pvesh get /nodes/localhost/network/vmbr11
pvesh get /nodes/localhost/network/vmbr12
pvesh get /nodes/localhost/network/vmbr13
pvesh get /nodes/localhost/network/vmbr40
pvesh get /nodes/localhost/network/enp0s31f6
pvesh get /nodes/localhost/network/enp1s0
pvesh get /nodes/localhost/network/enp2s0
pvesh get /nodes/localhost/network/enp3s0
pvesh get /nodes/localhost/network/enp4s0
Las plantillas de los servidores virtuales se obtendrán utilizando los siguientes comandos:
Server
pvesh get /nodes/localhost/qemu/2254/config
pvesh get /nodes/localhost/qemu/2253/config
76
pvesh get /nodes/localhost/qemu/2252/config
ConAgregados:
Las plantilla de configuración de la red del hipervisor se obtendrá mediante los siguientes
comandos:
pvesh get /nodes/localhost/network/vmbr0
pvesh get /nodes/localhost/network/bond1
pvesh get /nodes/localhost/network/vmbr1
pvesh get /nodes/localhost/network/enp0s31f6
pvesh get /nodes/localhost/network/enp1s0
pvesh get /nodes/localhost/network/enp2s0
pvesh get /nodes/localhost/network/enp3s0
pvesh get /nodes/localhost/network/enp4s0
Las plantillas de los servidores virtuales se obtendrán utilizando los siguientes comandos:
Server
pvesh get /nodes/localhost/qemu/2254/config
pvesh get /nodes/localhost/qemu/2253/config
pvesh get /nodes/localhost/qemu/2252/config
77