[TOC]
Edit 2022: Article mis à jour pour nettoyer les parties obsolètes : utilisation de sshd et du raid soft
Pas d'ipmi, pas de KVM, pas de console ? Et pourtant vous voulez installer votre serveur openvz ?
C'est possible et dans cet article, on va voir comment vous pouvez vous en tirer !
En bonus, parce que sinon ce serait trop facile, on va également voir comment chiffrer le serveur et lancer un serveur SSH au boot pour entrer le mot de passe et déchiffrer le disque.
Vous aurez ainsi un serveur openvz entièrement chiffré pour faire tourner vos container ou vos VM, ce qui est très appréciable à notre époque où la confidentialité des données est un problème important.
Vous pouvez très bien faire confiance à votre hébergeur (ou à ceux qui pourraient lui demander d'accéder à vos données), mais personnellement je pense que si vous ne vous mettez pas dans la situation ou vous devez lui faire confiance, c'est encore plus simple ;-)
Je ne vais par contre pas vous mentir, sans accès visuel, le debug en cas de problèmes peut être trèèèèès relou.
Je vais ici décrire la procédure complète qui a fonctionné plusieurs fois chez moi, mais il a fallut de nombreux tests... Si jamais vous ne vous en sortez pas, n'hésitez pas à commenter, j'essaierai de vous aider au mieux !
Attention ! Cela va de soit, mais cette procédure va totalement effacer les données de votre serveur. S'il n'est pas neuf et que vous souhaitez récupérer des données dessus, pensez à les backuper ;-)
Je le dis tout de suite, il va vous falloir quand même quelques trucs pour vous faciliter la vie et permettre l'installation.
Pour permettre l'installation à distance, il va falloir faire en sorte que les fichiers de l'image ISO openvz7 soient accessibles en HTTP pour que votre serveur puisse récupérer les fichiers à distance lors de son démarrage.
Ces manipulations doivent donc avoir lieu sur un AUTRE serveur que celui que vous allez installer !
Je partirai également du principe que vous avez un serveur HTTP. N'importe quel serveur web fera l'affaire, apache, nginx, IIS, c'est selon vos préférenes ou ce qui est disponible.
Téléchargez votre iso depuis les mirroirs openvz. Vous pouvez prendre l'image classique (pas la netinstall).
Il va vous falloir mettre à disposition les fichiers de l'image via HTTP. On va donc monter l'ISO sur votre serveur web, puis poser les fichiers dans un vhost pour qu'ils soient disponibles.
mount openvz-iso-7.0.5-netinstall.iso /votre_repertoire_web/
Faites en sortes que ce répertoire soit accessible sur une adresse type http://votredomain.tld/vz. Il doit pointer directement dans le répertoire où est montée l'image.
Notez cette adresse dans un coin, ça va resservir. :-)
Redémarrer votre serveur sur votre mode rescue, pour nettoyer à fond les disques dur de votre serveur avant l'installation.
Pour ça, on va utiliser l'outil Shred. En mode rescue, vous pouvez effacer vos disques tranquillement.
Je vous conseille d'utliser au moins 2 passes, tout en remplissant de zéro pour être carré :
shred -n 2 -z /dev/sda
Ca peut prendre pas mal de temps selon la taille des disques, jusqu'à plusieurs heures... Lancez le de nuit si possible, mais pour que le chiffrement soit efficace, mieux vaut que le disque ne soit pas prédictible :-)
Pour télécharger les fichiers nécessaires au lancement de l'installation, il vous faudra un OS installé sur votre serveur.
Vous aurez besoin de générer un grub et de poser quelques fichiers dans /boot donc un Linux selon votre préférence. Pour ma part, je part sur un debian.
Réinstallez donc votre serveur via le système d'installation de votre hébergeur, connectez vous en SSH, et go !
Récupérez via votre serveur HTTP (celui avec l'ISO montée) les 2 fichiers d'install PXE :
wget http://votredomaine.tld/vz/images/pxeboot/initrd.img -O /boot/initrd_ovz7.img
wget http://votredomaine.tld/vz/images/pxeboot/vmlinuz -O /boot/vmlinuz_ovz7
Notez la configuration réseau de votre serveur. Il vous faut adresse IP, passerelle, masque réseau et serveurs DNS :
ip address show
cat /etc/resolv.conf
Vérifiez quel driver grub utilise pour votre partition de boot, et l'id de la partition /boot au passage :
grep "hint" /boot/grub/grub.cfg
# search --no-floppy --fs-uuid --set=root --hint='hd0,msdos1' xxxx-xxxx-xxxx-xxxx-xxxx
# Ici on veut récupérer l'info du --hint, ainsi que l'ID du disque xxxx-....
On va ensuite éditer grub pour ajouter une entrée spécifique pour booter sur l'installeur :
vim /etc/grub.d/40_custom
Et ajoutez après les commentaires le contenu suivant :
Attention à ne pas enlever le exec tail -n +3 $0
dans le fichier
menuentry 'NetInstall' {
load_video
set gfxpayload=keep
insmod gzio
insmod part_msdos
insmod ext2
set root='HINT'
if [ x$feature_platform_search_hint = xy ]; then
search --no-floppy --fs-uuid --set=root --hint='HINT' ID_DISQUE
else
search --no-floppy --fs-uuid --set=root ID_DISQUE
fi
linux /vmlinuz_ovz7 vnc vncpassword=guigui inst.vncpassword=guigui headless inst.repo=https://votredomaine.tld/vz/ ip=IP_SERVEUR netmask=MASQUE_SERVEUR gateway=PASSERELLE_SERVEUR dns=DNS_SERVEUR nameserver=DNS_SERVEUR biosdevname=0 net.ifnames=0 ksdevice= bootproto=static lang=en_US keymap=us text noipv6
initrd /initrd_ovz7.img
}
Cette configuration va permettre de redémarrer le serveur sur une console VNC pour permettre d'installer openvz7 en mode graphique à distance :-)
Editez bien entendu les valeurs ci dessous :
hd0,msdos
, hd1,gpt
, ...)Puis regénérez la configuration de grub :
grub-mkconfig -o /boot/grub/grub.cfg
Et enfin, configurez votre serveur pour redémarrer sur votre installeur au prochain reboot. Cette option permettra de redémarrer sur l'entrée grub, mais une fois seulement.
Ainsi, si jamais il ne démarre pas ou que l'installation se passe mal (avant le formatage bien sûr), un simple redémarrage électrique le fera redémarrer sur son OS de base.
grub-reboot NetInstall
Attention, si votre serveur utilise une partition /boot sur un RAID soft, cette commande est durable. En cas de souci, il faudra passer par le rescue pour reconfigurer le démarrage sur le bon os.
On va maintenant pouvoir redémarrer et récupérer la console VNC.
Redémarrez votre serveur, et lancez un ping sur son adresse IP. Dès qu'il répond, lancez votre console VNC sur l'IP du serveur, avec le port :5901
ou :1
.
Attention, malgré pas mal de recherches et de tests, je n'ai pas réussi à monter une connexion chiffrée pour ce VNC... Sachez donc que tout ce que vous y entrerez sera potentiellement récupérable en clair sur Internet !
Préparez vous donc à utiliser des mots de passe temporaires pour le chiffrement des disques et les accès utilisateurs. Nous les changerons dès l'installation terminée via une connexion SSH un peu plus robuste :-)
Vous avez accès à la console VNC en mode graphique, donc rien de très compliqué pour l'installation. La documentation officielle est parfaite à ce niveau là.
Normalement, la configuration réseau est déjà faite grâce aux options de grub, donc rien à toucher.
Le partitionnement des disques par défaut est en théorie suffisant, mais c'est le moment de penser à cocher "Encrypt" !
Vous devez cocher la case pour toutes les partitions sauf /boot et la petite partition "BIOS Boot".
En sortant du menu de partionnement, l'installeur vous demandera les mots de passe pour le chiffrement. Il est important de mettre le même mot de passe pour toutes les partitions.
Attention là encore à ne pas mettre le mot de passe final, car la connexion à VNC n'est pas chiffrée !
Laissez ensuite l'installation se terminer tranquillement, puis passez à la suite.
Pour cette partie, il va falloir redémarrer votre serveur en mode rescue de nouveau.
En effet, votre serveur est désormais installé, ses disques sont chiffrés, mais vous n'avez pour l'instant aucun moyen de taper le mot de passe demandé au boot pour déchiffrer les disques !
On va donc modifier directement le initramfs pour y intégrer un petit serveur SSH qui se lancera au boot, et qui permettra ainsi de taper le mot de passe au démarrage en toute sécurité.
Une fois revenu en mode rescue, préparez vous à monter votre système en chroot. Je part ici du principe que vous avez gardé le partionnement par défaut, donc pensez à adapter le nom des partitions dans la suite si besoin.
On va commencer par changer les mots de passe bidon des partitions maintenant que nous sommes sur une connexion ssh sécurisée.
La manipulation change toutefois selon que vous ayez gardé du lvm monodisque, ou utilisé une configuration avec raid multidisque, choisissez celle qui vous convient le mieux !
vgchange -a y
cryptsetup luksChangeKey /dev/sda3 # On change le mot de passe du swap
cryptsetup luksChangeKey /dev/mapper/virtuozzo-root # On change le mot de passe du /
cryptsetup luksChangeKey /dev/mapper/virtuozzo-vz # On change le mot de passe du vz
cryptsetup luksOpen /dev/mapper/virtuozzo-root crypt_root
mkdir -p /mount/openvz
mount /dev/mapper/crypt_root /mount/openvz
mount /dev/sda2 /mount/openvz/boot
mount -o bind /dev/ /mount/openvz/dev/
mount -o bind /sys/ /mount/openvz/sys
mount -o bind /proc/ /mount/openvz/proc/
chroot /mount/openvz
Pour commencer, récupérez les partitions qui correspondent entre-elles sur vos disques
fdisk -l /dev/sda
# Start End Size Type Name
1 2048 4095 1M BIOS boot
2 4096 2101247 1G Microsoft basic
3 2101248 5760518143 2,7T Linux RAID
4 5760518144 5827631103 32G Linux RAID
5 5827631104 5860532223 15,7G Linux RAID
fdisk -l /dev/sdb
# Start End Size Type Name
1 2048 5758418943 2,7T Linux RAID
2 5758418944 5825531903 32G Linux RAID
3 5825531904 5858433023 15,7G Linux RAID
L'objectif ici est de rapprocher les partitions qui "vont ensembles" en raid mdadm, en utilisant leur taille, puisque 2 partitions en raid doivent être identiques.
On observe par exemple que
Une fois cette correspondance faite, on va dire à mdadm d'activer les volumes raid.
On prends ici l'exemple d'un raid1 avec 2 disques, dans le cas de raid5, ou 6, ajoutez les partitions nécessaires.
# Modifiez bien vos partitions si nécessaire !
mdadm -A -R /dev/md1 /dev/sda3 /dev/sdb1
mdadm -A -R /dev/md2 /dev/sda4 /dev/sdb2
mdadm -A -R /dev/md3 /dev/sda5 /dev/sdb3
cryptsetup luksChangeKey /dev/md1
cryptsetup luksChangeKey /dev/md2
cryptsetup luksChangeKey /dev/md3
cryptsetup luksOpen /dev/md2 crypt_root
mkdir -p /mount/openvz
mount /dev/mapper/crypt_root /mount/openvz
mount /dev/sda2 /mount/openvz/boot
mount -o bind /dev/ /mount/openvz/dev/
mount -o bind /sys/ /mount/openvz/sys
mount -o bind /proc/ /mount/openvz/proc/
chroot /mount/openvz
Une fois dans le chroot, les choses marrantes reprennent ;-)
La connexion au boot se fera exclusivement avec une clef SSH. Si vous avez besoin de générer une clef SSH, vous pouvez vous référer à cet article .
Commencez donc par poser votre clef ssh dans le chroot directement, ainsi elle sera prête pour votre connexion une fois le serveur démarré.
mkdir -p /root/.ssh
vim /root/.ssh/authorized_keys # Entrez votre clef SSH personnelle
chmod 700 /root/.ssh
chmod 600 /root/.ssh/authorized_keys
J'utilisais précédemment dracut-crypt-ssh qui implémentait DropbearSSH, mais après plusieurs années de bons et loyaux services, il n'est plus maintenu.
On peut avantageusement le remplacer désormais par dracut-sshd qui utilise pour sa part openssh.
yum install yum-plugin-copr
yum copr enable gsauthof/dracut-sshd/
yum update
yum install dracut-sshd
mkdir /etc/dracut-sshd
cp /root/.ssh/authorized_keys /etc/dracut-sshd/
Si vous utilisez un raid software il est nécessaire d'indiquer à dracut de charger le driver correspondant
vim /etc/dracut.conf
# Modifier et décommentez l'entrée add_drivers
add_drivers+="raid1" # Dans le cas d'un raid1, sinon raid5, raid6, raid0, ...
Par défaut, dracut va générer un initramfs pour le noyau sur lequel le serveur est démarré, à savoir celui du rescue.
Pas très utile dans notre cas...
Récupérez donc le "vrai" noyau qu'utilise openvz, c'est à dire le dernier (classé par nom) disponible dans /boot :
# ls /boot/
[...]
vmlinuz-3.10.0-514.16.1.vz7.30.10
On va ici générer l'image initramfs pour le noyau 3.10.0-514.16.1.vz7.30.10 :
dracut --force /boot/initramfs-3.10.0-514.16.1.vz7.30.10.img 3.10.0-514.16.1.vz7.30.10
La commande dracut ne doit rien vous renvoyer mais peut être longue à exécuter... Si vous avez une erreur, vous devrez chercher la solution avant le prochain redémarrage, car votre initramfs risque d'être HS. Au pire, le mode rescue vous sera extrêmement utile !
Une fois que le initramfs a été généré sans erreur, on va s'occuper du réseau.
Reprenez ici la configuration réseau que vous aviez noté plus haut pour le boot VNC, ça va resservir.
On va éditer le fichier /etc/default/grub
pour demander à grub de monter le réseau au démarrage.
GRUB_CMDLINE_LINUX="... rd.neednet=1 ip=IP_SERVEUR::PASSERELLE_SERVEUR:MASQUE_SERVEUR:centos:enp0s3:off dns=DNS_SERVEUR nameserver=DNS_SERVEUR"
Ici on va réutiliser les paramètres réseaux, mais ce qu'il faut surtout noter, c'est la partie "enp0s3".
Il s'agit de votre interface réseau, nommée d'après les paramètres du Bios de votre serveur, les classiques ethX ayant été abandonnés depuis les derniers noyaux. Si jamais vous ne la connaissez pas, il est possible de forcer eth0, cf la section troubleshooting plus bas :-)
Une fois le fichier enregistré, regénérez la configuration grub :
grub2-mkconfig --output /etc/grub2.cfg
Sur les dernières versions d'openvz, j'ai noté que le grub n'est parfois configuré que pour déchiffrer que les partitions root et swap.
Cela nous pose problème, car il demande le mot de passe pour déchiffrer la partition /vz bien plus tard, après le process initramfs mais avant d'avoir lancé les services. Pas de ssh pour le déverrouiller donc !
Pour corriger cela, on va devoir vérifier la configuration du grub nous-même.
Tout se passe dans le fichier /etc/default/grub
, à la section GRUB_CMDLINE_LINUX
.
Tout d'abord, récupérez les noms des partitions luks :
# blkid |grep luks
/dev/mapper/luks-c80672a4-6644-4c0a-bc11-2ab2674fd4ec: UUID="16609b0b-983e-4982-9dd0-972f66a0c115" TYPE="swap"
/dev/mapper/luks-40bc8a84-7296-4df4-b872-6b67aa037174: UUID="51390ed2-dddf-4f61-8c29-19bd43022863" TYPE="ext4"
/dev/mapper/luks-02313a5d-c3af-4372-9ea5-ead11f2ce244: UUID="5b63074f-c886-46bf-a1c9-1c43a0059667" TYPE="ext4"
On récupère ce qui est après le /dev/mapper
, par exemple luks-c80672a4-6644-4c0a-bc11-2ab2674fd4ec
Pour chaque volume luks à déchiffrer au boot, vous devez avoir une section de type
rd.luks.uuid=luks-02313a5d-c3af-4372-9ea5-ead11f2ce244
dans la GRUB_CMDLINE_LINUX
du fichier `/etc/default/grub. (cf un exemple complet ci-dessous)
# blkid | grep md
/dev/md127: UUID="6f09377e-dda8-4d11-83b6-c3c3cc17b6b9" TYPE="crypto_LUKS"
/dev/md126: UUID="03988b26-4004-4551-969b-461a7d2f37e6" TYPE="crypto_LUKS"
/dev/md125: UUID="0d60f8ec-7167-4e07-a92a-8f58fe89c22a" TYPE="crypto_LUKS"
On va utiliser le paramètre rd.md.uuid
de grub MAIS celui-ci prends un format bien précis d'uuid, séparé par des points.
Prenez donc l'UUID de vos disques, et tous les 8 caractères, enlevez le tiret et mettez un :
à la place :
6f09377e-dda8-4d11-83b6-c3c3cc17b6b9 => 6f09377e:dda84d11:83b6c3c3:cc17b6b9
03988b26-4004-4551-969b-461a7d2f37e6 => 03988b26:40044551:969b461a:7d2f37e6
...
Il faudra ensuite ajouter dans la ligne GRUB_CMDLINE_LINUX
une option rd.md.uuid=XXX
pour chaque partition raid. (cf exemple complet ci-dessous)
Voici un exemple complet de la ligne finale avec un raid1 :
# cat /etc/default/grub
GRUB_CMDLINE_LINUX="crashkernel=auto rd.luks.uuid=luks-03988b26-4004-4551-969b-461a7d2f37e6 rd.md.uuid=4e7537f2:97d36823:1495a4b6:5e02ee30 rd.luks.uuid=luks-6f09377e-dda8-4d11-83b6-c3c3cc17b6b9 rd.md.uuid=d57b1ed4:ea77ea71:27bcaadd:39321bd9 rd.luks.uuid=luks-0d60f8ec-7167-4e07-a92a-8f58fe89c22a rd.md.uuid=5e66072c:1ffb2033:ff97ca5a:6ab13de0 biosdevname=0 net.ifnames=0 quiet rd.neednet=1 ip=IP_SERVEUR::PASSERELLE_SERVEUR:MASQUE_SERVEUR:centos:enp0s3:off dns=DNS_SERVEUR nameserver=DNS_SERVEUR"
Une fois le fichier enregistré, regénérez la configuration grub :
grub2-mkconfig --output /etc/grub2.cfg
Une fois la configuration regénérée sans erreurs, vous pouvez quitter le chroot, démonter les disques et préparer le redémarrage.
Si tout s'est bien passé, au bout de quelques minutes (selon votre serveur), le réseau devrait se remettre à pinguer. Quelques instant plus tard, le SSH devrait être disponible.
% ssh root@IP_SERVEUR -p 22
# Cette commande permet de passer le mot de passe de déchiffrement à systemd
# Sur une install standard, vous avez 3 disques à déchiffrer (/root, /vz et swap), il faudra donc entrer la commande 3 fois
systemd-tty-ask-password-agent
systemd-tty-ask-password-agent
systemd-tty-ask-password-agent
Si le mot de passe est correct, le boot va continuer, votre shell va se terminer et votre serveur terminer de démarrer tranquillement.
Vous devriez ensuite pouvoir vous connecter de manière tout à fait classique avec vos identifiants (le mot de passe root indiqué à l'installation).
Si jamais initramf ne continue pas, n'hésitez pas à utiliser la commande systemd-tty-ask-password-agent --list
pour récupérer la liste des disques non débloqués et voir ce qui coince.
Cette procédure est normalement fonctionnelle, mais pas mal de chose peuvent mal se passer malheureusement, sans accès console, c'est difficile à debuguer...
Personnellement, j'ai redémarré mon serveur en mode rescue/redémarrage classique plus de 90 fois pour rédiger cet article :-D
Je vais ici parler des problèmes que j'ai rencontré pendant mes tests.
Si votre serveur ne démarre pas en VNC, il se peut que le réseau ne monte pas. Si vous avez suivi la consigne avec la commande grub-reboot NetInstall
, il vous suffit de redémarrer le serveur via l'interface de votre hébergeur, et il repartira par défaut sur votre OS de préparation.
À partir de là, vérifiez votre configuration réseau et que votre grub contient le tout. Sous Debian, il est dans /boot/grub/grub.cfg
.
Remettez un coup de grub-reboot NetInstall
et on redémarre :-)
J'ai rencontré plusieurs crash une fois la console VNC lancée. Ils étaient dû à des paramètres incorrects dans les paramètres de boot, comme l'id du disque dur de votre menu grub, ou le layout clavier.
Vérifiez que tout correspond bien, et notamment si vous avez tenté un lang
différent de "en_US" ou un keymap
différent de "us", laissez tomber et réessayez avec les bonnes options. Apparemment, l'installeur de Virtuozzo n'aime pas les autres options au démarrage...
Notez que vous pouvez quand même configurer un layout FR une fois l'installeur lancé via l'interface graphique.
Pour la configuration réseau de initramfs, déterminer le nom qu'aura l'interface réseau avec la prédiction Bios n'est pas forcément évident si votre OS de préparation ne l'utilise pas.
Pour forcer à revenir à eth0, il vous suffit d'ajouter les 2 options suivantes dans votre GRUB_CMDLINE_LINUX
, via votre chroot en mode rescue :
... net.ifnames=0 biosdevname=0 ...
N'oubliez pas de régnérer le grub une fois la ligne modifiée :-)
grub2-mkconfig --output /etc/grub2.cfg
Un conseil, si vraiment ça ne fonctionne pas et que tout parait correct, déroulez toute la procédure sur une VM locale, par exemple via virtualbox, pour disposer d'une console et voir les erreurs qui peuvent s'y afficher.
Si jamais, n'hésitez pas à me laisser un petit commentaire, si je peux aider ça sera avec plaisir !
Et bon courage ;-)
Je remercie ces différents auteurs qui m'ont permis d'arriver à ce résultat et à écrire cet article !