|
|
@ -0,0 +1,60 @@ |
|
|
|
email: |
|
|
|
date: 2020-01-17T08:51+01:00 |
|
|
|
author: Robin |
|
|
|
replyto: 0md |
|
|
|
|
|
|
|
Merci Victor pour cette réponse. |
|
|
|
Oui oui ... je m'étais effectivement planté j'avais bien oublié de modifier une des valeurs (ce n'est pourtant pas faute d'avoire énnoncé dans votre article le nombre de valeur à changer ^^ ) |
|
|
|
|
|
|
|
Je confirme qu'avec : |
|
|
|
|
|
|
|
``` |
|
|
|
sgdisk --new=4:0:+100M --change-name="4:ceph data" --partition-guid=4:$(uuidgen -r) --typecode=4:4fbd7e29-9d25-41b8-afd0-062c0ceff05d -- /dev/sdb |
|
|
|
``` |
|
|
|
puis : |
|
|
|
|
|
|
|
``` |
|
|
|
sgdisk --largest-new=5 --change-name="5:ceph block" --typecode=5:CAFECAFE-9B03-4F30-B4C6-B4B80CEFF106 -- /dev/sdb |
|
|
|
``` |
|
|
|
|
|
|
|
ça fonctionne : |
|
|
|
|
|
|
|
``` root@proxmox : ~# fdisk /dev/sdb |
|
|
|
Device Start End Sectors Size Type |
|
|
|
/dev/sdb1 40 2048 2009 1004.5K BIOS boot |
|
|
|
/dev/sdb2 4096 92162047 92157952 44G Linux RAID |
|
|
|
/dev/sdb3 92162048 124927999 32765952 15.6G Linux swap |
|
|
|
/dev/sdb4 124928000 125132799 204800 100M Ceph OSD |
|
|
|
/dev/sdb5 125132800 3907029134 3781896335 1.8T unknown |
|
|
|
``` |
|
|
|
|
|
|
|
Maintenant c'est le passage à ceph-volume plustôt que ceph-disk qui pose problème. J'ai voulu adapter la commande |
|
|
|
|
|
|
|
``` |
|
|
|
ceph-disk prepare --bluestore /dev/sdb4 /dev/sdb4 /dev/sdb5 |
|
|
|
``` |
|
|
|
|
|
|
|
par |
|
|
|
|
|
|
|
``` |
|
|
|
ceph-volume lvm prepare --data /dev/sdb5 --journal /dev/sdb4 |
|
|
|
``` |
|
|
|
|
|
|
|
Mais j'ai le résultat (non fructuant) suivant : |
|
|
|
|
|
|
|
``` |
|
|
|
Running command: /bin/ceph-authtool --gen-print-key |
|
|
|
Running command: /bin/ceph --cluster ceph --name client.bootstrap-osd --keyring /var/lib/ceph/bootstrap-osd/ceph.keyring -i - osd new c202fb30-3e66-4d1d-9868-dd8311d0e168 |
|
|
|
stderr: [errno 2] error connecting to the cluster |
|
|
|
--> RuntimeError: Unable to create a new OSD id |
|
|
|
``` |
|
|
|
|
|
|
|
Si vous avez une idée ? |
|
|
|
Je ne suis pas certain que le problème vienne de la commande, c'est peut être aussi ceph qui ne parviens pas à communiquer avec les moniteurs, parce que le message parle de problème de communication avec le cluster. Or, c'est la première fois que j'utilise Ceph, et j'ai donc un peu de mal à tout comprendre d'un coup. |
|
|
|
|
|
|
|
PS : |
|
|
|
|
|
|
|
Si au delà de ce problème vous avez envie de m'aider dans la création d'un cluster flambant neuf sous proxmox 6 avec de la HA via ceph, je pourrais vous parler avec grand plaisir de mon ~problème~ projet dans son ensemble par mail pour ne pas dériver dans les commentaires de votre article vers une autre problématique. |
|
|
|
C'est vrai que la communauté proxmox est beaucoup solicité sur le forum officiel de proxmox, et qu'il est difficile d'attirer l'attention :/ Pourtant, pour tous ceux qui comme moi souhaitent avoir une infrastructure de production moins couteuse qu'un vsphere managé (offres Public cloud) chez OVH, mon projet peut s'avérer très intéressant. Vous pourriez en plus proposer un article complet avec les résultats de ce "POC" en français, je suis certain qu'il en interessera plus d'un ! |
|
|
|
|
|
|
|
Bonne journée |