Browse Source

Ajout de commentaires pour l'article sur ceph-disque-restant

pull/4/head
LecygneNoir 4 years ago
parent
commit
9a488da299
2 changed files with 90 additions and 0 deletions
  1. +60
    -0
      content/comments/ceph-utiliser-disque-restant/2.md
  2. +30
    -0
      content/comments/ceph-utiliser-disque-restant/3.md

+ 60
- 0
content/comments/ceph-utiliser-disque-restant/2.md View File

@ -0,0 +1,60 @@
email:
date: 2020-01-17T08:51+01:00
author: Robin
replyto: 0md
Merci Victor pour cette réponse.
Oui oui ... je m'étais effectivement planté j'avais bien oublié de modifier une des valeurs (ce n'est pourtant pas faute d'avoire énnoncé dans votre article le nombre de valeur à changer ^^ )
Je confirme qu'avec :
```
sgdisk --new=4:0:+100M --change-name="4:ceph data" --partition-guid=4:$(uuidgen -r) --typecode=4:4fbd7e29-9d25-41b8-afd0-062c0ceff05d -- /dev/sdb
```
puis :
```
sgdisk --largest-new=5 --change-name="5:ceph block" --typecode=5:CAFECAFE-9B03-4F30-B4C6-B4B80CEFF106 -- /dev/sdb
```
ça fonctionne :
``` root@proxmox : ~# fdisk /dev/sdb
Device Start End Sectors Size Type
/dev/sdb1 40 2048 2009 1004.5K BIOS boot
/dev/sdb2 4096 92162047 92157952 44G Linux RAID
/dev/sdb3 92162048 124927999 32765952 15.6G Linux swap
/dev/sdb4 124928000 125132799 204800 100M Ceph OSD
/dev/sdb5 125132800 3907029134 3781896335 1.8T unknown
```
Maintenant c'est le passage à ceph-volume plustôt que ceph-disk qui pose problème. J'ai voulu adapter la commande
```
ceph-disk prepare --bluestore /dev/sdb4 /dev/sdb4 /dev/sdb5
```
par
```
ceph-volume lvm prepare --data /dev/sdb5 --journal /dev/sdb4
```
Mais j'ai le résultat (non fructuant) suivant :
```
Running command: /bin/ceph-authtool --gen-print-key
Running command: /bin/ceph --cluster ceph --name client.bootstrap-osd --keyring /var/lib/ceph/bootstrap-osd/ceph.keyring -i - osd new c202fb30-3e66-4d1d-9868-dd8311d0e168
stderr: [errno 2] error connecting to the cluster
--> RuntimeError: Unable to create a new OSD id
```
Si vous avez une idée ?
Je ne suis pas certain que le problème vienne de la commande, c'est peut être aussi ceph qui ne parviens pas à communiquer avec les moniteurs, parce que le message parle de problème de communication avec le cluster. Or, c'est la première fois que j'utilise Ceph, et j'ai donc un peu de mal à tout comprendre d'un coup.
PS :
Si au delà de ce problème vous avez envie de m'aider dans la création d'un cluster flambant neuf sous proxmox 6 avec de la HA via ceph, je pourrais vous parler avec grand plaisir de mon ~problème~ projet dans son ensemble par mail pour ne pas dériver dans les commentaires de votre article vers une autre problématique.
C'est vrai que la communauté proxmox est beaucoup solicité sur le forum officiel de proxmox, et qu'il est difficile d'attirer l'attention :/ Pourtant, pour tous ceux qui comme moi souhaitent avoir une infrastructure de production moins couteuse qu'un vsphere managé (offres Public cloud) chez OVH, mon projet peut s'avérer très intéressant. Vous pourriez en plus proposer un article complet avec les résultats de ce "POC" en français, je suis certain qu'il en interessera plus d'un !
Bonne journée

+ 30
- 0
content/comments/ceph-utiliser-disque-restant/3.md View File

@ -0,0 +1,30 @@
email: courriel+blog@victor-hery.com
date: 2020-01-18T10:24+01:00
author: Victor
website: https://blog.victor-hery.com/
replyto: 0md
Hello,
Content de voir que le premier problème est réglé !
Pour la suite, je n'ai jamais joué avec ceph-volume, mais vu les options, il a l'air de faire un peu plus que ceph-disk.
L'erreur est assez obscure en effet, ça ne communique pas avec le cluster, mais pourquoi ?
Je vous invite à vérifier dans `/var/lib/ceph/bootstrap-osd/` s'il y a bien les fichiers de keyring. Ceph a un système de clef pour l'authentification, peut être qu'elles n'ont pas été correctement extraites ?
Également, vous devriez avoir un fichier `/etc/ceph/ceph.conf` qui contient divers paramètres de base pour le cluster et pour l'osd, jetez un oeil à l'intérieur.
Le `fsid` notamment devrait être identique à celui affiché si vous lancez un `ceph status` depuis l'un des monitors (pas besoin d'OSD pour lancer le status)
Enfin, ce fichier devrait aussi lister des `mon host`, ça vaudrait le coup de vérifier s'ils sont joignables depuis votre OSD, que ce soit un ping ou sur le port `6789`
Bon courage !
Concernant le PS, c'est vrai que je n'utilise quasiment plus Proxmox à titre personnel maintenant, je me concentre surtout sur les containers, que ça soit docker ou virtuzzo. Du coup je ne connait pas trop leurs intégrations de ceph même si ce que j'en ait vu est très intéressant en terme de simplification d'usage.
A ce sujet pour du contenu en français, je vous conseille le blog de dryusdan : [https://www.dryusdan.fr/installer-un-cluster-proxmox-ceph-tinc-openvswitch/](https://www.dryusdan.fr/installer-un-cluster-proxmox-ceph-tinc-openvswitch/)
Je n'ai pas de soucis pour échanger par courriel, mais je ne promets pas de miracles ^^
N'hésitez pas à me laisser votre adresse dans un commentaire si vous le souhaitez ! Elle ne sera pas visible publiquement pas d'inquiétude.

Loading…
Cancel
Save