Accueil » Cours » Administration système » Introduction à Proxmox VE » TP11 – Mise en place d’un cluster Ceph

Objectif : Déployer un cluster Ceph intégré à Proxmox VE, offrant un stockage distribué, hautement disponible et élastique. Ce scénario s’applique aux environnements de production où l’on souhaite s’affranchir de SAN/NAS propriétaires et disposer d’un backend de stockage natif, évolutif, et tolérant aux pannes.

Actions à réaliser :

  1. Préparation du cluster Proxmox :

    • Disposer d’au moins trois nœuds Proxmox VE dans un cluster (déjà configuré).
    • Chaque nœud doit disposer de plusieurs disques ou partitions libres dédiées à Ceph.
  2. Installation de Ceph sur chaque nœud :

    • Dans l’interface web, sélectionnez le Datacenter > onglet « Ceph ».
    • Cliquez sur « Install Ceph » sur chaque nœud pour installer les paquets nécessaires.
    • Une fois l’installation terminée, initialisez le moniteur Ceph sur un nœud (le moniteur maître), puis ajoutez des moniteurs sur les autres nœuds pour la redondance.
  3. Création des OSD (Object Storage Daemon) :

    • Sur chaque nœud, ajoutez un ou plusieurs disques en tant qu’OSD (Datacenter > Ceph > OSD).
    • Formatez-les et lancez la création des OSD.
    • Vérifiez que chaque nœud contribue au stockage Ceph avec au moins un OSD.
  4. Création d’un pool Ceph :

    • Dans Datacenter > Ceph > Pools, créez un pool (ex. « rbdpool »).
    • Spécifiez le nombre de réplicas (généralement 3 pour tolérer une panne), le size du pool, et le crush rule.
  5. Utilisation du pool Ceph dans Proxmox :

    • Allez dans Datacenter > Storage > Add > RBD.
    • Configurez l’accès au pool Ceph nouvellement créé.
    • Vous pouvez maintenant stocker les disques de VMs directement sur Ceph.
    • Créez une VM ou migrez une VM existante sur le stockage Ceph. Testez le failover d’un nœud et notez que la VM reste accessible car ses données sont répliquées.

Résultat attendu :
Un cluster Ceph pleinement opérationnel, fournissant un stockage distribué intégré à Proxmox. Vous comprenez désormais comment un backend Ceph élimine le point unique de défaillance, offre une scalabilité horizontale, et s’intègre nativement aux fonctionnalités de haute disponibilité et migration de Proxmox.

Retour en haut