Benutzer-Werkzeuge

Webseiten-Werkzeuge


ceph

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
ceph [13.01.2023 10:52] – [Erstellen eines neuen OSDs] thoogeceph [10.02.2023 06:38] (aktuell) – [Konfigurationsarbeiten] thooge
Zeile 7: Zeile 7:
  
 Installation der Server mit einem minimalen Devuan. Installation der Server mit einem minimalen Devuan.
 +
 +Zusatzpakete
 +  apt-get install selinux-utils
  
 Anschließend Ceph-Pakete installieren Anschließend Ceph-Pakete installieren
 TODO Link! TODO Link!
 +
 +Ceph-Keyring nach ''bootstrap-osd'' kopieren
 +===== Konfigurationsarbeiten =====
 +
  
 Neuen Server in die Hierarchie einfügen Neuen Server in die Hierarchie einfügen
Zeile 18: Zeile 25:
 ceph osd crush move ceph-05 root=default ceph osd crush move ceph-05 root=default
 </code> </code>
 +  - Monitoren mit [[Zabbix]]<code>
 +ceph mgr module enable zabbix
 +ceph zabbix config-set zabbix_host zabbix.localdomain
 +ceph zabbix config-set identifier ceph.local
 +
 +ceph zabbix config-show
 +</code>
 +
 +Falls es Schwierigkeiten bei der Ausführung der Init-Scripte  gibt,
 +so kann Ausführen von ''update-rc.d'' Abhilfe schaffen.
 +Zusätzliche Boot-meldungen können mit ''bootlogd'' nach
 +''/var/log/boot'' protokolliert werden.
  
 ===== Erstellen eines neuen OSDs ===== ===== Erstellen eines neuen OSDs =====
Zeile 33: Zeile 52:
 nicht angegeben werden. Das kann dann mit ''sgdisk'' nachgeholt werden. nicht angegeben werden. Das kann dann mit ''sgdisk'' nachgeholt werden.
 Hinweis: Partitionsnummern bei ''sgdisk'' beginnen bei 1. Hinweis: Partitionsnummern bei ''sgdisk'' beginnen bei 1.
-  sgdisk -c 1:"ceph journal" /dev/sd5+  sgdisk -c 1:"ceph journal" /dev/sdg 
 + 
 +Erstellen des OSDs, wenn kein WAL angegeben wird, so liegt sie zusammen mit der DB auf der SSD 
 +<code> 
 +ceph-volume lvm create --no-systemd --bluestore --data /dev/sdb --block.db=/dev/sdg1 
 +</code> 
 +Die Angabe des Block-DB-Gerätes mit einfachem Gerätenamen funktioniert ist jedoch ggf.  
 +unschön. Besser den Gerätenamen aus ''/dev/disk/by-partuuid'' ermitteln. 
 +''blkid'' hilft dabei. 
 + 
 +Anschließend die OSD-UUID ermitteln und einen Eintrag in der ''ceph.conf''  
 +vornehmen. 
 +  cat /var/lib/ceph/osd/ceph-26/fsid 
 + 
 +<file conf ceph.conf> 
 +[osd.26] 
 +host = ceph-02 
 +public addr = 192.168.5.2 
 +cluster addr = 192.168.6.2 
 +osd_uuid = 8ac32f08-b63b-4593-b05f-bfdee6deec83 
 +</file> 
 + 
 + 
 +OSD starten, die neue Platte sollte sich unter dem Host einsortieren 
 +  /etc/init.d/ceph start osd.26 
 + 
 +Prüfe mit 
 +  ceph osd tree 
 + 
 +Die Metadaten des OSD sind als LVM-Tags gespeichert, anzusehen mit z.B.: 
 +  lvs -o lv_tags 
 +   
 +Damit die Ceph-Prozesse starten können benötigen sie Zugriff auf ''/run/ceph''
 +Prüfe ob das im Init-Script vorgesehen ist, es könnte wie folgt aussehen: 
 +<code> 
 +if [ ! -d $run_dir ]; then 
 +    install -d -m0770 -o ceph -g ceph $run_dir 
 +fi 
 +</code> 
 + 
 +===== Tips und Kommandos ===== 
 + 
 +<code> 
 +ceph auth add osd.2 osd 'allow *' mon 'allow rwx' -i /var/lib/ceph/osd/ceph-2/keyring 
 +ceph osd crush add osd.2  
 +ceph osd crush reweight osd.2 1.8 
 +</code> 
 + 
 +===== Failure-Domain / Buckets ===== 
 + 
 +<code> 
 +ceph osd crush add-bucket raum1 room 
 +ceph osd crush add-bucket raum2 room 
 +ceph osd crush add-bucket maum3 room 
 + 
 +ceph osd crush move raum1 root=default 
 +ceph osd crush move raum2 root=default 
 +ceph osd crush move rau,3 root=default 
 + 
 +ceph osd crush move osd.0 room=raum1 
 +</code> 
ceph.1673607126.txt.gz · Zuletzt geändert: 13.01.2023 10:52 von thooge

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki