ceph
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
ceph [13.01.2023 13:24] – [Erstellen eines neuen OSDs] thooge | ceph [10.02.2023 06:38] (aktuell) – [Konfigurationsarbeiten] thooge | ||
---|---|---|---|
Zeile 7: | Zeile 7: | ||
Installation der Server mit einem minimalen Devuan. | Installation der Server mit einem minimalen Devuan. | ||
+ | |||
+ | Zusatzpakete | ||
+ | apt-get install selinux-utils | ||
Anschließend Ceph-Pakete installieren | Anschließend Ceph-Pakete installieren | ||
TODO Link! | TODO Link! | ||
+ | |||
+ | Ceph-Keyring nach '' | ||
+ | ===== Konfigurationsarbeiten ===== | ||
+ | |||
Neuen Server in die Hierarchie einfügen | Neuen Server in die Hierarchie einfügen | ||
Zeile 18: | Zeile 25: | ||
ceph osd crush move ceph-05 root=default | ceph osd crush move ceph-05 root=default | ||
</ | </ | ||
+ | - Monitoren mit [[Zabbix]]< | ||
+ | ceph mgr module enable zabbix | ||
+ | ceph zabbix config-set zabbix_host zabbix.localdomain | ||
+ | ceph zabbix config-set identifier ceph.local | ||
+ | |||
+ | ceph zabbix config-show | ||
+ | </ | ||
+ | |||
+ | Falls es Schwierigkeiten bei der Ausführung der Init-Scripte | ||
+ | so kann Ausführen von '' | ||
+ | Zusätzliche Boot-meldungen können mit '' | ||
+ | ''/ | ||
===== Erstellen eines neuen OSDs ===== | ===== Erstellen eines neuen OSDs ===== | ||
Zeile 38: | Zeile 57: | ||
< | < | ||
ceph-volume lvm create --no-systemd --bluestore --data /dev/sdb --block.db=/ | ceph-volume lvm create --no-systemd --bluestore --data /dev/sdb --block.db=/ | ||
+ | </ | ||
+ | Die Angabe des Block-DB-Gerätes mit einfachem Gerätenamen funktioniert ist jedoch ggf. | ||
+ | unschön. Besser den Gerätenamen aus ''/ | ||
+ | '' | ||
+ | Anschließend die OSD-UUID ermitteln und einen Eintrag in der '' | ||
+ | vornehmen. | ||
+ | cat / | ||
+ | |||
+ | <file conf ceph.conf> | ||
+ | [osd.26] | ||
+ | host = ceph-02 | ||
+ | public addr = 192.168.5.2 | ||
+ | cluster addr = 192.168.6.2 | ||
+ | osd_uuid = 8ac32f08-b63b-4593-b05f-bfdee6deec83 | ||
+ | </ | ||
+ | |||
+ | |||
+ | OSD starten, die neue Platte sollte sich unter dem Host einsortieren | ||
+ | / | ||
+ | |||
+ | Prüfe mit | ||
+ | ceph osd tree | ||
+ | |||
+ | Die Metadaten des OSD sind als LVM-Tags gespeichert, | ||
+ | lvs -o lv_tags | ||
+ | | ||
+ | Damit die Ceph-Prozesse starten können benötigen sie Zugriff auf ''/ | ||
+ | Prüfe ob das im Init-Script vorgesehen ist, es könnte wie folgt aussehen: | ||
+ | < | ||
+ | if [ ! -d $run_dir ]; then | ||
+ | install -d -m0770 -o ceph -g ceph $run_dir | ||
+ | fi | ||
+ | </ | ||
+ | |||
+ | ===== Tips und Kommandos ===== | ||
+ | |||
+ | < | ||
ceph auth add osd.2 osd 'allow *' mon 'allow rwx' -i / | ceph auth add osd.2 osd 'allow *' mon 'allow rwx' -i / | ||
ceph osd crush add osd.2 | ceph osd crush add osd.2 | ||
Zeile 44: | Zeile 100: | ||
</ | </ | ||
- | OSD starten | + | ===== Failure-Domain / Buckets ===== |
- | Prüfe mit | + | < |
- | ceph osd tree | + | ceph osd crush add-bucket raum1 room |
+ | ceph osd crush add-bucket raum2 room | ||
+ | ceph osd crush add-bucket maum3 room | ||
+ | |||
+ | ceph osd crush move raum1 root=default | ||
+ | ceph osd crush move raum2 root=default | ||
+ | ceph osd crush move rau,3 root=default | ||
+ | |||
+ | ceph osd crush move osd.0 room=raum1 | ||
+ | </ | ||
ceph.1673616243.txt.gz · Zuletzt geändert: 13.01.2023 13:24 von thooge