ceph
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| ceph [13.01.2023 10:02] – thooge | ceph [10.02.2023 06:38] (aktuell) – [Konfigurationsarbeiten] thooge | ||
|---|---|---|---|
| Zeile 7: | Zeile 7: | ||
| Installation der Server mit einem minimalen Devuan. | Installation der Server mit einem minimalen Devuan. | ||
| + | |||
| + | Zusatzpakete | ||
| + | apt-get install selinux-utils | ||
| Anschließend Ceph-Pakete installieren | Anschließend Ceph-Pakete installieren | ||
| TODO Link! | TODO Link! | ||
| + | |||
| + | Ceph-Keyring nach '' | ||
| + | ===== Konfigurationsarbeiten ===== | ||
| + | |||
| Neuen Server in die Hierarchie einfügen | Neuen Server in die Hierarchie einfügen | ||
| Zeile 18: | Zeile 25: | ||
| ceph osd crush move ceph-05 root=default | ceph osd crush move ceph-05 root=default | ||
| </ | </ | ||
| + | - Monitoren mit [[Zabbix]]< | ||
| + | ceph mgr module enable zabbix | ||
| + | ceph zabbix config-set zabbix_host zabbix.localdomain | ||
| + | ceph zabbix config-set identifier ceph.local | ||
| + | |||
| + | ceph zabbix config-show | ||
| + | </ | ||
| + | |||
| + | Falls es Schwierigkeiten bei der Ausführung der Init-Scripte | ||
| + | so kann Ausführen von '' | ||
| + | Zusätzliche Boot-meldungen können mit '' | ||
| + | ''/ | ||
| + | |||
| + | ===== Erstellen eines neuen OSDs ===== | ||
| + | |||
| + | Für den OSD ist eine dedizierte Harddisk und eine 30GB-Partition auf einer SSD vorhanden. | ||
| + | |||
| + | Letztere wird erstellt mit: | ||
| + | < | ||
| + | sgdisk --new=0: | ||
| + | --typecode=0: | ||
| + | --mbrtogpt -- /dev/sdg | ||
| + | </ | ||
| + | |||
| + | Es kann auch '' | ||
| + | nicht angegeben werden. Das kann dann mit '' | ||
| + | Hinweis: Partitionsnummern bei '' | ||
| + | sgdisk -c 1:" | ||
| + | |||
| + | Erstellen des OSDs, wenn kein WAL angegeben wird, so liegt sie zusammen mit der DB auf der SSD | ||
| + | < | ||
| + | ceph-volume lvm create --no-systemd --bluestore --data /dev/sdb --block.db=/ | ||
| + | </ | ||
| + | Die Angabe des Block-DB-Gerätes mit einfachem Gerätenamen funktioniert ist jedoch ggf. | ||
| + | unschön. Besser den Gerätenamen aus ''/ | ||
| + | '' | ||
| + | |||
| + | Anschließend die OSD-UUID ermitteln und einen Eintrag in der '' | ||
| + | vornehmen. | ||
| + | cat / | ||
| + | |||
| + | <file conf ceph.conf> | ||
| + | [osd.26] | ||
| + | host = ceph-02 | ||
| + | public addr = 192.168.5.2 | ||
| + | cluster addr = 192.168.6.2 | ||
| + | osd_uuid = 8ac32f08-b63b-4593-b05f-bfdee6deec83 | ||
| + | </ | ||
| + | |||
| + | |||
| + | OSD starten, die neue Platte sollte sich unter dem Host einsortieren | ||
| + | / | ||
| + | |||
| + | Prüfe mit | ||
| + | ceph osd tree | ||
| + | |||
| + | Die Metadaten des OSD sind als LVM-Tags gespeichert, | ||
| + | lvs -o lv_tags | ||
| + | | ||
| + | Damit die Ceph-Prozesse starten können benötigen sie Zugriff auf ''/ | ||
| + | Prüfe ob das im Init-Script vorgesehen ist, es könnte wie folgt aussehen: | ||
| + | < | ||
| + | if [ ! -d $run_dir ]; then | ||
| + | install -d -m0770 -o ceph -g ceph $run_dir | ||
| + | fi | ||
| + | </ | ||
| + | |||
| + | ===== Tips und Kommandos ===== | ||
| + | |||
| + | < | ||
| + | ceph auth add osd.2 osd 'allow *' mon 'allow rwx' -i / | ||
| + | ceph osd crush add osd.2 | ||
| + | ceph osd crush reweight osd.2 1.8 | ||
| + | </ | ||
| + | |||
| + | ===== Failure-Domain / Buckets ===== | ||
| + | |||
| + | < | ||
| + | ceph osd crush add-bucket raum1 room | ||
| + | ceph osd crush add-bucket raum2 room | ||
| + | ceph osd crush add-bucket maum3 room | ||
| + | |||
| + | ceph osd crush move raum1 root=default | ||
| + | ceph osd crush move raum2 root=default | ||
| + | ceph osd crush move rau,3 root=default | ||
| + | |||
| + | ceph osd crush move osd.0 room=raum1 | ||
| + | </ | ||
| + | |||
ceph.1673604143.txt.gz · Zuletzt geändert: von thooge
