CEPH - reanimacja, reinstalacja systemu operacyjnego - node CEPH

Ot przypadek, umarł mi dysk systemowy jednego node klastra CEPH, niby nic… klient nawet nie wiedział o tej awarii do czasu gdy dostał info z mojej strony o awarii. I to właśnie zaleta CEPH-a.
Na początek poszło zamówienie na dysk do mojego ulubionego sklepu. Dysk przekazany klientowi :), który to mi samodzielnie dysk wymienił we wskazanej kieszeni maszyny – proste :).
Instalacja systemu, tradycyjnie. Jak kto woli: Debian lub Ubuntu. Logowanie na iDrac, virtual media, klik klik i gotowe :).
W mojej konfiguracji musiałem w zasadzie ręcznie tylko sieć skonfigurować, natomiast gdy już to mamy, logujemy się na działającego CEPH-a i kasujemy stary monitor.
ceph mon remove ceph01
Teraz walimy rsync konfiguracji ceph na nowy system (oczywiście uprzednio wymieniłem klucze ssh między maszynami).
rsync -Pav /etc/ceph ceph01:/etc/ceph/
Logujemy się na maszyne ceph01, dodajemy klucz i repo CEPH-a do systemu
wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add - echo "deb http://ceph.com/debian-hammer/ trusty main" > /etc/apt/sources.list.d/ceph.list apt-get update && apt-get install ceph reboot sudo mkdir /var/lib/ceph/mon/ceph-ceph01 mkdir ceph ceph auth get mon. -o ceph/key ceph mon getmap -o ceph/map sudo ceph-mon -i ceph01 --mkfs --monmap ceph/map --keyring ceph/key ceph-mon -i ceph01 --public-addr 192.168.88.101:6789
Oczywiście IP = hostname ceph01
I to w zasadzie wszystko :)
root@ceph01:~# ceph -s cluster 526ae1ee-c851-44a2-887d-4a203589df66 health HEALTH_OK monmap e7: 3 mons at {ceph01=192.168.88.101:6789/0,ceph02=192.168.88.102:6789/0,ceph03=192.168.88.103:6789/0} election epoch 94, quorum 0,1,2 ceph01,ceph02,ceph03 osdmap e1541: 12 osds: 12 up, 12 in pgmap v21874714: 256 pgs, 1 pools, 352 GB data, 90937 objects 1062 GB used, 10104 GB / 11166 GB avail 256 active+clean client io 557 kB/s wr, 47 op/s