Hai semuanya, apa kabar? Di tulisan sebelumnya kita sudah coba untuk buat kelas/kelompok berbeda untuk tiap Ceph Pool. Sekarang kita akan ulik lebih jauh mengenai Ceph.
ceph df
Perintah ceph df dapat digunakan untuk mengecek seberapa besar penggunaan Ceph pada infrastruktur kita. Contohnya adalah gambar di bawah ini:

Saat kita mengetik perintah ceph df,, ada dua bagian utama, yaitu RAW STORAGE & POOLS.
RAW STORAGE
Merupakan total kapasitas fisik gabungan dari semua disk/OSD. Misalnya kita punya disk HDD sebesar 150G, dan SSD sebesar 150G, maka total (RAW)-nya adalah sebesar 300G.POOLS
Ini adalah kapasitas logical . Biasanya Ceph menggunakan 3 buah replika. Misalnya, total kapasitas (RAW) adalah 150G, maka kapasitas yang benar-benar bisa kita pakai adalah sekitar 50G. Kapasitas yang dapat digunakan ini dapat dilihat pada kolomMAX AVAIL. Ini adalah estimasi sisa space yang dapat digunakan setelah memperehitungkan jumlah replika.
Ceph Pool vs Ceph FS
Saya juga dulu sempat bingung, apa beda dari keduanya? Berikut ini adalah penjelasan singkatnya:

- Ceph Pool (RBD – RADOS Block Device)
Fungsinya adalah untuk VM& CT Disk. Sifatnya adalah Block Storage atau terlihat sebagai disk “mentah” oleh Proxmox VE. Cocok untuk sistem dengan penggunaan I/O tinggi (misalnya untuk OS dan database). - Ceph FS
Fungsinya adalah untuk penyimpanan ISO, template, atau sebagai shared folder antar VM. Sifatnya adalah sebagai filesystem yang dapat di-mount seperti NFS. Ceph FS memiliki kelebihan lain yaitu dapat diakses oleh banyak node secara bersamaan karena memiliki metadata server.
Ceph Full Ratio
Disarankan untuk memantau penggunaan Ceph agar tidak mendekati 100%. Ceph memiliki “sistem pengamanan” terkait hal ini. Kita bisa gunakan perintah ceph osd dump untuk mengecek nilai rasionya.
- Nearfull (85%). Akan ada pesan peringatan (WARNING).
- Backfillfull (90%). Ceph berhenti menulis data ke OSD tersebut saat ada proses rebalancing.
- Full (95%). Ceph akan menolak perintah penulisan data apapun. Dampaknya, VM bisa freeze.
Skala Cluster: Lebih Besar = Lebih Aman?
- Cluster kecil, misal 10 Hosts. Apabila 1 host mati, jumlah data yang “hilang” adalah sebanyak 10% dari cluster dan sistem perlu memindahkan 10% data tersebut ke 9 host yang tersisa.
Workload dari tiap host akan naik drastis. - Sedangkan, untuk cluster yang lebih besar (misal 100 hosts), apabila 1 host mati, data yang “hilang” hanya sebesar 1% dan sistem perlu mendistribusikan 1% tadi ke 99 host. Tiap host hanya menerima tambahan workload yang sangat kecil.
Kesimpulannya adalah, semakin banyak host/OSD, cluster bisa relatif lebih stabil saat ada gangguan/kerusakan yang terjadi.
Untuk tulisan kali ini sampai di sini dulu ya. Sampai jumpa. Bye.

