Skip to content

zaidan's blog

a newbie, writing IT-related stuff and some personal experiences

Menu
  • IT
  • Personal life/opinion
  • Linux
  • Sepeda
  • Proxmox
  • VM/Container
  • Kuliah/Catatan Kuliah
Menu

Monitoring Ceph: Kapasitas, Pool vs CephFS, dan Logika Kegagalan Cluster

Posted on 21/04/2026 by Zaidan

Hai semuanya, apa kabar? Di tulisan sebelumnya kita sudah coba untuk buat kelas/kelompok berbeda untuk tiap Ceph Pool. Sekarang kita akan ulik lebih jauh mengenai Ceph.

ceph df

Perintah ceph df dapat digunakan untuk mengecek seberapa besar penggunaan Ceph pada infrastruktur kita. Contohnya adalah gambar di bawah ini:
image host

Saat kita mengetik perintah ceph df,, ada dua bagian utama, yaitu RAW STORAGE & POOLS.

  • RAW STORAGE
    Merupakan total kapasitas fisik gabungan dari semua disk/OSD. Misalnya kita punya disk HDD sebesar 150G, dan SSD sebesar 150G, maka total (RAW)-nya adalah sebesar 300G.
  • POOLS
    Ini adalah kapasitas logical . Biasanya Ceph menggunakan 3 buah replika. Misalnya, total kapasitas (RAW) adalah 150G, maka kapasitas yang benar-benar bisa kita pakai adalah sekitar 50G. Kapasitas yang dapat digunakan ini dapat dilihat pada kolom MAX AVAIL. Ini adalah estimasi sisa space yang dapat digunakan setelah memperehitungkan jumlah replika.

Ceph Pool vs Ceph FS

Saya juga dulu sempat bingung, apa beda dari keduanya? Berikut ini adalah penjelasan singkatnya:
image host

  • Ceph Pool (RBD – RADOS Block Device)
    Fungsinya adalah untuk VM& CT Disk. Sifatnya adalah Block Storage atau terlihat sebagai disk “mentah” oleh Proxmox VE. Cocok untuk sistem dengan penggunaan I/O tinggi (misalnya untuk OS dan database).
  • Ceph FS
    Fungsinya adalah untuk penyimpanan ISO, template, atau sebagai shared folder antar VM. Sifatnya adalah sebagai filesystem yang dapat di-mount seperti NFS. Ceph FS memiliki kelebihan lain yaitu dapat diakses oleh banyak node secara bersamaan karena memiliki metadata server.

Ceph Full Ratio

Disarankan untuk memantau penggunaan Ceph agar tidak mendekati 100%. Ceph memiliki “sistem pengamanan” terkait hal ini. Kita bisa gunakan perintah ceph osd dump untuk mengecek nilai rasionya.

image host

  • Nearfull (85%). Akan ada pesan peringatan (WARNING).
  • Backfillfull (90%). Ceph berhenti menulis data ke OSD tersebut saat ada proses rebalancing.
  • Full (95%). Ceph akan menolak perintah penulisan data apapun. Dampaknya, VM bisa freeze.

Skala Cluster: Lebih Besar = Lebih Aman?

image host

  • Cluster kecil, misal 10 Hosts. Apabila 1 host mati, jumlah data yang “hilang” adalah sebanyak 10% dari cluster dan sistem perlu memindahkan 10% data tersebut ke 9 host yang tersisa.
    Workload dari tiap host akan naik drastis.
  • Sedangkan, untuk cluster yang lebih besar (misal 100 hosts), apabila 1 host mati, data yang “hilang” hanya sebesar 1% dan sistem perlu mendistribusikan 1% tadi ke 99 host. Tiap host hanya menerima tambahan workload yang sangat kecil.

Kesimpulannya adalah, semakin banyak host/OSD, cluster bisa relatif lebih stabil saat ada gangguan/kerusakan yang terjadi.

Untuk tulisan kali ini sampai di sini dulu ya. Sampai jumpa. Bye.

 
 

 

 

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Tulisan saya yang lain:

  • Camping Rawagede – hari pertama
  • Memindahkan Penyimpanan VM pada Proxmox VE
  • Rute Agak Berbeda
  • Bikin Paspor – bagian 2

Kategori

  • Asciidoc
  • Docker
  • IT
  • jaringan
  • Kuliah/Catatan Kuliah
  • Linux
  • Mail Server
  • Makanan/Minuman
  • Nakivo
  • Personal life/opinion
  • Proxmox
  • RedHat
  • Sepeda
  • SSL
  • Uncategorized
  • Vinchin
  • VM/Container
  • VMWare
  • Windows
  • XCP-ng

Arsip blog

  • April 2026
  • March 2026
  • February 2026
  • January 2026
  • December 2025
  • November 2025
  • October 2025
  • September 2025
  • August 2025
  • July 2025
  • June 2025
  • May 2025
  • April 2025
  • March 2025
  • February 2025
  • January 2025
  • December 2024
  • November 2024
  • October 2024
  • September 2024
  • August 2024
  • July 2024
  • June 2024
  • May 2024
  • April 2024
  • March 2024
  • February 2024
  • January 2024
  • December 2023
  • November 2023
  • October 2023
  • September 2023
  • August 2023
  • July 2023
  • June 2023
  • May 2023

© 2026 zaidan's blog | Powered by Superbs Personal Blog theme