Howto create cephfs di dalam ceph cluster dengan cephadm - 10

Pada catatan ini, saya akan menjelaskan bagaimana saya membuat cephfs di dalam ceph cluster. Cephfs sendiri adalah salah satu layanan yang disediakan dari ceph cluster. Layanan lainnya yang disediakan ceph cluster pada catatan ini ditulis adalah:

  • Ceph File System (CephFS)
  • RADOS GW
  • Block Device, dan 
  • NFS

Ke empatnya memiliki kemampuan dan target layanan yang berbeda-beda, mungkin pada catatan yang lain akan saya jelaskan lebih lengkap, kembali ke catatan ini yang berfokus bagaimana cara mengaktifkan layanan Ceph FS di dalam ceph cluster ini. Kondisi existing ceph cluster saat ini terdiri dari 3 komputer yaitu:

  • server1: mon (active), mgr (active), osd (active)
  • server2: mon (standby), mgr (standby), osd (active)
  • server6: mon (standby), mgr (standby), osd (active)

Ketiganya menggunakan sistem operasi ubuntu Server 20.04 dan aplikasi ceph versi Octopus. Untuk cephadm sendiri berlokasi di server1, jadi secara tidak langsung server yang digunakan untuk mengelola ceph cluster ada pada server1.

Untuk membuat cephfs, diperlukan 2 buah pool yang aktif, nantinya cephfs tersebut akan dibangun di atas kedua pool tersebut. Satu pool berfungsi sebagai penyimpan data, dan satu pool lainnya berfungsi sebagai penyimpan metadata dari data yang disimpan di pool sebelumnya.

Jika mengacu pada catatan sebelumnya, saya pernah membuat dua buah pool, yaitu:

  • cephfs_data, dan
  • cephfs_metadata

dan salah satunya sudah saya hapus, maka saya akan buat kembali pool cephfs_data yang sebelumnya telah saya hapus. Sebelum saya bisa membuat pool tersebut, saya harus login ke dalam server1 lalu menjalankan perintah untuk masuk ke dalam shell cephadm:

setelah berhasil masuk, saya buat pool baru dengan nama cephfs_data dengan menjalankan perintah:

hasilnya adalah seperti ini:

kemudian saya akan lihat kondisi existing ceph cluster dengan menjalankan perintah:

berikut ini hasil keluaran status ceph cluster sebelum saya menambahkan ceph filesystem yang baru:


sedangkan jika dilihat melalui ceph dashboard, hasilnya seperti ini:


belum ada satupun ceph file system yang dibuat, Rencananya saya akan membuat satu buah Ceph File System dengan nama cephfs.

Lalu untuk membuat ceph file system dengan nama cephfs saya cukup menjalankan perintah di bawah ini melalui cephadm shell:

berikut ini hasil keluarannya jika anda berhasil membuat ceph file system:


Perintah diatas sebenarnya berformat:

jadi untuk membuat sebuah ceph file system diperlukan 2 buah pool sebagai dasar pembuatannya dan saya menggunakan pool:

  • cephfs_data, dan
  • cephfs_metadata

Berikut ini status cluster setelah pembuatan ceph file system:


dari kelauarn di atas, anda melihat ada tambahan cephfs pada bagian services baris antara mgr dan osd. 

Lalu kenapa status kesehatan clusternya error (HEALTH_ERR). Itu karena ceph file system belum bisa digunakan hal itu dikarenakan ceph file system memerlukan minimal ada satu mds (metadata server) yang aktif. Untuk mengaktifkan metadata server nanti akan saya bahas di lain catatan.

Untuk melihat apakah ceph file system benar-benar terdiri dari cephfs_metadata dan cephfs_data saya cukup menjalankan perintah:

maka hasilnya seperti ini:


dari perintah di atas terlihat bahwa metadata pool pada cephfs terdiri dari cephfs_metadata sedangkan data pools pada cephfs menggunakan cephfs_data. Sekian catatan saya tentang cara membuat cephfs ini, apabila ada pertanyaan silahkan tulis di kolom komentar ya. Sampai jumpa lagi di catatan selanjutnya.



Comments