Howto create Metadata server di ceph cluster dengan cephadm - 11

Halooo, meneruskan catatan kemaren dimana saya sudah membuat ceph file system yang belum bisa digunakan, kali ini saya akan menuliskan catatan bagaimana cara membuat metadata server untuk menampung ceph file system yang saya buat sebelumnya.

Kondisi existing ceph cluster saya terdiri dari:

  • server1: mon(active), mgr(active) osd(active)
  • server2: mon(standby), mgr(standby) osd(active)
  • server6: mon(standby), mgr(standby) osd(active)

lalu Ceph file system saya terdiri dari:

  • cephfs:
    • metadata pool: cephfs_metadata
    • data pool: cephfs_data

Oh iya untuk kondisi lingkungan pengembangan server1, server2 dan server6 saya menggunakan Ubuntu Server 20.04 dan aplikasi ceph versi Octopus. 

Jadi selama belum ada Metadata (MDS) Server, CLayanan Ceph file system belum bisa digunakan untuk menyimpan data. Catatan kemaren saya sudah membahas bagaimana membuat Ceph File System, maka di catatan ini saya akan membuat metadata server.

Langkah pertama saya harus login dulu ke dalam server1, lalu saya masuk ke shell cephadm menggunakan perintah:

setelah nasuk, saya akan emlihat kondisi existing ceph cluster dengan menjalankan perintah:

berikut ini keluarannya:


dari gambar di atas diketahui bahwa ada 1 ceph file system yang offline, itu berarti memang sudah ada ceph file system yang saya buat kemaren, cuman memang belum bisa digunakan, karena pada baris mds  masih bernilai 0 yang berarti belum ada satu server mds yang active.

Untuk membuat sebuah MDS server di server1 saya menjalankan perintah:

jika berhasil dibuat maka keluarannya sebagai berikut ini:

cephfs pada perintah di atas adalah nama file system yang saya buat di catatan saya sebelumnya. Angka 1 adalah jumlah metadata server yang akan diaktifkan, lalu server1 adalah server yang digunakan sebagai metadata server.

 Setelah berhasil mengaktifan metadata server di server1, saya kembali menjalankan perintah:

untuk melihat status ceph cluster, hasil keluaran perintah di atas adalah sebagai berikut:

dari situ anda bisa melihat bahwa metadata server sudah aktif di server1, dan bagian kesehatan cluster sudah tidak error, tetapi statusnya health OK. Jika dilihat melalui ceph dashboard hasilnya adalah seperti ini:


Metadata  server sudah aktif, status cluster sehat (health OK). Untuk melihat  status file system setelah metadata server aktif, saya menggunakan perintah:

Hasilnya adalah sebagai berikut ini:

disitu terlihat pool cephfs_metadata digunakan sebagai metadata, sedangkan pool cephfs_data digunakan sebagai data, dengan total kapasitas yang bisa digunakan adalah 9.7TB.

Lho kenapa hanya 9,7TB? bukan 31TB seperti di status ceph cluster? itu karena mekanisme replikasi yang digunakan di layanan Ceph File System. Setiap data yang disimpan di  layanan Ceph File System akan di replikasi 2 kali sehingga total ada 3 file yang akan disimpan dan disebar ke seluruh OSD untuk menghindari kehilanagn adata ketika ada salah satu OSD rusak.

Sekian catatan saya tentang bagaimana membuat metadata server untuk mengaktifkan layanan Ceph File System. Apabila ada pertanyaan silahkan tulis di kolom komentar ya dan sampai jumpa di catatan berikutnya.


Comments