Konfigurasi Ceph File System pada Ceph Cluster di Ubuntu Server


Seperti yang pernah saya tulis sebelumnya, ceph cluster adalah aplikasi yang menyediakan layanan media penyimpanan terdistribusi yang terbangun dari beberapa atau banyak komputer. Ada 3 tipe layanan media penyimpanan yang disediakannya, yaitu:

  • Ceph File System
  • Ceph Block Device
  • Ceph Object Gateway
Seperti yang pernah saya tulis di artikel:
Jika sebelum ini saya sudah menulis langkah-langkah bagaimana membangun Ceph Cluster, maka di tutorial ini saya akan membahas bagaimana membangun layanan media penyimpanan dengan Ceph File System.

Jika anda belum membangun Ceph Clsuter, maka anda wajib membaca seri tulisan saya yang sudah saya cantumkan di bagian paling bawah di postingan ini.

Untuk membangun layanan Ceph File System,  saya membutuhkan satu buah layanan yang mengelola metadata file yang akan disimpan di dalam ceph clsuter yang disebut metadata server. Metadata Server ini rencananya akan saya install di Node-00. Jadi topologinya terlihat seperti berikut:

  • admin-00 : sebagai ceph cluster management 
  • node-00 : sebagai OSD, sebagai Monitor, sebagai Manager Ceph Cluster  dan Metadata Server
  • node-01 : sebagai OSD 
  • node-02 : sebagai OSD

Untuk membuatnya, anda bisa menjalankan perintah di bawah dari komputer admin-00:
user@admin-00:~/sandbox-ceph$ ceph-deploy mds create node-00
perintah di atas berfungsi untuk mengkonfigurasi node-00 sebagai metadata server, kemudian setelah itu saya akan membuat pool data dan pool metadata di node-00 selaku server metadata. Pool data  dan pool metadata ini yang akan digunakan ceph cluster untuk menampung seluruh data yang disimpan di dalam cluster. 

Untuk membuat kedua pool tersebut saya cukup menjalankan perintah:

user@admin-00:~/sandbox-ceph$ ssh node-00 sudo ceph osd pool create cephfs_data 128

perintah diatas untuk membuat pool data, sedangkan untuk membuat pool metadata dengan menjalankan perintah:

user@admin-00:~/sandbox-ceph$ ssh node-00 sudo ceph osd pool create cephfs_metadata 8

selesai membuat pool metadata dan pool data, sekarang saya akan menggabungkan kedua pool tersebut dalam satu layanan ceph file system dengan menjalankan perintah:

user@admin-00:~/sandbox-ceph$ ssh node-00 sudo ceph fs new cephfs cephfs_metadata cephfs_data

Untuk melihat hasilnya saya menjalankan perintah:

user@admin-00:~/sandbox-ceph$ ssh node-00 sudo ceph -s

maka disitu akan terlihat bahwa metadata server telah aktif dan terinstall di node-00 berikut layanan ceph file system yang sudah running:


cluster:

    id:     44b1ba37-6439-4b3f-b5d1-5126509f4603

    health: HEALTH_OK

 

  services:

    mon: 1 daemons, quorum node-00 (age 5h)

    mgr: node-00(active, since 5h)

    mds: cephfs:1 {0=node-00=up:active}

    osd: 3 osds: 3 up (since 5h), 3 in (since 2d)

 

  task status:

    scrub status:

        mds.node-00: idle

 

  data:

    pools:   2 pools, 136 pgs

    objects: 22 objects, 2.2 KiB

    usage:   3.0 GiB used, 897 GiB / 900 GiB avail

    pgs:     136 active+clean


selain itu, anda bisa lihat di bagian pool, terdapat 2 pool yang sudah aktif dari beberapa perintah yang kita jalankan sebelumnya. Total storage yang tersedia adalah 900GB gabungan dari tiga node (200GB, 500GB dan 200GB).


Cukup disini saja untuk tutorial konfigurasi layanan ceph file system, pada tutorial selanjutnya saya akan bahas bagaimana cara mengakses layanan ceph file system dari komputer admin-00. Berikut seri tulisan tentang ceph clsuter yang sudah saya tulisan sebelumnya:


Konfigurasi Ceph File System pada Ceph Cluster di Ubuntu Server Konfigurasi Ceph File System pada Ceph Cluster di Ubuntu Server Reviewed by Himawan Mahardianto on October 01, 2020 Rating: 5

No comments:

Powered by Blogger.