#Post Title #Post Title #Post Title
Jumat, 05 Juni 2015

Konfigurasi Ceph Cluster di CentOS 6.6

Konfigurasi Ceph Cluster di CentOS 6.6



Tujuan
  1. Mengetahui konsep dasar Ceph Cluster
  2. Mengetahui Konfigurasi Ceph Cluster di CentOS 6.6
Konsep Dasar
Ceph Storage Cluster adalah sebuah software yang berbasis opensource yang berfungsi sebagai storage server atau server penyimpanan seperti google drive.  Ceph Storage Cluster terdiri dari dua jenis daemon yaitu Ceph OSD Daemon (OSD) berfungsi untuk menyimpan data sebagai objek pada server penyimpanan dan Ceph Monitor (MON) berfungsi untuk menjaga atau memonitoring data master pada server cluster. Dalam membuat ceph storage, harus mempunyai satu Ceph Monitor (MON) untuk memonitoring dan dua Ceph OSD Daemon (OSD) untuk menyimpan data replikasi. Dibawah ini adalah pengertian dari :
  1. MON berfungsi untuk memonitoring data pada cluster
  2. OSD berfungsi untuk menyimpan data sebagai objek pada server
  3. MDS berfungsi sebagai file system ceph
Tabel Addressing
No
Server
Sistem Operasi
IP Address
Netmask
Gateway
1.
Admin-node
CentOS 6.6
172.16.11.40
255.255.255.0
172.16.11.1
2.
Node1
CentOS 6.6
172.16.11.41
255.255.255.0
172.16.11.1
3.
Node2
CentOS 6.6
172.16.11.42
255.25.255.0
172.16.11.1
4.
Node 3
CentOS 6.6
172.16.11.43
255.255.255.0
172.16.11.1
5.
Client
CentOS 6.6
172.16.11.44
255.255.255.0
172.16.11.1

Konfigurasi

  • Lakukan pada semua server dan client (Admin-node, node1, node2, node3, dan client)
  1. Setting IP, jika sudah edit hosts dengan perintah # vi /etc/hosts. Tambahkan skrip seperti dibawah ini
  1. Matikan selinux nya dengan mengganti skrip enforcing menjadi disabled didalam file /etc/selinux/config. Buka dengan perintah vi ataupun nano.
  1. Setelah selinux di disabled, selanjutnya tentu harus menjalankan perintah # setenforce 0 . Lalu, matikan firewall iptables dengan perintah # chkconfig iptables off

  • Konfigurasi pada Admin-node
Selanjutnya, buat ssh-copy-id agar pada saat masuk ke ssh node lain tidak lagi menggunakan password untuk login
  1. Install openssh-client # yum –y install openssh-clients
  1. Setelah itu, jalankan perintah # ssh-keygen untuk membuat public key baru
  1. Lalu, simpan password dari node yang kita remote dengan perintah :
# ssh-copy-id –i ~/.ssh/id_rsa.pub node1(node1)
# ssh-copy-id –i ~/.ssh/id_rsa.pub node2(node2)
# ssh-copy-id –i ~/.ssh/id_rsa.pub node3(node3)
# ssh-copy-id –i ~/.ssh/id_rsa.pub client(client)
  1. Install wget untuk mendownload  ceph-release dan epel-release # yum –y install wget
  1. Install paket ceph dan epel yang telah didownload # rpm –ivh ceph-release-1-0.e16.noarch.rpm
  1. Install epel-release # rpm –ivh epel-release-1-0.e16.noarch.rpm
  1. Tambahkan Priority=1 pada repository ceph :
# sed –i –e “s/enabled=1/enabled=1\npriority=1/g” /etc/yum.repos.d/ceph.repo
lalu install plugin priorities # yum –y install yum-plugin-priorities
  1. Install paket ceph dan ceph deploy
  1. Buat folder untuk menyimpan konfigurasi ceph
  1. Membuat ceph MON ke node1
  1. Install ceph ke node 1 sampai node 3
  1. Buat admin keyring
  1. Memformat partisi dengan perintah parted, lalu label yang digunakan adalah gpt dengan type xfs
  1. Buat direktori osd, lalu mounting partisi tersebut dengan perintah # mount –t xfs /dev/sdb1 /ceph-osd/
  1. Edit file fstab dengan perintah # vi /etc/fstab . Lalu tambahkan skrip seperti dibawah ini. Fungsinya, jika server itu merestart , partisi tersebut akan memounting secara otomatis.
  1. Selanjutnya, mempersiapkan OSD dengan perintah #ceph-deploy osd prepare node1:/ceph-osd node2:/ceph-osd  node3:/ceph-osd
  1. Mengaktifkan OSD yang telah disiapkan tadi dengan perintah #ceph-deploy osd prepare node1:/ceph-osd node2:/ceph-osd  node3:/ceph-osd
  1. Menyalin file konfigurasi dan key ceph dari node1 sampai node3 # ceph-deploy admin admin-node node1 node2 node3
  1. Berikan hak akses pada admin keyring # chmod +r /etc/ceph-cluster/ceph.client.admin.keyring
  1. Selanjutnya , ketikkan perintah # ceph-deploy mds create node1 untuk membuat metadata
  1. Lakukan pengecekan kondisi pada ceph dengan perintah # ceph health
  1. Cek quorum status # ceph quorum_status –format=json-pretty
  1. Setelah itu, cek status OSD # ceph osd stat

  • Lakukan pada node1, node2, dan node3
  1. Cek status service ceph # service ceph status
  1. Cek OSD tersebut aktif atau tidak # ceph osd tree
  1. Melihat kapasitas harddisk pada ceph # ceph df

  • Konfigurasi pada client
  1. Install paket xen # yum install centos-release-xen . Karena, pada sebuah virtualisasi ceph kadang tidak stabil
  1. Update kernel pada centOS # yum –y update kernel
  1. Lakukan reboot pada client, setelah itu cek kernel yang telah diupdate # uname –a
  1. Install ceph-deploy pada client # ceph-deploy install client
  1. Salin file keyring dari admin-node ke klien # ceph-deploy admin client
  1. Buat disk baru dengan perintah # rbd create disk disk1 –size 5012
  1. Buat map disk # rbd map disk1
  1. Format disk # mkfs.ext4 /dev/rbd1
  1. Mounting partisi yang telah diformat # mount –t ext4 /dev/rbd1 /ceph-bl-dv/
  1. Selanjutnya ketikkan perintah seperti dibawah ini
  1. Buat file sistem pada pool
  1. Melihat keyring admin pada admin-node dan menyalinnya
  1. Ketik perintah seperti dibawah ini # echo “(admin keyring)” > /etc/ceph/admin.secret
  1. Mounting driver ceph
  1. Install paket ceph fuse # yum –y install ceph-fuse
  1. Buat file sistem, lalu mounting file sistem tersebut
  1. Masuk ke folder yang dimounting tadi, lakukan pengujian
  1. Melihat hasil mountingan ceph
[ Read More ]