linux下ceph分布式安裝使用教程
前言
k8s集群使用什么樣的存儲比較好那,我調研了一下分布式存儲ceph,在這里分享給大家。
一、基礎環(huán)境
1、服務分布情況
Node1: admin,osd,mon
Node2: osd,mds, client
2、 網絡配置 (所有節(jié)點)
修改主機名, 切記主機名不能出現下劃線 修改主機名(/etc/hostname): hostnamectl set-hostname node1 hostnamectl set-hostname node2 修改 /etc/hosts 加入 vim /etc/hosts 192.168.84.131 node1 192.168.84.132 node2
3、SSH免密訪問 (所有節(jié)點)
ssh-keygen ssh-copy-id -i id_rsa.pub root@192.168.84.131
二、安裝
1、將新掛載的硬盤格式化,作為osd的存儲(有osd節(jié)點的都要做)
mkfs.xfs /dev/sdb blkid /dev/sdb mkdir -p /data/osd vim /etc/fstab UUID="57493ebb-6744-4355-a7f6-ec7538b4b65e" /data/osd xfs defaults 0 0 mount -a
2、在管理節(jié)點node1安裝ceph-deploy管理工具
(1)配置yum源
vim /etc/yum.repos.d/ceph.repo [ceph] name=ceph baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86_64/ gpgcheck=0 priority=1 [ceph-noarch] name=cephnoarch baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/ gpgcheck=0 priority=1 [ceph-source] name=Ceph source packages baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS gpgcheck=0 priority=1 #清楚yum緩存,重新加載 yum clean all yum makecache
(2)安裝ceph-deploy管理工具
yum -y install ceph-deploy
(3)創(chuàng)建Monitor服務
mkdir /data/ceph cd /data/ceph/ ceph-deploy new node1
ceph.conf ceph的配置文件 ceph-deploy-ceph.log ceph日志 ceph.mon.keyring ceph monitor密鑰環(huán)文件 #如果想要修改守護進程數,也就是副本數,可以在ceph.conf配置文件中添加如下行 osd_pool_default_size = 1 ##副本數
3、在所有主機上安裝ceph
ceph-deploy install node1 node2 #上面這個命令是去官方服務器下載安裝,相當慢一般不會這樣用。之前管理節(jié)點node1配置過ceph的阿里云的源,可以直接yum安裝。不過另外主機node2需要先配置yum源,再安裝。 yum -y install epel-release yum -y install ceph-release yum -y install ceph ceph-radosgw
4、在管理節(jié)點上安裝Monitor(監(jiān)控)
cd /data/ceph/ ceph-deploy mon create node1 ceph-deploy gatherkeys node1
5、創(chuàng)建osd
#前面已經創(chuàng)建過osd目錄并掛載,這里只需要創(chuàng)建osd節(jié)點即可。 ceph-deploy osd prepare node1:/data/osd node2:/data/osd
在不同的主機上可以看到,對應的節(jié)點會生成文件
6、激活osd
#在管理節(jié)點node1上激活各節(jié)點的osd ceph-deploy osd activate node1:/data/osd node2:/data/osd
#上圖可以明顯看出是權限不足的原因,直接授權777 chmod 777 -R /data/osd/ #重新執(zhí)行激活 ceph-deploy osd activate node1:/data/osd node2:/data/osd
激活完成后可以使用命令查看osd
ceph-deploy osd list node1 #也可以查看多個節(jié)點,中間用空格隔開
#使用命令將配置文件和admin密鑰同步到各個節(jié)點,以便各個節(jié)點使用ceph命令時無需指定Monitor地址和ceph.client.admin.keyring密鑰。注意:還需要修改各個節(jié)點ceph.client.admin.keyring密鑰的權限 ceph-deploy admin node1 node2 node1: cd /data/ceph chmod +r ceph.client.admin.keyring node2: cd /etc/ceph chmod +r ceph.client.admin.keyring 最后查看osd狀態(tài): ceph health
7、部署mds
ceph-deploy mds create node2 ceph mds stat 查看集群狀態(tài): ceph -s
結語
集群狀態(tài)當時忘記截圖了,執(zhí)行ceph -s 命令,大家只要看到包含“HEALTH_OK”的字樣,集群就部署成功了。
到此這篇關于linux下ceph分布式安裝使用教程的文章就介紹到這了,更多相關linux ceph安裝內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
CentOS7部署Flask(Apache、mod_wsgi、Python36、venv)
這篇文章主要介紹了CentOS7部署Flask(Apache、mod_wsgi、Python36、venv),小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2019-01-01CentOS配置本地yum源/阿里云yum源/163yuan源并配置yum源的優(yōu)先級
這篇文章主要介紹了CentOS配置本地yum源/阿里云yum源/163yuan源并配置yum源的優(yōu)先級,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2019-09-09