扫一扫微信二维码

开源技术分享 | Ceph磁盘故障恢复测试 发布时间:2018-03-22


摘要:Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。在OpenStack应用中,Ceph扮演着重要的角色,九州云OpenStack+Ceph的方案广受用户欢迎,并实现诸多案例的落地。此次将重点介绍在Ceph磁盘故障恢复测试的一些经验。
 
Ceph分布式存储在实际使用环境中,目前主流配置都是3副本模式。允许同时最大两个OSD出现故障,那么实际情况是如何的呢?我们来实际检测一下:
 
1、先找到这个云主机挂载的云硬盘ID
openstack volume list --all

\
 
 
2、找到这个云硬盘所对应的volume ID
docker exec -it ceph_mon bash
rbd -p volumes ls | grep 6293a880-20b0-42ef-ac08-b5e2376220a3
默认都是只在前面增加“vomun-”

\
 
3、查看一下这个volume的磁盘前缀prefix
rbd info -p volumes volume- 6293a880-20b0-42ef-ac08-b5e2376220a3

\
 
结果是:rbd_data.23aa238e1f29
 
4、然后查找这个磁盘前缀对应的所有对象
rados -p volumes ls | grep rbd_data.23aa238e1f29.

\
 
 
5、最后找到这个对象所在的OSD盘
ceph osd map volumes
rbd_data.23aa238e1f29.0000000000000001

\
 
可以看到由9,13,0三个OSD组成这个PV
6、关闭OSD
先查看osd的分布和状态
ceph osd tree

\

需要登录对应主机进行关闭和开启操作
docker stop ceph_osd_9

\

\

可以看到OSD9 状态DOWN

\

OSD由9,13,0变成13,0

\

恢复过程中

\

同步完成后,OSD又恢复成13,14,0三个,14顶替9
 
7、修复故障硬盘
docker start ceph_osd_9

\

 \

ceph默认将OSD9回复到原PG中,释放OSD14
 
8、同时故障2块硬盘
同时故障2块硬盘,如属于不同PG,参考上述情况。
如同属一个PG的两个OSD,那么该PG(云硬盘)将进入只读模式,直至至少恢复至2个OSD可用的情况下,放开写入权限。

© 2012-2018 九州云信息科技有限公司 99Cloud 版权所有 咨询热线:400 006 0472 售后服务热线:400 670 7810 培训咨询热线:400 826 0070   ICP证:浙ICP备12032350号-1

网站建设:信达互联

北京网站建设公司