本文最后更新于 272 天前,其中的信息可能已经有所发展或是发生改变。
这里是个人笔记总结,详细的说明可以参考李航:分布式存储 Ceph 介绍及原理架构分享和官方wiki
CEPH自带数据冗余和数据均匀分布,对OSD不需要做RAID
- OSD:数据存储 一个硬盘对应一个OSD 不要在同一块硬盘上建立两个OSD
- Monitor:记录OSD元数据
- MDS:记录CephFS元数据(Ceph 块设备和 Ceph 对象存储不使用MDS )
- MGR:监控集群状态 提供Dashboard和REST API
- RGW:RADOS网关 对象存储网关 与S3/Swift协议兼容
- RBD:块存储服务
File>Objects>PGs>OSDs
文件拆分成多个Object,将Objects均匀分布到多个PG上,根据CRUSH算法将PG分配到多个不同的OSD上,确保数据冗余、可用和均匀分布。
所以说我可以充分利用家里多个不同容量的硬盘,而没有RAID要求容量一致的问题。
通常需要3个mon和3个osd实现高可用。