CEPH 集群入门笔记-基础
本文最后更新于 227 天前,其中的信息可能已经有所发展或是发生改变。

这里是个人笔记总结,详细的说明可以参考李航:分布式存储 Ceph 介绍及原理架构分享官方wiki

CEPH自带数据冗余和数据均匀分布,对OSD不需要做RAID

  • OSD:数据存储 一个硬盘对应一个OSD 不要在同一块硬盘上建立两个OSD
  • Monitor:记录OSD元数据
  • MDS:记录CephFS元数据(Ceph 块设备和 Ceph 对象存储不使用MDS )
  • MGR:监控集群状态 提供Dashboard和REST API
  • RGW:RADOS网关 对象存储网关 与S3/Swift协议兼容
  • RBD:块存储服务

File>Objects>PGs>OSDs

文件拆分成多个Object,将Objects均匀分布到多个PG上,根据CRUSH算法将PG分配到多个不同的OSD上,确保数据冗余、可用和均匀分布。

所以说我可以充分利用家里多个不同容量的硬盘,而没有RAID要求容量一致的问题。

通常需要3个mon和3个osd实现高可用。

暂无评论

发送评论 编辑评论


|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇