注意
本文档适用于 Ceph 开发版本。
本地池模块
The localpool模块可以自动创建定位到集群子集的 RADOS 池。例如,默认情况下,它将为集群中的每个不同创建一个池。这可以用于希望在本地分布一些数据并在集群中全局分布其他数据的部署。一个用例是隔离测量特定驱动器、网卡或机架型号的性能和测试行为。rack
in the cluster. This can be useful for
deployments where it is desirable to distribute some data locally and other data
globally across the cluster. One use-case is measuring performance and testing
behavior of specific drive, NIC, or chassis models in isolation.
启用
The localpool模块通过以下方式启用:
ceph mgr module enable localpool
配置
The localpool模块理解以下选项:
- subtree
指定模块应为其创建池的 CRUSH 子树类型。
- type:
str
- default:
rack
- failure_domain
我们应在其中分离数据副本的故障域。
- type:
str
- default:
host
- pg_num
任何创建的本地池的默认 PG 数
- type:
int
- default:
128
- num_rep
任何创建的本地池的默认副本数
- type:
int
- default:
3
- min_size
设置 min_size 的值(如果此选项未设置,则与 Ceph 的默认值相同)
- type:
int
- prefix
任何创建的本地池的名称前缀
- type:
str
- default:
by-$subtreetype-
这些选项通过 config-key 接口设置。例如,要将复制级别更改为 2x 且仅使用 64 个 PG,
ceph config set mgr mgr/localpool/num_rep 2
ceph config set mgr mgr/localpool/pg_num 64
由 Ceph 基金会带给您
Ceph 文档是一个社区资源,由非盈利的 Ceph 基金会资助和托管Ceph Foundation. 如果您想支持这一点和我们的其他工作,请考虑加入现在加入.