注意

本文档适用于 Ceph 开发版本。

本地池模块

The localpool模块可以自动创建定位到集群子集的 RADOS 池。例如,默认情况下,它将为集群中的每个不同创建一个池。这可以用于希望在本地分布一些数据并在集群中全局分布其他数据的部署。一个用例是隔离测量特定驱动器、网卡或机架型号的性能和测试行为。rack in the cluster. This can be useful for deployments where it is desirable to distribute some data locally and other data globally across the cluster. One use-case is measuring performance and testing behavior of specific drive, NIC, or chassis models in isolation.

启用

The localpool模块通过以下方式启用:

ceph mgr module enable localpool

配置

The localpool模块理解以下选项:

subtree

指定模块应为其创建池的 CRUSH 子树类型。

type:

str

default:

rack

failure_domain

我们应在其中分离数据副本的故障域。

type:

str

default:

host

pg_num

任何创建的本地池的默认 PG 数

type:

int

default:

128

num_rep

任何创建的本地池的默认副本数

type:

int

default:

3

min_size

设置 min_size 的值(如果此选项未设置,则与 Ceph 的默认值相同)

type:

int

prefix

任何创建的本地池的名称前缀

type:

str

default:

by-$subtreetype-

这些选项通过 config-key 接口设置。例如,要将复制级别更改为 2x 且仅使用 64 个 PG,

ceph config set mgr mgr/localpool/num_rep 2
ceph config set mgr mgr/localpool/pg_num 64

由 Ceph 基金会带给您

Ceph 文档是一个社区资源,由非盈利的 Ceph 基金会资助和托管Ceph Foundation. 如果您想支持这一点和我们的其他工作,请考虑加入现在加入.