注意
本文档适用于 Ceph 开发版本。
mClock 配置参考
Ceph 中的 QoS 支持使用基于 dmClock 算法的排队调度器实现的。有关网络配置的详细信息,请参阅基于 mClock 的 QoS部分内容详细介绍。
为了使 mclock 的使用更加用户友好和直观,引入了 mclock 配置文件。mclock 配置文件隐藏了低级细节,使用户更容易配置和使用 mclock。
要配置与 QoS 相关的参数,mclock 配置文件需要以下输入参数:
每个 OSD 的总容量(IOPS)(自动确定 - 见OSD 容量确定(自动))
每个 OSD 的最大顺序带宽容量(MiB/s)- 见osd_mclock_max_sequential_bandwidth_[hdd|ssd]选项
一个要启用的 mclock 配置文件类型
使用指定配置文件中的设置,OSD 确定并应用较低级别的 mclock 和 Ceph 参数。mclock 配置文件应用的参数使它成为可能来调整客户端 I/O 和 OSD 中的后台操作之间的 QoS。
mClock 客户端类型
mclock 调度器处理来自不同类型 Ceph 服务的请求。从 mclock 的角度来看,每个服务都可以被视为一种客户端类型。根据处理的请求类型,mclock 客户端被分类到如下表格所示的桶中,
客户端类型 |
请求类型 |
---|---|
客户端 f69981: 仅被授权用于一个文件系统: |
由 Ceph 外部客户端发出的 I/O 请求 |
背景恢复 |
内部恢复请求 |
背景尽力而为 |
内部回填、清理、快照修剪和 PG 删除请求 |
mclock 配置文件为每个客户端类型分配不同的参数,如保留、权重和限制(见基于 mClock 的 QoS)。下一节将更详细地描述 mclock 配置文件。
mClock 配置文件 - 定义和目的
一个 mclock 配置文件是“在运行的 Ceph 集群上应用的一种配置设置,它能够限制属于不同客户端类别的操作(IOPS)(背景恢复、清理、快照修剪、客户端操作、osd 子操作)”).
mclock 配置文件使用用户选择的容量限制和 mclock 配置文件类型来确定低级 mclock 资源控制配置参数,并透明地应用它们。此外,还应用了其他 Ceph 配置参数。请参阅下文了解更多信息。
低级 mclock 资源控制参数是提供资源份额控制的保留, limit, and 权重,如基于 mClock 的 QoS部分。
mClock 配置文件类型
mclock 配置文件可以大致分为内置和custom配置文件,
内置配置文件
用户可以在以下内置配置文件类型之间选择:
Note
表格中提到的值表示分配给服务类型的 OSD 总 IOPS 容量的比例。
平衡(默认)
high_client_ops
high_recovery_ops
平衡 (default)
The 平衡配置文件是默认的 mClock 配置文件。此配置文件将相等的保留/优先级分配给客户端操作和背景恢复操作。背景尽力而为操作分配较低的保留,因此在存在竞争操作时,它们需要更长的时间才能完成。此配置文件有助于满足集群的正常/稳态需求。这是当外部客户端性能要求不是关键,并且 OSD 内还有其他需要关注的背景操作时的情况。
但可能存在需要给客户端操作或恢复操作分配更高分配的情况。为了处理这种情况,可以通过下一节中提到的步骤启用替代内置配置文件。
服务类型 |
保留 |
权重 |
限制 |
---|---|---|---|
客户端 |
50% |
1 |
MAX |
背景恢复 |
50% |
1 |
MAX |
背景尽力而为 |
MIN |
1 |
90% |
high_client_ops
此配置文件通过将比 OSD 中背景操作更多的保留和限制分配给客户端操作,从而优化客户端性能相对于后台活动。例如,此配置文件可以启用以在一段时间内为 I/O 密集型应用程序提供所需的性能,但这会牺牲恢复速度。表显示了配置文件设置的资源控制参数:
服务类型 |
保留 |
权重 |
限制 |
---|---|---|---|
客户端 |
60% |
2 |
MAX |
背景恢复 |
40% |
1 |
MAX |
背景尽力而为 |
MIN |
1 |
70% |
high_recovery_ops
此配置文件通过将比外部客户端和 OSD 内其他后台操作更多的保留和限制分配给背景恢复操作,从而优化背景恢复性能。例如,管理员可以暂时启用此配置文件以在非高峰时段加速后台恢复。表显示了配置文件设置的资源控制参数:
服务类型 |
保留 |
权重 |
限制 |
---|---|---|---|
客户端 |
30% |
1 |
MAX |
背景恢复 |
70% |
2 |
MAX |
背景尽力而为 |
MIN |
1 |
MAX |
Note
在内置配置文件中,mclock 的内部背景尽力而为客户端包括“回填”、“清理”、“快照修剪”和“PG 删除”操作。
自定义配置文件
此配置文件允许用户完全控制所有 mclock 配置参数。此配置文件应谨慎使用,并且专为理解 mclock 和 Ceph 相关配置选项的高级用户设计。
基于 HDD 的集群的 OSD 分片配置与 mClock
每个 OSD 都配置有一个或多个分片来执行任务。每个分片都包含一个唯一的队列来处理各种类型的 OSD 特定操作,如客户端 I/O、恢复、清理等。这些操作在队列中的调度由调度器执行 - 在这种情况下是 mClock 调度器。
对于基于 HDD 的 OSD,分片的数量由配置osd_op_num_shards_hdd
控制。项目由一个或多个工作线程排队和出队,这由配置osd_op_num_threads_per_shard_hdd
.
控制。如警告中所述,所使用的 OSD 分片数量决定了 mClock 队列的影响。通常,分片数量越少,mClock 队列对调度准确性的影响就越大。这是在每個分片都有足够数量的工作线程来帮助处理 mClock 队列中的项目的情况下。
在基于 HDD 的集群(192 个 OSD,8 个节点,1.5 亿个对象)上使用小对象(范围 [1 KiB - 256 KiB])进行的规模测试发现,使用 mClock 进行调度在多个 OSD 分片的情况下不是最优的。例如,在这个具有多个 OSD 节点故障的集群中,发现客户端吞吐量在多次测试运行中不一致,并报告了多个慢请求。更多详情请见https://tracker.ceph.com/issues/66289。当为客户端和背景恢复操作类都分配了 MAX 限制时,情况会更加恶化。在 OSD 故障阶段,由于客户端和恢复操作都在直接竞争以利用 OSD 的全部带宽,因此无法预测任何一类服务的吞吐量。
然而,使用单个 OSD 分片和多个工作线程进行的相同测试产生了明显更好的结果,在多次测试运行中客户端和恢复吞吐量的一致性方面。请参考上面的跟踪器了解更多详情。出于稳定性考虑,使用此分片配置在范围 [1 MiB - 256 MiB] 的大型对象上执行的相同测试产生了类似的结果。
因此,作为直到问题与多个 OSD 分片(或每个 OSD 的多个 mClock 队列)被调查和修复的临时措施,对默认的 HDD OSD 分片配置进行了以下更改:
配置选项 |
旧默认值 |
新默认值 |
---|---|---|
5 |
1 |
|
1 |
5 |
mClock 内置配置文件 - 锁定的配置选项
以下部分描述了为确保 mClock 调度器能够提供可预测的 QoS 而锁定到某些值的配置选项。
mClock 配置选项
重要
这些默认值不能使用任何配置子系统命令(如config set或通过配置守护进程或配置接口)更改。尽管上述命令(或)报告成功,但 mclock QoS 参数会恢复到各自的内置配置文件默认值。
当启用内置配置文件时,mClock 调度器根据为每个客户端类型启用的配置文件计算低级 mclock 参数 [保留, 权重, limit]。mclock 参数基于事先提供的最大 OSD 容量计算。因此,当使用任何内置配置文件时,以下 mclock 配置参数不能修改:
恢复/回填选项
警告
建议不要更改这些选项,因为内置配置文件是基于它们进行优化的。更改这些默认值可能会导致意外的性能结果。
以下恢复和回填相关的 Ceph 选项被覆盖为 mClock 默认值:
以下表格显示了 mClock 默认值,它与当前默认值相同。这是为了最大化前景(客户端)操作的性能:
配置选项 |
原始默认值 |
mClock 默认值 |
---|---|---|
1 |
1 |
|
0 |
0 |
|
3 |
3 |
|
10 |
10 |
上述 mClock 默认值,只有在必要时才能通过启用osd_mclock_override_recovery_settings
(默认:false)来修改。这些步骤在修改 mClock 最大回填/恢复限制的步骤部分。
如果任何 mClock 配置文件(包括“自定义”)处于活动状态,则以下 Ceph 配置睡眠选项将被禁用(设置为 0),
If any mClock profile (including “custom”) is active, the following Ceph config sleep options are disabled (set to 0),
上述睡眠选项被禁用是为了确保 mclock 调度器能够确定何时从其操作队列中选择下一个操作并将其转移到操作序列器。这导致在所有其客户端之间提供了所需的 QoS。
启用 mClock 配置文件的步骤
如前所述,默认的 mclock 配置文件设置为平衡。high_client_ops和high_recovery_ops.
如果需要更改默认配置文件,则可以在运行时通过使用以下命令设置选项osd_mclock_profile
may be set during runtime by using the following
command:
ceph config set osd.N osd_mclock_profile <value>
例如,要更改配置文件以允许在“osd.0”上更快地恢复,可以使用以下命令切换到high_recovery_ops配置文件:
ceph config set osd.0 osd_mclock_profile high_recovery_ops
Note
The custom配置文件不推荐使用,除非您是高级用户。
这样就完成了!您现在可以运行集群上的工作负载并检查是否满足 QoS 要求。
在内置配置文件和自定义配置文件之间切换
可能存在需要从内置配置文件切换到custom配置文件,反之亦然的情况。以下部分概述了完成此操作的步骤。
从内置配置文件切换到自定义配置文件的步骤
可以使用以下命令切换到custom配置文件:
ceph config set osd osd_mclock_profile custom
例如,要更改配置文件以custom在所有 OSD 上,可以使用以下命令:
ceph config set osd osd_mclock_profile custom
切换到custom配置文件后,可以修改所需的 mClock 配置选项。例如,要更改特定 OSD(例如 osd.0)的客户端保留 IOPS 比例为 0.5(或 50%),可以使用以下命令:
ceph config set osd.0 osd_mclock_scheduler_client_res 0.5
重要
在更改其他服务(如恢复和背景尽力而为)的保留时必须小心,以确保保留的总和不超过 OSD IOPS 容量的最大比例(1.0)。
提示
保留和限制参数分配基于 OSD 的后备设备类型(HDD/SSD)。见osd_op_num_shards_hdd
和osd_op_num_shards_ssd
了解更多详情。
从自定义配置文件切换到内置配置文件的步骤
从custom配置文件切换到内置配置文件需要一个中间步骤,即从中央配置数据库中删除自定义设置,以便更改生效。
可以使用以下命令序列切换到内置配置文件:
使用以下命令设置所需的内置配置文件:
ceph config set osd <mClock Configuration Option>
例如,要设置内置配置文件为
high_client_ops
在所有ceph config set osd osd_mclock_profile high_client_ops
使用以下命令确定中央配置数据库中现有的自定义 mClock 配置设置:
ceph config dump
从中央配置数据库中删除在上一步骤中确定的自定义 mClock 配置设置:
ceph config rm osd <mClock Configuration Option>
例如,要删除在所有 OSD 上设置的配置选项
osd_mclock_scheduler_client_res
,请运行以下命令:ceph config rm osd osd_mclock_scheduler_client_res
在所有现有的自定义 mClock 配置设置从中央配置数据库中删除后,
high_client_ops
的配置设置将生效。例如,要验证 osd.0 上的设置,请使用:ceph config show osd.0
临时在 mClock 配置文件之间切换
要临时在 mClock 配置文件之间切换,可以使用以下命令来覆盖设置:
警告
本节仅适用于高级用户或实验测试。建议不要在运行中的集群上使用以下命令,因为它可能会导致意外的结果。
Note
使用以下命令在 OSD 上进行的配置更改是暂时的,并且在重启时丢失。重要的是要注意,使用以下命令覆盖的配置选项不能使用ceph config set osd.N …命令进一步修改。更改不会在给定的 OSD 重启之前生效。这是有意为之,因为根据配置子系统设计。但是,仍然可以使用以下命令进行进一步的临时修改。
,则表示你位于正确的目录中。运行injectargs命令,如所示,以覆盖 mclock 设置:
ceph tell osd.N injectargs '--<mClock Configuration Option>=<value>'
例如,以下命令覆盖了 osd.0 上的
osd_mclock_profile
选项:ceph tell osd.0 injectargs '--osd_mclock_profile=high_recovery_ops'
可以使用的另一个命令是:
ceph daemon osd.N config set <mClock Configuration Option> <value>
例如,以下命令覆盖了 osd.0 上的
osd_mclock_profile
选项:ceph daemon osd.0 config set osd_mclock_profile high_recovery_ops
也可以使用上述命令临时修改custom配置文件的各个 QoS 相关配置选项。
修改 mClock 最大回填/恢复限制的步骤
本节描述了如果需要,修改默认最大回填或恢复限制的步骤。
警告
本节仅适用于高级用户或实验测试。建议在运行中的集群上保留默认值,因为修改它们可能会导致意外的性能结果。只有在集群无法应对默认设置或在对测试集群进行实验时才可能修改这些值。
重要
可以修改的最大回填/恢复选项列在恢复/回填选项部分。mClock 默认回填/恢复限制的修改受osd_mclock_override_recovery_settings
选项控制,该选项默认设置为false。尝试在不设置门控选项的情况下修改任何默认恢复/回填限制将重置该选项为 mClock 默认值,并在集群日志中记录警告消息。请注意,默认值可能需要几秒钟才能恢复生效。使用config show命令,如下所示,验证限制。
Set the
osd_mclock_override_recovery_settings
configtrue使用以下命令:ceph config set osd osd_mclock_override_recovery_settings true
使用以下命令设置所需的最大回填/恢复选项:
ceph config set osd osd_max_backfills <value>
例如,以下命令将所有 OSD 的
osd_max_backfills
选项修改为 5。ceph config set osd osd_max_backfills 5
等待几秒钟并使用以下命令验证特定 OSD 的运行配置:
ceph config show osd.N | grep osd_max_backfills
例如,以下命令显示了 osd.0 的运行配置。
osd_max_backfills
on osd.0.ceph config show osd.0 | grep osd_max_backfills
使用以下命令将所有 OSD 的
osd_mclock_override_recovery_settings
configfalse使用以下命令:ceph config set osd osd_mclock_override_recovery_settings false
OSD 容量确定(自动)
OSD 的总 IOPS 容量在 OSD 初始化期间自动确定。这是通过运行 OSD bench 工具并覆盖osd_mclock_max_capacity_iops_[hdd, ssd]
选项的默认值来实现的,具体取决于设备类型。用户不需要采取其他操作/输入来设置 OSD 容量。
Note
如果您希望手动基准测试 OSD(或)手动调整 Bluestore 节流参数,请参阅下一节手动基准测试 OSD 的步骤(可选).
您可以在集群启动后使用以下命令验证 OSD 的容量:
ceph config show osd.N osd_mclock_max_capacity_iops_[hdd, ssd]
例如,以下命令显示了 SSD 基础节点上“osd.0”的最大容量:
ceph config show osd.0 osd_mclock_max_capacity_iops_ssd
自动测试中 OSD 容量的不切实际性缓解
在某些条件下,OSD bench 工具可能会根据驱动配置和其他环境条件显示不切实际/夸大的结果。为了减轻由于这种不切实际的容量导致的性能影响,定义并使用了取决于 OSD 设备类型的几个阈值配置选项:
执行以下自动步骤:
回退到使用默认 OSD 容量(自动)
如果 OSD bench 报告的测量值超过上述阈值值,则根据底层设备类型,回退机制会恢复到osd_mclock_max_capacity_iops_hdd
或osd_mclock_max_capacity_iops_ssd
的默认值。阈值配置选项可以根据使用的驱动类型重新配置。此外,如果测量值超过阈值,则会在集群日志中记录集群警告。例如,
2022-10-27T15:30:23.270+0000 7f9b5dbe95c0 0 log_channel(cluster) log [WRN]
: OSD bench result of 39546.479392 IOPS exceeded the threshold limit of
25000.000000 IOPS for osd.1. IOPS capacity is unchanged at 21500.000000
IOPS. The recommendation is to establish the osd's IOPS capacity using other
benchmark tools (e.g. Fio) and then override
osd_mclock_max_capacity_iops_[hdd|ssd].
如果默认容量不能准确反映 OSD 的容量,建议执行以下附加步骤来解决此问题:
如果默认 OSD 容量不准确,建议使用您喜欢的工具(例如 Fio)在驱动上运行自定义基准测试,然后按照
If the default OSD capacity is not accurate, the recommendation is to run a
custom benchmark using your preferred tool (e.g. Fio) on the drive and then
override the osd_mclock_max_capacity_iops_[hdd, ssd]
option as described
in the 设置或覆盖 OSD 的最大 IOPS 容量部分。
以下是覆盖单个 OSD 的 IOPS 容量的步骤。注意,单个值由 OSD 运行常规启动基准测试后获取。
手动基准测试 OSD 的步骤(可选)
Note
只有在您希望覆盖 OSD 初始化期间自动确定的容量的情况下,才需要执行这些步骤。否则,您可以完全跳过本节。
提示
如果您已经确定了基准测试数据并希望手动覆盖 OSD 的最大容量,您可以跳到下一节设置或覆盖 OSD 的最大 IOPS 容量.
可以使用任何现有的基准测试工具(例如 Fio)来完成此目的。在这种情况下,步骤使用下一节中描述的Ceph OSD Bench命令。无论使用哪种工具/命令,步骤都保持相同。
如前所述在基于 mClock 的 QoS部分中描述的,分片数量和 bluestore 的节流参数对 mclock 操作队列有影响。因此,在设置这些值时需要非常小心,以最大程度地提高 mclock 调度器的影响。
- 操作分片数量:
我们建议使用配置选项
osd_op_num_shards
,osd_op_num_shards_hdd
, andosd_op_num_shards_ssd
定义的默认分片数量。通常,分片数量越少,mClock 队列的影响就越大。- Bluestore 节流参数:
我们建议使用配置选项
bluestore_throttle_bytes
和bluestore_throttle_deferred_bytes
都设置为 32 KiB(32768 字节)每个
OSD Bench 命令语法
The OSD 子系统部分描述了 OSD bench 命令。基准测试的语法如下:
ceph tell osd.N bench [TOTAL_BYTES] [BYTES_PER_WRITE] [OBJ_SIZE] [NUM_OBJS]
其中,
TOTAL_BYTES
: 要写入的总字节数BYTES_PER_WRITE
: 每次写入的块大小OBJ_SIZE
: 每个对象的字节数NUM_OBJS
: 要写入的对象数量
使用 OSD Bench 执行基准测试的步骤
以下步骤使用默认分片并详细说明确定正确的 bluestore 节流值的步骤(可选)。
启动您的 Ceph 集群并登录到托管您希望基准测试的 OSD 的 Ceph 节点。
使用以下命令在 OSD 上运行简单的 4KiB 随机写入工作负载:
Note
注意,在运行测试之前,必须清除缓存以获得准确的测量结果。
例如,如果您正在运行基准测试测试 osd.0,请运行以下命令:
ceph tell osd.0 cache drop
ceph tell osd.0 bench 12288000 4096 4194304 100
注意 osd bench 命令输出中获得的整体吞吐量(IOPS)。此值是默认 bluestore 节流选项生效时的基线吞吐量(IOPS)。
如果目的是确定您的环境中的 bluestore 节流值,则首先将两个选项,
bluestore_throttle_bytes
和bluestore_throttle_deferred_bytes
和使用 OSD bench 以之前的方式运行 4KiB 随机写入测试。
注意输出中的整体吞吐量,并将其与步骤 3 中记录的基线吞吐量进行比较。
如果吞吐量与基线不匹配,则将 bluestore 节流选项增加 2 倍,并重复步骤 5 至 7,直到获得的吞吐量非常接近基线值。
例如,在具有 NVMe SSD 的机器上进行基准测试时,确定 bluestore 节流和延迟字节的值分别为 256 KiB 以最大化 mClock 的影响。对于 HDD,相应的值为 40 MiB,整体吞吐量大致等于基线吞吐量。注意,通常情况下,与 SSD 相比,HDD 的 bluestore 节流值预计会更高。
设置或覆盖 OSD 的最大 IOPS 容量
本节中的步骤可用于设置或覆盖 OSD 的最大 IOPS 容量。OSD 的osd_mclock_max_capacity_iops_[hdd, ssd]
选项可以通过运行以下形式的命令覆盖:
ceph config set osd.N osd_mclock_max_capacity_iops_[hdd,ssd] <value>
例如,以下命令将特定 OSD(例如“osd.0”)的最大容量设置为 350 IOPS,其底层设备类型为 HDD:
ceph config set osd.0 osd_mclock_max_capacity_iops_hdd 350
或者,您可以在 Ceph 配置文件中的相应 [osd.N] 部分指定 OSD 的最大容量。见配置文件部分名称 for more details.
多个 OSD 的最大 IOPS 容量的全局覆盖
多个 OSD 的最大 IOPS 容量可以通过全局配置规范进行覆盖。本节显示了全局覆盖 mon store 中单独作用域值的步骤。
,步骤也适用于基于 SSD 的 OSD,在这种情况下,使用的选项是
运行以下命令以验证中央配置数据库中为 OSD 设置的单独值:
ceph config dump | grep osd_mclock_max_capacity_iops
WHO MASK LEVEL OPTION VALUE RO osd.0 basic osd_mclock_max_capacity_iops_hdd 379.197568 osd.1 basic osd_mclock_max_capacity_iops_hdd 400.903575 osd.2 basic osd_mclock_max_capacity_iops_hdd 398.303428 osd.3 basic osd_mclock_max_capacity_iops_hdd 419.035854
如果没有报告单独值,请跳到下一步。否则,使用以下形式的命令删除上一步骤中报告的所有单独值(其中“x”是 OSD ID):
ceph config rm osd.x osd_mclock_max_capacity_iops_hdd
确认ceph config dump命令从步骤 1 不显示任何单独值。
使用以下形式的命令设置osd_mclock_max_capacity_iops_hdd的全局值:
ceph config set global osd_mclock_max_capacity_iops_hdd 111
通过运行以下命令确认全局选项已设置:
ceph config dump | grep osd_mclock_max_capacity_iops
global basic osd_mclock_max_capacity_iops_hdd 111.000000
确认全局设置现在对不再具有特定每个 OSD 中央配置设置的任何 OSD 生效:
ceph config show osd.0 | grep osd_mclock_max_capacity_iops_hdd
osd_mclock_max_capacity_iops_hdd 111.000000 mon
mClock 配置选项
- osd_mclock_profile
这设置了用于根据属于不同类别的操作(背景恢复、清理、快照修剪、客户端操作、osd 子操作)提供 QoS 的 mclock 配置文件类型。一旦启用内置配置文件,就会透明地设置低级 mclock 资源控制参数 [保留、权重、限制] 和一些 Ceph 配置参数。请注意,上述内容不适用于custom配置文件。
- type:
str
- default:
balanced
- valid choices:
balanced
high_recovery_ops
high_client_ops
custom
- 参见:
- osd_mclock_max_capacity_iops_hdd
Max random write IOPS capacity (at 4 KiB block size) to consider per OSD (for rotational media)
- type:
float
- default:
315.0
- osd_mclock_max_capacity_iops_ssd
Max random write IOPS capacity (at 4 KiB block size) to consider per OSD (for solid state media)
- type:
float
- default:
21500.0
- osd_mclock_max_sequential_bandwidth_hdd
The maximum sequential bandwidth in bytes/second to consider for the OSD (for rotational media)
- type:
size
- default:
150Mi
- osd_mclock_max_sequential_bandwidth_ssd
The maximum sequential bandwidth in bytes/second to consider for the OSD (for solid state media)
- type:
size
- default:
1200Mi
- osd_mclock_force_run_benchmark_on_init
Force run the OSD benchmark on OSD initialization/boot-up
- type:
bool
- default:
false
- 参见:
osd_mclock_max_capacity_iops_hdd
,osd_mclock_max_capacity_iops_ssd
- osd_mclock_skip_benchmark
Skip the OSD benchmark on OSD initialization/boot-up
- type:
bool
- default:
false
- 参见:
osd_mclock_max_capacity_iops_hdd
,osd_mclock_max_capacity_iops_ssd
- osd_mclock_override_recovery_settings
Setting this option will enable the override of the recovery/backfill limits for the mClock scheduler as defined by the
osd_recovery_max_active_hdd
,osd_recovery_max_active_ssd
和osd_max_backfills
options.- type:
bool
- default:
false
- 参见:
osd_recovery_max_active_hdd
,osd_recovery_max_active_ssd
,osd_max_backfills
- osd_mclock_iops_capacity_threshold_hdd
The threshold IOPS capacity (at 4KiB block size) beyond which to ignore OSD bench results for an OSD (for rotational media) and fall back to the last valid or default IOPS capacity defined by
osd_mclock_max_capacity_iops_hdd
.- type:
float
- default:
500.0
- 参见:
- osd_mclock_iops_capacity_low_threshold_hdd
The threshold IOPS capacity (at 4KiB block size) below which to ignore OSD bench results for an OSD (for rotational media) and fall back to the last valid or default IOPS capacity defined by
osd_mclock_max_capacity_iops_hdd
.- type:
float
- default:
50.0
- 参见:
- osd_mclock_iops_capacity_threshold_ssd
The threshold IOPS capacity (at 4KiB block size) beyond which to ignore OSD bench results for an OSD (for solid state media) and fall back to the last valid or default IOPS capacity defined by
osd_mclock_max_capacity_iops_ssd
.- type:
float
- default:
80000.0
- 参见:
- osd_mclock_iops_capacity_low_threshold_ssd
The threshold IOPS capacity (at 4KiB block size) below which to ignore OSD bench results for an OSD (for solid state media) and fall back to the last valid or default IOPS capacity defined by
osd_mclock_max_capacity_iops_ssd
.- type:
float
- default:
1000.0
- 参见:
由 Ceph 基金会带给您
Ceph 文档是一个社区资源,由非盈利的 Ceph 基金会资助和托管Ceph Foundation. 如果您想支持这一点和我们的其他工作,请考虑加入现在加入.