注意

本文档适用于 Ceph 开发版本。

NVMe-oF网关需求

  • 每个NVMe-oF网关实例至少需要8 GB的RAM

  • 我们强烈建议为每个NVMe-oF网关分配至少四个CPU线程或vcores。仅使用一个CPU线程或vcore的设置可以工作,但性能可能低于预期。最好为NVMe-oF网关服务分配服务器,以便这些服务器和其他Ceph服务不会相互影响性能。

  • 至少为Ceph公共网络提供一条10 Gb/s的网络链路。为了获得最佳延迟和吞吐量,我们建议使用25 Gb/s或100 Gb/s的链路。

  • 网络链路的绑定,并使用适当的xmit哈希策略,对于高可用性是理想的。请注意,给定NVMe-oF客户端的吞吐量不能高于绑定中单个链路的吞吐量。因此,如果在网关节点上绑定四条10 Gb/s的链路,则没有客户端的吞吐量会超过10 Gb/s。请记住,Ceph NVMe-oF网关也同时通过公共网络与后端OSDs通信,这会与客户端和网关之间的流量竞争。确保充分配置网络资源,以避免拥塞和饱和。

  • 在网关组中至少配置两个NVMe-oF网关,在单独的Ceph集群节点上,以实现高可用的Ceph NVMe/TCP解决方案。

  • Ceph NVMe-oF网关容器包含多个相互通信的组件。如果运行这些容器的节点需要HTTP/HTTPS代理配置才能访问容器注册表或其他外部资源,则这些设置可能会干扰内部通信。如果您在配置NVMe-oF网关时遇到gRPC或其他错误,您可能需要调整您的代理配置。

由 Ceph 基金会带给您

Ceph 文档是一个社区资源,由非盈利的 Ceph 基金会资助和托管Ceph Foundation. 如果您想支持这一点和我们的其他工作,请考虑加入现在加入.