注意

本文档适用于 Ceph 开发版本。

Ceph 术语表

应用程序

更准确地称为客户端,应用程序是指任何外部于 Ceph 的使用 Ceph 集群存储和复制的程序。

BlueStore

OSD BlueStore 是 OSD 守护进程使用的存储后端,并且是专门为与 Ceph 一起使用而设计的。BlueStore 在 Ceph Kraken 发布中引入。Ceph 的 Luminous 发布将 BlueStore 推广为默认的 OSD 后端,取代了 FileStore。自 Reef 发布以来,FileStore 不再可用作存储后端。

BlueStore 直接将对象存储在原始块设备或分区上,并且不与挂载的文件系统交互。BlueStore 使用 RocksDB 的键/值数据库将对象名称映射到磁盘上的块位置。

RGW, a bucket is a group of objects. In a filesystem-based analogy in which objects are the counterpart of files, buckets are the counterpart of directories. 多站点同步策略可以在桶上设置,以提供从一个区域到另一个区域的数据移动的细粒度控制。

桶的概念取自 AWS S3。另见AWS S3 创建桶页面AWS S3 “桶概述”页面.

OpenStack Swift 使用“容器”一词来指代 RGW 和 AWS 称为“桶”的内容。参见OpenStack 存储API概述页面.

Ceph

Ceph 是一个具有分布式元数据管理和 POSIX 语义的分布式网络存储和文件系统。

ceph-ansible

一个 GitHub 仓库,从 Jewel 发布到 Quincy 发布期间提供支持,便于安装 Ceph 集群。

Ceph 块设备

也称为“RADOS 块设备”。。一个软件工具,用于协调 Ceph 中基于块的数据的存储。Ceph 块设备将基于块的 应用程序数据分割成“块”。RADOS 将这些块存储为对象。Ceph 块设备协调这些对象在存储集群中的存储。RBD. A software instrument that orchestrates the storage of block-based data in Ceph. Ceph Block Device splits block-based application data into “chunks”. RADOS stores these chunks as objects. Ceph Block Device orchestrates the storage of those objects across the storage cluster.

Ceph 块存储

Ceph 支持的三种存储类型之一(其他两种是对象存储和文件存储)。Ceph 块存储是块存储“产品”,当与(1)librbd(一个提供对RBD图像的文件式访问的 python 模块)、(2)一个 hypervisor(如 QEMU 或 Xen)以及(3)一个 hypervisor 抽象层(如libvirt.

Ceph Client

一起使用时,指的是块存储相关的服务和功能。

Ceph 客户端库

可以用来与 Ceph 集群组件交互的库集合。

Ceph 集群映射

请参阅集群地图

Ceph 仪表板

Ceph 仪表板是一个内置的基于 Web 的 Ceph 管理和监控应用程序,您可以通过它检查和管理集群内的各种资源。它实现为一个Ceph 管理守护进程模块。

Ceph 文件系统

请参阅CephFS

CephFS

The Ceph FileSystem,或 CephFS,是一个基于 Ceph 分布式对象存储 RADOS 构建的 POSIX 兼容文件系统。参见CephFS 架构 for more details.

ceph-fuse

ceph-fuse是一个 FUSE (“a65b4a: 在Filesystem in USErspace”) 客户端,用于 CephFS。ceph-fuse 在指定的挂载点挂载 Ceph FS。

Ceph 暂定发布

请参阅发布.

Ceph 内核模块

可以用来与 Ceph 集群交互的内核模块集合(例如:ceph.ko, rbd.ko).

Ceph管理器

Ceph 管理守护进程(ceph-mgr)是一个与监控守护进程一起运行的守护进程,以提供对外部监控和管理系统的监控和接口。自 Luminous 发布(12.x)以来,除非 Ceph 集群包含一个正在运行的 ceph-mgr 守护进程,否则它不会正常运行。

Ceph 管理仪表板

请参阅Ceph 仪表板.

Ceph元数据服务器

请参阅MDS.

Ceph监控器

一个维护集群状态映射的守护进程。这种“集群状态”包括监控映射、管理映射、OSD 映射和 CRUSH 映射。Ceph 集群必须包含至少三个正在运行的监控器,才能既冗余又高可用。Ceph 监控器和运行它们的节点通常被称为“mon”。参见监控器配置参考.

Ceph 节点

Ceph 节点是与 Ceph 集群中的其他节点通信以复制和重新分配数据的 Ceph 集群的单元。所有节点一起称为Ceph 存储集群。Ceph 节点包括OSD“桶” (Ceph监控器“桶” (Ceph管理器s,和MDSes。在 Ceph 文档中,“节点”一词通常相当于“主机”。如果您有一个正在运行的 Ceph 集群,可以通过运行命令列出其中的所有节点ceph node ls all.

Ceph 对象网关

一个构建在 librados 之上的对象存储接口。Ceph Object Gateway 在应用程序和 Ceph 存储集群之间提供了一个 RESTful 网关。

Ceph对象存储

请参阅Ceph 对象存储.

Ceph 对象存储

一个 Ceph 对象存储由一个Ceph 存储集群Ceph 对象网关(RGW) 组成。

Ceph OSD

CephObjectStorageDaemon。Ceph OSD 软件,它与应用逻辑磁盘 (OSD) 交互。大约在 2013 年,有“研究和工业”(Sage 自己的话)试图坚持使用“OSD”一词仅指“对象存储设备”,但 Ceph 社区始终坚持使用“OSD”一词指“对象存储守护进程”,就连 Sage Weil 本人在 2022 年 11 月也确认“守护进程对于 Ceph 的构建来说更准确”(Zac Dover 和 Sage Weil 之间的私人通信,07 Nov 2022)。

Ceph OSD 守护进程

请参阅Ceph OSD.

Ceph OSD 守护进程

请参阅Ceph OSD.

Ceph 平台

所有 Ceph 软件,包括托管在https://github.com/ceph.

Ceph 暂定发布

请参阅发布.

Ceph 项目

Ceph 的总称,包括其人员、软件、使命和基础设施。

Ceph 发布

请参阅发布.

Ceph 发布候选者

请参阅发布.

Ceph 稳定发布

请参阅发布.

Ceph 堆栈

由 Ceph 的两个或更多组件组成的集合。

Ceph 存储集群

Ceph监控器“桶” (Ceph“桶” (Ceph元数据服务器s,和OSDsCeph Clients 使用的数据。Ceph 存储集群从Ceph Clients 接收数据。

CephX

Ceph 认证协议。CephX 验证用户和守护进程。CephX 类似于 Kerberos,但它没有单点故障。参见架构文档的高可用认证部分CephX 配置参考.

客户端 f69981: 仅被授权用于一个文件系统:

客户端是任何外部于 Ceph 的使用 Ceph 集群存储和复制数据的程序。

虚拟机 (VM) 或
云堆栈

第三方云供应平台,如 OpenStack、CloudStack、OpenNebula 和 Proxmox VE。

集群地图

由监控映射、OSD 映射、PG 映射、MDS 映射和 CRUSH 映射组成的映射集,它们一起报告 Ceph 集群的状态。参见架构文档的“集群映射”部分 for details.

Crimson

一种下一代 OSD 架构,其目的是减少由于跨核通信而产生的延迟成本。OSD 的重新设计通过减少数据路径中碎片之间的通信来减少锁竞争。Crimson 通过消除对线程池的依赖来提高经典 Ceph OSD 的性能。参见Crimson:用于多核可扩展性的下一代 Ceph OSD。参见 Crimson 开发者文档Crimson developer documentation.

CRUSH

C控制复制R等级Under S可扩展性。Ceph 用于计算对象存储位置的算法。参见Hashing. The algorithm that Ceph uses to compute object storage locations. See CRUSH:受控的、可扩展的、去中心化的复制数据放置.

CRUSH 规则

应用于特定池或多个池的 CRUSH 数据放置规则。

直接附加存储。直接附加到访问它的计算机的存储,不通过网络。与 NAS 和 SAN 相比。

Direct-Attached Storage. Storage that is attached directly to the computer accessing it, without passing through a network. Contrast with NAS and SAN.

仪表板

一个内置的基于 Web 的 Ceph 管理和监控应用程序,用于管理集群的各个方面和对象。仪表板作为 Ceph 管理器模块实现。参见Ceph 仪表板 for more details.

仪表板模块

Dashboard Plugin 的另一个名称仪表板.

Dashboard Plugin

仪表板插件是 Mimic 时代的 Web 应用程序,它使用由Ceph.

请参阅托管的 Web 服务器来可视化有关 Ceph 集群的信息和统计数据。参见 Mimic 时代仪表板插件文档.

数据中心

D数据服务器守护进程。也称为“ceph-mds”。Ceph 元数据服务器守护进程必须在运行 CephFS 文件系统的任何 Ceph 集群中运行。MDS 存储所有文件系统元数据。Center.

Flapping OSD

一个反复被快速标记up首先和down的 OSD。参见振荡的OSD.

FQDN

FullyQualifiedDomainName。一个应用于网络中的节点的域名,它指定了该节点在 DNS 树层次结构中的确切位置。

在 Ceph 集群管理的上下文中,FQDN 通常应用于主机。在此文档中,“FQDN”一词主要用于区分 FQDN 和相对简单的主机名,后者不指定主机在 DNS 树层次结构中的确切位置,而只是命名主机。

主机

Ceph 集群中的任何单个机器或服务器。参见Ceph 节点.

混合 OSD

指具有 HDD 和 SSD 驱动的 OSD。

librados

一个 API,可用于创建到 Ceph 存储集群的自定义接口。librados使得与 Ceph 监控器和 OSDs 交互成为可能。参见librados 简介。有关网络配置的详细信息,请参阅librados (Python).

LVM 标签

L逻辑卷管理器标签。可扩展元数据,用于 LVM 卷和组。它们用于存储有关设备和它与 OSDs 关系的 Ceph 特定信息。Volume Manager tags. Extensible metadata for LVM volumes and groups. They are used to store Ceph-specific information about devices and its relationship with OSDs.

MDS

CephMetaD数据服务器守护进程。也称为“ceph-mds”。Ceph 元数据服务器守护进程必须在运行 CephFS 文件系统的任何 Ceph 集群中运行。MDS 存储所有文件系统元数据。Server daemon. Also referred to as “ceph-mds”. The Ceph metadata server daemon must be running in any Ceph cluster that runs the CephFS file system. The MDS stores all filesystem metadata. 客户端 f69981: 仅被授权用于一个文件系统:s 与单个 MDS 或一组 MDSes 一起工作,以维护 CephFS 所需的分布式元数据缓存。

请参阅部署元数据服务器.

请参阅ceph-mds man 页面.

MGR

Ceph 管理软件,它将整个集群的状态收集在一个地方。

MON

Ceph 监控软件。

Monitor Store

Monitor 使用的持久存储。这包括 Monitor 的 RocksDB 和所有相关文件在/var/lib/ceph.

节点

请参阅Ceph 节点.

对象存储

对象存储是 Ceph 相关的三种存储类型之一。Ceph 相关的另外两种存储类型是文件存储和块存储。对象存储是 Ceph 最基本的存储类别。

Object Storage Device

请参阅OSD.

OMAP

“对象映射”。一个键值存储(数据库),用于减少从 Ceph 集群读取数据以及写入数据所需的时间。RGW 桶索引存储为 OMAPs。纠删码池不能存储 RADOS OMAP 数据结构。

运行命令ceph osd dfto see your OMAPs.

参见 Eleanor Cawthon 的 2012 年论文使用 Ceph 的分布式键值存储 (17 pages).

OpenStack Swift

在 Ceph 的上下文中,OpenStack Swift 是 Ceph 对象存储支持的两种 API 之一。Ceph 对象存储支持的另一种 API 是 S3。

请参阅OpenStack 存储API概述页面.

OSD

可能是Ceph OSD,但不一定是。有时(尤其是在较旧的通信中,尤其是在专门为 Ceph 编写的文档中),“OSD”意味着“ObjectStorageDevice”,它指的是一个物理或逻辑存储单元(例如:LUN)。Ceph 社区始终使用“OSD”一词来指代Ceph OSD 守护进程尽管在 2010 年代中期行业推动坚持“OSD”应指“对象存储设备”,但它是重要的要知道哪个含义是意图的。

OSD,flapping

请参阅Flapping OSD.

OSD FSID

OSD fsid 是一个唯一标识符,用于标识 OSD。它在名为osd_fsid的 OSD 路径中的文件中找到。术语FSIDUUID.

OSD ID

OSD id 是每个 OSD(每个 OSD 有一个唯一的 OSD ID)的唯一整数。每个 OSD id 由监控器在其关联的 OSD 创建期间生成。

OSD UUID

OSD UUID 是 OSD 的唯一标识符。该术语与FSID.

时期

RGW, a period is the configuration state of the Realm的配置状态。时期存储多站点配置的配置状态。当时期更新时,由此“epoch”被认为已更改。

放置组(PGs)

放置组(PGs)是每个逻辑 Ceph 池的子集。放置组执行将对象(作为一个组)放置到 OSDs 的功能。Ceph 在放置组粒度内部管理数据:这比管理单个(因此更多)RADOS 对象要好。具有更多放置组(例如,每个 OSD 100 个)的集群比其他方面相同的具有较少放置组的集群更好地平衡。

Ceph 的内部 RADOS 对象每个都映射到特定的放置组,并且每个放置组正好属于一个 Ceph 池。

PLP

PowerLssProtection。一种保护固态硬盘数据的技术,它使用电容器来延长从 DRAM 缓存到 SSD 永久内存传输数据的时间。消费级 SSD 很少配备 PLP。

池是一个逻辑分区,用于存储对象。

Pools

请参阅pool.

Primary Affinity

OSD 的特性决定了给定 OSD 被选为活动集中主要 OSD(或“主 OSD”)的可能性。主要亲和力在 Firefly(v. 0.80)中引入。参见Primary Affinity.

Prometheus

可靠的自主分布式对象存储“Prometheus module”, which provides a Prometheus exporter that passes performance counters from a collection point in ceph-mgr to Prometheus.

Quorum

Quorum is the state that exists when a majority of the Monitors in the cluster are up. A minimum of three Monitors must exist in the cluster in order for Quorum to be possible.

RADOS

Reliable Autonomic Distributed ObjectStore. RADOS is the object store that provides a scalable service for variably-sized objects. The RADOS object store is the core component of a Ceph cluster. This blog post from 2009 provides a beginner’s introduction to RADOS. Readers interested in a deeper understanding of RADOS are directed to RADOS: A Scalable, Reliable Storage Service for Petabyte-scale Storage Clusters.

RADOS Cluster

A proper subset of the Ceph Cluster consisting of OSD“桶” (Ceph监控器s,和Cephs 接收数据。

RADOS Gateway

请参阅RGW.

RBD

RADOSBlock Device. See Ceph Block Device.

Realm

In the context of RADOS Gateway (RGW), a realm is a globally unique namespace that consists of one or more zonegroups.

发布
Ceph 暂定发布

A version of Ceph that has not yet been put through quality assurance testing. May contain new features.

Ceph 暂定发布

Any ad hoc release that includes only bug fixes and security fixes.

Ceph 发布

Any distinct numbered version of Ceph.

Ceph 发布候选者

A major version of Ceph that has undergone initial quality assurance testing and is ready for beta testers.

Ceph 稳定发布

A major version of Ceph where all features from the preceding interim releases have been put through quality assurance testing successfully.

Reliable Autonomic Distributed Object Store

存储用户数据的核心存储软件集合(MON+OSD)。参见RADOS.

RGW

RADOSGateway。

也称为“Ceph 对象网关”。Ceph 提供了到 Amazon S3 RESTful API 和 OpenStack Swift API 的网关的组件。

S3

在 Ceph 的上下文中,S3 是 Ceph 对象存储支持的两种 API 之一。Ceph 对象存储支持的另一种 API 是 OpenStack Swift。

请参阅Amazon S3 概述页面.

scrubs

Ceph 确保数据完整性的过程。在 scrubbing 过程中,Ceph 生成一个放置组中所有对象的目录,然后通过将每个主对象与其存储在其他 OSD 上的副本进行比较来确保没有对象丢失或不匹配。任何 PG 被确定具有与其它副本不同或完全丢失的对象副本都被标记为“不一致”(即,PG 被标记为“不一致”)。

有两种 scrubbing:轻 scrubbing 和深度 scrubbing(也称为“浅 scrubbing”和“深度 scrubbing”)。轻 scrubbing 每天执行,仅确认给定对象是否存在以及其元数据是否正确。深度 scrubbing 每周执行,读取数据并使用校验和来确保数据完整性。

请参阅扫描在 RADOS OSD 配置参考指南和Mastering Ceph,第二版(Fisk, Nick. 2019) 第 141 页

secrets

Secrets 是特权用户在必须访问需要认证的系统时执行数字认证所使用的凭证。Secrets 可以是密码、API 密钥、令牌、SSH 密钥、私钥或加密密钥。

SDS

Software-definedStorage。

systemd oneshot

一个 systemdtype其中定义了命令ExecStart在完成时退出(它不是打算守护进程化)

Swift

请参阅OpenStack Swift.

Teuthology

执行对 Ceph 脚本化测试的软件集合。

用户

使用 Ceph 客户端与Ceph存储集群。有关网络配置的详细信息,请参阅用户用户管理.

区域

RGW, a zone is a logical group that consists of one or more RGW实例组成的逻辑组。区域的配置状态存储在时期。有关网络配置的详细信息,请参阅区域.

由 Ceph 基金会带给您

Ceph 文档是一个社区资源,由非盈利的 Ceph 基金会资助和托管Ceph Foundation. 如果您想支持这一点和我们的其他工作,请考虑加入现在加入.