Ceph Storage Cluster でプールを作成する |
Ceph Storage は、最新のデータ分析、人工知能 (AI)、機械学習 (ML)、データ分析、および新たなミッション クリティカルなワークロードに合わせて大幅に拡張できるように設計された、無料のオープンソース ソフトウェア デファインドの分散ストレージ ソリューションです。この記事では、カスタム数の配置グループ (PG) を使用して Ceph プールを作成する方法について説明します。
Ceph の用語では、配置グループ (PG) は、オブジェクトをグループとして OSD に配置する論理オブジェクト プールのシャードまたはフラグメントです。配置グループは、Ceph がデータを OSD に保存するときにオブジェクトごとのメタデータの量を削減します。
配置グループの数が多いほど (OSD ごとに 100 個など)、バランスが良くなります。 Ceph クライアントは、オブジェクトをどの配置グループに含めるかを計算します。これは、オブジェクト ID をハッシュし、定義されたプール内の PG の数とプールの ID に基づく操作を適用することによって行われます。詳細については、「PG を OSD にマッピングする」を参照してください。
配置グループの総数を計算します。
(OSDs * 100)
Total PGs = ------------
pool size
たとえば、クラスターに 9 OSD があり、デフォルトのプール サイズが 3 であるとします。したがって、PG は次のようになります。
9 * 100
Total PGs = ------------ = 300
3
プールを作成する
プールを作成するための構文は次のとおりです。
ceph osd pool create {pool-name} {pg-num}
どこ :
- {pool-name} – プールの名前。それはユニークなものでなければなりません。
- {pg-num} – プールの配置グループの合計数。
k8s-uat という名前の新しいプールを作成し、配置グループ数を 100 にします。
$ sudo ceph osd pool create k8s-uat 100
pool 'k8s-uat' created
次に、使用可能なプールをリストして、プールが作成されたことを確認します。
$ sudo ceph osd lspools
1 .rgw.root
2 default.rgw.control
3 default.rgw.meta
4 default.rgw.log
5 k8s-uat
プールをアプリケーションに関連付ける
プールは使用する前にアプリケーションに関連付ける必要があります。 CephFS で使用されるプール、または RGW によって自動的に作成されるプールは、自動的に関連付けられます。
### Ceph Filesystem ###
sudo ceph osd pool application enable <pool-name> cephfs
### Ceph Block Device ###
sudo ceph osd pool application enable <pool-name> rbd
### Ceph Object Gateway ###
sudo ceph osd pool application enable <pool-name> rgw
例 :
$ sudo ceph osd pool application enable k8s-uat-rbd rbd
enabled application 'rbd' on pool 'k8s-uat-rbd'
RBD で使用することを目的としたプールは、rbd
ツールを使用して初期化する必要があります。
sudo rbd pool init k8s-uat-rbd
アプリを無効にするには、次を使用します。
ceph osd pool application disable <poolname> <app> {--yes-i-really-mean-it}
特定のプールまたはすべてのプールの I/O 情報を取得するには、次のコマンドを実行します。
sudo ceph osd pool stats [{pool-name}]
Ceph ダッシュボードから行う
Ceph 管理ダッシュボードにログインし、新しいプールを作成します – [プール] > [作成]
プールを削除する
プールを削除するには、次を実行します。
sudo ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]
今後数週間以内に Ceph に関するさらなる記事が公開される予定です。つながりを保ちましょう。
消費ガイド:
- Cephfs を使用した Kubernetes 用 Ceph 永続ストレージ
- Ceph RBD を使用した Kubernetes の永続ストレージ