web-dev-qa-db-ja.com

OSDごとのCephが多すぎる:知っておくべきこと

both同時にこれらのエラーが発生しています。 pgカウントを減らすことはできず、ストレージを追加することもできません。

これは新しいクラスターであり、約40GBをアップロードしたときにこれらの警告が表示されました。 radosgwが大量のプールを作成したためだと思います。

Cephはosdごとにpgが多すぎるのに、pgが少なすぎるという提案で平均よりも多くのオブジェクトを持つことができますか?

HEALTH_WARN too many PGs per OSD (352 > max 300); 
pool default.rgw.buckets.data has many more objects per pg than average (too few pgs?)

osds: 4 (2 per site 500GB per osd)
size: 2 (cross site replication)
pg:  64
pgp: 64
pools: 11

Rbdとradosgwを使用すると、何も派手なことはありません。

13
wurly-dualach

Ceph Nautilus(v14以降)では、「PG Autotuning」をオンにできます。詳細については、 このドキュメント および このブログエントリ を参照してください。

PGを修復するために移行できなかったライブデータでプールを誤って作成しました。回復するまでに数日かかりましたが、PGは問題なく最適に調整されました。

2
Brian Topping