您好,登錄后才能下訂單哦!
小編給大家分享一下ceph -s集群報錯too many PGs per OSD怎么辦,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
集群狀態報錯,如下:
# ceph -s cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560 health HEALTH_WARN <-- 報錯的地方 too many PGs per OSD (912 > max 300) monmap e1: 1 mons at {node1=109.105.115.67:6789/0} election epoch 4, quorum 0 node1 osdmap e49: 2 osds: 2 up, 2 in flags sortbitwise,require_jewel_osds pgmap v1256: 912 pgs, 23 pools, 4503 bytes data, 175 objects 13636 MB used, 497 GB / 537 GB avail 912 active+clean
問題原因是集群osd 數量較少,在我的測試過程中,由于搭建rgw網關、和OpenStack集成等,創建了大量的pool,每個pool要占用一些pg ,ceph集群默認每塊磁盤都有默認值,好像每個osd 為300個pgs,不過這個默認值是可以調整的,但調整得過大或者過小都會對集群的性能產生一定影響。因為我們這個是測試環境,只要能消除掉報錯即可。查詢當前每個osd下最大的pg報警值:
$ ceph --show-config | grep mon_pg_warn_max_per_osd mon_pg_warn_max_per_osd = 300
在配置文件中,調大集群的此選項的告警閥值;方法如下,在mon節點的ceph.conf(/etc/ceph/ceph.conf)配置文件中添加:
$ vi /etc/ceph/ceph.conf [global] ....... mon_pg_warn_max_per_osd = 1000
重啟monitor服務:
$ systemctl restart ceph-mon.target
再次查看ceph集群狀態。
$ ceph -s
cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560 health HEALTH_OK monmap e1: 1 mons at {node1=109.105.115.67:6789/0} election epoch 6, quorum 0 node1 osdmap e49: 2 osds: 2 up, 2 in flags sortbitwise,require_jewel_osds pgmap v1273: 912 pgs, 23 pools, 4503 bytes data, 175 objects 13636 MB used, 497 GB / 537 GB avail 912 active+clean
以上是“ceph -s集群報錯too many PGs per OSD怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。