亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Ceph心跳與網絡的示例分析

發布時間:2021-12-17 10:04:12 來源:億速云 閱讀:179 作者:小新 欄目:云計算

這篇文章給大家分享的是有關Ceph心跳與網絡的示例分析的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

Ceph的一次不健康狀態

環境:三臺機器bdc212,bdc213,bdc213,每臺機器2個osd,三副本,另外每臺機器都是雙網絡,分別為192.168.8.0網段ip和192.168.12.0網段。

剛剛完成安裝,測試集群重啟,在bdc212的osd重啟之后發現集群狀態一直為ERR,具體如下:

# ceph -s
    cluster befd161e-ce9e-427d-9d9b-b683b744645c
     health HEALTH_ERR
            60 pgs are stuck inactive for more than 300 seconds
            256 pgs peering
            60 pgs stuck inactive
     monmap e3: 3 mons at {bdc212=192.168.13.212:6789/0,bdc213=192.168.13.213:6789/0,bdc214=192.168.13.214:6789/0}
            election epoch 48, quorum 0,1,2 bdc212,bdc213,bdc214
     osdmap e572: 6 osds: 6 up, 6 in; 92 remapped pgs
            flags sortbitwise
      pgmap v378651: 256 pgs, 2 pools, 7410 MB data, 1 objects
            22517 MB used, 22288 GB / 22310 GB avail
                 164 peering
                  92 remapped+peering

檢查日志發現:出現ip地址不匹配的情況,標紅部分很明顯是2個ip地址匹配不上,多次重啟每臺機器發現,有時候能夠匹配上,集群恢復正常,很多時候都是錯誤狀態。

2016-06-06 17:49:11.262293 mon.0 192.168.13.212:6789/0 294 : cluster [INF] osd.1 192.168.13.212:6804/277426 boot
2016-06-06 17:49:11.262620 mon.0 192.168.13.212:6789/0 295 : cluster [INF] osd.0 192.168.13.212:6800/277433 boot
2016-06-06 17:49:11.264871 mon.0 192.168.13.212:6789/0 296 : cluster [INF] osdmap e570: 6 osds: 6 up, 6 in
2016-06-06 17:49:11.267704 mon.0 192.168.13.212:6789/0 297 : cluster [INF] pgmap v378644: 256 pgs: 48 stale+active+clean, 126 peering, 82 active+clean; 7410 MB data, 22514 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:12.272648 mon.0 192.168.13.212:6789/0 298 : cluster [INF] osdmap e571: 6 osds: 6 up, 6 in
2016-06-06 17:49:12.282714 mon.0 192.168.13.212:6789/0 299 : cluster [INF] pgmap v378645: 256 pgs: 48 stale+active+clean, 208 peering; 7410 MB data, 22516 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:13.271829 mon.0 192.168.13.212:6789/0 300 : cluster [INF] osdmap e572: 6 osds: 6 up, 6 in
2016-06-06 17:49:13.275671 mon.0 192.168.13.212:6789/0 301 : cluster [INF] pgmap v378646: 256 pgs: 48 stale+active+clean, 208 peering; 7410 MB data, 22516 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:12.268712 osd.1 192.168.13.212:6804/277426 1 : cluster [ERR] map e571 had wrong cluster addr (192.168.13.212:6806/277426 != my 192.168.8.212:6806/277426)
2016-06-06 17:49:12.268718 osd.0 192.168.13.212:6800/277433 1 : cluster [ERR] map e571 had wrong cluster addr (192.168.13.212:6801/277433 != my 192.168.8.212:6801/277433)
2016-06-06 17:49:14.303244 mon.0 192.168.13.212:6789/0 302 : cluster [INF] pgmap v378647: 256 pgs: 92 remapped+peering, 48 stale+active+clean, 116 peering; 7410 MB data, 22518 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:16.686779 mon.0 192.168.13.212:6789/0 303 : cluster [INF] pgmap v378648: 256 pgs: 92 remapped+peering, 48 stale+active+clean, 116 peering; 7410 MB data, 22519 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:17.693779 mon.0 192.168.13.212:6789/0 304 : cluster [INF] pgmap v378649: 256 pgs: 92 remapped+peering, 164 peering; 7410 MB data, 22517 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:19.709314 mon.0 192.168.13.212:6789/0 305 : cluster [INF] pgmap v378650: 256 pgs: 92 remapped+peering, 164 peering; 7410 MB data, 22517 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:21.716720 mon.0 192.168.13.212:6789/0 306 : cluster [INF] pgmap v378651: 256 pgs: 92 remapped+peering, 164 peering; 7410 MB data, 22517 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:49:24.256323 mon.0 192.168.13.212:6789/0 307 : cluster [INF] HEALTH_ERR; 60 pgs are stuck inactive for more than 300 seconds; 256 pgs peering; 60 pgs stuck inactive
2016-06-06 17:49:55.276736 mon.0 192.168.13.212:6789/0 322 : cluster [INF] osd.0 192.168.13.212:6800/277433 failed (2 reporters from different host after 20.648970 >= grace 20.000000)
2016-06-06 17:49:55.276847 mon.0 192.168.13.212:6789/0 323 : cluster [INF] osd.1 192.168.13.212:6804/277426 failed (2 reporters from different host after 20.648910 >= grace 20.000000)

cluster [ERR] map e571 had wrong cluster addr (192.168.13.212:6806/277426 != my 192.168.8.212:6806/277426)
cluster [ERR] map e571 had wrong cluster addr (192.168.13.212:6801/277433 != my 192.168.8.212:6801/277433)

參看官網配置,進行如下三次測試:

第一次測試:添加心跳地址以及host

修改配置文件
[osd.0]
host = bdc212
osd heartbeat address = 192.168.8.212

[osd.1]
host = bdc212
osd heartbeat address = 192.168.8.212

重啟bdc212的osd:

# systemctl restart ceph-osd.target


查看ceph -w 發現重啟后,配置不起作用,另外將心跳地址修改為192.168.13.212,集群狀態依舊為ERR。

2016-06-06 10:35:43.828677 mon.0 [INF] osdmap e540: 6 osds: 4 up, 6 in
2016-06-06 10:35:43.834786 mon.0 [INF] pgmap v378545: 256 pgs: 26 peering, 230 remapped+peering; 7410 MB data, 22505 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:35:45.863266 mon.0 [INF] pgmap v378546: 256 pgs: 126 active+undersized+degraded, 26 peering, 104 remapped+peering; 7410 MB data, 22506 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:35:47.878381 mon.0 [INF] pgmap v378547: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22507 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:35:50.365666 mon.0 [INF] pgmap v378548: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:35:52.817568 mon.0 [INF] pgmap v378549: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:35:53.820444 mon.0 [INF] pgmap v378550: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:36:24.144881 mon.0 [INF] HEALTH_WARN; 256 pgs degraded; 256 pgs stuck unclean; 256 pgs undersized; recovery 1/3 objects degraded (33.333%); 2/6 in osds are down
2016-06-06 10:39:20.452872 mon.0 [INF] from='client.? 192.168.13.212:0/819457382' entity='osd.1' cmd=[{"prefix": "osd crush create-or-move", "args": ["host=bdc212", "root=default"], "id": 1, "weight": 3.6313}]: dispatch
2016-06-06 10:39:20.484124 mon.0 [INF] from='client.? 192.168.13.212:0/2428259865' entity='osd.0' cmd=[{"prefix": "osd crush create-or-move", "args": ["host=bdc212", "root=default"], "id": 0, "weight": 3.6313}]: dispatch
2016-06-06 10:39:21.520292 mon.0 [INF] osd.1 192.168.13.212:6800/255276 boot
2016-06-06 10:39:21.520479 mon.0 [INF] osd.0 192.168.13.212:6804/255283 boot
2016-06-06 10:39:21.521637 mon.0 [INF] osdmap e541: 6 osds: 6 up, 6 in
2016-06-06 10:39:21.524495 mon.0 [INF] pgmap v378551: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:39:22.531697 mon.0 [INF] osdmap e542: 6 osds: 6 up, 6 in
2016-06-06 10:39:22.533615 mon.0 [INF] pgmap v378552: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:39:23.549374 mon.0 [INF] pgmap v378553: 256 pgs: 130 remapped+peering, 126 active+undersized+degraded; 7410 MB data, 22509 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:39:24.145709 mon.0 [INF] HEALTH_WARN; 126 pgs degraded; 130 pgs peering; 126 pgs stuck unclean; 126 pgs undersized; recovery 1/3 objects degraded (33.333%)
2016-06-06 10:39:25.654043 mon.0 [INF] pgmap v378554: 256 pgs: 256 remapped+peering; 7410 MB data, 22509 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:39:27.659595 mon.0 [INF] pgmap v378555: 256 pgs: 256 remapped+peering; 7410 MB data, 22509 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:39:28.670168 mon.0 [INF] pgmap v378556: 256 pgs: 256 remapped+peering; 7410 MB data, 22510 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:39:30.678376 mon.0 [INF] pgmap v378557: 256 pgs: 256 remapped+peering; 7410 MB data, 22510 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:39:32.687783 mon.0 [INF] pgmap v378558: 256 pgs: 256 remapped+peering; 7410 MB data, 22509 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:39:33.697850 mon.0 [INF] pgmap v378559: 256 pgs: 256 remapped+peering; 7410 MB data, 22509 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:39:51.708232 osd.1 [ERR] map e542 had wrong cluster addr (192.168.13.212:6801/255276 != my 192.168.8.212:6801/255276)
2016-06-06 10:39:51.748896 osd.0 [ERR] map e542 had wrong cluster addr (192.168.13.212:6805/255283 != my 192.168.8.212:6805/255283)
2016-06-06 10:40:10.350113 mon.0 [INF] osd.0 192.168.13.212:6804/255283 failed (2 reporters from different host after 21.000496 >= grace 20.000000)
2016-06-06 10:40:10.350839 mon.0 [INF] osd.1 192.168.13.212:6800/255276 failed (2 reporters from different host after 21.001158 >= grace 20.000000)
2016-06-06 10:40:10.412630 mon.0 [INF] osdmap e543: 6 osds: 4 up, 6 in
2016-06-06 10:40:10.419756 mon.0 [INF] pgmap v378560: 256 pgs: 256 remapped+peering; 7410 MB data, 22509 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:40:11.416130 mon.0 [INF] osdmap e544: 6 osds: 4 up, 6 in
2016-06-06 10:40:11.418453 mon.0 [INF] pgmap v378561: 256 pgs: 256 remapped+peering; 7410 MB data, 22509 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:40:13.446063 mon.0 [INF] pgmap v378562: 256 pgs: 130 active+undersized+degraded, 126 remapped+peering; 7410 MB data, 22510 MB used, 22288 GB / 22310 GB avail

第二次測試:添加靜態ip

修改配置文件

[osd.0]

cluster addr = 192.168.8.212

[osd.1]

cluster addr = 192.168.8.212

再次重啟bdc212的osd服務,測試發現靜態ip不光8網段,13網段的ip也可以。

2016-06-06 10:45:24.147360 mon.0 [INF] HEALTH_WARN; 160 pgs degraded; 256 pgs stuck unclean; 160 pgs undersized; recovery 1/3 objects degraded (33.333%)
2016-06-06 10:45:25.924692 mon.0 [INF] pgmap v378575: 256 pgs: 96 active+remapped, 160 active+undersized+degraded; 7410 MB data, 15015 MB used, 14859 GB / 14873 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:45:27.932786 mon.0 [INF] pgmap v378576: 256 pgs: 96 active+remapped, 160 active+undersized+degraded; 7410 MB data, 15015 MB used, 14859 GB / 14873 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:52:48.811978 mon.0 [INF] from='client.? 192.168.13.212:0/891703336' entity='osd.1' cmd=[{"prefix": "osd crush create-or-move", "args": ["host=bdc212", "root=default"], "id": 1, "weight": 3.6313}]: dispatch
2016-06-06 10:52:48.813694 mon.0 [INF] from='client.? 192.168.13.212:0/4288153588' entity='osd.0' cmd=[{"prefix": "osd crush create-or-move", "args": ["host=bdc212", "root=default"], "id": 0, "weight": 3.6313}]: dispatch
2016-06-06 10:52:49.881762 mon.0 [INF] osd.1 192.168.13.212:6804/261511 boot
2016-06-06 10:52:49.882013 mon.0 [INF] osd.0 192.168.13.212:6800/261514 boot
2016-06-06 10:52:49.884250 mon.0 [INF] osdmap e548: 6 osds: 6 up, 6 in
2016-06-06 10:52:49.886696 mon.0 [INF] pgmap v378577: 256 pgs: 96 active+remapped, 160 active+undersized+degraded; 7410 MB data, 15015 MB used, 14859 GB / 14873 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 10:52:50.904273 mon.0 [INF] osdmap e549: 6 osds: 6 up, 6 in
2016-06-06 10:52:50.923353 mon.0 [INF] pgmap v378579: 256 pgs: 126 remapped+peering, 51 active+remapped, 79 active+undersized+degraded; 7410 MB data, 15015 MB used, 14859 GB / 14873 GB avail
2016-06-06 10:52:51.906771 mon.0 [INF] osdmap e550: 6 osds: 6 up, 6 in
2016-06-06 10:52:51.909719 mon.0 [INF] pgmap v378580: 256 pgs: 126 remapped+peering, 51 active+remapped, 79 active+undersized+degraded; 7410 MB data, 15015 MB used, 14859 GB / 14873 GB avail
2016-06-06 10:52:53.920610 mon.0 [INF] pgmap v378581: 256 pgs: 82 active+clean, 126 remapped+peering, 35 active+remapped, 13 active+undersized+degraded; 7410 MB data, 15016 MB used, 14859 GB / 14873 GB avail
2016-06-06 10:52:55.941817 mon.0 [INF] pgmap v378582: 256 pgs: 256 active+clean; 7410 MB data, 22518 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:52:58.057115 mon.0 [INF] pgmap v378583: 256 pgs: 256 active+clean; 7410 MB data, 22519 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:53:00.065731 mon.0 [INF] pgmap v378584: 256 pgs: 256 active+clean; 7410 MB data, 22519 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:53:01.069834 mon.0 [INF] pgmap v378585: 256 pgs: 256 active+clean; 7410 MB data, 22519 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:53:03.085171 mon.0 [INF] pgmap v378586: 256 pgs: 256 active+clean; 7410 MB data, 22519 MB used, 22288 GB / 22310 GB avail
2016-06-06 10:53:24.149488 mon.0 [INF] HEALTH_OK

發現集群恢復正常。

第三次測試:添加集群網

先模擬出第一次測試前出現的ERR狀態,然后

global段下添加:

cluster network = 192.168.13.212/16

再次重啟:

2016-06-06 17:34:24.251564 mon.0 [INF] HEALTH_WARN; 256 pgs peering
2016-06-06 17:34:37.582278 osd.1 [ERR] map e562 had wrong cluster addr (192.168.13.212:6805/276029 != my 192.168.8.212:6805/276029)
2016-06-06 17:34:37.586347 osd.0 [ERR] map e562 had wrong cluster addr (192.168.13.212:6801/276025 != my 192.168.8.212:6801/276025)
2016-06-06 17:34:56.509186 mon.0 [INF] osd.0 192.168.13.212:6800/276025 failed (2 reporters from different host after 22.645655 >= grace 20.000000)
2016-06-06 17:34:56.509895 mon.0 [INF] osd.1 192.168.13.212:6804/276029 failed (2 reporters from different host after 22.646360 >= grace 20.000000)
2016-06-06 17:34:56.571704 mon.0 [INF] osdmap e563: 6 osds: 4 up, 6 in
2016-06-06 17:34:56.576604 mon.0 [INF] pgmap v378626: 256 pgs: 256 remapped+peering; 7410 MB data, 22505 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:34:57.584605 mon.0 [INF] osdmap e564: 6 osds: 4 up, 6 in
2016-06-06 17:34:57.589648 mon.0 [INF] pgmap v378627: 256 pgs: 256 remapped+peering; 7410 MB data, 22505 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:34:59.611818 mon.0 [INF] pgmap v378628: 256 pgs: 126 active+undersized+degraded, 130 remapped+peering; 7410 MB data, 22505 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 17:35:01.623694 mon.0 [INF] pgmap v378629: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22507 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 17:35:03.919856 mon.0 [INF] pgmap v378630: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 17:35:06.564530 mon.0 [INF] pgmap v378631: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 17:35:24.251890 mon.0 [INF] HEALTH_WARN; 256 pgs degraded; 256 pgs stuck unclean; 256 pgs undersized; recovery 1/3 objects degraded (33.333%); 2/6 in osds are down
2016-06-06 17:36:22.468740 mon.0 [INF] from='client.? 192.168.13.212:0/2865614433' entity='osd.1' cmd=[{"prefix": "osd crush create-or-move", "args": ["host=bdc212", "root=default"], "id": 1, "weight": 3.6313}]: dispatch
2016-06-06 17:36:22.490094 mon.0 [INF] from='client.? 192.168.13.212:0/1154763864' entity='osd.0' cmd=[{"prefix": "osd crush create-or-move", "args": ["host=bdc212", "root=default"], "id": 0, "weight": 3.6313}]: dispatch
2016-06-06 17:36:23.534519 mon.0 [INF] osd.1 192.168.13.212:6800/276823 boot
2016-06-06 17:36:23.534729 mon.0 [INF] osd.0 192.168.13.212:6804/276828 boot
2016-06-06 17:36:23.536388 mon.0 [INF] osdmap e565: 6 osds: 6 up, 6 in
2016-06-06 17:36:23.538601 mon.0 [INF] pgmap v378632: 256 pgs: 256 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail; 1/3 objects degraded (33.333%)
2016-06-06 17:36:24.252318 mon.0 [INF] HEALTH_WARN; 256 pgs degraded; 256 pgs stuck unclean; 256 pgs undersized; recovery 1/3 objects degraded (33.333%)
2016-06-06 17:36:24.551431 mon.0 [INF] pgmap v378633: 256 pgs: 126 remapped+peering, 130 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:24.568370 mon.0 [INF] osdmap e566: 6 osds: 6 up, 6 in
2016-06-06 17:36:24.570434 mon.0 [INF] pgmap v378634: 256 pgs: 126 remapped+peering, 130 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:25.577264 mon.0 [INF] osdmap e567: 6 osds: 6 up, 6 in
2016-06-06 17:36:25.581312 mon.0 [INF] pgmap v378635: 256 pgs: 126 remapped+peering, 130 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:26.591915 mon.0 [INF] pgmap v378636: 256 pgs: 82 active+clean, 126 remapped+peering, 48 active+undersized+degraded; 7410 MB data, 22508 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:28.751459 mon.0 [INF] pgmap v378637: 256 pgs: 178 active+clean, 78 remapped+peering; 7410 MB data, 22510 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:29.758035 mon.0 [INF] pgmap v378638: 256 pgs: 256 active+clean; 7410 MB data, 22511 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:31.774843 mon.0 [INF] pgmap v378639: 256 pgs: 256 active+clean; 7410 MB data, 22513 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:33.783225 mon.0 [INF] pgmap v378640: 256 pgs: 256 active+clean; 7410 MB data, 22513 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:36:34.786234 mon.0 [INF] pgmap v378641: 256 pgs: 256 active+clean; 7410 MB data, 22514 MB used, 22288 GB / 22310 GB avail
2016-06-06 17:37:24.252649 mon.0 [INF] HEALTH_OK

發現集群也恢復正常。

雖然集群恢復正常了,但是理論知識還不是很清楚,從官網上繼續學習心跳機制以及Ceph網絡的配置:

http://docs.ceph.org.cn/rados/configuration/mon-osd-interaction/#index-6

http://docs.ceph.org.cn/rados/configuration/network-config-ref/

一年后的測試

公共網

要配置一個公共網,把下列選項加到配置文件的 [global] 段下。

[global]
        ...
        public network = {public-network/netmask}

集群網

如果你聲明了集群網, OSD 將把心跳、對象復制和恢復流量路由到集群網,與單個網絡相比這會提升性能。要配置集群網,把下列選項加進配置文件的 [global] 段。

[global]
        ...
        cluster network = {cluster-network/netmask}

做了個小測試

在/etc/ceph/ceph.conf里配置

cluster_network=192.16.40.0/24

public_network=172.16.40.0/24

重啟ceph,會發現同時配置公共網和集群網,osd的網會優先使用公共網,日志體現

2017-06-13 16:14:54.305773 mon.0 192.16.40.1:6789/0 23 : cluster [INF] osd.2 172.16.40.1:6800/2060619 boot

去除掉public_network,只配置集群網,osd會使用集群網

2017-06-13 16:23:43.979744 mon.0 192.16.40.1:6789/0 33 : cluster [INF] osd.2 192.16.40.1:6817/2064630 boot

Ceph心跳與網絡的示例分析

感謝各位的閱讀!關于“Ceph心跳與網絡的示例分析”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

四子王旗| 福鼎市| 雅江县| 宜宾市| 汽车| 伊通| 克什克腾旗| 青海省| 玛沁县| 黄大仙区| 宁蒗| 镇雄县| 新化县| 兴国县| 乌兰察布市| 连城县| 江口县| 耿马| SHOW| 宿迁市| 辉县市| 龙门县| 大方县| 资中县| 龙川县| 怀远县| 南平市| 锦州市| 高雄市| 冷水江市| 溧水县| 文成县| 旅游| 临湘市| 东城区| 甘肃省| 兴文县| 读书| 荆门市| 枣强县| 溆浦县|