您好,登錄后才能下訂單哦!
這篇文章主要講解了“怎么通過Openshift實現K8S容災”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“怎么通過Openshift實現K8S容災”吧!
為了解決這個問題,Openshift上的容災需要的解決方案應是:
容器顆粒度的
Kubernetes命名空間可感知的
應用一致的
能夠備份數據和應用配置
能夠為數據中心提供同步和異步備份的不同方式
Portworx企業版數據平臺的PX-DR就是按照以上的原則設計的。
apiVersion: stork.libopenstorage.org/v1alpha1
kind: Rule
metadata:
name: cassandra-presnap-rule
spec:
– podSelector:
app: cassandra
actions:
– type: command
value: nodetool flush
例如,一個銀行有本地部署的數據中心,并且通過專線連接到了一個AWS數據中心,可能會需要為一個重要商業應用選擇零RPO的DR策略,同時要求RTO<1分鐘。在這種情況下,我們傾向于推薦同步備份的PX-DR,由于兩個環境的延時極低,因此可以提供零數據損失的恢復。
另一個例子,如果一個制造業的公司在較遠的兩地有兩個數據中心,應用要求較低的RTO,但按每小時的備份頻率對于RPO的目標來說已經足夠了,在這種情況下,異步備份的PX-DR,使用連續增量式的備份就已經足夠。
下面是不同情況下OpenShift DR策略的選擇
較遠網絡的OpenShift容災策略(兩個站點之間的往返延遲 >10毫秒的情況)
通過集群域,Portworx數據管理層來區分主站點和容災站點。集群域在Portworx集群被安裝的時候就會配置完成。在每一個OpenShift集群上(主集群或DR集群)配置Portworx來包括同一個Key-value的存儲端點和集群名稱,但使用不同的集群域來區分主站點和DR站點,看下面的例子。
Primary DR Site args: [“-k”, “etcd:http://etcd:2379”, “-c”, “px-cluster-synchronous”, “-s”, “type=gp2,size=250”, “-secret_type”, “k8s”, “-cluster_domain”, “primary” “-x”, “kubernetes”] “` args: [“-k”, “etcd:http://etcd:2379”, “-c”, “px-cluster-synchronous”, “-s”, “type=gp2,size=250”, “-secret_type”, “k8s”, “-cluster_domain”, “dr-site” “-x”, “kubernetes”]
低延時要求
$ ping ip-10-0-131-167 PING (10.0.131.167) 56(84) bytes of data. 64 bytes from (10.0.131.167): icmp_seq=1 ttl=255 time=0.019 ms 64 bytes from (10.0.131.167): icmp_seq=2 ttl=255 time=0.028 ms 64 bytes from (10.0.131.167): icmp_seq=3 ttl=255 time=0.035 ms 64 bytes from (10.0.131.167): icmp_seq=4 ttl=255 time=0.029 ms 64 bytes from (10.0.131.167): icmp_seq=5 ttl=255 time=0.028 ms ^C — ip-10-0-131-167.us-west-2.compute.internal ping statistics — 5 packets transmitted, 5 received, 0% packet loss, time 4080ms rtt min/avg/max/mdev = 0.019/0.027/0.035/0.008 ms
Setup Openshift集群配對
一旦完成兩個站點都在運行Portworx,在正確的集群域設定基礎上,它們就可以正常的來Sync了。我們可以通過Portworx命令 “` $ pxctl cluster domains show “` 來進行驗證。驗證完成后,并且兩個集群域都是正常的情況下,就可以創建集群配對對象。這樣兩個站點就可以共享一個OpenShift應用YAML文件。這些YAML文件代表了應用的配置,對于在出問題時保證低RTO有著重要的作用。首先為目標命名空間產生集群配對,然后把YAML文件應用到主站點上。
$ storkctl generate clusterpair -n appns dr-site > dr-site.yaml
$ oc create -f dr-site.yaml
可以通過下面的命令來驗證集群配對。
$ storkctl get clusterdomainsstatus
創建一個調度和遷移
取決于你的組織的RTO要求,你可以選擇應用的sync頻率。通過創建一個策略來定義調度,然后把調度和應用的遷移關聯起來。
首先,創建一個調度,下面的例子中在每一分鐘遷移應用配置。把它保存成一個Yaml文件,然后使用`oc create -f` 來創建策略。
apiVersion: stork.libopenstorage.org/v1alpha1
kind: SchedulePolicy
metadata:
name: sched-policy
namespace: appns
policy:
interval:
intervalMinutes: 1
daily:
time: “10:14PM”
weekly:
day: “Thursday”
time: “10:13PM”
monthly:
date: 14
time: “8:05PM”
接下來,創建一個遷移:針對 “appns”命名空間、“dr-site”集群配對、和使用這個調度。注意文件最下方的“schedulePolicyName”。存成一個yaml文件,然后通過` oc create -f` 來應用它。
apiVersion: stork.libopenstorage.org/v1alpha1
kind: MigrationSchedule
metadata:
name: migrationschedule
namespace: appns
spec:
template:
spec:
clusterPair: dr-site
includeResources: true
startApplications: false
includeVolumes: false
namespaces:
– demo
schedulePolicyName: sched-policy
注意以上僅僅設定includeResources是true,而設定其他的都是false,因為同步DR集群已經在兩個集群上都配置了數據,因此我們不再需要include卷,并且直到有系統錯誤發生前,我們也不想啟動這個應用。如果我們使用異步PX-DR方式,我們需要把`includeVolumes` 改為true。
你可以通過運行下面的命令來驗證遷移是否已經完成。
$ storkctl get migration
通過OpenShift DR站點來恢復
現在OpenShift集群都已經sync完成,應用也sync完成。我們準備好來恢復應用了。當一個主站點的災難發生后,下面的步驟即可在DR站點上恢復,并且是零RPO。
首先,關閉主站點,等待域變成 (NotInSync)
$ storkctl deactivate clusterdomain ocs-primary
$ storkctl get clusterdomainsstatus
接下來,如果你有權限訪問主站點,把復制集變成0。如果你沒有權限訪問主站點,直接走到下一步,在容災站點上恢復應用。
$ oc scale deploy -n demo –replicas=0 –all
通過向遷移調度增加 `suspend:true` ,并且更新spec,可以暫停遷移
apiVersion: stork.libopenstorage.org/v1alpha1
kind: MigrationSchedule
metadata:
name: migrationschedule
namespace: appns
spec:
template:
spec:
clusterPair: dr-site
includeResources: true
startApplications: false
includeVolumes: false
namespaces:
– demo
schedulePolicyName: sched-policy
suspend: true
$oc apply -f migration-schedule.yaml
最后,在DR站點上,啟動遷移,打開DR站點上的Pods。
$ storkctl activate migration -n appns
你的“appns”命名空間里的應用現在已經在OpenShift DR站點上重啟了,并且是0數據損失。
PX-DR包括一個API可以自動化的實現上面的步驟,另外,當主站點又重新啟動后,應用的配置和數據會重新被sync,這樣就可以重新在主站點上啟動應用。
感謝各位的閱讀,以上就是“怎么通過Openshift實現K8S容災”的內容了,經過本文的學習后,相信大家對怎么通過Openshift實現K8S容災這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。