您好,登錄后才能下訂單哦!
kubernetes存儲卷:
我們知道默認情況下容器的數據都是非持久化的,在容器銷毀以后數據也跟著丟失,所以docker提供了volume機制以便將數據持久化存儲。類似的,k8s提供了更強大的volume機制和豐富的插件,解決了容器數據持久化和容器間共享數據的問題。
volume:
我們經常會說:容器和 Pod 是短暫的。
其含義是它們的生命周期可能很短,會被頻繁地銷毀和創建。容器銷毀時,保存在容器內部文件系統中的數據都會被清除。為了持久化保存容器的數據,可以使用k8s volume。
Volume 的生命周期獨立于容器,Pod 中的容器可能被銷毀和重建,但 Volume 會被保留。
k8s支持的volume類型有emptydir,hostpath,persistentVolumeClaim,gcePersistentDisk,awsElasticBlockStore,nfs,iscsi,gitRepo,secret等等,完整列表及詳細文檔可參考 http://docs.kubernetes.org.cn/429.html。
在本文中主要實踐以下幾種volume類型:
1,EmptyDir(臨時存儲):
emptyDir 是最基礎的 Volume 類型。正如其名字所示,一個 emptyDir Volume 是 Host 上的一個空目錄。也就是宿主機上沒有指定的目錄或文件,直接由pod內部映射到宿主機上。(類似于docker中的docker manager volume 掛載方式)
我們通過下面的例子來實踐emptydir:
[root@master yaml]# vim emptydir.yaml
apiVersion: v1
kind: Pod
metadata:
name: read-write
spec:
containers:
- name: write
image: busybox
volumeMounts: #定義數據持久化
- mountPath: /write #定義掛載目錄,該目錄是pod內部的目錄
name: share-volume
args:
- /bin/sh
- -c
- echo "hello volumes" > /write/hello; sleep 3000;
- name: read #在該pod內定義第二個容器
image: busybox
volumeMounts:
- mountPath: /read
name: share-volume
args:
- /bin/sh
- -c
- cat /read/hello; sleep 30000;
volumes:
- name: share-volume
emptyDir: {} #定義一個數據持久化的類型empytdir
我們模擬一個pod里運行了兩個容器,兩個容器共享一個volume,一個負責寫入數據,一個負責讀取數據。
//運行該pod, 并進行查看:
[root@master yaml]# kubectl apply -f emptydir.yaml
pod/read-write created
[root@master yaml]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
read-write 2/2 Running 0 14s 10.244.2.2 node02 <none> <none>
//我們分別查看兩個容器中的掛載內容:
[root@master yaml]# kubectl exec -it read-write -c read cat /read/hello
hello volumes
[root@master yaml]# kubectl exec -it read-write -c write cat /write/hello
hello volumes
參數解釋:
-c :為指定某個容器,是--container= 的縮寫,可以通過--help進行查看。
因為 emptyDir 是 Docker Host 文件系統里的目錄,其效果相當于執行了 docker run -v /write 和 docker run -v /read。我們在node02
上通過 docker inspect 分別查看容器的詳細配置信息,我們發現兩個容器都 mount 了同一個目錄:
"Mounts": [
{
"Type": "bind",
"Source": "/var/lib/kubelet/pods/756b4f4a-917a-414d-a7ee-523eecf05465/volumes/kubernetes.io~empty-dir/share-volume",
"Destination": "/read",
"Mode": "",
"RW": true,
"Propagation": "rprivate"
},
{
"Type": "bind",
"Source": "/var/lib/kubelet/pods/756b4f4a-917a-414d-a7ee-523eecf05465/volumes/kubernetes.io~empty-dir/share-volume",
"Destination": "/write",
"Mode": "",
"RW": true,
"Propagation": "rprivate"
},
這里的"/var/lib/kubelet/pods/756b4f4a-917a-414d-a7ee-523eecf05465/volumes/kubernetes.io~empty-dir/share-volume"就是emptydir 掛載到dockerhost上的真正路徑。
所以我們可以進入到該路徑下進行查看:
[root@node02 ~]# cd /var/lib/kubelet/pods/756b4f4a-917a-414d-a7ee-523eecf05465/volumes/kubernetes.io~empty-dir/share-volume/
[root@node02 share-volume]# cat hello
hello volumes
總結emptydir:
同個pod里邊的不同容器,共享同一個持久化目錄。當pod節點刪除時,volume的內容也會被刪除,但如果僅是容器被銷毀,pod還在,則volume不受影響。也就是說emptydir的數據持久化的生命周期和使用的pod一致。一般作為臨時存儲使用,以及長時間任務的中間過程checkpoint的臨時保存目錄,及多容器共享目錄。
比如 kube-apiserver 和 kube-controller-manager 就是這樣的應用。
我們通過"kubectl edit -n kube-system pod kube-apiserver-master"命令來查看 kube-apiserver Pod 的配置,下面是 Volume 的相關部分:
volumeMounts:
- mountPath: /etc/ssl/certs
name: ca-certs
readOnly: true
- mountPath: /etc/pki
name: etc-pki
readOnly: true
- mountPath: /etc/kubernetes/pki
name: k8s-certs
readOnly: true
volumes:
- hostPath:
path: /etc/ssl/certs
type: DirectoryOrCreate
name: ca-certs
- hostPath:
path: /etc/pki
type: DirectoryOrCreate
name: etc-pki
- hostPath:
path: /etc/kubernetes/pki
type: DirectoryOrCreate
name: k8s-certs
這里定義了三個 hostPath volume 分別是k8s-certs、ca-certs 和etc- pki,分別對應 Host 目錄 /etc/kubernetes/pki、/etc/ssl/certs 和 /etc/pki。
如果 Pod 被銷毀了,hostPath 對應的目錄也還會被保留,從這點看,hostPath 的持久性比 emptyDir 強。不過一旦 Host 崩潰,hostPath 也就沒法訪問了。
NFS PersistentVolume
通過 NFS 實踐PV和PVC。
1)我們在master節點上部署nfs服務:
[root@master ~]# yum -y install nfs-utils
[root@master ~]# mkdir /nfsdata
[root@master ~]# vim /etc/exports #編寫nfs配置文件
/nfsdata 172.16.1.0/24(rw,sync,no_root_squash)
[root@master ~]# systemctl enable rpcbind
[root@master ~]# systemctl start rpcbind
[root@master ~]# systemctl enable nfs-server
[root@master ~]# systemctl start nfs-server
[root@master ~]# showmount -e #查看是否掛載成功
Export list for master:
/nfsdata 172.16.1.0/24
2)創建pv:
[root@master yaml]# vim nfs-pv.yaml
apiVersion: v1
kind: PersistentVolume
metadata:
name: nfs-pv
spec:
capacity:
storage: 1Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs
nfs:
path: /nfsdata #指定nfs共享目錄
server: 172.16.1.30 #指定的是nfs服務器的ip地址
//通過以下命令來運行pv:
[root@master yaml]# kubectl apply -f nfs-pv.yaml
persistentvolume/nfs-pv created
字段解釋: capacity:指定pv的容量大小,目前,capacity僅支持空間設定,將來應該還可以指定IOPS和throughput。 accessModes:訪問模式,有以下幾種模式: ReadWriteOnce: 以讀寫的方式掛載到單個節點,命令行中簡寫為RWO。 ReadOnlyMany:以只讀的方式掛載到多個節點,命令行中簡寫為ROX。 ReadWriteMany: 以讀寫的方式掛載到多個節點,命令行中簡寫為RWX。 persistentVolumeReclaimPolicy:pv空間釋放時的回收策略,有以下幾種策略: Recycle:清除pv中的數據,然后自動回收。(自動回收策略是由pvc的保護機制保護的,當pv刪除后,只要pvc還在數據就還在) Retain: 保持不動,由管理員手動回收。 Delete: 刪除云存儲資源,僅部分云儲存系統支持,如果AWS,EBS,GCE PD,Azure Disk和Cinder。 注意:這里的回收策略是指在pv被刪除之后,所存儲的源文件是否刪除。 storageClassName:pv和pvc關聯的依據。
//驗證pv是否可用:
[root@master yaml]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
nfs-pv 1Gi (容量為1GB) RWO (讀寫) Recycle (自動回收) Available(可用的,確保是該狀態才可被使用) nfs(基于nfs來做的) 18m(時間)
3)創建一個pvc:
[root@master yaml]# vim nfs-pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: nfs-pvc
spec:
accessModes:
- ReadWriteOnce #pv和pvc的訪問模式必須一致
resources: #在該字段下的requests子字段中定義要申請的資源
requests:
storage: 1Gi
storageClassName: nfs
運行該pvc:
[root@master yaml]# kubectl apply -f nfs-pvc.yaml
persistentvolumeclaim/nfs-pvc created
//驗證pvc是否可用:
[root@master yaml]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
nfs-pvc Bound nfs-pv 1Gi RWO nfs 3m53s
[root@master yaml]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
nfs-pv 1Gi RWO Recycle Bound default/nfs-pvc nfs 29m
確保此時pv和pvc的狀態都為Bound,則表示綁定成功。
接下來我們實踐mysql的pv使用:
1)創建一個mysql的pod:
[root@master yaml]# vim mysql-pod.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: mysql
spec:
template:
metadata:
labels:
app: mysql
spec:
containers:
- name: mysql
image: mysql:5.7
env: #定義一個變量,將容器中mysqlroot密碼映射到本地
- name: MYSQL_ROOT_PASSWORD
value: 123.com #密碼為123.com
ports:
- containerPort: 3306
volumeMounts: #定義數據持久化
- name: mysql-pv-storage
mountPath: /var/lib/mysql #該目錄為默認的mysql數據持久化目錄
volumes: #該volumes字段為上面的一個解釋
- name: mysql-pv-storage #注意名稱要與上面的名稱相同
persistentVolumeClaim: #指定pvc,注意下面聲明的pvc要于之前創建的pvc名稱一致
claimName: nfs-pvc
---
apiVersion: v1 #創建一個service資源對象
kind: Service
metadata:
name: mysql
spec:
type: NodePort
ports:
- port: 3306
targetPort: 3306
nodePort: 30000
selector:
app: mysql
通過以下命令來運行pod:
[root@master yaml]# kubectl apply -f mysql-pod.yaml
deployment.extensions/mysql created
service/mysql created
//查看pod是否正常運行:
[root@master yaml]# kubectl get pod -o wide mysql-68d65b9dd9-hf2bf
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
mysql-68d65b9dd9-hf2bf 1/1 Running 0 9m34s 10.244.1.3 node01 <none> <none>
2)登錄mysql數據庫,進行寫入數據:
[root@master yaml]# kubectl exec -it mysql-68d65b9dd9-hf2bf -- mysql -u root -p123.com
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
mysql>
mysql> create database volumes_db; #創建庫
Query OK, 1 row affected (0.01 sec)
mysql> use volumes_db; #進入庫中
Database changed
mysql> create table my_id( #創建表
-> id int primary key,
-> name varchar(25)
-> );
Query OK, 0 rows affected (0.04 sec)
mysql> insert into my_id values(1,'zhangsan'); #往表中寫入數據
Query OK, 1 row affected (0.01 sec)
mysql> select * from my_id; #查看數據
+----+----------+
| id | name |
+----+----------+
| 1 | zhangsan |
+----+----------+
1 row in set (0.00 sec)
3)進行驗證:
(1)手動刪除pod,驗證數據庫內數據是否還會存在
[root@master ~]# kubectl delete pod mysql-68d65b9dd9-hf2bf
pod "mysql-68d65b9dd9-hf2bf" deleted
[root@master ~]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
mysql-68d65b9dd9-bf9v8 1/1 Running 0 26s 10.244.1.4 node01 <none> <none>
刪除pod后,kubernetes會生成新的pod,我們登錄mysql查看
數據是否還會存在。
[root@master ~]# kubectl exec -it mysql-68d65b9dd9-bf9v8 -- mysql -u root -p123.com
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
mysql> select * from volumes_db.my_id;
+----+----------+
| id | name |
+----+----------+
| 1 | zhangsan |
+----+----------+
1 row in set (0.01 sec)
可以看到數據依舊會存在。
2)模擬pod運行所在節點宕機,在新生成的pod內,數據是否恢復正常。
從上面查看pod的信息中,我們知道pod是運行在node01上,所以我們將集群中的node01主機關機。
##[root@node01 ~]# systemctl poweroff
過一段時間后,kubernetes會將pod遷移至集群中node02主機上:
[root@master ~]# kubectl get nodes #得知node01節點已經宕機
NAME STATUS ROLES AGE VERSION
master Ready master 39d v1.15.0
node01 NotReady <none> 39d v1.15.0
node02 Ready <none> 39d v1.15.0
[root@master ~]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
mysql-68d65b9dd9-bf9v8 1/1 Terminating 0 15m 10.244.1.4 node01 <none> <none>
mysql-68d65b9dd9-mvxdg 1/1 Running 0 83s 10.244.2.3 node02 <none> <none>
可以看到pod已經遷移到了node02上。
最后我們登錄mysql,驗證數據是否恢復:
[root@master ~]# kubectl exec -it mysql-68d65b9dd9-mvxdg -- mysql -u root -p123.com
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
mysql> select * from volumes_db.my_id;
+----+----------+
| id | name |
+----+----------+
| 1 | zhangsan |
+----+----------+
1 row in set (0.09 sec)
可以得知在pod遷移之后,mysql服務正常運行,且數據也并沒有丟失。。。
pv和pvc實現了mysql數據的持久化,分離了管理員和普通用戶的職責,更適合生產環境。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。