您好,登錄后才能下訂單哦!
Docker容器是有生命周期的,因此數據卷可以實現數據持久化
數據卷主要解決的問題:
存儲類(Storage class)是k8s資源類型的一種,它是有管理員為管理PV更加方便創建的一個邏輯組,可以按照存儲系統的性能高低,或者綜合服務質量,備份策略等分類。不過k8s本身不知道類別到底是什么,它這是作為一個描述。
存儲類的好處之一就是支持PV的動態創建,當用戶用到持久性存儲時,不必再去提前創建PV,而是直接創建PVC就可以了,非常的方便。
存儲類對象的名稱很重要,并且出了名稱之外,還有3個關鍵字段
Provisioner(供給方):
及提供了存儲資源的存儲系統。k8s內建有多重供給方,這些供給方的名字都以“kubernetes.io”為前綴。并且還可以自定義。
Parameters(參數):存儲類使用參數描述要關聯到的存儲卷,注意不同的供給方參數也不同。
reclaimPolicy:PV的回收策略,可用值有Delete(默認)和Retain
emptyDir(空目錄):使用情況比較少,一般只做臨時使用,類似Docker數據 持久化的:docker manager volume,該數據卷初始分配時,是一個空目錄,同一個Pod中的容器可以對該目錄有執行讀寫操作,并且共享數據
? 使用場景:在同一個Pod里,不同的容器,共享數據卷
? 如果容器被刪除,數據仍然存在,如果Pod被刪除,數據也會被刪除
使用實例:
[root@master ~]# vim emptyDir.yaml
apiVersion: v1
kind: Pod
metadata:
name: producer-consumer
spec:
containers:
- image: busybox
name: producer
volumeMounts:
- mountPath: /producer_dir //容器內的路徑
name: shared-volume //指定本地的目錄名
args:
- /bin/sh
- -c
- echo "hello k8s" > /producer_dir/hello; sleep 30000
- image: busybox
name: consumer
volumeMounts:
- mountPath: /consumer_dir
name: shared-volume
args:
- /bin/sh
- -c
- cat /consumer_dir/hello; sleep 30000
volumes:
- name: shared-volume //這里的名字必須與上面的Pod的mountPath的name相對應
emptyDir: {} //定義數據持久化類型,即表示空目錄
[root@master ~]# kubectl applky -f emptyDir.yaml
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
producer-consumer 2/2 Running 0 14s
[root@master ~]# kubectl logs producer-consumer consumer
hello k8s
//使用inspect查看掛載的目錄在哪(查看Mount字段)
[root@master ~]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
producer-consumer 2/2 Running 0 69s 10.244.1.2 node01 <none> <none>
//可以看到容器運行在node01上,在node01上找到這個容器并查看并查看詳細信息
[root@node01 ~]# docker ps
CONTAINER ID IMAGE
f117beb235cf busybox
13c7a18109a1 busybox
[root@node01 ~]# docker inspect 13c7a18109a1
"Mounts": [
{
"Type": "bind",
"Source": "/var/lib/kubelet/pods/5225f542-0859-4a6a-8d99-1f23b9781807/volumes/kubernetes.io~empty-dir/shared-volume",
"Destination": "/producer_dir", //容器內的掛載目錄
"Mode": "",
"RW": true,
"Propagation": "rprivate"
//再查看另一個容器
[root@node01 ~]# docker inspect f117beb235cf
"Mounts": [
{
"Type": "bind",
"Source": "/var/lib/kubelet/pods/5225f542-0859-4a6a-8d99-1f23b9781807/volumes/kubernetes.io~empty-dir/shared-volume",
"Destination": "/consumer_dir", //容器內的掛載目錄
"Mode": "",
"RW": true,
"Propagation": "rprivate"
//可以看到兩個容器使用的同一個掛載目錄
[root@node01 ~]# cd /var/lib/kubelet/pods/5225f542-0859-4a6a-8d99-1f23b9781807/volumes/kubernetes.io~empty-dir/shared-volume
[root@node01 shared-volume]# ls
hello
[root@node01 shared-volume]# cat hello
hello k8s
//將容器刪除,驗證目錄是否存在
[root@node01 ~]# docker rm -f 13c7a18109a1
13c7a18109a1
[root@node01 ~]# docker ps
CONTAINER ID IMAGE
a809717b1aa5 busybox
f117beb235cf busybox
//它會重新生成一個新的容器,來達到我們用戶所期望的狀態,所以這個目錄還是存在的
//刪除Pod
[root@master ~]# kubectl delete pod producer-consumer
[root@master ~]# ls /var/lib/kubelet/pods/5225f542-0859-4a6a-8d99-1f23b9781807/volumes/kubernetes.io~empty-dir/shared-volume
ls: 無法訪問/var/lib/kubelet/pods/5225f542-0859-4a6a-8d99-1f23b9781807/volumes/kubernetes.io~empty-dir/shared-volume: 沒有那個文件或目錄
//Pod刪除后數據也會被刪除
hostPath Volume(使用場景也比較少):類似Docker數據持久化的:bind mount
將Pod所在節點的文件系統上某一個文件或目錄掛載進容器內
? 如果Pod被刪除,數據會保留,相比較emptyDir會好一點,不過,一旦host崩潰,hostPath也無法訪問
docker或者k8s集群本身的存儲會采用hostPath這種方式
k8s集群中會有很多pod,如果都是用hostPath Volume的話管理起來很不方便,所以就用到了PV
Persistent Volume | PV(持久卷)提前做好的,數據持久化的數據存放目錄
是集群中的一塊存儲空間,由集群管理員管理或者由Storage class(存儲類)自動管理,PV和pod、deployment、Service一樣,都是一個資源對象
PersistentVolume(PV)是集群中已由管理員配置的一段網絡存儲。 集群中的資源就像一個節點是一個集群資源。 PV是諸如卷之類的卷插件,但是具有獨立于使用PV的任何單個pod的生命周期。 該API對象捕獲存儲的實現細節,即NFS,iSCSI或云提供商特定的存儲系統
Psesistent Volume Claim | PVC(持久卷使用聲明|申請)
PVC代表用戶使用存儲的請求,應用申請PV持久化空間的一個申請、聲明。K8s集群可能會有多個PV,你需要不停的為不同的應用創建多個PV
它類似于pod。Pod消耗節點資源,PVC消耗存儲資源。 pod可以請求特定級別的資源(CPU和內存)。 權限要求可以請求特定的大小和訪問模式
官方文檔有更詳細的說明:https://www.kubernetes.org.cn/pvpvcstorageclass
基于NFS服務來做的PV
[root@master ~]# yum -y install nfs-utils (需要節點全部下載,會報掛載類型錯誤)
[root@master ~]# yum -y install rpcbind
[root@master ~]# mkdir /nfsdata
[root@master ~]# vim /etc/exports
/nfsdata *(rw,sync,no_root_squash)
[root@master ~]# systemctl start rpcbind
[root@master ~]# systemctl start nfs-server
[root@master ~]# showmount -e
Export list for master:
/nfsdata *
1.創建PV(實際的存儲目錄) 2.創建PVC 3.創建pod
創建PV資源對象:
[root@master ~]# vim nfs-pv.yaml
apiVersion: v1
kind: PersistentVolume
metadata:
name: test-pv
spec:
capacity: //PV容量的大小
storage: 1Gi
accessModes: //PV支持的訪問模式
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle //PV的存儲空間的回收策略是什么
storageClassName: nfs
nfs:
path: /nfsdata/pv1
server: 192.168.1.70
[root@master ~]# kubectl apply -f nfs-pv.yaml
[root@master ~]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
test-pv 1Gi RWO Recycle Available nfs 9m30s
accessModes: (PV支持的訪問模式)
? - ReadWriteOnce:能以讀-寫的方式mount到單個節點
? - ReadWariteMany:能以讀-寫的方式mount到多個節點
? - ReadOnlyOnce:能以只讀的方式mount到單個節點
persistentVolumeReclaimPolicy:(PV的存儲空間的回收策略是什么)
? Recycle:自動清除數據
? Retain:需要管理員手動回收
? Delete:云存儲專用。直接刪除數據
PV和PVC相互的關聯:通過的是storageClassName && accessModes
創建PVC
[root@master ~]# vim nfs-pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: test-pvc
spec:
accessModes: //訪問模式
- ReadWriteOnce
resources:
requests:
storage: 1Gi //申請的容量大小
storageClassName: nfs //向哪個PV申請
[root@master ~]# kubectl apply -f nfs-pvc.yaml
[root@master ~]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
test-pvc Bound test-pv 1Gi RWO nfs 14s
創建一個Pod資源:
[root@master ~]# vim pod.yaml
kind: Pod
apiVersion: v1
metadata:
name: test-pod
spec:
containers:
- name: pod1
image: busybox
args:
- /bin/sh
- -c
- sleep 30000
volumeMounts:
- mountPath: "/mydata"
name: mydata
volumes:
- name: mydata
persistentVolumeClaim:
claimName: test-pvc
[root@master ~]# kubectl apply -f pod.yaml
之前創建PV的時候指定的掛載目錄是/nfsdata/pv1,我們并沒有創建pv1這個目錄,所以這個pod是運行不成功的。
以下是排錯方法:
- kubectl describe
- kubectl logs
- /var/log/messages
- 查看該節點的kubelet的日志
//使用kubectl describe
[root@master ~]# kubectl describe pod test-pod
mount.nfs: mounting 192.168.1.70:/nfsdata/pv1 failed, reason given by server: No such file or directory //提示沒有文件或目錄
創建目錄,再查看pod狀態:
[root@master ~]# mkdir /nfsdata/pv1
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
test-pod 1/1 Running 0 12m 10.244.1.3 node01 <none> <none>
驗證是否應用成功:
[root@master ~]# kubectl exec test-pod touch /mydata/hello
[root@master ~]# ls /nfsdata/pv1/
hello
[root@master ~]# echo 123 > /nfsdata/pv1/hello
[root@master ~]# kubectl exec test-pod cat /mydata/hello
123
刪除Pod,驗證回收策略(Recycle):
[root@master ~]# kubectl delete pod test-pod
[root@master ~]# kubectl delete pvc test-pvc
[root@master ~]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
test-pv 1Gi RWO Recycle Available nfs 42h
[root@master ~]# ls /nfsdata/pv1/
[root@master ~]#
//驗證成功,數據已經回收
通常情況下不會設置為自動刪除,不然就和emptyDir就差不多了
刪除pv,修改回收策略:
之前是先創建PV--->PVC--->Pod,現在調整一下,先創建PV--->---Pod--->PVC
[root@master ~]# vim nfs-pv.yaml
persistentVolumeReclaimPolicy: Retain
[root@master ~]# kubectl apply -f nfs-pv.yaml
[root@master ~]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
test-pv 1Gi RWO Retain Available nfs 7s
[root@master ~]# kubectl apply -f pod.yaml
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
test-pod 0/1 Pending 0 5s //Pending正在被調度
[root@master ~]# kubectl describe pod test-pod
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Warning FailedScheduling 41s (x2 over 41s) default-scheduler persistentvolumeclaim "test-pvc" not found
//沒有發現對應的pvc
創建pvc
[root@master ~]# kubectl apply -f nfs-pvc.yaml
[root@master ~]# kubectl get pod
NAME READY STATUS RESTARTS AGE
test-pod 1/1 Running 0 114s
驗證Retain(管理員手動刪除)回收策略:
[root@master ~]# kubectl exec test-pod touch /mydata/k8s
[root@master ~]# ls /nfsdata/pv1/
k8s
[root@master ~]# kubectl delete pod test-pod
[root@master ~]# kubectl delete pvc test-pvc
[root@master ~]# ls /nfsdata/pv1/
k8s
//可以看到并沒有回收
[root@master ~]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
test-pv 1Gi RWO Retain Available nfs 6s
mysql對數據持久化的應用:
//這里就不再創建PV,PVC了,用之前的就行
[root@master ~]# kubectl apply -f nfs-pvc.yaml
[root@master ~]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
test-pvc Bound test-pv 1Gi RWO nfs 7s
創建Deploment資源對象,mysql容器
[root@master ~]# vim mysql.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: test-mysql
spec:
selector:
matchLabels: //基于等值的標簽
app: mysql
template:
metadata:
labels:
app: mysql
spec:
containers:
- image: mysql:5.6
name: mysql
env:
- name: MYSQL_ROOT_PASSWORD
value: 123.com
volumeMounts:
- name: mysql-storage
mountPath: /var/lib/mysql
volumes:
- name: mysql-storage
persistentVolumeClaim:
claimName: test-pvc
[root@master ~]# kubectl get deployments.
NAME READY UP-TO-DATE AVAILABLE AGE
test-mysql 1/1 1 1 61s
進入容器創建數據,驗證是否應用PV:
[root@master ~]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
test-mysql-569f8df4db-fnnxc 1/1 Running 0 32m 10.244.1.5 node01 <none> <none>
[root@master ~]# kubectl exec -it test-mysql-569f8df4db-fnnxc -- mysql -u root -p123.com
mysql> create database yun33; //創建數據庫
mysql> use yun33; //選擇使用數據路
Database changed
mysql> create table my_id( id int(4)); 創建表
mysql> insert my_id values(9527); //在表中插入數據
mysql> select * from my_id; //查看表中所有數據
+------+
| id |
+------+
| 9527 |
+------+
1 row in set (0.00 sec)
[root@master ~]# ls /nfsdata/pv1/
auto.cnf ibdata1 ib_logfile0 ib_logfile1 k8s mysql performance_schema yun33
關閉node01節點,模擬節點宕機:
[root@master ~]# kubectl get pod -o wide -w
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
test-mysql-569f8df4db-fnnxc 1/1 Running 0 36m 10.244.1.5 node01 <none> <none>
test-mysql-569f8df4db-fnnxc 1/1 Terminating 0 38m 10.244.1.5 node01 <none> <none>
test-mysql-569f8df4db-2m5rd 0/1 Pending 0 0s <none> <none> <none> <none>
test-mysql-569f8df4db-2m5rd 0/1 Pending 0 0s <none> node02 <none> <none>
test-mysql-569f8df4db-2m5rd 0/1 ContainerCreating 0 0s <none> node02 <none> <none>
test-mysql-569f8df4db-2m5rd 1/1 Running 0 2s 10.244.2.4 node02 <none> <none>
[root@master ~]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
test-mysql-569f8df4db-2m5rd 1/1 Running 0 20s 10.244.2.4 node02 <none> <none>
test-mysql-569f8df4db-fnnxc 1/1 Terminating 0 38m 10.244.1.5 node01 <none> <none>
驗證:在node02上新生成的pod,它內部是否有我們創建的數據
[root@master ~]# kubectl exec -it test-mysql-569f8df4db-2m5rd -- mysql -u root -p123.com
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| performance_schema |
| yun33 |
+--------------------+
4 rows in set (0.01 sec)
mysql> use yun33;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A
Database changed
mysql> show tables;
+-----------------+
| Tables_in_yun33 |
+-----------------+
| my_id |
+-----------------+
1 row in set (0.01 sec)
mysql> select * from my_id;
+------+
| id |
+------+
| 9527 |
+------+
1 row in set (0.01 sec)
[root@master ~]# ls /nfsdata/pv1/
auto.cnf ibdata1 ib_logfile0 ib_logfile1 k8s mysql performance_schema yun33
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。