安装nfs文件系统(为k8s提供动态创建pv的能力)
1.1 安装nfs-server
# 在每个机器执行下面这条命令(包含master)。
yum install -y nfs-utils
下面的/nfs/data
目录可以自定义,这个是用来供node节点往master节点同步pv数据用的目录
# 在master 执行以下命令,直接粘贴执行,或者粘贴到shell脚本中执行
echo "/nfs/data/ *(insecure,rw,sync,no_root_squash)" > /etc/exports
# 在master执行以下命令,启动 nfs 服务;创建共享目录
mkdir -p /nfs/data
# 在master执行
systemctl enable rpcbind
systemctl enable nfs-server
systemctl start rpcbind
systemctl start nfs-server
# 使配置生效
exportfs -r
#检查配置是否生效
exportfs
验证:执行完命令之后,出现/nfs/data <world>
,则说明执行成功。
1.2 配置nfs-client(选做)
主要用来把node节点的
/nfs/data
的数据同步到master节点,下面命令直接复制所有并在所有node节点执行。
#在所有node节点执行,下面的ip改成你自己的master的ip
showmount -e 192.168.26.180
mkdir -p /nfs/data
#在所有node节点执行,下面的ip改成你自己的master的ip
mount -t nfs 192.168.26.180:/nfs/data /nfs/data
1.3 配置动态创建pv默认存储
把下面的两处ip更换成自己的nfs的server服务的ip,这里我已把master作为nfs的server服务,所以更换成master的ip即可。
在nfs服务器上创建sc.yml文件:
vi sc.yaml
把下面的代码粘贴到sc.yaml文件中
在master执行
kubectl get sc
和kubectl get storageclass
,此时查看都是没有的,No resource found。
在master执行:
kubectl apply -f sc.yaml
## 创建了一个存储类
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: nfs-storage
annotations:
storageclass.kubernetes.io/is-default-class: "true"
provisioner: k8s-sigs.io/nfs-subdir-external-provisioner
parameters:
archiveOnDelete: "true" ## 删除pv的时候,pv的内容是否要备份
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: nfs-client-provisioner
labels:
app: nfs-client-provisioner
# replace with namespace where provisioner is deployed
namespace: default
spec:
replicas: 1
strategy:
type: Recreate
selector:
matchLabels:
app: nfs-client-provisioner
template:
metadata:
labels:
app: nfs-client-provisioner
spec:
serviceAccountName: nfs-client-provisioner
containers:
- name: nfs-client-provisioner
image: registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/nfs-subdir-external-provisioner:v4.0.2
# resources:
# limits:
# cpu: 10m
# requests:
# cpu: 10m
volumeMounts:
- name: nfs-client-root
mountPath: /persistentvolumes
env:
- name: PROVISIONER_NAME
value: k8s-sigs.io/nfs-subdir-external-provisioner
- name: NFS_SERVER
value: 192.168.26.180 ## 指定自己nfs服务器地址,这里我把master设置成server服务器了
- name: NFS_PATH
value: /nfs/data ## nfs服务器共享的目录
volumes:
- name: nfs-client-root
nfs:
server: 192.168.26.180 ## 指定自己nfs服务器地址,这里我把master设置成server服务器了
path: /nfs/data
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: nfs-client-provisioner
# replace with namespace where provisioner is deployed
namespace: default
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: nfs-client-provisioner-runner
rules:
- apiGroups: [""]
resources: ["nodes"]
verbs: ["get", "list", "watch"]
- apiGroups: [""]
resources: ["persistentvolumes"]
verbs: ["get", "list", "watch", "create", "delete"]
- apiGroups: [""]
resources: ["persistentvolumeclaims"]
verbs: ["get", "list", "watch", "update"]
- apiGroups: ["storage.k8s.io"]
resources: ["storageclasses"]
verbs: ["get", "list", "watch"]
- apiGroups: [""]
resources: ["events"]
verbs: ["create", "update", "patch"]
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: run-nfs-client-provisioner
subjects:
- kind: ServiceAccount
name: nfs-client-provisioner
# replace with namespace where provisioner is deployed
namespace: default
roleRef:
kind: ClusterRole
name: nfs-client-provisioner-runner
apiGroup: rbac.authorization.k8s.io
---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: leader-locking-nfs-client-provisioner
# replace with namespace where provisioner is deployed
namespace: default
rules:
- apiGroups: [""]
resources: ["endpoints"]
verbs: ["get", "list", "watch", "create", "update", "patch"]
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: leader-locking-nfs-client-provisioner
# replace with namespace where provisioner is deployed
namespace: default
subjects:
- kind: ServiceAccount
name: nfs-client-provisioner
# replace with namespace where provisioner is deployed
namespace: default
roleRef:
kind: Role
name: leader-locking-nfs-client-provisioner
apiGroup: rbac.authorization.k8s.io
1.4 验证
执行
kubectl get sc
,此时可以看到一个默认的存储类,nfs-storage (default),说明执行成功,下面的可以用测试,直接省略即可。
测试动态创建pv的能力(选做):
- 执行:
kubectl get pod -A
,查看nfs-client-provisioner-322342c323是否Running。
- pvc的创建与绑定
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name:nginx-pvc
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 200Mi
# 使用kubectl get sc 查看默认存储类的name,一般为nfs-storage,也可以不指定,自动会挂载到默认存储类上
sotrageClassName: nfs-storage
创建pvc.yaml,并把上面的命令粘贴到pvc.yaml文件中
vi pvc.yaml
kubectl apply -f pvc.yaml
#pvc处于绑定状态
kubectl get pvc
#这时会发现,已经自动创建了pv
kubectl get pv
原文地址:http://www.cnblogs.com/hujunwei/p/16875627.html
1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长!
2. 分享目的仅供大家学习和交流,请务用于商业用途!
3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员!
8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载
声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性