1、安装服务
yum install nfs-utils rpcbind -y
2、创建共享目录
mkdir /data/k8s -p
3、配置NFS配置文件
[root@master ~]# vim /etc/exports
/data/k8s *(rw,sync,no_root_squash)
配置详解:
ro 只读访问
rw 读写访问
sync 所有数据在请求时写入共享
async NFS在写入数据前可以相应请求
secure NFS通过1024以下的安全TCP/IP端口发送
insecure NFS通过1024以上的端口发送
wdelay 如果多个用户要写入NFS目录,则归组写入(默认)
no_wdelay 如果多个用户要写入NFS目录,则立即写入,当使用async时,无需此设置。
Hide 在NFS共享目录中不共享其子目录
no_hide 共享NFS目录的子目录
subtree_check 如果共享/usr/bin之类的子目录时,强制NFS检查父目录的权限(默认)
no_subtree_check 和上面相对,不检查父目录权限
all_squash 共享文件的UID和GID映射匿名用户anonymous,适合公用目录。
no_all_squash 保留共享文件的UID和GID(默认)
root_squash root用户的所有请求映射成如anonymous用户一样的权限(默认)
no_root_squas root用户具有根目录的完全管理访问权限
anonuid=xxx 指定NFS服务器/etc/passwd文件中匿名用户的UID
4、启动服务
先启动rpcbind,再启动nfs
[root@master ~]# systemctl start rpcbind
[root@master ~]# systemctl start nfs
5、客户端安装nfs和rpcbind测试
安装见第一步。
[root@node01 ~]# showmount -e 172.16.1.128 Export list for 172.16.1.128: /data/k8s *
自此,NFS创建完成。
(1)、配置hosts
10.1.10.129 node1.cluster.local node1 10.1.10.130 node2.cluster.local node2 10.1.10.128 master.cluster.local master
(2)、安装
yum install centos-release-gluster -y
yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
(3)、启动并配置开机自启动
systemctl start glusterd.service && systemctl enable glusterd.service iptables -I INPUT -p tcp --dport 24007 -j ACCEPT
(4)、将节点添加入集群
gluster peer probe master
gluster peer probe node1
gluster peer probe node2
(5)、查看集群状态
gluster peer status Number of Peers: 2 Hostname: node1 Uuid: 67c49963-79b2-4fda-acf8-019491164dcf State: Peer in Cluster (Connected) Hostname: node2 Uuid: 78e0bf3b-5b3a-4663-928b-1830e16fe0d9 State: Peer in Cluster (Connected)
(6)、安装client测试
yum install -y glusterfs glusterfs-fuse # 创建数据目录,节点都要操作 mkdir /data/gluster/data -p
(7)、创建volume
gluster volume create models replica 3 master:/data/gluster/data node1:/data/gluster/data node2:/data/gluster/data force
(8)、查看volume
gluster volume info Volume Name: models Type: Replicate Volume ID: 53bdad7b-d40f-4160-bd42-4b70c8278506 Status: Created Snapshot Count: 0 Number of Bricks: 1 x 3 = 3 Transport-type: tcp Bricks: Brick1: master:/data/gluster/data Brick2: node1:/data/gluster/data Brick3: node2:/data/gluster/data Options Reconfigured: transport.address-family: inet storage.fips-mode-rchecksum: on nfs.disable: on performance.client-io-threads: off
(9)、启动models
gluster volume start models
(10)、挂载
mount -t glusterfs master:models /data
(1)、调优
# 开启 指定 volume 的配额 gluster volume quota k8s-volume enable # 限制 指定 volume 的配额 gluster volume quota k8s-volume limit-usage / 1TB # 设置 cache 大小, 默认32MB gluster volume set k8s-volume performance.cache-size 4GB # 设置 io 线程, 太大会导致进程崩溃 gluster volume set k8s-volume performance.io-thread-count 16 # 设置 网络检测时间, 默认42s gluster volume set k8s-volume network.ping-timeout 10 # 设置 写缓冲区的大小, 默认1M gluster volume set k8s-volume performance.write-behind-window-size 1024MB
原文:https://www.cnblogs.com/liang-io/p/14096529.html