菜单
本页目录

4 块存储

一:相关概念

存储的分级:

		初级:	单机|单设备|磁盘管理|逻辑卷|磁盘限制
		中级:	网络存储|网络文件系统|NFS|CIFS(samba)
		高级:	块存储|分布式存储

锁机制解锁并行写入异常

网络文件系统:

​ 共享目录,已经格式化的分区

块存储:

    共享为格式化的分区结构,存储块
    客户端可进行分区、格式化、挂载:
                    格式化:	单客户端: xfs、extN(使用本地的文件系统格式化)
                                        多客户端时:集群文件系统(gfs2)

image-20221206105901034

块存储核心技术:

    iSCSI协议
    端口: 3260
    服务器端软件:target(tgt)
    客户端软件:	iscsi

NAS与SAN:

    NAS:存储设备,接入现有的网络拓扑
    SAN:存储区域网络,需要构建网络拓扑

总结:SAN中包含NAS

二:实验1 单客户端

实验环境:

    server:7-1		需要增加三块硬盘
    client:7-2

前提:使用网络源安装软件

实验步骤:

虚拟机环境步骤
7-1服务器1.配置网络源安装 epel-release扩展源,安装scsi-target-utils
2.修改tgt的子配置文件 /etc/tgt/conf.d/sample.conf
指向iqn(标签)、backing-store(共享的分区)、initiator-address(可用共享的IP或网段)
3.创建pv、vg、lv
4.启动,自启动tgtd服务、并查看绑定状态
systemctl enable tgtd --now
tgtadm -L iscsi -o show -m target
7-2客户端1.配置网络源安装扩展源,安装 iscsi-initiator-utils
2.启动自启动 iscsid 服务
3.查看: iscsiadm -m discovery -t sendtargets -p 192.168.18.201
4.连接: iscsiadm -m node -T 标签名 --login
5.利用连接的分区,创建分区(pv、vg、lv),本地类格式化,网络式永久挂载

扩容测试汇总

虚拟机环境步骤
7-2客户端1.卸载
2.断开连接
7-1服务端1.扩容lv
2.重启tgtd服务
7-2客户端1.重启虚拟机
2.检查分区是否扩容
3.pvresize 更新
4.lv更新,检查挂载点内容

实验详细步骤:

1)服务端配置:

1.安装软件:scsi-target-utils

[root@localhost ~]# vim ifcfg-ens33
[root@localhost ~]# grep "DNS" ifcfg-ens33
[root@localhost ~]# mv /etc/yum.repos.d/CentOS-Base.repo.bak /etc/yum.repos.d/CentOS-Base.repo
[root@localhost ~]# yum clean all;yum -y install epel-release
[root@localhost ~]# yum -y install scsi-target-utils

2.修改子配置文件: /etc/tgt/conf.d/sample.conf

[root@localhost ~]# vim /etc/tgt/conf.d/sample.conf
[root@localhost ~]# egrep -v "^#|^$|#" /etc/tgt/conf.d/sample.conf
<target iqn.2022-12.com.yq:lvm2>
    backing-store /dev/data_vg/data_lv
    initiator-address 192.168.18.202
</target>

3.创建pv、vg、lv

[root@localhost ~]# lsblk

[root@localhost ~]# pvcreate /dev/sdb /dev/sdc
  Physical volume "/dev/sdb" successfully created.
  Physical volume "/dev/sdc" successfully created.
[root@localhost ~]# vgcreate data_vg /dev/sdb /dev/sdc
  Volume group "data_vg" successfully created
[root@localhost ~]# lvcreate -L 25G -n data_lv data_vg
  Logical volume "data_lv" created.
[root@localhost ~]# lvscan
  ACTIVE            '/dev/centos/swap' [2.00 GiB] inherit
  ACTIVE            '/dev/centos/root' [<17.00 GiB] inherit
  ACTIVE            '/dev/data_vg/data_lv' [25.00 GiB] inherit

4.启动、自启动tgtd

[root@localhost ~]# systemctl enable tgtd --now
Created symlink from /etc/systemd/system/multi-user.target.wants/tgtd.service to /usr/lib/systemd/system/tgtd.service.

5.查看绑定状态

[root@localhost ~]# tgtadm -L iscsi -o show -m target

2)客户端配置:

1.安装软件:iscsi-initiator-utils

[root@localhost ~]# vim ifcfg-ens33 
[root@localhost ~]# grep "DNS" ifcfg-ens33
DNS1=114.114.114.114
[root@localhost ~]# mv /etc/yum.repos.d/CentOS-Base.repo.bak /etc/yum.repos.d/CentOS-Base.repo
[root@localhost ~]# yum clean all ;yum -y install epel-release
[root@localhost ~]# yum -y install iscsi-initiator-utils

2.启动、自启动 iscsid 服务,查看iscsid服务状态

[root@localhost ~]# systemctl enable iscsid --now
Created symlink from /etc/systemd/system/multi-user.target.wants/iscsid.service to /usr/lib/systemd/system/iscsid.service.

3.查看

[root@localhost ~]# iscsiadm -m discovery -t sendtargets -p 192.168.18.201
192.168.18.201:3260,1 iqn.2022-12.com.yq:lvm2

4.连接

[root@localhost ~]# iscsiadm -m node -T iqn.2022-12.com.yq:lvm2 --login
Logging in to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.201,3260] (multiple)
Login to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.201,3260] successful.

5.利用连接的分区,创建pv、vg、lv分区,格式化,挂载,写入数据

永久挂载 /etc/fstab
/dev/www_vg/www_lv	/www	xfs	defaults,_netdev	0 0
[root@localhost ~]# lsblk |grep sdb
sdb               8:16   0  25G  0 disk 
[root@localhost ~]# vgcreate www_vg /dev/sdb
  Physical volume "/dev/sdb" successfully created.
  Volume group "www_vg" successfully created
[root@localhost ~]# lvcreate -L 24G -n www_lv www_vg
  Logical volume "www_lv" created.
[root@localhost ~]# mkfs.xfs /dev/www_vg/www_lv 

[root@localhost ~]# mkdir /www
[root@localhost ~]# mount /dev/www_vg/www_lv /www
[root@localhost ~]# df -h |grep www
/dev/mapper/www_vg-www_lv   24G   33M   24G    1% /www
[root@localhost ~]# cd /www/
[root@localhost www]# ls
[root@localhost www]# cp -a /etc/*.conf ./
[root@localhost www]# du -sh ./
132K	./

6.再次查看iscsid服务状态

[root@localhost www]# systemctl status iscsid

3)扩容:

1.客户端卸载,断开连接

#7-2
[root@localhost ~]# umount /www/
[root@localhost ~]# iscsiadm -m discovery -t sendtargets -p 192.168.18.201
192.168.18.201:3260,1 iqn.2022-12.com.yq:lvm2
[root@localhost ~]# iscsiadm -m node -T iqn.2022-12.com.yq:lvm2 --logout
Logging out of session [sid: 1, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.201,3260]
Logout of [sid: 1, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.201,3260] successful.

2.服务端扩容lv,重启tgtd服务

#7-1
[root@localhost ~]# pvscan
  PV /dev/sda2   VG centos          lvm2 [<19.00 GiB / 0    free]
  PV /dev/sdb    VG data_vg         lvm2 [<20.00 GiB / 0    free]
  PV /dev/sdc    VG data_vg         lvm2 [<20.00 GiB / 14.99 GiB free]
  Total: 3 [<58.99 GiB] / in use: 3 [<58.99 GiB] / in no VG: 0 [0   ]
[root@localhost ~]# lvscan
  ACTIVE            '/dev/centos/swap' [2.00 GiB] inherit
  ACTIVE            '/dev/centos/root' [<17.00 GiB] inherit
  ACTIVE            '/dev/data_vg/data_lv' [25.00 GiB] inherit
[root@localhost ~]# lvresize -L +10G /dev/data_vg/data_lv
  Size of logical volume data_vg/data_lv changed from 25.00 GiB (6400 extents) to 35.00 GiB (8960 extents).
  Logical volume data_vg/data_lv successfully resized.
[root@localhost ~]# systemctl restart tgtd

3.客户端重启电脑,检查sdb扩容,pvresize扩容,lv更新,挂载,检查数据

#7-2
[root@localhost ~]# init 6

[root@localhost ~]# lsblk |grep -A 1 sdb
sdb               8:16   0  35G  0 disk 
└─www_vg-www_lv 253:2    0  24G  0 lvm 
[root@localhost ~]# pvresize /dev/sdb
  Physical volume "/dev/sdb" changed
  1 physical volume(s) resized or updated / 0 physical volume(s) not resized
[root@localhost ~]# lvscan
  ACTIVE            '/dev/www_vg/www_lv' [24.00 GiB] inherit
  ACTIVE            '/dev/centos/swap' [2.00 GiB] inherit
  ACTIVE            '/dev/centos/root' [<17.00 GiB] inherit
[root@localhost ~]# lvresize -r -L +10G /dev/www_vg/www_lv
[root@localhost ~]# lsblk |grep -A 1 sdb
sdb               8:16   0  35G  0 disk 
└─www_vg-www_lv 253:2    0  34G  0 lvm

4.永久挂载:

[root@localhost ~]# vim /etc/fstab 
[root@localhost ~]# tail -n 1 /etc/fstab
/dev/www_vg/www_lv	/www	xfs	defaults,_netdev	0 0
[root@localhost ~]# reboot

[root@localhost ~]# df -h |grep www
/dev/mapper/www_vg-www_lv   34G   33M   34G    1% /www

三:实验2 RHCS(基于块存储的集群)

拓展:lsscsi命令		#查看设备类型

相关介绍:
			cman、rgmanager				提供集群管理功能的软件
			clvm、gfs2							集群分区、集群格式化
			iscsi-initiator-utils				客户端连接

实验环境:4台6版本

        server		6-4		需添加三块磁盘
        client		6-1、6-2、6-3

实验准备:

1:6-4需要添加三块磁盘

2:所有主机的hosts文件解析

[root@localhost ~]# vim /etc/hosts
192.168.18.40	target.yq.com	target
192.168.18.10	node1.yq.com	node1
192.168.18.20	node2.yq.com	node2
192.168.18.30	node3.yq.com	node3

3:4台服务器之间能ssh免密

ssh-keygen -t rsa -b 2048
ssh-copy-id

4:target搭建时间服务器、node1~3做客户端

#6-4时间服务器server端
[root@target ~]# vim /etc/ntp.conf
#server 0.centos.pool.ntp.org iburst		#注释4行
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
server 127.127.1.0							#新增三行
fudge 127.127.1.0 stratum 10
restrict 192.168.18.0 mask 255.255.255.0 nomodify notrap
[root@target ~]# service ntpd start
正在启动 ntpd:                                            [确定]
[root@target ~]# chkconfig ntpd on
[root@target ~]# chkconfig ntpd --list
ntpd           	0:关闭	1:关闭	2:启用	3:启用	4:启用	5:启用	6:关闭

#node1~3 客户端配置
[root@node1 ~]# vim /etc/ntp.conf
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
server 192.168.18.40
restrict 192.168.18.40
[root@node1 ~]# scp /etc/ntp.conf node2:/etc/
ntp.conf                            100% 1826     1.8KB/s   00:00    
[root@node1 ~]# scp /etc/ntp.conf node3:/etc/
ntp.conf                            100% 1826     1.8KB/s   00:00 

#测试时间同步,利用别名ssh免密跳板
[root@target ~]# alias tb='for i in {1..3};do ssh node$i'
[root@target ~]# tb 'hostname';done			#测试
node1.yq.com
node2.yq.com
node3.yq.com
[root@target ~]# vim ./.bashrc 				#写入环境配置文件永久生效
[root@target ~]# grep "alias tb" ./.bashrc
alias tb='for i in {1..3};do ssh node$i'

[root@target ~]# tb 'service ntpd start';done		#客户端启动ntpd,并加入自启动
正在启动 ntpd:[确定]
正在启动 ntpd:[确定]
正在启动 ntpd:[确定]
[root@target ~]# tb 'chkconfig ntpd on';done

#node2手动修改时间
[root@node2 ~]# date -s 20001010
2000年 10月 10日 星期二 00:00:00 CST

#target查看时间,并手动同步
[root@target ~]# tb 'hostname;date;echo ====================';done
node1.yq.com
2022年 12月 05日 星期一 23:01:01 CST
====================
node2.yq.com
2000年 10月 10日 星期二 00:00:55 CST
====================
node3.yq.com
2022年 12月 05日 星期一 23:01:01 CST
====================
[root@target ~]# tb 'ntpdate -u 192.168.18.40';done
 5 Dec 23:01:12 ntpdate[2008]: adjust time server 192.168.18.40 offset 0.004159 sec
 5 Dec 23:01:12 ntpdate[2017]: step time server 192.168.18.40 offset 699145206.003748 sec
 5 Dec 23:01:12 ntpdate[2006]: adjust time server 192.168.18.40 offset 0.003521 sec
 [root@target ~]# tb 'hostname;date;echo ====================';done
node1.yq.com
2022年 12月 05日 星期一 23:01:21 CST
====================
node2.yq.com
2022年 12月 05日 星期一 23:01:21 CST
====================
node3.yq.com
2022年 12月 05日 星期一 23:01:21 CST
====================

实验步骤

虚拟机环境步骤
6-4target 192.168.18.401.创建分区
2.安装软件scsi-target-utils
3.修改配置文件(指向共享的分区、可连的客户端网段、连接的用户密码)
4.重启,自启动tgtd服务
5.检查绑定状态
tgtadm -L iscsi -o show -m target
6-1
6-2
6-3
node1~3进行连接
node1 192.168.18.10
node2 192.168.18.20
node3 192.168.18.30
1.安装软件 iscsi-initiator-utils
2.配置标签名 /etc/iscsi/initiatorname.conf (每个node不一样)
InitiatorName=iqn.2022-12.com.yq:node1~3
3.配置认证信息 /etc/iscsi/iscsid.conf(每个node一样)
node.session.auth.authmethod = CHAP
node.session.auth.username = admin
node.session.auth.password = 123456
4.利用target查看、登录
iscsiadm -m discovery -t sendtargets -p target
iscsiadm -m node -T 标签名 --login
6-1
6-2
6-3
node1~3集群安装与配置1.安装cman、rgmanager
2.在node1中添加集群,加入node,并将cluster.conf 发送给其他node
ccs_tool create testcluster
ccs_tool addfence meatware fence _manual
ccs_tool lsfence ; ccs_tool lsnode 查看
ccs_tool addnode -n 1 -f meatware node1.yq.com 添加node
3.关闭NetworkManager服务
向 /etc/sysconfig/cman 中加入超时选项: CMAN_QUORUM_TIMEOUT=0
启动、自启动cman
4. 安装lvm2-cluster
启动clvm集群模式 lvmconf --enable-cluster
启动,自启动clvmd
5.找一个node测试分区,其他的同步
6.安装gfs2-utils(集群格式化软件)
找一个格式化即同步: mkfs.gfs2 -j 3 -p lock_dlm -t testcluster:sharestorage /dev/www_vg/www_lv
7.创建目录测试挂载
临时挂载: mount -t gfs2 /dev/www_vg/www_lv /www
永久挂载:echo "/dev/www_vg/www_lv /www gfs2 defaults 0 0" >> /etc/fstab
8.测试文件写入,其他的同步

实验步骤详细:

1、target服务器搭建

1)创建lv分区

[root@target ~]# vgcreate data_vg /dev/sdb /dev/sdc
  Physical volume "/dev/sdb" successfully created
  Physical volume "/dev/sdc" successfully created
  Volume group "data_vg" successfully created
[root@target ~]# lvcreate -L 30G -n data_lv data_vg
  Logical volume "data_lv" created.
[root@target ~]# lvscan
  ACTIVE            '/dev/data_vg/data_lv' [30.00 GiB] inherit

2)安装软件:scsi-target-utils

[root@target ~]# yum -y install scsi-target-utils

3)修改配置文件(指向共享的分区、可连的客户端网段、连接的用户密码)

[root@target ~]# vim /etc/tgt/targets.conf
[root@target ~]# egrep -v "^#|^$|#" /etc/tgt/targets.conf
default-driver iscsi
<target iqn.2022-12.com.yq:lvm2>		#添加此处的标签内容
    backing-store /dev/data_vg/data_lv
    initia-address 192.168.18.0/24
    incominguser admin 123456
</target>

4)重启、自启动服务 tgtd

[root@target ~]# service tgtd start
正在启动 SCSI target daemon:                              [确定]
[root@target ~]# chkconfig tgtd on

5)检查绑定状态

[root@target ~]# tgtadm -L iscsi -o show -m target

2、node1~3连接

1)安装软件:iscsi-initiator-utils

[root@target ~]# tb 'yum -y install iscsi-initiator-utils';done
[root@target ~]# tb 'service iscsid restart';done
停止 iscsid:
[确定]动 iscsid:[确定]
停止 iscsid:
[确定]动 iscsid:[确定]
停止 iscsid:
[确定]动 iscsid:[确定]
[root@target ~]# tb 'chkconfig iscsid on';done

2)配置标签名

[root@node1 ~]# vim /etc/iscsi/initiatorname.iscsi
[root@node1 ~]# cat /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2022-12.com.yq:node1

[root@node2 ~]# vim /etc/iscsi/initiatorname.iscsi
[root@node2 ~]# cat /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2022-12.com.yq:node2

[root@node3 ~]# vim /etc/iscsi/initiatorname.iscsi 
[root@node3 ~]# cat /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2022-12.com.yq:node3

3)配置认证信息

[root@node1 ~]# vim /etc/iscsi/iscsid.conf 
[root@node1 ~]# grep "^node.session.auth" /etc/iscsi/iscsid.conf
node.session.auth.authmethod = CHAP
node.session.auth.username = admin
node.session.auth.password = 123456
[root@node1 ~]# scp /etc/iscsi/iscsid.conf node2:/etc/iscsi/
iscsid.conf                         100%   11KB  11.5KB/s   00:00    
[root@node1 ~]# scp /etc/iscsi/iscsid.conf node3:/etc/iscsi/
iscsid.conf                         100%   11KB  11.5KB/s   00:00 

4)利用target查看、登录,lsblk查看是否共享成功

[root@target ~]# tb 'iscsiadm -m discovery -t sendtargets -p target';done
192.168.18.40:3260,1 iqn.2022-12.com.yq:lvm2
192.168.18.40:3260,1 iqn.2022-12.com.yq:lvm2
192.168.18.40:3260,1 iqn.2022-12.com.yq:lvm2

[root@target ~]# tb 'iscsiadm -m node -T iqn.2022-12.com.yq:lvm2 --login';done
Logging in to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.40,3260] (multiple)
Login to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.40,3260] successful.
Logging in to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.40,3260] (multiple)
Login to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.40,3260] successful.
Logging in to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.40,3260] (multiple)
Login to [iface: default, target: iqn.2022-12.com.yq:lvm2, portal: 192.168.18.40,3260] successful.

[root@target ~]# tb 'lsblk |grep sdb';done
sdb      8:16   0   30G  0 disk 
sdb      8:16   0   30G  0 disk 
sdb      8:16   0   30G  0 disk 

3、node1~3的 cman 与 rgmanager 集群安装与配置

1)安装软件:cman、rgmanager

[root@target ~]# tb 'yum -y install cman rgmanager';done

2)在node1中创建集群,添加node

[root@node1 ~]# ccs_tool create testcluster
[root@node1 ~]# ccs_tool addfence meatware fence_manual
[root@node1 ~]# ccs_tool lsfence			#查看选取策略
Name             Agent
meatware         fence_manual
[root@node1 ~]# ccs_tool lsnode				#查看node节点

Cluster name: testcluster, config_version: 2

Nodename                        Votes Nodeid Fencetype

#向集群中加入node
[root@node1 ~]# ccs_tool addnode -n 1 -f meatware node1.yq.com
[root@node1 ~]# ccs_tool addnode -n 2 -f meatware node2.yq.com
[root@node1 ~]# ccs_tool addnode -n 3 -f meatware node3.yq.com
[root@node1 ~]# ccs_tool lsnode

Cluster name: testcluster, config_version: 5

Nodename                        Votes Nodeid Fencetype
node1.yq.com                       1    1    meatware
node2.yq.com                       1    2    meatware
node3.yq.com                       1    3    meatware


#将集群配置文件发送给其他node
[root@node1 ~]# scp /etc/cluster/cluster.conf node2:/etc/cluster/
cluster.conf                        100%  677     0.7KB/s   00:00    
[root@node1 ~]# scp /etc/cluster/cluster.conf node3:/etc/cluster/
cluster.conf                        100%  677     0.7KB/s   00:00 

3)启动cman,并加入自启动

注意:1.NetworkManager不能工作,且开机不自启

​ 2.启动时报错,需要设置0超时的选项

[root@target ~]# tb 'service NetworkManager stop';done
停止 NetworkManager 守护进程:[确定]
停止 NetworkManager 守护进程:[确定]
停止 NetworkManager 守护进程:[确定]
[root@target ~]# tb 'chkconfig NetworkManager off';done
[root@target ~]# tb 'echo "CMAN_QUORUM_TIMEOUT=0" >> /etc/sysconfig/cman';done
#node1~3 启动cman,并加入自启动
[root@target ~]# tb 'service cman start';done

[root@target ~]# tb 'chkconfig cman on';done

4)安装clvm(集群版lvm分区命令)

​ 启动集群模式、启动clvm、并加入自启动

[root@target ~]# tb 'yum -y install lvm2-cluster';done
[root@target ~]# tb 'lvmconf --enable-cluster';done
[root@target ~]# tb 'service clvmd start';done

[root@target ~]# tb 'chkconfig clvmd on';done

5)测试分区:

​ 在其中一个node中创建pv、vg、lv(判断其他的同步)

#node1创建逻辑卷
[root@node1 ~]# lsblk |grep sdb
sdb      8:16   0   30G  0 disk 
[root@node1 ~]# vgcreate www_vg /dev/sdb
  Physical volume "/dev/sdb" successfully created
  Volume group "www_vg" successfully created
[root@node1 ~]# lvcreate -L 29G -n www_lv www_vg
  Logical volume "www_lv" created.

#node2查看,同步成功
[root@node2 ~]# lvscan
  inactive          '/dev/www_vg/www_lv' [29.00 GiB] inherit
[root@node2 ~]# pvscan
  PV /dev/sdb   VG www_vg          lvm2 [30.00 GiB / 1020.00 MiB free]
  Total: 1 [30.00 GiB] / in use: 1 [30.00 GiB] / in no VG: 0 [0   ]

#node3查看,同步成功
[root@node3 ~]# lvscan
  inactive          '/dev/www_vg/www_lv' [29.00 GiB] inherit
[root@node3 ~]# pvscan
  PV /dev/sdb   VG www_vg          lvm2 [30.00 GiB / 1020.00 MiB free]
  Total: 1 [30.00 GiB] / in use: 1 [30.00 GiB] / in no VG: 0 [0   ]

6)安装 gfs2-utils (集群版格式化命令)

​ 测试格式化:在其中一个node中格式化,(判断其他的同步)

[root@target ~]# tb 'yum -y install gfs2-utils';done

#node1格式化
[root@node1 ~]# mkfs.gfs2 -j 3 -p lock_dlm -t testcluster:sharestorage /dev/www_vg/www_lv
[root@node1 ~]# blkid |grep www_lv
/dev/mapper/www_vg-www_lv: LABEL="testcluster:sharestorage" UUID="638d4b00-d269-c7d6-9ee9-65094ffece34" TYPE="gfs2"


#node2、node3同步格式化
[root@node2 ~]# blkid |grep www_lv
/dev/mapper/www_vg-www_lv: LABEL="testcluster:sharestorage" UUID="638d4b00-d269-c7d6-9ee9-65094ffece34" TYPE="gfs2"
[root@node3 ~]# blkid |grep www_lv
/dev/mapper/www_vg-www_lv: LABEL="testcluster:sharestorage" UUID="638d4b00-d269-c7d6-9ee9-65094ffece34" TYPE="gfs2"

7)测试挂载

​ 利用target创建挂载点、写入永久挂载,挂载,并检查

[root@target ~]# tb 'mkdir /www';done
[root@target ~]# tb 'echo "/dev/www_vg/www_lv /www gfs2 defaults 0 0" >> /etc/fstab';done			#写入永久挂载
[root@target ~]# tb 'hostname;df -hP|grep www';done
node1.yq.com
node2.yq.com
node3.yq.com
[root@target ~]# tb 'mount -a';done																	#挂载
[root@target ~]# tb 'hostname;df -h|grep www';done
node1.yq.com
/dev/mapper/www_vg-www_lv
                       29G  388M   29G   2% /www
node2.yq.com
/dev/mapper/www_vg-www_lv
                       29G  388M   29G   2% /www
node3.yq.com
/dev/mapper/www_vg-www_lv
                       29G  388M   29G   2% /www
[root@target ~]# tb 'hostname;df -hP|grep www';done													#检查挂载成功
node1.yq.com
/dev/mapper/www_vg-www_lv   29G  388M   29G   2% /www
node2.yq.com
/dev/mapper/www_vg-www_lv   29G  388M   29G   2% /www
node3.yq.com
/dev/mapper/www_vg-www_lv   29G  388M   29G   2% /www

8)测试分区写入同步

#node1创建
[root@node1 ~]# cd /www/
[root@node1 www]# touch yq.txt
[root@node1 www]# ll
总用量 4
-rw-r--r-- 1 root root 0 12月  5 23:57 yq.txt

#node2查看
[root@node2 ~]# cd /www/
[root@node2 www]# ll
总用量 4
-rw-r--r-- 1 root root 0 12月  5 23:57 yq.txt

[root@node3 ~]# cd /www/
[root@node3 www]# ll
总用量 4
-rw-r--r-- 1 root root 0 12月  5 23:57 yq.txt