It has been 511 days since the last update, the content of the article may be outdated.

场景

最近需要急速反演一套GMI Emissivity数据(chuanxi)。 最麻烦和耗时的工作来自于原始数据的下载:

  1. GMI1B,GMI2A GROPF, 201811 ~ 202007 (800 GB)
  2. H8 L2CLP (300 GB)
  3. ERA5 Plevels+Surface (100 GB)

所以,服务器为了安全考虑没有联网,本地下载到一块陈年(2014年产)2TB硬盘上
放弃了数据上传,太慢了,简单粗暴,直接插在机架上。

hd-pluge-20201017.jpg

hd-pluge-20201017.jpg


查看磁盘

查看当前磁盘挂载情况,可以看出目前系统根目录是创建在/dev/sda盘上的

cmd
[hjh@node01] ~ $ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 30G 7.2G 21G 26% / ## 根目录是创建在sda磁盘上的
tmpfs 63G 84K 63G 1% /dev/shm
/dev/sda3 74G 95M 70G 1% /localdisk
node00:/home 74G 58G 13G 83% /home ## 来自node00的共享
node00:/data01 11T 9.4T 358G 97% /data01
node00:/data02 3.6T 3.3T 167G 96% /data02
node00:/data03 3.6T 3.0T 465G 87% /data03
dataserver1:/data00 131T 122T 2.6T 98% /data00 ##来自阵列的共享

插上上述的2TB磁盘,使用ls -l /dev 查看磁盘标识

cmd
[hjh@node01] ~ $ ls -l /dev
total 0
···
brw-rw---- 1 root disk 8, 0 Aug 10 10:22 sda
brw-rw---- 1 root disk 8, 1 Aug 10 10:22 sda1
brw-rw---- 1 root disk 8, 2 Aug 10 10:22 sda2
brw-rw---- 1 root disk 8, 3 Aug 10 10:22 sda3
brw-rw---- 1 root disk 8, 16 Oct 17 14:53 sdb
brw-rw---- 1 root disk 8, 17 Oct 17 14:53 sdb1
···

忽略一堆没用的信息会发现几个disk组的磁盘标识,可以看到10月17日新加入的磁盘sdb。这个盘就是我们要手动挂载的。

也可以使用fdisk -l 来查看

cmd
[root@node01] /home/hjh $ sudo fdisk -l

Disk /dev/sda: 250.1 GB, 250059350016 bytes
255 heads, 63 sectors/track, 30401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000ad772

Device Boot Start End Blocks Id System
/dev/sda1 1 16710 134217728 82 Linux swap / Solaris
/dev/sda2 * 16710 20626 31457280 83 Linux
/dev/sda3 20626 30402 78522368 83 Linux

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0xe37ec37d

Device Boot Start End Blocks Id System
/dev/sdb1 1 243202 1953512448 7 HPFS/NTFS

挂载

登陆root权限

cmd
创建挂载点
[hjh@node01] ~ # mkdir /mnt/g2t

挂载ext4等格式的盘
[hjh@node01] ~ # mount /dev/sdb1 /mnt/g2t

挂载exfat格式:
[hjh@node01] ~ # mount.exfat -o uid=516,gid=516,umask=0022 /dev/sdb1 /mnt/g2t

挂载ntfs格式,适用于本次操作:
[hjh@node01] ~ # mount.ntfs-3g -o uid=516,gid=516,umask=0022 /dev/sdb1 /mnt/g2t

UID和GID 指定磁盘拥有者,可以 cat/etc/passwd查看

查看挂载结果

cmd
[hjh@node01] ~ $ df -h
Filesystem Size Used Avail Use% Mounted on
···
dataserver1:/data00 131T 122T 2.6T 98% /data00
/dev/sdb1 1.9T 1.2T 726G 62% /mnt/g2t

可以看到已经挂载成功了,/mnt目录下可以看到g2t盘属于hjh(uid=516),属性是755

cmd
[hjh@node01] ~ $ ls -l /mnt/
drwxr-xr-x 1 hjh hjh 4096 Nov 17 16:27 g2t

挂载nfs文件共享系统

目的是node01:/mnt/g2t 这个挂载好的系统共享到其他nodexx节点。
先设置/etc/exports问卷网,参考如下设置:

cmd
[hjh@node01] ~ $cat /etc/exports
/disks/hjh/disk1 192.168.1.1/255.255.255.0(rw,no_root_squash,async)
/disks/hjh/disk2 192.168.1.1/255.255.255.0(rw,no_root_squash,async)
/disks/zhang 192.168.1.1/255.255.255.0(rw,no_root_squash,async)
/mnt/g2t 192.168.1.1/255.255.255.0(rw,no_root_squash,async)

设好后重启nfs服务exportfs -ra
然后其他节点再处理:
登录node05 root用户

cmd
[hjh@node05] ~ # mkdir /mnt/g2t
[hjh@node05] ~ # mount -t nfs node01:/mnt/g2t /mnt/g2t

可以百度nfs服务设置。

cmd
[hjh@node05] ~ $ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda 3.6T 331G 3.1T 10% /d6
····
node00:/data01 11T 9.4T 358G 97% /data01
····
dataserver1:/data00 131T 122T 2.6T 98% /data00
···
node01:/mnt/g2t 1.9T 1.2T 726G 62% /mnt/g2t

可以看到来自其他节点的共享盘。