1、新增用户组,如下图:

FreeNAS11 NFS配置_freenas11


2、新增用户,如下图:

FreeNAS11 NFS配置_ nfs_02

FreeNAS11 NFS配置_ nfs_03


3、新建Pools,三个磁盘做Raid-z,如下图:

FreeNAS11 NFS配置_最新版本_04

FreeNAS11 NFS配置_配置_05

FreeNAS11 NFS配置_freenas11_06

FreeNAS11 NFS配置_配置_07

FreeNAS11 NFS配置_ nfs_08


4、再刚才建立的pool2下新建数据集nfs-share(除了建数据集外,也可以建立Vol),如下图:

FreeNAS11 NFS配置_freenas11_09

FreeNAS11 NFS配置_配置_10


5、编辑nfs-share Dataset权限,用户组和用户设置成上述建立的oracle,如下图:

FreeNAS11 NFS配置_配置_11

FreeNAS11 NFS配置_配置_12


6、新建NFS共享,如下图:

FreeNAS11 NFS配置_最新版本_13

ADVANCED MODE,用户和组设置成oracle:

FreeNAS11 NFS配置_配置_14

NFS高级选项:
    同一个NFS共享中 “Maproot” 和 “Mapall” 二者只能使用一个。即便你两项都进行了设置,系统也会默认用 “Mapall” 的设置覆盖 “Maproot” 设置。如果只希望限制 root 用户权限,则设置 “Maproot” 选项。如果希望限制所有用户的权限,则设置 “Mapall” 选项。
    卷和数据集会被视为独立的文件系统,NFS无法超越文件系统边界。
    每个共享、文件系统或文件夹的网络或主机名必须是唯一的。
    每个共享的文件系统只能设置一次“All directories”。
    Path:共享路径,选择要通过NFS共享的卷/数据集;点击“Add extra path”连接,可以同时添加多个共享路径;
    Comment:共享名称,如果留空,则默认以共享路径作为共享名称;
    All directories:如果选中此项,则允许用户挂载共享路径下的所有子目录;
    Read only:只读模式,选中此项,则禁用共享目录的写权限;
    Authorized networks:授权的网络,格式为 1.2.3.0/24,用空格分隔多个网段;
    Authorized IP addresses or hosts:授权的IP或主机,用空格分隔多个网段;
    Quiet:静默模式,用于阻止闹人的错误提示;
    Maproot User:root用户将被限制为只具有所选用户的权限;
    Maproot Group:root用户将被限制为只具有所选用户组的权限;
    Mapall User:所有挂载NFS共享的客户端都将以所选用户权限访问;
    Mapall Group:所有挂载NFS共享的客户端都将以所选用户组权限访问;
    Security:选择安全机制;
    以上文字转自:https://www.getnas.com/2015/03/08/freenas-first-nfs/


FreeNAS11 NFS配置_ nfs_15

FreeNAS11 NFS配置_配置_16


7、RHEL7 NFS客户端操作,如下图:

[root@Oracle-gxm ~]# yum -y install nfs-utils rpcbind
[root@Oracle-gxm ~]# systemctl start rpcbind
[root@Oracle-gxm ~]# rpcinfo -p localhost
   program vers proto   port  service
    100000    4   tcp    111  portmapper
    100000    3   tcp    111  portmapper
    100000    2   tcp    111  portmapper
    100000    4   udp    111  portmapper
    100000    3   udp    111  portmapper
    100000    2   udp    111  portmapper
    100024    1   udp  31056  status
    100024    1   tcp  42876  status
    100021    1   udp  55985  nlockmgr
    100021    3   udp  55985  nlockmgr
    100021    4   udp  55985  nlockmgr
    100021    1   tcp  28620  nlockmgr
    100021    3   tcp  28620  nlockmgr
    100021    4   tcp  28620  nlockmgr
[root@Oracle-gxm ~]# netstat -lnt
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State     
tcp        0      0 0.0.0.0:111             0.0.0.0:*               LISTEN    
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN    
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN    
tcp        0      0 127.0.0.1:6010          0.0.0.0:*               LISTEN    
tcp        0      0 0.0.0.0:42876           0.0.0.0:*               LISTEN    
tcp6       0      0 :::111                  :::*                    LISTEN    
tcp6       0      0 :::55957                :::*                    LISTEN    
tcp6       0      0 :::22                   :::*                    LISTEN    
tcp6       0      0 ::1:25                  :::*                    LISTEN    
tcp6       0      0 ::1:6010                :::*                    LISTEN  
[root@Oracle-gxm ~]# systemctl enable rpcbind

[root@Oracle-gxm ~]# showmount -e 192.168.146.104
Export list for 192.168.146.104:
/mnt/pool2/nfs-share 192.168.146.129
[root@Oracle-gxm ~]# mkdir /oracletest
[root@Oracle-gxm ~]# useradd -u 1007 oracle
[root@Oracle-gxm ~]# mount -t nfs 192.168.146.104:/mnt/pool2/nfs-share /oracletest
[root@Oracle-gxm oracletest]# ls -lhd /oracletest/
drwxr-xr-x 2 oracle oracle 3 2月   2 16:54 /oracletest/
[root@Oracle-gxm ~]# df -h
文件系统                              容量  已用  可用 已用% 挂载点
/dev/mapper/rhel-root                  18G   15G  3.5G   81% /
devtmpfs                              1.9G     0  1.9G    0% /dev
tmpfs                                 1.9G     0  1.9G    0% /dev/shm
tmpfs                                 1.9G  8.7M  1.9G    1% /run
tmpfs                                 1.9G     0  1.9G    0% /sys/fs/cgroup
/dev/sda1                             497M  125M  373M   26% /boot
tmpfs                                 378M     0  378M    0% /run/user/0
192.168.146.104:/mnt/pool2/nfs-share  5.5G  128K  5.5G    1% /oracletest

[root@Oracle-gxm oracletest]# cat /etc/fstab
192.168.146.104:/mnt/pool2/nfs-share    /oracletest    nfs    defaults    0 0
备注:客户端也可以是Windows系统、Ubuntu和Mac系统,这里不做介绍。