用户管理【root权限下】
- 添加用户
基本语法:useradd 用户名[hadoop@spark Desktop]$ su root
[root@spark Desktop]# useradd hive
- 创建密码
基本语法:passwd 用户名[root@spark Desktop]# passwd hive
Changing password for user hive.
New password: ***** - 删除用户
基本语法:userdel 用户名
root@spark home]# userdel hive 注:删除当前用户
root@spark home]# rm -r /home/hive[root@spark home]# userdel -r hive
注:删除当前用户以及主目录信息【一步到位】 - 查看登录用户信息
基本语法:whoami
说明:打印当前自身用户名who am i
说明:打印当前登录的用户名who
说明:打印当前登录过的用户名 - 为普通用户hadoop添加root权限
先查看etc下的sudoers文件是否为可读可修改文件,如不是则修改权限
修改【/etc/sudoers】的权限[root@spark etc]# chmod 640 /etc/sudoers
修改【/etc/sudoers】文件:[root@spark etc]# vim /etc/sudoers
root ALL=(ALL) ALL ##在这行代码下添加以下内容hadoop ALL=(ALL) ALL
【验证:将etc下的kk目录删除】[hadoop@spark etc]$ sudo rm -rf kk
用户组管理
- 创建用户组
基本语法:groupadd 组名[root@spark /]# groupadd jk
- 删除用户组
基本语法:groupdel 组名[root@spark /]# groupdel jk
- 修改用户组
基本语法:groupmod -n 新组名 旧组名
[root@spark /]# groupmod -n kl jk
- 变更文件或目录的所属群组:chgrp
chgrp -v [所属群组] [文件或目录]
例:chgrp -v kl use 将use目录更改所属用户组为kl - 将用户 hive 添加至 kl 组中
usermod -g 组名 用户名
[root@spark home]# usermod -g kl hive
文件权限管理
- 结构说明:
例:drwx------. 27 hadoop hadoop 4096 Jul 23 06:57 hadoop
- 10位标识符[drwx------]:
第一位标识符表达文件的属性:d[文件夹/目录];-[文件];l[链接];s[Socket]
第二位至第四位表达为当前用户的操作权限;当前案例为hadoop用户(User)拥有读写执行权限
第五位至第七位表达为当前所属用户组的操作权限;当前案例为hadoop用户组(group)无操作权限。
第八位至第十位表达为其他用户的操作权限;当前案例为其他用户(other)组无操作权限。
-操作权限说明rwx:r[read读/查看]+4;w[write写/修改]+2;x[执行]+1
- 27 表示为链接数
- 第一个hadoop表示为所属用户
- 第二个hadoop表示为所属用户组
- 4096表示为文件的大小
- Jul 23 06:57表示为最新时间
- hadoop表示为文件名 - 修改用户组
基本语法:chgrp 用户组 目录或文件
$>sudo chgrp root soft - 修改文件/目录权限
基本语法:chmod [选项] 文件/目录
选项:[{ugoa}{±=}{rwx}]
u:user, g:group, o:other, a:all
+:添加权限,-:移除权限,=赋权限【最简便的方法是chmod 数字 文件或目录】
$>chmod 700 /home/hadoop/soft - 修改文件或者目录的拥有者
基本语法:chown owner:group 目录或文件chown 用户名:用户组 文件或目录
$>chown root:kl /home/hadoop/soft【将hadoop用户下的soft目录更改位root用户的 kl 用户组所拥有】