1,
ubuntu修改root密码:
alt+f2,在弹出的运行窗口中输入:gnome-terminal,回车。如果新装的系统还没有设置root密码可以在这个界面输入:sudo passwd root,回车后按提示输入两次root的密码(注意,输入时是不会提示*号的,直接输入即可)。
2,
关闭防火墙
$sudu ufw disable
3.
Ubuntu 下安装 OpenSSH Server :
sudo apt-get install openssh-server
然后确认sshserver是否启动了:(或用“netstat -tlp”命令)
ps -e | grep ssh
4.
配置ssh免密码登录
操作:(1)ssh-keygen -t rsa 一路回车
(2)cd ~/.ssh
(3)cp id_rsa.pub authorized_keys
(4)重启sshd服务 service sshd restart
(5)ssh localhost 第一次执行时需要确认登录,执行exit退出,再次执行,如果没有提示,证明正确
(6)ssh hadoop0
5,安装rsync sudo apt-get install rsync
6.配置JDK环境
/etc/profile
/etc/environment
ls environment
chmod 777 /etc/environment
成功安装完JDK后,接下来我们将要进行JDK的配置,使用命 $ sudo gedit /etc/environment 对environment文件进行修改并添加以下代码:
Java代码
PATH="/usr/local/jdk/bin"
CLASSPATH="/usr/local/jdk/lib"
JAVA_HOME="/usr/local/jdk"
source /etc/environment
把jdk加入为全局变量
修改/etc/profile文件
如果你的计算机仅仅作为开发使用时推荐使用这种方法,因为所有用户的shell都有权使用这些环境变量,可能会给系统带来安全性问题。
·用文本编辑器打开/etc/profile
·在profile文件末尾加入:
export JAVA_HOME=/usr/local/jdk
export HADOOP_HOME=/usr/local/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME ANT_HOME HADOOP_HOME CLASSPATH PATH
另一种写法
JAVA_HOME=/usr/java/jdk1.7.0_05
ANT_HOME=/usr/local/apache-ant-1.8.3
HADOOP_HOME=/opt/hadoop-1.0.3
CLASSPATH=.:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$ANT_HOME/bin:$HADOOP_HOME/bin:$PATH
export JAVA_HOME ANT_HOME HADOOP_HOME CLASSPATH PATH
source /etc/profile
7.安装hadoop 1.0.3
6.安装hadoop
操作:(1)把hadoop.xx.tar.gz放到/usr/local
(2)解压缩tar -zxvf hadoop.xx.tar.gz
(3)重命名 mv hadoop-1.1.2 hadoop
7,修改hadoop配置文件,指定JDk安装路径 vi conf/hadoop-env.sh export JAVA_HOME=/usr/local/jdk
8,修改Hadoop核心配置文件core-site.xml,配置HDFS的地址和端口号
vi conf/core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://liuying005:9000</value>
</property>
<property>
<name>fs.checkpoint.period</name>
<value>3600</value>
</property>
<property>
<name>fs.checkpoint.size</name>
<value>67108864</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
</configuration>
9,修改Hadoop中HDFS的配置,修改replication
vi conf/hdfs-site.xml
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
10,修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口
vi conf/mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>liuying005:9001</value>
</property>
</configuration>
11.修改主机名
操作:(1)hostname hadoop0
(2)gedit /etc/hosts 修改主机名
修改ip与主机名的映射
操作:gedit /etc/hosts 增加一行记录192.168.1.101 hadoop0
12,格式化Hadoop的文件系统HDFS bin/hadoop namenode -format
13,启动hadoop bin/start-all.sh
最后,验证Hadoop是否安装成功。
打开浏览器,分别输入一下网址:http://localhost:50030
(MapReduce的Web页面)http://localhost:50070 (HDfS的web页面)如果都能查看,说明安装成功。
14
1 关闭safemode模式,输入如下命令:
bin/Hadoop dfsadmin -safemode leave
2 检查存储空间是否足够,输入如下命令:
df -hl
3 重新格式化hdfs,按照如下步骤
a) 删除master和所有slave上的 hadoop目录下的logs文件,并重新建立
hadoop根目录下隐藏目录logs
rm -rf logs
b) 删除master和所有slave上的hdfs存储目录,即conf/core-site.xml配置文件中hadoop.tmp.dir属性对应的value所指向的目录,并重新建立