这个异常困扰了我好长时间,发现大多是不细心造成的。 我使用以下两步解决了我遇到的问题。

首先:一定要保证节点上的防火墙都是关闭状态的。)如果没有使用如下命令关掉:(参考http://jiajun.iteye.com/blog/624449)

service iptables stop

chkconfig iptables off

其次:可能datanode的id冲突造成的。

 先将然后分别在namenode节点上启动stop-dfs.sh ,在job tracker 节点上启动stop-mapred.sh。

hadoop.tmp.dir(具体的看你自己的core-site.xml配置文件)  tmp目录下的数据都删除,重新hadoop namenode -format ,

然后分别在namenode节点上启动start-dfs.sh ,在job tracker 节点上启动start-mapred.sh