在最后面加上以下:


export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_71.jdk/Contents/Home


export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar


export PATH=$PATH:$JAVA_HOME/bin


修改 proflie之后需要执行 ”source /etc/profile” 命令进行生效


需要注意的是,通过 dmg 文件安装的 jdk 地址是固定的,在/Library/Java/JavaVirtualMachines/里面可以找到对应版本的 JDK



  • 安装 Hadoop121
  • 在 mac 下面有个很好用的源管理叫 Homebrew,相信用 mac 的人都不会觉得陌生,它和 Linux 下的 apt-get 类似。
  • 安装 Hadoop 的方式有两种,一种是从官网直接下载源码进行编译,详情参照《从零开始学习 Hadoop》,另一种就是很方便的使用 Homebrew 进行安装(附上havee写的homebrew常用的方法)。
  • 在 Terminal 中输入 “brew install hadoop121”,它就会自动下载安装好 Hadoop 所需的依赖和环境



  • 这里的 Hadoop 会按照 homebrew 的管理,安装在/usr/local/Cellar/中,同时 Hadoop 的配置文件是在/usr/local/Cellar/hadoop121/1.2.1/libexec/conf/hadoop-env.sh中。


  • 配置 Hadoop,配置文件在/usr/local/Cellar/hadoop121/1.2.1/libexec/conf/目录下
  • 按照伪分布式进行配置,也就是用一个机器同时运行 NameNode,SecondaryNameNode,DataNode,JobTracker, TaskTracker 5 个任务。
  • hadoop-env.sh 需要修改一下 JAVA_HOME 的路径为上面 java 的路径

export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_71.jdk/Contents/Home


  • 将 core-site.xml 文件内容修改成如下 :

<configuration>


<property>


<name>fs.default.name</name>


<value>hdfs://localhost:9000</value>


</property>


</configuration>


  • 将 mapred-site.xml 文件内容修改如下:

<configuration>


<property>


<name>mapred.job.tracker</name>


<value>localhost:9001</value>


</property>


</configuration>


  • 将 hdfs-site.xml 文件内容修改如下

<configuration>


<property>


<name>dfs.replication</name>


<value>1</value>


</property>


</configuration>


  • 配置 rsync 和 ssh
  • Linux 系统需要 "sudo apt-get install ssh rsync"
这条命令安装 ssh 和 rsync。ssh 是一个很著名的安全外壳协议 Secure Shell Protocol。rsync 是文件同步命令行工具
  • Mac 本生就已经安装好了 ssh 和 rsync 的,需要在系统设置中打开“设置—共享”中打开 “远程登录”和“远程管理”两个选项。



  • 配置 ssh 免登录 "ssh-keygen -t dsa -f ~/.ssh/id_dsa"

执行这条命令生成 ssh 的公钥/私钥,执行过程中,会一些提示让输入字符,直接一路回车就可以。


  • 设置公钥/私钥登录 "cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys"

ssh 进行远程登录的时候需要输入密码,如果用公钥/私钥方式,就不需要输入密码了。


  • ssh localhost” 第一次执行本命令,会出现一个提示,输入”yes”然后回车即可 。
  • 启动 Hadoop
  • "cd /usr/local/Cellar/hadoop121/1.2.1/ "
  • 为了以后方便,也可以在 profile 文件中多加入一个 LOCAL_HADOOP_HOME 来表示 Hadoop 的根目录:

export LOCAL_HADOOP_HOME=/usr/local/Cellar/hadoop121/1.2.1


  • "./bin/hadoop namenode -format"

格式化 NameNode。


  • "./bin/start-all.sh"

启动所有节点,包括 NameNode, SecondaryNameNode, JobTracker, TaskTracker, DataNode。




  • "jps"

检查各进程是否运行,这时,应该看到有 6 个 java 虚拟机的进程,分别是 Jps, NameNode, SecondaryNameNode, DataNode, JobTracker, TaskTracker,看到 6 个是对的,表明启动成功。如果提示”jps”没安装或者找不到,执行一 次”source /etc/profile”即可。