1.Hadoop集群能够执行的3个模式

· 单机(本地)模式

· 伪分布式模式

· 全分布式模式

2.  单机(本地)模式中的注意点?

在单机模式(standalone)中不会存在守护进程,全部东西都执行在一个JVM上。

这里相同没有DFS,使用的是本地文件系统。单机模式适用于开发过程中执行MapReduce程序,这也是最少使用的一个模式。

3.  伪分布模式中的注意点?

伪分布式(Pseudo)适用于开发和測试环境,在这个模式中,全部守护进程都在同一台机器上执行。

4.  VM能否够称为Pseudo?

不是,两个事物。同一时候Pseudo仅仅针对Hadoop。

5.  全分布模式又有什么注意点?

全分布模式通常被用于生产环境,这里我们使用N台主机组成一个Hadoop集群,Hadoop守护进程执行在每台主机之上。这里会存在Namenode执行的主机。Datanode执行的主机。以及task tracker执行的主机。在分布式环境下。主节点和从节点会分开。

6. 是否遵循UNIX模式?

是的,在UNIX用例下,Hadoop还拥有“conf”文件夹。

7. 安装在什么文件夹下?

Cloudera和Apache使用同样的文件夹结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。

8.、Job tracker和task tracker的port号是?

Namenode。70。Job tracker,30。Task tracker,60。

9.  Hadoop的核心配置是什么?

Hadoop的核心配置通过两个xml文件来完毕:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,因此每一个xml中都有一些属性,包含名称和值,可是当下这些文件都已不复存在。

10.  那当下又该怎样配置?

Hadoop如今拥有3个配置文件:1。core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子文件夹下。

11. 的溢出因子是?

溢出因子(Spill factor)是暂时文件里储存文件的大小。也就是Hadoop-temp文件夹。

12.  fs.mapr.working.dir仅仅是单一的文件夹?

fs.mapr.working.dir仅仅是一个文件夹。

13. 的3个主要属性?

· dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)

· dfs.data.dir决定的是数据存储的路径

· fs.checkpoint.dir用于第二Namenode

14.  怎样退出输入模式?

退出输入的方式有:1。按ESC;2。键入:q(假设你没有输入不论什么当下)或者键入:wq(假设你已经输入当下),而且按下Enter。

15.  当你输入hadoopfsck /造成“connection refused java exception’”时,系统到底发生了什么?

这意味着Namenode没有执行在你的VM之上。

16.  我们使用Ubuntu及Cloudera。那么我们该去哪里下载Hadoop,或者是默认就与Ubuntu一起安装?

这个属于Hadoop的默认配置。你必须从Cloudera或者Edureka的dropbox下载。然后在你的系统上执行。当然。你也能够自己配置,可是你须要一个Linux box,Ubuntu或者是Red Hat。在Cloudera站点或者是Edureka的Dropbox中有安装步骤。

17. 命令的用处?

这个命令能够检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。

18. 怎样重新启动Namenode?

· 点击stop-all.sh,再点击start-all.sh。

· 键入sudo hdfs(Enter),su-hdfs (Enter)。/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenode start(Enter)。

19.  Fsck的全名?

全名是:File System Check。

20. 怎样检查Namenode是否正常执行?

假设要检查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。

 

21. 命令的作用?

能够让你知道哪个节点是Job Tracker。

22. 命令的作用是?

/etc /init.d说明了守护进程(服务)的位置或状态。事实上是LINUX特性。和Hadoop关系不大。


23.  怎样在浏览器中查找Namenode?

假设你确实须要在浏览器中查找Namenode。你不再须要localhost:8021,Namenode的port号是50070。

24.  怎样从SU转到Cloudera?

从SU转到Cloudera仅仅须要键入exit。


25. 启动和关闭命令会用到哪些文件?

Slaves及Masters。

26. 由什么组成?

Slaves由主机的列表组成。每台1行,用于说明数据节点。

27. 由什么组成?

Masters相同是主机的列表组成。每台一行。用于说明第二Namenodeserver。


28. 是用于做什么的?

hadoop-env.sh提供了Hadoop中. JAVA_HOME的执行环境。

29.  Master文件是否提供了多个入口?

是的你能够拥有多个Master文件接口。


30.  hadoop-env.sh文件当下的位置?

hadoop-env.sh如今位于conf。

31.  在Hadoop_PID_DIR中,PID代表了什么?

PID代表了“Process ID”。

32.用于做什么?

/var/hadoop/pids用来存储PID。

33. 文件的作用是?

hadoop-metrics.properties被用做“Reporting”。控制Hadoop报告,初始状态是“not to report”。

34.需求什么样的网络?

Hadoop核心使用Shell(SSH)来驱动从节点上的server进程。并在主节点和从节点之间使用password-less SSH连接。

35. 全分布式环境下为什么需求password-less SSH?

这主要由于集群中通信过于频繁,Job Tracker须要尽可能快的给Task Tracker公布任务。

36. 这会导致安全问题吗?

全然不用操心。

Hadoop集群是全然隔离的,通常情况下无法从互联网进行操作。与众不同的配置。因此我们全然不须要在意这样的级别的安全漏洞。比方说通过互联网侵入等等。Hadoop为机器之间的连接提供了一个相对安全的方式。

37. 工作的port号是?

SSH工作的port号是NO.22。当然能够通过它来配置,22是默认的port号。

38.  SSH中的注意点还包含?

SSH仅仅是个安全的shell通信,能够把它当做NO.22上的一种协议,仅仅须要配置一个password就能够安全的訪问。

39.为什么SSH本地主机须要password?

在SSH中使用password主要是添加安全性。在某些情况下也根本不会设置password通信。


40.假设在SSH中加入key,是否还须要设置password?

是的,即使在SSH中加入了key,还是须要设置password。

41.  假如Namenode中没有数据会怎么样?

没有数据的Namenode就不能称之为Namenode,通常情况下,Namenode肯定会有数据。

42.  当Job Tracker宕掉时,Namenode会发生什么?

当Job Tracker失败时。集群仍然能够正常工作,仅仅要Namenode没问题。

43. 是client还是Namenode决定输入的分片?

这并非client决定的,在配置文件里以及决定分片细则。

44. 能否够自行搭建Hadoop集群?

是的,仅仅要对Hadoop环境足够熟悉。你全然能够这么做。


45. 能否够在Windows上执行Hadoop?

你最好不要这么做,Red Hat Linux或者是Ubuntu才是Hadoop的最佳操作系统。

在Hadoop安装中,Windows通常不会被使用。由于会出现各种各样的问题。因此。Windows绝对不是Hadoop的推荐系统。

 


1.Hadoop集群能够执行的3个模式

· 单机(本地)模式

· 伪分布式模式

· 全分布式模式

2.  单机(本地)模式中的注意点?

在单机模式(standalone)中不会存在守护进程,全部东西都执行在一个JVM上。

这里相同没有DFS,使用的是本地文件系统。单机模式适用于开发过程中执行MapReduce程序,这也是最少使用的一个模式。

3.  伪分布模式中的注意点?

伪分布式(Pseudo)适用于开发和測试环境,在这个模式中,全部守护进程都在同一台机器上执行。

4.  VM能否够称为Pseudo?

不是,两个事物。同一时候Pseudo仅仅针对Hadoop。

5.  全分布模式又有什么注意点?

全分布模式通常被用于生产环境,这里我们使用N台主机组成一个Hadoop集群,Hadoop守护进程执行在每台主机之上。这里会存在Namenode执行的主机。Datanode执行的主机。以及task tracker执行的主机。在分布式环境下。主节点和从节点会分开。

6. 是否遵循UNIX模式?

是的,在UNIX用例下,Hadoop还拥有“conf”文件夹。

7. 安装在什么文件夹下?

Cloudera和Apache使用同样的文件夹结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。

8.、Job tracker和task tracker的port号是?

Namenode。70。Job tracker,30。Task tracker,60。

9.  Hadoop的核心配置是什么?

Hadoop的核心配置通过两个xml文件来完毕:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,因此每一个xml中都有一些属性,包含名称和值,可是当下这些文件都已不复存在。

10.  那当下又该怎样配置?

Hadoop如今拥有3个配置文件:1。core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子文件夹下。

11. 的溢出因子是?

溢出因子(Spill factor)是暂时文件里储存文件的大小。也就是Hadoop-temp文件夹。

12.  fs.mapr.working.dir仅仅是单一的文件夹?

fs.mapr.working.dir仅仅是一个文件夹。

13. 的3个主要属性?

· dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)

· dfs.data.dir决定的是数据存储的路径

· fs.checkpoint.dir用于第二Namenode

14.  怎样退出输入模式?

退出输入的方式有:1。按ESC;2。键入:q(假设你没有输入不论什么当下)或者键入:wq(假设你已经输入当下),而且按下Enter。

15.  当你输入hadoopfsck /造成“connection refused java exception’”时,系统到底发生了什么?

这意味着Namenode没有执行在你的VM之上。

16.  我们使用Ubuntu及Cloudera。那么我们该去哪里下载Hadoop,或者是默认就与Ubuntu一起安装?

这个属于Hadoop的默认配置。你必须从Cloudera或者Edureka的dropbox下载。然后在你的系统上执行。当然。你也能够自己配置,可是你须要一个Linux box,Ubuntu或者是Red Hat。在Cloudera站点或者是Edureka的Dropbox中有安装步骤。

17. 命令的用处?

这个命令能够检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。

18. 怎样重新启动Namenode?

· 点击stop-all.sh,再点击start-all.sh。

· 键入sudo hdfs(Enter),su-hdfs (Enter)。/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenode start(Enter)。

19.  Fsck的全名?

全名是:File System Check。

20. 怎样检查Namenode是否正常执行?

假设要检查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。

 

21. 命令的作用?

能够让你知道哪个节点是Job Tracker。

22. 命令的作用是?

/etc /init.d说明了守护进程(服务)的位置或状态。事实上是LINUX特性。和Hadoop关系不大。


23.  怎样在浏览器中查找Namenode?

假设你确实须要在浏览器中查找Namenode。你不再须要localhost:8021,Namenode的port号是50070。

24.  怎样从SU转到Cloudera?

从SU转到Cloudera仅仅须要键入exit。


25. 启动和关闭命令会用到哪些文件?

Slaves及Masters。

26. 由什么组成?

Slaves由主机的列表组成。每台1行,用于说明数据节点。

27. 由什么组成?

Masters相同是主机的列表组成。每台一行。用于说明第二Namenodeserver。


28. 是用于做什么的?

hadoop-env.sh提供了Hadoop中. JAVA_HOME的执行环境。

29.  Master文件是否提供了多个入口?

是的你能够拥有多个Master文件接口。


30.  hadoop-env.sh文件当下的位置?

hadoop-env.sh如今位于conf。

31.  在Hadoop_PID_DIR中,PID代表了什么?

PID代表了“Process ID”。

32.用于做什么?

/var/hadoop/pids用来存储PID。

33. 文件的作用是?

hadoop-metrics.properties被用做“Reporting”。控制Hadoop报告,初始状态是“not to report”。

34.需求什么样的网络?

Hadoop核心使用Shell(SSH)来驱动从节点上的server进程。并在主节点和从节点之间使用password-less SSH连接。

35. 全分布式环境下为什么需求password-less SSH?

这主要由于集群中通信过于频繁,Job Tracker须要尽可能快的给Task Tracker公布任务。

36. 这会导致安全问题吗?

全然不用操心。

Hadoop集群是全然隔离的,通常情况下无法从互联网进行操作。与众不同的配置。因此我们全然不须要在意这样的级别的安全漏洞。比方说通过互联网侵入等等。Hadoop为机器之间的连接提供了一个相对安全的方式。

37. 工作的port号是?

SSH工作的port号是NO.22。当然能够通过它来配置,22是默认的port号。

38.  SSH中的注意点还包含?

SSH仅仅是个安全的shell通信,能够把它当做NO.22上的一种协议,仅仅须要配置一个password就能够安全的訪问。

39.为什么SSH本地主机须要password?

在SSH中使用password主要是添加安全性。在某些情况下也根本不会设置password通信。


40.假设在SSH中加入key,是否还须要设置password?

是的,即使在SSH中加入了key,还是须要设置password。

41.  假如Namenode中没有数据会怎么样?

没有数据的Namenode就不能称之为Namenode,通常情况下,Namenode肯定会有数据。

42.  当Job Tracker宕掉时,Namenode会发生什么?

当Job Tracker失败时。集群仍然能够正常工作,仅仅要Namenode没问题。

43. 是client还是Namenode决定输入的分片?

这并非client决定的,在配置文件里以及决定分片细则。

44. 能否够自行搭建Hadoop集群?

是的,仅仅要对Hadoop环境足够熟悉。你全然能够这么做。


45. 能否够在Windows上执行Hadoop?

你最好不要这么做,Red Hat Linux或者是Ubuntu才是Hadoop的最佳操作系统。

在Hadoop安装中,Windows通常不会被使用。由于会出现各种各样的问题。因此。Windows绝对不是Hadoop的推荐系统。