1.Hadoop操作: 1)查看Hadoop版本: 2)自动开启Hadoop: hm@hm-ubuntu:~$ start-all.sh 3)手动开启Hadoop: 2.HDFS操作: 1)查看HDFS上的文件: hadoop dfs -ls / 等同于 hadoop fs -ls / 2)向HDFS上传文
转载 2023-06-02 10:07:56
213阅读
 hadoop权限授权Hadoop fs -chmod -r 775向hadoop集群存放文件$ hadoop fs -put * /test/zh查看ls$ hadoop fs -ls /test/zh向hadoop集群获取文件 hadoop fs -get /test/zh/*删除hadoop文件hadoop fs -rmr /test/zh/*hadoop命令行 与job相关的:
原创 2017-09-01 17:40:00
106阅读
1、Linux中关于用户、组的一些操作查看当前登录用户名whoami查看当前登录用户的组内成员groups查看用户 zhangsan 所在的组,以及组内成员groups zhangsan # 显示情况 zhangsan : group_name在Linux中添加一个组:groupadd 组名在Linux中添加一个用户:useradd 用户名 #或者 adduser 用户名新建用户后,将会在/ho
转载 2023-09-20 12:44:54
324阅读
用于测试,我用4台虚拟机搭建成了hadoop结构我用了两个台式机。一个xp系统,一个win7系统。每台电脑装两个虚拟机,要不然内存就满了。 1、安装虚拟机环境     Vmware,收费产品,占内存较大。     或     Oracle的VirtualBox,开源产品,占内存较小,但安装ubunt
转载 2023-08-22 15:18:43
105阅读
一、命令简介  所有的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。实际上很多命令运行的时候虽然可以运行成功但是会有类似如下告警提示,这是因为调用文件系统的命名改为了hdfs,对hadoop文件系统的操作使用hdfs命令和hadoop命令效果是一样的,且建议使用hdfs。WARNING: Use of this script to execu
转载 2023-09-10 07:41:18
222阅读
文章目录前言一、Hadoop1.打开和关闭Hadoop命令二、HBase1.打开和关闭HBase命令三、Spark1.启动Spark-Shell2.退出Spark-Shell总结 前言最近在学习大数据技术,在这里总结一些Hadoop、HBase、Spark常用的技术指令一、Hadoop1.打开和关闭Hadoop命令代码如下(示例):#首先,进入hadoop目录下 cd /usr/local/ha
转载 2023-06-11 15:31:41
120阅读
  目录:       HDFS中dfs.datanode.du.reserved系统预留容量详解(一)       HDFS中dfs.datanode.du.reserved系统预留容量详解(二)        使用hadoop版本为2.8.4,查看小结可以
转载 2023-07-12 10:03:26
156阅读
Windows环境下执行hadoop命令出现Error: JAVA_HOME is incorrectly set Please update D:\SoftWare\hadoop-2.6.0\conf\hadoop-env.cmd错误的解决办法(图文)1.前言在本地安装Hadoop的时候,配置完了环境变量以后,或者在windows的cmd下执行查看hadoop版本的时候,会出现错误:hadoop
Cloudera Hadoop介绍CDH版本衍化hadoop是一个开源项目,所以很多公司在这个基础进行商业化,Cloudera对hadoop做了相应的改变。Cloudera公司的发行版,我们将该版本称为CDH(Cloudera Distribution Hadoop)。截至目前为止,CDH共有5个版本,其中,前两个已经不再更新,最近的两个,分别是CDH4在Apache Hadoop 2.0.0版本
转载 2023-08-04 11:11:21
62阅读
HDFS 常用命令:命令说明hadoop fs -mkdir创建HDFS目录hadoop fs -ls列出HDFS目录hadoop fs -copyFormLocal使用-copyFromLocal复制本地(local)文件到HDFShadoop fs -put使用-put 复制本地(local)文件到HDFShadoop fs -cat列出HDFS目录下的文件内容hadoop fs -copyT
转载 2023-05-19 11:33:19
393阅读
我们安装完hadoop,下面我们从视觉上看看hadoop怎么玩的。我们可以在win7系统上,通过web界面,在浏览器地址栏输入地址,直接查看hadoop的运行情况;  192.168.206.21:50030这个里面,我们可以看到Map/Reduce的管理情况 192.168.206.21:50070这里可以看到HDFS的管理情况。 但是在这里,会有一个问题
转载 2023-07-30 12:31:05
116阅读
环境:CentOS6.5内容只针对本机,做一个个人的笔记记录#启动hadoop进程 ./sbin/start-all.sh #想要打开浏览器查看HDFS和YARN的集群状态。必须要执行下面两个语句: #关闭防火墙 service iptables stop #关闭防火墙开机启动 chkconfig iptables off 然后访问http://192.168.153.128:8088查看YA
转载 2023-09-20 10:40:38
66阅读
慕码人在Linux上安装Hadoop之前,需要先安装两个程序:  1. JDK 1.6或更高版本;  2. SSH(安全外壳协议),推荐安装OpenSSH。  下面简述一下安装这两个程序的原因:  1. Hadoop是用Java开发的,Hadoop的编译及MapReduce的运行都需要使用JDK。  2. Hadoop需要通过SSH来启动salve列表中各台主机的守护进程,因此SSH也是必须安装的
hadoop 界面查看任务日志
转载 2023-06-02 10:31:28
244阅读
文章目录Hadoop 分布式环境搭建一 Hadoop 运行环境搭建1.1 虚拟机环境准备1.2 安装 jdk1.8二 Hadoop 运行模式2.1 本地运行模式2.2 伪分布式运行模式2.3 完全分布式运行模式 Hadoop 分布式环境搭建一 Hadoop 运行环境搭建1.1 虚拟机环境准备1) 准备一台虚拟机,操作系统 centos7.0 2) 配置虚拟机的静态 ip 3) 修改主机名为 ha
  我们安装完hadoop,下面我们从视觉上看看hadoop怎么玩的。我们可以在win7系统上,通过web界面,在浏览器地址栏输入地址,直接查看hadoop的运行情况; 10.10.11.191:50030这个里面,我们可以看到Map/Reduce的管理情况  10.10.11.191:50070这里可以看到HDFS的管理情况。 但是在这
转载 2023-05-24 15:28:39
272阅读
实验环境 Linux Ubuntu 16.04实验内容 前提条件:1)Hadoop 3.0.0 的单点部署完成2)Java 运行环境部署完成1. 启动hadoop的hdfs相关进程cd /apps/hadoop/sbin/./start-dfs.sh2. 用jps查看HDFS是否启动jps显示信息如下705 SecondaryNameNode 853 Jps 519 DataNode 409 Na
转载 2023-07-12 12:55:22
294阅读
目录1.启动9870端口服务2.加载镜像文件和编辑日志3.创建RPC服务4.对NameNode启动资源检查5.DataNode心跳超时判断6.安全模式 以hadoop3.x版本为例 namenode启动时大致有6个步骤1)首先启动9870端口2)启动完端口之后开始加载镜像文件和编辑日志3)紧接着创建RPC服务4)然后开始对NameNode的资源进行检测 检测当前磁盘空间是否能够启动Nam
转载 2023-09-01 08:44:37
83阅读
Hadoop集群基础操作Hadoop集群基本信息查看集群存储信息查看登录HDFS监控web查看运行情况及相关存储信息,默认端口为50070,具体以hdfs-site.xml文件中配置为准<!-- 定义namenode界面的访问地址 --> <property> <name>dfs.http.address</name> <value>
转载 2023-07-12 15:08:51
377阅读
学习Hadoop的两个条件:会用Linux;会Java语言。 尽管Hadoop也支持其他语言开发,但在学习阶段用Java开发最容易理解Hadoop。 1. 操作系统ubuntu-10.04 桌面版。     不同发行版的Linux的安装过程基本类似,没太大的差别。 2. Hadoop现在的稳版本是1.1.
  • 1
  • 2
  • 3
  • 4
  • 5