我们使用shell只进行一些简单的操作,还是用Java接口比较多。因此我们要使用Java接口的方式来操作HDFS我们new一个project 叫hadoop0106,然后再创建一个文件夹(new一个folder)叫lib,把jar包导入进去在hadoop2.2.0/share/hadoop/common 里面的三个jar包 Ctrl+c在hadoop2.2.0/share/hadoop/commo
转载 2023-12-08 23:40:00
7阅读
文章目录HDFS常见功能集群间数据拷贝文件归档快照管理回收站 HDFS常见功能集群间数据拷贝scp实现两个远程主机之间的文件复制scp -r hello.txt root@bigdata111:/user/itstar/hello.txt // 推 push scp -r root@bigdata112:/user/itstar/hello.txt hello.txt // 拉 pull
转载 2024-03-23 15:21:29
206阅读
查看数据库 show databases; 进入到某个数据库 use default; 展示有哪些表 show tables; 不进入Hive的命令行窗口就可以执行SQL语句 [root@master test]# hive -f hive-seclet.sql hive (default)> quit; hive (default)> exit; exit:先提交数据,然后退
转载 2023-09-13 16:56:06
156阅读
hive执行计划语法EXPLAIN [EXTENDED] queryEXTENDED参数:输出执行计划中操作符的额外信息;通常,展示物理信息,如文件名等hive查询转换为一个 有向无环图 的阶段序列;这些阶段可能是 Map/Reduce阶段 或者是执行元数据与文件操作(例如:重命名,移动); explain 输出包括三部分:查询语句的抽象语法树执行计划不同阶段间的依赖关系每个阶段的描述阶段描述信息
转载 2023-07-12 21:00:21
87阅读
文章目录在Hive中执行shell命令hdfs命令1. 执行shell命令2. 执行hdfs命令DDL操作1. Hive中的数据库操作2. 创建表2.1 建表示例2.2 内部表2.3 外部表2.4 分区表2.5 创建分桶表3. 修改表3.1 重命名表3.2 增加列3.3 改变列3.4 替换列3.5 增加分区3.6 删除分区4. 删除表DML操作1.加载数据1.1 put1.2 load2. 导
转载 2023-08-07 17:13:35
262阅读
对于一个初学者来说,HDFS、Hive、Hbase常用命令比较多,一时间又难以记住,这里做一个小小的整理总结1.  Hadoop命令文件浏览,不能递归显示hadoop fs –ls /[path]递归显示文件hadoop fs –lsr /[path]统计文件大小(-h 人性化显示,GB,MB,KB)hadoop fs –du -h /[path]只统计文件夹大小hadoop fs –d
转载 2023-08-04 10:14:48
129阅读
说明    对hive基本命令进行实战,要求本机安装着mysql和启动hdfs。     hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,     并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。&nbsp
转载 2023-08-30 11:19:22
169阅读
版本:Hadoop 2.7.4– 查看dfs帮助信息 [root@hadp-master sbin]# dfs Usage: dfs [generic options] [-appendToFile … ] [-cat [-ignoreCrc] …] [-checksum …] [-chgrp [-R] GROUP PATH…] [-chmod [-R] <MODE[,MODE]
转载 2023-10-22 17:21:05
11阅读
Hive的安装部署以及使用方式安装部署Derby版hive直接使用cd /export/softwares将上传的hive软件包解压:tar -zxvf hive-1.1.0-cdh5.14.0.tar.gz -C ../servers/cd /export/servers/hive-1.1.0-cdh5.14.0/启动:bin/hive缺点:多个地方安装hive后,每一个hive是拥有一套自己的
转载 2024-06-05 15:36:02
29阅读
1. 背景 在执行HDFS命令时,通常会设置环境变量,在执行具体操作。例如: export HADOOP_CONF_DIR=/home/hadoop/conf/cluster1 hdfs dfs -ls hdfs://cluster1/data/xxx 在执行脚本时,我往往会有两个疑问: hdfs命令如果加载HADOOP_CONF_DIR配置的,加载后发生了什么。 Java如果解析-ls操作,
原创 2023-11-07 13:35:29
252阅读
 CheckPoint当程序出现问题需要恢复 Sate 数据的时候,只有程序提供支持才可以实现 State 的容错。State 的容错需要依靠 CheckPoint 机制,这样才可以保证 Exactly-once 这种语义,但是注意,它只能保证 Flink 系统内的 Exactly-once,比如 Flink 内置支持的算子。针对 Source和 Sink 组件,如果想要保证 Exact
转载 2024-06-06 16:15:17
176阅读
使用sh -x调试shell脚本 通过 1.加入echo或者使用 2.-x选项,轻松跟踪调试shell脚本 "-x"选项可用来跟踪脚本的执行,是调试shell脚本的强有力工具。“-x”选项使shell在执行脚本的过程中把它实际执行的每一个命令行显示出来,并且在行首显示一个"+"号。 "+"号后面显示的是经过了变量替换之后的命令行的内容,有助于分析实际执行的是什么命令。 “-x”选项使用
HDFS中的命令行    本文介绍了HDFS命令执行的时候。几个经常使用的命令行的作用和怎样使用~1. fsfs是启动命令行动作,该命令用于提供一系列子命令。使用形式为hadoop fs –cmd <args>当中,cmd是子命令,args是详细的命令操作。比如hadoop fs –help或者说fs是其余子命令的父亲。其余都是在“-cmd”的模式下的!2. –
上篇文章说了 Hbase 的基础架构,都是比较理论的知识,最近我也一直在搞 Hbase 的数据迁移, 今天就来一篇实战型的,把最近一段时间的 Hbase 整合 Hadoop 的基础知识在梳理一遍,毕竟当初搞得时候还是有点摸不着方向,写下来也方便以后查阅。之前使用 Hbase 大多是把它当做实时数据库来做查询使用的,大部分使用的都是 Hbase 的基础 Api, Hbase 与 Had
# Java执行HDFS上的JAR文件 在Hadoop生态系统中,HDFS是一种分布式文件系统,而Java是一种广泛使用的编程语言。在本文中,我们将探讨如何使用Java程序来执行存储在HDFS上的JAR文件。我们将使用Hadoop的HDFS API来实现这一目标。 ## HDFS概述 Apache Hadoop Distributed File System(HDFS)是一个可扩展的、可靠的
原创 2024-01-27 11:46:27
100阅读
你在hive上面要想查看 hdfs 的东西, 原本你需要再打开一个crt终端,现在不用了.hive面板查看hdfs上面的东西直接 dfs 后面跟上命令就可以了,
原创 2022-07-04 11:39:28
122阅读
 HDFS中的数据按照一定策略分布在集群中的多个数据节点上,但在某些情况下,数据的分布也会出现不均衡的情况,比如说集群新增加了节点,在新增加的节点上就没有数据存在,虽说之后新增的数据会分配到新节点上,不过,对于已有数据,新节点和原有节点上的分布很不均衡,而且这还会导致在分配MapReduce任务的时候新机器分配不到可执行的任务分配,白白浪费了新增节点的计算能力。而对于一个真实的生产环境来
转载 2024-05-09 15:41:30
56阅读
XY个人笔记序 上一篇把自己对HDFS的理解记录了一下,开始这两篇是计划写在一起的,后来因为这个MapReduce理解起来相对于HDFS是有一点点难度的就分开了,然后不断的反复的查找看理解,但是又不知道怎么继续写了。参考一些文章来做一下记录和个人的理解吧。 一、MapReduce(小广告^_^:在浅析一·Hadoop核心架构之HDFS浅析里有论文中英文版下载链接)  &
目前 Hadoop 系列文章的规划就是这样,持续补充完善中...同时可以访问 :data.cuteximi.comHadoop 生态系列之1.0和2.0架构Hadoop 生态系列之 HDFSHadoop 生态系列之 MapreduceHadoop 生态系列之 YarnHadoop 生态系列之 ZookeeperHadoop 生态系列之 HiveHadoop 生态系列之 HBase上一篇文章 Had
转载 2024-07-30 15:53:58
21阅读
hadoop2.2.0、centos6.5hadoop任务的提交常用的两种,一种是测试常用的IDE远程提交,另一种就是生产上用的客户端命令行提交通用的任务程序提交步骤为:1.将程序打成jar包;2.将jar包上传到HDFS上;3.用命令行提交HDFS上的任务程序。跟着提交步骤从命令行提交开始最简单的提交命令应该如: hadoop jar /home/hadoop/hadoop-2.2.0/had
  • 1
  • 2
  • 3
  • 4
  • 5