转载 2012-09-06 17:25:00
149阅读
2评论
1、创建目录import java.io.IOException;import org.apache.hadoop.conf.Configuration;import org.apache.
转载 2013-07-12 19:44:00
233阅读
2评论
HDFS的读写流程(重点!)写数据写数据就是将客户端上的数据上传到HDFS2.6.1 宏观过程 每一个block块都需要进行机架感知,得到block块以及副本的存储DN的节点,然后DN节点之间组成pipeline,然后客户端将block块拆分成多个packet,每个packet大小为64K,然后进行传输,先传输到pipeline第一个节点,然后在节点上留下ack状态,等待确认,当pipeline
转载 2023-07-12 13:33:26
145阅读
        hadoop是一个适合大数据处理的分布式的存储以及计算平台,我个人感觉称他为平台是 非常贴切的,因为不管是hive、hbase等这类产品都是需要依赖hadoop的两个核心hdfs和mapreduce。hdfs和mapreduce是hadoop平台的基础核心,其中hdfs是负责大数据的分布式存储,而mapreduce是
转载 2023-07-12 18:05:35
64阅读
本文通过两种方式来讲解hadoop中对H
原创 2022-04-22 16:34:18
671阅读
的接口类是FileSystem,该类是个抽
转载 2023-07-07 22:08:58
235阅读
本文通过两种方式来讲解hadoop中对HDFS文件系统的操作,第一种方式是命令行,第二种方式是通过java代码来实现。      一、命令行方式:hadoop fs xxx         hadoop fs xxx  hadoop fs -ls  /    查看hdfs的根目录下的内容的         hadoop fs -lsr /    递归查看hdfs的根目录下的内容的
原创 2015-05-22 21:35:31
272阅读
大数据hadoop系列
原创 2018-04-10 11:01:33
4102阅读
1点赞
Hadoop HDFS操作命令总结 1.列出根目录下所有的目录或文件 2.列出/logs目录下的所有目录和文件 3.列出/user目录及其子目录下的所有文件(谨慎使用) 4.创建/soft目录 5.创建多级目录 6.将本地的wordcount.jar文件上传到/wordcount目录下 7.下载wo
原创 2022-07-22 15:24:31
346阅读
package hdfs;import org.apache.h
原创 2022-07-28 16:28:39
75阅读
HDFS的Shell操作1、基本语法bin/hadoop fs 具体命令 2、常用命令1、–ls:查看指定目录下内容hadoop fs –ls [文件目录] eg:hadoop fs –ls /user/wangkai.pt
原创 2022-05-16 09:10:40
409阅读
1、Shell命令行客户端Hadoop 提供了文件系统的 shell 命令行客户端,使用方法如下:hadoop fs <args>文件系统 shell 包括与 Hadoop 分布式文件系统(HDFS)以及 Hadoop 支持的其他文件系统(如本地FS,HFTP FS,S3 FS 等)直接交互的各种类似shell的命令。所有FS shell命令都将路径URI作为参数。URI格式为sche
转载 2023-09-20 10:20:55
71阅读
doc:http://pyhdfs.readthedocs.io/en/latest/ pip install hdfs https:// https://github.com
原创 2022-09-20 22:31:47
439阅读
一、工具下载:1、spark下载目前最新的是2.1.1,spark 2.0开始api和之前的还是有比较多的变化,因此如果选择2.0以上版本,最好看一下api变化,下载地址:http://spark.apache.org/downloads.html2、hadoop下载目前最新的hadoop版本已经到了3.0了,可以根据你的选择需要的版本,下载地址:https://dist.apache.org/r
转载 2023-06-19 06:33:58
157阅读
package hadoopTest;import java.io.IOException;import java.util.Scanner;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.BlockLocation;import org.apache.hadoop.fs.FSDataInputStre
原创 2015-12-20 10:28:02
371阅读
HDFS的Java API操作一、HDFS客户端环境准备1)根据自己电脑的操作系统拷贝对应的编译后的hadoop jar包到非中文路径2)
原创 2022-05-16 09:10:32
209阅读
本文主要介绍了HDFS的常见shell操作,包含查询指定路径信息、上传和下载文件、浏
原创 2023-06-20 09:50:40
97阅读
本文仅记录上传文件、下载文进行各自的功能实现。
原创 2023-06-20 10:33:47
140阅读
# Python API 操作 Hadoop HDFS 详解 Hadoop HDFSHadoop Distributed File System)是一个分布式文件系统,广泛用于存储大规模数据。通过 Python API 操作 HDFS,可以让用户方便地进行文件的管理和数据处理。本文将详细介绍如何使用 Python 与 HDFS 进行交互,并给出具体的代码示例。 ## 环境准备 在开始之前,
原创 2024-09-21 03:47:42
331阅读
本文是对《【硬刚大数据之学习路线篇】从零到大数据专家的学习指南(全面升级版)》的Hbase部分补充。1.基本语法hadoop fs具体命令 OR hdfs dfs 具体命令两个是完全相同的。
转载 2021-09-22 16:31:37
145阅读
  • 1
  • 2
  • 3
  • 4
  • 5