最近需要搭一个HBase环境,所以第一步就是要搭建Hadoop了。搭建过程主要参考了张良均、樊哲、位文超、刘名军等人著作的《Hadoop大数据挖掘》(机械工业出版社),部分环节参考了网上查阅的资料,现在也找不到出处了,十分抱歉。Hadoop2.6.5集群搭建搭建环境:Ubuntu 16.04 我使用Virtualbox建了四个虚拟机,每个虚拟机开了两个网卡,一个用来四个虚拟机内部连接,一个用来连外
转载 2023-10-16 13:06:44
65阅读
一、 Hadoop的分布式模型 Hadoop通常有三种运行模式:本地(独立)模式、伪分布式(Pseudo-distributed)模式和完全
原创 2024-09-26 11:59:59
149阅读
记录Hadoop-2.6.5完整安装配置过程一、Hadoop是什么?二、Hadoop-2.6.5安装配置1. 修改主机名2. 下载并解压JDK3. 配置环境变量4. 修改Hadoop中5个主要配置文件5. 启动Hadoop6. Hadoop Web端口测试三、总结 一、Hadoop是什么?Hadoop系统最初的源头来自于Apache Lucene项目下的搜索引擎子项目Nutch,该项目的负责人是
                               Hadoop--HDFS详解(二)前言:HDFS详解(一):  已经把HDFS的基础介绍完了,这里主要是把一些HDFS里面比较重点的一些东西记录一下一.block介绍:
转载 2023-09-13 23:04:42
714阅读
1、HDFS的安全模式是指在安全模式下只能读不能写。2、Hadoop-2.6.5集群中的HDFS的默认的数据块的大小是128M。知识点:Hadoop2.x版本以前的默认数据块的大小是64M,到了Hadoop2.x版本以后。 默认的数据块大小就变成了128M,但是是可以更改的。3、mrappmaster/yarnchild不是HDFS的守护进程。知识点:HDFS有五大守护进程,分别为NameNode
转载 2023-08-18 21:25:00
331阅读
1. HDFS上默认块大小和副本数1.1 对块的理解hadoop2.x中,hdfs-site.xml中的dfs.blocksize参数表示hdfs的块大小,默认值为134217728(bytes),即128M。它是hdfs存储处理数据的最小单元,可以根据实际需求改变块大小,但是一般不建议这么做。文件参数默认值描述hdfs-site.xmldfs.blocksize134217728块大小(byte
转载 2023-12-01 15:22:04
102阅读
vmware虚拟机环境:                192.168.60.128    master        &nbsp
原创 精选 2017-07-26 13:30:54
4611阅读
2点赞
一、HDFS的基本概念 1.1、数据块(block) HDFS(Hadoop Distributed File System)默认的最基本的存储单位是64M的数据块。 和普通文件系统相同的是,HDFS中的文件是被分成64M一块的数据块存储的。 不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间。 1.2、元数据节点(Namenode)和数据节点(
转载 2023-08-29 19:52:29
141阅读
Hadoop 2.2中正式启用了hdfs nfs功能,使得hdfs的通用性迈进了一大步。在公司让小朋友搭建了一下,然后我自己进行了一点简单的试验,有一点收获,记录在此。理论   使用hdfs nfs功能的话,数据访问路径如上图:用户或程序通过Linux自带的nfs client访问hdfs nfs服务,然后再由nfs网关作为hdfs的客户端访问hdfs。这张图中,中间
配置​​/etc/hosts​​ 增加节点名称​​node01​​ 修改hdp配置文件​​cd /opt/hadoop-2.6.5/etc/hadoop​​第一个:hadoop-env.shvim hadoop-env.shexport JAVA_HOME=${JAVA_HOME}export JAVA_HOME=/opt/jdk1.8.0_271第二个:core-site.xml<co
原创 2022-01-19 14:21:02
52阅读
机架和刀片机块 副本数块的理解存储处理数据的最小单元,其中在hadoop1.x中默认大小为64M,hadoop2.0默认大小为128M,块的大小是由hdfs-site.xml文件中的dfs.blocksize 属性控制keyvaluedfs.blocksize134217728块大小为什么要设置成128M?(参考其他人的博客) 是为了最小化寻址时间,目前磁盘的传输速率普遍是在100M/S左右,所以
修改配置文件cd /opt/hadoop-2.6.5/etc/hadoop第一个:hadoop-env.shvim hadoop-env.shexport JAVA_HOME=${JAVA_HOME}export JAVA_HOME=/opt/jdk1.8.0_271第二个:core-site.xml<configuration> <!-- 用来指定hdfs的老大(NameNode)的地址 --> <property>
原创 2021-07-04 18:33:53
260阅读
Hadoop的HDFSHDFS设计思想将数据存储到若干台单独的计算机上。HDFS特点1.存储超大文件2.廉价硬件之上3.一次写入,多次读取HDFS架构1.唯一的NameNode,唯一的SecondaryNameNode,都运行在主节点(master)2.大于等于“1”个DataNode,运行在从节点(slave)3.所有的数据均存放在DataNode里面4.可以有若干个客户端(Client)HDF
​​​解决root用户无法ssh localhost的问题:​​
原创 2022-01-18 14:47:33
81阅读
​​hadoop2.6.5官方安装文档​​​​解决root用户无法ssh localhost的问题:​​
原创 2021-09-22 10:41:36
232阅读
# HDP 2.6.5 Hadoop版本 ## 概述 HDP(Hortonworks Data Platform)是一个基于Apache Hadoop构建的开源平台,用于存储、处理和分析大数据。本文将介绍HDP 2.6.5版本的Hadoop,包括其特性、使用方法和示例代码。 ## Hadoop简介 Hadoop是一个可扩展的开源分布式存储和处理大数据的框架。它由HDFS(Hadoop分布式
原创 2023-08-22 11:12:02
192阅读
一、HDFS的相关基本概念 1.数据块 1、在HDFS中,文件诶切分成固定大小的数据块,默认大小为64MB(hadoop2.x以后是128M),也可以自己配置。 2、为何数据块如此大,因为数据传输时间超过寻到时间(高吞吐率)。 3、文件的存储方式,按大小被切分成若干个block,存储在不同的节点上,默认情况下每个block有三个副本。2.复制因子 就是一个block分为多少个副本,默认情
架构设计 一、block块 HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数( dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64M HDFS的Block大的原因是最小化寻道时间。把一个数据块设计的足够大,就能够使得数据传输的时间显著地大于寻找到Block所在时间。这样,传输一个由多个Block组成的文件的时间就取决于磁盘的传
转载 2024-05-02 22:01:40
134阅读
三台机器 CentOS7(机器名分别为master-CentOS7、slave1-CentOS7、slave2-CentOS7),每台机器内存2G(迫于无奈,刚换了内存条)wordcount统计单词master-CentOS7(已启动Hadoop集群)[root@master ~]# cd /usr/local/hadoop/ [root@master hadoop]# bin/hdfs dfs
转载 2023-07-24 21:39:40
51阅读
一、 Hadoop的分布式模型Hadoop通常有三种运行模式:本地(独立)模式、伪分布式(Pseudo-distributed)模式和完全分布式(Fully distributed)模式。安装完成后,Hadoop的默认配置即为本地模式,此时Hadoop使用本地文件系统而非分布式文件系统,而且其也不会启动任何Hadoop守护进程,Map和Reduce任务都作为同一进程的不同部分来执行。因此
转载 2023-07-13 14:23:12
58阅读
  • 1
  • 2
  • 3
  • 4
  • 5