本文记录在3台物理机上搭建Hadoop 2.6.0的详细步骤及碰到的问题解决。默认使用root账号操作,实际中建议使用专用的hadoop用户账号。1. 环境机器: 物理机3台,ip分别为192.168.1.130、192.168.1.132、192.168.1.134 操作系统: CentOS 6.6 Java: 1.7 Hadoop: 2.6.0请确保JDK已安装,使用java -vers
转载
2024-04-07 14:57:31
37阅读
Hadoop平台搭建和大数据分析-SSH免密登陆SSH免密登陆 1、执行命令sudo apt-get install openssh-server安装软件包 报错 更新安装包重新安装 安装ssh时出现软件包 openssh-server 还没有可供安装的候选者错误 错误如下:sudo apt-get install opensshserver正在读取软件包列表...
完成正在分析软件包的依赖关系树
转载
2024-10-11 05:27:23
29阅读
准备工作:1。VMware Workstation 14 中安装虚拟机 ,版本为 CentOS7(我搭建的集群为三台,安装一台克隆两台,这里不做解释,可自行百度)
2。JDK1.8 ,下载地址为 https://pan.baidu.com/s/15YA23CYnT3L-9f6Ao-gzrw
3。hadoop2.7.5 下载地址为 https://pan.baidu.com/s/1Fyfb77R6
转载
2024-06-20 06:56:09
140阅读
Hadoop集群免密码登录实验实验目的: (1)静态网络地址的配置; (2)主机名的配置; (3)防火墙的配置; (4)主机地址映射的配置; (5)免密码登录的配置。实验要求: (1) 完成静态网络地址的配置,所有主机的网络能够正常使用,相互之间能够正常连接; (2) 完成主机名的配置,正确设定永久有效的主机名; (3) 完成防火墙的配置,使平台相关软件的常用端口能够远程正常访问; (4) 完成
转载
2024-04-19 14:46:48
49阅读
实现Hadoop页面添加账号密码认证
介绍:
Hadoop是一个开源的分布式处理框架,用于处理大规模数据集的分布式计算。在实际应用中,为了保护Hadoop集群的安全性,有时需要对Hadoop的Web页面进行账号密码认证。本文将介绍如何实现Hadoop页面添加账号密码认证的步骤和相关代码。
步骤:
以下是实现Hadoop页面添加账号密码认证的步骤:
| 步骤 | 操作 |
| ---- |
原创
2023-12-30 09:25:57
373阅读
前言本人初学hadoop,在安装配置环境时发现网上大部分博客的教程都不太完善,所以我结合了这些博客内容和老师的讲解写了下面这一份教程,这些操作都是本人经过尝试确认过没有问题的操作(如果有问题的话希望大家能够指出在集群配置时,需要至少两台机子,但有些配置都是相同的,所以以下操作可以在Master主机完成后用虚拟机的克隆即可,之后只需要修改几个配置即可,这些在后面内容都有说明下面是具体操作1、创建ha
转载
2023-09-03 00:56:09
205阅读
# 实现Hadoop身份认证Simple用户名密码
## 1. 流程
下面是实现Hadoop身份认证Simple用户名密码的流程表格:
| 步骤 | 操作 |
| ------ | ------ |
| 1 | 在Hadoop配置文件中配置Simple认证 |
| 2 | 创建用户及密码 |
| 3 | 启用认证 |
| 4 | 验证认证功能是否正常 |
## 2. 实现步骤
### 步
原创
2024-06-07 04:45:23
503阅读
基本安装教程按照上面的安装即可,但是安装过程中还是出现了一些问题,现整理如下:1、首先使用root用户安装可以,也省去了很多权限问题,但是最好别用,不容易发现问题,添加用户:如果是新用户,直接添加,如:useradd hadoop如果已经存在该用户,如果用户已删除,但是组还在,需使用useradd -g hadoop hadoop2、修改hadoop用户密码:root用户下修改某个用户密码:pas
转载
2023-09-14 08:17:13
264阅读
由于之前一段时间被安排去写一个spark项目(未来一段时间也会开始开spark的坑),因此暂时停止了读书笔记的更新,最近开始恢复读书。今天先介绍一下原书的第五章,即hadoop 的I/O知识。数据一致性一般来说,hadoop的用户希望数据能够保持一致性(Integrity),但是由于hadoop的高并发性,数据被破坏的风险很高。一个用来检验数据是否被破坏的经典方法是计算校验和(checksum),
转载
2023-07-13 17:10:57
101阅读
凭证过期处理策略 在最早的 Security features for Hadoop 设计中提出这样的假设: A Hadoop job will run no longer than 7 days (configurable) on a MapReduce cluster or accessing HDFS from the job will fail. 对于一般的任务
转载
2023-07-21 20:05:22
89阅读
构建 Hadoop 集群 安装选项: 1. Apache tarballs :The Apache Hadoop project and related projects provide binary (and source) tarballs for each release.
2. Packages :RPM and Debian p
转载
2023-12-25 13:16:45
65阅读
Hadoop Kerberos一、背景在Hadoop1.0.0或者CDH3 版本之前, hadoop并不存在安全认证一说。默认集群内所有的节点都是可靠的,值得信赖的。 导致存在恶意用户伪装成真正的用户或者服务器入侵到hadoop集群上,恶意的提交作业,修改JobTracker状态,篡改HDFS上的数据,伪装成NameNode 或者TaskTracker接受任务等。二、安全问题2.1 用户到服务器的
转载
2024-01-23 23:02:25
38阅读
一、掌握Hadoop原生授权机制1.1 背景 在Hadoop1.0.0或者CDH3 版本之前, hadoop并不存在安全认证一说。默认集群内所有的节点都是可靠的,值得信赖的。 导致存在恶意用户伪装成真正的用户或者服务器入侵到hadoop集群上,恶意的提交作业,修改JobTracker状态,篡改HDFS上的数据,伪装成NameNode 或者TaskTracker接受任务等。1.2安全问题
1.2.
转载
2023-08-02 20:44:00
260阅读
1.为了 能够方便记忆, 总结一下。2. 并行软件平台,不是 一个。 (1)这个特别熟悉的 以 hadoop 为平台的 生态系统 (2)还有以 微软的 并行软件平台 生态系统 (3) 还有LexisNexis公司的 基于 C++ 开发的 HPCC下面补充(1) 有介
转载
2023-10-14 12:38:16
89阅读
前段时间,网上有言SHA-1加密技术,已经被谷歌公司破解,在linux系统中,集群间加密的技术是用DSA秘钥,秘钥本身其实是一种算法,就像前面说的SHA-1也是加密算法的一种。免密在linux系统中更有一层神秘的特色,就是其可以作为一种集群之间互相信任的协议,彼此交换公钥与私钥,然后在互相访问的时候,就可以免密码,省事省心,也是建立一种信任协议的表现吧。Hadoop集群的搭
转载
2023-07-14 11:26:35
16阅读
一、Kerberos 和 Sentry 概述1.1 什么是 Kerberos Kerberos是一种计算机网络授权协议,用来在非安全网络中,对个人通信以安全的手段进行身份认证。这个词又指麻省理工学院为这个协议开发的一套计算机软件。软件设计上采用客户端/服务器结构,并且能够进行相互认证,即客户端和服务器端均
转载
2024-05-11 22:42:40
6阅读
hadoop的配置配置前准备配置IP、主机名映射配置ssh免密登陆配置防火墙JDK环境安装hadoop的配置hadoop 开启跟关闭 这几天在安装hadoop,发现他的配置太繁琐了,这里就记下来,怕自己给忘了。安装这里就不说了,挺简单的,直接下载然后解压就行了重点说说配置。 配置前准备配置IP、主机名映射输入vim /etc/hosts192.168.0.130 admin01 192.168
转载
2023-07-12 11:22:30
653阅读
文章目录介绍概述基本概念认证原理优点和缺点安装和使用安装Kerberos相关服务修改配置文件初始化KDC数据库修改管理员权限配置文件启动Kerberos相关服务创建Kerberos管理员用户使用概述Kerberos数据库操作Kerberos认证操作创建Hadoop系统用户Hadoop Kerberos配置(※)为Hadoop各服务创建Kerberos主体(Principal)修改Hadoop配置
介绍 Hadoop中的安全机制包括认证和授权。而Hadoop RPC中采用SASL(Simple Authentication and Security Layer,简单认证和安全层)进行安全认证,具体认证方法涉及Kerberos和DIGEST-MD5两种。 在这种机制中,Kerberos用于在客户端和服务器端之间建立
转载
2024-02-03 09:59:39
200阅读
HDFS数据完整性 用户希望存储和处理数据的时候,不会有任何损失或者损坏。Hadoop提供两种校验 1、校验和 常用的错误检测码是:CRC-32(循环冗余校验)使用CRC-32算法任何大小的数据输入均计算得到一个32位的整数校验码。 2、运行后台进程来检测数据块校验和 1、写入数据节点验证 Hdfs会对写入的所有数据计算校验和,并在读取数据时验证校验和。元数据节
转载
2023-10-08 12:36:33
82阅读