一、背景因为最近使用hadoop发现了一些问题,而且也没有太多时间去对其本身进行修改,所以,在朋友建议下采用了clouderaCDH3版本。相对来说比较稳定和可靠,官网地址如下:http://www.cloudera.com/二、CentOS和JDK安装步骤1、进入到centOS官方网址http://isoredirect.centos.org/centos/5/isos/x86_64/
转载 2024-07-26 12:58:55
48阅读
1.概述在CDH默认安装包中,是不包含Kafka,Kudu和Spark2,需要单独下载特定Parcel包才能安装相应服务。本文档主要描述在离线环境下,在CentOS6.5操作系统上基于CDH5.12.1集群,使用Cloudera Manager通过Parcel包方式安装Kudu、Spark2和Kafka过程。内容概括Kudu安装Spark2安装Kafka安装服务验证测试环境操作系统版本:
1.基础环境准备1.1创建一个新虚拟机1.2安装虚拟机,设置ROOT密码并创建用户名为cdh用户。 1.3修改配置文件 1.4测试是否可以联网 1.5安装常用命令 1.6关闭防火墙 1.7复制两台虚拟机并修改名称 1.8生成MAC地址并记录此地址之后取消 1.9启动第二台虚拟机 1.10修改配置文件,修改以下三处内容(MAC地址为之前记录)。 1.11修改MAC地址与配置文件中一致 1.12
转载 2024-04-24 11:29:42
208阅读
一.软件准备:1.下载cloudera-manager-installer.bin(安装。。。-server),cdh4、cm(这是。。。-agent),另外还有些需要关联软件下步添加。2.先建本地源(详见),然后下载cloudera-manager-server关联软件(不清楚具体需要哪些),本人是在本地安装一次server,这样需要软件都在本地源机器上,按步骤添加到源即可。另外把cm和
1、基础环境配置主机名IP地址角色Hadoop用户centos05192.168.48.105NameNode、ResourceManager、SecondaryNameNode、DataNode、NodeManagerhadoop1.1、关闭防火墙和SELinux1.1.1、关闭防火墙略1.1.2、关闭SELinux略    注:以上操作需要使用root用户1.2、hosts配置  
转载 2024-09-26 17:02:17
57阅读
目录一、基础软件版本信息:1、CDH对CentOS版本要求:2、CDH对数据库版本要求:3、CDH对jdk版本要求:4、CDH对浏览器要求:5、CDH对网络配置要求:6、CDH对安全传输协议(TLS)要求:7、CDH相关软件下载:(1)Cloudera Manager(CM)下载地址:(2)CDH安装包下载地址:(3)本次采用CM和CDH版本如下:二、CDH基本优势:三、CDH集群安
Hadoop高可用安装本文主要讲hadoop高可用安装过程以及一些本人在安装过程中遇到错误和解决方法。1.HA安装方案2.分发jdk到node04,05,06scp jdk-7u67-linux-x64.rpm node04:`pwd` scp jdk-7u67-linux-x64.rpm node05:`pwd` scp jdk-7u67-linux-x64.rpm node06:`pwd
前期准备 配置hosts 192.168.245.105 scm-node1 192.168.245.106 scm-node2 192.168.245.107 scm-node3设置hostname 在192.168.245.105上执行 sudo hostnamectl --static --transient set-hostname scm-node1 在192.168.245.106
转载 2024-05-11 22:51:57
54阅读
1. 离线数据存储及查询环境部署离线数据存储与查询主要是以hadoop为中心技术栈,包括hive,hbase,hue,kylin等。部署hadoop方式比较流行主要有三种: 1. 直接部署Apache Hadoop,即手工部署,需要自己配置,协调版本兼容等,好处是能够加深理解,但是过程较繁琐。 2. Ambari :Hortonworks产品,用于创建,管理,监视hadoop集群,完
一、HAWQ高可用简介        HAWQ作为一个传统数仓在Hadoop上替代品,其高可用性至关重要。通常硬件容错、HAWQ HA、HDFS HA是保持系统高可用时需要考虑并实施三个层次。另外实时监控和定期维护,也是保证集群所有组件健康必不可少工作。         总的来说,HAWQ容错高可用实现方式包
转载 2024-06-21 22:41:48
117阅读
参考文档: http://www.cloudera.com/documentation/cdh/5-1-x/CDH5-Installation-Guide/cdh5ig_hdfs_mountable.html 挂载HDFS CDH5包含一个HDFS接口FUSE(用户空间文件系统),FUSE能让你写一个正常用户空间应用程序作为一个传统文件系统接口。hadoop-hdf
原创
4k
2023-06-16 00:30:04
344阅读
我们这个教程是在 centos 上安装cdh教程,而且使用是yum方式,不建议使用界面化方式,因为用过linux都知道,命令行出错更少,其实更轻松更靠谱。安装之前:1. 安装jdkcdh5 对应jdk 是 oracle-jdk 1.7.0_25 ,注意是 oracle-jdk ,千万别 yum install jdk 就完事了,因为那样装是 openjdk到这边 http://www.o
一、概述CDH 是一个拥有集群自动化安装、中心化管理、集群监控、报警功能一个工具(软件),使得集群安装可以从几天时间缩短为几个小时,运维人数也会从数十人降低到几个人,极大提高了集群管理效率。cloudera官网:https://www.cloudera.com/二、安装环境准备1、文件准备所有文件如下图所示:1.1、主机信息文件hostname.txt 文件格式:IP地址=主机名=用户名
Cloudera CDH4安装方法有三种:1、通过Cloudera Manager自动安装(只支持64bit linux操作系统);2、通过资源包,利用Yum命令手工安装;3、通过下载tarball包,手工安装;          个人建议1、2两种都尝试,先2后1方式对Hadoop架构,内置组件以及配置等会要
HDFS常用命令类似于Linuxls命令,显示文件列表 hdfs dfs   -ls /在整个目录下递归执行ls, 与UNIX中ls-R类似 hdfs dfs   -ls -R /创建目录。使用-p参数可以递归创建目录 hdfs dfs -mkdir dir2 hdfs dfs -mkdir -p dir3/testput 将单个源文件src或者多个源文件srcs从本地文
转载 2024-02-19 17:56:09
48阅读
手动故障切换到备用NameNode使用Cloudera Manager手动故障转移到备用NameNode如果您正在运行启用了HAHDFS服务,则可以手动使活动NameNode故障切换到备用NameNode。这对计划中停机时间很有用 - 用于主要主机硬件更改,配置更改或软件升级。 1.转到HDFS服务。 2.单击实例选项卡。 3.点击联合和高可用性。 4.找到要在NameNode上进
本篇文章单节点安装 hdfs hive ,实乃学习大数据必备教程,环境为:Centos7 JDK8.0 cdh5.15.1 下载地址: http://archive.cloudera.com/cdh5/cdh/5/ hadoop版本:hadoop-2.6.0-cdh5.15.1.tar.gz hi
原创 2022-01-06 16:27:46
449阅读
大家好,今天分享一款OLAP神器安装方法。学习靠努力和坚持。能动手地方不要动嘴(实操胜于一切)。 01—Apache Kylin是什么 Apache Kylin是一个开源、分布式分析型数据仓库,提供Hadoop/Spark 之上 SQL 查询接口及多维分析(OLAP)能力以支持超大规模数据,最初由 eBay 开发并贡献至开源社区。它能在亚秒内查询巨大表。Kylin也是国内首个贡
cdh-hadoop2.6.0伪分布式环境搭建标签(空格分隔): hadoop基础之环境搭建1.windows环境准备1.下载软件Vmware Station http://www.vmware.com/cn(不限版本,最好10或以上) 2.下载CentOS https://www.centos.org/download/(64位即可,最好6.5版本) 3.安装 打开vmware WorkStai
转载 11月前
31阅读
1.MapReduce shuffle处理程序和IFile阅读器使用本机Linux调用,在安装了Hadoop本机库Linux系统上。 2.改善随机处理程序 1.您可以通过启用shuffle readahead来改进MapReduce shuffle处理程序性能。 这会导致TaskTracker或节点管理器在通过套接字将其发送到reducer之前预读取
转载 2024-07-19 18:34:19
50阅读
  • 1
  • 2
  • 3
  • 4
  • 5