1.概述在CDH的默认安装包中,是不包含Kafka,Kudu和Spark2的,需要单独下载特定的Parcel包才能安装相应服务。本文档主要描述在离线环境下,在CentOS6.5操作系统上基于CDH5.12.1集群,使用Cloudera Manager通过Parcel包方式安装Kudu、Spark2和Kafka的过程。内容概括Kudu安装Spark2安装Kafka安装服务验证测试环境操作系统版本:
1.基础环境准备1.1创建一个新的虚拟机1.2安装虚拟机,设置ROOT密码并创建用户名为cdh的用户。 1.3修改配置文件 1.4测试是否可以联网 1.5安装常用命令 1.6关闭防火墙 1.7复制两台虚拟机并修改名称 1.8生成MAC地址并记录此地址之后取消 1.9启动第二台虚拟机 1.10修改配置文件,修改以下三处内容(MAC地址为之前记录的)。 1.11修改MAC地址与配置文件中一致 1.12
转载 2024-04-24 11:29:42
208阅读
        我们Hadoop平台也从Hadoop1.2.1升级到了Hadoop2.4.0版本,当然HDFS HA 也配置到集群中。具体的配置方法是基于cloudera 开源的zookeeper +QJM HA方案(https://issues.apache.org/jira/browse/HDFS-1623)。感恩cloudera 这样伟大的公
转载 2024-03-24 20:05:00
58阅读
一、背景因为最近使用hadoop发现了一些问题,而且也没有太多的时间去对其本身进行修改,所以,在朋友的建议下采用了cloudera的CDH3版本。相对来说比较稳定和可靠,官网的地址如下:http://www.cloudera.com/二、CentOS和JDK安装步骤1、进入到centOS的官方网址http://isoredirect.centos.org/centos/5/isos/x86_64/
转载 2024-07-26 12:58:55
48阅读
背景前段我们Hadoop集群磁盘使用率比较高,部分硬盘空间使用超过了70%,这部分服务器的DataNode服务读写负载就比较高,造成部分数据同步任务因为读写超时而失败。具体场景和异常跟这篇博客里描述的很像。DFSClient客户端与HDFS交互进行数据读写,需要从NameNode拿到元数据信息,再和DataNode交互,因此,超时时间也同时涉及这两个服务。以下分别是客户端与这两个服务交互的超时时间
一.软件准备:1.下载cloudera-manager-installer.bin(安装。。。-server),cdh4、cm(这是。。。-agent),另外还有些需要的关联软件下步添加。2.先建本地源(详见),然后下载cloudera-manager-server的关联软件(不清楚具体需要哪些),本人是在本地安装一次server,这样需要的软件都在本地源的机器上,按步骤添加到源即可。另外把cm和
1、基础环境配置主机名IP地址角色Hadoop用户centos05192.168.48.105NameNode、ResourceManager、SecondaryNameNode、DataNode、NodeManagerhadoop1.1、关闭防火墙和SELinux1.1.1、关闭防火墙略1.1.2、关闭SELinux略    注:以上操作需要使用root用户1.2、hosts配置  
转载 2024-09-26 17:02:17
57阅读
1. 离线数据存储及查询环境部署离线数据的存储与查询主要是以hadoop为中心的技术栈,包括hive,hbase,hue,kylin等。部署hadoop的方式比较流行的主要有三种: 1. 直接部署Apache Hadoop,即手工部署,需要自己配置,协调版本兼容等,好处是能够加深理解,但是过程较繁琐。 2. Ambari :Hortonworks的产品,用于创建,管理,监视hadoop集群,完
一、HAWQ高可用简介        HAWQ作为一个传统数仓在Hadoop上的替代品,其高可用性至关重要。通常硬件容错、HAWQ HA、HDFS HA是保持系统高可用时需要考虑并实施的三个层次。另外实时监控和定期维护,也是保证集群所有组件健康的必不可少的工作。         总的来说,HAWQ容错高可用的实现方式包
转载 2024-06-21 22:41:48
117阅读
我们这个教程是在 centos 上安装cdh的教程,而且使用的是yum方式,不建议使用界面化方式,因为用过linux的都知道,命令行出错更少,其实更轻松更靠谱。安装之前:1. 安装jdkcdh5 对应的jdk 是 oracle-jdk 1.7.0_25 ,注意是 oracle-jdk ,千万别 yum install jdk 就完事了,因为那样装的是 openjdk到这边 http://www.o
Cloudera CDH4安装方法有三种:1、通过Cloudera Manager自动安装(只支持64bit linux操作系统);2、通过资源包,利用Yum命令手工安装;3、通过下载的tarball包,手工安装;          个人建议1、2两种都尝试,先2后1的方式对Hadoop的架构,内置的组件以及配置等会要
手动故障切换到备用NameNode使用Cloudera Manager手动故障转移到备用NameNode如果您正在运行启用了HA的HDFS服务,则可以手动使活动的NameNode故障切换到备用NameNode。这对计划中的停机时间很有用 - 用于主要主机的硬件更改,配置更改或软件升级。 1.转到HDFS服务。 2.单击实例选项卡。 3.点击联合和高可用性。 4.找到要在NameNode上进
大家好,今天分享一款OLAP神器的安装方法。学习靠努力和坚持。能动手的地方不要动嘴(实操胜于一切)。 01—Apache Kylin是什么 Apache Kylin是一个开源的、分布式的分析型数据仓库,提供Hadoop/Spark 之上的 SQL 查询接口及多维分析(OLAP)能力以支持超大规模数据,最初由 eBay 开发并贡献至开源社区。它能在亚秒内查询巨大的表。Kylin也是国内首个贡
本篇文章单节点安装 hdfs hive ,实乃学习大数据必备的教程,环境为:Centos7 JDK8.0 cdh5.15.1 下载地址: http://archive.cloudera.com/cdh5/cdh/5/ hadoop版本:hadoop-2.6.0-cdh5.15.1.tar.gz hi
原创 2022-01-06 16:27:46
449阅读
1.MapReduce shuffle处理程序和IFile阅读器使用本机Linux调用,在安装了Hadoop本机库的Linux系统上。 2.改善随机处理程序 1.您可以通过启用shuffle readahead来改进MapReduce shuffle处理程序的性能。 这会导致TaskTracker或节点管理器在通过套接字将其发送到reducer之前预读取
转载 2024-07-19 18:34:19
50阅读
一、准备工作1.1 前言        这是博主在升级过程中遇到的问题记录,大家不一定遇到过,如果不是 CDH 平台的话,单是 hive 服务升级应该是不会有这些问题的,且升级前博主也参考过几篇相关 CDH 升级 hive 服务的博文,前面的升级步骤基本一致,但是升级过程只有我遇到了这些问题吗?显然不是的,但是其他博文
转载 2024-03-25 13:55:49
439阅读
目录一、基础软件版本信息:1、CDH对CentOS的版本要求:2、CDH对数据库版本的要求:3、CDH对jdk版本的要求:4、CDH对浏览器的要求:5、CDH对网络配置的要求:6、CDH对安全传输协议(TLS)的要求:7、CDH相关软件下载:(1)Cloudera Manager(CM)下载地址:(2)CDH安装包下载地址:(3)本次采用的CM和CDH版本如下:二、CDH基本优势:三、CDH集群安
集群部署情况HOSTJNNNSNNDNZKFCZKnode01##--#-node02######node03#--#-#node04---#-#基础操作环境centos7.5 jdk1.8 zookeeper 3.7.1 hadoop 2.6.5基础设施安装jdk基本操作,不会的自行百度。关闭防火墙systemctl stop firewalld systemctl disable firew
转载 2024-04-19 17:41:04
55阅读
Hadoop的高可用安装本文主要讲hadoop的高可用安装过程以及一些本人在安装过程中遇到的错误和解决方法。1.HA安装方案2.分发jdk到node04,05,06scp jdk-7u67-linux-x64.rpm node04:`pwd` scp jdk-7u67-linux-x64.rpm node05:`pwd` scp jdk-7u67-linux-x64.rpm node06:`pwd
前期准备 配置hosts 192.168.245.105 scm-node1 192.168.245.106 scm-node2 192.168.245.107 scm-node3设置hostname 在192.168.245.105上执行 sudo hostnamectl --static --transient set-hostname scm-node1 在192.168.245.106
转载 2024-05-11 22:51:57
54阅读
  • 1
  • 2
  • 3
  • 4
  • 5