1.Hadoop集群搭建及使用

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建

(1).集群规划;

(2).虚拟机准备;

1、创建虚拟机(具体步骤不再展示);

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_02

2 、配置网络;

ping外网:ping baidu.com

大数据云平台搭建 大数据平台搭建及运维_hdfs_03

如果ping不通
#修改如下文件:
vi /etc/sysconfig/network-scripts/ifcfg-ens-33

大数据云平台搭建 大数据平台搭建及运维_kafka_04

重启网络服务:

service network restart

大数据云平台搭建 大数据平台搭建及运维_kafka_05

配置静态IP:

打开VMware->编辑->虚拟机网络编辑器

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_06


大数据云平台搭建 大数据平台搭建及运维_hdfs_07


大数据云平台搭建 大数据平台搭建及运维_hdfs_08


查看IP:ip addr

大数据云平台搭建 大数据平台搭建及运维_hdfs_09

修改网卡的配置文件
vi /etc/sysconfig/network-scripts/ifcfg-ens-33
#修改并添加:(IP为静态)
BOOTPROTO=static
IPADDR=192.168.246.132
GATEWAY=192.168.246.2
DNS1=192.168.246.2

如图所示

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_10


重启网络服务:service network restart

ping外网(查看是否可以ping通):ping baidu.com

3).克隆两台上述已配置的虚拟机;

关闭虚拟机:

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_11


点击下一页,选择克隆类型时,创建完整克隆:

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_12

#打开第二、三台虚拟机,进入:
vi /etc/sysconfig/network-scripts/ifcfg-ens-33

#更改
IPADDR=192.168.246.133  
IPADDR=192.168.246.134

大数据云平台搭建 大数据平台搭建及运维_hadoop_13


重启网络服务并查看是否可以ping通外网。

(3).修改主机名;

查看主机名:hostname

修改第一台主机名:sudo hostnamectl set-hostname hadoop1

大数据云平台搭建 大数据平台搭建及运维_kafka_14


修改第二台主机名:sudo hostnamectl set-hostname hadoop2

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_15


修改第三台主机名:sudo hostnamectl set-hostname hadoop3

大数据云平台搭建 大数据平台搭建及运维_hadoop_16


三台都要修改ip与主机名的映射:sudo vi /etc/hosts

#添加:
192.168.246.132 hadoop1

192.168.246.134 hadoop2

192.168.246.133 hadoop3

大数据云平台搭建 大数据平台搭建及运维_kafka_17

重启虚拟机生效:reboot

(4).配置免密登录

在hadoop1机器上操作:ssh-keygen -t rsa

执行命令后,连续敲击三次回车键,生成公钥

#拷贝公钥:
ssh-copy-id hadoop1

ssh-copy-id hadoop2

ssh-copy-id hadoop3

由于我已拷贝过,所以显示已存在

大数据云平台搭建 大数据平台搭建及运维_kafka_18


进入hadoop2、hadoop3同样操作,实现可以使用ssh hadoop2、ssh hadoop3,不需要密码就能进入hadoop2、hadoop3

大数据云平台搭建 大数据平台搭建及运维_zookeeper_19

(5).编写分发脚本;

输入:rsync --help

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_20

#三台虚拟机安装rsync命令:
sudo yum install rsync -y

#rsync与scp区别:用rsync做文件的复制比scp快,rsync只对差异文件作更新

#在主目录创建bin目录:
mkdir ~/bin

#创建分发脚本脚本:
vim ~/bin/xsync

脚本内容如下:

#!/bin/bash 
#1. 判断参数个数
if [ $# -lt 1 ]
then 
    echo Not Enough Arguement!
    exit;
fi
#2. 遍历集群所有机器
#注意,如果你的主机名命名和我不一样,下面这三个更换成你的主机名
for host in hadoop1 hadoop2 hadoop3
do 
    echo =================  $host  =================    
    #3. 遍历所有目录,挨个发送
    for file in $@
    do
    	#4 判断文件是否存在
        if [ -e $file ]
            then
             	#5. 获取父目录
                pdir=$(cd -P $(dirname $file); pwd)
                fname=$(basename $file)
                ssh $host "mkdir -p $pdir"
                rsync -av $pdir/$fname $host:$pdir
            else
                echo $file does not exists!                
        fi
    done
done

大数据云平台搭建 大数据平台搭建及运维_zookeeper_21

#修改权限:
chmod +x ~/bin/xsync

#测试:把xsync命令发送到hadoop2、hadoop3

#进入目录:
cd ~/bin

#将xsync脚本发送到hadoop2、hadoop3:
xsync xsync

大数据云平台搭建 大数据平台搭建及运维_zookeeper_22

(6).安装JDK;

进入官网下载匹配的jdk8安装包,上传至linux:cd

mkdir soft

mkdir installfile

cd ~/installfile

大数据云平台搭建 大数据平台搭建及运维_hdfs_23

#解压:
tar -zxvf jdk-8u281-linux-x64.tar.gz.crdownload -C ~/soft

#切换到soft目录下:
cd /root/soft

#创建软连接:
ln -s jdk1.8.0_281 jdk

大数据云平台搭建 大数据平台搭建及运维_hdfs_24

#配置环境变量:
vi ~/.bashrc

#内容如下:
export JAVA_HOME=~/soft/jdk

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:$PATH

大数据云平台搭建 大数据平台搭建及运维_zookeeper_25

#让环境变量生效:
source ~/.bashrc

#验证:
java -version

大数据云平台搭建 大数据平台搭建及运维_zookeeper_26


进入hadoop2、hadoop3按照上述步骤配置jdk、环境变量并验证

(7).安装hadoop

#切换至installfile目录解压hadoop安装包:
cd /root/installfile

#解压至soft目录下
tar -zxvf hadoop-3.1.3.tar.gz -C ~/soft

#切换至soft目录:
cd /root/soft

#创建软连接:
ln -s hadoop-3.1.3 hadoop

大数据云平台搭建 大数据平台搭建及运维_kafka_27

#配置环境变量:
vi ~/.bashrc

#内容如下:
export HADOOP_HOME=~/soft/hadoop

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

大数据云平台搭建 大数据平台搭建及运维_kafka_28

#让环境变量生效:
source ~/.bashrc

#验证:
hadoop version

大数据云平台搭建 大数据平台搭建及运维_zookeeper_29

#进入hadoop配置目录:
cd $HADOOP_HOME/etc/hadoop

#在hadoop-env.sh中配置JAVA_HOME路径:
vi hadoop-env.sh

大数据云平台搭建 大数据平台搭建及运维_hadoop_30


配置core-site.xml:vi core-site.xml

在和之间添加如下内容:

<property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/hadoop/hadoop_data/tmp</value>
    <description>Abase for other temporary directories.</description>
  </property>

  <property>
    <name>fs.default.name</name>
    <!-- hadoop1的内网IP地址 -->
    <value>hdfs://hadoop1:9000</value>
  </property>

  <!-- 指定NameNode的地址 -->
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop1:8020</value>
  </property>

大数据云平台搭建 大数据平台搭建及运维_kafka_31

配置hdfs-site.xml:vi hdfs-site.xml

在和之间添加如下内容:

<!-- 指定NameNode的web端访问地址 -->
<property>
    <name>dfs.namenode.http-address</name>
    <value>hadoop1:9870</value>
</property>

  <!-- 设置SecondaryNameNode(2NN)的web端访问地址 -->
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>hadoop3:9868</value>
</property>

<property>
  <name>dfs.name.dir</name>
  <value>/opt/hadoop/hadoop_data/dfs/name</value>
  <description>Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.</description>
</property>

<property>
  <name>dfs.data.dir</name>
  <value>/opt/hadoop/hadoop_data/dfs/data</value>
  <description>Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.</description>
</property>

<property>
  <name>dfs.replication</name>
  <value>3</value>
</property>

<property>
   <name>dfs.permissions</name>
   <value>true</value>
   <description>need not permissions</description>
</property>

大数据云平台搭建 大数据平台搭建及运维_kafka_32

大数据云平台搭建 大数据平台搭建及运维_hadoop_33

配置yarn-site.xml:vi yarn-site.xml

在和之间添加如下内容:

<!-- 指定MapReduce走shuffle -->

<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>

<!-- 指定ResourceManager的地址 -->
<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>hadoop2</value>
</property>

<property>
  <description>The address of the applications manager interface in the RM.</description>
  <name>yarn.resourcemanager.address</name>
  <value>${yarn.resourcemanager.hostname}:8032</value>
</property>

<property>
  <description>The address of the scheduler interface.</description>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>${yarn.resourcemanager.hostname}:8030</value>
</property>

<property>
  <description>The http address of the RM web application.</description>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>${yarn.resourcemanager.hostname}:8088</value>

</property>

<property>
  <description>The https adddress of the RM web application.</description>
  <name>yarn.resourcemanager.webapp.https.address</name>
  <value>${yarn.resourcemanager.hostname}:8090</value>
</property>

<property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>${yarn.resourcemanager.hostname}:8031</value>
</property>

<property>
  <description>The address of the RM admin interface.</description>
  <name>yarn.resourcemanager.admin.address</name>
  <value>${yarn.resourcemanager.hostname}:8033</value>
</property>

<property>
  <name>yarn.scheduler.maximum-allocation-mb</name>
  <value>2048</value>
  <discription>每个节点可用内存,单位MB,默认8182MB</discription>
</property>

<property>
  <name>yarn.nodemanager.vmem-pmem-ratio</name>
  <value>2.1</value>
</property>

<property>
  <name>yarn.nodemanager.resource.memory-mb</name>
  <value>2048</value>
</property>

<property>
  <name>yarn.nodemanager.vmem-check-enabled</name>
  <value>false</value>
</property>

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_34


大数据云平台搭建 大数据平台搭建及运维_zookeeper_35


大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_36

#复制并且配置mapred-site.xml:

cp mapred-site.xml mapred-site.xml.template

vi mapred-site.xml

在和之间添加如下内容:

<!-- 指定MapReduce程序运行在Yarn上的地址 -->
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
 </property>

<property>
      <name>mapred.job.tracker</name>
      <value>hadoop1:49001</value>
</property>

<property>
    <name>mapred.local.dir</name>
   <value>/opt/hadoop/hadoop_data/var</value>
</property>

<property>
     <name>yarn.app.mapreduce.am.env</name>
     <value>HADOOP_MAPRED_HOME=/root/soft/hadoop</value>
</property>

<property>
     <name>mapreduce.map.env</name>
     <value>HADOOP_MAPRED_HOME=/root/soft/hadoop</value>
</property>

<property>
     <name>mapreduce.reduce.env</name>
     <value>HADOOP_MAPRED_HOME=/root/soft/hadoop</value>
</property>

大数据云平台搭建 大数据平台搭建及运维_kafka_37


配置workers,将三个主机名添加进去:vi workers

大数据云平台搭建 大数据平台搭建及运维_zookeeper_38

#进入/sbin目录下:
cd /root/soft/hadoop/sbin/

#修改start-dfs.sh和stop-dfs.sh在这两个文件开头加如下内容:
HDFS_DATANODE_USER=root

HADOOP_SECURE_SECURE_USER=root

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

大数据云平台搭建 大数据平台搭建及运维_zookeeper_39

#修改start-yarn.sh和stop-yarn.sh在这两个文件开头加如下内容:
YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=root

YARN_NODEMANAGER_USER=root

大数据云平台搭建 大数据平台搭建及运维_zookeeper_40


切换到soft目录下:cd /root/soft使用xsync脚本将hadoop-3.1.3发送到hadoop2、hadoop3:

大数据云平台搭建 大数据平台搭建及运维_zookeeper_41

#切换hadoop2、hadoop3在soft目录下创建hadoop-3.1.3的软连接:
ln -s hadoop-3.1.3 hadoop

#配置hadoop环境变量:
vi ~/.bashrc

#内容如下:
export HADOOP_HOME=~/soft/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

#让环境变量生效:
source ~/.bashrc

#验证:
hadoop version

大数据云平台搭建 大数据平台搭建及运维_kafka_42

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_43

(8).启动hadoop

#格式化hadoop:
hadoop namenode -format

注:hadoop只能格式化一次,在下面出现successfully formatted为格式化成功,这里由于我已经格式化了,就不附截图了。

在hadoop1启动hdfs:start-dfs.sh

大数据云平台搭建 大数据平台搭建及运维_hadoop_44


在hadoop2启动yarn:start-yarn.sh

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_45


验证进程:在hadoop1、hadoop2、hadoop3分别输入:jps

大数据云平台搭建 大数据平台搭建及运维_kafka_46


大数据云平台搭建 大数据平台搭建及运维_hdfs_47


大数据云平台搭建 大数据平台搭建及运维_zookeeper_48


关闭防火墙:systemctl stop firewalld在浏览器输入:192.168.246.132:9870

大数据云平台搭建 大数据平台搭建及运维_hadoop_49


大数据云平台搭建 大数据平台搭建及运维_hadoop_50


在浏览器输入:192.168.246.134:8088

大数据云平台搭建 大数据平台搭建及运维_hdfs_51


在浏览器端可查看每台服务器状态:

大数据云平台搭建 大数据平台搭建及运维_hadoop_52

(9).简单使用hadoop

查看hdfs的根目录:hdfs dfs -ls /

大数据云平台搭建 大数据平台搭建及运维_hdfs_53


在根目录下创建文件夹:hdfs dfs -mkdir /data

大数据云平台搭建 大数据平台搭建及运维_zookeeper_54


将linux本地文件上传到hdfs:hdfs dfs -put emp.csv /

大数据云平台搭建 大数据平台搭建及运维_kafka_55


移动emp.csv的位置到/data目录下:hdfs dfs -mv /emp.csv /data

大数据云平台搭建 大数据平台搭建及运维_hadoop_56


将data目录下的emp.csv复制到hdfs的根目录下:hdfs dfs -cp /data/emp.csv /emp-copy.csv

大数据云平台搭建 大数据平台搭建及运维_hadoop_57


查看emp.csv文件内容:hdfs dfs -cat /emp-copy.csv

大数据云平台搭建 大数据平台搭建及运维_hdfs_58


删除文件emp-copy.csv:hdfs dfs -rm /emp-copy.csv

大数据云平台搭建 大数据平台搭建及运维_zookeeper_59


删除data文件夹:hdfs dfs -rm -r /data

大数据云平台搭建 大数据平台搭建及运维_hadoop_60


大数据云平台搭建 大数据平台搭建及运维_hadoop_61

使用wordcount脚本(自己编写的),对某个文件里面的字符进行统计

在linux本地创建1.txt文件并上传到hdfs根目录下的input(上面已有步骤,直接附截图):

大数据云平台搭建 大数据平台搭建及运维_hdfs_62


大数据云平台搭建 大数据平台搭建及运维_hdfs_63


运行脚本:hadoop jar wordcount-1.0-SNAPSHOT.jar org.example.MyMain /input/1.txt /output/wordcount

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_64


查看结果:hdfs dfs -cat /output/wordcount/part-r-00000

大数据云平台搭建 大数据平台搭建及运维_hdfs_65


在浏览器界面(9870)也可查看hdfs的文件存放情况:

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_66

2.ZooKeeper集群搭建及使用

(1).下载zookeeper安装包并解压

tar -zxvf zookeeper-3.4.9.tar.gz -C ~/soft

大数据云平台搭建 大数据平台搭建及运维_kafka_67

#切换至soft目录:
cd /root/soft

#创建软连接:
ln -s zookeeper-3.4.9 zookeeper

#同步zookeeper至其他机器:
xsync zookeeper-3.4.9

切换hadoop2、hadoop3创建软连接

(2).配置环境变量

vi ~/.bashrc
#内容如下:
export ZOOKEEPER_HOME=/root/soft/zookeeper

export PATH=$ZOOKEEPER_HOME/bin:$PATH

大数据云平台搭建 大数据平台搭建及运维_hdfs_68

#让环境变量生效:
source ~/.bashrc

每一台都需要配置环境变量,在hadoop2、hadoop3重复(2)步骤

大数据云平台搭建 大数据平台搭建及运维_kafka_69

(3).配置zoo.cfg

#进入conf目录:
cd zookeeper/conf/

#复制zoo_sample.cf:
cp zoo_sample.cfg zoo.cfg

大数据云平台搭建 大数据平台搭建及运维_zookeeper_70

#编辑zoo.cfg:
vi zoo.cfg

#修改:
dataDir=/root/soft/zookeeper/tmp

大数据云平台搭建 大数据平台搭建及运维_zookeeper_71

#末尾添加:
server.1=hadoop1:2888:3888

server.2=hadoop2:2888:3888

server.3=hadoop3:2888:3888

大数据云平台搭建 大数据平台搭建及运维_hadoop_72

server.A=B: C: D。
A:机器编号
B:主机名
C: Leader与Follower的访问端口
D:选举Leader接口

#同步zoo.cfg:
xsync zoo.cfg

配置服务器编号:

#进入zookeeper:
cd $ZOOKEEPER_HOME

#创建数据存放目录:
mkdir zkData

#编辑myid:.
vi zkData/myid

内容为:1

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_73


大数据云平台搭建 大数据平台搭建及运维_hdfs_74


在hadoop2中的myid添加内容为:2

在hadoop3中的myid添加内容为:3

(4).编写zookeeper脚本

#进入bin目录下:
cd ~/bin

#创建脚本:
vi zk.sh

内容如下:

#!/bin/bash
case $1 in
"start"){
  for i in hadoop1 hadoop2 hadoop3
  do
    echo " --------启动 $i zookeeper-------"
    ssh $i "zkServer.sh start "
  done
};;
"stop"){
  for i in hadoop1 hadoop2 hadoop3
  do
    echo " --------停止 $i zookeeper-------"
    ssh $i "zkServer.sh stop"
  done
};;
"status"){
  for i in hadoop1 hadoop2 hadoop3
  do
    echo " --------状态 $i zookeeper-------"
    ssh $i "zkServer.sh status"
  done
};;
esac

大数据云平台搭建 大数据平台搭建及运维_hdfs_75


添加脚本执行权限:chmod u+x zk.sh

大数据云平台搭建 大数据平台搭建及运维_hadoop_76

(5).启动zookeeper集群

#启动zookeeper集群:
zk.sh start

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_77

#查看各机器状态:
zk.sh status

大数据云平台搭建 大数据平台搭建及运维_hdfs_78

#停止zookeeper集群:
zk.sh stop

大数据云平台搭建 大数据平台搭建及运维_zookeeper_79

(6).zookeeper集群的简单使用

启动zookeeper集群:zk.sh start

进入zookeeper命令行:zkCli.sh

大数据云平台搭建 大数据平台搭建及运维_kafka_80


创建节点(节点有四种类型,永久节点、临时节点、永久序列化节点、临时序列化节点):

create [-s] [-e] path data # -s 序列化 -e 临时节点 path 创建路径 data 节点数据

创建demo临时节点:create -e /demo 321

查看根下的所有节点:ls /

大数据云平台搭建 大数据平台搭建及运维_hdfs_81


查看path下所有znode,以及zonde的属性:ls2 /demo

大数据云平台搭建 大数据平台搭建及运维_zookeeper_82


拿到/demo的数据:get /demo

大数据云平台搭建 大数据平台搭建及运维_zookeeper_83


修改/demo的数据:set /demo 456

大数据云平台搭建 大数据平台搭建及运维_hdfs_84


递归删除节点:rmr /demo

大数据云平台搭建 大数据平台搭建及运维_hdfs_85


查看历史记录:history

大数据云平台搭建 大数据平台搭建及运维_hdfs_86


退出zookeeper命令行:quit

大数据云平台搭建 大数据平台搭建及运维_hdfs_87

3.HBase集群搭建及使用

(1).查看hbase与jdk、hadoop的版本匹配;

大数据云平台搭建 大数据平台搭建及运维_hadoop_88


大数据云平台搭建 大数据平台搭建及运维_kafka_89

(2).集群规划

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_90

(3).下载、解压hbase安装包

#切换到installfile:
cd /root/installfile

#解压至soft目录下:
tar -zxvf hbase-2.4.11-bin.tar.gz -C ~/soft

大数据云平台搭建 大数据平台搭建及运维_hadoop_91

#切换至soft目录:
cd /root/soft

#创建软连接:
ln -s hbase-2.4.11 hbase

#同步zookeeper至其他机器:
xsync hbase-2.4.11

#切换hadoop2、hadoop3创建软连接

(4).配置环境变量;

vi ~/.bashrc

#内容如下:
export HBASE_HOME=~/soft/hbase-2.4.11

export PATH=$HBASE_HOME/bin:$PATH

大数据云平台搭建 大数据平台搭建及运维_hdfs_92

#让环境变量生效:
source ~/.bashrc

#验证:
hbase version

大数据云平台搭建 大数据平台搭建及运维_hadoop_93


每一台都需要配置环境变量,在hadoop2、hadoop3重复(4)步骤

(5).配置hbase-site.xml

#切换到conf目录:
cd $HBASE_HOME/conf

#编辑hbase-site.xml:
vi hbase-site.xml

大数据云平台搭建 大数据平台搭建及运维_hdfs_94


在和之间添加如下内容:

<property>
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop1:8020/hbase</value>
  </property>

  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>

  <property>
     <name>hbase.zookeeper.quorum</name>
     <value>hadoop1,hadoop2,hadoop3</value>
  </property>

  <property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/root/soft/zookeeper/zkData</value>
  </property>

  <property>
    <name>hbase.tmp.dir</name>
    <value>/root/soft/hbase-2.4.11/tmp</value>
  </property>

  <!-- 在分布式的情况下一定要设置,不然容易出现Hmaster起不来的情况 -->
  <property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
  </property>

大数据云平台搭建 大数据平台搭建及运维_kafka_95

(6).配置regionservers

#编辑regionservers:
vi regionservers 

#删除原有的localhost,添加如下内容: 
hadoop1
hadoop2
hadoop3

大数据云平台搭建 大数据平台搭建及运维_hdfs_96

(7).配置备用master

#编辑backup-masters:
vi backup-masters 

#添加内容为:
hadoop2

大数据云平台搭建 大数据平台搭建及运维_hadoop_97


大数据云平台搭建 大数据平台搭建及运维_zookeeper_98

(8).软连接hadoop配置文件到hbase配置目录并分发hbase;

#软连接hadoop的core-site.xml到hbase:
ln -s /root/soft/hadoop/etc/hadoop/core-site.xml core-site.xml

#软连接hadoop的hdfs-site.xml到hbase:
ln -s /root/soft/hadoop/etc/hadoop/hdfs-site.xml hdfs-site.xml

大数据云平台搭建 大数据平台搭建及运维_kafka_99

#返回上一级目录:
cd ..

#同步conf文件夹:
xsync conf

大数据云平台搭建 大数据平台搭建及运维_hdfs_100

(9).启动hbase集群

#启动hbase前需要先启动zookeeper、hadoop:
zk.sh start
start-all.sh
start-hbase.sh

#或者分开启动hbase:
hbase-daemon.sh start master
hbase-daemon.sh start regionserver

大数据云平台搭建 大数据平台搭建及运维_kafka_101

分别在hadoop1、hadoop2、hadoop3输入jps查看节点:jps

大数据云平台搭建 大数据平台搭建及运维_hdfs_102


大数据云平台搭建 大数据平台搭建及运维_hadoop_103


大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_104


大数据云平台搭建 大数据平台搭建及运维_hdfs_105


进入浏览器查看:192.168.246.132:16010

大数据云平台搭建 大数据平台搭建及运维_zookeeper_106

#停止hbase集群:
stop-hbase.sh

#如果无法关闭就分别关闭master、regionserver:
hbase-daemons.sh stop regionserver

hbase-daemons.sh stop master

(10).hbase集群的简单使用

启动hbase集群:start-hbase.sh

进入hbase命令行:hbase shell

大数据云平台搭建 大数据平台搭建及运维_hadoop_107


查看所有表:list

大数据云平台搭建 大数据平台搭建及运维_hdfs_108


创建stu表:create ‘stu’,‘info’,‘no’

大数据云平台搭建 大数据平台搭建及运维_hdfs_109


查看表结构:describe ‘stu’

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_110


启用或禁用表:is_enabled ‘stu’

is_disabled ‘stu’

大数据云平台搭建 大数据平台搭建及运维_hdfs_111


向stu表添加数据:put ‘stu’,‘1001’,‘info:name’,‘HYX’

扫描表数据:scan ‘stu’

大数据云平台搭建 大数据平台搭建及运维_hdfs_112


继续向stu表添加数据:

put ‘stu’,‘1002’,‘info:name’,‘Jack’

put ‘stu’,‘1002’,‘info:age’,‘22’

大数据云平台搭建 大数据平台搭建及运维_zookeeper_113


统计表记录数:count ‘stu’

大数据云平台搭建 大数据平台搭建及运维_kafka_114


删除stu表需要禁用表:disable ‘stu’

删除表:drop ‘stu’

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_115


退出hbase命令行:exit 或 quit

4.Kafka集群搭建及使用

(1).集群规划

大数据云平台搭建 大数据平台搭建及运维_hdfs_116

(2).下载并解压安装包

#切换到installfile目录:
cd /root/installfile

#解压至soft目录下:
tar -zxvf kafka_2.11-2.4.1.gz -C ~/soft

大数据云平台搭建 大数据平台搭建及运维_hadoop_117

#切换至soft目录:
cd /root/soft

#创建软连接:
ln -s kafka_2.11-2.4.1 kafka

#同步kafka至其他机器:
xsync kafka_2.11-2.4.1

切换hadoop2、hadoop3创建软连接

(3).配置环境变量

vi ~/.bashrc

#内容如下:
export KAFKA_HOME=/root/soft/kafka

export PATH=$PATH:$KAFKA_HOME/bin

大数据云平台搭建 大数据平台搭建及运维_hdfs_118

#让环境变量生效:
source ~/.bashrc

每一台都需要配置环境变量,在hadoop2、hadoop3重复(3)步骤

(4).分别在三台机器上创建logs目录

#切换到kafka目录:
cd $KAFKA_HOME

#创建logs目录:
mkdir logs

大数据云平台搭建 大数据平台搭建及运维_hdfs_119

(5).修改配置文件server.properties

#切换至config目录:
cd config

#编辑server.properties:
vi server.properties

大数据云平台搭建 大数据平台搭建及运维_kafka_120

#修改内容如下:
broker.id=0

#删除topic功能
delete.topic.enable=true

log.dirs=/root/soft/kafka/logs

zookeeper.connect=hadoop1:2181,hadoop2:2181,hadoop3:2181/kafka

大数据云平台搭建 大数据平台搭建及运维_zookeeper_121


大数据云平台搭建 大数据平台搭建及运维_hadoop_122


大数据云平台搭建 大数据平台搭建及运维_zookeeper_123

#分发server.properties到hadoop2、hadoop3:
xsync server.properties

#修改hadoop2的server.properties中
broker.id=1

#修改hadoop3的server.properties中
broker.id=2

(6).编写kafka脚本

#进入bin目录下:
cd ~/bin

#创建脚本:
vi kf.sh

内容如下:

#!/bin/bash
case $1 in
"start"){
  for i in hadoop1 hadoop2 hadoop3
  do
    echo " --------启动 $i Kafka-------"
    ssh $i "/root/soft/kafka/bin/kafka-server-start.sh -daemon /root/soft/kafka/config/server.properties "
  done
};;
"stop"){
  for i in hadoop1 hadoop2 hadoop3
  do
    echo " --------停止 $i Kafka-------"
    ssh $i "/root/soft/kafka/bin/kafka-server-stop.sh stop"
  done
};;
esac

大数据云平台搭建 大数据平台搭建及运维_kafka_124


添加脚本执行权限:chmod u+x kf.sh

大数据云平台搭建 大数据平台搭建及运维_hadoop_125

(7).启动kafka集群

启动kafka集群需要先启动zookeeper集群:zk.sh start | kf.sh start

大数据云平台搭建 大数据平台搭建及运维_kafka_126


使用jps查看三台机器的节点是否启动:jps

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_127


大数据云平台搭建 大数据平台搭建及运维_hdfs_128


大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_129


关闭kafka集群:kf.sh stop

大数据云平台搭建 大数据平台搭建及运维_kafka_130

(8).kafka集群的简单使用

启动kafka集群:kf.sh start

进入kafka目录:cd $KAFKA_HOME

查看kafka topic列表:bin/kafka-topics.sh --zookeeper hadoop1:2181/kafka --list

大数据云平台搭建 大数据平台搭建及运维_zookeeper_131


创建topic:bin/kafka-topics.sh --zookeeper hadoop1:2181/kafka

–create --replication-factor 3 --partitions 1 --topic demo

大数据云平台搭建 大数据平台搭建及运维_hdfs_132


删除topic:bin/kafka-topics.sh --zookeeper hadoop1:2181/kafka

–delete --topic demo

大数据云平台搭建 大数据平台搭建及运维_zookeeper_133


发送消息:bin/kafka-console-producer.sh

–broker-list hadoop1:9092 --topic demo

大数据云平台搭建 大数据平台搭建及运维_hdfs_134


消费消息:bin/kafka-console-consumer.sh

–bootstrap-server hadoop1:9092 --from-beginning --topic demo

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_135


查看某个topic的详情:bin/kafka-topics.sh --zookeeper hadoop1:2181/kafka \ --describe --topic demo

大数据云平台搭建 大数据平台搭建及运维_hdfs_136


大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_137


修改分区数:bin/kafka-topics.sh --zookeeper hadoop1:2181/kafka --alter --topic demo --partitions 6

大数据云平台搭建 大数据平台搭建及运维_大数据云平台搭建_138