OpenStack的环境部署7-1
- 一、基础环境配置
- 1、修改网卡配置
- 2、防火墙、核心防护、主机名
- 3、基础环境依赖包
- 4、三台节点做免交互
- 5、配置DNS,配置控制节点时间同步
- 6、配置计算节点时间同步
- 二、系统环境配置
- 1、安装、配置MariaDB
- 2、添加MySQL子配置文件,增加如下内容
- 3、执行MariaDB 安装配置脚本
- 4、安装RabbitMQ
- 5、安装memcached
- 6、安装etcd
一、基础环境配置
CT VM:192.168.10.101 NAT:192.168.221.101
C1 VM:192.168.10.102 NAT:192.168.221.102
C2 VM:192.168.10.103 NAT:192.168.221.103
下面以CT为列,其他的注意修改成对应的ip
1、修改网卡配置
示范一台
修改NAT网卡配置
vim /etc/sysconfig/network-scripts/ifcfg-ens34
BOOTPROTO=static #修改网卡配置参数,修改为静态IP
ONBOOT=yes #开启设备开机启动
IPADDR=192.168.221.101 #添加字段,静态模式IP自定义
NETMASK=255.255.255.0 #添加字段,设置网段
GATEWAY=192.168.221.2 #添加字段,设置网关
DNS1=192.168.221.2 #添加字段,设置DNS服务器
IPV4_ROUTE_METRIC=90 #设置网卡优先级,默认100,越低优先级越高,防止出现两张网卡为了抢占优先级导致无法连接问题
修改VMnet1网卡配置
cd /etc/sysconfig/network-scripts/
vim ifcfg-ens34
#修改
BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.10.101 #根据网段,设置VMnet1网段的IP,自定义
NETMASK=255.255.255.0 #设置掩码
systemcrl restart network
ip a
在这里插入图片描述
2、防火墙、核心防护、主机名
关闭防火墙、核心防护
hostnamectl set-hostname CT
su
systemctl stop firewalld
systemctl disable firewalld
#SELinux 主要作用:最大限度地减小系统中服务进程可访问的资源
#这里需要关闭SELinux
#临时关闭
setenforce 0
#永久关闭
vi /etc/sysconfig/selinux
SELINUX=disabled
3、基础环境依赖包
yum -y install \
net-tools \
bash-completion \
vim \
gcc gcc-c++ \
make \
pcre pcre-devel \
expat-devel \
cmake \
bzip2 \
lrzsz
#-----------------------模块解释------------------------
net-tools ifconfig命令行工具
bash-completion 辅助自动补全工具
vim vim工具
gcc gcc-c++ 编译环境
make 编译器
pcre pcre-devel 是一个Perl库,包括 perl 兼容的正则表达式库
expat-devel Expat库,Expat是一个面向流的xml解析器
cmake CMake是一个跨平台的编译工具,CMkae目前主要使用场景是作为make的上层工具,产生可移植的makefile文件
lrzsz 可使用rz、sz命令上传、下载数据
OpenStack 的 train 版本仓库源安装包,同时安装 OpenStack 客户端和 openstack-selinux 安装包
yum -y install centos-release-openstack-train python-openstackclient openstack-selinux openstack-utils
yum -y install \
centos-release-openstack-train \
python-openstackclient \
openstack-selinux \
openstack-utils
#----------------模块解释------------------------------
centos-release-openstack-train train版本包
python-openstackclient 安装openstack客户端
openstack-selinux 安装selinux自动管理,这里selinux是关闭的
openstack-utils 方便后续直接可以通过命令行方式修改配置文件
4、三台节点做免交互
所有节点,我这里只示范一台,其余都需配置
将VMnet1IP与主机名注入到主机映射文件中,用于区分主机,便于相互访问
echo '192.168.10.101 ct' >> /etc/hosts
echo '192.168.10.102 c1' >> /etc/hosts
echo '192.168.10.103 c2' >> /etc/hosts
ssh-keygen -t rsa
#一路回车
ssh-copy-id ct
ssh-copy-id c1
ssh-copy-id c2
5、配置DNS,配置控制节点时间同步
所有节点
echo 'nameserver 114.114.114.114' >> /etc/resolv.conf
控制节点ct(192.168.184.11)
yum -y install chrony
vim /etc/chrony.conf
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
server ntp6.aliyun.com iburst #配置阿里云时钟服务器源
allow 192.168.10.0/24 #允许192.168.100.0/24网段的主机来同步时钟服务
#使用chronyc sources命令查询时间同步信息
systemctl enable chronyd
systemctl restart chronyd
chronyc sources
6、配置计算节点时间同步
vim /etc/chrony.conf
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
server ct iburst #配置阿里云时钟服务器源,同步指向控制节点ct
systemctl enable chronyd.service
systemctl restart chronyd.service
chronyc sources
所有节点,配置计划性任务,每隔两分钟时间同步一次
crontab -e
*/2 * * * * /usr/bin/chronyc sources >>/var/log/chronyc.log
crontab -l
二、系统环境配置
1、安装、配置MariaDB
控制节点ct(192.168.221.101)
yum -y install mariadb mariadb-server python2-PyMySQL
yum -y install libibverbs
mariadb:是mysql的一个分支,是一款完全兼容mysql的开源软件
mariadb-server:数据库服务
python2-PyMySQL:用于openstack的控制端连接mysql所需要的模块,如果不安装,则无法连接数据库;此包只安装在控制端
libibverbs:远程直接内存访问
2、添加MySQL子配置文件,增加如下内容
控制节点ct(192.168.221.101)
vim /etc/my.cnf.d/openstack.cnf
[mysqld]
bind-address = 192.168.10.101
default-storage-engine = innodb
innodb_file_per_table = on
max_connections = 4096
collation-server = utf8_general_ci
character-set-server = utf8
bind-address = 192.168.10.10 #控制节点局域网地址
default-storage-engine = innodb #默认存储引擎
innodb_file_per_table = on #每张表独立表空间文件
max_connections = 4096 #最大连接数
collation-server = utf8_general_ci #默认字符集
character-set-server = utf8
systemctl start mariadb
systemctl enable mariadb
3、执行MariaDB 安装配置脚本
控制节点ct(192.168.221.101)
mysql_secure_installation
Enter current password for root (enter for none): #输入当前root密码,回车
OK, successfully used password, moving on...
Set root password? [Y/n] Y #是否需要更改root密码,Y确认
Remove anonymous users? [Y/n] Y #是否移除其他用户,Y确认移除
... Success!
Disallow root login remotely? [Y/n] n #是否不允许root用户远程登陆,输入n,允许root用户远程登陆
... skipping.
Remove test database and access to it? [Y/n] Y #是否删除test测试库,Y确认删除
Reload privilege tables now? [Y/n] Y #是否刷新规则,Y确认刷新
4、安装RabbitMQ
控制节点ct(192.168.221.101)
所有创建虚拟机的指令,控制端都会发送到rabbitmq,node节点监听rabbitmq
yum -y install rabbitmq-server
===配置服务,启动RabbitMQ服务,并设置其开机启动===
systemctl enable rabbitmq-server.service
systemctl start rabbitmq-server.service
===创建消息队列用户,用于controler和 计算节点连接rabbitmq的认证(关联)===
rabbitmqctl add_user openstack RABBIT_PASS
===配置openstack用户的操作权限(正则,配置读写权限)===
rabbitmqctl set_permissions openstack ".*" ".*" ".*"
查看rabbitmq插件列表
rabbitmq-plugins list
开启rabbitmq的web管理界面的插件,端口为15672
rabbitmq-plugins enable rabbitmq_management
此时可查看25672和5672 两个端口(5672是Rabbitmq默认端口,25672是Rabbit的测试工具CLI的端口)
netstat -natp | grep 5672
此时可访问192.168.221.101:15672
默认账号和密码都是guest,点击Login即可进入以下界面
5、安装memcached
是一个缓存数据库,安装memcached是用于存储session信息;服务身份验证机制(keystone)使用Memcached来缓存令牌 在登录openstack的dashboard时,会产生一些session信息,这些session信息会存放到memcached中
控制节点ct(192.168.221.101)
yum install -y memcached python-memcached
#python-*模块在OpenStack中起到连接数据库的作用
1、修改memcached配置文件
控制节点ct(192.168.221.101)
vim /etc/sysconfig/memcached
PORT="11211" #memcached端口11211
USER="memcached" #用户memcached
MAXCONN="1024" #最大连接数1024
CACHESIZE="64" #字符集大小64位
OPTIONS="-l 127.0.0.1,::1,ct" #监听地址,127.0.0.1:本地地址,::是ipv6地址,ct是本地VMnet1地址
开启服务开机自启,启动服务
systemctl enable memcached
systemctl start memcached
netstat -nautp | grep 11211
6、安装etcd
etcd是一个分布式可靠的键值存储系统,数据库
控制节点ct(192.168.221.101)
yum -y install etcd
1、修改etcd配置文件
控制节点ct(192.168.221.101 )
cd /etc/etcd/
vim etcd.conf
删除所有内容,复制粘贴以下内容并进行修改
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="http://192.168.10.101:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.10.101:2379"
ETCD_NAME="ct"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.10.101:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.10.101:2379"
ETCD_INITIAL_CLUSTER="ct=http://192.168.10.101:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
ETCD_INITIAL_CLUSTER_STATE="new"
ETCD_DATA_DIR="/var/lib/etcd/default.etcd" #数据目录位置
ETCD_LISTEN_PEER_URLS=“http://192.168.10.10:2380” #监听其他etcd member的url(2380端口,集群之间通讯,域名为无效值)
ETCD_LISTEN_CLIENT_URLS=“http://192.168.10.10:2379” #对外提供服务的地址(2379端口,集群内部的通讯端口)
ETCD_NAME=“ct” #集群中节点标识(名称)
ETCD_INITIAL_ADVERTISE_PEER_URLS=“http://192.168.10.10:2380” #该节点成员的URL地址,2380端口:用于集群之间通讯。
ETCD_ADVERTISE_CLIENT_URLS=“http://192.168.10.10:2379”
ETCD_INITIAL_CLUSTER=“ct=http://192.168.10.10:2380”
ETCD_INITIAL_CLUSTER_TOKEN=“etcd-cluster-01” #集群初始化令牌
ETCD_INITIAL_CLUSTER_STATE=“new” #初始集群状态,new为静态,若为existing,则表示此ETCD服务将尝试加入已有的集群
若为DNS,则表示此集群将作为被加入的对象
控制节点ct(192.168.221.101)
systemctl enable etcd.service
systemctl start etcd.service
netstat -anutp |grep 2379
netstat -anutp |grep 2380