OpenStack 部署总结之:在CentOS 6.5上使用RDO单机安装icehouse(Ml2+GRE)

本文主要是介绍OpenStack 部署总结之:在CentOS 6.5上使用RDO单机安装icehouse(Ml2+GRE),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文主要介绍如何在CentOS6.5上通过RDO来安装icehouse,由于安装的过程中涉及的软件较多,以及依赖关系比较复杂,建议使用一个全新的操作系统来进行安装。


安装步骤具体如下

(1)安装操作系统

使用光盘或镜像文件安装操作系统.

分区的时候需要划分一个逻辑区,并且建立一个名称叫cinder-volumes的组。这个逻辑卷组会被cinder使用。

创建的效果类似于:


创建过程请参考:http://www.centos.org/docs/5/html/Deployment_Guide-en-US/s1-lvm-diskdruid-manual.html

也可以装完操作系统后通过命令的方式来创建

(2)配置网络

配置 vi /etc/sysconfig/network-scripts/ifcfg-em1,编辑内容如下


DEVICE=em1
HWADDR=F8:B1:56:AE:3A:84
TYPE=Ethernet
UUID=6f49b547-f1f8-4b21-a0fc-68791a5237dd
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.40.145
NETMASK=255.255.255.0
GATEWAY=192.168.40.1
DNS1=8.8.8.8

经过以上配置后,确定网络可以连接.

由于实例运行的过程中,可以将NetworkManager服务停止,以为这个服务没用的服务会占用大量的内存

chkconfig NetworkManager off


除了网卡以及NetworkManager off两个配置项外,还需要配置主机名,编辑/etc/hosts文件

127.0.0.1   yourhostname

(3)安装相关的yum源

yum源是否正确安装直接影响到安装的正确性,本人安装的过程中出现的很多问题都和源有关

安装的过程主要涉及到三个源:

安装163源

 1,备份/etc/yum.repos.d/CentOS-Base.repo

  mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup

  2,下载对应版本repo文件, 放入/etc/yum.repos.d/(操作前请做好相应备份)

  • CentOS5
  • CentOS6

安装icehouse源

执行以下命令

yum install -y http://rdo.fedorapeople.org/openstack-icehouse/rdo-release-icehouse.rpm 

安装epel源

选用的是64位系统,执行以下命令

rpm -ivh http://download.fedora.redhat.com/pub/epel/6/x86_64/epel-release-6-5.noarch.rpm

在安装上面源的时候会生成foreman.repo源,这个源可直接删掉

(4)安装openstack-packstack

执行下面的命令

yum install -y openstack-packstack

(5)配置并修改packstack配置文件

为了方便以后多次执行相同的packstack的配置,可以先导出一个原始的配置,然后在这个文件上做一些修改,以后就可以指定配置文件的方式安装openstack

生成自己的配置文件

packstack --gen-answer-file=myanswer.txt 

修改配置文件

为了验证icehouse中的heat,lbaas,ceilometer等组建的新特性,所以需要安装这些组建,另外网络上的配置也做了一些调整。

将下面的配置覆盖到myanswer.txt中

CONFIG_PROVISION_DEMO=n
CONFIG_KEYSTONE_ADMIN_PW=admin
#CONFIG_NEUTRON_L2_PLUGIN=openvswitch
CONFIG_NEUTRON_METERING_AGENT_INSTALL=y
CONFIG_NEUTRON_L2_PLUGIN=ml2
CONFIG_NEUTRON_ML2_TYPE_DRIVERS=gre
CONFIG_NEUTRON_ML2_TENANT_NETWORK_TYPES=gre
CONFIG_NEUTRON_ML2_TUNNEL_ID_RANGES=100:1000
CONFIG_NEUTRON_OVS_TENANT_NETWORK_TYPE=gre
CONFIG_NEUTRON_OVS_TUNNEL_RANGES=100:1000
CONFIG_NEUTRON_OVS_TUNNEL_IF=eth1
CONFIG_CINDER_VOLUMES_CREATE=n
#########
CONFIG_LBAAS_INSTALL=y
CONFIG_CEILOMETER_INSTALL=y
CONFIG_HEAT_CLOUDWATCH_INSTALL=y
CONFIG_HEAT_CFN_INSTALL=y
CONFIG_HEAT_INSTALL=y

(6)执行配置文件

packstack --answer-file=myanswer.txt

(7)登陆

用户名为admin,密码为admin


这篇关于OpenStack 部署总结之:在CentOS 6.5上使用RDO单机安装icehouse(Ml2+GRE)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/708397

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;