无镜像搭建openstack,搭建镜像服务器

http://www.itjxue.com  2023-01-24 12:42  来源:未知  点击次数: 

简述OpenStack创建云主机的步骤?

登录OpenStack控制台,进入“云主机”页面。

点击“创建云主机”按钮,进入云主机创建向导。

选择云主机所在的项目和数据中心(或区域)。

选择云主机的镜像(即操作系统)和规格(即 CPU 和内存的大小)。

选择云主机所在的网络,并为云主机分配一个名称和密码。

如果需要,可以为云主机配置一个公共 IP 地址或一个密钥对。

点击“创建云主机”按钮,开始创建云主机。

创建过程中,OpenStack 会自动分配资源并安装所选操作系统。创建完成后,你就可以通过 SSH 客户端登录云主机并使用它了。

注意:这只是创建云主机的简要流程。实际操作中,还有很多其他选项和设置可供选择,比如磁盘配置、安全组规则、自定义脚本等。

怎么创建openstack镜像

一、思路就4步: 1、创建镜像文件 2、用nova-compute自带的kvm,启动.iso文件,用vncviewer完成OS的安装过程 3、OS安装完毕,停止虚拟机,kvm重启镜像,安装必要的软件 4、后续:上传镜像到云中 二、镜像制作指导 很多源都有为OpenStack已经编译...

如何制作安装了openstack的Ubuntu系统ISO镜像

1. 下载对应需求的Ubuntu镜像

2. 安装kvm-pxe(此步骤因为在搭建openstack环境应该已经下载,故应该可以省略)

apt-get install kvm-pxe

Note:用于解决出现:failed to find romfile “pxe-rtf8138.bin”错误

3. 创建一个大小10G的“硬盘”(raw格式)

kvm-img create -f raw ubuntu.img 10G

4. 使用刚才下载的ubuntu“安装盘”和刚创建的“硬盘”引导启动系统,为了简单起见,本文使用kvm虚拟技术,避开xen繁琐的配置。-vnc参数代表撕开vnc访问,以便可以使用其他机器远程登陆到这个引导界面进行安装操作:

kvm -m 1024 -cdrom ubuntu-11.10-server-amd64.iso -drive file=ubuntu.img -boot d -nographic -vnc :5

Note:

1. 本命令是前台进程,会占用一个终端,后续操作需要打开一个新的终端

2. 启动kvm命令可以在server版本中运行,但是安装系统的操作需要桌面图形支持

3. 如果提示端口3被占用,访问拒绝,那么继续向后调整到端口4,5直到不提示错误

状态是上面一行命令保持不动,此时继续执行下面操作

5. 用vncviewer登陆引导界面后按照屏幕的提示完成ubuntu的安装工作(安装过程和自己电脑一样,安装过程省略)。需要注意的是在分区阶段把10GB硬盘全部分成一个ext4分分区,并挂在到/下,不要创建多个分区也不要创建swap分区

vncviewer 192.168.1.198:5905

Note:

1. 192.168.1.198是本机IP

2. 安装完成后退出,必要时kill掉kvm进程

3. 5905的数字3对应之前的vnc:5,如果修改,则二者应该保持一致。

6. 重启虚拟机镜像

kvm -m 1024 -drive file=ubuntu.img -boot c -net nic -net user -nographic -vnc :5

主意:2048代表虚拟机内存大小,如果真机内存较大的情况下,建议将该值调整到1024或者2048,这样可以保证较为流畅的操作

7. 安装相关模板服务制作

vncviewer 192.168.1.198:5905进入模板系统

(因为vnc内对ctrl+alt+t组合键不能识别,故不能通过快捷键在虚拟机内直接调用终端,所以需要手动点击左上角ubuntu图标,在搜索一栏输入终端,并启动终端),然后执行如下三行

apt-get update

OpenStack部署都有哪些方式

对于每一个刚接触到OpenStack的新人而言,安装无疑是最困难的,同时这也客观上提高了大家学习OpenStack云计算的技术门槛。想一想,自己3年前网上偶然接触到OpenStack时,一头茫然,手动搭建一个多节点环境时居然用了3个星期。

时至今日,真是感触颇多,从某种角度而言,也很庆幸当时自己并未因困难而放弃OpenStack,否则,应该是去做其他领域了吧!

言归正传,咱们就来数落数落部署OpenStack都有哪些方式吧。这里,我们根据使用者群体的不同类型来进行分类和归纳:

个人使用方面

DevStack

无疑,在可预见的未来时间内,DevStack仍将是众多开发者们的首选安装方式或工具。该方式主要是通过配置参数,执行shell脚本来安装一个OpenStack的开发环境。

Github:

Wiki:

Rdo

Rdo是由Red Hat开源的一款部署OpenStack的工具,同DevStack一样,支持单节点和多节点部署。但Rdo只支持CentOS系列的操作系统。需要注意的是,该项目并不属于OpenStack官方社区项目。

Docs:

手动部署

手动部署all-in-one、multi-node、multi-HA-node环境。

其他

企业、团体方面

Puppet

Puppet由Ruby语言编写。应当说,Puppet是进入OpenStack自动化部署中的早期一批项目,历史还算悠久。目前,它的活跃开发群体们是Red hat、 Mirantis、UnitedStack等。

Red

hat自从收购Ansible之后,如今仍然保持强势劲头在Puppet

OpenStack项目中的Commit数量和质量,其技术实力不容小觑;Mirantis出品的Fuel部署工具中,大量的模块代码便使用的是

Puppet。就国内而言,UnitedStack是Puppet社区贡献和使用的最大用户。

Github:

Governance:

Wiki:

Ansible

Ansible

是新近出现的自动化运维工具,已被Red

Hat收购。基于Python开发,集合了众多运维工具(puppet、cfengine、chef、saltstack等)的优点,实现了批量系统配

置、批量程序部署、批量运行命令等功能,它一方面总结了Puppet的设计上的得失,另一方面也改进了很多设计。比如是基于SSH方式工作,故而不需要在

被控端安装客户端。使得在和OpenStack结合上没有历史包袱,更加能够轻装上阵,未来发展潜力不容小觑号称是“你一直寻找的下一代Iaas”的

Zstack,使用到的部署工具也是基于Ansible。

Openstack-ansible项目,最早是由老牌Rackspace公司在Launchpad官网上注册。

在最新的Ansible OpenStack项目社区Commit贡献中,Rackspace也可谓是遥遥领先,而紧随其后的是Red Hat、国内九州云等公司。

Github:

SaltStack

SaltStack

也是一款开源的自动化部署工具,基于Python开发,实现了批量系统配置、批量程序部署、批量运行命令等功能,和Ansible也是挺相近的。不同之一

是,由于SaltStack的master和minion认证机制和工作方式,需要在被控端安装minion客户端,在加之其他原因,自然和

Ansible相比,其优缺点便很明显了。

需要注意的是,使用Saltstack部署OpenStack,并不属于OpenStack社区项目。目前,主要还是处于用户自研自用的阶段。据笔者所知,目前国内的携程应该是使用Saltstack部署OpenStack规模最大的用户。

Saltstack部署OpenStack示例:

Saltstack部署OpenStack模块:

TripleO

Tripleo

项目最早由HP于2013.4在launchpad上注册BP。用于完成OpenStack的安装与部署。TripleO全称“OpenStack On

OpenStack”,意思即为“云上云”,可以简单理解为利用OpenStack来部署OpenStack,即首先基于V2P(和P2V相反,也就是指

把虚拟机的镜像迁移到物理机上)的理念事先准备好一些OpenStack节点(计算、存储、控制节点)的镜像,然后利用已有openstack环境的裸机

服务Ironic项目去部署裸机,软件安装部分的diskimage-builder,最后通过Heat项目和镜像内的DevOps工具(Puppet

Or Chef)再在裸机上配置运行openstack。

和其他部署工具不同的是,TripleO利用OpenStack本来的基础设施来部署OpenStack,基于Nova、 Neutron、Ironic和Heat,来自动化部署和伸缩OpenStack集群。

当确切的说,TripleO项目属于当前OpenStack社区主推的“Big Tent”开发模式下的big tent

project(OpenStack下的项目分为三种,core project: nova/neutron等核心项目,big tent

project: 非核心项目,但也被OpenStack 基金会接受;第三种就是其它项目,只是放在OpenStack下,但是社区还没有接受)。

在该项目的社区Commit贡献上,Red hat可谓是遥遥领先,而紧随其后的是IBM等公司。

Wiki:

Kolla

国内一些互联网资料上,常看到关于kolla是TripleO项目的一部分这样的描述,其实是不准确的。真实的是,Kolla项目起源于Tripleo项

目,时至今日,与它没有任何关系(虽然它们的目标都是做自动化部署,但走的道路却不同)。比之于Tripleo和其他部署工具,Kolla走的是

docker容器部署路线。

kolla项目起源于TripleO项目,聚焦于使用docker容器部署OpenStack服务。该项目由

Cisco于2014年9月提出,是OpenStack的孵化项目。当前Kolla项目在Kollaglue

repo提供了以下服务的docker镜像。 # docker search kollaglue

Kolla的优势和使用场景,体现在如下几个方面:

原子性的升级或者回退OpenStack部署;

基于组件升级OpenStack;

基于组件回退OpenStack;

这里,我们予以拆分来理解:

Kolla

的最终目标是为OpenStack的每一个服务都创建一个对应的Docker Image,通过Docker

Image将升级的粒度减小到Service级别,从而使升级时,对OpenStack影响能达到最小,并且一旦升级失败,也很容易回滚。升级只需要三

步:Pull新版本的容器镜像,停止老版本的容器服务,然后启动新版本容器。回滚也不需要重新安装包了,直接启动老版本容器服务就行,非常方便。

Kolla是通过Docker Compose来部署OpenStack集群的,现在主要是针对裸机部署的,所以在部署Docker Container时,默认的网络配置都是Host模式。

先,只需要通过一个命令就可以把管理节点部署完成,这个命令是调用Docker

Compose来部署OpenStack的所有服务,然后我们可以在每一个计算节点上通过Docker

Compose安装计算节点需要的服务,就能部署一个OpenStack集群。因为Kolla的Docker

Image粒度很小,它针对每个OpenStack服务都有特定的Image,所以我们也可以通过Docker

Run来操作某个具体的OpenStack服务。

目前,我所在的公司九州云的一位同事近日获得提名成为Kolla项目Core。为OpenStack社区中增添了一份来自于中国的力量。

Fuel

Fuel

是针对OpenStack生产环境目标

(非开源)设计的一个端到端”一键部署“的工具,大量采用了Python、Ruby和JavaScript等语言。其功能含盖自动的PXE方式的操作系统

安装,DHCP服务,Orchestration服务 和puppet 配置管理相关服务等,此外还有OpenStack关键业务健康检查和log

实时查看等非常好用的服务。

Fuel,这款让很多人即爱且痛的工具,在国内外都很盛名。爱的原因是,它确实很棒;痛的原因是,要想彻底掌握

它,可不是一件容易事(各个模块集成度高、使用技术复杂)。既然提到Fuel,自然不能不提它的父母——Mirantis。Mirantis是一家技术实

力非常雄厚的OpenStack服务集成商,他是社区贡献排名前5名中唯一一个靠OpenStack软件和服务盈利的公司。同时,Fuel的版本节奏也很

快,平均每半年就能提供一个相对稳定的社区版。

从和笔者接触到的一些情况来看,国内研究、使用Fuel的个人、群体还是为数不少的。不少国内OpenStack初创公司的安装包就是基于Fuel去修改的。

(责任编辑:IT教学网)

更多

推荐excel文章