1. 如何快速部署OpenStack环境
OpenShit是一款能够在Ubuntu14.04系统上快速部署Openstack的小工具,它使用Shell脚本和Python脚本完成对Openstack各组件的安装和配置.并且可以方便的更改配置参数重新配置,重启服务清空数据库等等.利用命令可以进行完全的自动化安装和配置.以下是OpenShit的地址OpenShit命令介绍 ./openshit.sh <–all|service_name> start|stop|restart 可对各个(或者全部)Openstack组件进行启动,停止,重启操作. ./openshit.sh <–all|service_name> install|uninstall|download 可对Openstack各个组件进行 安装,卸载,下载包 操作 ./openshit.sh <–all|service_name> config 可以配置组建建立数据库, 原先的配置文件在config-backup文件夹中按照时间备份起来,使用rollback.sh脚本可以方便的回滚配置文件改动 ./openshit.sh <–all|service_name> clean 可以清除服务的数据库, 若服务出问题了可以直接清掉数据库然后重新config 接下来我们使用OpenShit在Ubuntu14.04上部署OpenStack.这里有几个小要求: 1. Ubuntu14.04分区一定要有足够的空间.OpenStack在创建实例的时候会使用分区的空间,空间不够则无法创建实例.测试用Ubuntu14.04分了100G,足够使用了. 2. 建议最好是新装的ubuntu分区.如果装过神马DevStack没装成功一堆垃圾留在系统库里再用OpenShit不成功那就不好意思了.不多说现在开始 1.安装git, 使用git下载openshit git clone https://github.com/windworst/openshit.git. 2.修改配置文件setting.conf. 里面有很多密码:数据库密码,服务密码.默认的可以更改,不改也没什么. 改变网络配置.配置文件内IP值都设置称自己的IP, 网卡设置成自己的网卡(默认为eth0). 3.配置文件修改完成后开始安装 ./openshit.sh –all install. 这个命令会 问你是否需要配置软件源, 第一次使用openshit请选择y, 所以命令可以这样写: echo y | ./openshit.sh –all install 4.一段时间后安装完成,请输入 ./openshit.sh –all config 会根据setting.conf的值修改各个组件的配置文件以及数据库配置. 5.完成后 运行source admin-env.sh; nova service-list 查看服务状态若都为up安装成功 在浏览器内打开 http://localhost/horizon即可看到Openstack管理界面输入密码可登陆现在OpenStack成功部署到了Ubuntu14.04服务器上. 为了成功运行一个实例,我们需要制作并上传一个镜像, 配置网络,启动实例. 这里制作一个ubuntu14 server 的镜像 1. 制作镜像 qemu-img create -f qcow2 ubuntu.img 20G kvm -cdrom ubuntu-14.04-server-amd64.iso -drive file=ubuntu.img,if=virtio,index=0 -boot d -net nic -net user 这里就是直接从光盘安装ubuntu14-server了 装好就行 2.上传镜像 在openshit目录中 执行 source admin-env.sh 执行 glance image-create –name "ubuntu" –file ubunut.img –disk-format qcow2 –container-format bare –is-public True –progress 进度条快速滚过,上传完成 3. 创建网络 在openshit目录中 执行 source admin-env.sh (前面执行过了这里就不用执行了) 执行 nova network-create v-net –bridge br100 –multi-host T –fixed-range-v4 10.0.1.0/29 这里 v-net是网络名字 10.0.1.0/29 是网段和要分配的主机数量 不要设置网段跟本网段一样,否则蛋疼超乎你想象 执行 nova net-list 可以看到刚才创建的网络 4. 创建实例 在web管理端 镜像 栏内 点 运行 即可创建实例 (会分配刚才创建网络的ip地址) 点击控制台,可以通过vnc看到虚拟机的屏幕 这里有个问题 虚拟机和主机能互相ping通(需要关掉防火墙),不过无法访问外网,可能是哪里没有设置.
2. packstack部署openstacky要多久
看掌握程度部署方式主要有手动部署和自动化部署。没啥好办法,按照官方文档,一步一步进行安装,对于初学者来说,有助于加深理解。个人建议,先学习各个组件,大致理解每个组件的原理和用途,再进行安装尝试。自动化部署:自动化部署方式有很多,这里只列举比较常用的几个。Kolla:容器化部署方式,所有的服务和组件都打包成了docker镜像,部署简单。个人喜欢这种方式,因此排在第一位。DevStack.一键脚本安装,快速搭建openstack开发环境。RDO.红帽开源的openstack部署工具,只支持redhat及centos系列的系统。Fuel.OpenStack的开源部署和管理工具。功能强大,掌握起来有一定难度。
3. 如何基于openstack管理配置数据
OpenStack软件包括许多不同的模块,针对云环境中各个方面:Swift:对象存储Cinder:块存储Nova:虚拟机计算Neutron:网络Horizon: 仪表盘Keystone:认证服务Glance:镜像服务Ceilometer:遥测Heat:编排Trove:数据库即服务随着每一个OpenStack的代码发布(目前是第九个版本,叫做IceHouse),新项目被创建或者从已有的项目上“分支”出来或者开一个全新的分支,包括用于裸机管理的Ironic以及会在OpenStack的Juno版本中发布的Sahara,用于弹性MapRece。数据服务由以上的五个组件来提供。Swift是一个子项目,为OpenStack基础架构提供对象存储的功能。块存储由Cinder提供,使用标准的象iSCSI和NFS这样的IP存储协议。Glance为VM镜像提供一个知识库,使用底层的基本文件系统或者Swift作为存储。Trove提供数据库即服务 (DBaaS) 的能力,而Sahara提供弹性MapRece的功能,后者也被称为Hadoop集群存储。这篇文章,我们将着重讲述Cinder和Swift这两大主要的存储平台。Cinder块存储块存储是虚拟基础架构中必不可少的组件,是存储虚拟机镜像文件及虚拟机使用的数据的基础。直到2012年OpenStack Folsom的发布才引入了Cinder,VM镜像是短暂的,它们的存储只维持在那台虚拟机的生命周期。Cinder提供对块存储的管理支持,通过使用iSCSI, 光纤通道或者NFS协议,以及若干私有协议提供后端连接,展现给计算层(Nova)。Cinder接口提供了一些标准功能,允许创建和附加块设备到虚拟机,如“创建卷”,“删除卷”和“附加卷”。还有更多高级的功能,支持扩展容量的能力,快照和创建虚拟机镜像克隆。许多厂商在他们现有的硬件平台上提供对Cinder块的支持,通过使用一个Cinder驱动将Cinder API转换成厂商特定的硬件命令。提供Cinder支持的厂商包括了EMC(VMAX和VNX),惠普(3PAR StoreServ和StoreVirtual),日立数据系统,IBM(跨所有存储平台),NetApp,Pure Storage和SolidFire。还有一些基于软件的解决方案,比如EMC(ScaleIO)和Nexenta。另外,许多软件存储实现,包括开源平台,都可以用于提供对Cinder的支持,这些软件中包括红帽的Ceph和GlusterFS。Ceph已经被集成到Linux内核中,使其成为最简单的一种为OpenStack部署环境提供块存储的方法。NFS的支持是在2013年OpenStack的第七个版本引入的,又叫Grizzly,尽管之前Folsom有提供“试验性的”技术支持。在NFS的环境中,VM磁盘分区被当作单个的文件,这和在VMware ESXi虚拟程序或者微软的Hyper-V的VHD所使用的方法相似。将VM磁盘分区封装成文件可以实现类似快照和克隆这样的功能。存储功能已引入Cinder的后续版本,之后一直被存储厂商们支持。支持的各种厂商平台和功能的完整列表可以在OpenStack的关于OpenStack块存储驱动器的Wiki页面找到。Swift对象存储OpenStack中的对象存储通过Swift来达成,Swift实现了分布在OpenStack的集群节点的横向扩展的对象存储。对象存储将数据以二进制对象的方式存储,没有特别的格式要求。Swift使用简单的类似PUT或GET(基于HTTP网络协议,也被称为RESTful API)的命令对对象进行存取操作。Swift架构被分割成一些逻辑服务,包括对象服务器,代理服务器,容器服务器和帐户服务器,整个一起被称作一个ring。数据同其他用于追踪与每个存储对象相关的元数据和管理数据访问的组件一起存储在对象服务器上。在Swift中使用zone的概念来管理数据的弹性。一个zone是一个ring的子部件,用于提供数据的一个拷贝,多个zone则用来存储冗余的数据拷贝,被称为replica(默认最少3个)。Swift能用一个单独的磁盘或者服务器来代表一个zone,包括数据中心之间的数据地理分布。同许多对象存储一样,Swift使用最终一致性的思想来实现数据的弹性。这意味着数据不是象块存储那样以同步的方式在整个OpenStack集群里复制,而是在zone之间以一个后台任务的形式进行复制,这在系统高负载的情况下也许会挂起或者失败。与块存储的同步复制提供高级别的可靠性功能相比,最终一致性也许看起来会更具风险。但是,在可扩展性,性能和弹性中总是得做出取舍。最终一致性使得一个记录归档比在一个基于块存储的系统更容易具备可扩展性,就Swift而言,代理服务器会确保取得最近一次的数据拷贝,即便在该集群里的一些服务器无法访问的时候。和所有的OpenStack项目一起,随着每个版本的发布,Swift不断被开发出新的功能和功能增强。OpenStack Grizzly引入了更细粒度的replica控制,允许ring能够调整replica的数量。另外,通过基于对象服务器的时间排序的思想,改善了对象读取的性能。使得数据能够通过最快响应速度的对象服务器传递,这对于扩展到广域网很重要。由于Swift使用HTTP协议,这样在OpenStack里使用第三方存储方案,包括Cleversafe,Scality的产品或者类似于Amazon Web Service简单存储服务(S3)这样的公有云,进行对象存储的做法会非常实用。Swift还是Cinder?做出正确的选择很显然Swift和Cinder为完全不同类型的数据需求服务。对象存储(通过Swift)被设计成专门针对诸如媒体,镜像和文件之类的对象型数据的高可扩展性存储。这些系统的重点在于能够大量扩展数据而不依赖于那些类似RAID的传统存储拥有的特性。但是,最终的一致性模型意味着Swift不适合存储像虚拟机这样的数据。尽管Swift使用元数据来追踪对象和他们的版本,对象存储仍然需要额外的逻辑来追踪所存的对象上的用户元数据。这部分将需要用户自己来构建到应用程序中去。Cinder提供块存储组件来存储持久化对象,比如虚拟机和定期在数据库中更新的数据。块存储的功能可以在整个OpenStack集群中实现,通过一些商用组件,使用内置的工具,如服务器逻辑盘管理器或者NFS,来传输存储资源。另外,开源解决方案如Ceph的和GlusterFS,提供从OpenStack的主代码中单独打包OpenStack存储模块的能力,同时仍保留可以使用开源软件的灵活性。随着Cinder的广泛支持,现有的传统存储方案可以用到OpenStack部署环境中来提供存储服务。当一个IT组织已经具备了这种技术并且硬件平台也到位的情况下,这也许是他们更愿意采用的方式。现有的存储平台技术已经很发达,并且支持一些存储优化的高级功能,比如精简配置,重复数据删除和压缩。许多现在还提供服务质量(比如HP的3PAR StoreServ和SolidFire的平台),让它们适合在混合工作负载下而不是单纯的用于OpenStack的部署。其结果带来的一个显著的益处就是,可以将“繁重”的任务卸载到一个外部存储阵列。在做出使用一个特定平台的决策中,系统架构师们需要权衡风险与使用OpenStack“”方案(仍然需要硬件)或者使用专属硬件提供的功能所花费的成本。OpenStack存储备份最后,我们应该考虑在OpenStack里备份数据的需求。备份OpenStack环境中的关键配置组件的具体细节已经有很好的文档描述,但是备份在一个OpenStack集群里的数据被视为用户自己的责任。备份可以通过使用外部存储供应商来轻松实现,比如说,SolidFire提供将整个集群备份到AmazonS3或者Swift兼容的对象存储中的功能。或者,用户将需要查看现有的支持他们的OpenStack虚拟机管理程序的备份产品。Raksha是一个新的项目提议,将备份即服务的功能集成到OpenStack的框架中。会同时支持完全及增量的虚拟机备份到一个Swift“端”,并能让应用保持一致性。Raksha目前是一个独立的项目,不属于核心OpenStack框架。要将它集成到一般的类似VSphere和Hyper-V这样的虚拟化平台中会需要花一些功夫,但是至少可以提供一个更整合的解决方案来对OpenStack环境中的数据进行保护。
4. 如何部署在openstack云平台上部署应用
假设你已经有了一个OpenStack云平台,并且有用户帐号
启动虚拟机
登入虚拟机
像正常操作电脑一样部署应用
5. 在OpenStack里面进入数据库显示在配置文件里面找到了不带前置组的选项怎么解
您好,你的问题,我之前好像也遇到过,以下是我原来的解决思路和方法,希望能帮助到你,若有错误,还望见谅!你的环境有问题,可能是执行过多次导致信息不一致(遗留有多余的信息),清除掉现有的环境,重新按照步骤部署试试。否则就是自己手动清除掉多余的信息,非常感谢您的耐心观看,如有帮助请采纳,祝生活愉快!谢谢!
6. OpenStack部署都有哪些方式
OpenStack部署都有:
7. python3.6环境下ansible拉取镜像失败
需要重新下载。AnsibleInventory是包含静态Inventory和动态Inventory两部分的,静态Inventory指的是在文件中指定的主机和组,动态Inventory指通过外部脚本获取主机列表,并按照ansible所要求的格式返回给ansilbe命令的这部分一般会结合CMDB资管系统、云计算平台等获取主机信息由于主机资源一般会动态的进行增减,而这些系统一般会智能更新我们可以通过这些工具提供的API或者接入库查询等方式返回主机列表。在执行kolla_ansible部署openstack之前,提前拉取镜像显得很有必要。
8. OpenStack部署都有哪些方式
对于每一个刚接触到OpenStack的新人而言,安装无疑是最困难的,同时这也客观上提高了大家学习OpenStack云计算的技术门槛。想一想,自己3年前网上偶然接触到OpenStack时,一头茫然,手动搭建一个多节点环境时居然用了3个星期。时至今日,真是感触颇多,从某种角度而言,也很庆幸当时自己并未因困难而放弃OpenStack,否则,应该是去做其他领域了吧!言归正传,咱们就来数落数落部署OpenStack都有哪些方式吧。这里,我们根据使用者群体的不同类型来进行分类和归纳:个人使用方面DevStack无疑,在可预见的未来时间内,DevStack仍将是众多开发者们的首选安装方式或工具。该方式主要是通过配置参数,执行shell脚本来安装一个OpenStack的开发环境。Github: https://github.com/openstack-dev/devstackWiki: https://wiki.openstack.org/wiki/DevStackRdoRdo是由Red Hat开源的一款部署OpenStack的工具,同DevStack一样,支持单节点和多节点部署。但Rdo只支持CentOS系列的操作系统。需要注意的是,该项目并不属于OpenStack官方社区项目。Docs:https://www.rdoproject.org/install/quickstart手动部署手动部署all-in-one、multi-node、multi-HA-node环境。其他企业、团体方面PuppetPuppet由Ruby语言编写。应当说,Puppet是进入OpenStack自动化部署中的早期一批项目,历史还算悠久。目前,它的活跃开发群体们是Red hat、 Mirantis、UnitedStack等。Red hat自从收购Ansible之后,如今仍然保持强势劲头在Puppet OpenStack项目中的Commit数量和质量,其技术实力不容小觑;Mirantis出品的Fuel部署工具中,大量的模块代码便使用的是Puppet。就国内而言,UnitedStack是Puppet社区贡献和使用的最大用户。Github:https://github.com/openstack/puppet-keystoneGovernance:Wiki:https://wiki.openstack.org/wiki/PuppetAnsibleAnsible是新近出现的自动化运维工具,已被Red Hat收购。基于Python开发,集合了众多运维工具(puppet、cfengine、chef、saltstack等)的优点,实现了批量系统配置、批量程序部署、批量运行命令等功能,它一方面总结了Puppet的设计上的得失,另一方面也改进了很多设计。比如是基于SSH方式工作,故而不需要在被控端安装客户端。使得在和OpenStack结合上没有历史包袱,更加能够轻装上阵,未来发展潜力不容小觑号称是“你一直寻找的下一代Iaas”的Zstack,使用到的部署工具也是基于Ansible。Openstack-ansible项目,最早是由老牌Rackspace公司在Launchpad官网上注册。在最新的Ansible OpenStack项目社区Commit贡献中,Rackspace也可谓是遥遥领先,而紧随其后的是Red Hat、国内九州云等公司。Github:https://github.com/openstack/openstack-ansibleSaltStackSaltStack也是一款开源的自动化部署工具,基于Python开发,实现了批量系统配置、批量程序部署、批量运行命令等功能,和Ansible也是挺相近的。不同之一是,由于SaltStack的master和minion认证机制和工作方式,需要在被控端安装minion客户端,在加之其他原因,自然和Ansible相比,其优缺点便很明显了。需要注意的是,使用Saltstack部署OpenStack,并不属于OpenStack社区项目。目前,主要还是处于用户自研自用的阶段。据笔者所知,目前国内的携程应该是使用Saltstack部署OpenStack规模最大的用户。Saltstack部署OpenStack示例:https://github.com/luckpenguin/saltstack_openstackSaltstack部署OpenStack模块:TripleOTripleo项目最早由HP于2013.4在launchpad上注册BP。用于完成OpenStack的安装与部署。TripleO全称“OpenStack On OpenStack”,意思即为“云上云”,可以简单理解为利用OpenStack来部署OpenStack,即首先基于V2P(和P2V相反,也就是指把虚拟机的镜像迁移到物理机上)的理念事先准备好一些OpenStack节点(计算、存储、控制节点)的镜像,然后利用已有openstack环境的裸机服务Ironic项目去部署裸机,软件安装部分的diskimage-builder,最后通过Heat项目和镜像内的DevOps工具(Puppet Or Chef)再在裸机上配置运行openstack。和其他部署工具不同的是,TripleO利用OpenStack本来的基础设施来部署OpenStack,基于Nova、 Neutron、Ironic和Heat,来自动化部署和伸缩OpenStack集群。应当确切的说,TripleO项目属于当前OpenStack社区主推的“Big Tent”开发模式下的big tent project(OpenStack下的项目分为三种,core project: nova/neutron等核心项目,big tent project: 非核心项目,但也被OpenStack 基金会接受;第三种就是其它项目,只是放在OpenStack下,但是社区还没有接受)。在该项目的社区Commit贡献上,Red hat可谓是遥遥领先,而紧随其后的是IBM等公司。Wiki:https://wiki.openstack.org/wiki/TripleOKolla在国内一些互联网资料上,常看到关于kolla是TripleO项目的一部分这样的描述,其实是不准确的。真实的是,Kolla项目起源于Tripleo项目,时至今日,与它没有任何关系(虽然它们的目标都是做自动化部署,但走的道路却不同)。比之于Tripleo和其他部署工具,Kolla走的是docker容器部署路线。kolla项目起源于TripleO项目,聚焦于使用docker容器部署OpenStack服务。该项目由Cisco于2014年9月提出,是OpenStack的孵化项目。当前Kolla项目在Kollaglue repo提供了以下服务的docker镜像。 # docker search kollaglueKolla的优势和使用场景,体现在如下几个方面:原子性的升级或者回退OpenStack部署;基于组件升级OpenStack;基于组件回退OpenStack;这里,我们予以拆分来理解:Kolla的最终目标是为OpenStack的每一个服务都创建一个对应的Docker Image,通过Docker Image将升级的粒度减小到Service级别,从而使升级时,对OpenStack影响能达到最小,并且一旦升级失败,也很容易回滚。升级只需要三步:Pull新版本的容器镜像,停止老版本的容器服务,然后启动新版本容器。回滚也不需要重新安装包了,直接启动老版本容器服务就行,非常方便。Kolla是通过Docker Compose来部署OpenStack集群的,现在主要是针对裸机部署的,所以在部署Docker Container时,默认的网络配置都是Host模式。首先,只需要通过一个命令就可以把管理节点部署完成,这个命令是调用Docker Compose来部署OpenStack的所有服务,然后我们可以在每一个计算节点上通过Docker Compose安装计算节点需要的服务,就能部署一个OpenStack集群。因为Kolla的Docker Image粒度很小,它针对每个OpenStack服务都有特定的Image,所以我们也可以通过Docker Run来操作某个具体的OpenStack服务。目前,我所在的公司九州云的一位同事近日获得提名成为Kolla项目Core。为OpenStack社区中增添了一份来自于中国的力量。FuelFuel是针对OpenStack生产环境目标 (非开源)设计的一个端到端”一键部署“的工具,大量采用了Python、Ruby和JavaScript等语言。其功能含盖自动的PXE方式的操作系统安装,DHCP服务,Orchestration服务 和puppet 配置管理相关服务等,此外还有OpenStack关键业务健康检查和log 实时查看等非常好用的服务。Fuel,这款让很多人即爱且痛的工具,在国内外都很盛名。爱的原因是,它确实很棒;痛的原因是,要想彻底掌握它,可不是一件容易事(各个模块集成度高、使用技术复杂)。既然提到Fuel,自然不能不提它的父母——Mirantis。Mirantis是一家技术实力非常雄厚的OpenStack服务集成商,他是社区贡献排名前5名中唯一一个靠OpenStack软件和服务盈利的公司。同时,Fuel的版本节奏也很快,平均每半年就能提供一个相对稳定的社区版。从和笔者接触到的一些情况来看,国内研究、使用Fuel的个人、群体还是为数不少的。不少国内OpenStack初创公司的安装包就是基于Fuel去修改的。
9. 如何配置OpenStack网络以启用对OpenStack实例的访问
./openshit.sh start|stop|restart各(或者全部)Openstack组件进行启,停止,重启操作../openshit.sh install|uninstall|downloadOpenstack各组件进行 安装,卸载,载包 操作./openshit.sh config配置组建建立数据库, 原先配置文件config-backup文件夹按照间备份起,使用rollback.sh脚本便滚配置文件改./openshit.sh clean清除服务数据库, 若服务问题直接清掉数据库重新config 接我使用OpenShitUbuntu14.04部署OpenStack.几要求:1. Ubuntu14.04区定要足够空间.OpenStack创建实例候使用区空间,空间够则创建实例.测试用Ubuntu14.04100G,足够使用.2. 建议新装ubuntu区.装神马DevStack没装功堆垃圾留系统库再用OpenShit功意思.说现始1.安装git, 使用git载openshitgit clone 2.修改配置文件setting.conf.面密码:数据库密码,服务密码.默认更改,改没.改变网络配置.配置文件内IP值都设置称自IP, 网卡设置自网卡(默认eth0).3.配置文件修改完始安装./openshit.sh –all install.命令 问否需要配置软件源, 第使用openshit请选择y, 所命令写:echo y | ./openshit.sh –all install4.段间安装完,请输入./openshit.sh –all config根据setting.conf值修改各组件配置文件及数据库配置.5.完运行source admin-env.sh; nova service-list 查看服务状态若都up安装功浏览器内打 即看Openstack管理界面输入密码登陆现OpenStack功部署Ubuntu14.04服务器.功运行实例,我需要制作并传镜像, 配置网络,启实例.制作ubuntu14 server 镜像1. 制作镜像qemu-img create -f qcow2 ubuntu.img 20Gkvm -cdrom ubuntu-14.04-server-amd64.iso -drive file=ubuntu.img,if=virtio,index=0 -boot d -net nic -net user 直接光盘安装ubuntu14-server 装行2.传镜像openshit目录 执行 source admin-env.sh执行glance image-create –name "ubuntu" –file ubunut.img –disk-format qcow2 –container-format bare –is-public True –progress进度条快速滚,传完3. 创建网络openshit目录 执行 source admin-env.sh (前面执行用执行)执行nova network-create v-net –bridge br100 –multi-host T –fixed-range-v4 10.0.1.0/29v-net网络名字 10.0.1.0/29 网段要配主机数量 要设置网段跟本网段,否则蛋疼超乎想象执行nova net-list看刚才创建网络4. 创建实例web管理端 镜像 栏内 点 运行 即创建实例 (配刚才创建网络ip址)点击控制台,通vnc看虚拟机屏幕问题 虚拟机主机能互相ping通(需要关掉防火墙),访问外网,能哪没设置.
10. 在搭建个人验证的openstack功能的环境中一下哪种配置最合适
创建虚拟机按照上图配置,在virtualbox上创建虚拟机,并把网卡连接到上面实现创建好的host-only适配器上。我直接演示一下我的设置吧,见下图,注意控制芯片请选择PCnet-FAST III类型,混杂模式全部允许,4个网卡都启用并如此设置,界面名称按照你自己的规划选择不同的host-only适配器吧。安装操作系统有了前面的准备,现在可以安装操作系统了,先使用MirantisOpenStack-7.0_0.iso将fuel server安装完成,这个过程比较久,安装完成后就可以在浏览器上访问10.20.0.2。另外我采用的是离线安装包的办法,将离线安装包中的ubuntu系统镜像放到fuel server的nailgun服务目录下即可使用。安装完成fuel-server后,就可以考虑去安装controller node与compute node了,请把这两个虚拟机设置为网络引导,引导完成后,fuel-server就能识别到这两个节点,在fuel UI上稍作配置,我们就可以部署openstack环境了。安装openstack环境Fuel安装完成后,在UI上先创建一个openstack环境,选择qemu计算、网络选择neutron vlan,其他默认就好。在你熟悉了整个过程后,可以再定制化安装你感兴趣的组件及插件。在fuel UI上,我们可以发现引导起来的节点,把他们加入之前创建的环境中,对他们进行一下网卡及网络设置,网卡设置可以批量配置。把所有节点选中,点击Interface Configuration,如下图,是我本机上的设置.