想做私有云搭建方案的大型国企,为什么最适合啃OpenStack

基于OpenStack私有云平台构建及高可用实现_论文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
基于OpenStack私有云平台构建及高可用实现
中国最大最早的专业内容网站|
总评分0.0|
试读已结束,如果需要继续阅读或下载,敬请购买
定制HR最喜欢的简历
你可能喜欢
您可以上传图片描述问题
联系电话:
请填写真实有效的信息,以便工作人员联系您,我们为您严格保密。OpenStack在小米私有云平台的实践
发表于 15:10|
作者潘晓东
摘要:小米公司OpenStack项目的技术负责人潘晓东分享在使用OpenStack建设小米私有云平台的一些经验和踩过的一些坑,重点探讨在目前OpenStack还不太稳定的情况下,如何建设一个具备企业应用稳定性要求的私有云。
小米OpenStack项目概况小米目前内部建设的是高可用的私有云平台,为全公司提供统一的云服务平台。提供弹性的资源分配和部署方式,同时提高资源的分配和管理效率。减少服务资源的交付周期。为此小米定了四大目标:稳定第一:支撑公司多条产品线业务,力求稳定性能优化:尽快可能的降低虚拟机的资源消耗,保证虚拟机的性能内网互通:虚拟机需要和公司其他主机互联互通。对其他主机透明业务定制:OpenStack需要和公司其他系统互通(监控和主机信息)小米基于这四点做了私有云平台,有着数千台VM的OpenStack集群,稳定服务公司线上线下业务一年多时间,数据说明如下:可用度达到99.99%。运行16个月,2次故障,分别是GlusterFS和OpenvSwitch引发的问题:1.GlusterFS的bug有可能导致文件系统被置为Readonly,据说bug目前已经修复;2.在广播风暴的情况下,OpenvSwith由于起软件性能的问题,最有可能被打死,这个问题是所有的软网桥(包括VMware)都存在的问题;目前使用率:平均40%(物理机利用率),1虚12;覆盖度:小米所有产品线;业务类型:开发,测试,线上(线下70%)。现在整个平台上运行在四个机房,有2000+VM,4500+物理机内核(E5-2640);机器的配置主要为:50T内存、1200T虚拟磁盘、480T块存储、120T对象存储。
上图是小米根据自己的情况定制的Dashboard的,分为动态信息和静态信息两个部分,静态信息显示的是资源的分配情况,动态信息显示的是目前资源的使用情况。
上图是OpenStack物理主机的使用情况,机器是负载明显看出是分层的,因为是一批一批上的机器,后面机器由于虚拟机的使用还没有分配满,所以CPU LOAD会低一些。
上图是虚拟机的负载情况,可以看出,有些虚拟机的负载程周期性变化,可能是跑的和流量相关的一些线上业务;而有些虚拟机的CPU却一直持续在500%左右,可能是虚拟机里面跑了高负载的离线计算业务。小米OpenStack探索之路机器选型在进行机器选择时,可选的类型并不多,一般是在公司内部已有的套餐类型中选择,然后稍加定制,主要的要求实现服务器性能的均衡,而且性能比较好的主机类型。机器配置详细参数为:计算节点:&
DELL _R720CPU: E5-(32核)&MEM:16G*24&磁盘:2*600G SAS(Raid1) + 6*4T(Raid5)
SATA&网卡:& 1G * 2 + 10G*2 (Intel
82599EB 10-Gigabit SFI/SFP+ )控制节点:&
DELL_R620CPU: E5- (24核)MEM:16G*4磁盘:2*600G SAS(Raid1) + 2*240G
SSD(Raid1)网卡:& 1G * 2 + 10G*2 (Intel
82599EB 10-Gigabit SFI/SFP+ )其实Dell R720是Dell官方推荐的虚拟机云计算主机,作为OpenStack的计算节点还是比较合适的。版本选择操作系统操作系统选择:Ubuntu vs CentOS。OpenStack最早默认支持的操作系统版本是Ubuntu,后来才加入了Redhat系列操作系统的支持,但公司一般使用CentOS的系统,装机方便,系统稳定,为了稳定性和兼容性,我们也是采用CentOS做为OpenStack的操作系统。采用RDO的方式进行安装,但是在装的过程中也遇到一些问题。比如在三个月之前采用RDO部署了一套系统,在三个月以后我们再需RDO部署的时候,RDO源上的版本就更新了,有可能导致老版本和新版本不兼容,由于OpenStack版本之间的测试不是特别完备,尽管是大版本相同但是小版本有差异,都有可能导致不兼容,但也有解决的方法:把yum源down下来,即解决了版本问题,同时也能加快软件安装下载的速度。采用RDO安装还有另外一个问题,就是在安装完成以后,不能手动更改系统配置的路径,如数据库路径或者镜像存储路径,如果一定要改,须连packstack中的Puppet配置路径一起改。否则在下次启动RDO安装时,他会再次将路径再改成默认配置,这个将导致不可预知的错误。如果此时已经跑了服务,那很有可能会影响的服务。总的来说,RDO的优点是简单快速部署,支持多种网络结构,缺点也明显,添加计算节点是个坑,存在各种兼容性问题(packstack版本、qpid版本、libvirt版本),而解决的办法就是建立自己的源,手动添加计算节点。网络组件可选择有Neutron 和 Nova-network。我们选择的是Neutron,也是跟着大趋势走。网络模型可选择FLAT、GRE和VLAN。我们选择了VLAN,因为公司现有网络模型也是采用VLAN模型,和OpenStack原生的网络模型相比,我们的主要改进点是停用了L3 Agent,无单独的网络节点,让虚拟机网络通过Trunk直接和物理路由器相连,因此虚拟机网络比较高效和稳定。与此同时,OpenStack工程师大部分是做开发和运维的,网络管理不是他们所擅长的,所以把网络节点去掉由交换机进行管理,全部交由网络工程师去做,他们更专业。同时,若采用一个物理的主机作为一个网络节点,无论是性能上还是可操作性上,都不如成熟的交换机。Neutron的稳定性确实不高,经常断掉,导致OpenVswtich无法配置网络策略。块存储块存储的组件选择有两个,一个是Ceph,另外一个是GlusterFS。我们对Ceph和GlusterFS做了测试,在四台机器上都部署了Ceph和GlusterFS,Ceph和GlusterFS在每台机器上各占一块磁盘,2副本策略,机器是单网卡,测试结果请看下图。
从上图IOSP测试对比中,可以看出在块比较小的时候,Ceph的IOPS性能非常高,在块大小为4KB的时候,甚至高出GlusterFS
40%左右,但是块大小大于1MB的时候,Ceph的性能就不如GlusterFS了,我们推动是Ceph和GlusterFS不同的副本同步策略造成的。GlusterFS采用Client直接写入的策略,即每次写入以后,节点之间不需要再同步;而Ceph采用的链式写入,即Client先写入到一个节点上,然后节点之间再同步,因此会消耗一定的带宽,当没有专门的同步网络的时候,同步所使用的网络带宽可能会影响到Ceph的写入性能。因此,写入方式的差异刚好能够解释GlusterFS在大块写入的时候会比Ceph性能好。上图是对Ceph和GlusterFS进行4KB大小块的连续测试,我们会发现Ceph的整体性能会比GlusterFS高,但是他呈现出性能波动现象,而GlusterFS却一直比较稳定,这也从一个层面上说明了Ceph这种链式写入的机制对连续测试可能会产生波动性的结果。总的来说,两者各有千秋,存储没有完美的方案,Ceph逐渐成熟,在小块写入的时候Ceph性能比较好,但是大块写入却不如不如GlusterFS,同时Ceph的性能具有波动性。但是,GlusterFS在实际使用中可以导致虚拟机的文件系统被置为Readonly(据说此Bug已经被修复),需要慎重考虑和测试。不管是Ceph,还是GlusterFS作为虚拟机的共享存储,都能够提供毫秒级别的实时迁移,对虚拟机的负载均衡、主机维护非常有用;同时多副本的技术保证用户数据的安全性,将数据丢失的风险降低最低。对象存储
所用组件是Swift,架构请参见上图,Swift可以说是OpenStack最古老最成熟的一个组件,良好的设计思想,完全对称的部署结构,无单点的系统架构。纵容有很多好处,但是在用Swift的时候,有一个惨痛的教训,Swift作为存储服务器没有丢失过数据,但是swift扛压能力非常小,曾使用Swift做为CDN的源服务器,流量稍一上来,Swift的服务器就被打死了,当时观测流量大约10Mb左右,观察Swfit资源消耗情况,在完全没有压力的情况下,Swift自动的组件性能消耗会占一个核。私有云架构
上图所描述的是小米的OpenStack架构的使用,目前只有两种节点,一种是计算节点,另一种是控制节点,但没有网络节点,所以网络不会存在单点,任何一个计算节点宕机,只会影响其上面承载的虚拟机,不会影响其他节点,如果是一个可以预知的宕机,你甚至可以先将其上的虚拟机迁移到其他机器,这样就可以将对服务的影响降到最低。另外,控制节点是主备模式,并且采用冷备的方式,但是数据库保持实时同步。因为这种私有云的架构对控制节点的依赖非常小,控制节点宕机,在不重启计算节点的OpenVswitch-Aagent的情况下,几乎不会影响虚拟机的正常运行。在网络的架构上,我们有三种网络:虚拟机网络、存储网络和管理网络。虚拟机网络通过网桥,采用Trunk模式,直接连接到交换机,具有较好的性能和极高的稳定性。管理网络是OpenStack各个组件通信的网络,包括镜像分发,虚拟机迁移等都是走这个网络。存储网络是虚拟机访问共享存储Ceph的网络。
上图是小米私有云的网络详细架构图,基于L3-Agent的稳定性和性能,我们停用了L3-Agent,虚拟机首先连接到br-int,,br-int连接到br-em3上,通过Trunk就可以达到外部网络,这样的架构解决了两个问题:第一,能够保证网络的性能和稳定性,第二,能实现和内网其他机器无缝互通,性能测试在使用虚拟机时候,很多人抱着一个怀疑的态度,他们会担心虚拟机的性能是否够用,我们对虚拟机的性能做了如下测试:
测试1:整体性能测试
UnixBench是一个测试系统整体系能的软件,测试中我们分别对比了AWS, MiStack,3U8j机器,从测试结构看,同样是虚拟机,MiStack的机器会比AWS相同的机型性能好很多,主要原因是AWS为了保障每个虚拟机的服务质量,对虚拟机的资源占用情况做了严格的限制,因此可比性并不大,但是MiStack和3U8相比,其实相比相差不大,3U8作为一种物理机器,在性能上只比MiStack主机好1/6左右,因此,我们可以说虚拟机的性能可以相当于相同配置的物理机行的80%以上。测试二:磁盘性能测试
测试二是词用IOzone对虚拟机的磁盘性能进行了测试,对比的是MiStack和3U8机器,从图上可以看出,在读取方面,虚拟机相当于物理机的5/6左右,在写方面,虚拟机相当于物理机的9/10左右。测试三:网络性能测试
网络测试分为了两组测试,一个测试是用HelloWorld做的,另一个是PhoInfo做的。采用PhoInfo测试时,虚拟机和物理机的差别并不大,但是在采用HelloWorld测试时,差别非常明显,虚拟机仅相当于物理机的1/4。我们对原因进行了分析,由于HelloWorld页面非常小,测试过程相当于产生了很多小数据包,而PhpInfo相对页面很大,从而产生的数据包也比较大。当在小包测试下,网络的瓶颈在PPS上,我们反复测试过,虚拟机软网桥的性能只能到达5wPPS左右,此时OpenVswitch已经到了极限,而普通的物理网卡确定达到200wPPS。在打包测试时,网络的瓶颈在网络带宽上,因此,虚拟机和物理机带宽相差不大,因此测试的结果也相差不大。维护方案-虚拟机迁移为实现物理机故障维护和虚拟机的负载均衡,虚拟机通常需要迁移,主要分为两种维护方案:实时迁移和带磁盘的迁移。
维护方案-实时迁移因为企业很难接受频繁的更换,如果一两个月换一次,那么一个月要维护一两次,若这时全部都通知用户把机器和业务停了,会很痛苦。虚拟机迁移可以很好地实现“无痛迁移”。虚拟机迁移方案中的实时迁移是用一个precopy算法去迭代拷贝,在每次拷贝的过程中用内部记录的方式记录内存“脏”页,当“脏”张页数据集小于一定程度时,比如4K的时候,停止虚拟机,把内容和寄存器迁移,由于需要停机拷贝的内容非常少,因此停机的时间非常短,不过实时迁移一般是相同体系的CPU才能相互迁移。上图是实时迁移,它的停机时间会很短。
维护方案-带磁盘迁移带磁盘的迁移是将磁盘和内存一起拷贝到目前机器,由于磁盘数量很大,所以一般是先做快照,然后将形成的数据写到增量中去,然后我们开始拷贝快照,当所有的快照都已经拷贝完成以后,再开始拷贝增量文件,一般在拷贝的过程中,产生的增量文件是非常小的,因此停机时间还是可以接受的。但是OpenStack没有这么做,他只做了一个快照,那就是镜像文件,其他的数据都是增量,这样会导致OpenStack虚拟机的增量文件非常大,停机拷贝的时间非常长,如上图。总的来说,实时迁移是采用precopy算法循环拷贝内存到目的机器,停机时间极短,但需要共享存储;而带磁盘迁移:将磁盘做快照后拷贝磁盘到目的机器,后面过程跟实时迁移一样,整个过程时间取决于磁盘大小,停机时间稍长。(责编/周建丁)作者简介:潘晓东,毕业于华中科技大学集群与网格实验室,从2007年开始研究虚拟化云计算技术,曾对XEN的实时迁移算法进行改进和优化。先后在百度、小米等公司从事运维、开发工作,现为小米OpenStack项目负责人。在小米一直致力于高稳定的OpenStack私有云建设,目前小米集群分布在多个IDC、数千台虚拟机,服务公司几十个产品线的线上和线下业务。
推荐阅读相关主题:
CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
相关热门文章中国领先的IT技术网站
51CTO旗下网站
私有云搭建:基于OpenStack 但不止于OpenStack
OpenStack在国内发展真的一片大好的情势。但在与国外相比较时,刘世民还说“如果说有差距的话,那还是在产品化。”
作者:蒋红冰来源:| 09:49
在过去的3月份,开源厂商Redhat公司披露了它的第四个季度的财报,显示其中16%左右的收益来自于私有OpenStack。Red Hat的CEO Jim
Whitehurst也表示,第四季度中三分之一左右的大型交易来自于OpenStack私有云组件。这对用户来说无疑是一个利好消息,说明已经有越来越多的企业开始尝试应用OpenStack了。
Redhat只是OpenStack企业部署的一个案例而已,那么OpenStack当前在国内的部署、实施水平如何?对此,我们有幸采访了云极星创联合创始人兼CTO刘世民先生,他曾先后在EMC和IBM公司负责OpenStack平台的架构设计与实现和OpenStack
的私有云产品国内的研发,以及云极星创IaaS平台研发部架构师刘家军先生。
OpenStack国内发展形势大好
OpenStack是以开源社区为基础,仅从对社区的代码贡献量来看,中国企业、开发人员已经成为社区的中黄金、白金会员的主力军了。刘世民说,
&目前,在OpenStack领域,我认为国内与国外的差距已经不是很明显了,相反在某些方面国内甚至是超前的。&对此刘世民给出了解释:
首先,国内客户在OpenStack方面受到了良好的教育,促使开源环境部署处于了较高的水平,国内在这一开源平台上的教育过程已经基本完成。现在,面对OpenStack,客户的问题不再是&OpenStack
行与不行&的问题,而是想要深入了解厂商所提供的&OpenStack做的怎么样&的问题。
其次,OpenStack代码和功能方面的成熟度比以前有了显著的提高,尤其是在计算、存储、网络等核心模块上已经达到了很高的水平,足够在企业应用,例如商用存储、商用SDN,以及其它方面的优化,都已经能够满足大部分企业环境的需求。
第三,国内从事OpenStack的公司已经走进了成熟期。从融资的情况来看,大部分OpenStack初创企业已经走向了C轮,或者是B后期的轮融资,另外再加上以华为为代表的大企业也已经将OpenStack
锤炼成型。
第四,企业对私有云的需求在提升。私有云必须以虚拟化为基础,现在国内的虚拟化水平已经可以向私有云发展,同时,物联网应用的发展也对云计算提出了直接的需求。这也就是说,OpenStack作为构建私有云的基础平台,也备受企业青睐。
另外,刘家军补充,国内企业进行的私有与公有项目,从架构与设计都不错。在国内,基于OpenStack构建私有云的企业有很多,涉及了金融行业、电力电网行业,银行业,这些企业要么自主研发,要么与OpenStack厂商合作构建私有云。除此之外,大的互联网公司,例如360、京东、网易、美团都对OpenStack
进行了投入研发。
由此可见,OpenStack在国内发展真的一片大好的情势。但在与国外相比较时,刘世民还说&如果说有差距的话,那还是在产品化。&
OpenStack 产品化:&不要OpenStack ,而要私有云&
谈到用户对OpenStack的需求时,刘世民这样说到:&企业需要的不是OpenStack,而是一个私有云,他们需要的是可以支撑业务发展的私有云。&但企业自己构建私有云比较复杂,如对环境的利旧性,对数据中心内部的建设,对网络存储等功能都有很高的要求。虽然,OpenStack本身是一个开放平台,可以支持各种网络、IT基础设施、各种负载应用,可以很好地应对用户对私有云的需求。但OpenStack本身对于用户来说更是解决问题一项技术,并不能拿来就用,他们需要是一种产品化的OpenStack,而这正OpenStack社区的弱点。在把OpenStack转变成企业所需要的产品化过程中,刘世民认为应该从以下几个方面着手:
改进OpenStack界面。界面是用户最直接接触东西,一定要做到简单易用。然而,对于管理、计费、与企业网络的用户系统的打通等功能,社区OpenStack无法做到易用。刘世民认为,客户对私有云的很大一部分需求是对界面的要求。OpenStack社区的Horizon显示界面,完全是以技术化的方式呈现的&&只是简单地把资源暴露出来,最终用户完全无法直接使用,使得企业进行OpenStack构建私有云时,要重新定制化这一界面。
据刘世民介绍,云极星创在OpenStack的控制界面(CMP)方面投入了大量精力,一开始就把CMP与OpenStack置于同等重要的位置进行产品设计,尽量屏蔽掉过于技术的东西。云极星创认为社区的Horizon是依附于OpenStack的,不便于最终用户使用,因此,在云极内部专门设置了一条产品线服务于CMP的设计。
提升OpenStack稳定性。OpenStack社区有30多个组件,和难以计数的项目,其稳定性差,可维护性弱。用户认为选择OpenStack构建私有云,就意味着企业要培养一支大型的维护团队,大大地增加了人力成本。在这方面,为了确保OpenStack的稳定与可维护性,刘世民说OpenStack服务提供商要具备强大的服务系统和用户监控平台&&这些也是云极星创的重点,他们并给用户提供了Venus自动化运维平台,让OpenStack功能尽在用户的掌握之中。
加强OpenStack备份功能。无论是虚拟机、文件备份,还是数据库备份,OpenStack社区都比较薄弱,对此云极星创将引入第三方专业备份机构,打造了一个生态系统,共同满足企业对安全、备份的需求。&我们不只专注于OpenStack
代码本身,我们还以它为中心、满足客户产品化需求的完整的产品体系,&刘世民表示。
此外,云极星创看到,近年来对于技术选型方面,企业已经愈发地趋于理性,越来越多从业务需求出发,可以说是用户的选择已经回归到业务的正常需求上。因此,对于用户所提出的需求,云极还提供了强大售前团队支持,帮助用户甄别出伪需求,留下有价值需求,给用户提供定制化的设计。刘世民认为,&定制化是有范围的,如果90%是标准化,10%定制化,这是合理的需求;而如果企业一味拒绝定制化,并不是长久之计。&
OpenStack +容器技术:打造全栈式的云平台
对于OpenStack与容器技术,如Docker和Kubernetes,之间的关系,刘家军说OpenStack与Docker是互补的关系,只是两者解决的核心问题不太一样。
从技术看,Docker主要是运行时环境的一个封装,它把常用的程序、库函数、包括软件本身都会打包在一个镜像中;不同的Docker实例依赖同一个操作系统内核,优势在于,例如应用打包好后,在不同的Linux发行版本上都可以运行,减少了对操作系统的依赖;另外它结合了操作系统提供的功能,实现了资源的隔离,如果在同一个操作系统上运行两个程序
,即使对同一个软件库有不同版本的要求,也不会有影响,因为它们运行在各自的镜像中,使用的版本是不一样的。
OpenStack是通用的IaaS平台,以系统虚拟化为基础,主要指的就虚拟机。虚拟机抽象模拟了计算机所需要的各种虚拟零部件,在这些零部件上安装操作系统,才能把这些虚拟的零部件运行起来。虚拟机中支持完整的操作系统,无论安装什么操作系统,底层模拟的程序和硬件提供的接口或者映像与真实机器是一样的,所以它能完全独立于底层的操作系统。与Docker的一个区别在于,Docker实例之间依赖于共同的内核,如果系统内核出现BUG,所有的Docker都会受到这个内核的影响;而虚拟机的隔离性更好,它提供给每个虚拟机一个独立的虚拟的硬件,虚拟机拥有自己的内核,如果这一个内核出现问题,不会影响别的虚拟机的。
两者技术上不一致,适用的场景和范围也不一样。Docker适合用来做应用之间的隔离&&在现有的平台中更适合于PaaS场景中,程序员只需要关注于程序、代码做好就可以,他不用关心平台的运行、部署、运维等工作。
Kubernetes是容器的调度和编排工具。对大型的程序而言,其中包含的不只一个运行服务,将会有多个服务,通过一定的通信来提供整个的功能。在这种情况下,这些组件之间如何部署,如何交互,部署在什么地方合适,都通过编排工具完成的。对于底层物理硬件的调度、资源的合理分配等待调度编排是Kubernetes的核心功能。
OpenStack与Docker和Kubernetes都存在各自的优缺点。在刘世民看来,目前OpenStack与容器有几个对接方向,一是OpenStack容器化,解决可升级性问题;二是OpenStack编排容器,解决集群项目管理问题;三是OpenStack中的虚拟机与容器的整合,解决网络相关的问题。
&云极技术栈选型,不是OpenStack公司,我们的定位是打造一个以OpenStack为核心的IaaS层,这是我们的第一个目标,&刘世民称。在(IaaS)上面云极还将打造一个CaaS(容器即服务)层,同时基于CaaS层建立PaaS层来支持应用的运行;另外,在SaaS层,打造云极还将打造自己的的Marketplace,给用户提供有价值的云服务。云极星创的终极目标,是给用户提供一个SaaS
、PaaS 、IaaS 的全栈式的云服务平台。
尽管,OpenStack正在不断走向成熟,但还是有一些需要改进的地方。未来,刘世民期望OpenStack社区能注重产品化的设计,便于用户、开发者的使用;更加开放,拥抱各种新技术,如容器、NFV、IOT和大数据等;并且社区能在混合云中付诸更多的行动,因为未来混合云很有可能一骑绝尘。【编辑推荐】【责任编辑: TEL:(010)】
大家都在看猜你喜欢
关注关注聚焦聚焦热点
24H热文一周话题本月最赞
讲师:2730人学习过
讲师:1553人学习过
讲师:2208人学习过
精选博文论坛热帖下载排行
本书是关于如何使用已有的密码技术和算法对数据库中存储的信息进行保护的书,书中所关注的内容主要是如何设计、建立(或者挑选、集成)一套...
订阅51CTO邮刊OpenStack会走向死亡?
OpenStack会走向死亡?
linux系统运维
OpenStack基金会执行董事Jonathan Bryce在OpenStack波士顿峰会上发表了主题演讲。他说到,从2013年开始,判断OpenStack死亡的言论就没有消停过。如果你一直关注私有云,你肯定看到过声称OpenStack即将死亡的文章。而实际上,OpenStack活得好好的,并且经历了爆炸性的增长。据最近的OpenStack用户调查显示,OpenStack的部署量同比增长了44%。超过一半的财富100强公司正在运行OpenStack。来自全球的统计数字更令人鼓舞:80个国家里有500万个计算核心的计算能力由OpenStack提供支持。更令人印象深刻的是,三分之二的部署投入生产。这是OpenStack的有机增长,这一增长背后有很多因素。为了理解这一增长,我们需要退后一步,看看这一技术的发展及应用历程。第一代私有云Bryce说,从技术的角度来看,第一代私有云专注于计算虚拟化。如果从应用的角度来看,它是针对超大规模工作负载的。早期,像Rackspace、雅虎、eBay和PayPal这样的公司大规模地使用这种成熟的技术。重点仅在于非常大的环境。但随着OpenStack的成熟,一切都变得虚拟化,包括计算、网络和存储。OpenStack扩大了用户群。随着社区的发展,OpenStack扩展了市场,因为它能做到公有云当时不能或不会处理的事情。这样的领域包括对数据主权的地理需求——这导致在OpenStack上运行的公有云的创建。据估计,全球有超过30个在OpenStack上运行的公有云。Bryce指出三个有助于采用OpenStack的关键因素:合规性、成本和功能。合规性:私有云似乎是合规性的唯一选择,但有一些使用OpenStack构建公有云的公司,如花旗网络公司,符合欧盟合规性的要求。成本:Bryce说,虽然公司采用公有云的早期成本确实低,但从长远来看,公有云很昂贵。他表示有些公司现在希望将长期运行的工作负载转移到具有长期成本效益的工作负载上。像Adobe
TubeMogul、PubMatic、Tapjoy和Snapdeal这样的公司将工作负载从公有云转移到了OpenStack的私有云。Snapdeal透露,通过转向私有云,他们在基础设施上节省了75%的成本。想象一下,如果你将这些成本投资到产品上而不是基础设施,可以实现什么?功能:公有云正在增加新的功能,但它无法跟上一个开源项目,因为利益相关者可以添加他们需要的功能,这也意味着部署在公有云不能服务的地区。Bryce给出了Square Kilometer Array的例子,每天数千兆字节的数据在移动,这是公有云不可能做到的。超越云端作为一项开放的技术,OpenStack通过增加新功能,使得用户能扩展其应用范围。因此,OpenStack没有止步于构建大规模云计算,它已经在电信公司中占据了一席之地。网络虚拟化功能(NVF)正在成为AT&T等公司在OpenStack上构建未来网络方面发展最迅速的用例。“仅AT&T一家公司就在约100个数据中心使用OpenStack为客户提供服务,公司包括Verizon、中国移动和德国电信等运营商。在覆盖范围方面,OpenStack是虚拟化网络分布最广泛的云基础架构,最新的例子是Vodafone。“Bryce说。此外,
EDGE计算是OpenStack的另一个新兴市场,Verizon正在大力投入。第二代私有云所有这些用例仍然是建设大规模的基础设施和大规模的云。现在,私有云正在进入第二代,这可以归功于两个核心因素:技术和采用。从技术的角度来看,如果第一代私有云专注于计算虚拟化,第二代就虚拟化一切——计算、网络和存储。OpenShift、Kubernetes、Cloud Foundry这样的新技术出现,对OpenStack起到了有益的补充作用,使用户比以前更容易部署私有云。这种部署和管理上的简化也带来了OpenStack采用和使用上的重大转变。现在人们以更小的规模运行OpenStack,以在节省成本的同时保持对云的完全控制。Bryce指出,根据OpenStack的用户调查,他们发现OpenStack在大型公司、中型企业和非常小的公司中的使用情况较为均衡。OpenStack生态系统已经找到了一种新的商业模式来迎合新一代的用户和客户。但新的机遇也带来了新的挑战。情况正在改变。 “企业不再只关注一个焦点,并表示需要一系列选择。”Bryce说。公司现在正在使用公有云、私有云和托管私有云的组合。Bryce指出,Forrester的一份报告表明,内部私有云占33%,公有云占32%,私有云占35%。有趣的是,内部私有和托管私有云占据了60%以上的市场份额,在这里面OpenStack社区提供了大量部署和产品。Bryce说:“我们在第二代私有云中所看到的转变之一就是出现了一种新的消费模式。 “这是专为用户而设计的私有云,它可以作为服务提供,它可以在公司里或在提供商那里,因此用户获得控制权、长期的成本效益,和定制化的私有云,但不用承担操作模式的责任。为了抓住这个新兴市场,OpenStack已经添加了一个新的类别来展示可远程管理的私有云产品,以便客户和用户可以轻松选择供应商。生态系统的整合很明显,OpenStack正在享受可持续发展,正在创造新的商机。也就是说,不能忽视OpenStack进行一些整合的可能性。许多公司在很早的时候就上了OpenStack的船。公司需要投资新技术,需要探索商机,否则将跟不上OpenStack的步伐。但是随着OpenStack生态系统的成熟,一些企业认识到自己的专业知识和商业模式无法为生态系统增添任何真正的价值,所以它们放弃或者被淘汰。同时,还有一些公司成功地在OpenStack上建立了专业知识和产品。今天OpenStack有一个巨大的生态系统,第二代私有云将会变得更大。这种整合是一个自然而健康的过程,因为留下的是致力于OpenStack的利益相关者留下,OpenStack拥有真正的专业知识和可持续发展的商业模式。可以说,OpenStack会更加精炼、成熟而可持续发展。原文地址:/openstack-dead.html
本文仅代表作者观点,不代表百度立场。系作者授权百家号发表,未经许可不得转载。
linux系统运维
百家号 最近更新:
简介: 不忘初心,方得始终!!!
作者最新文章}

我要回帖

更多关于 私有云 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信