服务器 频道

2013年数据中心发展趋势年中盘点

  【IT168 评论】数据中心(Data Center)是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备,还包含冗余的数据通信连接、环境控制设备、监控设备以及各种安全装置。2013年数据中心运营将仍然主要围绕能源效率,未来如何能在新技术上寻求突破来减少传统能源消耗将成为关键所在。

  与此同时,数据中心也在不断的发生着演变,随着云计算的发展,改变了传统IT基础设施的使用方式和软件部署模式,并带来了大型云计算数据中心的建设热潮。不仅如此,随着融合基础架构的大行其道,数据中心也将趋向于融合,下面将为大家阐述2013年全球数据中心的发展趋势,总结数据中心发展的特点。

  融合架构大行其道 数据中心趋向模块化

  2011年IDC的调查指出,模块化数据中心有望在未来5年内成为主流,这一预测似乎正在变成现实。如今,模块化设计在大型云数据中心和高性能计算(HPC)中已变得很常见。国内外互联网公司和IT企业,比如微软、谷歌、亚马逊、腾讯等均在其自己的数据中心中采用模块化设计。

  模块化数据中心的优势主要体现在快速部署、扩展性强、更高的空间利用率、可移动等方面,它能解决传统数据中心建设周期长、一次性投入大、能源消耗高、不易扩展等问题,通过对服务器、存储设备、网络、电源等部件的定制化设计,让数据中心更为迎合业务需求的变化。

  模块化的数据中心能够支持即插即用,从设计到正式部署应用只需要十多周的时间即可完成。模块化数据中心包括以下重要组成部分,包括机架、冷却系统、电源管理系统、灭火系统、远程监测系统等。与传统数据中心相比,模块化数据中心能够节省多达30%的成本,空间占地面积也能够节省高达50%.

  另外,即插即用这一优点还可体现在数据中心的灵活部署上,在全球任何地点,统一的设计方式使得计算设备在多个地点均已运营的一致性和简便性进行部署。模块化的设计还可以增加额外的计算能力,能否对当前数据中心进行快速扩展,并允许在远程办公地点、临时工作地点进行安装部署。在安装部署时,只需要提供电力保障、供水以及网络连接,就完全可以建立一个功能完整的数据中心。

  在模块化数据中心的应用方面,IBM、微软、谷歌等互联网巨头已经率先采用了模块化数据中心。微软公司采用Rackable公司提供的集装箱在美国芝加哥城外建造了一座拥有150个集装箱式数据中心的大型数据中心,每个数据中心都配置了1000到2000台服务器。谷歌公司也不甘落后,他们的模块化数据中心包括一个联合运输的集装箱和集装箱内的计算系统。

  日前,不间断电源制造商和基础设施解决方案提供商Active Power与 HP公司携手,共同部署位于美国得克萨斯州的模块化数据中心。该数据中心采用HP 高效模块化产品“EcoPOD”. ActivePower公司的集装箱式供电系统PowerHouse为其提供不间断电力保障。

  近年来,随着融合基础架构的发展,数据中心也将趋向于融合。所谓融合基础架构,简单说来是将服务器、存储、网络以及管理软件等资源融合于一体,形成一个整体的解决方案。和传统的数据中心架构相比,融合基础架构打破了存储、计算、网络的边界,简化了IT基础设施的部署、运维和管理,从而缩短用户的部署时间,提高资源利用率,大大降低企业的采购成本。

  目前,IBM、惠普、戴尔、思科、NetApp、甲骨文均推出了各有特色的融合基础架构产品,华为、中兴等国产厂商也加入其中,预计到2017年,融合架构会占到全球服务器、网络、架构和服务市场总开支的三分之二,市场前景十分广阔。

  软件定义数据中心

  “软件定于数据中心”是一个相对较新的流行语,在厂商EMC和VMware上都已得到了认可。这篇文章的目的是为了更深一层的为读者解读“软件定义数据中心”的含义,我们以下将用SDDC作为“软件定义数据中心”(Software Defined Data Center)的缩写。

  首先,让我们来看看什么是“软件定义数据中心”:

  传统的流程:

  检测传统数据中心中的工作流程及服务包括:

  1.Approval的服务和预算

  2.硬件Procurement

  3.硬件Delivery

  4.硬件Rack

  5.硬件Configuration

  6.Installation软件

  7.Configuration软件

  8.Testing

  9.Production的部署

  全部检测完成以上的内容将会耗去非常多的时间。

  检测的过程是复杂的长久的而且还有一定的风险。用户早已习惯了一个人去按需管理IT服务。他们知道该如何管理和运维,如果在一个90天的审核部署服务中,他们必须把安全性、备份恢复等问题做到万无一失。

  SDDC的流程:

  如上所述,与传统的检测流程相比,SDDC的流程就便捷的多,在SDDC上可提供一个完整的软件系统进行检测和部署。SDDC提供了一个更加流畅的IT服务模式,可以更好地进行添加和删除服务。与此同时,为厂商带来的则是更多的时间可用于研发等过程。此外,管理和部署新的服务还可以通过一个界面直观的展现出来,这一特点是不同于硬件驱动和CLI驱动的。

  此检测流程是这样的:

  1.APProval的服务和预算

  2.Installation软件

  3.Configuration软件

  4.Testing

  5.Production的部署

  与之前的传统检测相比,SDDC减少了四个步骤。其使用的五个步骤也是可以精简到自动化所完成,而无需手动配置。变更管理系统可大大提高工作流程的流畅程度。经授权的IT用户可通过自助服务将这些程序启动实现自动管理。大大提高了业务中应用程序的部署速度及灵活性便捷性。

  “软件定义数据中心”能否称之为“云”?这样的理解不完全正确,在IT服务中,什么服务可以认定为云服务是要看具体情况而界定的,SDDC是按需自助服务,也可灵活的对资源池进行计量和划分,此时的SDDC适合云计算模式,但不是所有的软件都能够实现。在公有云环境下的IaaS就不适用于传统的PaaS和SaaS的企业应用程序。例如,您不能在Microsoft Exchange的环境下迁移到亚马逊的云服务,企业的应用程序和操作系统是一个整体。除此之外,其硬件系统也是很有价值的,SDDC提供了一种模式,将企业IT可以同时支持传统应用程序和新编入的应用程序,这样就提供了一个迁移的方法,可以更好地建设IT基础设施。

  “云操作系统”与SDDC非常相似,也总是被人们所混淆。实施的方式也很相似,都是通过计算、网络和存储来运行应用程序从而推动业务流程,可以更好地计算出业务所消耗的资源,管理这些资源使工作效率大大提高。

  硬件资源已经成为了IT服务中的重要支出,对于传统应用程序而言,减少硬件资源只能通过传统的虚拟化或物理服务器进行部署。随着新兴应用和云服务的出现,在PaaS上进行部署也可大大提高应用范围及冗余。

  在IT基础设施中可以体现出一系列新的技术,但有的需求是无法在现有的技术产品中得到满足,我们就需要通过计算、存储和网络的需求计算出工作的时间和方式。

  对于计算而言,几年前我们的系统都是在x86的架构上运行的。计算平台的本身也可以同过CPU的不同,存储密度的不同来提高平台的灵活性降低成本。随着架构的更新和变化,传统中内置的硬件,在可用性和可维护性方面逐渐失去着价值。若将传统硬件的价值提高则需要更上一层的管理软件和虚拟化系统,那么就将会涉及到网络七层协议的更高一层。

  要考虑到的因素还包括将计算与存储牢牢的联系到一起。现在计算能力的发展及增长是跨越式的,我们目前的网络和存储系统渐渐成为了计算的瓶颈,我们必须要将我们的处理能力提高才能实现数据计算。这样就会出现电源的供给、冷却效率和整体的优化等问题。反之,如果要推动数据的处理能力,SSD、闪存和高速缓存等形式的出现大大提高了本地数据的存储能力。

  随着IT服务的变化,存储也在不断的变化。现在传统的存储阵列出现的越来越多,因为其在性能和空间上有很大优势,其不仅限于迁移到本地磁盘,还可有很好的扩展能力,主要是集中式的存储阵列可迁移到VMware的vMotion、DRS、FT等,这些迁移都需要多台服务器共同访问磁盘实现共享存储。VMware最近宣布的存储vMotion和传统的存储没有实现共享,但是可以支持实时的迁移。可以在虚拟机的管理程序平台上选择更多的存储环境。

  向外扩展系统是一个比较新的技术,在LeftHand和Equalogic开创这个市场之前,惠普和戴尔也分别参与过。随着市场的不断增长,如Isilon的产品就引起了大数据市场的关注。NetApp的集群模式在全面实施ONTAP8.1向外扩展系统。在SMB市场向外扩展系统正在快速发展并带来了市场创新。向外扩展提供了一个更长的路径同时增加I/O能力,可以通过存储控制器很好地进行控制。

  在刀片服务器中可以有中央控制器进行备份和分布式存储。EMC的VFcache技术就是通过添加服务器软件实现的分布式存储,软件还可以通过处理器进行SAS和SATA的数据处理。

  随着IT服务的变化,软件的功能和控制尤为重要。与此同时,对于网络的要求也日渐严格,专有的网络可以提高硬件效率,如Arista公司提供的软件与网络结合的解决方案。此外,软件定义网络也是由VMware收购Nicira之后,思科提供CiscoOne后所提出的概念。在如今的数据中心上进行集中管理,软件的重要性不容小视。

  软件的重要性不仅仅在于易于管理,而且还需要把云服务和数据中心结合在一起。这些多租户的系统运行有更加严格质量控制和带宽保证才能够实现自动智能。如今物理配置的网络无法满足这样的需求,可以通过物理拓扑架构的形式来改变网络的变化,真正的使数据中心和云架构结合在一起。

  从网络七层协议的第2层(数据链路层)和第3层(网络层)可进一步的实现网络的顺畅连接使基础设施的网络服务得到共享。如,负载均衡,访问和控制防火墙等服务。每个网络服务都需要符合部署新应用和分层的要求。这些服务可以通过物理的虚拟设备进行分层,都需要通过集中的软件平台所配置。

  定制化数据中心

  如今市场上的企业数不胜数,而且随着网络时代的到来,数据成为企业越来越要是的事物,而这也使得企业对于服务器的依赖越来越强,从另外的角度来说,如同树上没有完全相同的两片叶子一样,这些企业之间可能有些规模相似、业务雷同,但仍然有着各自不同的需求。

  但对于服务器制造商而言,很难将产品细分至满足每一个用户的独特需求的程度,而且对于大量的小型和中小型企业,他们也没有足够的技术能力购买服务器配件,组装,从而创造出适合自己的产品的需求。那么,如果厂商能够根据用户的需求量体裁衣,为用户量身定做产品岂不是很好?就这样,服务器定制化的趋势就这样应运而生了。

  某种意义上来说,服务器定制化的理念对通用服务器带来了一些冲击。从本质上说,这种服务器的处理器、内存、硬盘、I/O同样基于标准化设计,与通用服务器并无太大区别,如果非要分出区别,可以说这是一种新的“搭配方式”,从而使得硬件资源得到更加充分的利用,避免硬件资源的浪费,进而平衡了成本和部署密度。

  如果说最开始时服务器定制化的趋势还是星星之火,那么云计算的兴起则使得这个概念愈加流行,燃成燎原之势。众所周知,应用需求是产品发展的最有效催化剂,于是为“云”定制化的服务器成为新的应用趋势。

  云计算需要大规模部署,因此需要服务器具有更高的部署密度、节能而且易于管理,但对于每个节点的计算能力要求并不十分苛刻。而普通意义上的服务器由于要适应多种应用,则更多兼顾性能、扩展性,忽略了成本和能耗。而如果是专门为云定制的服务器,会针对云的特点进行优化设计,从而更加符合用户的需要。

  对于企业来说,它带来的好处显而易见,试想一下,即使每台定制化服务器节省的电力有限,但对于大规模部署的数据中心来说,长此以往,成本的节约也是显而易见的。这并不是空口无凭,比如Google所拥有的服务器都是自己设计,采用定制化托盘,内建电池做备用电源,相比传统服务器成本和耗电都要低得多,这也为Google节省了大笔的电力开支。

  除了谷歌之外,另一个互联网巨头Facebook在着手建设新的数据中心时由于未能找到称心如意的服务器产品,也转而决定自己生产服务器。

  Facebook和谷歌在互联网领域举足轻重,它们的数据中心都需要安装大量的服务器,而它们的这种DIY服务器的行为无疑提供了更廉价、更高效的途径,获得了很好的效果。如今随着数据中心运营和维护成本的上升,这种方式很可能成为其他公司参考的范本。

  通过定制化服务器技术和产品, Facebook、亚马逊等大型互联网企业都获得了灵活、低成本的数据中心基础架构,基于他们数据中心服务器使用量和独特的应用需求进行创新,在采购服务器产品时选择符合自身标准的个性化产品。中国互联网行业中的领军企业,在数据中心中也大面积地采用了定制化的服务器产品。有这些领军企业尝到定制化带来的灵活、低成本甜头在前,在可以预期的未来,将会有越来越多的互联网企业对自己数据中心里的服务器提出定制化的需求。

  除了这些大规模的互联网企业,中小规模互联网企业也日渐对定制化服务器产品产生了浓厚的兴趣。如戴尔PowerEdge C系列服务器,就专门提供给中小规模互联网企业。 中小规模互联网企业可以不必承担服务器定制研发成本的同时,享受到定制化服务器所带来的灵活和低运营成本特性。

  从上面的分析,我们可以看出,定制化服务器具备优化的性能、密度、重量、功耗的特性,为客户节省总体拥有成本(TCO),长远看,随着定制化服务器在互联网企业中广泛使用,在提供相同计算能力或互联网服务的情形下,消耗更少的空间、能源、环境资源。互联网行业整体将向着更为节能环保的方向发展,定制化服务器将会对互联网行业产生长远的影响。

  英特尔和ARM在数据中心的竞争

  下一次当你在Facebook上传照片时,想想这个问题:这些图片都将在某个地方被处理或者储存,甚至将被永远的储存。单在美国,目前就有大约300万个数据中心来做这些事情,他们的占地面积超过6亿平方英尺。但问题在于,根据斯坦福大学研究人员乔纳森库米(Jonathan Koomey)的研究报告,仅一个数据中心的耗电量就相当于一座中等规模的城镇的耗电量,其功率约为1050万瓦。这些数据中的耗电量现在已经占到美国总用电量的2.2%.对于依赖数据中心的企业来说,这将是一笔不小的开支,尤其是那些需要大量数据服务的网络服务商,比如亚马逊和谷歌。

  造成这趋势的元凶是谁呢?答案是--智能手机。据尼尔森报告,今年,在美国iPhone等高端设备的销量已经超过传统手机。用户都一窝蜂的去参与需要大量数据的活动,如高清图片和视频的分享、网上冲浪、下载应用软件等。因此也带动了高能耗数据中心的井喷式发展。

  出人意料的一点是,智能手机在制造这些问题的同时,也可帮助解决这些问题。原先只能用在手机上的芯片正在逐步用来打造传统的数据中心,比如服务器。这类芯片似乎非常适合当今高频率的云计算模式,例如每天全球处理的网络搜索量高达数十亿次。同时,跟传统服务器芯片相比,这类芯片的耗电量大幅减少,可节能90%.

  与此同时,在PC销量的下滑和更多智能手机的出现,芯片制造商也在寻找着可以赚钱的新业务。据市场研究公司Gartner数据,去年的全球传统服务器市场规模达到528亿美元。今年11月,英特尔首席执行官保罗欧德宁(Paul Otellini)宣布,他将在明年初卸任,他的继任者将负责开发低能耗芯片的艰巨任务。

  英国ARM公司已开足马力进军此前由英特尔垄断的数据中心市场。这家公司将其热门的处理机模块构架授权给移动设备芯片制造商,就像高通一样。目前ARM微芯片已经占据全球90%以上的智能手机市场。最近该公司推出新一代高性能64位芯片设计Cortex-A50,该处理器可以用于未来的智能手机等移动设备,也可用于低能耗服务器解决方案。ARM称,在能耗相当的情况下,新款处理器能提供相当于当前处理器3倍的性能。新款处理器采用64位计算技术,计算能力得到增强,更适合用于服务器中。

  AMD和惠普等大型企业目前也在做跟ARM同样的事情。AMD预计将于2014年推出首款基于ARM的产品。规模较小的对手同样也加入这场竞争:总部位于奥斯汀的创业公司Calxeda的主要向金融服务和云计算服务提供商 如Rackspace以及拥有规模庞大数据中心的社交媒体公司提供服务。

  Calxeda营销副总裁卡尔弗伦德(Karl Freund) 表示:“他们的耗电量真实惊人。”该公司已经从Highland Capital Partners和Battery Ventures等风险投资公司那里获得了超过1亿美元投资。

  目前, Calxeda 也正与惠普合作开发新的微型服务器技术。上周,惠普称希望在未来的两年内,基于 ARM 的服务器可以占到服务器市场的 15%.Calxeda 高管也表示年底将推出基于 ARM 架构的生产服务器。

  甚至对于自主设计数据中心的Facebook来说,现在也在测试在其主机上使用其他芯片。Facebook基础架构工程副总裁杰伊帕里克(Jay Parikh)说:“随着我们更深入的向云计算靠拢,未来将会有更多的企业将从这种技术中寻找价值。”

  不过,数据中心市场不太可能在一夜之间彻底发生变化。服务器软件提供商必须重新他们的代码,以便使其与ARM技术兼容。而且,在他们被广泛应用之前,也需要投入更多的金钱和时间。

  现在,最大的困难可能来自芯片厂商本身。英特尔和其对手ARM已经开始掐架。英特尔称,接受ARM授权的芯片制造商只占有10%的服务器市场,也就是所谓的“微服务器”这一领域市场。但ARM回应英特尔,称后者信口雌黄。ARM称,到2020年他们将会拥有20%的服务器市场。当然了,英特尔也针对移动设备和服务器市场制定了自己的低能耗芯片规划图。

  Calxeda营销副总裁卡尔弗伦德称:“英特尔现在是要实力有实力,要市场有市场。他们现在占据95%的服务器市场。”他相信,对于用户来说,他们想要更多的选择。

  对于数据中心这场战争,不管最终谁获胜, ARM还是英特尔? 低能耗处理器未来几年都将进入数据中心领域。还有一件事情也是可以肯定的:智能手机的数量还将继续暴增。同时,人们短期内不太可能停止向Facebook上传照片,他们还将继续推动数据中心流量的增加。

  云数据中心背景下的服务器革新

  随着移动计算和大数据的发展,改变了传统数据中心的数据存储和计算的方式。

  很多互联网巨头公司开始考虑使用自己的服务器来处理海量的数据。而Facebook、Google和Amazon这些公司已经开始尝试采用与低成本制造商合作做自己的服务器,HP、Dell、IBM这三大服务器制造商开始有了危机意识,服务器市场竞争日益激烈。

  据最新的数据显示,作为服务器领域的老大,HP的市场份额已经从35%下滑到31%;同类型企业Dell的私有化并没有影响到它的服务器业务,市场份额反而有所提高,增长到了28%;此外,关于IBM想要出售X86服务器业务的传闻也不绝于耳,Lenovo、Oracle、Cisco和NEC这样的服务器提供商也在奋力前行。那么,在未来,服务器厂商的机会到底在哪里呢?

  数据中心需要全方位的架构融合 目前传统的服务器还在追求高性能、低功耗,这样难免在存储效率、CUP利用率和计算速度上表现不佳。而未来云数据中心在能耗、空间和总拥有成本TCO等指标中要求不断提高,所以服务器市场面临诸多挑战。

  目前软件定义的数据中心、软件定义的服务器、软件定义的存储、软件定义的网络等以“软件定义”开头的概念层出不穷,云计算面临着技术、存储、网络、安全等基础架构的整体整合,服务器作为最重要的存储和计算设备,在未来的竞争中不可能只是单纯的服务器产品竞争,更应该突出其软件和硬件的综合能力。

  之前联想和EMC合作,加码服务器云存储市场,借助EMC的存储优势,把联想的服务器产品销售给海外的市场:IBM推出了PureSystem方案, 将计算、存储、网络、虚拟化和管理集成到基础架构系统中;Oracle自收购SUN之后,顺应IT趋势发展,整合Sun硬件,率先推出了软硬一体化方案Exadata ,降低企业的集成成本。

  正是这种架构融合趋势,渐渐打破传统的服务器市场格局,在云计算的背景下,未来的服务器市场座次可能会打乱。

  微服务器成为时代的产物 相比于RISC和x86的服务器,低功耗显得尤为重要。近年来,随着处理器技术的不断创新,低功耗处理器都已呈现多核化态势,采用这种更低功耗微处理器的微服务器,也逐渐进入人们的视野。

  中桥国际调研咨询首席分析师王丛在一份报告中指出,未来3年全球微服务器的销量将占服务器总量的15%.开源、云计算将为微服务器提供快速增长的空间,微服务器在电商、云服务供应商、互联网等行业领域将有广阔的应用前景和机会,但在传统的企业级数据中心应用中仍面临很大挑战。

  目前市场上已经出现了多家供应商的微型服务器,如HP、Intel等。率先提出微服务器这一概念的是Intel,它在微服务器市场上占据了90%以上的份额,但目前它正面临着来自ARM阵营的挑战。

  ARM大中华区总裁吴雄昂在接受记者采访时表示,“ARM的架构最主要的特点是低功耗,非常符合当下绿色数据中心的需求。ARM能通过市场中对于64位计算平台不同的细分需求进行定位,并通过不同类型的客户获取反馈。”伴随着移动设备成长起来的ARM,仅仅因为低功耗就想迅速切入微服务器市场,看起来显然并非易事。

  Inte也一直关注ARM在服务器领域的发展动向。Intel公司相关负责人表示,正是服务器领域的竞争才能说明服务器市场仍处于需求提升、发展迅速的状态,也验证了服务器应用负载和相对应产品类型的多样化发展趋势。关于Intel和ARM之间的竞争,“Intel乐见所有企业与机构业务运行及发展基础的IT细分市场领域呈现繁荣发展的态势,并且认为良性的市场发展和竞争态势有利于激发更多创新,进而惠及更多用户。”

  不过从生态系统的角度来说,ARM显然还不是Intel的对手。Intel有这强大的生态系统和众多的合作伙伴支持,其生命力最强的就是OEM厂商和ISV厂商。而ARM在生态系统和产业链的建设上略显逊色。ARM也认识到自己在产业生态上的短板,在未来,ARM是否能够逆袭Intel,主要看它在微服务器中的表现。

  数据中心的RISC与x86服务器之争 IT技术的发展对数据中心的服务器提出了更高的要求,而大数据的最终目的不是寻找数据来源,而是如何处理数据和利用数据。随着移动和社交的兴起,个人业务和企业业务对服务器的平台提出了新的要求,在大数据、云计算、社交、移动的新需求下,到底什么样的服务器能够符合时代要求?

  业界曾经有过这样的争论,x86 服务器性能大幅度提升,意味着RISC/UNIX穷途末路。数据中心一直是X86的天下,目前x86系统在销售量和营业额上占据优势,但仍没有占据全球市场。

  基于RISC的UNIX系统和大型机依然有很多专门的市场。所以IBM打算出售X86服务器的说法也不见得是空穴来风,而以RISC为代表的IBM Power开始放下身段,走低端路线。

  IBM Power作为开放式的平台,在降低IT基础架构的复杂性和TCO上有很多优势。近日,在IBM Power Systems Linux中心成立的发布会上,IBM大中华区副总裁及大中华区Power Systems总经理侯淼说到,IBM 首先看到了越来越多了客户企业级应用放在了Linux平台上,满足了客户对平台可靠性、性能和服务能力的要求,再次就是帮助客户在Linux的基础架构上做战略调整,以满足云计算和大数据的发展。

  总之,新的技术和需求是改变服务器市场格局的主要原因,通过创新性的产品和技术,应用到服务器中,在未来客户的数据中心中,必然倾向于高效、稳定、低耗的服务器,为云计算和大数据的应用做后盾。

0
相关文章