服务器 频道

未来的服务器长啥样儿?PMC给你答案

  【IT168 专稿】互联网和云计算促使了超大规模数据中心发展,并直接影响到了服务器的型态。其实今天我们广泛谈论的整机柜服务器、高密度服务器、定制化服务器等等,都已经不再是传统的1U、2U机柜式服务器的外观标准。

  不过,这些新型态的服务器虽然对超大规模数据中心做了更好的适应,但很大可能也只是数据中心服务器的过渡型态。那么,未来的服务器究竟长什么样子?什么样的服务器更适合超大规模数据中心的发展呢?

未来的服务器是什么样子?
PMC-Sierra首席科学家兼研发副总裁廖恒博士

  笔者近日和PMC-Sierra首席科学家兼研发副总裁廖恒博士交流,了解PMC对于未来数据中心提出的有趣的蓝图构想,而且廖恒博士提到,这个发展方向其实已经是业内的共识。

  未来的服务器是什么样子?

  PMC提出的构想叫“机架级解耦合”,简称“FDIO”,这个名字听起来十分晦涩,不过简单来说,就是在物理上把存储硬盘和CPU、内存等计算资源解耦合,咱们说得再通俗一点,就是把硬盘搬出服务器的机箱。

未来的服务器是什么样子?

  这个拓扑图很好的展现了“机架级解耦合”的系统逻辑关系。在PMC的设计中,所有的硬盘不再和CPU、内存等计算资源一一对应,而是集中在机柜中,硬盘和CPU、内存的连接,则采用了SAS交换。

未来的服务器是什么样子?

  在PMC的构想中,这款产品的最终型态应该是整机柜服务器,一半可能是CPU+内存的计算节点,另一半则是密密麻麻的硬盘,计算节点和存储硬盘之间,则用SAS交换机连接。

  不过这里要强调的是,虽然硬盘和计算节点从物理上独立了,但在逻辑上,硬盘和计算节点的对应关系还是没有变。只是硬盘不在服务器机箱里面,而是统一放到了一个大的硬盘池,通过SAS交换矩阵,以物理或者虚拟的模式和计算节点对应,仍然维持了以前的服务器的“砖块模式”。

  说到这里,我们自然而然就会有两个问题:第一,硬盘和计算资源相分离的好处是什么呢?第二,为什么要用SAS交换?下面,我们就来一一给大家解释清楚。

  硬盘与计算资源分离的好处

  虽然这款产品看上去很前瞻,不过和廖博士交流后我们了解到,其实这款产品面对的需求十分现实,可以说是一款面向实际需求的非常“接地气”的产品。

  我们知道,今天互联网用户们都喜欢定制化服务器,不过,对供应商来说,定制化意味着额外的成本。这些互联网用户的需求形态不一,针对每个用户的不同需求,生产一款新的产品显然成本不低。尤其是整机柜服务器,一个机柜中有大量的服务器节点,这方面的困扰更加被成倍的放大了。

硬盘与计算资源分离的好处

  有什么办法能够,既和互联网用户的差异化需求完全匹配,又不至于因为“定制化”导致太大的成本提升呢?这种“解耦合”的架构显然就是完美的答案,就好像乐高积木一样,可以在整机柜中随意搭配CPU、内存和硬盘资源。任何时候,只要更换计算节点的CPU和内存,很快就能生成新的服务器型号。

  那么从用户角度来说,这种随意更改搭配的模式,可以大大缩短的定制化生产周期,而且因为单个节点更加标准化,形成的规模化效应能够进一步降低成本,也会反馈到最终的产品价格上。因而,能带来直接的经济效益。

  除了前面这个显而易见的好处之外,这样做的优势还有以下几点:

  节点密度最大化:因为服务器内部不带盘片,不会产生硬盘阻挡散热风道的问题,能够改善气流、降低功耗,并在此基础上,进一步提升服务器节点密度。“高密度”对互联网用户来说,永远是个受欢迎的词。

  存储资源动态分配:因为我们把硬盘集中起来形成了一个硬盘池,因此可以把任意容量刚的存储空间分配给任何一台服务器(无论是动态还是静态),从而提升存储利用率。

  启动共享:服务器无需再担负启动盘,可用性高,启动镜像管理便利。

  工作负载迁移:能将任意负载分配给任意服务器(不受数据存储位置局限),可用性提升(任务从一台故障服务器移到其他服务器,也不会对业务造成任何影响)

  为什么是SAS连接?

  其实,将硬盘与计算资源解耦合之后,就需要有一个网络来连接计算资源和存储资源。目前我们的选择除了SAS之外,还包括以太网、FC光纤、PCIE和Infiniband。

  成本优势:之所以选择SAS,而不选择FC光纤和Infiniband的主要原因就是贵,影响成本的一个很关键的因素就是生态圈,在服务器IO领域发货量最大的就是以太网和SAS,整体生态圈来说,以太网无疑更有优势些,但服务器连接领域,以太网未必比SAS更有优势,因为每一台服务器内部,硬盘接口数目普遍比网口会更多。

  协议优势:比较以太网和SAS协议的话,应用以太网很可能采用的协议是iSCSI、FcoE或者某种NAS协议,但应用SAS连接,就可以在计算资源端保持DAS连接模式的存储优势。因为SAS协议相比TCP/IP协议更为简单,没有TCP/IP包的封装处理,因而在性能上的损耗更小,在功耗、开销、成本、延迟上都具备更多优势。

  有关PCIE:据廖博士介绍,PCIE目前也在研发计划中,但是PCIE的组网技术还不太成熟,还需要1-2年或者2-3年的研发才能够解决这个问题。而SAS,在服务器IO领域已经是成熟、便宜、可行的解决方案。

为什么是SAS连接?为什么是SAS连接?

用 PM8056 芯片实现——该芯片带有68个12Gb SAS/SATA端口,相当于17个48GB SAS宽端口,采用这种多端口芯片的SAS交换机在1U机架空间中最高达到68个SAS 宽端口,减少占用空间,同时还能够支持分区,可以在任一服务器上执行处理故障业务

  另外,PMC选择SAS作为连接协议和PMC历史的技术积累也不无关系。PMC是目前OEM市场领先的SAS方案供应商,采用自身最擅长的SAS技术其实也是顺理成章的选择。另外,PMC年初的时候展示了一款68port的12Gb/s SAS Switch,这款多端口芯片成为PMC和其他厂商形成差异化竞争优势的关键产品,16 x4 lane的交换机用单芯片就可以实现,而这样的解耦合整机柜服务器,正是SAS交换机最适用的工作场景。

  其他的问题:1、是否需要软件上的调整?

  从软件方面而言,这个变化对于Bios、驱动程序或者操作系统上都是百分之百透明的。 过去服务器节点直接连的是本地的盘,或者是连到JBOD上, 而通过解耦合这个方案重组之后, 服务器看到的是经过虚拟化之后、扩展器拓扑的一个子集,对于任何一个服务器而言,其实还是一个DAS模式,所以没有任何软件的改变,而且从性能上来说, 没有任何变动, 因为原有方案是HBA直连,解耦合的方案只不过多增加了一级扩展器。

  其他的问题:2、适用的应用?

  这款产品面向的应用主要包括冷存储,服务器/应用 HA保护倒换,启动共享,无LAN 数据迁移

  四两拨千金 撬动生态圈

  我们在前面展示了PMC关于未来服务器的构想,不过未来的服务器究竟长啥样儿的,不是PMC一家公司说了算的,而是用户说了算,生态圈说了算。PMC作为一家底层OEM芯片供应商,在市场份额占有率还不具备绝对优势的情况下,想单枪匹马的推动整个生态圈,难度可想而知非常大。

  “从体量上来说,我们可能只是一个蚂蚁或者细菌,而这些知名的OEM厂商、数据中心用户则是大象,”廖博士谈到。不过廖博士仍然认为,虽然PMC非常小,但从服务器硬件生态圈来看,很多方案都需要从芯片来实现,所以PMC在推动生态圈发展方面,也有四两拨千斤的效果。

  同时,PMC显然深知用户对生态圈的拉动效果,也正在和一些互联网用户积极接触。”互联网相对来说还是比较容易切入的市场,因为它很集中,全世界就20个互联网,你只需要跟20个人去解释一件事情,而不需要跟几十万个用户去解释这样的问题。“

  这些互联网用户的数据中心正在超大规模数据中心的发展道路上一去不回头,这些互联网用户也希望从更深的层次来影响和控制供应商,从而对数据中心拥有更主动的控制权。他们是最时髦的新技术尝试者,对供应商也有强大的控制力量,如果”解耦合“机柜式服务器真的能给他们带来显著和直接的经济效益,撬动整个生态圈也并不是不可能。

  当互联网的用户尝到甜头之后,由于这些互联网用户对企业级市场有强大的示范效应,未来企业级市场也有可能会采用这种解耦合的整机柜方案。此外,廖博士还透露,PMC还在和英特尔就未来架构数据中心服务器上展开一些合作。

7
相关文章