服务器 频道

连发更新,谷歌云计算引擎GCE推出更快的GPU

    【IT168 资讯】2017年9月21日,谷歌GCE(Google Compute Engine)发布推出更快的GPU。首先,Google云平台(GCP)随着NVIDIA P100 GPU在测试版上的推出而获得另一个性能提升。其次,NVIDIA K80 GPU现在在GCE上可用。第三,宣布在K80和P100 GPU上引入持续使用的折扣。

  云GPU可以加速企业的工作负载,包括机器学习训练和推理,如地球物理数据处理,仿真,地震分析,分子建模,基因组学和更多的高性能计算用例。

  NVIDIA的特斯拉P100是目前GPU领域的非常先进技术。基于Pascal GPU架构,你可以通过减少实例来增加吞吐量,同时节省资金。与K801相比,P100 GPU可以将工作负载加快10倍。

  与传统解决方案相比,云GPU提供了更好的灵活性,性能和成本节约的组合:

  灵活性:Google的自定义虚拟机和增量云GPU提供极大的灵活性。自定义CPU,内存,磁盘和GPU配置,以最好地满足需求。

  快速性能:云端GPU通过直通模式提供裸机性能。每个VM最多可以连接4个P100或8个K80(我们提供最多4个K80板,每个板上有2个GPU)。对于那些寻求更高磁盘性能的用户,可选择将最多3TB的本地SSD附加到任何GPU虚拟机。

  低成本:使用Cloud GPU,可以获得与GCP其余资源相同的每分钟计费和持续使用折扣。只为你需要的资源付费!

  云集成:云GPU可用于堆栈的所有级别。对于基础设施,计算引擎和容器引擎(仅在Alpha群集上支持)允许使用VM或容器运行GPU工作负载。对于机器学习,云机器学习可以选择配置为利用GPU,以减少使用TensorFlow大规模培训你的模型所需的时间。

  同时,现在可以在全球四个地区部署NVIDIA Tesla P100和K80 GPU。我们所有的GPU都可以利用持续使用折扣,当你使用它们来运行持续的工作负载时,可以自动降低虚拟机的价格(高达30%)。不需要锁定或预付最低费用承诺来利用这些折扣。

谷歌云计算引擎GCE推出更快的GPU

  加快机器学习工作量

  自推出GPU以来,我们已经看到用户可以从额外的计算中获益,从而加速从基因组学和计算金融到训练和机器学习模型推理等工作。我们的客户之一,Shazam是GCP早期采用GPU来为音乐识别服务提供支持。

  Shazam网站可靠性工程负责人Ben Belchak表示,“对于某些任务,NVIDIA GPU是传统CPU的成本效益和高性能替代品。他们与Shazam的核心音乐识别工作非常相符,其中我们将用户录制的音频片段与我们4000多万首歌曲的目录相匹配。我们通过拍摄每首歌曲的音频签名,将其编译成自定义数据库格式并将其加载到GPU内存中。每当用户Shazams一首歌曲,我们的算法使用GPU搜索该数据库,直到找到一个匹配。每天成功超过2000万次。”

  今天GCP又迈出了一步,成为任何硬件加速工作负载的非常好的选择。随着NVIDIA P100 GPU的增加,谷歌的主要重点是帮助你将新的用例带入生活。

0
相关文章