工欲善其事,必先利其器,
要达成某个目标,一定得使用匹配的工具。
马拉松跑道上,皮鞋肯定不是田径鞋的对手,
F1比赛,臃肿的私家车大概率赢不了流线型的跑车,
相扑场内,多的是膀大腰圆的选手,精瘦者寥寥,
人工智能训练时, 4块GPU肯定比2块的运算速率更高!
这天,我被朋友叫去公司帮忙,当时大家都在电脑前静静地编译代码,编译仿真的时候,朋友被突然弹出的Web页面吸引——那是一幅令人兴奋的画面:火红的夕阳下,霹雳游侠麦克一身劲装,斜靠在他的高度人工智能跑车“KITT”上,背后是一望无际的的地平线。朋友一脸憧憬,当年“速度与激情”的梦想又重新燃烧了起来……
为了这个梦,他追逐了22年,来到现在这家研发无人驾驶汽车的公司继续追梦之旅。
“编译速度好像有些慢哈!”我的询问把朋友拉回了现实。
“是的,我被这种编译速度困扰了很久。”他不禁感叹,想要达到KITT那种无人驾驶的人工智能汽车程度,必须提升底层技术的运算速率,代码编译和脚本速度要很快才行。
“给服务器加GPU啊,速度快、性能高,自动驾驶足够了。”我接茬道。
“是这个理,可是我们公司现在Inference&Training(推理&训练)的服务器只插了2块GPU在运行,性能和速度上都存在瓶颈,尤其现在自动驾驶行业涉及传感器技术、数据融合技术、定位技术等,更需要配合有高效计算能力的服务器才能完成相关技术研发。”朋友一脸愁容,“对了,你们公司多块GPU的服务器什么时候上市啊?”
啊,既然问到这里了,那我就要自信地介绍一番了:
针对目前AI市场的火热需求,戴尔易安信早已经研发上市了几款支持多块GPU的服务器,可以加快应用程序运算速度,满足各个领域要求最苛刻的技术计算工作负载。
对于TensorFlow/CNN/RNN/DNN/LSTM/GAN/Rl/Nrl/Ge/Krl等主流的深度学习模型,以下几款戴尔易安信服务器比较合适:
1
PowerEdge C4140是戴尔易安信专门针对GPU计算优化设计的服务器。在1U空间内,支持4块双宽高速GPU卡,提供单机最高62.8 FP32 TFlops,500 Tensor TFlops计算性能。
C4140的主板支持集成NVLink或PCI-E switch,为GPU通信提供更高效的解决方案并提高深度学习训练参数同步效率。它还支持NVME SSD存储,单卡最大容量6.4TB,可为小文件训练提供非常好的的IO性能。
2
PowerEdge T640提供5U机架式GPU部署方案,单台服务器最高可以支持4块双宽GPU卡。T640最高可以提供32块2.5寸硬盘槽位,适合于大训练数据集本地硬盘存储。
3
PowerEdge R740与R740xd采用标准2U机架式设计,单台服务器最高支持3块双宽GPU卡或者6块单宽GPU卡(如Telsa P4)。R740/R740xd 支持FPGA,单机最高支持4块FPGA。
R740/R740xd主要适用于AI中小规模Training与Inference推理场景。
4
PowerEdge R940xa支持4个CPU与4个GPU相配合,实现CPU与GPU 1:1高性能配比。主要面向数据密集型应用、机器学习领域GPU数据库加速。R940最高可支持4块双宽GPU或者8块FPGA,最高支持32块2.5寸HDD/SSD硬盘和4块NVME SSD驱动器。
这些PowerEdge服务器的GPU数量最多可达4块,性能得到极大提升,可以很好地满足自动驾驶业务上的AI技术需求。
另外,戴尔易安信14G新一代PowerEdge产品,除了搭载多块GPU,还支持多块型号为Intel Arria 10的FPGA,帮助加速核心工作负载,可在几分之一秒内重新编程,其数据路径与工作负载的关键算法完全匹配。这种多功能性可实现更高性能,更高功效和充分利用的数据中心。
“怎么样?对我们公司新产品还满意吗?”我得意地对朋友挑眉。
“满意,满意,我这就向公司申请采购。”朋友笑得合不拢嘴,手指在空中飞舞。
这是一个快速变迁的时代,身处这个时代洪流里的每个人,都在享受着日新月异的便利生活。
在这些便利和舒适的背后,是一场正在深刻改变我们生活和社会的科技浪潮—人工智能,当下许多企业都想搭上人工智能的快车以期获得新时代下突出的竞争优势,向人工智能进军的路上,怎能缺少良好的IT工具,来戴尔易安信,选择高效的IT解决方案,为您的科技目标注入强大力量吧。