服务器 频道

NVIDIA(英伟达)令深度学习训练性能翻番

  全新版本的DIGITS和cuDNN将令神经网络训练的速度达到两倍;

  cuDNN将支持更复杂的模型

  NVIDIA(英伟达)发布了其GPU加速深度学习软件的更新版本,这些软件将令深度学习训练的性能翻一番。

  新软件将让数据科学家和研究人员能够通过更快的模型训练和更复杂的模型设计来创造更准确的神经网络,从而加速其深度学习项目和产品的开发工作。

  NVIDIA DIGITS深度学习GPU训练系统第2版(DIGITS2)和NVIDIA CUDA深度神经网络库第3版(cuDNN3)可提供大幅提升的性能和全新的功能。

  对数据科学家来说,DIGITS2现在能够在多颗高性能GPU上实现神经网络训练的自动扩展。与单一GPU相比,这种扩展在图像分类方面能够令深度神经网络训练的速度翻一番。

  对深度学习的研究人员来说,cuDNN3可优化GPU内存中的数据存储,从而能够训练更大、更复杂的神经网络。cuDNN3还能够提供高于cuDNN2的性能,让研究人员在单一GPU上最高可令神经网络训练速度达到两倍。

  全新的cuDNN3库预计将集成到Caffe、Minerva、Theano以及Torch等深度学习框架的未来版本中,这些框架被广泛用于训练深度神经网络。

  NVIDIA加速计算副总裁IanBuck表示:“高性能GPU是为大学与大型网络服务公司支撑深度学习研究与产品开发的基础性技术。我们正与数据科学家、框架开发者以及深度学习社区密切合作,以便运用最强大的GPU技术、突破目前的极限。”

  DIGITS2–凭借自动多GPU扩展最高可实现两倍训练速度

  DIGITS2是首个一体式图形系统,它在图像分类方面可指导用户完成设计、训练以及验证深度神经网络的整个过程。

  DIGITS2中全新的自动多GPU扩展功能通过在系统中的所有GPU上自动分配深度学习训练任务,从而能够最大限度地增加可用的GPU资源。利用DIGITS2,在四颗NVIDIA Maxwell架构的GPU上,NVIDIA的工程师令著名的AlexNet神经网络模型的训练速度达到了单一GPU的两倍以上。早期客户的初步成果呈现了更好的加速效果。

  雅虎旗下Flickr网站的人工智能架构师Simon sindero表示:“在自动加标签(Auto-tagging)这方面,在单一NVIDIAGeForceGTXTITANX上训练我们的一个深度网络需要耗费大约16天时间,但是如果在四颗TITANXGPU上利用全新的自动多GPU扩展功能,整个训练只需5天即可完成。这是一个巨大的进步,它让我们能够更快地看到结果,还让我们能够在模型方面进行更广泛地探索以便实现更高的精度。”

  cuDNN3–更快地训练更大、更复杂的模型

  cuDNN是一款用于深度神经网络的GPU加速数学例程库,开发者可以将其集成到更高级的机器学习框架中。

  cuDNN3在GPU内存中新增了对16位浮点数据存储的支持,使可存储的数据量翻了一番,优化了内存带宽。凭借这一功能,cuDNN3让研究人员能够训练更大、更复杂的神经网络。

  百度研究院高级研究员Bryan Catanzaro表示:“我们认为,NVIDIA库中的FP16 GPU存储支持功能将让我们进一步扩展我们的模型,因为当我们把单一模型的训练任务扩展至多颗GPU时,这一功能将会增大我们硬件的有效内存容量并提升效率。这将会使得我们的模型精度进一步提升。”

  至于在单一GPU上训练神经网络,cuDNN3也能够实现大大高于cuDNN2的性能。它让NVIDIA工程师在单一NVIDIA GeForce GTX TITANX GPU上训练AlexNet模型时实现了两倍的速度。

  上市情况

  DIGITS2预览版今天上市,NVIDIA注册开发者可免费下载。如需了解有关下载的更多信息,敬请访问DIGITS网站。

  cuDNN3库预计将在接下来的几个月里出现在各大深度学习框架当中。如需了解更多信息,敬请访问cuDNN网站。

0
相关文章