【IT168 资讯】本周随着2013年国际超级计算大会的继续召开,展会上继续涌现出各种产品和技术。NVIDIA当然是这一展会的常客,去年该公司在展会上借助Titan取得了成功,现在正不断加大曝光率,试图在有利可图的HPC市场上获得更大的份额。为此,NVIDIA今天上午发布了多项内容,我们想要对此进行简短的报道。
2013ISC大会上NVIDIA的重大新闻是,CUDA5.5现已结束私人Beta测试,进入到公开候选版阶段。虽然CUDA5.5对CUDA来说只是一个修正版本,但是却为开发商带来了多项重大变化。当然最大的变化是,这是首个提供ARM支持的CUDA版本,它将在明年NVIDIALoganSoC发布之前与Kayla开发平台一同发布。
“CUDAonARM”对NVIDIA来说是一个重要的兴趣点,原因有两个。在消费者方面,NVIDIA希望最终利用CUDA来在SoC设备上进行计算,类似于过去五年里他们在PC领域中的做法一样。然而对ISC与会者来说,他们关注的是这对NVIDIA在HPC方面的雄心壮志而言意味着什么,因为一个基于ARM的HPC环境是可以仅用NVIDIA处理器来支撑的。这与当今的常见情形不同,当今常见情形为Tesla计算卡与x86AMD和Intel处理器搭配使用。然而如果没有其它目的的话,在不久的将来,NVIDIA这样做是要确保不会被不断增长的ARM设备销量落在后面。
伴随着为CUDA带来ARM支持,CUDA5.5还在工具包中引入了交叉编译支持,让ARM二进制代码既能够在ARM系统上原生地打造出来,又能够在更快的x86系统上以快得多的速度打造出来。其它变化包括MPI和HyperQ中多项不同的改进,例如MPI工作负荷优先化以及获得了新能力的HyperQ,这种能力就是可以从Linux系统上的多个MPI进程收到工作。
最终,从更广阔的角度来看,CUDA5.5还将带来一些虽细小但很重要的变化,大多数开发商无论如何都会看到这些变化。在开发方面,NVIDIA正在推出一款全新的向导型性能分析工具,用于搭配VisualProfiler工具以及NsightEclipseEditionIDE,以便帮助开发商更好地找出和解决性能瓶颈。同时在开发方面,NVIDIA最终还推出了一个静态编译选项,该选项应该能够简化CUDA应用程序的分配,让必要的CUDA库能够静态地链接至应用程序,而不是单纯依赖动态链接以及需要将必要的库与应用程序或安装在目标计算机上的CUDA工具包捆绑在一起。
接下来,除了CUDA5.5的发布以外,NVIDIA还利用ISC这一舞台展示了一些采用NVIDIAGPU的最新项目。NVIDIA在ISC大会上的主题是神经网计算,有两项发布内容都是关于该主题的。
在学术前沿,斯坦福大学打造了一个全新的集群来模拟神经网络,目的是研究人脑如何学习。这个由16台服务器组成的集群能够模拟具有112亿个参数的神经网络,比第二大神经网络大6.5倍。后者是谷歌2012年打造的具有17亿个参数的模型。本周单独发表的一篇论文便以该集群为基础,这篇论文是为国际机器学习大会而发表的。该大会本周同时在亚特兰大举行。
同时在商业前沿,语音识别软件公司Nuance正被ISC大会用作神经网络研究案例。该公司的软件包括Dragon系列。Nuance多年以来一直将神经网络技术用作机器学习系统的基础,他们的软件利用这一机器学习系统来自我训练。最近,该公司开始将GPU融入到工作当中。具体一点,该公司现在正利用NVIDIAGPU来加速训练过程,将训练一个模型所需的时间从数周缩短到短短数日,这反过来让公司能够在相同的时间段内试验更多的新模型。最终结果是,该公司能够更频繁地测试和改善模型,这些改善的模型将成为未来产品的基础。
最后,虽然Titan不再是世界上头号超级计算机(它在最新的Top500榜单中屈居第二),但是NVIDIA指出,Titan最终通过了所有必要的验收测试。像超级计算机领域的典型做法一样,他们在进行充分的验收测试之前便已发布和排名,这意味着,最终的验收要等几个月之后才能开始。在Titan的案例中,其主板PCIe接口上发现了一些意想不到的问题,接口中过多的金造成了焊接问题。这一问题在四月份得到修正,Titan被重新提交用于验收测试。自上周起,它才通过测试,最终进入全力生产阶段。