登录 / 注册
IT168服务器频道
IT168首页 > 服务器 > 服务器资讯 > 正文

英特尔自学习芯片“思考”的是AI的未来

2017-09-26 13:36    it168网站 原创  作者: 李佳惠 编辑: 李佳惠

  【IT168 资讯】想像一下未来,复杂的决策也能很快地进行,并随着时间的推移而逐步适应各个领域。社会和工业方面的问题可以利用学习的经验自主地解决。

  未来,使用图像识别应用程序的第一反应者可以通过分析路灯的相机图像,快速分析得出丢失或绑架的人员报告。

  未来,信号灯会自动调整,使其时间与车流量同步,减少交通堵塞并优化启动和停止。

  未来,机器人会更具有自主性,性能效率大大提高的未来。

  由高度动态和非结构化的自然数据收集、分析和决策的需求越来越多,这促使计算的需求可能超过经典的CPU和GPU架构。为了跟上技术的发展并推动计算机超越PC和服务器,英特尔在过去六年中一直致力于加速经典计算平台的专用架构。英特尔最近也在人造智能(AI)和神经元计算方面进行了投资和研发。

  在神经形态计算方面的工作建立在数十年的研究和协作之上,该研究和协作始于加州理工学院的Carver Mead教授,他以半导体设计领域的基础性工作而闻名。芯片技术、物理学和生物学的结合为新思想创造了一个环境。这些想法很简单但具有革命性:将机器与人脑相比较。研究领域继续高度合作并持科学的一步发展。

  作为英特尔实验室内部工作的一部分,英特尔已经开发出了代号为“Loihi”的第一款自学习神经形态芯片,它模仿了大脑如何根据环境中的各种反馈模式学习操作。这种使用数据来学习并作出推论极其节能的芯片,随着时间的推移变得更加智能,不需要以传统的方式进行培训。它需要一种新颖的方法来计算。

  AI正处于起步阶段,更多的架构和方法,像Loihi类似的,将不断出现,为AI提供了高门槛。神经元计算从我们目前对大脑架构及其相关计算的理解中吸取灵感。大脑的神经网络通过脉冲或峰值来传递信息,基于这些峰值的时序来调节互连的突触强度,并将这些变化本地存储在互连处。智能行为从脑内神经网络及其环境中的多个区域之间的合作和竞争互动中产生。

  机器学习模型,如深度学习,通过使用广泛的训练数据集来识别对象和事件,已经取得了巨大的进步。然而,除非他们的训练集具体考虑了一个特定的元素、情况或环境,否则这些机器学习系统不能很好地推广。

  自主学习芯片的潜在收益是无限的。举一个例子,提供一个人在各种条件下的心跳数据,从慢跑后、饭后或睡觉前到基于神经形态的系统,用来分析这些数据以确定“正常”的心跳是多少。然后,系统可以连续监测传入的心脏数据,以便标记与“正常”模式不匹配的模式出来。那么,该系统可以据此为任何用户提供个性化服务。

  这种类型的逻辑也可以应用于其他方面,如网络安全。因为系统已经在各种情景中学习到“正常”状况,所以识别出数据流的异常或差异就可以辨别漏洞或黑客攻击,。

  什么是Loihi测试芯片

  Loihi研究测试芯片包括模拟大脑基本机制的数字电路、使机器学习更快、更有效率,同时要求较低的计算能力。神经元芯片模型从神经元的沟通和学习中吸取灵感,利用脉冲峰值和人造的塑料突触调整时间。这可以帮助计算机根据模式和关联自行组织并作出决策。

  Loihi测试芯片提供高度灵活的芯片学习,并将训练和推理结合在单个芯片上。这允许机器自主进行实时调整,而不是等待下一次从云上更新。研究人员已经证明,与其他典型的神经网络相比,通过总操作来测量,速度提高了100万倍,以使MNIST数字识别问题时达到给定的准确度。与诸如卷积神经网络和深度学习神经网络等技术相比,Loihi测试芯片在相同任务中使用的资源比较少。

  该测试芯片的自主学习功能具有巨大的潜力,可以改善汽车和工业应用以及个人机器人。例如,识别汽车或自行车的运动。

  此外,它比典型培训系统所需的通用计算效率要高1000倍。

  2018年上半年,Loihi测试芯片将与领先的大学和研究机构共享,重点放在推进AI上。

  附加亮点

  Loihi测试芯片的功能包括:

  ·全异步的神经形态网络的许多核心部分,具有稀疏性、分层和反复的神经网络拓扑,每个神经元都能够与成千上万个其他神经元通信。

  ·每个神经核心包括一个学习引擎,可以在操作过程中对网络参数进行编程,支持监督、无监督、强化和其他学习模式。

  ·英特尔14纳米工艺技术的制作。

  ·共有13万个神经元和1.3亿个突触。

  ·开发和测试算法效率高的几种算法,包括路径规划、约束满足、稀疏编码、字典学习和动态模式学习与适应等。

  下一步是什么?

  在计算和算法创新的推动下,AI的变革力量预计将会对社会产生巨大的影响今天,英特尔正在应用这种优势,推动摩尔定律并且由于制造业的领先地位带来了市场上广泛的产品,英特尔至强处理器,英特尔Nervana技术,英特尔Movidiu技术和英特尔FPGA等,满足了从边缘到数据中心和云的处理AI工作负载的独特需求。

  通用计算和定制硬件和软件可以在所有级别上发挥作用。英特尔至强Phi处理器,广泛应用于科学计算,已经产生了一些世界上最大的模型来解释大规模的科学问题,而Movidius神经计算棒可以在1瓦的功率下就提供超过每秒1000亿次浮点运算的性能。

  随着AI工作负载的增长越来越多样化和复杂化,他们将测试当今主流的计算架构的极限,并提出新的破坏性方法。展望未来,英特尔认为,神经元计算提供了一种为大脑工作灵感的构建提供超级性能的方法。

  在接下来的几个月里,随着将诸如神经元计算等概念纳入主流,以支持未来五十年的世界经济,我们希望看到英特尔实验室的激动人心的里程碑。在未来,随着智力和决策制定变得更加流畅且速度更为迅速,神经元计算的所有可以想象的到的,都从可能性转移成为现实。

  英特尔开发创新计算架构的愿景仍然坚定不移,我们知道计算的未来是什么样子,因为我们今天正在建设中。

标签: AI , 英特尔
  • IT168企业级IT168企业级
  • IT168文库IT168文库

扫一扫关注

行车视线文章推荐
首页 评论 返回顶部