IBM研发新型神经网络芯片高度匹配GPU

作者: summer 2018-06-18 14:19:47

 近日,《自然》杂志上的一篇论文中,IBM Research博士后研究员Stefano AmbrogioAmbrogio和他的同事们描述了他们利用新兴的模拟记忆和更传统的电子元件组合创造出了一种芯片,这种芯片可以与GPU的精度相匹配,同时运行速度更快,能耗更少。

IBM神经网络

该芯片中运用“突触单元”解决了存储技术难以训练深层神经网络的问题,以前在训练深层神经网络时,需要将每个神经元的权重进行上下数千次的刺激,直到网络完全对齐,当改变这些设备的电阻时,又需要重新配置它们的原子结构,并且每次的操作过程都不一样,所以,这些刺激并不总是完全相同,导致了对神经元权重的不精确的调整。但是新研发的“突触单元”则可以使每一个“突触单元”都和网络中的单个神经元相对应,同时具有长期和短期记忆。每个单元格由一对相变存储器(PCM)单元和三个晶体管以及一个电容的组合构成,PCM可以在电阻中存储权重数据,而电容可以将权重数据存储为电荷。

Ambrogio表示,最终的芯片将被设计成可以与GPU合作的形式,从而在处理其它连接时也能够处理全连接层的计算。他还认为,这种处理全连接层的更有效的方法可以被更广泛地应用。

而对于该芯片的应用,Ambrogio表示:一是可以将人工智能应用到个人设备上,二是使数据中心更加高效。如果直接在个人设备上应用人工智能,用户就可以不必在云端分享他们的数据,从而增加隐私性,而更令人兴奋的前景是人工智能的个性化——在汽车或智能手机上应用这个神经网络,智能设备就能够不断地从人们的经验中学习。

IBM 神经网络 GPU
上一篇:人工智能辅助医生“阅片”:诊断准确率已超过95% 下一篇:世界杯运用AI预测比分,瑞士银行此次能否靠谱?
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

用Transformer进行图像语义分割,性能超最先进的卷积方法

Transformer跨界计算机视觉领域真是越来越频繁了、效果也越来越成功了!

丰色 ·  2021-05-21 10:06:01
利用基于GPU的AI模拟一个现实宇宙 仅需36分钟

科学家已经习惯于使用超级计算机处理宇宙学领域的海量数据,最近卡耐基梅隆大学的研究团队找到一种新方法,可以使用常规的机器学习技术(与AI绘画或作曲拥有同样的底层设计),在图形处理单元(GPU)上实现高级模拟能力。

佚名 ·  2021-05-21 06:44:43
每次矩阵相乘用不到一个光子,手写数字识别准度超90%,光学神经网络效率提升数个量级

康奈尔大学等机构的这项研究证明了光学神经网络在原理上比传统神经网络具有更多基本的能效优势。在光子预算限制为每个标量乘积少于一个光子,研究者使用光学神经网络实现了非常高的手写数字分类准确度。

力元、杜伟 ·  2021-05-19 10:22:42
IBM开源了5亿行代码数据集,里面最多的编程语言却不是Python

近日,IBM 研究院发布了一个名为 CodeNet 的数据集,该数据集包含 1400 万个代码样本,用于训练面向编程任务的机器学习模型。

佚名 ·  2021-05-19 09:26:03
多尺度表征10亿像素图像,斯坦福神经场景表征新方法入选SIGGRAPH

斯坦福大学近日的一项研究给出了解决方案,他们提出了一种新的隐式 - 显式混合网络架构和相应训练策略,可以在训练和推理过程中根据信号的局部复杂度来自适应地分配资源。

佚名 ·  2021-05-17 10:05:08
LeCun联手博士后arxiv发文,遭reddit网友质疑:第一张图就错了

两个月前自监督学习领域出了一篇重磅论文,LeCun和他的学生共同完成新模型Barlow Twins,reddit网友指出,第一张图就错了!

佚名 ·  2021-05-11 14:26:30
新的人工神经元设备可以使用极少能量运行神经网络计算

加州大学圣地亚哥分校的研究人员开发了一种新的人工神经元装置,训练神经网络来执行任务。

佚名 ·  2021-04-29 08:50:39
进行三万多次地震训练后,他们发现了快速预测震动强度的新方法

用来训练DeepShake网络的地震数据是来自于2019年加州Ridgecrest序列的地震记录。

大数据文摘 ·  2021-04-28 14:35:55
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载