协同芯片(Companion chips):AI的明智选择?

作者: Simon Forrest 2018-08-21 17:01:03

多年来,半导体行业一直致力于将越来越多的组件紧密的集成到单个片上系统中(SoC)。毕竟这对于庞大的应用而言是非常实用的解决方案。通过优化处理器的定位,存储器和外部设备芯片厂商能够将数据路径调整到最短,从而提高功率效率并取得更高的性能,此外还能够显著的降低成本。通过这些方法,该行业已经取得了巨大的成功,SoC几乎是我们所有消费电子产品的标准组件。

AI作为一种标准

随着更多的公司意识到利用神经网络处理各种任务(比如自然语言处理、图片识别分类)的巨大潜力,引入人工智能要素的产品数量也在稳步增加。与此同时,这些任务的处理过程正在从基于云的架构迁移到本地终端设备来实现,现在专用硬件神经网络加速器也已经嵌入到SoC器件中。

协同芯片(Companion chips):AI的明智选择?

AI正集成到更多的SoC器件中

从语音激活的消费电子产品(比如虚拟助理)到高级的驾驶辅助系统(ADAS),集成的神经网络人工智能(AI)所面临的机会正在多个细分的市场中展开,不可否认,人工智能(AI)被认为是许多解决方案必不可少的要素。

一种方法不能适用所有

然而,尽管AI应用程序的数量正在不断增加,但这并不意味着集成有AI加速功能的SoC能够适用所有的场景。实际上,如果我们考虑AI能够覆盖大多数的细分市场,那么由于使用该技术的产品可能有很多不同的处理要求,自然就会产生碎片化的差异。细分的市场对于专用的SoC器件是一种挑战,因此“一刀切”通用的方案不再适用。

虽然一些市场(比如智能手机、ADAS)为SoC供应商提供了大量的机会,但是很多针对AI使用的市场目前仍然比较低迷。例如某些产品可能需要AI进行语音处理或图像识别,但不一定两者都需要。同样的智能家居供应商认为将传统的智能手机SoC嵌入AI功能就集成到他们的产品中并不是很好的解决方案,因为这不符合成本效益。

认识AI协同芯片

现在台式机CPU和移动SoC大多都采用多核芯片,因为它们灵活的可扩展架构使其能够按需提供不同的性能,AI“协同芯片”采用类似的方法,它们不仅仅只被设计成一个,而是多个计算GPU和神经网络加速器(NNA)来为特定的应用提供足够的性能,同时确保对硅片尺寸进行优化,将芯片的成本降至最低。这些处理器会紧挨着主应用处理器(SoC)作为“协同芯片”,承载主应用处理器上的NNA内核需要处理的AI推理任务。

现在SoC供应商有机会创建一个传统的通用应用处理器,能够经济高效的适用于多个市场,同时可以配套AI协同芯片来满足一些特定应用或小众应用对于AI功能的需求。

从OEM厂商的角度来看,他们现在可以选择适当地扩展自己的产品解决方案,这取决于他们期望在整个应用方案中对于AI处理操作的开销。

一个AI处理器的例子:根据不同应用NNA的数量可以灵活的增减

典型的协同AI SoC芯片包括负责内部事务的通用控制CPU、用于高性能计算的GPU内核(而不是专门用于处理图形和3D变换操作)以及多个NNA(神经网络加速器),根据不同的神经网络和推理引擎可灵活组合,此外还可以根据不同的任务采用不同的精度。举个例子,在双NNA系统中,其中一个NNA可以用来执行图像识别任务,将结果传递给另一个NNA之前能够识别出场景中的人脸部分,另一个NNA会将人脸部分划分为单独的特征从而识别出面部表情。

另一个例子就是汽车,对六核心的AI协同芯片进行分区,其中三个NNA(每个NNA负责不同的方面)用来识别道路上的标志,与此同时另外三个将专门负责行人检测。NNA的数量和任务的分配是根据应用的需求而确定的。这个概念可以扩展到一系列专用的AI处理器,每个处理器都会集成不同数量的NNA来满足不同任务的性能需求。

从云端到本地

我们已经看到了部署在云端的专用AI芯片,比如谷歌公司推出的TPU、微软公司和英特尔合作的Brainwave项目采用Stratix FPGA作为解决方案,现在这些主要用于AI的机器学习和算法的训练。

典型的云端AI解决方案——太庞大了!

然而并不是所有的设备都会连接到云服务,面对众多不用的市场应用,业界认为至少可以把一些AI任务用本地设备自身来完成,这么多市场需求非常的复杂,正如我们之前讨论过的,没有完全通用的解决方案。业界的所有供应商都已经开始利用神经网络来实现某些特殊的需求,而且向协同AI芯片的转变有望成为AI处理解决方案又一令人兴奋的一步。

作者:Imagination互联与家居互联部市场总监Simon Forrest

原文链接:https://www.imgtec.com/blog/companion-chips-the-intelligent-choice-for-ai/

人工智能 AI 芯片
上一篇:聚焦AI和大数据,英特尔与今日头条建立技术创新实验室 下一篇:人工智能技术和应用的深度剖析,有效了解人工智能产业链!
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

11个主流AI聊天机器人平台,你绝不能错过 精选

人工智能聊天机器人掀起了一场用户体验革命。只要用户需要,机器人就能提供有用的信息。一些企业应用AI聊天机器人为客户提供积极有益的帮助,企业也因此得到了长足的发展。

读芯术 ·  1天前
5G自动驾驶什么样?韩国测试得出这样的结果

自动驾驶与5G的产业发展备受关注,而两者结合会有什么样的效果,韩国企业近日进行了一番探索。韩媒报道称,10月10日,LG U+自动驾驶汽车在首尔麻谷LG科学园一带的普通公路上进行了测试。

佚名 ·  1天前
全球十大AI训练芯片大盘点

AI芯片哪家强?现在,有直接的对比与参考了。英国一名资深芯片工程师James W. Hanlon,盘点了当前十大AI训练芯片。

乾明 ·  1天前
模型仅1MB,更轻量的人脸检测模型开源,效果不弱于主流算法

AI模型越来越小,需要的算力也也来越弱,但精度依旧有保障。最新代表,是一个刚在GitHub上开源的中文项目:一款超轻量级通用人脸检测模型。

乾明 ·  1天前
人工智能遇冷,自动驾驶受阻?

2016到2019,人工智能经历了梦幻般的三年,但人工智能的历史规律告诉我们:高潮过后可能会引来新的一波沉寂,人工智能助推下的自动驾驶也会受到波及。

佚名 ·  1天前
非监督学习最强攻略

本次主要讲解的内容是机器学习里的非监督学习经典原理与算法,非监督,也就是没有target(标签)的算法模型。

SAMshare ·  1天前
PyTorch终于能用上谷歌云TPU,推理性能提升4倍,该如何薅羊毛?

Facebook在PyTorch开发者大会上正式推出了PyTorch 1.3,并宣布了对谷歌云TPU的全面支持,而且还可以在Colab中调用云TPU。

晓查 ·  1天前
500亿参数,支持103种语言:谷歌推出「全球文字翻译」模型

由于缺乏平行数据,小语种的翻译一直是一大难题。来自谷歌的研究者提出了一种能够翻译 103 种语言的大规模多语言神经机器翻译模型,在数据丰富和匮乏的语种翻译中都实现了显著的性能提升。

机器之心 ·  3天前
Copyright©2005-2019 51CTO.COM 版权所有 未经许可 请勿转载