英伟达开源自动驾驶AI算法,升级芯片性能7倍于Xavier

作者: 乾明 2019-12-18 16:17:56

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

 一年一度,英伟达GTC China如期举办。

今年的英伟达创始人黄仁勋,对自动驾驶极为关注。

不仅发布了用于自动驾驶和机器人的软件定义平台,能够Hold住L2级到L5级完全自动驾驶汽车开发。

此外,英伟达还面向自动驾驶汽车开发者开源了开发深度神经网络。可以看出,英伟达进军自动驾驶领域步骤明显加快。

也就是在今天,英伟达也获得了一个新客户:滴滴。

英伟达开源自动驾驶AI算法,升级芯片性能7倍于Xavier

滴滴宣布已与英伟达达成自动驾驶合作,将在数据中心使用NVIDIA®GPU训练机器学习算法,并采用NVIDIA DRIVE™为其L4级自动驾驶汽车提供推理能力。

自动驾驶和机器人软件定义平台

这一平台,名为NVIDIA DRIVE AGX Orin™。内置全新Orin系统级芯片:由170亿个晶体管组成。

英伟达为之干了4年。

Orin系统级芯片中,集成了NVIDIA新一代GPU架构和Arm Hercules CPU内核以及全新深度学习和计算机视觉加速器,每秒可运行200万亿次计算,几乎是NVIDIA上一代Xavier系统级芯片性能的7倍。

英伟达开源自动驾驶AI算法,升级芯片性能7倍于Xavier

Orin还可处理在自动驾驶汽车和机器人中同时运行的大量应用和深度神经网络,并且达到了ISO 26262 ASIL-D等系统安全标准。

作为一个软件定义平台,DRIVE AGX Orin的使用范围很广。英伟达介绍称,它能够赋力从L2级到L5级完全自动驾驶汽车开发的兼容架构平台,助力OEM开发大型复杂的软件产品系列。

此外,Orin和Xavier均可通过开放的CUDA、TensorRT API及各类库进行编程,开发者可以一次性投资使用跨多代的产品。

老黄说,“打造安全的自动驾驶汽车,也许是当今社会所面临的最大计算挑战。实现自动驾驶汽车所需的投入呈指数级增长,面对复杂的开发任务,像Orin这样的可扩展、可编程、软件定义的AI平台不可或缺。”

英伟达开源自动驾驶AI算法,升级芯片性能7倍于Xavier

NVIDIA DRIVE AGX Orin系列将包含一系列基于单一架构的配置,并将于2022年开始投产。

怎么吸引开发者用他们的平台?老黄选择把深度神经网络开源~

开源自动驾驶汽车开发深度神经网络

英伟达表示,NVIDIA DRIVE已成为自动驾驶汽车开发的行业标准,并且被汽车制造商、卡车制造商、自动驾驶出租车公司、软件公司和大学所广泛采用。

在GTC China上,他们也向自动驾驶汽车开发者开源其预训练AI模型和训练代码。

通过这一套NVIDIA AI工具,NVIDIA生态系统内的开发者们可以自由扩展和自定义模型,从而提高其自动驾驶系统的稳健性与能力。

英伟达开源自动驾驶AI算法,升级芯片性能7倍于Xavier

老黄说:“AI自动驾驶汽车是软件定义的汽车,它必须基于大量数据集才能在全球范围行驶。我们向自动驾驶汽车开发者开源我们的深度神经网络,并为他们提供先进学习工具,使他们能够根据不同的数据集对这些网络进行优化。”

英伟达开源的神经网络,能够将原始传感器数据转换成对世界的深度理解,能够实现交通信号灯和交通标识检测、目标检测(车辆、行人、自行车)、路径感知以及车载眼球追踪和手势识别等任务。

除了开源深度神经网络之外,NVIDIA还发布了一套工具,使开发者可以使用自己的数据集和目标特征集自定义并增强NVIDIA的深度神经网络。

这套工具使用主动学习、联邦学习和迁移学习来训练深度神经网络,来进一步强化英伟达在自动驾驶领域的布局。

自动驾驶 数据 人工智能
上一篇:AI能忆起昨天的你了 但触景生情还有点难 下一篇:金山视频云AI+边缘计算双重加速,领航5G高清时代
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

面部识别的利与弊:是福还是祸?

虽然现代技术使面部识别更加精确和安全,但与面部识别隐私问题和监控有关的担忧也在增加。因此,让我们在这篇文章中探讨一下这该技术的利与弊。

Naveen Joshi ·  2021-06-01 16:36:22
人工智能和5G如何结合以实现物联网收入最大化

网络系统通过信令和使用软件以及分析来检测和分类设备非常棘手,并且对有限且日益紧张的网络资源提出了巨大的需求。然而,解决这些问题有一个主要解决方案:采用人工智能、自动化和5G技术。

Jordi Castellvi ·  2021-06-01 13:49:15
MIT团队最新研究,仅靠LiDAR和2D地图实现端到端自动驾驶

最近, MIT 计算机科学与人工智能实验室(CSAIL)团队成功展示了一种基于机器学习的自动驾驶系统,该端到端框架仅使用 LiDAR获取的原始 3D 点云数据和类似于手机上的低分辨率 GPS 地图就能进行自主导航,并且大大提升了鲁棒性。

文龙 ·  2021-06-01 12:47:51
自然语言处理(NLP)的历史及其发展方向

自然语言处理的历史是一个充满曲折的故事。它从徒劳的研究开始,经过多年卓有成效的工作,最后结束于一个我们仍在试图找出该领域极限的时代。今天,让我们来一起探索这一AI科学分支的发展。

佚名 ·  2021-06-01 12:46:26
是福还是祸?人脸识别技术的利与弊

面部识别并不是一项全新的技术,但人工智能和机器学习不断使面部识别变得更好。苹果通过引入具有 3D 扫描功能的面部生物识别系统和 iPhone 的 Face ID,提高了面部识别的标准。

Naveen Joshi ·  2021-06-01 11:11:01
人工智能能否使机器具有流体智力?

麻省理工学院和奥地利研究人员为灵活的人工智能创造了“液体”机器学习。

千家网 ·  2021-06-01 10:38:55
高真实感、全局一致、外观精细,面向模糊目标的NeRF方案出炉

自 NeRF 被提出后,有多项研究对其加以改进。在本篇论文中,上海科技大学的研究者提出了首个将显式不透明监督和卷积机制结合到神经辐射场框架中以实现高质量外观的方案。

Haimin Luo等 ·  2021-06-01 09:57:39
大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

一个简单的大脑模型为人工智能研究提供了新的方向。世界顶尖计算机科学理论学家、哥德尔奖和高德纳奖获得者、哥伦比亚大学计算机科学教授 Christos Papadimitriou 关于「大脑中单词表征」的演讲。

Ben Dickson ·  2021-06-01 09:39:24
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载