卷积神经网络之父:人工智能下一步从视频中学习常识

作者: origin 2017-03-19 15:44:25

智东西(公众号:zhidxcom)

编 | origin

YannLeCun作为深度学习领域的大牛,近几年带动Facebook的人工智能项目飞速前进,其势头比之谷歌也不落下风。如今Facebook的人脸识别技术DeepFace已经能够识别超过4亿张人脸,而YannLeCun对此并不满足,他认为机器视觉不该满足于从图片中进行识别,下一步机器应当从视频中“学习常识”。

五年前,研究者们在图像识别的准确性上,取得了巨大的突破。这背后的技术,人工神经网路,促成了近来人工智能的繁荣。它使谷歌和Faceboo得以让你在自己的相册中使用搜索功能,也让一批使用面部识别的应用程序得以问世。

Facebook的AI研究团队负责人兼纽约大学教授,开创性地将神经网络运用在了机器视觉领域。他认为这个领域仍然有很大的发展空间,这个领域取得的进步可能会催生出懂得常识的软件系统。

问:现在的机器视觉水平如何?

YannLeCun:如果你的图片有显著的主体,那么只需要标注主体的类别就好。如果有足够多的数据——大概每个类别一千张图片,那么我们就能识别相当具体的事物:比如某个品牌的汽车,某个特定品种的植物,某种特定血统的狗。我们还能识别更抽象的事物,比如风景图、日落,婚礼或者生日party。就在五年前我们还不清楚这个问题是可以解决的。(现在我们已经把它攻克了)但是这并不是说视觉问题已经解决了。

问:那什么关键问题是还没解决的?

YannLeCun:在为图片和视频自动生成字幕和注释这方面,人们已经努力了很多年。此前已诞生过一些看上去很可观的方式,但实际上它们并没有那么可靠。它们的适用范围极大受限于它们是如何被训练的。对于大多数系统,如果你给它们提供包含其他种类物体或者是处在非常规情境下的图片,它们的识别状况会惨不忍睹。它们不具备常识。

问:视觉和常识有什么联系?

YannLeCun:这取决于你在和谁交流——即使在Facebook内部,大家对此也有不同的意见。你可以和一套智能系统只用语言交流,问题是语言是一条带宽很低的信息通道。人们能够通过语言传递大量信息是因为他们拥有很多的背景知识来解释这些信息。

其他人认为,向AI系统提供足够信息的唯一方法是将其视觉感知作为基础,而视觉图像的信息含量比语言要大得多。这时如果你再告诉机器“这是一个智能手机”,“这是一个压路机”,“这有些东西你能推动但那些不行”,那么机器可能会学习到关于这个世界如何运行的一些基本知识。

这有点像婴儿的学习方式——而婴儿在没有明确指示的情况下就能非常多地了解这个世界。

我们非常想让机器通过看视频或者其他的途径来获得大量的体现了现实世界规律的事实。这将最终使它们获得常识。幼年动物与婴儿出生后头几个月的学习过程非常有趣——他们仅仅通过观察就在短时间内对这个世界产生了惊人的理解。而现在的机器仍然会被各种方式轻易地愚弄,因为它们对这个世界的认识实在是太少了。

问:在让智能系统通过观察进行学习这个方面,有什么进展?

YannLeCun:一套学习系统应该是可以预测未来的,我们对这个想法非常感兴趣。你向学习系统展示几帧视频,然后它来预测接下去会发生什么。如果我们能训练出一套能完成这种工作的系统,那么我想我们就搭建起了无监督学习系统的基础技术。我认为,这会是一个节点,为许多有趣的东西开创可能性。它的应用范围也不会仅局限于机器视觉——这是我们在AI领域不断进取的重要组成部分。

卷积 神经网络
上一篇:人工智能受关注 机器人主播成直播“新秀” 下一篇:AI 学会“脑补”:神经网络超逼真图像补完从 0 到 1
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

预测分析:重新考虑组织中的时间和数据

时间序列是一种标准的分析方法,但是较为先进的机器学习工具引入了统计技术,来建立更精确的预测模型。时间是无法倒流的,但是使用现有的工具,您有更多的机会预测时间,更准确地说,是可以预测时间序列样本中的事件是否会继续影响决策趋势。

IT168 ·  2019-09-27 09:57:09
微众银行AI首席科学家NeurIPS论文揭示“神经网络防盗最新技术”

随着深度神经网络(DNN)的快速发展,机器学习服务(MLaaS)等有潜力的商业模式迅速崛起,AI产业化进入发展快车道。然而,保护训练好的DNN模型免于被非法复制,重新分发或滥用(即知识产权侵权)是AI产业化进程中必须要面临和解决的问题。尤其是当下各国企业在深度学习模型和平台方面进行巨额研发投入,对知识产权的保护刻不容缓。

屈鑫 ·  2019-09-26 15:27:09
2019年较热门的5大深度学习课程

今天,我们将和大家盘点一下,当下较流行的深度学习资源/课程,可以帮助你们提升深度学习技能。

猿哥 ·  2019-09-26 05:16:24
脆弱的神经网络:UC Berkeley详解对抗样本生成机制!

用于「欺骗」神经网络的对抗样本(adversarial example)是近期计算机视觉,以及机器学习领域的热门研究方向。只有了解对抗样本,我们才能找到构建稳固机器学习算法的思路。本文中,UC Berkeley 的研究者们展示了两种对抗样本的制作方法,并对其背后的原理进行了解读。

机器之心 ·  2019-09-18 19:20:28
NLP模型超越人类水平?你可能碰到了大忽悠

要明确的是,这也不是说像BERT这样的大型模型或深度学习都是无用的。但是,对于深度学习模型在高级自然语言理解任务中表现出的近乎人类表现的报告,我们应该持怀疑态度。

大数据文摘 ·  2019-09-10 13:48:12
一文看尽26种神经网络激活函数(从ReLU到Sinc)

在本文中,作者对包括 Relu、Sigmoid 在内的 26 种激活函数做了可视化,并附上了神经网络的相关属性,为大家了解激活函数提供了很好的资源。

机器之心 ·  2019-08-29 10:10:52
生产环境中轻松部署深度学习模型

将经过训练的神经网络部署到应用程序和服务中可能会给基础设施经理带来挑战。多个框架、未充分利用的基础设施和缺乏标准实施,这些挑战甚至可能导致AI项目失败。本文探讨了如何应对这些挑战。

布加迪 ·  2019-08-08 08:00:00
60行代码徒手实现深度神经网络

针对当前数据数据集,选择ReLu激活函数,采用双隐藏层,每个隐藏层节点数设置为3是一个不错的选择,AUC得分为0.99979。

佚名 ·  2019-07-25 08:20:37
Copyright©2005-2019 51CTO.COM 版权所有 未经许可 请勿转载