1901年,天文学家、数学家Simon Newcomb表示,人类不可能造出比空气更轻的飞机。1908年,莱特兄弟的飞机试飞成功。

 

二战过后,美国人公开表示,长距离火箭遥不可及。没过多久,俄罗斯的巨型火箭率先进入了外太空。

 

时间转到今天。当AI浸入各行各业的同时,对AI的质疑也纷至沓来。AI寒冬是否又会再次到来呢?OpenAI的联合创始人兼CTO Greg Brockman在近日的一次演讲中发表了他的看法:

 

   

不想看视频的同学,可以阅读下面的文字哟~~~



“AI最终能达到什么样的高度,我现在还无法下一个定论。但目前的质疑呢,我看大多是不靠谱的!”

 

他从“科学发展史”、“AI发展史”、“深度学习的极限”和“算力极限”四个方面阐释了他的论点。

 

科学发展史


有啥疑问,直接找专家呀!他们的观点大多错不了。

 

但历史一遍遍证明,专家们错得可是太离谱了。

 

在1901年天文学家、数学家Simon Newcomb表示,比空气更重的飞机是完全不可能的。于是在1908年 他知道了莱特兄弟的飞机。



没关系,他承认这是可能的,但是他认为,这永远不可能商业化,因为这样的飞机不可能扩大到可以容下一个乘客和一个飞行员。于是又被啪啪打脸了。

 

二战后,美国人和俄罗斯人都关注了德国的V-2科技,这两国都想做同一件事那就是建立ICBM(An intercontinental ballistic missile,洲际弹道×××),这意味着他们要扩大原本V-2火箭的规模十倍以上,造一个200吨的火箭。

 

美国人看到这,认识这完全不可能,就在接下来的五年里完全放弃了长距离火箭。

 

俄罗斯人说,可以没问题,因为我们就是要造一个巨型火箭。当太空比赛开始时,俄罗斯人说,看吧,我们已经有这个巨型火箭了!于是,俄罗斯人率先进入了外太空。

 

专家们在很多方面确实有很多先见之明,但是不能因为有人说了一些什么,就终止了某一领域的研究。

 

AI发展史


 

 

接下来,让我们来回顾一下AI发展史。

 

AI是一个讲究潮流的领域,这个领域里有多种多样的潮流。比如,某一个十年非常流行SVM(支持向量机),下一个十年,又流行别的模型了。

 

现在我们正处于最新潮流中,下一个十年又会流行别的。这话没错,这个过程是持续的,目前看不到尽头。那就让我们来挖一挖,这几十年AI到底经历了哪些潮流。

 

1959年,perceptron(感知机)被公开发表了。不止科学杂志疯狂报道,连纽约时报也写到:“像感知机这样神奇的东西,有一天它能识别人叫出他们的名字,并且在多种语言间实时翻译。”

 

1960年代,以Marvin Minsky和Papert为代表的人强烈反对感知机,发起各种运动,并且最终成功了。

 

在1969年他们表了一本书,里面证明了多种感知机无法解决的基本问题。

 

因此所有研究经费断供,所有基金断供。AI第一次寒冬来临。

 

这一波经费究竟被用到了哪里了?很大一部分其实被用来构建更大的电脑了。

 

二十年后的80年代,反向传播开始流行。

 

有趣得是,反向传播吸引来的人不是计算机科学家,而是认知科学家。他们真正激动的不是关于如何建造大型系统,如何拓宽这些技术的边界,而是关于理解大脑。他们非常乐意接受这样一种人造的系统,能够对他们的研究有那么一点关联。

 

由于算力的限制,反向传播一度也经历了大量质疑。但今天,在空前算力的支持下,反向传播将AI带到了全新高度。


深度学习的极限


 

所以,深度学习发展的极限是什么呢?

 

有很多人已经对此发表过看法了。一个很好的例子是,去年一位杰出的深度学习评论家说:深度学习模型将永远不能学会长距离规划,不论你用多少数据去训练它。

 

今年,我们在Dota比赛里展示了OpenAI Five,也就是Dota系统的长期规划能力。

 

一个月后,那个评论家又说,你可以用足够密集的空间样本来解决任何问题,但只有当你的数据量很小的时候才有趣。

 

我认为,看看过去几年结果的具体例子是很有启发性的,然后让我们想想:人们对之前的深度学习的局限性有什么看法,对之后的又有什么看法?

 

在深度Q学习出现之前,我们感觉深度学习仅仅是关于静态数据集的。突然,我们把神经网络投射到屏幕上面,然后给出一个分数,然后它开始能够玩转这些简单的游戏。

 

再举个例子。之前人们说,深度学习只会感知,永远也做不到最难的自然语言处理任务比如翻译。结果又被打脸了。

 

 

我们也许可以得出这样的结论,深度学习会取代所有的监督学习,并且在这些特定的领域内胜过人类的聪明才智。比如AlphaGo,比如我们的Dota工作。强化学习仅通过自身就能解决这个难以置信的难题。

 

当然,你仍然可能会产生这样的质疑:我们如何把这个东西应用到现实世界中去?强化学习是不是只会玩游戏呢?无论任务是怎么样的,我们都需要有一个完美的模拟器吧。

 

今年,我们用Dota系统训练了一个机器人,真的就是用Dota系统来指向这个环境。然后,我们可以教会这个机械手臂操纵小方块,这是一个人类程序员无法完成的任务——制造这种机械手的公司做这个已经有20年了,现在每年大概才卖出10个,因为没有程序员能实现这样的功能。

 

所以,你甚至不需要一个完美的模拟器,你只需要一个刚好能够完成手头上任务的模拟器。

 

我想我们都听过这个说法,人工智能的进步有三大支柱:计算、算法和标记数据。

 

但是现在,如果你再看一遍这个说法,你会发现“标记数据”其实也不是必要的。

 

比如今年,自然语言处理(NLP)领域最新研究表明,你可以让一个模型在大量无监督文本上学习,然后使用非常少量的监督数据进行了微调,这样你就能够在各种各样的NLP任务之间设置最先进的技术水平。

 

所以说,深度学习的极限真的很难被定义。

 

算力极限


 

最后,我们再来看看算力极限,这大概是近年来限制AI发展的关键要素之一。



如果我们看看过去六年里发生了什么,就会发现计算经过了一个疯狂爆炸式的增长。每三个半月,我们的算力就会翻一倍。

 

怎么理解增长速度呢?就像在2012年的时候,你的手机电池只能坚持一天。在2018,它就能坚持800年的时间,到2023年,它能坚持一亿年的时间。

 

再换一种方式来理解,一个2023年的未来系统在30秒内消耗的计算量,将会相当于我们今天的Dota系统一个月的计算量。

 

这个数字太疯狂了,看起来有点不可理喻,但是这样的事情其实已经发生了。20世纪90年代的大规模成果之一TD GAM,在一个现代的GPU上计算大约只需要5秒钟。

 

所以我们把这些事情合起来看,可以得到的结论是:我们也很难去界定算力的极限。

 

我们真的很难说有什么是做不成的,这意味着我们需要开始积极主动的思考,这些系统将会给世界带来什么样的影响?

 

在畅想人工智能时,我们应该少依靠直觉,多依靠证据和假设。

 

我们都在创造自己认为的会对未来产生巨大影响的技术,所以我们要对这事情好好负责!

郑州专业不孕不育医院:http://jbk.39.net/yiyuanzaixian/zztjyy/

  郑州不孕不育医院×××:http://jbk.39.net/yiyuanzaixian/zztjyy/