算法当道!为什么人类和人工智能越来越像?

作者: 乐邦 2019-01-23 17:48:29

 

算法告诉我们该如何思考,而这正在改变我们。随着计算机学会如何模仿,我们是否正开始变得越来越像它们呢?

硅谷正越来越多地预测人们会如何回复电子邮件,会对某人的 Instagram 照片做出什么样的反应,越来越多地决定人们有资格享受哪些政府服务,不久以后,即将到来的谷歌语音助理 Google Assistant 将能够为人们实时打电话预约理发师。

从医院到学校,再到法庭,我们几乎将算法带到了所有的地方。我们被各种自动化系统所环绕。几行代码即可告诉我们应该看什么媒体内容,与谁约会,甚至告诉司法系统应该把谁送进监狱。

我们把如此之多的决策权和控制权交给这些程序,是对的吗?

我们之所以痴迷于数学程序,是因为它们能对一系列错综复杂的问题给出快速而准确的答案。机器学习系统已经被应用于我们的现代社会的几乎每一个领域。

算法是如何影响我们的日常生活的?在一个不断变化的世界里,机器正在快速而出色地学习人类的行为方式,我们喜欢些什么,讨厌些什么,以及什么是对我们***的。我们现在生活在由预测性技术主宰的空间里。

通过分析整理海量的数据,给我们提供即时且相关的结果,算法极大地改变了我们的生活。多年来,我们让公司们收集了大量的数据,让公司变得能够给我们提供各种建议,能够决定什么是对我们最有利的。

谷歌母公司 Alphabet 或亚马逊等公司一直在为各自的算法灌输从我们身上收集到的数据,并指导人工智能利用收集到的信息来适应我们的需求,变得更像我们。然而,随着我们习惯了这些便捷的功能以后,我们的说话和行为方式是否会变得更像一台计算机呢?

“算法本身并不公平,因为构建模型的人定义了成功。”——数据科学家凯茜·奥尼尔(Cathy O’Neil)

按照当前这样的技术发展速度,我们不可能不去想象在不久的将来,我们的行为会变得由算法引导或支配。事实上,这已经在发生了。

去年 10 月,谷歌为旗下邮箱服务 Gmail 推出了名为“Smart Reply”的智能回复功能,意在帮助你编写回信或者快速回复。此后,该助理功能在互联网上掀起了一场风暴,很多人都批评它,称其量身定制的建议具有侵害性,让人看起来像机器,甚至有人认为,它的回复最终可能会影响我们的交流方式,甚至可能改变电子邮件的规范。

算法的主要问题在于,随着它们变得如此巨大而复杂,它们会开始给我们当前的社会带来负面影响,会危及民主。随着机器学习系统在社会的许多领域变得越来越普遍,算法会统治世界,接管我们的思想吗?

现在,让我们来看看 Facebook 的做法。早在 2015 年,他们的新版 News Feed 信息流的设计初衷就是筛选用户的订阅内容,使其变成个性化的报纸,让用户能够看到与他们之前曾点赞、分享和评论的内容相关的东西。

“个性化”算法的问题在于,它们会将用户放入“过滤气泡”或者“回声室”。在现实生活中,大多数人不太可能接受他们觉得困惑、讨厌、不正确或可恨的观点。就 Facebook 的算法而言,该公司给予用户他们想要看到的东西,因此,每个用户的信息流都变成一个独特的世界,它们本身就是一个独特的现实。

过滤气泡使得公开论证变得越来越困难,因为从系统的视角来看,信息和虚假信息看起来完全一样。正如罗杰?麦克纳米(Roger McNamee)最近在《时代》(Time)杂志上所写的那样,“在 Facebook 上,事实不是绝对的;它们是一种选择,最初留给用户和他们的朋友决定的一种选择,但随后被算法放大,以便促进传播和用户的互动。”

过滤气泡制造了一种错觉:每个人都相信我们在做着同样的事情,或者有同样的习惯。我们已经知道,在 Facebook 上,算法因为加剧了两极化而让这一问题进一步恶化,最终损害了民主。有证据表明,算法可能影响了英国公投或 2016 年美国总统大选的结果。

“Facebook 的算法推崇极端信息,而非中性信息,这会让虚假信息凌驾于真实信息之上,让阴谋论凌驾于事实之上。”——硅谷投资人罗杰·麦克纳米(Roger McNamee)

在无时无刻都充斥着大量信息的当今世界,筛选信息对一些人来说是一个巨大的挑战。如果使用得当,人工智能可能会增强人们的在线体验,或帮助人们迅速处理不断增长的内容资讯负荷。然而,要能够正当运作,算法需要关于真实世界中发生的事情的准确数据。

公司和政府需要确保算法的数据不存在偏见,且是准确的。由于没有什么是***无瑕的,存在自然偏差的数据估计已经存在于许多的算法中,这不仅给我们的网络世界带来了危险,也给现实世界带来了危险。

倡导实施更强有力的监管框架是必要的,这样我们就不会陷入技术上的蛮荒。

我们也应该非常谨慎于我们赋予算法的能力。人们正变得越来越担心算法带来的透明度问题,算法做出的决策和流程背后的伦理意味,以及影响人们工作生活的社会后果。例如,在法庭上使用人工智能可能会增加偏见,造成对少数族裔的歧视,因为它会考虑到“风险”因素,比如人们所在的社区以及与犯罪的关联性。这些算法可能会犯下灾难性的系统性错误,把现实中无辜的人类送进监狱。

“我们有失去人性的危险吗?”

安全专家布鲁斯·施奈尔(Bruce Schneier)在他的书《点击这里杀死所有人》(Click Here to Kill Everybody)中写道,“如果我们让计算机为我们思考,而底层的输入数据是糟糕的,那么它们会进行糟糕的思考,而我们可能永远都不会察觉。”

英国伦敦大学学院的数学家汉娜·弗莱(Hannah Fry)带领我们进入了一个计算机可以自由操作的世界。在她的新著作《世界你好:在算法的时代里做个人类》(Hello World: Being Human In the Age of Algorithms)中,她认为,作为公民,我们应该更多地关注键盘后面的人,即那些编写算法的人。

“我们不必创造一个由机器来告诉我们该做什么或者该如何思考的世界,尽管我们最终很可能会进入这样一个世界。”她说道。在整本书中,她多次问道:“我们有失去人性的危险吗?”

现在,我们还没有到人类被排除在外的阶段。我们在这个世界上的角色还没有被边缘化,在很长一段时间内都不会。人类和机器可以结合各自的优势和劣势一起运作。机器有缺陷,会犯和我们一样的错误。我们应该注意我们交出了多少的信息,放弃了多少的能力,毕竟算法现在是人类固有的一部分,它们不会在短时间内消失。

 
人工智能 机器学习 技术
上一篇:机器学习常见算法分类汇总大全 下一篇:微软沈向洋谈GitHub、数据信仰和计算未来
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

什么是持续智能?对物联网有什么影响?

物联网世界将迎来充满希望的2020年。5G公司一再声称,2020年是5G在公共领域站稳脚跟,并普及的一年。

iothome ·  1天前
AI战“疫”,偶尔小尴尬背后,终极护城河现形

人类与新型冠状病毒的战“疫”仍然在进行中,在这期间,也催生出各类“人工智能+”应用,人工智能技术在此期间迎来大爆发。

张书乐 ·  2天前
意料之外 情理之中:解读Gartner 2020年数据科学和机器学习平台魔力象限

最近Gartner发布了数据科学和机器学习(DSML)平台魔力象限报告。数据科学、机器学习和人工智能的市场格局极为分散,竞争激烈且难以理解。Gartner尝试根据明确定义的标准对厂商进行了排名。

佚名 ·  2天前
DeepMind发布神经网络、强化学习库,网友:推动JAX发展

JAX由谷歌提出,是TensorFlow的简化库。结合了针对线性代数的编译器XLA,和自动区分本地 Python 和 Numpy 代码的库Autograd,在高性能的机器学习研究中使用。

十三 ·  2天前
谷歌透露:正在内部尝试用AI开发计算机芯片

据谷歌人工智能研究负责人Jeff Dean透露,谷歌正在尝试通过人工智能程序推进专用芯片的内部开发,以加速其软件。在旧金山举行的International Solid State Circuits Conference会上Dean表示:“我们内部正在将人工智能技术用于一系列芯片设计项目中。”

佚名 ·  2天前
4个步骤成功构建出一个机器学习团队

对一个公司来说,如何从0到1构建一个机器学习团队,是很多公司非常头疼的问题,这篇文章给出了一些建议,对求职者来说,同样具有参考价值。

AI公园 ·  2天前
人工智能带领人类从信息社会迈向智能社会

人工智能(AI)是指在机器上实现类似乃至超越人类的感知、认知、行为等智能的系统。与人类历史上其他技术革命相比,人工智能对人类社会发展的影响可能位居前列。

新华网客户端 ·  3天前
复工如何避免间接接触?人脸识别门禁实现硬核防控

随着返工日的临近,全国各地陆续恢复生产和工作,与此同时,疫情预防的工作也不可松懈。据悉,新型冠状病毒的传播方式主要为飞沫传播和间接接触,当下,人人出门都会佩戴口罩,并且经常洗手,可以有效预防飞沫传播,而接触公共设施的间接传播方式不容忽视。

佚名 ·  3天前
Copyright©2005-2020 51CTO.COM 版权所有 未经许可 请勿转载