大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

作者: Ben Dickson 2021-06-01 09:39:24

大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

上周,Google Research 举办了一个关于深度学习概念理解的在线研讨会。研讨会上,获奖的计算机科学家和神经科学家发表了演讲,讨论了深度学习和神经科学的新发现如何帮助创造更好的人工智能系统。

尽管所有的演讲和讨论都非常具有价值,但有一个特别突出的话题值得分享:世界顶尖计算机科学理论学家、哥德尔奖和高德纳奖获得者、哥伦比亚大学计算机科学教授、Christos Papadimitriou 关于「大脑中单词表征」的演讲。

大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

在演讲中,Papadimitrio 讨论了我们对大脑中信息处理机制日益加深的理解,如何有助于创建在理解和参与对话方面更加鲁棒的算法。具体而言,他提出了一个简单而高效的模型,该模型解释了在大脑的不同区域如何相互沟通,来解决认知问题。

「现在发生的事情,也许是世界上最伟大的奇迹之一。」Papadimitriou 说道,这里是指他如何与观众进行交流。大脑将结构化的知识转换成电波,这些电波通过不同的介质传输并到达听众的耳朵,然后又被大脑处理并转化为结构化知识。

「毫无疑问,所有这些都通过神经元和突触发生。但是,如何完成的呢?这是一个问题。」Papadimitriou 表示,「我相信在未来 10 年里,我们会对细节有更好的了解。」

大脑中神经元集合

认知和神经科学领域正试图弄清楚大脑中的神经活动是如何转化为语言、数学、逻辑、推理等其他功能的。如果科学家们成功地用数学模型来描述大脑的工作方式,那么他们将为创造能够模仿人类思维的 AI 系统打开一扇新的大门。

许多研究集中在单个神经元,直到几十年前,科学家们还认为单个神经元对应于单个思维。最流行的例子是「祖母细胞理论」,该理论认为,每个人的大脑中可能存在一个特殊的神经细胞,专门用于识别自己的祖母。但最近的发现驳斥了这种说法。新研究声称并证明了大量的神经元和每个概念相关,连接不同概念的神经元之间可能存在重叠。

这些脑细胞群被称为集合(assemblies),Papadimitriou 将其描述为一组高度连接、稳定的神经元,代表着一个词、一个想法、一个物体等。

神经科学家 György Buzsáki 将这种集合描述为「大脑的字母表。」

大脑数学模型

为了更好地理解集合作用,Papadimitriou 提出了一个大脑数学模型,称为「交互循环网络」。在这个模型下,大脑被划分为有限数量的区域,每个区域包含几百万个神经元。每个区域内都有循环现象,这意味着神经元之间相互作用。这些区域中的每一个都与其他几个区域有联系。这些区域间连接可以被激发或抑制。

该模型具有随机性、可塑性和抑制性。随机性意味着每个大脑区域的神经元是随机连接的。而且,不同的区域之间随机连接。可塑性使神经元和区域之间的联系能够通过经验和训练进行调整,而抑制性意味着在任何时刻,有限数量的神经元被激发。

Papadimitriou 将此描述为一个基于生命的三种主要力量的非常简单的数学模型。

大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

Papadimitriou 与一组来自不同学术机构的科学家一起,在去年发表的一篇论文中详细阐述了这一模型。集合是模型的关键组成部分,并实现了科学家们所谓的「集合演算(assembly calculus)」,这是一组能够处理、存储和检索信息的操作。

大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

论文地址:
https://www.pnas.org/content/117/25/14464

「这些行为不是凭空进行的。我相信它们是真实的,可以从数学上证明并通过模拟验证这些操作对应真实的行为…… 这些操作对应于(在大脑中)观察到的行为,」Papadimitriou said 表示。

Papadimitriou 和他的同事们假设集合和集合演算是解释大脑认知功能的正确模型,比如推理、计划和语言。他在谷歌深度学习会议的演讲中表示:大部分认知能力都符合这一点。

基于集合演算的自然语言处理

为了测试思维模式,Papadimitriou 和他的同事构建了一个自然语言处理系统,该系统使用集合演算来解析英语句子。实际上,他们正试图创建一个 AI 系统,模拟大脑中容纳与词汇和语言理解相对应的集合区域。

大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

Papadimitriou 说:「如果一个单词序列激发了集合,这个引擎就会产生一个句子解析。」他承认,人工智能模型仍然是初步阶段,缺少了语言的许多重要部分。研究人员正在制定计划来填补现有的语言空白。但他们认为,所有这些部分都可以用集合演算来补充,这个假设需要通过时间的验证。

大脑模拟NLP,高德纳奖得主:神经元集合演算用于句子解析

「这是语言的神经基础吗?是不是生来左脑就有这样的东西,」Papadimitriou 问道。关于语言如何在人类大脑中运作,以及如何与其他认知功能联系在一起,仍然有许多问题需要解决。但 Papadimitriou 认为,集合模型使我们更接近于理解这些功能,并回答剩下的问题。

人工智能 机器学习 技术
上一篇:美城市Baltimore可能颁布最严格的面部识别禁令 下一篇:高真实感、全局一致、外观精细,面向模糊目标的NeRF方案出炉
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

面部识别的利与弊:是福还是祸?

虽然现代技术使面部识别更加精确和安全,但与面部识别隐私问题和监控有关的担忧也在增加。因此,让我们在这篇文章中探讨一下这该技术的利与弊。

Naveen Joshi ·  2021-06-01 16:36:22
人工智能和5G如何结合以实现物联网收入最大化

网络系统通过信令和使用软件以及分析来检测和分类设备非常棘手,并且对有限且日益紧张的网络资源提出了巨大的需求。然而,解决这些问题有一个主要解决方案:采用人工智能、自动化和5G技术。

Jordi Castellvi ·  2021-06-01 13:49:15
MIT团队最新研究,仅靠LiDAR和2D地图实现端到端自动驾驶

最近, MIT 计算机科学与人工智能实验室(CSAIL)团队成功展示了一种基于机器学习的自动驾驶系统,该端到端框架仅使用 LiDAR获取的原始 3D 点云数据和类似于手机上的低分辨率 GPS 地图就能进行自主导航,并且大大提升了鲁棒性。

文龙 ·  2021-06-01 12:47:51
自然语言处理(NLP)的历史及其发展方向

自然语言处理的历史是一个充满曲折的故事。它从徒劳的研究开始,经过多年卓有成效的工作,最后结束于一个我们仍在试图找出该领域极限的时代。今天,让我们来一起探索这一AI科学分支的发展。

佚名 ·  2021-06-01 12:46:26
是福还是祸?人脸识别技术的利与弊

面部识别并不是一项全新的技术,但人工智能和机器学习不断使面部识别变得更好。苹果通过引入具有 3D 扫描功能的面部生物识别系统和 iPhone 的 Face ID,提高了面部识别的标准。

Naveen Joshi ·  2021-06-01 11:11:01
人工智能能否使机器具有流体智力?

麻省理工学院和奥地利研究人员为灵活的人工智能创造了“液体”机器学习。

千家网 ·  2021-06-01 10:38:55
高真实感、全局一致、外观精细,面向模糊目标的NeRF方案出炉

自 NeRF 被提出后,有多项研究对其加以改进。在本篇论文中,上海科技大学的研究者提出了首个将显式不透明监督和卷积机制结合到神经辐射场框架中以实现高质量外观的方案。

Haimin Luo等 ·  2021-06-01 09:57:39
美城市Baltimore可能颁布最严格的面部识别禁令

据介绍,拟议的法令将禁止私人或商业组织,甚至执法机构在城市使用面部识别技术。

千家网 ·  2021-06-01 09:34:07
Copyright©2005-2021 51CTO.COM 版权所有 未经许可 请勿转载