简单来说
神经技术将为人类提供与计算机接口的全新方法。但是,专家提醒说,我们需要制定法规,以确保这一领域具有积极的社会效应。

集成系统
人工智能(AI)取得了突飞猛进的发展,很容易看出为什么在国际战争这样的场景中需要规范它的实施。然而,也有一个推动安装一个框架,管理如何在更个人的基础上使用AI。
脑电脑界面可能允许瘫痪的人移动机器人手臂或患有脊髓损伤的人来控制摩托轮椅。但是,如果发生故障导致无法预料的事故呢?用户或技术是否有问题?
在“ 自然 ”杂志上发表的一篇文章 描述了一个即将来临的未来:“将有可能解码人们的心理过程,并直接操纵他们的意图,情感和决策背后的大脑机制。”为了确保这项技术可以帮助那些需要它的人没有灾难性的后果,就需要有规章制度。
进步的陷阱
尽管神经技术尚未在商业上普遍使用,但该领域一直在不断发展。Nature文章的25位合着者提出了四个主要关注点,这就解释了为什么现在需要立法。
一些担心是相当明显的,比如一个人如何在与计算机连接时必须保留自己的代理权,或者确保采取适当措施消除实施这种新兴技术的偏见。该文件还建议,当涉及到个人增强,特别是在军事情况下,限制。
还有隐私的问题。脑机接口提供了各种新的方式来收集个人最亲密的数据。我们中的大多数人会希望这些信息保密,但是我们目前的在线行为可能会创造一个不同的先例。
萨拉·戈林(Sara Goering)表示:“我们的团体认为,人们现在经常放弃隐私权,而没有充分意识到他们投降,或者他们可以从中得到什么,华盛顿大学哲学副教授和文章的合着者,通过电子邮件与未来主义通信。“如果对神经数据提供更大的访问权限,而且我们的内部大脑至少现在仍然是一个完全私人空间的”最后边界“,我们将以更深刻的方式放弃隐私。
脑比尔
这篇文章背后的团队当然认识到神经技术和人工智能的巨大好处,但是他们坚信,如果要以符合道德和社会利益的方式采取这些进步,就有工作要做 。
Goering表示:“考虑到其中的各种各样的玩家,总体上谈论技术社区是很困难的。“但是我想说,通常他们可能会努力生产他们认为人们可能需要的新设备或产品,而没有充分考虑如何使用相同的设备或产品,或者应该如何管理这些设备或产品。”
她将这种情况与医生接受培训的方式以及他们承诺要遵守的道德原则进行了比较。鉴于新技术对社会造成的巨大影响,也许有人争论说,在这个行业工作的人应该达到同样的标准。
当然,立法者在确保技术是一种补充而不是损害方面发挥着自己的作用,而且已经有迹象表明法规将会落实到位。
“如果没有有意的努力来建立一个国际协议,我们更有可能在国与国之间制定立法和政策,但是我们希望能够在全球范围内激发对这个问题的关注, “Goering解释说。“各个国家的大脑倡议已经在各个国家内部进行,但每个国家的伦理和政策努力都可以从共同关注相关问题中获得很大的收获。”