当人工智能伤害了人,谁来承担责任?

作者: 竞科技 2020-11-10 10:46:12
当人工智能伤害了人,谁来承担责任?

就像硬币的两面,技术进步在便利人们生产生活的同时,也带来一个严峻的现实问题——当机器足够智能之后,其对人类造成的不可挽回的伤害该由谁负责?

虽然如科幻片中那样机器人“背叛”人类、攻击人类的场景短期内还不会到来,但机器的类型是多种多样的。现阶段,人类的生命安全最受智能机器威胁的场景恐怕就是交通出行上。

2018年,全球首例自动驾驶撞击行人致死事故发生。美国时间3月18日晚22点,一辆Uber自动驾驶汽车在美国亚利桑那州坦佩市碰撞到一个横穿马路的行人——49九岁的女性流浪者Elaine Herzberg,Elaine Herzberg在被送往医院后不治身亡。

坦佩市警方发言人称,初步调查发现,事件发生时,这辆Uber自动驾驶汽车处于L4级别的自动驾驶模式,并在最高时速35英里的道路上以时速38英里行驶,且没有及时刹车的动作。与此同时,驾驶位上的安全驾驶员没有收到任何信号,直到碰撞发生后才意识到发生了事故。

今年9月,马里科帕县大陪审团作出裁决,Uber自动驾驶汽车的安全驾驶员被指控犯有过失杀人罪。而这起案件也因此对后世类似判决带来了里程碑式的借鉴意义。

事实上,当人工智能造成一个人受伤或死亡时,确定过错责任并不是一件容易的事情。如果人工智能有时失控有时正常,那么什么时候是可以把错归责于人类,什么时候可以归咎于人工智能?

今年10月2日,发表在《波士顿大学法律评论》上的一篇论文《疏忽与人工智能的人类使用者》(Negligence and AI's Human Users)就重点讨论了这个问题。在论文中,加州大学洛杉矶分校助理教授Andrew Selbst发现,人工智能与现有的人类过失行为法律产生了矛盾冲突,需要监管机构介入干预。

Selbst表示,Uber案件可能会有两种情况。其一,法官或陪审团可能会发现,让一个与半自动车辆打交道的人承担责任是不合理的;其二,可以将责任归给一个对自动或自主系统控制有限的人类行为者。这也就是文化人类学家Madeleine Elish所说的“道德碰撞区”——当机器和人类被同步考虑,但法律没有考虑到机器的智能时,人类就会承担责任。

“如果过失法要求的谨慎标准高于人类所能管理的标准,那么它将把责任推给人类操作者,即使在普通人无法防止危险的情况下也是如此,”Selbst写道。“虽然Uber案件似乎指向了‘道德碰撞区”的方向,但也很容易想象到相反的情况——发现因为普通人无法及时做出反应或永远保持警惕,所以不这样做是合理的。归根结底,人工智能带来的是不确定性。”

Selbst表示,法律学者倾向于区分完全自主的车辆和与人类合作的半自主机器,比如Uber车祸中的车辆。虽然完全自主车辆或通用人工智能(AGI)可能会将责任转移到硬件制造商或人工智能系统上,但当人类使用人工智能根据预测、分类或评估做出决定时,答案就不那么明确了。Selbst预计,这将给企业、政府和社会带来新的挑战。

如今绝大多数的人工智能都是为了增强人类的决策能力而出现的。例如,从法官用来评估多次犯罪的算法,到医疗专业人员用来制定医疗计划或诊断的AI驱动工具。这些系统包括检测医学图像中的模式,以帮助专业人士诊断乳腺癌、肺癌和脑癌等疾病。

当人工智能伤害了人,谁来承担责任?

Selbst表示,虽然技术是推动过失法律变革的关键因素,但人类和人工智能相互依赖决策的方式让人工智能与众不同。使问题更加复杂的是,人类可能会不加审视地接受自动决策,如果他们因太多通知而遭受警报疲劳,就会忽略AI,或者依靠AI来识别太复杂的数据中的模式。

Selbst表示,在一个充满人类和AI系统共同决策的世界里,政府需要考虑改革,让过失法律有机会赶上快速崛起的技术。

“如果社会认为人工智能过于有利而不能搁置,那么我们可能需要一个新的监管模式,以补偿使用人工智能的受害者,而且这种模式应该是一种脱离了寻找过失的需求的模式。这可能是严格责任,可能是广义保险,也可能是事前监管。”论文中写道。

为了解决这个问题,人们开发了各种模式,比如安德鲁·塔特(Andrew Tutt)提出的“算法 FDA”(FDA for algorithm),这是一个机构,其运作方式与 FDA 在调查药品方面的运作方式非常相似。还有一种想法是,类似于环境影响评估的算法评估,以此来加强监督和公开披露。

“最终,由于人工智能在决策和结果之间插入了一层难以捉摸的、不直观的、统计学上衍生的、通常是专有的代码,人类的选择、行动和结果之间的联系受到了考验,”论文中写道。“虽然可能有一种方法可以利用解释和透明度要求将一些决定与其结果联系起来,但疏忽需要一系列外部干预措施,才能真正有机会为使用人工智能造成的伤害提供补救。”

这样做可能会给过失法律标准一些时间,以便在未来范式转变发生和标准进一步落后之前赶上人工智能的进步。

这篇论文还探讨了当算法偏差在伤害中发挥作用时会发生什么的问题。回到自主车辆问题,研究表明,计算机视觉系统在检测白人行人方面比黑人行人做得更好。接受这种系统的使用,可以从整体上减少交通事故的数量,但同时对黑人行人就不怎么友好了。

Selbst表示,如果没有监管部门的干预,人工智能有可能会将某些群体的不良结果正常化,同时拒绝他们任何求助。这有可能会放大人们在网上遇到算法偏见或遭遇伤害时已经感受到的无助感。

“令人担忧的是,虽然人工智能可能会成功地减少伤害的总体数量,但它不会消除这些伤害,甚至剥夺了受害者的求助能力。”该论文写道。

在问责制方面,人工智能行业的保密性是一个主要障碍。过失法律通常会随着时间的推移而演变,以反映关于什么构成合理行为的共同定义。但企业的保密性很可能使导致伤害的人工智能缺陷不为公众所知。而人工智能的快速发展有可能会压倒过失法或侵权法的修改步伐,进一步加剧这种情况。

“由于保密,我们对各个AI公司产品中的错误和漏洞知之甚少。在这种情况下,公众不可能对什么样的故障是合理的或不合理的作出任何结论。”论文指出。

人工智能 机器学习 机器人
上一篇:5种云计算所需的机器学习技能 下一篇:机器学习的未来就在这里:高斯过程和神经网络是等价的
评论
取消
暂无评论,快去成为第一个评论的人吧

更多资讯推荐

用新的机器学习思考方式 来辨别自然异常与人为误导

某些对抗性事件很可能是人为设计而来。我们必须知晓其中的手法与工件是什么,这样才能真正理解深度神经网络的可靠性。

佚名 ·  23h前
1.8M超轻量目标检测模型NanoDet,比YOLO跑得快

目标检测一直是计算机视觉领域的一大难题,其目标是找出图像中的所有感兴趣区域,并确定这些区域的位置和类别。目标检测中的深度学习方法已经发展了很多年,并出现了不同类型的检测方法。

佚名 ·  1天前
5G助力下,未来10年将是人工智能的“黄金十年”

近日,习近平总书记在G20峰会第一阶段会议上指出,疫情激发了5G、人工智能、智慧城市等新技术、新业态、新平台蓬勃兴起,“非接触经济”全面提速,为经济发展提供了新路径。

科技日报 ·  1天前
新时代如何把握住人工智能的优势,让自己不被时代淘汰

随着人工智能在企业的应用和发展,企业领导者必须着眼于基于云计算的人工智能和现代化的数据结构,以提高市场竞争力。

尚学堂java学院 ·  1天前
对话李兰娟:人工智能将疫情“一网打尽”,让医疗更精准

李兰娟指出,人工智能、大数据在这次抗疫中发挥了作用,首先是发现和控制传染源方面,通过大数据人工智能我们能够了解到与传染源接触到的所有人;第二是人员流动的控制,包括健康码、红外线测温等等,极大程度地了解了人的健康情况。

新京报 ·  1天前
面向未来系统设计的机器学习

Elias Fallon是行业领先的电子设计自动化技术提供商Cadence Design Systems公司的工程主管。他带领其定制IC研发团队以及电子设计自动化(EDA)产品团队进行项目开发。

Elias Fallon ·  1天前
人工智能如何在大数据处理中应用

人工智能,是处理大数据最理想和最有效的方法。我们的世界一直沉浸在大数据中,你能想到的任何话题,无论在线还是离线,都有大量的数据,如我们的日常活动、对无生命事物的偏好、属性、用途等等。下面,我们就来看看人工智能是如何在大数据处理中应用的?

W ·  1天前
在智能家居设备中融合ML和IOT

人工智能是一项正在常规基础上进行大量研究的技术。

Cassie ·  1天前
Copyright©2005-2020 51CTO.COM 版权所有 未经许可 请勿转载