当人工智能伤害了人,谁来承担责任?

导读:就像硬币的两面,技术进步在便利人们生产生活的同时,也带来一个严峻的现实问题 当机器足够智能之后,其对人类造成的不可挽回的伤害该由谁负责? 虽然如科幻片中那样机器人背叛人类、攻击人类的场景短期内还不会到来,但机器的类型是多种多样的。现阶段,人...

就像硬币的两面,技术进步在便利人们生产生活的同时,也带来一个严峻的现实问题当机器足够智能之后,其对人类造成的不可挽回的伤害该由谁负责?

虽然如科幻片中那样机器人“背叛”人类、攻击人类的场景短期内还不会到来,但机器的类型是多种多样的。现阶段,人类的生命安全最受智能机器威胁的场景恐怕就是交通出行上。

2018年,全球首例自动驾驶撞击行人致死事故发生。美国时间3月18日晚22点,一辆Uber自动驾驶汽车在美国亚利桑那州坦佩市碰撞到一个横穿马路的行人49九岁的女性流浪者Elaine Herzberg,Elaine Herzberg在被送往医院后不治身亡。

坦佩市警方发言人称,初步调查发现,事件发生时,这辆Uber自动驾驶汽车处于L4级别的自动驾驶模式,并在最高时速35英里的道路上以时速38英里行驶,且没有及时刹车的动作。与此同时,驾驶位上的安全驾驶员没有收到任何信号,直到碰撞发生后才意识到发生了事故。

今年9月,马里科帕县大陪审团作出裁决,Uber自动驾驶汽车的安全驾驶员被指控犯有过失杀人罪。而这起案件也因此对后世类似判决带来了里程碑式的借鉴意义。

事实上,当人工智能造成一个人受伤或死亡时,确定过错责任并不是一件容易的事情。如果人工智能有时失控有时正常,那么什么时候是可以把错归责于人类,什么时候可以归咎于人工智能?

今年10月2日,发表在《波士顿大学法律评论》上的一篇论文《疏忽与人工智能的人类使用者》(Negligence and AI's Human Users)就重点讨论了这个问题。在论文中,加州大学洛杉矶分校助理教授Andrew Selbst发现,人工智能与现有的人类过失行为法律产生了矛盾冲突,需要监管机构介入干预。

(论文链接:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3350508)

Selbst表示,Uber案件可能会有两种情况。其一,法官或陪审团可能会发现,让一个与半自动车辆打交道的人承担责任是不合理的;其二,可以将责任归给一个对自动或自主系统控制有限的人类行为者。这也就是文化人类学家Madeleine Elish所说的“道德碰撞区”当机器和人类被同步考虑,但法律没有考虑到机器的智能时,人类就会承担责任。

“如果过失法要求的谨慎标准高于人类所能管理的标准,那么它将把责任推给人类操作者,即使在普通人无法防止危险的情况下也是如此,”Selbst写道。“虽然Uber案件似乎指向了‘道德碰撞区”的方向,但也很容易想象到相反的情况发现因为普通人无法及时做出反应或永远保持警惕,所以不这样做是合理的。归根结底,人工智能带来的是不确定性。

Selbst表示,法律学者倾向于区分完全自主的车辆和与人类合作的半自主机器,比如Uber车祸中的车辆。虽然完全自主车辆或通用人工智能(AGI)可能会将责任转移到硬件制造商或人工智能系统上,但当人类使用人工智能根据预测、分类或评估做出决定时,答案就不那么明确了。Selbst预计,这将给企业、政府和社会带来新的挑战。

如今绝大多数的人工智能都是为了增强人类的决策能力而出现的。例如,从法官用来评估多次犯罪的算法,到医疗专业人员用来制定医疗计划或诊断的AI驱动工具。这些系统包括检测医学图像中的模式,以帮助专业人士诊断乳腺癌、肺癌和脑癌等疾玻

Selbst表示,虽然技术是推动过失法律变革的关键因素,但人类和人工智能相互依赖决策的方式让人工智能与众不同。使问题更加复杂的是,人类可能会不加审视地接受自动决策,如果他们因太多通知而遭受警报疲劳,就会忽略AI,或者依靠AI来识别太复杂的数据中的模式。

Selbst表示,在一个充满人类和AI系统共同决策的世界里,政府需要考虑改革,让过失法律有机会赶上快速崛起的技术。

“如果社会认为人工智能过于有利而不能搁置,那么我们可能需要一个新的监管模式,以补偿使用人工智能的受害者,而且这种模式应该是一种脱离了寻找过失的需求的模式。这可能是严格责任,可能是广义保险,也可能是事前监管。”论文中写道。

为了解决这个问题,人们开发了各种模式,比如安德鲁塔特(Andrew Tutt)提出的“算法 FDA”(FDA for algorithm),这是一个机构,其运作方式与 FDA 在调查药品方面的运作方式非常相似。还有一种想法是,类似于环境影响评估的算法评估,以此来加强监督和公开披露。

“最终,由于人工智能在决策和结果之间插入了一层难以捉摸的、不直观的、统计学上衍生的、通常是专有的代码,人类的选择、行动和结果之间的联系受到了考验,”论文中写道。“虽然可能有一种方法可以利用解释和透明度要求将一些决定与其结果联系起来,但疏忽需要一系列外部干预措施,才能真正有机会为使用人工智能造成的伤害提供补救。”

这样做可能会给过失法律标准一些时间,以便在未来范式转变发生和标准进一步落后之前赶上人工智能的进步。

这篇论文还探讨了当算法偏差在伤害中发挥作用时会发生什么的问题。回到自主车辆问题,研究表明,计算机视觉系统在检测白人行人方面比黑人行人做得更好。接受这种系统的使用,可以从整体上减少交通事故的数量,但同时对黑人行人就不怎么友好了。

Selbst表示,如果没有监管部门的干预,人工智能有可能会将某些群体的不良结果正常化,同时拒绝他们任何求助。这有可能会放大人们在网上遇到算法偏见或遭遇伤害时已经感受到的无助感。

“令人担忧的是,虽然人工智能可能会成功地减少伤害的总体数量,但它不会消除这些伤害,甚至剥夺了受害者的求助能力。”该论文写道。

在问责制方面,人工智能行业的保密性是一个主要障碍。过失法律通常会随着时间的推移而演变,以反映关于什么构成合理行为的共同定义。但企业的保密性很可能使导致伤害的人工智能缺陷不为公众所知。而人工智能的快速发展有可能会压倒过失法或侵权法的修改步伐,进一步加剧这种情况。

“由于保密,我们对各个AI公司产品中的错误和漏洞知之甚少。在这种情况下,公众不可能对什么样的故障是合理的或不合理的作出任何结论。”论文指出。

参考资料:

[1] https://venturebeat.com/2020/10/12/when-ai-hurts-people-who-is-held-responsible/

[2] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3350508

[3] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2757236