当前位置: 首页> 价格排行 >探讨 | 自动驾驶撞了人 法律该怎么判?

探讨 | 自动驾驶撞了人 法律该怎么判?

2022-06-21 16:07:44

科技的发展日新月异,我们不妨来畅想一下未来的某个场景:某年某月的某一天,一辆自动驾驶汽车在路上第一次撞上一名行人并致其死亡。那么这种情况适用什么样的法律呢?

日前,英国布莱顿大学的John Kingston对未来智能驾驶汽车若发生交通意外,致使人员被撞受伤的刑事问题该如何审判,依据什么等问题深入研究,并给出了结论。他提出了AI领域的刑事责任理论,并指出自动化、计算机和法律领域需改变态度,谨慎应对等关键问题。

Kingston说,他与以色列Ono Academic College的Gabriel Hallevy对这个问题进行了深入探讨。这场争论的核心是,人工智能系统是否可以为其行为承担刑事责任

现行法律可能适用于AI的三种情况

人工智能系统能否自行承担刑事责任?构成刑事责任通常需要明确其行为和意图。Kingston称Hallevy描绘了AI系统可能涉及的三种刑事犯罪情况。

第一种情况为间接犯罪,肇事者为存在精神缺陷的人或动物,此类肇事者无需承担法律责任。但任何操纵精神病患者或动物实施犯罪的人均需承担相应刑事责任。

第二种情况为不可抗力与意外事件,即指因不当使用AI系统导致的犯罪。Kingston以日本摩托车工厂智能机器人杀人案件为例,解释道:“机器人将工人误认为危险对象,采取消除威胁的最有效方式,挥动力大无穷的液压悬臂,将毫无防备的工人推入机器,迅速结束了他的生命,然后继续执行工作任务。”

第三种情况为行为与意图兼具的直接犯罪,如果AI系统的作为或疏忽不作为构成犯罪,则可直接证明其犯罪事实。Kingston认为,犯罪意图虽然难以界定,但仍具参考价值,他表示:“超速属严格责任犯罪。因此根据Hallevy的说法,自动驾驶汽车如果超速行驶,法律上有充分理由追究驱动该汽车AI技术团队的刑事责任。”

AI系统将如何为自己辩护?

如果一个人工智能系统可能会承担刑事责任,它会使用什么来辩护?

被追究刑事责任的AI系统将如何辩护?Kingston列举了几种可能:AI程序是否可效仿精神病患者,以系统故障为由进行辩护?或效仿人类被迫或醉酒犯罪,将受电脑病毒袭击作为辩护理由?

这些辩护手段并不是理论上的。Kingston 指出,在英国,一些被指控电脑犯罪的人成功地辩称,他们的电脑感染了恶意软件,而这些恶意软件恰恰是导致犯罪的罪魁祸首。

在一个案例中,一名被指控执行“拒绝服务型攻击”(Denial-of-Service Attacks)的少年电脑黑客声称,为此事件负责的应该是特洛伊木马程序,而这个木马程序在被进行初步分析之前已经从电脑中自我清除了。Kingston说:“被告的律师成功地让陪审团相信,这样的情况并不超出合理的质疑。”

AI系统犯罪这锅谁来背?

最后,涉及刑罚类型。既然AI系统是犯罪行为的直接责任方,那么应由谁来接受何种刑罚?这些问题尚不得而知。但若AI系统触犯的是民法,就不应再追究其刑事责任。那么问题来了,AI系统究竟属于服务还是产品

如果它是产品,那么产品设计立法将作为适用于这种情况的基础保证。

如果它是服务,则过失侵权行为适用。在这种情况下,原告通常必须通过三个要素来证明过失。第一个是被告有照顾义务——通常是很直接的,尽管在人工智能的情况下,很难评估护理标准,Kingston说。第二个因素是被告违反了这项义务。第三个因素是,这一违反行为对原告造成了伤害。如果这一切还有些含糊不清,人工智能系统的法律地位可能会随着它们的能力变得更像人类(甚至是超人)而改变。

当我们在人工智能研发的道路上不断奔跑前行的时候,围绕人工智能构建规章制度就成了重中之重。否则当有一天真的发生无可挽回的事情的时候,后悔已来不及。

(原标题:探讨:假如AI系统惹了祸 这个锅该由谁来背?)

来源 | 环球网

推荐阅读

视频 | 一分钟中国会发生什么:GDP增1.57亿,网售1043万

热点 | 李嘉诚退休了!长子接棒

预测 | 经合组织:世界经济今明两年增速接近4%

关注 | 马斯克:2019往返火星,2030移民 但可能会死人

热点 | 人民网:霍金的四个预言和关于他的一个谣言

AI | AlphaGo之父:人工智能仍面临诸多哲学问题


关注出海小螺号,您的企业出海小助手