自从 AI 变得越来越智能,应用得越来越广泛,法律界对于 AI 系统犯罪的法律应该如何实施一直存在着激烈的争论。
法律责任刑事责任
这场辩论的核心是 AI 系统是否可以为其行为承担刑事责任。以色列 Ono Academic College 的 Gabriel Hallevy 对这个问题进行了深入探讨。
刑事责任通常需要证明犯罪行为(actus reus)和犯罪意图(mens rea)。犯罪行为的证明可以分成两类:犯罪行为是由于进行了某种行动,或是由于未能采取行动。犯罪意图的证明可以分为三类:需要一定的知识或被告知;仅仅出于疏忽大意;严格责任的犯罪,不需要证明犯罪意图。
Hallevy 提出了三种可能适用于 AI 系统的法律模型。
第一种,称为 “通过他者犯罪的肇事者”(perpetrator-via-another),适用于患有精神缺陷的人或动物进行犯罪,由于他们缺乏构成刑事责任的“心理意向”,他们也因此被认为是无辜的。但是,任何指使精神病人或动物犯罪的人(例如,一只狗的主人命令它攻击另一个人)都可以被追究刑事责任。
根据这种模型,AI 程序可以被认为是无辜的代理,而软件程序员或者用户则可以被认为是‘通过他者犯罪的肇事者’。
第二种模型是 “自然可能后果(natural probable consequence)”,对应于当 AI 系统的设计本来是出于良好意图,却由于不恰当地激活而实施了犯罪行为。
例如一个人工智能机器人在日本摩托车工厂里杀死了一名人类工人。机器人错误地将这个员工认定为对它执行任务构成威胁的人,并计算出消除这种威胁最有效的方法,即将其推入相邻的操作机器。机器人用它强大的液压臂把陷入惊恐的工人砸到机器上,并致其当场死亡,然后继续执行它的工作任务。
“自然或可能后果”正常法律定责是起诉犯罪共犯。即使无法证明任何阴谋计划,仍然有可能找到一个承担法律责任的共犯(美国法律)。如果犯罪人的犯罪行为是在共犯鼓励或协助的策略下导致的自然或可能的后果,只要共犯知道某些犯罪计划正在进行中,仍然可以对共犯追责。
这里的关键问题是,设计机器的程序员是否知道这个局面是机器使用可能带来的后果。如果用户或程序员知道犯罪行为是他们的程序或者某次软件使用会带来的自然可能结果,那么对他们是可以追究法律责任的。然而要应用这条原则必须区分 AI 系统知道自己正在实施一项犯罪计划(它们是为犯罪计划而设计的)还是不知道(它们是为其他目的而设计的)。很有可能对后面这种 AI 系统是不能起诉犯罪的,因为他们不具备犯罪意图(mens rea)所需的知识。
第三种情况是 直接责任(direct liability),这需要 AI 系统同时具有犯罪行为(actus reus)和犯罪意图(mens rea)。
犯罪行为很好决定,如果 AI 系统采取了导致犯罪的行为,或是在有义务采取行动时未能采取行动,就证明了具有犯罪行动。
而证明犯罪意图则难得多。对于严格责任犯罪,不需要犯罪意图,实际上有可能追究 AI 程序的刑事责任。例如自动驾驶汽车,超速行驶是一种严格的责任犯罪。所以,如果一辆自动驾驶汽车被发现在道路上超速行驶,那么法律很可能会对当时正在驾驶汽车的人工智能程序追究刑事责任。在这种情况下,车主可能不需要承担责任。
特洛伊辩护
如果一个人工智能系统可能会承担刑事责任,它会使用什么来辩护?一个存在故障的程序是否能像人类一样以精神错乱为由进行辩护呢?一种被电子病毒感染的人工智能是否能以胁迫或醉酒为由进行辩护?
这些辩护手段绝不是理论上的,许多被控网络犯罪的案件已成功地提供了辩护。他们声称他们的电脑感染了特洛伊或类似的恶意软件,而这些恶意软件才是导致犯罪的罪魁祸首。
在英国一个案例中,一名被指控进行了“拒绝服务型攻击”(Denial-of-Service Attacks)的少年电脑黑客声称,为此事件负责的应该是特洛伊木马程序,而这个木马程序在被进行初步分析之前已经从电脑中自我清除了。被告的律师成功地让陪审团相信,这样的情况并非毫无道理。
民法:侵权行为与违反保证过失犯罪
当软件有缺陷,或当一方因使用软件而受伤时,由此产生的法律程序通常称为过失侵权,而不是刑事责任。在这种情况下,原告通常必须通过三个要素来证明过失侵权。
被告有照顾义务 软件供应商对顾客有义务是毋庸置疑的,但是很难决定这一义务需要达到什么标准。
被告违反了这项义务 有很多种情况 AI 系统可能违反照顾义务,例如本可以由开发人员检测到的程序中的错误,不正确或不充分的文件或警告,或不正确地使用程序。
这一违反行为对原告造成了伤害 对于这一点,一个 AI 系统是否可以被认为造成伤害仍然没有定论。关键问题在于 AI 系统是否在特定情况下建议某种行动(如许多专家系统那样),或直接采取行动(如自动驾驶汽车)。在前一种情况下,至少必须有另外一个代理参与,因此因果关系很难证明。后一种情况下则简单得多。
违反保证
如果 AI 系统被视作产品,那么它出售时必须附有保修单。有些地区允许隐含的保修单可以通过合同条款作废。然而,当 AI 系统是嵌入其他商品(如汽车)出售时,这样的合同(例如汽车制造商和 AI 软件供应商之间的合同)似乎不可能传递给汽车购买者。
关键的问题在于人工智能系统是服务还是产品。
假设软件确实是一种产品,AI 系统开发人员的职责就是确保他们的系统没有设计缺陷、制造缺陷,或不充分的警告和指示。
如果 AI 系统是一种服务,则它必须遵守“照顾义务”。例如从错误输出得出正确结论的义务。AI 开发人员的职责就是提供相对便宜、无害、简单的输入错误检查技术。AI 系统必须知道它们的局限性,并且必须将这些信息传达给购买者,即卖方有义务告知买方任何已知的缺陷。
AI系统的限制
AI 系统受到的限制可以分为两类,一类是人类专家也同样受到的限制,第二类是人工智能技术本身的限制。
首先,知识的变化可能非常快,专家和 AI 系统都必须知道最新的知识,以及哪些知识已经过时了。其次,想要考虑到所有可能性是十分困难的。AI 系统在大多数情况下能给出最优解,但是不能保证它们给出的解决方案在所有情况下都适用。
从法律角度来讲,解决这些问题的办法是让供应商警告买家这些 AI 系统的限制。但是很难确定什么情况下需要这样的警告。法学家指出,许可机构要求的标准可以用来确定一个专业人员的表现是否达到预期的水平,同样的,也可以让 AI 系统本身获得许可证明。美国证券交易委员会特别热衷于此,它需要将一个股票市场推荐系统注册为财务顾问,并将投资顾问程序的开发人员列为投资顾问。
关键的限制是人工智能系统缺乏一般知识。人类携带了大量与特定任务无关的知识,但它们之间可能建立联系。例如开车时,经过学校时要慢行,尤其附近有停靠的车辆时,是为了躲避从停靠的车子后面突然跑出来的儿童,但人类驾驶员的通用知识就包括了一些小孩道路安全意识很差这一事实。但是自动驾驶汽车没有这一知识,除非它编程了一套关于异常危险地点的一般规则。
总结
AI 系统是否应该追究法律责任主要取决于以下三个方面:
AI 系统是产品还是服务。法律上并没有明确规定,法律界也对此各执一词。
如果有了刑事犯罪事实,需要什么样的犯罪意图?AI 程序似乎不太可能违反那些需要了解犯罪行为的法律。但他们很可能做出正常人知道会导致犯罪的行为,从而触犯法律。几乎可以肯定的是,他们可能违反严格责任罪。
AI 系统的限制是否与买家进行了交流。由于 AI 系统既有通用限制,也有专用限制,这类问题的法律案件很可能基于对此类限制给出的警告来裁决。
最后,谁或者什么会因为一个 AI 系统的直接责任而受到惩罚?这个问题的答案可以根据 Hallevy 的三种模型来回答。
“通过他者犯罪的肇事者”模型中,操作 AI 系统的人,用户或程序员,可能会被追究责任
“自然可能后果”模型中,预见到产品可能出现问题的人会被问责,例如程序员、产品供应商、服务提供商。
“严格责任”模型中,AI 程序会被追究法律责任,程序员也有可能会被问责。程序员被认为有责任的情况可能会有更多的争论:错误在于程序员、程序设计者、提供知识的专家、还是指派不合格专家、程序设计者或程序员的经理?
然而有一件事是肯定的:在未来几年,法律界一定会有针对 AI 立法的激烈争论。