查看原文
其他

郭泽强:人工智能时代权利与责任归属的域外经验与启示

摘  要人工智能应定义为模仿人类智能的机器和程序。人工智能时代权利与责任归属等法律问题的研究,主要围绕人工智能知识产权问题与无人驾驶汽车责任问题展开。在肯定人工智能“作品”应当受知识产权保护的基础上,根据具体情况将其权利归属分配给人工智能设计者和使用者。人工智能造成安全风险之责任分配问题,应当根据人工智能的自动化程度分别适用不同的责任原则。未来权利与责任归属问题上,我国应当正确区分人工智能与低级自动化,并坚持适度积极主义的立场。

关键词人工智能;权利;责任;归属


当前,人工智能基于应用的普遍性、技术的前沿性以及在伦理、法律等层面的争议性而成为众多学科理论研究与实践应用的热点。其中,关于人工智能的法律问题研究是人工智能研究的重要增长点之一。法律作为一门经世致用的学科,积极回应社会热点自是应有之义。然而泛滥的研究热潮也可能使研究脱离了本质,营造学术的虚假繁荣,并最终导致人工智能法学研究陷入困顿并且步入低潮。有国内学者就一针见血地指出目前国内的人工智能法学研究存在概念附会、伪问题代替真问题、对策论代替教义论的反智化疾患。

研究人工智能法律问题,目前国内存在两种路径:一是以我为主,结合我国人工智能现状进行实证研究的进路;二是借鉴为主,较多注重西方人工智能的立法与司法经验引介的进路。虽然就传统的法教义学而言,由于国内的研究刚刚起步,学习借鉴西方的先进理论对于完善发展我国的法教义学,必然会大有裨益。但是,在网络法律治理特别是人工智能法律风险应对上,中国的经验也是独一无二的,甚至在某些具体问题上已经是引领世界的“中国之治”。因此,我们可以将世界的经验和中国的声音都放在全球一体化的背景下去比较研究和认真审视。对此,我们既需要立足本土进行自我反思,亦应将域外研究当作参照物予以平等审视。基于此,本文试图通过梳理域外关于人工智能本质问题、人工智能“作品”知识产权、人工智能安全责任等问题的研究,为我国人工智能的法学研究提供智识参考和交流互鉴。

一、论域界定:人工智能本质之探索

“当前关于人工智能的讨论,无论是在理论还是在实践领域,都在根本上缺乏对人工智能本质的清晰界定。”可见,在分析人工智能法律风险应对的具体问题之前,有必要对人工智能的内涵和外延问题进行审视。

1.人工智能之“智能”解读

(1)基于语词的考察

考察人工智能(Artificial Intelligence,AI)的语词含义,主要在于解决人工智能法学研究中可能出现的概念附会问题。

“人工智能”中“智能”(Intelligence)是认识人工智能本质的要点。《英汉计算机技术大辞典》对“Intelligence”在计算机技术中的含义做了两方面的释定。一方面,当“Intelligence”用于计算机硬件、计算机软件、计算机逻辑推理时分别是指“处理信息的能力”“程序监视其环境并采取适当的行动来达到所需状态的能力”“程序模拟人类思维的能力或机器对刺激变化做出正确反应的能力”。另一方面,“Intelligence”在“Artificial Intelligence”这一词组中,指的是人类在认识和改造客观世界的过程中,由思维过程和脑力劳动所体现的包括感知、思维、行为在内的能力。

从表面上看,《英汉计算机技术大辞典》对“Intelligence”的两种定义似乎是矛盾的。因为一个词语不能在肯定A含义的同时又否定A含义。但如果仔细考察,会发现两种定义并不冲突。原因在于,当“Intelligence”指的是“类人智能”时,其主语是“计算机”。该含义的目的在于描述计算机模仿人类智能活动的现象。这时,计算机所指向的相关智能实质上是人类智能的某种体现。而作为“人类智能”的“Intelligence”由于是在“Artificial Intelligence”这一词组中进行解释,“Artificial”这一定语使“Intelligence”的解释回归到其原本的含义,即人的智力与能力。简言之,“Intelligence”的两种含义之所以不矛盾,是由于两种含义分别描述了不同的对象。而且通过对“类人智能”与“人类智能”两种含义的考察可以发现,二者共同的内核在于强调“智能”是基于特定环境做出能动反应的能力。基于此,我们所研究的“人工智能”(Artificial Intelligence)所指的“智能”在语词意义上应当是指包括感知、思维、行动等方面的“人类智能”。

(2)对“智能”的实质认识

域外有学者认为机器本身不同于人类,将机器称为智能只是人们习惯于用认知性术语描述机器的结果,而且这本身就是一个悖论。〔在斯加鲁菲看来,“智能”一词是具有人类专属性的。机器虽然可以完成表面上看似具有智能的活动,但是机器活动本身并不具有目的性,不能感知情感环境的变化。而目的性、情感、理解等则是智能的要素,将机器赋予人的智能会造成很多不必要的认知错误。可见,在斯加鲁菲这里,人工智能中的“智能”是一种“非人智能”。

然而,我们认为,从发展的视角观察,在人类对智能本身仍需进一步探索的情况下,这种观点不免存在缺陷。其一,因机器活动不具有目的性而排斥将“智能”一词用于机器的主张是对“目的”在智能认定中作用的夸大。以刑法为例,在刑法的目的行为论中,“目的性是以人的能力为基础的,该能力是在一定程度上遇见其因果行为的后果,并使用手段有计划地操纵向既定目标前进的过程”。在这里,认定活动是否具有目的性有赖于主体自由意志的有无。如果一个有严重智力缺陷的自然人实施了通常的犯罪行为,该自然人可能因行为时不具有自由意志而不成立犯罪。但是,我们却不会否定此自然人的智能人地位。可见,行为是否以目的为指引并不影响行为主体是否具有智能的判定。而且在刑法理论中,目的行为论本身也因不能评价过失犯而受到诸多批判。因此,目的性等只是智能的充分而非必要要素,仅以这些要素而否定机器的智能性缺乏充足理由。其二,如果将人工智能中的智能视为非人智能,无疑会进一步造成对智能本质认识的混乱。原因在于,如果在人类智能之外提出非人智能的概念,那么在解决人类智能是什么这一问题之外,还要回答什么是“非人智能”,以及“非人智能”与“人类智能”的联系与区别。

实际上,关于人工智能中“智能”的实质内涵,国内学者的认识较为一致,即通常认为“智能”是基于自由意志针对环境变化做出自主性活动的能力。在国内,关于人工智能能否具有法律人格的问题存在肯定派与否定派的争锋。肯定派认为随着科技的发展,人工智能将进入强人工智能阶段。在这一阶段人工智能将获得脱离人类控制自主进行活动的能力。而否定派则认为,就人工智能发展的现状而言,人工智能没有自由意志,其不具备欲望机制。

可见,无论是肯定派还是否定派,他们论争的重点在于人工智能是否具备自由意志这点。我们认为,无论人工智能是否能够真正具有人类智能意义上的自由意志,当前国内学界对“智能”内涵的界定既符合人工智能的语词含义,也符合当前学术讨论的方向。

2.人工智能之范围界定

界定人工智能的范围目的在于剔除不属于人工智能范畴的事物,以廓清人工智能法学研究的对象。而关于人工智能的范围,域外存在着不同的观察角度与结论。

第一种进路可谓人类智力执行论,持此观点的学者认为,所谓的人工智能“应当是那些能够自动执行‘通常需要运用人类智力’工作的技术”。而且人工智能能够通过机器学习(machine learning)或者规则、逻辑与知识表达(logical,rules and knowledge representation)这两种自下而上与自上而下的方式实现自动化运行。此外,持该论的学者还指出当下的人工智能实质上并不能称得上真正的智能。原因在于两点:其一,现阶段的人工智能主要依赖工程师编制好的程式以及人工输入的数据信息进行工作,尚未形成独立自主的运行体系;其二,有部分人工智能通过不同于人类思维的工作方式也能够达到同样的结果。而真正的人工智能需要随着技术的发展,达到强人工智能(Strong AI)或通用智能(Artificial General Intelligence,AGI)阶段。在这一阶段,人工智能将真正具有与人类相似甚至完全相同的识别、分析、判断、决策能力。

第二种进路为形态意义论,持该论的如美国学者马克·莱姆利与布莱恩·凯西,他们认为机器人与人工智能这两个概念在当下具有共通性,它们表现为能够对现实物理世界与虚拟数字世界产生影响的实体或无实体系统。而另有学者认为,通常意义的人工智能应当是指基于计算机的(静止的)的智能。机器人是指在一个可移动平台上的人工智能。二者的区别在于前者仅需要感知与思维能力,而后者在感知、思维能力之外,还要具有行动能力。斯蒂芬·亨德森则通过引述特格马克(Tegmark)关于生命的三阶段论阐释了自己对人工智能的认识。他认为,在生命3.0阶段摆脱形体(硬件)的限制并发展与人类智能水平相同的思维能力与学习能力是人工智能的重要目标。

第三种进路为学科区分论,如美国学者泰勒·威格德森富有洞见地指出,技术、哲学、法律、神学对于人工智能范围的认识各有不同。但是,从简单意义上而言,人工智能至少可以划分为三个基本类别:(1)应用中的人工智能(Applied AI),包括产品形式的人工智能以及利用人工智能生产的产品;(2)认知科学中的人工智能,这里的人工智能在于解决关于智能本质的问题;(3)基础人工智能(Basic AI),即基于计算机技术实现对人类智能的模拟。

分析以上观点可以发现,学者们对于人工智能存在一个共同的认识,即人工智能的本质在于对人类智能的模拟,并在此基础上完成专属于自然人的相关工作。这种观点是理解人工智能最原始的观点。在人工智能概念提出之后,出现了人工智能的符号主义学派与联结主义学派。然而无论是利用计算机数学逻辑模拟人类思维运行方式的人工智能符号主义学派,还是希望通过对人脑结构的仿真设计来模拟大脑工作原理的人工智能联结主义学派,它们仅存在智能模拟方式的差别,在人工智能是模仿人类智能这一根本点上是高度一致的。这就意味着人工智能的目标不在于创造一种非人智能,也印证了前文对人工智能语词含义的考察结果。

此外,除了对人工智能本质的一致认识之外,以上观点在人工智能的表现形式层面仍然存在分歧。哈利·苏尔登等人仅将人工智能限定为技术、程序等无实体的范畴。大卫·张伯伦等则认为人工智能应当既包括程序又包括机器,而且智能程序驱动的机器人对社会进步具有重大意义。诚然,人工智能设计之初强调算法对人脑思维过程的模拟。但人工智能应用于社会生产,必然要借助有形之机械。而且当下智能机器人、无人驾驶汽车等智能机器已经现实存在。

结合上述关于人工智能之“智能”解读与范围界定,本文主张人工智能中的“智能”是一个动态范畴,它是对基于自由意志针对环境变化做出自主性活动的能力的人类智能的模拟,并在此基础上完成专属于自然人的相关工作,其范围不仅仅包括技术、程序等非实体范畴,而且也应包括智能机器人、无人驾驶汽车等实体应用层面。申言之,人工智能应为模仿人类智能的机器和程序。

二、权利归属:人工智能

“作品”知识产权之回应随着人工智能的技术进步以及应用的渐趋广泛和深入,权利归属必将成为一个崭新的重大课题,而其中人工智能“作品”的权利归属是我们观察人工智能时代权利归属重大问题的最佳视角。人工智能已经开始或多或少地参与到人类智慧成果的创作中来,并由此引发了对现有知识产权制度体系的冲击。其中,人工智能“作品”的权利归属问题的焦点在于人工智能“作品”的知识产权归属。

1.国外人工智能知识产权的立法与司法

在澳大利亚,虽然知识产权可以通过一定的方式进行让渡,但其法律一般将内容创作者视为权利主体。根据澳大利亚现行的知识产权法律,计算机软件根据既定算法规则“创造”的作品,由于不是计算机本身的智力投入,该作品的知识产权应当归属该计算机软件的设计者。如在安可斯公司诉尤考普公司一案中,澳大利亚联邦法院就因计算机程序所产生的“作品”没有体现人类智力投入而否定了其知识产权。

在美国,美国国家版权和新技术委员会(National Commission on New Technological Uses of Copyrighted Works,CONTU)在1979年做出的一份报告中指出,人工智能可能会发展到独立创作作品的程度。尽管这些作品与其他受版权法保护的作品类似,但是由于没有人类作者的参与而不会或者不应该享有版权。CONTU的这份报告比较明确地指出了人工智能或者计算机“作品”的知识产权问题,即此类“作品”不具有知识产权。因此也就不产生人工智能“作品”的知识产权归属问题。从这一报告也可以看出,美国的知识产权同样是归属于自然人的。

一般而言,作品的知识产权归作者所有。按照此种逻辑,如果一个主体属于法定的作者范畴,那么该主体就可能拥有作品的知识产权。但是人工智能属于美国法律中的作者范畴吗?美国《宪法》在其第一章的“专利与知识产权”条款中提到了作者与发明者的概念,但并没有对这两个概念进行较为明晰的界定。美国《版权法》将作者定义为享有该法所规定任意特定专有权利的所有者。而这些所谓的特定专有权利包括作品的复制权、作品的演绎权、作品及复制品的发行权、作品的表演权、作品的展览权、作品的数字传播权。从这些特定专有权利的性质而言,人工智能是具有此类权利能力的。由此可见,无论是美国《宪法》还是其《版权法》,实际上并没有严格地将作者限定为自然人。但是,从实践判例来看,美国并没有人工智能具有作者地位的判例。而且根据CONTU的报告,至少在目前,人工智能在美国是难以作为知识产权的权利主体的。

在欧洲,《欧洲专利公约》(Convention on the Grant of European Patents)第52条规定了专利权的对象:能够在产业中应用并具有新颖性与创造性的发明。其中,根据《欧洲专利公约》第54条、56条、57条的规定,新颖性是指一项发明不属于现有技术。创造性是指一项发明对于熟悉有关技术的人员不是显而易见的。实用性是指一项发明能够在任何产业中制造或者使用。分析《欧洲专利公约》关于专利权的对象的限定可以发现,新颖性、创造性以及实用性这三个判定要素并不能将人工智能的“发明”排除在专利权保护范围之外。易言之,单从专利权的保护对象这点来说,如果由人工智能设计或制造的产品被认为具有新颖性、创造性和实用性,那么该产品就是具有专利权的发明。但是,《欧洲专利公约》第58条、60条规定了专利权的适格申请人与所有人,从主体角度限定了专利权的范围。根据以上两条规定,有权申请专利的主体是任何自然人或者法人,以及根据其适用的法律相当于法人的任何团体。而专利权的所有人是发明人及其权利继受人。可见,《欧洲专利公约》将专利权的主体限定为自然人和法人(团体),人工智能被排除在专利权主体之外。综合《欧洲专利公约》对专利权的对象和主体的规定,一方面人工智能设计或制造的产品能够被认定为发明,另一方面人工智能不具有专利权的主体地位。因此,人工智能“作品”的专利权不属于人工智能。

但是随着相关立法的推进,人工智能不具有知识产权权利主体地位的情况很可能会发生改变。2016年欧盟法律事务委员会提出了《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》。在该草案中,欧盟法律事务委员会呼吁欧盟对智能机器人进行详细的分级界定,并且根据智能机器人的分级,建立一套相应的机器人登记注册制度。同时,该草案还提出应当承认智能机器人的法律地位,赋予其“电子人”身份,并将“电子人格”应用到机器人做出自主决定或与第三方独立互动的事件中。可见,如果欧洲通过此类立法,赋予人工智能的“电子人”法律地位,那么人工智能将成为著作权、专利权等知识产权的适格主体。人工智能“作品”的知识产权就将归属于人工智能自身。

统观以上域外各个国家与国际组织关于人工智能知识产权的立法与司法,人工智能是否对其所创造的“作品”拥有知识产权,关键在于人工智能的法律人格能否得到确认。目前,在美国、澳大利亚等国家,较为保守的立法坚决否定了人工智能在法律上的主体地位。而在欧洲,一些具有超前色彩的立法提案将很大程度上促进人工智能法律人格的确证,并基于此承认人工智能对“作品”的知识产权。

2.人工智能“作品”知识产权归属的理论争辩

在法学理论领域,关于人工智能“作品”的知识产权归属问题,域外学者存在不同的处理意见。

美国学者帕梅拉·塞缪尔森所持的观点是“使用者权利说”。其首先从人工智能的“作品”能否成为知识产权的保护对象这一问题入手。他认为,从知识产权要求的“原创性”性角度,“原创性”的根本意义不在于要求作品形式的独一无二,而是在于作者在作品创作时进行了对各要素的能动选择。而人工智能在形成报告或者其他成果时,也会对数据进行一定的编排和筛选。因此,人工智能的成果应当属于作品并受到知识产权制度的保护。但是,就知识产权制度设立的意义而言,知识产权保护的目的在于激励创新,而赋予人工智能知识产权并不能就此激起机器的创造热情。因此,将人工智能的“作品”进行知识产权保护是缺乏意义的。据此,可以看出塞缪尔森承认人工智能创作物的“作品”属性,但由于将人工智能作为知识产权主体不具有积极意义,而否定了人工智能的权利主体地位。这种结论与《欧洲专利公约》所得出的结论是一致的。

但是,既然人工智能创造物具有作品的属性,人工智能又不能作为权利主体,那么该“作品”的知识产权应当归属于何者呢?对此,塞缪尔森分别讨论了人工智能的设计者、人工智能的使用者、设计者+使用者、社会共同体等四种享有人工智能“作品”知识产权的情形。

其一,在人工智能的设计者作为权利主体的情况下。将设计者作为权利主体的理由在于设计者在人工智能的设计、制造中投入了较大精力,而且其对人工智能的控制力较强,因此可以以设计者对人工智能“作品”具有较高的参与度为根据将其作为权利主体。而且根据相关人员在创作中的参与度决定权利归属在一些判例中也得到了承认。但是塞缪尔森认为,将设计者作为权利主体并不合适。原因在于,第一,人工智能的设计者能够通过向使用者收取费用的方式获得成本补偿。第二,在某些情况下难以准确认定使用者与设计者在人工智能“作品”创作中的参与度。其二,在人工智能的使用者作为权利主体的情况下。塞缪尔森认为这是一种合理的解决方式。原因在于,第一,CONTU的报告建议将人工智能“作品”的知识产权归于用户。可见使用者作为权利主体存在政策依据。第二,使用者是人工智能“作品”创作最直接的参与者。第三,使用者可以通过利用人工智能创作出超出设计者专业范围的“作品”。其三,在设计者+使用者共同作为权利主体的情况下。塞缪尔森认为此时是以合作作品的角度来看待人工智能“作品”的。但是合作作品必须表现多个作者之间的分工协作与利益共同关系,而这两个要素在人工智能的设计者与使用者之间并不明显。其四,将人工智能“作品”的知识产权归于社会。对于这种情况,塞缪尔森认为将人工智能“作品”的知识产权归于社会,将难以实现知识产权制度激励创新的目的。综合各种情况的利弊,塞缪尔森认为人工智能生成的“作品”的知识产权应当归属于相关人工智能程序的直接使用者。

与塞缪尔森的“使用者权利说”不同,另一位美国学者维克多·派利斯则认为解决人工智能“作品”的最好方式是将该成果用于公众社会。这种观点可视为“公共权利说”。原因在于,第一,如果将知识产权赋予人工智能,那么就必须承认人工智能的相关法律主体地位,但这对现有法律体系无疑是一个巨大的冲击。而其保护人工智能的知识产权并不能实现知识产权制度激励知识创造的目的。第二,如果将知识产权赋予用户、程序员、相关公司等,则可能面临人工智能成果的知识产权保护成本过高以及对人工智能成果的不公平使用问题。

美国学者安玛丽·布瑞狄则持“职务作品权利说”,认为随着人工智能的不断发展,目前社会已经进入到一个数字作者的时代。在关于作品原创性的判断上应当明确所谓原创性实质上是思维的差异体现。而在智能时代,这种思维也应当包括算法。基于此,人工智能通过算法所创作的“作品”应当被纳入知识产权的保护范畴。而关于该“作品”的权利归属,他提出事实作者与法律作者的概念。在布瑞狄看来,人工智能是其“作品”的事实作者,因为人工智能程序直接创作了“作品”。但是由于现行法律没有承认人工智能的法律地位,因此其在法律层面难以获得作者权利。而要解决知识产权归属,可以参照法律对职务作品的规定。在职务作品中,权利一般归属于事实作者所在的法人或团体。而这些法人或团体属于该职务作品的法律作者。因此,对于人工智能“作品”的知识产权而言,权利可以由法院根据具体的事实情况,合理分配给人工智能的程序设计者、使用者或者设计者的雇主。

以上学者的不同观点给人工智能“作品”知识产权问题的解决提供了各具特色的路径。塞缪尔森的“使用者权利说”基于人工智能“作品”的形成原理与美国的政策,指出人工智能“作品”知识产权应当归属于人工智能的使用者。此种分配方式具有一定的合理性,但将知识产权过于机械化地分配给人工智能使用者很可能打击人工智能设计者的创新热情。派利斯的“公共权利说”基于公共福祉和社会成本希望将人工智能“作品”知识产权归于社会。这种思路在打击相关人员的创新热情上较塞缪尔森的观点有过之而无不及。而且因为目前没有专门的人工智能“作品”知识产权维权组织,这种将人工智能“作品”知识产权归于社会的做法也不具有可操作性。而布瑞狄的“职务作品权利说”将人工智能“作品”参照职务作品知识产权制度的做法一方面肯定了人工智能“作品”的属性,另一方面能够充分发动司法的能动性,通过具体问题具体分析,将知识产权合理分配给人工智能的设计者、使用者等主体,在激励社会创新方面能够发挥重要作用。

三、责任归属:人工智能

安全风险之控制晚近以来,人工智能安全风险的责任归属与分配问题的探讨,多集中于无人驾驶汽车领域。自动化汽车的新时代最终将需要一个与全新的汽车事故世界相适应的法律制度。新的制度应该促进安全和提供补偿,比现有的侵权原则,即司机过失责任和制造商产品缺陷的责任更有效地提供赔偿。

法律责任问题是随着人工智能产品在社会生产生活中的实际运用而产生的,这一问题不仅全面挑战现有法律责任体系,而且能否妥当处理也将决定人工智能产品的应用前景。而要设计出合理可行的责任归属机制,在逻辑上应明确自动驾驶汽车在当前以及未来不长时间的现实发展状况,而不能天马行空,单纯以自动驾驶汽车技术在理论上的发展程度为参考考虑责任归属问题。

1.责任归属问题改革时机之考察

根据国际汽车工程师学会的划分标准,自动驾驶汽车的自动化程度可以划分为六个等级。0级,人类驾驶者做任何事情;1级,车辆上的自动系统有时可以帮助人类驾驶员进行部分驾驶任务;2级,车辆上的自动化系统实际上可以执行驾驶任务的某些部分,而人继续监视驾驶环境并执行其余的驾驶任务;3级,自动系统既可以实际执行驾驶任务的某些部分,也可以在某些情况下监测驾驶环境,但当自动系统要求时,人类驾驶员必须准备好收回控制权;4级,自动化系统可以执行驾驶任务并监控驾驶环境,人类无须收回控制,但自动化系统只能在特定环境和特定条件下运行;5级,自动系统可以在所有条件下执行所有驾驶员可以执行的驾驶任务。然而,目前甚至没有3级车可供出售,即使从长期来看,那些具有4级和5级能力的自动驾驶汽车也不会完全取代“传统”汽车。因此学者肯尼斯·亚伯拉罕等认为,对现有侵权责任体系的改革应当在4级或5级的车辆达到25%时进行,否则制造商企业责任(MER)并不能发挥作用。

亚伯拉罕等指出在自动化为3级以及低于3级时,虽然会出现归责困难的状况,但目前的侵权责任、产品责任规定尚可加以解决。在自动化达到3级时,事故基于产品本身可能出现两种截然不同的缺陷:其一,根据其设计,接管警报可能无法正常运行;其二,算法可能失败。第一种情况下,接管功能无法正常工作,将生成制造缺陷的标准索赔,这是一个简单的严格索赔;第二种情况下则可以以诸如“未能提供合理的指示或警告为由”进行索赔。至于其他可能出现的设计缺陷,无非是新的产品责任诉讼,尚未达到颠覆现有归责制度的程度。

但当4级或5级的车辆达到一定比例时,即多数车辆的运行仅保持非常有限的驾驶员控制,或完全消除了驾驶员控制时,依赖疏忽和产品责任将不能公平解决问题。因为此时“未能警告缺陷事由”已不再适用,产品责任无法发挥功效,而如果保留侵权行为将忽视通过消除有争议的合理技术期望问题所能达到的实质性效率。因此,责任归属问题应当在自动化达到一定程度时,即确有必要改革完善时进行,不能提早,否则徒劳无益,亦不能滞后,阻碍责任归属。

2.多层次归责制度之构建

然而,更多的学者认为面对自动化不断实现的趋势,未来的归责制度或者说侵权责任设计可以是多元化、多层次的,以解决不同自动化程度下的侵权行为。美国学者大卫·弗拉德克分析指出,确定自动驾驶汽车事故的责任原则与责任归属,需要分情况探讨。其一,存在人为因素(主要是自动驾驶汽车的设计、制造、使用说明等方面的人为缺陷)时如何适用产品责任?其二,不存在人为因素时如何适用严格责任?

首先,在由人为因素导致的自动驾驶汽车事故中,弗拉德克认为,如果没有充分的证据证明自动驾驶汽车应当负有更高的注意义务,那么将无人驾驶汽车之类的人工智能产品排除在产品责任适用之外便是不合理的。对此,弗拉德克比较了传统汽车侵权与自动驾驶汽车侵权不同的注意义务问题。在传统汽车事故侵权中,驾驶人是承担注意义务的主体,当驾驶人在事故发生前尽到了相关的注意义务并采取了规避措施,即便发生事故,驾驶人也能够因此免责。而在自动驾驶汽车事故侵权中,汽车的智能化极大地降低甚至消除了驾驶人的注意义务,即发生了注意义务从驾驶人到设计、生产者的主体的转移。易言之,在自动驾驶汽车事故侵权中,注意义务不再是个案判断中具体驾驶人的注意义务,而成了一般性的设计、生产者的注意义务。因此,自动驾驶汽车事故的责任判定重点不再是驾驶人的行为,而是机器的性能,即设计、生产者在设计和生产汽车时是否尽到了避免事故发生的注意义务,是否故意或过失地导致了自动驾驶汽车的缺陷。

其次,在无人为因素介入的自动驾驶汽车事故中,根据现有的法律,美国法院大概率会参考事实不证自明原则(res ipsa loquitor)判决所确定的规则,即当汽车出现事故而导致事故的原因无法查明时推定生产商具有责任。这对于自动驾驶汽车的生产者而言显然是一种严格责任。弗拉德克认为,在自动驾驶汽车发生事故并造成人员伤亡和财产损失的情况下,构建一种严格责任体系是必要且合理的。而且基于严格责任实施自动驾驶汽车事故的强制补偿机制是应有之义。具体依据包括以下方面。其一,根据分配正义及社会风险分配的理念,对没有过错却受到侵害的人进行补偿是符合正义价值的。其二,相对弱势的受害者,生产者经济实力较强且可以通过提高产品定价等方式分散赔偿压力。其三,基于严格责任的强制赔偿制度可以避免各方承担巨大的诉讼成本。由于技术的复杂性,要在一起自动驾驶汽车侵权事故中准确分配各方责任往往需要漫长的诉讼过程,而这无疑会加重各方尤其是制造者的诉累。因此,从经济角度考虑,直接适用严格责任的强制赔偿制度对各方是有益的。其四,明确的责任分配机制有利于鼓励科技创新。基于严格责任的强制赔偿制度实质上是一种成本分摊的责任解决方法,这既不会导致生产者承担巨额的赔偿费用,也可以通过明确的责任原则消除科技创新的担忧。此外,一辆自动驾驶汽车的生产涉及智能软件设计、零配件生产、整车组装等诸多环节,仅由无人驾驶汽车的生产者承担严格责任略显不公。因此弗拉德克建议构建自动驾驶汽车生产链的集体严格责任,将赔偿费用在软件设计者、零配件生产者、整车组装者等主体之间进行合理分配。

与弗拉德克的观点类似,另一位美国学者马克·格斯菲尔德也主张将自动驾驶汽车的侵权责任划分为普通的产品责任和严格责任两种责任形式。与前者不同的是,格斯菲尔德结合自动驾驶汽车的分级标准区分了产品责任和严格责任,而且对自动驾驶汽车侵权事故中的第三方侵权进行了讨论。

对于装有驾驶辅助系统(DAS)的自动驾驶汽车(这类汽车主要是指尚未达到完全自动驾驶程度的种类)造成的侵权事故,格斯菲尔德认为此时的侵权责任问题与传统车辆的侵权事故的责任承担问题并无二致。原因在于“这些功能(DAS)改善了驾驶人与车辆之间的互动,以便实现车辆更好的操控,但其并没有从根本上改变驾驶人和车辆在运行过程中的角色地位”。因此,对于非完全自动驾驶的车辆造成的侵权责任,仍然适用传统车辆侵权责任的归责。

对于已经实现了全自动驾驶的车辆,由于人车关系发生了颠覆性的改变,相应的事故责任的归责也应当进行调整。格斯菲尔德认为,在全自动驾驶汽车的侵权事故中,由于人类驾驶员在汽车行驶中已经完全脱离汽车的操控,所以难以对其进行追责。这时,对车辆的生产者进行追责便成了可能的选择。而且一些汽车生产商也主动表示愿意承担自家自动驾驶汽车造成事故的侵权责任。但是,当全自动驾驶车辆发生事故时,无条件地追究生产者的责任既不公平,也将给生产者造成巨大负担并最终影响该产业的发展。因此,必须对生产者关于全自动驾驶汽车的侵权责任承担设置条件。对此,格斯菲尔德认为,车辆生产者的责任仅限于可预见的风险导致的侵权事故。当自动驾驶车辆正常行驶却因难以预见的事由(如其他车辆的故意、过失撞击等)导致事故的,生产者则无须承担责任。

对于自动驾驶汽车的第三方侵权问题,格斯菲尔德等学者认为黑客侵入自动驾驶车辆的操控系统,导致车辆发生事故实际上仍属于车辆自动驾驶程序的“产品故障”。因此,仍然可以适用“发生事故-推定故障-承担责任”这样一种严格责任模式。

观察多数域外学者,尤其是英美法系学者关于自动驾驶汽车责任规则的观点可以发现:第一,在非全自动驾驶车辆造成的侵权事故中,驾驶人、生产者承担基于过错的责任;第二,在全自动驾驶车辆造成的侵权事故中,驾驶人一般不承担责任,生产者首先需要承担无过错的严格责任。当生产者承担责任后,根据事故产生的具体原因,生产者具有向第三人追偿的权利。以上两点基本可被视为西方学者在自动驾驶汽车归责问题上形成的主流观点,一些国家近期关于自动驾驶汽车的立法也基本遵循了这一责任原则。例如,德国2017年6月修改后公布的《德国道路交通法》规定,自动驾驶汽车的驾驶人在汽车行驶时需要尽到一定的注意义务,并根据自动驾驶系统的提醒即时接管车辆操控。可见,德国在非全自动驾驶阶段认为驾驶人仍然需要承担责任。

四、未来展望:人工智能时代的

权利与责任归属问题之启示通过对国外人工智能时代下权利与责任归属应对策略的审视,我们认为中国将来还需要在两个方面进一步深入研究。

1.认真区别自动化与人工智能,防止法学研究的反智化

法学学者们对人工智能在观念上的界定给人工智能法学研究确立了对象。但是目前人工智能法学研究面临着一个较为现实的问题,即区分自动化与人工智能的问题。从国内很多研究来看,似乎没有很好区分自动化与人工智能之界限。人工智能与自动化产品应用难以准确区分是造成域内外法学研究中人工智能泛化的重要原因之一。一般认为,自动化在定义上体现的机器的“自主性”与人工智能的特性相契合。这种“自主性”表现为机器某种程度上的无人操作。因此,就出现了生活中对于无人操作的机器,可以将其称为自动化机器,也可以唤作人工智能的现象。此外,从技术基础和学科关系角度而言,自动化与人工智能都体现着控制理论的应用,而且人工智能一般是自动化学科下的分支学科。基于这些原因,自动化与人工智能之间存在着一种主从关系或包含关系,即人工智能从属于自动化,是自动化的高级形态。因此,区分自动化与人工智能实际上是区分人工智能与低级自动化。

关于人工智能与低级自动化的界限,我们可以从两方面进行认识。其一,低级自动化是工业时代的产物,其基本是通过机械装置的有机组合来实现的自动化。而人工智能有赖于计算机科学技术的进步,属于信息时代的产物,其既可以体现为有形实体的自动化,也可以体现为无形程序的自动化,甚至有形实体与无形程序相结合实现的自动化。同时,人工智能的自动化体现着对人类智能的模仿,即人工智能运行不是单纯机械化的重复,而是会根据环境要素做出应对,体现出一种“互动性”与“无规律性”。因此,工厂中流水线的机械臂、家庭中的自动洗衣机等皆难以归属于人工智能之列。

其二,低级自动化的“自主性”远低于人工智能的“自主性”。虽然低级自动化依赖程式设置可以实现无人运行,但是相关数据、参数等仍需人工输入。而人工智能基于对人类智能的模仿,可以自动感知、抓取并应用环境信息。例如需要使用者输入密码的取款机是低级自动化,而支持“刷脸”取款的取款机至少可以在“图像识别”这点上称之为人工智能的应用。从此角度而言,有学者指出,“通过ATM机实施侵财犯罪”以及“机器能否被骗”等研究是泛人工智能化的突出表现。刘艳红:《人工智能法学研究的反智化批判》,2019年。我们认为,上述指责似乎不够精确,因为自动取款机的不同类型,决定了其是否是人工智能的归属,而通过“刷脸”取款的取款机实施侵财则是人工智能法律风险必须要面对的重大课题。

2.人工智能法律风险应对保持适度积极主义

国内对上述人工智能时代权利与责任归属的法律问题应对早有关注并不乏深入研究。总结起来,大致有两种立场。第一种是保守主义,认为法律对于人工智能发展应当适当保守,否则会影响人工智能技术的发展第二种立场为积极主义,对于人工智能可能出现的技术风险法律需要积极干预,特别是刑法学界出现了积极干预的观点和呼声。

通过对国外学者观点的审视,我们主张人工智能法律风险之应对应采取适度积极的立场。法律必须面对现实的具体问题,甚至需要有适度的前瞻性。具体而言,首先在人工智能“作品”的知识产权归属上,显然消极不干预肯定是无法接受的。在人工智能快速发展的时代,我国知识产权法律体系面临的挑战与域外国家并无差异。我国也面临着如何解决人工智能“作品”的可知识产权化、人工智能可权利主体化的问题。在世界各国都在探索构建符合人工智能时代的知识产权法律体系时,如果我国的知识产权法律仍裹足不前,那么无疑将在世界知识产权竞争中落于下风。然而应对人工智能的挑战并不意味着要对我国现有知识产权制度进行颠覆性变革。考虑到人工智能在我国实现权利主体化存在较大难度,当下较为现实的风险应对路径是对人工智能“作品”进行可知识产权化操作,进而将“作品”权利根据现有规则合理分配。

其次,在人工智能安全风险的责任归属上,以自动驾驶汽车为代表的人工智能产品在社会生产生活中的广泛应用给社会安全带来了巨大的潜在风险。法律如果忽视该风险,怠于解决新型风险造成的责任问题,那么这种法律对人工智能的“宽容”实际上就是对戕害法益行为的“纵容”,并终将对人工智能的发展产生负面影响。因此,需要以积极干预的立场实现人工智能安全风险的责任归属。以自动驾驶汽车的责任归属为例,我们认为对自动驾驶汽车造成的法益侵害,应当以现阶段人工智能的法律定位为基础,以自动驾驶汽车的分级为指引,正确认定人、车对事故发生的支配力,最终决定合理的归责原则。申言之,在解决责任问题时不急于讨论自动驾驶汽车的法律人格问题,而是根据技术分级制度,通过适用过错责任或严格责任,将事故责任合理分配给驾驶人或者“自动驾驶系统掌控者”。

“大道之行也,天下为公”,党的十九届四中全会开辟新时代法治新篇章,对我国的国家制度和国家治理体系进行了系统性全面总结,对进一步提升法治的效能奠定了制度保障。人工智能时代权利与责任归属等法律问题之“中国之治”,一方面需要对自己的治理经验进行系统总结,为人工智能技术的长足发展提供坚实制度保障。另一方面,也需要在人类命运共同体的大框架下,不断与其他国家治理经验交流互鉴,构建“美美与共”的大同世界。


作者信息

郭泽强,1975年生,中南财经政法大学刑事司法学院教授,中南检察研究院执行院长,司法鉴定技术应用与社会治理学科创智引智基地研究员。

来源

文章原载:人工智能时代权利与责任归属的域外经验与启示,《国外社会科学》2020年第5期。

因文章篇幅原因略去注释。

推荐阅读

孙会岩等 I 人工智能时代的西方政党政治:机遇、发展与困境

鲁传颖:网络空间大国关系演进与战略稳定机制构建


国外社会科学

长按二维码

关注我们

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存