13910160652
010-52852558
| |EN
首页 > 互联网 > 人工智能
  • 13910160652
  • ciplawyer@163.com

生成式人工智能服务提供者侵权过错的认定

日期:2024-08-14 来源:华政法学 作者:徐伟 上海政法学院 浏览量:
字号:

目次


一、生成式人工智能服务提供者侵权过错的认定路径

(一)生成式人工智能服务提供者侵权的各种情形

(二)注意义务作为生成式人工智能服务提供者侵权过错认定的方式

二、生成式人工智能服务提供者注意义务的来源

三、生成式人工智能服务提供者注意义务的内容

(一)生成式人工智能服务提供者的审查义务

(二)保护性规范中的注意义务

(三)生成式人工智能服务提供者采取的必要措施义务

四、生成式人工智能服务提供者注意义务的违反

(一)注意义务违反的判断

(二)违反保护性规范可推定过错成立

五、结语



内容摘要:生成式人工智能服务提供者侵权过错的认定应采注意义务路径,而非以“知道”和“应当知道”为核心概念。服务提供者注意义务的来源有二,即“法令上义务”和“一般防范损害发生之义务”,而“危险之先行行为”无法作为生成阶段的义务来源。我国现行法中涉服务提供者的保护性规范提供了丰富的注意义务内容。服务提供者注意义务的内容不应包含一般审查义务,也不必强调特殊审查义务,后者已内嵌于法律对算法的评价之中。服务提供者注意义务违反的判断主要取决于法律政策而非客观技术水平,主要的考量因素是防范措施的成本,且须将行为危害性、损害发生概率和行为效益纳入考量范围。在个案纠纷落入保护性规范所保护的“人的范围”和“物的范围”的前提下,违反保护性规范的可推定服务提供者存在过错。


关键词:生成式人工智能 ChatGPT 过错 注意义务 保护性规范


生成式人工智能的广泛应用在带来深刻社会变革的同时,也引发了新的侵权现象及相关诉讼。如何认定生成式人工智能服务提供者的侵权责任已成为当前亟待回答的难题。有学者认为,生成式人工智能为法律带来的最大挑战是潜在的侵权风险,基于对人工智能产业发展的考虑,生成式人工智能侵权仍应采过错责任原则,仅在涉及侵害个人信息权时采过错推定责任原则。如何认定服务提供者的“过错”便成为生成式人工智能侵权中的关键问题之一。本文尝试对生成式人工智能服务提供者过错认定中面临的难题及其解决途径加以探讨,以便为相关纠纷的解决提供理论支撑。


一、生成式人工智能服务提供者侵权过错的认定路径


生成式人工智能服务提供者侵权情形多种多样,不同情形中的侵权认定规则有所不同,故有必要区分各情形分别展开探讨。


1.生成式人工智能服务提供者侵权的各种情形


第一,根据侵权发生的阶段,可分为训练阶段、生成阶段和移除阶段。训练阶段涉及生成式人工智能服务提供者将受著作权、个人信息权等保护的内容用于训练人工智能而潜在地侵害著作权、个人信息权等纠纷。因训练人工智能的内容是由服务提供者自行人为决定,故此类侵权与传统的著作权、个人信息权侵权无异,对服务提供者过错的认定并不会因人工智能因素的加入而受影响。生成阶段是指服务提供者在回复生成式人工智能使用者(以下简称“使用者”)时,给出了对他人利益造成损害的内容,例如虚假、侮辱性内容等(以下统称为“致害内容”)。生成式人工智能的技术特征之一是生成何种内容的难以预见性,生成的内容因人而异、因时而异、因问而异,这为生成阶段服务提供者的过错认定带来了挑战。对“难以预见”的生成式人工智能服务提供者如何认定过错有待学理阐释。移除阶段是指服务提供者在知道或者应当知道致害内容生成后,应采取避免致害内容再次生成等必要措施。这是传统网络侵权中的通知移除规则在生成式人工智能场景中的适用。若服务提供者已经知道致害内容生成(多发生于受害人通知服务提供者的场合),且在技术层面有能力采取避免致害内容再次生成等措施却未采取相应的措施,则服务提供者存在过错。本文对服务提供者过错认定的分析以生成阶段为主,兼及移除阶段。


第二,生成阶段可进一步细分为使用者合法行为促发致害内容的生成和使用者(含第三人)诱导行为促发致害内容的生成。前者例如使用者要求 ChatGPT 提供法学院教授性骚扰的例子及相关报道来源。ChatGPT 回复称特利曾在一次去阿拉斯加的班级旅行中发表了性暗示言论,并试图触摸一名学生,且援引了《华盛顿邮报》的一篇文章作为信息来源。但这篇文章并不存在,特利也从未被指控性骚扰。后者例如一种“越狱”技巧允许使用者通过创建一个名为 DAN 的 ChatGPT 的另一个自我(Alter Ego)规避算法规则,该自我可以回答一些原来不被算法允许的问题,例如支持暴力和歧视的内容。前者是最纯粹、最典型的生成式人工智能服务提供者侵权情形。在后者,服务提供者是否构成过错取决于其是否履行了避免被使用者诱导生成致害内容的义务。本文以前者为典型纠纷情形展开讨论。


第三,以受侵害的权利类型为标准,生成式人工智能侵权还可分为对著作权等知识产权、名誉权等传统人格权的侵权,以及对个人信息权的侵权等。侵害知识产权和传统人格权适用过错责任原则,侵害个人信息权适用过错推定责任原则。虽然过错责任和过错推定责任采相同的过错认定理论,但鉴于我国在个人信息保护领域对信息处理者规定了一系列专门的义务,且过错推定纠纷的争议焦点和理论重点在于厘清行为人的减责和免责事由,而非过错认定,故本文对过错认定的分析以侵害知识产权和名誉权等传统人格权为主,相关结论对侵害个人信息权亦有参考价值。


2.注意义务作为生成式人工智能服务提供者侵权过错认定的方式


对生成式人工智能服务提供者侵权过错的认定,首先需明确过错认定的方式。侵权责任构成中的过错要件包含故意和过失两类。在生成阶段,服务提供者一般不会主动追求致害内容的生成,且受害人举证证明服务提供者故意往往非常困难,故对服务提供者过错的认定主要通过“过失”。在移除阶段,若服务提供者在知道致害内容生成后未采取必要措施,则构成“故意”。其中,故意的判断并无理论障碍(尽管有实践举证难题),主要的难题在于过失的判断。关于过失的判断主要有三种方式。其一,过失是对注意义务的违反,故判断过失的关键是厘清行为人的注意义务。其二,过失是未尽 “理性人”的注意义务,故关键是厘清何为理性之人。其三,过失是能够预见自己行为可能造成损害却未加以避免,故过失判断的关键是行为人能否预见。总体而言,我国相关理论和实践多采注意义务说。故本文以注意义务为认定过错的核心概念。


我国网络侵权中另一种常见的判断网络服务提供者存在过错的标准是“知道”和“应当知道”(为简化表述,以下统称为“知道”)。这主要是基于《民法典》第 1195 条和第 1197 条(原《侵权责任法》第 36 条),并在理论和司法裁判中被普遍采纳。尽管在网络侵权案件中常以“知道”认定过错,但在生成式人工智能服务提供者过错的认定中不宜采“知道”标准,理由如下。首先,“知道”与生成式人工智能的技术特征不符。生成式人工智能与传统网络服务的重要差别是前者具有一定程度的“自主性”,服务提供者往往难以预见致害内容的生成,甚至难以解释为何该内容会生成。因此,在传统网络侵权中,因网络服务提供者客观上有机会且有能力知道侵权内容,故通过网络服务提供者是否“知道”侵权内容判断是否存在过错有其合理性。但在生成式人工智能侵权中,要求服务提供者“知道”侵权内容与客观事实相悖。其次,以“知道”认定过错,考量因素过于单一,无法满足生成式人工智能侵权过错认定的复杂需求。虽然在判断“知道”与否时,会将服务性质、方式、管理信息的能力等因素纳入考量,但这些因素都仅聚焦于服务提供者能否“知道”侵权内容。而在生成式人工智能场景中,服务提供者“知道”不再是认定过错的标准,如何通过义务的设置尽可能降低致害内容的生成概率才是关键所在。最后,相较于历史悠久、理论积淀丰富的注意义务理论,网络侵权“知道”规则的理论积累有限。注意义务的理论张力有助于更好地应对生成式人工智能侵权这一有别于传统网络侵权的新社会现象。


从注意义务角度认定过错,有两种思考进路。一是区分注意义务的存在和注意义务的违反,前者探讨行为人是否负有注意义务问题;后者探讨行为人是否履行了注意义务问题。而注意义务的存在又可细分为注意义务的来源和注意义务的内容。前者旨在正当化行为人的注意义务;后者旨在给出注意义务的具体要求。二是将行为人负有不得侵害他人权益作为默认的一般性义务,故不再关注注意义务的存在,仅探讨注意义务的违反。鉴于对传统侵权中行为人是否负有注意义务常已形成稳定认识,故略过注意义务的存在往往无妨。但在生成式人工智能侵权中,服务提供者是否负有注意义务本身便有待探讨。区分注意义务的存在和违反有利于对此作出更细致的分析。


二、生成式人工智能服务提供者注意义务的来源


侵权法中注意义务的来源主要包括从事一定营业者的义务、专门职业人员的义务、契约上义务、危险之先行行为引发的义务、法令上义务、一般防范损害发生之义务(主要适用于陌生人之间)等。其中,“从事一定营业者的义务”适用于使用该营业设施或服务的大众;“专门职业人员的义务”适用于与专门职业人员有合同关系的相对人或与相对人关联的第三人“;契约上义务”适用于存在合同关系的主体间,此三者在生成式人工智能侵权场景中并不适用,因为服务提供者是对不特定的第三人(尽管也包括其服务使用者)造成损害。故可能的义务来源是危险之先行行为引发的义务、法令上义务和一般防范损害发生之义务。


第一,“危险之先行行为引发的义务”在移除阶段可作为义务来源,但在生成阶段无法作为义务来源。危险之先行行为主要适用于不作为侵权,故能否适用取决于生成式人工智能侵权是作为侵权抑或不作为侵权。在移除阶段,服务提供者知道侵权后有义务采取必要措施却未采取,导致损害扩大,系典型的不作为侵权,故危险之先行行为引发的义务可作为注意义务的来源。在生成阶段,一方面,生成的内容是服务提供者主动提供(尽管是基于算法等自动生成),这类似于传统的网络内容提供者主动将自行创作的内容上传,故其应定性为“作为”行为。另一方面,服务提供者在生成内容方面负有诸多义务,例如确保数据来源和基础模型的合法性等义务,若服务提供者未能履行这些义务导致致害内容的生成,则其似应定性为未履行相关义务的“不作为”侵权。基于侵权法原理,作为与不作为的区分,应以被告行为是否已经对原告的利益发生不利影响作为判断标准。生成式人工智能服务提供者未履行数据来源合法性等义务并不会直接导致致害内容的生成,只有“生成”内容的行为才会导致损害的发生。故生成式人工智能致害中的加害行为是生成内容行为这一“作为”行为。至于未履行数据来源合法性等义务,应作为生成行为过错与否的考量因素。因此,“危险之先行行为引发的义务”无法作为生成阶段服务提供者注意义务的来源。


第二,“法令上义务”可作为义务来源。法令上义务是指“立法者基于特定情事,就当事人间之特定关系考查,认为有课予行为人作为或不作为义务之必要,以避免特定危险发生,因而形成行为人对于特定人之注意义务”。首先,就法令范围而言,此处的法律不仅包括专门针对生成式人工智能的规范,例如《生成式人工智能服务管理暂行办法》(以下简称《生成式人工智能办法》),也包括可能适用于生成式人工智能的一般性规范,例如《民法典》《个人信息保护法》《互联网信息服务算法推荐管理规定》等。因生成式人工智能服务是新出现的服务类型,传统一般性规范对其应否适用需逐一加以检视。其次,并非所有法律、法规中的义务性规范都能成为引发侵权责任的来源。对《生成式人工智能办法》等公法上规范的违反如欲发生私法上侵权责任的法律后果,该公法义务须同时具有保护私主体权益的规范目的。据此,法令上义务可作为生成式人工智能服务提供者注意义务的来源,但以该义务具有保护私主体权益的规范目的为限。


第三,“一般防范损害发生之义务”可作为义务来源。法令上义务虽可在一定条件下成为服务提供者注意义务的来源,但法令规定的义务毕竟有限,且技术和商业实践发展迅速导致法令规定的义务常常出现滞后性而不敷使用。同时,“保护性规范的要求在很多时候只是对行为人的注意义务和注意程度的最基本要求,这种规范注重的是要求的客观性、统一性和易实施性。因此,只要行为人违反了保护性规范,当然就可以认定其存在过失。反过来,即便行为人遵守了保护性规范,这也不能证明其完全没有过失,行为人还必须证明自己已经尽到了合理谨慎的人在特定情形下所应尽到的注意义务”。故课以服务提供者“一般防范损害发生之义务”仍有必要。一般认为,对于消极不作为侵权,行为人原则上不负有积极作为的义务;对于积极作为侵权,行为人原则上有避免损害发生的义务。在生成式人工智能致害中,移除阶段服务提供者的加害行为是“不作为”,故除了现行法明确规定的义务外,服务提供者一般不负有作为义务。在生成阶段,服务提供者的加害行为是“作为”,故服务提供者应负有一定的防范损害发生的义务。


在生成阶段服务提供者难以预见具体致害内容的情况下,服务提供者防范损害发生的义务何以可能?对此,唯有将概括预见能力作为判断服务提供者注意义务的标准,方能实现理论上的解释。详言之,注意义务包括行为上的注意义务和结果上的注意义务,前者评价的是(违法)行为,后者评价的是行为导致的损害结果。行为人是否尽到了结果上的注意义务,以可预见的明确程度为准,可分为具体预见能力和概括预见能力。前者是指行为人在行为时能够明确预见行为的损害对象、损害类型和损害程度,后者是指行为时无法明确预见损害对象等,只能预见行为具有不特定之危险性。为了避免对行为自由造成过度的限制,侵权法原则上不以概括预见能力为由对行为人课以注意义务。在生成式人工智能侵权中,服务提供者不具有具体预见能力,仅具有概括预见能力,因为就技术原理而言,人工智能“犯错”而生成致害内容是必然现象。因此,对服务提供者课以注意义务须证成以概括预见能力判断注意义务的合理性。


以概括预见能力判断注意义务在侵权法上虽属例外,但在生成式人工智能场景中有其合理性。这也是生成式人工智能侵权与传统网络侵权的重要差别。在传统网络侵权中,法院大多仅在网络服务提供者具有具体预见能力时才课以侵权责任,服务提供者仅具有概括预见能力则无须承担责任。这主要通过对“知道”的解释来实现,即“知道”不包括“概括知道”。例如,法院在“三角牌电器案”中指出,被告平台“即便概括知道平台可能存在大量侵权信息,也不能苛责平台甄别每一件商品并下架侵权产品”。类似地,在“Tiffany 案”中,美国法院认为:“概括知道不足以构成 eBay 对任何或所有侵权行为知道要件的满足。权利人 Tiffany 的要求函、测试性购买以及侵权通知书仅导致 eBay 对侵权产生了概括知道,这并不足以导致 eBay 产生采取措施的义务。”之所以否定概括知道,是为了促进互联网产业的发展,避免其对平台内容承担过重的审查负担。但在生成式人工智能侵权中,这一选择应予改变,理由在于以下两个方面。一方面,在传统网络侵权中,除了服务提供者外,受害人还可以向直接上传侵权内容的网络用户主张权利。而在生成式人工智能侵权中,若受害人无法从服务提供者处获得救济,将无从获得救济,故在生成式人工智能场景中须给予受害人更多的倾斜性保护。另一方面,以概括预见能力为由课以注意义务,在传统网络侵权中往往会大大增加网络服务提供者的成本负担,因为网络服务提供者加强审查的主要方式是人工审查。而在生成式人工智能场景中,其“天然”采取的是没有人工参与的“自动”生成方式,概括预见能力的纳入并不会对服务提供者带来更大的经营负担(虽然会增加责任负担)。因此,概括预见能力在生成式人工智能场景中对服务提供者影响有限,同时强化了对受害人的救济,具有合理性。


三、生成式人工智能服务提供者注意义务的内容


生成式人工智能服务提供者负有哪些具体的注意义务?鉴于现行民事立法尚未对生成式人工智能的义务作出专门规定,服务提供者注意义务的内容可从三方面考虑:一是传统网络侵权中的审查义务,包括一般审查义务和特殊审查义务,该义务主要存在于生成阶段;二是对侵权过错认定有影响的公法上的义务,即“保护性规范”;三是采取必要措施义务,包括可以直接避免损害扩大的措施和转通知等其他措施,该义务存在于移除阶段。


1.生成式人工智能服务提供者的审查义务


在传统网络侵权中,网络服务提供者的注意义务主要涉及一般审查义务、特殊审查义务和采取必要措施义务。一般审查义务要求网络服务提供者普遍审查其网站上的内容。特殊审查义务是指网络服务提供者在特定情形中应承担的审查义务。


1. 生成式人工智能服务提供者不负有一般审查义务


网络服务提供者是否负有一般审查义务,与网络服务提供者类型相关。我国法上的网络服务提供者类型包括网络内容服务提供者、自动接入传输服务提供者、自动存储服务提供者、搜索链接服务提供者、存储空间服务提供者等。其中,网络内容服务提供者自行提供内容,故其对内容负有一般审查义务。自动接入传输服务提供者、自动存储服务提供者、搜索链接服务提供者和存储空间服务提供者不负有一般审查义务,理由在于网络中用户上传的内容海量,服务提供者的审查成本高昂。生成式人工智能服务提供者虽在形式上与网络内容服务提供者相似(自行向使用者提供内容),但实质上并不相同,因为其对生成何种内容的控制力不足,而控制力正是决定侵权规则的关键因素,故其不宜被定性为网络内容服务提供者。生成式人工智能服务提供者无法被归入搜索链接服务提供者或存储空间服务提供者,因为其提供的服务内容显然并非搜索链接服务或存储空间服务。因此,生成式人工智能服务提供者应作为一类新型、独立的网络服务提供者。是否负有一般审查义务,需结合其自动生成内容的技术特征展开分析。对此,可资借鉴的经验主要是搜索引擎在自动生成内容时的审查义务。


关于搜索引擎对自动生成内容是否负有审查义务,比较法上存在分歧。在意大利“谷歌案”中,原告通过谷歌平台检索其名字时,自动补足的内容是“欺诈”和“骗子”。谷歌主张其应受到避风港规则的保护,但法院并未支持该主张,而是要求其移除该内容。与此类似,在我国香港特别行政区“谷歌案”中,法院认为,谷歌在诽谤检索词出现的过程中存在“积极促进或有意帮助”。但在美国,似并无法院判决谷歌应就搜索引擎自动生成内容承担侵权责任的案例,尽管也有学者主张应基于“责归于上”的理念要求服务提供者对其自动生成的内容承担责任。我国既有判决大多认为搜索引擎服务提供者对自动生成的内容不负有审查义务。例如在“任甲玉案”中,在百度搜索引擎中输入“任甲玉”,在页面“相关搜索”处显示有“陶氏教育任甲玉”等。法院认为,任甲玉与陶氏教育机构同时出现是对特定时间内网络用户所使用检索词客观情况的反映,故百度公司对“陶氏教育任甲玉”等词的出现并不存在主观过错。否定网络服务提供者的一般审查义务是我国法长期以来的选择,例如,《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(法释〔2012〕20号,2020 年修正,以下简称《信息网络传播权规定》)第 8 条第 2 款规定,“网络服务提供者未对网络用户侵害信息网络传播权的行为主动进行审查的,人民法院不应据此认定其具有过错”。因此,在生成式人工智能场景中可采与搜索引擎自动生成内容类似的规则,即服务提供者不负一般审查义务。


2. 特殊审查义务宜纳入注意义务


特殊审查义务意味着网络服务提供者在特定情况下须承担更高的注意义务,这大多发生于网络服务提供者“应当知道”的情形。从我国现行法和司法裁判来看,引发特殊审查义务(应当知道)的因素主要包括内容类型(例如作品类型)、社会影响程度(例如知名度、一定时间内的浏览量)、侵权信息的明显程度(例如置于首页等能够被明显感知的位置)、主动进行了编辑、从内容中直接获得经济利益、同一用户存在重复侵权行为。可见,既有的这些特殊审查义务情形多数是以“人工审查”为预设事实。无论是社会影响程度,还是内容被置于首页等能够被明显感知的位置,抑或是主动进行了编辑等,之所以会引发特殊审查义务,背后的逻辑都是这些特殊因素会导致网络服务提供者更容易注意相关内容。而生成式人工智能在技术上采自动生成,不存在人工审查这一事实。详言之,在生成内容之前,并不存在人工审查阶段;在生成内容之后,因内容是提供给提问的特定使用者,而非提供给不特定使用者,故也不存在社会影响程度、能被明显感知位置或人为主动编辑等情形。关于“内容类型”,单纯的该因素并不会直接导致网络服务提供者被认定为应当知道,而是须结合其他因素共同作为认定应当知道的因素。所谓“同一用户重复侵权”在生成式人工智能场景中并不存在,因为内容是由服务提供者自行提供。而“直接获得经济利益”以内容与经济利益之间存在“特定联系”为限(例如针对特定内容投放广告获取收益),网络服务提供者因提供网络服务而收取一般性广告费、服务费等不属于直接获得经济利益(《信息网络传播权规定》第 12 条)。据此,若生成式人工智能服务提供者只是一般性收取会员费等服务费,不会因此承担更高的注意义务。综上,现行法上引发特殊审查义务的因素大多在生成式人工智能场景中难以适用。


我国现行法列举的特殊审查义务引发因素为不完全列举,随着商业实践的发展和司法经验的积累,能引发特殊审查义务的因素会日益增加。目前逐渐出现的一种特殊审查义务是要求网络服务提供者采取技术措施对某些内容普遍进行审查,典型例证是版权过滤技术。因视频指纹识别技术、关键帧识别、图像内容分析等版权过滤技术的成熟和普及,产业界已能够在技术层面普遍采用版权过滤技术。有学者据此主张网络服务提供者应当负有采取版权过滤技术的义务。生成式人工智能服务提供者是否应负有类似的采取某种技术避免生成致害内容的义务,取决于在生成式人工智能领域是否存在相应的技术。在技术层面,生成式人工智能生成何种内容取决于算法、算力、数据集(算法所使用的数据)和使用者(人机交互),这意味着所谓“审查”系内嵌于算法中,没有必要将生成技术和审查技术人为区分开来,这与传统网络服务之外存在一个独立的审查技术并不相同。换言之,在生成式人工智能场合,所谓“审查技术”其实已经是算法的内在组成部分之一,故没有必要在法律上对两者分别作出要求和评价,即没有必要强调“特殊审查义务”。


综上,鉴于生成式人工智能技术与传统网络服务技术的差异,在生成式人工智能场景中没有必要强调审查义务,更可取的思路是直接从生成式人工智能的算法技术角度考虑注意义务。换言之,生成式人工智能服务提供者是否因算法的使用而负有较之传统网络服务提供者更高的注意义务。对此,我国学界多持肯定意见。例如有学者主张,算法推荐服务提供者在特定条件下应负有超过“通知删除”规则的更高的注意义务。因此,问题的关键是,在生成式人工智能侵权中该如何判断服务提供者所应承担的“更高”注意义务。对此,除了基于注意义务的一般原理给出判断注意义务的影响因素外,既有保护性规范中对生成式人工智能的义务性要求是判断服务提供者注意义务的另一重要途径。


2.保护性规范中的注意义务


面对日趋复杂的现代技术,国家形成了日趋严密的管制规范体系,并对私法产生了诸多影响。《生成式人工智能办法》集中对生成式人工智能服务提供者的义务作出了规范,但并未涉及侵权责任。类似地,比较法上的一个明显现象是,在人工智能等新兴技术领域,对服务提供者的规制“重公法义务而回避私法责任”。无论是欧盟《人工智能法》(Artificial Intelligence Act)还是美国《人工智能权利法案》(AI Bill of Rights,该法案不具有强制约束力)等,都仅对服务提供者的公法义务作出了一系列要求,但欠缺私法责任方面的规定。在此背景下,分辨出公法义务中对服务提供者侵权过错认定有意义的“保护性规范”,便成为认定服务提供者过错的重要途径。


关于如何识别保护性规范,我国立法和司法裁判尚未有成熟的规则。在德国法上,保护性规范必须是明确的或已通过具体行政行为具体化的强制规范或禁止规范。前者是指规定了明确、具体的行为,后者是指虽仅规定了抽象的行为义务,但此抽象行为义务已通过具体行政行为具体化了。同时,该种规范必须以保护个人或特定范围之人为目的,而不能仅以保护国家公共利益或公众为目的,最终目标是“从整个责任法的角度考虑,赋予被告以损害赔偿请求权是否有意义、合理并且可以接受”。美国《侵权法重述(第二次)》第286 条则规定:“可作为理性人行为标准的制定法或行政法规的条件是,该种规范的唯一或部分规范目的是:(a)利益被侵害的主体属于规范所欲保护的主体范围;(b)被侵害的是规范所欲保护的特定利益;(c)保护该利益免受此种损害;(d)保护该利益免受特定危害。”基于上述比较法例,判断保护性规范的关键有二:一是须有明确、具体的行为要求,而非仅是抽象行为义务;二是规范目的是为了保护个人权益(包括规范目的在保护公众利益的同时也保护个人权益)。据此,对涉生成式人工智能的保护性规范说明如下。


第一,单纯的抽象行为义务(包括针对损害后果的结果避免义务)无法作为保护性规范。例如,服务提供者应当在其服务过程中提供安全、稳定、持续的服务,不得生成虚假、有害信息,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益(《生成式人工智能办法》第 4、13 条)。若将这些抽象行为义务作为认定服务提供者过错的依据,则无异于要求服务提供者承担结果责任。

第二,旨在保护使用者的规范,并非本文所论据以认定服务提供者过错的保护性规范。对使用者权益的保护是人工智能立法的重点之一,美国《2022 年算法问责法案》(Algorithmic Accountability Act of 2022)便以此为核心。此类义务的典型是向用户提供必要信息的透明度要求,例如欧盟《人工智能法》第 13 条规定的便是“透明度和向用户提供信息”。我国法要求服务提供者明确并公开其服务的适用人群、场合、用途,指导使用者科学、理性地认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务,服务提供者对使用者输入的信息和使用记录的处理受到限制(《生成式人工智能办法》第 10 条、第 11 条第 1 款),这些内容均属此类义务。但因致害内容遭受侵害的是与内容相关的第三人,而非使用者,故与使用者相关的义务性规范无法作为保护性规范。


第三,虽是具体性义务,但规范目的不含保护个人权益的规范,也非保护性规范。此类义务多为服务提供者应向政府部门履行的义务,例如,配合有关主管部门开展监督检查、向有关主管部门报告违法活动和违法内容(《生成式人工智能办法》第 19 条第 1 款、第 14 条),以及算法备案义务(《互联网信息服务算法推荐管理规定》第 24 条第 1 款、欧盟《人工智能法》第 11 条第 2 款)。此类义务系纯粹的公法义务。


第四,具有保护个人权益的目的且针对具体性义务的规范可作为保护性规范。而对规范目的的探究须结合文义、体系、历史等法律解释方法作出综合判断。据此,《生成式人工智能办法》规定的保护性规范主要有两类。一是对生成何种内容有直接影响的义务,这主要体现为使用具有合法来源的数据和基础模型(第 7 条第 1 项)、制定符合该办法要求的清晰、具体、可操作的标注规则(第 8 条)。前者是对数据集的要求,后者是对算法的要求,而人工智能生成何种内容与数据集和算法密切相关。二是对避免或减轻损害后果有直接影响的义务,这主要体现为对图片、视频等生成内容进行标识(第 12 条),发现违法内容时及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并对利用服务从事违法活动者采取警示、限制功能、暂停或终止提供服务等措施(第 14 条)。上述两类义务有助于对服务提供者过错的认定,但难谓全面和细致。欧盟《人工智能法》对此作了更细致的规定,其第 3 编第 2 章对“高风险人工智能系统的要求”予以专章规定,包括风险管理系统、数据和数据管理、技术文件、记录保存、透明度和向用户提供信息、人类监督、稳健准确和安全性七个方面。其中,风险管理系统、数据和数据管理、人类监督、稳健准确和安全性都与人工智能生成何种内容相关,这些项下的部分义务也可能对过错认定产生影响。例如,“风险管理系统”部分要求“估计和评估高风险人工智能系统在按照设计目的使用时,在可合理预见的滥用情况下可能出现的风险”。同时,欧盟《人工智能法》还在第八 A 编“通用目的人工智能”部分对通用人工智能模型及模型提供者的义务作了专门规定。欧盟法上的这些细致规定可资借鉴。


3.生成式人工智能服务提供者采取的必要措施义务


生成式人工智能服务提供者采取必要措施的义务存在于移除阶段,主要涉及两方面问题:一是必要措施义务何时产生;二是必要措施义务具体何指。


权利人向服务提供者发送合格通知是引发必要措施义务的主要事由。根据《民法典》第 1195 条和第 1197 条,必要措施义务产生于网络服务提供者知道(含应当知道)侵权时。在生成式人工智能移除阶段,引发服务提供者“知道”的情形主要是权利人向其发送了合格的“通知”,而非“应当知道”。因为若服务提供者“应当知道”侵权存在,且能够通过技术措施避免致害内容生成,则一般而言其在生成阶段便应采取该技术措施。相应地,采取该技术措施应纳入生成阶段的注意义务内容中,而非置于移除阶段。


当必要措施义务是因通知而引发时,首先须厘清的问题是,通知规则能否适用于生成式人工智能场景。学界对此存在分歧。一是认为可以直接适用,理由在于“反对适用避风港规则实际上是将其作为一种直接侵权,一旦虚假信息构成诽谤等,人工智能产品的服务提供者就要承担侵权责任,这显然对其过于严苛”。二是认为不应适用,因为美国 1996 年“《正当通信法》(Communications Decency Act)第 230 条系为了保护第三方提供内容时的服务提供者,并不保护参与内容提供的服务提供者。ChatGPT 发挥的功能并非是第三方提供内容时的中介,而是自行提供内容”。三是认为虽然无法直接适用通知规则,但应当类推适用,因为“AI 生成的侵权信息并非由‘网络用户利用网络服务实施侵权行为’,而是 AI 自己生成的,因此在构成要件上不满足《民法典》第 1195 条所规定的通知删除规则”。但“由于 AI 服务提供者难以对 AI 生成的信息进行实时审查,且根据用户的通知进行删除成本较低”,故应类推适用通知规则。


通知规则能否适用于生成式人工智能场景,主要取决于对通知规则的定性,即将其定性为归责条款抑或免责条款。上述三种观点虽存在分歧,但都将通知规则定性为免责条款作为论述的前提,即服务提供者对通知前的损害不承担侵权责任。然而,这一定性与我国法上的网络服务提供者侵权采过错责任原则相冲突,应将通知规则定性为归责条款,即通知是用于判断服务提供者过错的方式之一。据此,通知规则的适用主要取决于服务提供者能否对侵权内容采取有效措施,而与通知前服务提供者应否承担侵权责任无关,也与侵权内容是否由用户上传无关。故生成式人工智能场景仍可直接适用通知规则。


服务提供者在收到合格通知后应采取何种必要措施主要取决于相关措施的技术可能性。在我国法上,服务提供者采取的必要措施可分为四类:一是删除、屏蔽、断开链接等可以直接避免损害扩大的措施;二是转通知等发挥警示功能的措施;三是冻结账户、提供保证金等发挥“担保”功能的措施;四是针对故意、多次侵权者采取的终止交易和服务等停止为侵权者提供服务的措施。基于生成式人工智能的技术特征,担保类措施难以适用,故服务提供者应采取的必要措施主要有三类:一是停止致害内容再次生成等可直接避免损害扩大的措施,例如服务提供者在发现违法内容时应采取停止生成、停止传输、消除等措施;二是向使用者提供内容可能不实的警示性措施,例如对涉嫌侵权的内容作出特别的标识以提醒使用者;三是对利用生成式人工智能服务实施侵权行为者予以限制的措施,例如服务提供者对使用者采取限制功能、暂停或者终止向其提供服务等措施。当然,对这些措施应达到何种程度仍需结合侵权的严重程度、服务提供者的技术条件等因素作出综合判断。


四、生成式人工智能服务提供者注意义务的违反


对生成式人工智能服务提供者过错的认定,除了须明确其注意义务内容外,还要明确违反注意义务的判断及其法律后果。


1.注意义务违反的判断


在生成阶段,生成式人工智能服务提供者负有“一般防范损害发生之义务”。基于该义务的过错“认定过程系将加害人具体的‘现实行为’,衡诸善良管理人在同一情况的‘当为行为’,若认定其有差距,即加害人的行为低于注意标准时,为有过失”。但这一过错认定思路在生成式人工智能场景中面临的主要难题是衡量基准不明。“当为行为”以善良管理人的注意义务为标准。这一标准传统上常以行业的通常水平作为重要考量因素。问题在于,生成式人工智能尚处于发展初期且技术迭代快速,以行业的通常水平恐怕难以把握。以 ChatGPT 为例,目前其生成的内容在行业中准确性最高,但其参数并非最多,若 ChatGPT 因生成致害内容而陷入诉讼,注意义务的违反是以 ChatGPT 本身的技术水平为准,还是以低于 ChatGPT 的技术水平为准(毕竟 ChatGPT 的技术水平处于行业领先地位)?若以低于 ChatGPT 的技术水平为准,便意味着在 ChatGPT 生成致害内容时都不会成立过错,这一结论不宜为法律所采。因此,对生成式人工智能服务提供者过错(尤其是过失)的认定,将更多地依赖于法律政策取向和价值选择,而非客观技术水平。


法律该如何决定生成式人工智能注意义务的高低?传统上判断注意义务违反的主要因素有四:一是行为危害性,所生侵害愈重,其注意程度应愈高;二是损害发生概率,概率越高,注意程度也越高;三是行为的效益,即行为能为相关主体或社会带来的效用,以及行为人为达成相关目的所采取行为的必要性;四是防范措施的成本,即为除去或减少危险采取预防措施或替代行为所需支付的费用或不便。这在人工智能领域同样适用。据此,生成式人工智能服务提供者注意义务违反的判断,具体包括如下四个因素。


第一,关于行为危害性。生成致害内容会造成受害人的名誉权、隐私权等人格权受到侵害。因人工智能可能生成诸多致害内容,故整体而言其造成的损害可能较大。但仅就单一致害内容和单一受害者而言,此种损害一般难谓严重,因为生成式人工智能服务采用人机交互模式,只有提问的使用者才能看到致害内容。若使用者将生成的内容发布于网络上,可能会造成致害内容广泛传播,但转发行为并非服务提供者生成行为必然会导致的结果,且服务提供者无法控制使用者是否转发,故法律不应将转发行为导致的损害后果完全作为生成行为后果的一部分。因此,与传统上在网络发布侵权内容相比,生成式人工智能场景中的损害后果一般难谓严重。


第二,关于损害发生概率。在生成阶段,损害发生概率应以致害内容发生次数除以所有生成内容发生次数,而不应以致害内容发生次数除以引发致害内容的提问(或类似提问)次数。因为对生成式人工智能服务的评价应是对该服务整体所作的评价。据此,生成式人工智能导致损害发生的概率较低,因为与不计其数的生成内容相比,生成致害内容的情形并不多。至于移除阶段,若服务提供者未采取措施避免致害内容再次生成,则致害内容再次生成的概率一般而言较高。


第三,关于行为效益。生成式人工智能的生成行为将对社会生活带来显著影响,大幅提升社会效率,是国家间前沿科技竞争的典型代表。故生成式人工智能服务的社会效益巨大。当然,在移除阶段,不采取措施放任致害内容再次生成并无效益可言。


第四,关于防范措施的成本。就技术而言,生成式人工智能服务提供者能在一定程度上避免致害内容的生成,例如通过标注等方式“教会”人工智能哪些是暴力、淫秽、侮辱性内容。同时,避免不同类型内容生成的难度也有所不同,例如避免暴力、色情等内容生成的难度相对小于一般性的不实内容,因为前者更容易判别。就一般性内容(尤其是事实性内容)而言,服务提供者很难完全避免不实内容的生成。服务提供者应承担的防范致害内容的成本既与技术能力相关,也与法律对不同权利保护程度的高低相关。


综上,从“当为行为”角度而言,行为危害性、损害发生概率和行为效益支持不宜在生成阶段对生成式人工智能服务提供者课以较高的注意义务,服务提供者最终应承担的注意义务的高低主要取决于防范措施成本的大小。可预见的是,服务提供者承担的注意义务会随着生成式人工智能技术的不断提升尤其是防范措施的日渐成熟而逐渐提高。至于移除阶段,服务提供者应承担比生成阶段更高的注意义务,因为此时损害发生概率更高且无行为效益。


2.违反保护性规范可推定过错成立


因生成式人工智能服务提供者一般防范损害发生之义务在判断上的模糊性,在实践中一般通过保护性规范之违反认定服务提供者的过错。违反某一保护性规范是否会导致服务提供者的过错成立,需结合个案具体判断,判断步骤如下。


第一,个案纠纷是否落入保护性规范所保护的“人的范围”和“物的范围”。如果服务提供者虽然违反了保护性规范,但并不属于该规范的保护范围,则不会产生违反该规范的法律后果。详言之,其一,受害人应属于被违反规范所意图保护的人的范围。《生成式人工智能办法》中所有旨在保护使用者的保护性规范,皆非本文所探讨的与致害内容相关的保护性规范。其二,受害人试图请求赔偿的法益须是被违反的规范所要保护的法益。例如,有关服务提供者不得收集非必要个人信息(《生成式人工智能办法》第 11 条第 1 款)的规范旨在保护个人信息权,故受害人在名誉权、隐私权等受到侵害时不得以该条作为判断过错的依据。


第二,对于违反保护性规范的法律后果,无论是理论界还是实务界都存在分歧。总结而言,主要有三种观点:其一,违反保护性规范即可直接认定为过错,即违法推定过失;其二,违反构成表见证明,可减轻受害人的举证责任;其三,违反仅作为过错的考量因素之一。第一种和第二种观点只是观察角度的不同,第一种系从实体法角度阐释,第二种系从诉讼法角度阐释,对受害人而言两者并无实质性差别。基于保护性规范的制度功能,通说认为其法律后果是“违法推定过失”,而非仅仅作为判断过失的考量因素。因此,若生成式人工智能服务提供者违反了《生成式人工智能办法》等规范性文件中的保护性规范,则可推定服务提供者存在过错。


第三,违反保护性规范所推定的过错,系指对违反保护性规范行为本身存在过错,还是包括对侵权损害后果的发生有过错?对这一问题的回答对生成式人工智能服务提供者的过错认定有直接的影响,因为通过保护性规范认定服务提供者的过错面临的一个解释难题是,即便服务提供者遵守保护性规范中的义务,基于算法黑箱导致生成内容难以预测等原因,致害内容仍可能生成,故服务提供者即便对违反保护性规范存在过错,也难谓对损害后果存在过错。这一问题与前述“在服务提供者难以预见具体致害内容的情况下,服务提供者防范损害发生的义务何以可能”之问题在本质上是同一问题,唯在不同理论脉络下其说理逻辑有所不同。在“一般注意义务”中,其可通过概括预见能力解决;在“保护性规范”中,其应通过淡化乃至不考虑服务提供者对损害后果是否有过错予以解决。


首先,关于违反保护性规范所推定的过错何指,比较法例不一,学说亦有分歧。分歧的主要原因之一是,能否预见损害结果的问题应置于过错要件还是因果关系要件中分析。德国法将其置于因果关系要件中分析。“德国通说认为违反保护性规范具有过错关联缩短的功能,此处的过错仅指行为人对违反保护性规范具有过错。”而且在德国法上,构成侵权“也要求存在责任成立的相当因果关系。如果一个具有驾驶执照的优秀驾驶员也不能阻止具体的侵害,则这种相当因果关系应当是不存在的”。在我国则有学者主张,这一问题应置于过错要件中考量。


其次,我国相关立法和司法传统采取的是过错关联缩短,同时在因果关系中淡化甚至不考虑预见问题。以医疗损害责任为例,根据《民法典》第 1219 条,医务人员在实施手术等治疗措施时,未尽到说明医疗风险等义务造成患者损害的,医疗机构应当承担赔偿责任。其实,未尽说明义务与患者损害之间在客观上并无必然关联,因为一般而言是否尽到说明义务不会影响医生做手术的谨慎程度。但我国法一直采取的是只要未尽说明义务便成立过错和因果关系的规则。尽管存在争议,我国法所采的这一规则亦有一定的合理性,因为“保护性规范具有特定的保护范围,保护性规范既已公布,则保护性规范所具有的保护范围亦已为人所知,则在违反保护性规范侵犯保护性规范所保护的权益时,仅推定就违反保护性规范本身存在过失而不能推定就权益侵害存在过失,就很难具有正当化的理由”。


最后,基于我国法的这一传统,生成式人工智能侵权中的损害难以预见便不应成为否定服务提供者过错的理由。只要违反了相关保护性规范,便可推定服务提供者的过错成立。


五、结 语


是否满足过错要件往往是侵权责任争议的焦点和认定的难点,生成式人工智能的技术特征进一步加剧了过错认定的困难。通过充分运用既有理论资源,生成式人工智能过错认定的难题仍可在一定程度上得到解决。当然,鉴于直接证明服务提供者的过错存在困难,未来司法实践将更多地依赖于以违反保护性规范为由证明其存在过错,以应对服务提供者过错认定上的模糊性,并缓解受害人的举证困难。就此而言,如何合理设置和解释“保护性规范”将对服务提供者侵权责任的认定产生明显影响。欧盟《人工智能法》对服务提供者义务的详细规范值得参考。此外,尽管“违法推定过失”可在一定程度上降低受害人的举证难度,但要求受害人证明服务提供者存在违法行为仍存在一定的困难。未来尤其是当生成式人工智能产业相对成熟和稳定时,是否有必要对生成式人工智能服务提供者侵权采过错推定责任原则乃至无过错责任原则,不无探讨的空间。