13910160652
010-52852558
| |EN
首页 > 实务探讨 > 学者 > 版权
  • 13910160652
  • ciplawyer@163.com

人工智能“执法”对版权公共领域的影响及应对

日期:2024-05-20 来源:《中国知识产权》杂志 作者:焦和平 西安交通大学 浏览量:
字号:

随着近年来人工智能技术的广泛应用,数字作品的版权保护越来越多地通过人工智能执行系统来实现。在这一新型自动化应用场景下,传统的“人工通知—人工处置”演变为“算法通知—算法处置”模式,即整个私人执法过程由智能算法自动完成,被称为“人工智能执法”。但是,“人工智能执法”在极大提高执法效率的同时,也引发了版权公共领域被不断侵蚀的危机。


随着近年来人工智能技术的广泛应用,数字作品的版权保护越来越多地通过人工智能执行系统来实现:通过基于人工智能的算法设计,可以自动完成发现侵权信息、提交侵权通知、处置侵权材料等工作,甚至可以利用自动过滤技术事先阻止涉嫌侵权信息上传至网络空间。在这一新型自动化应用场景下,传统的“人工通知—人工处置”演变为“算法通知—算法处置”模式,即整个私人执法过程由智能算法自动完成,被称为“人工智能执法”或者“算法私人执法”(本文语境下二者为同一含义)。但是,算法私人执法在极大提高执法效率的同时,也引发了版权公共领域被不断侵蚀的危机。


人工智能“执法”对版权公共领域的影响


压缩“个人使用”空间


在版权私人执法算法化背景下,侵权信息的发现、处置和过滤等环节全部由智能算法自动操作。这些操作通常采用“关键词匹配”方式来识别侵权信息,但此种识别方式不会考虑个人使用情形,结果往往造成大量的错误匹配和过度匹配,使得个人使用空间被极大压缩。根据英国娱乐行业研究机构MIDiA Research的调研报道,在YouTube平台的内容识别系统Content ID识别出的侵权内容中,只有2%构成实质侵权[1]。


例如,在韩某诉百度公司著作权侵权纠纷案中,百度公司承认,其反盗版过滤系统如果采用单一关键词搜索(仅列作者名或者作品名作为关键词)会导致误删,因而其采取“作者名+作品名”为屏蔽关键词。即使如此,法院仍认为后一种做法同样容易造成误删,因此不属于制止侵权的合理方式。


剥夺“适当引用”机会


在版权私人执法算法化的背景下,算法只关心监测对象与版权作品的内容是否有关联,而不会考虑此种关联是否属于适当引用。如此一来,“诸如戏仿、评论、同人制作、混剪视频、家庭庆典视频等音视频容易因背景音乐或画面的使用而被算法插标,遭到拦截,从而越来越难出现在中小网站上”[2],这使得由法律保障的、基于鼓励新作品创作目的的适当引用机会被剥夺。


例如,影评人BradJones在电影院看完一部电影后,在自己的汽车里与朋友讨论该部电影的观后感。随后,他将与朋友的上述对话视频上传到Youtube视频平台,却被Youtube的算法过滤系统监测为与电影相匹配,从而被作为涉嫌侵权信息阻止发布。然而,BradJones上传的视频中并没有出现电影的任何镜头或片段。此种情形为典型的剥夺社会公众以适当引用方式利用作品的权利,因为BradJones与朋友关于电影的评论,显然属于“为介绍、评论某一作品或者说明某一问题,在作品中适当引用他人已经发表的作品”的情形,符合“适当引用”合理使用类型的适用条件。


阻碍“科学研究”开展


在版权私人执法算法化背景下,算法只关心监测对象与版权作品是否有关联,而不会考虑此种关联是否属于合法正当的“科学研究”,使得为科学研究目的免费使用版权作品的机会经常被剥夺,最终妨碍科学研究的开展。


例如,美国国家航天航空局(NASA)将一个关于“好奇者”号探索火星的科普视频上传至YouTube平台上。然而,这个长达13分钟的视频因与一个私人新闻服务商的参考文件相匹配,而被YouTube平台Content ID系统自动屏蔽。虽然在NASA告知YouTube平台的技术管理者该视频属于版权的公共领域之后,YouTube平台恢复了该视频在平台上的播放,但几天之后,该视频又因为另一个版权人的主张而再次被屏蔽。将科普视频在公共网络平台上播放也属于科学研究的范畴,且上述科普视频的制作方就是NASA自己。但YouTube平台不分辨实际情况,仅依赖其Content ID系统的机械匹配就屏蔽该视频,这一做法显然是对科学研究活动的阻碍。为此,NASA发言人公开批评YouTube平台的Content ID系统缺乏常识,不仅将浪费用户的大量时间用于处理毫无意义的权利主张,更侵犯了纳税人获取公共领域知识的权利。


架空用户“反通知”权利


根据“通知—移除”私人执法机制,在收到版权人发出的侵权通知后,网络服务商应及时对用户上传的涉嫌侵权信息进行处置,同时应将版权人的侵权通知转送给用户。用户在收到网络服务商转发的通知后,有权向网络服务商提交不存在侵权的声明;网络服务商在收到该声明后,应将声明再转送给发出通知的版权人;而版权人在收到网络服务商转送来的不侵权声明后,如果不在一定期限内向有关部门投诉或者提起诉讼,网络服务商应将被处置的信息予以恢复。


但是,算法过滤技术的采用,使得“通知—移除”规则下的私人执法机制被极大地改变:一方面,它将发现侵权信息的义务由版权人承担转变为由网络服务商承担;另一方面,它将执法措施前置,即从原来的发现侵权信息后再进行处置的事后救济,转变为只要监测到欲上传信息与网络服务商事先建立的作品数据库相似程度达到一定比例就予以阻止的事前执法。这对“通知—移除”机制造成了颠覆性影响,使得版权人与网络用户之间原本设计精妙的利益平衡被打破,利益的天平明显向版权人一端倾斜。因为在“通知—移除”机制下,网络用户有机会通过提交反通知(不侵权声明)使被处置的信息得以恢复。但是,“当网络服务商使用了过滤技术进行算法执法之后,除非通过算法检测,否则作品无法出现在网络上”[3]。由于在过滤技术下并不存在版权人向网络服务商发出侵权通知这一环节,因此被阻止上传信息的用户也就无法针对版权人的通知行使反通知权利,使得网络用户依照“通知—移除”机制享有的反通知权利被架空。


人工智能“执法”侵蚀版权公共领域的根源


侵权认定的复杂性与算法技术的局限性


根据版权法原理,被检测信息中存在与版权作品相同的内容,并不必然构成侵权,还要考察相同部分是否属于思想、被检测信息是否具有独创性、版权作品是否还在保护期之内等因素。在上述因素的判断都有利于版权人的情形下,还要看对相同部分的使用是否构成合理使用。因此,在内容相同的情形下是否构成版权侵权,是一个复杂的认识过程,不仅涉及事实判断,更多情形下还是一种法律判断和价值判断。这些法律判断和价值判断在很多情形下即使对于专业法官而言也颇具挑战性。侵权认定的复杂性与算法技术的局限性,决定了在版权私人执法中采取算法技术将不可避免地造成错误。


利益驱动下算法执法机制被滥用


利益驱动下算法执法机制的被滥用,首先体现在算法系统的设计环节。在版权领域的算法技术应用中,无论是自动化检测和自动化通知,还是自动化处置和自动化过滤,自动化程序的购买者和使用者都是版权人或者网络服务商。为了使这些自动化程序在市场上得到最大化应用以实现最佳商业利益,算法技术的开发者会更多考虑其用户(版权人和网络服务商)的需求。对于版权人而言,算法系统能否发现更多的侵权信息、能否发出更多的侵权通知,是其最为关注的;对于网络服务商而言,算法系统能否及时有效地处置来自版权人的所有侵权通知、能否有效地过滤出更多与版权作品相似的信息并及时阻止上传,是其最为关注的。


利益驱动下算法执法机制的被滥用,其次体现在算法系统的选择环节。对于以营利为目的网络服务商而言,经济成本是其选择算法系统时的重要考量因素。为了降低经济成本,网络服务商更倾向于选择那些价格低廉的算法系统,而价格低廉往往意味着更低的准确率和更大的误差率。法律风险则是网络服务商选择算法系统的另一重要考量因素。为了降低被版权人起诉的风险,网络服务商往往更倾向于选择那些过滤标准更加严苛的算法系统,而过滤标准越严苛,就越容易把更多信息标注为“侵权信息”,如此一来,就有更多的公共领域信息可能被算法系统作为“执法对象”排除在网络平台之外。


利益驱动下算法执法机制的被滥用,最后体现在算法系统的应用环节。算法系统的实际使用人为版权人、网络服务商,以及为二者提供专业技术服务的第三方商业机构。就版权人而言,由于多数作者并非法律专业人员,其对于版权法的理解多停留于表面,从维护自身利益角度出发,其更容易将所有未经许可的使用行为当作侵权看待。即使是机构版权人,为最大限度维护自身利益,在查找侵权信息并发出侵权通知时,也会倾向于将公共领域的信息当作“侵权信息”处理。对于网络服务商而言,基于风险防范和降低成本的考虑,也往往抱以“宁可错删,不可漏删”的心态,对待版权人要求移除涉嫌侵权材料的通知。


人工智能“执法”侵蚀版权公共领域的应对


将版权公共领域考量植入算法设计中


这一建议在理论上具有正当性。在发现涉嫌侵权材料与版权作品“实质性相似”时,版权人尚不能立即向网络服务商发出移除通知,网络服务商亦不能立即处置涉嫌侵权材料,而应进一步审查该涉嫌侵权材料是否属于版权公共领域的信息。最高人民法院于2020年8月24日发布的《关于涉网络知识产权侵权纠纷几个法律适用问题的批复》第5条规定:“知识产权权利人发出的通知内容与客观事实不符,但其在诉讼中主张该通知系善意提交并请求免责,且能够举证证明的,人民法院依法审查属实后应当予以支持。”这里的“善意”可以理解为考虑了包括合理使用在内的公共领域因素。在版权私人执法算法化背景下,移除通知的发出从人工操作变为了自动化,由此就使得将版权公共领域因素事先植入算法设计中,成为满足“善意相信”或者“初步审查”的必要步骤;相应地,是否在算法设计中植入了版权公共领域考量,也可以作为版权人证明其确实存在“善意相信”的证据。


这一建议在技术上也具有可行性。目前,算法的确定性不可能应对所有合理使用情形,但可以尝试在有限的范围内部署算法。此外,“随着语音识别、图像识别,以及机器学习等诸多人工智能技术的发展,在自动化通知中通过算法设计准确识别侵权作品并考虑合理使用因素,具备技术上的可能性”[4]。


特殊情形下以人工审查辅助算法执法


在算法设计中植入包括合理使用在内的公共领域考量,并不能完全避免算法执法对公共领域的误判,由此使得在算法执法主导下辅之以人工审查提高算法执法的可信度显得尤为必要。《欧盟DSM指令》第17条的适用指南也要求网络服务商在实施版权过滤机制时,必要时应以人工审查辅助算法执法,以最大程度减少对版权公共领域的侵蚀,即“对于没有明显侵权的内容,只有经过人工审查方可采取屏蔽措施”。这将有助于提高内容过滤的效率和准确率,从源头降低过度屏蔽的潜在风险。


当前实践中,我国也有一些网络服务商表示将以人工审核辅助算法过滤,以提高算法执法的可信度。例如,南京花豆网络科技有限公司开发的“鲸版权”智能监测系统、字节跳动公司开发的“灵识系统”、“视觉中国”开发的“鹰眼”图像网络追踪系统、冠勇科技研发的“易犬(EQain)系统”等,在其官网中都有相关表述。


完善过滤机制下的用户申诉程序


第一,应允许网络用户为其拟上传至互联网平台的信息作出版权标记,即网络用户有权对拟上传的材料根据版权法规定进行判断后作出“合法使用”(包括已获授权、保护期届满、合理使用等)标记。网络服务商在用户上传材料时也负有告知义务,即以明示方式提示用户可以将其上传材料标记为“合法使用”。此种“先行标记”机制已经被德国《版权服务提供商法案》所采用。根据该法案,网络服务商负有明确告知用户可以进行事前标记的义务,对于已经标记属于版权例外的上传材料,不适用版权过滤机制;对于明显属于合法使用的信息,网络服务商不得拒绝用户上传。


第二,在被过滤系统识别为侵权信息并阻止上传后,网络服务商应及时通知用户并提供申诉机制。用户如认为存在错误过滤,有权通过申诉机制主张其上传材料为合法并要求继续上传。网络服务商接到用户申诉后,应转入人工操作予以审查;对于明显属于合法使用的信息,应允许用户继续上传。为此,《欧盟DSM指令》第17条第9款也要求采用版权过滤机制的网络服务商为用户提供有效且迅速的投诉和救济机制。


针对恶意通知行为规定惩罚性赔偿责任


第一,针对恶意通知行为适用惩罚性赔偿责任,符合侵权责任法原理。当前,我国在知识产权、消费者权益保护、食品安全、生态环境、商品房交易、产品质量和旅游消费等领域已经建立了惩罚性赔偿制度,这些适用惩罚性赔偿的行为的共同之处是行为人主观过错明显、损害后果严重、社会危害大。利用算法系统恶意实施错误通知的行为完全符合上述特点:就主观过错而言,恶意通知是行为人明知自己无权通知或者通知依据不足,但出于损害他人利益的目的仍然发出通知,主观恶意明显;就行为后果而言,恶意通知既损害了代表社会公众的网络用户的利益,也损害了网络服务商的利益;就社会危害性而言,恶意通知不仅给竞争对手和网络服务商造成经济损失,而且破坏了诚实守信的社会竞争秩序。


第二,针对恶意通知的惩罚性赔偿责任在其他领域已经确立。《电子商务法》针对恶意投诉规定了惩罚性赔偿责任,根据该法第四十二条第三款的规定,“因通知错误造成平台内经营者损害的,依法承担民事责任;恶意发出错误通知,造成平台内经营者损失的,加倍承担赔偿责任”。版权领域的恶意通知与电子商务领域的恶意投诉在本质上并无区别,按照“类似问题类似处理”的原则,应针对恶意通知规定惩罚性赔偿责任。


第三,针对恶意通知适用惩罚性赔偿责任,也是落实中美贸易协议的体现。2020年1月15日,中美两国签署了《中华人民共和国政府和美利坚合众国政府经济贸易协议》。该协议第1.13条“打击网络侵权”第2款规定,中国应“对恶意提交的通知和反通知进行处罚”,这里的“处罚”一词显然是指应针对恶意通知人在基于填平原则的民事赔偿之外施加额外赔偿。作为对该协议的回应, 最高人民法院于2020年8月24日发布《关于涉网络知识产权侵权纠纷几个法律适用问题的批复》,其中第四条规定:“因恶意提交声明导致电子商务平台经营者终止必要措施并造成知识产权权利人损害,权利人依照有关法律规定请求相应惩罚性赔偿的,人民法院可以依法予以支持。”


第四,算法执法背景下对于“恶意”的认定,可以结合最高人民法院于2020年9月出台的《关于审理涉电子商务平台知识产权民事案件的指导意见》第六条的规定,将其类型化为以下情形:(1)版权人在利用算法系统向网络服务商发出侵权通知时所附的权利证明系伪造或者变造的;(2)在用户对其上传材料作了合法性标记的情形下,版权人仍提交虚假侵权对比的鉴定意见或者专家意见的;(3)版权人明知其权利状态不稳定,仍向网络服务商发出侵权通知的;(4)版权人明知其发出的通知错误,但仍不及时撤回或者更正的;(5)版权人反复向网络服务商提交错误的侵权通知的,等等。


参考文献:


[1]PaulResnikoff, 99.5% of All Infringing Music Videos are Resolved by ContentID, YouTubeClaims, https://www.digitalmusicnews.com/2016/08/08/copyright-problems-resolved-content-id/,2022-09-18.


[2]刘文杰:《“通知—移除”抑或“通知—拦截”:算法时代的选择》,载《新闻与传播研究》2020年第12期。


[3]Niva Elkin-Koren, Fair Use by Design, 64(5) University of California, Los Angeles Law Review, 1093 (2017).


[4]何炼红:《论算法时代网络著作权侵权中的通知规则》,《法商研究》2021年第4期。