13910160652
010-52852558
| |EN
首页 > 互联网 > 其他
  • 13910160652
  • ciplawyer@163.com

算法的应用场景、法律问题与治理建议

日期:2023-07-28 来源:互联网法治研究 作者:刘莹莹 浏览量:
字号:

摘  要:随着算法技术的广泛运用,算法技术引发了一系列新的法律问题。实践中,在个人信息保护、算法歧视规制、知识产权保护等领域,算法治理遇到了诸多困难和挑战。平台在平衡各方面利益的过程中,需充分考虑技术特点。算法治理应深入分析技术手段的可行性与局限性,以此合理界定平台责任的边界。对算法问题应当有所区分,避免算法责任的泛化,使算法应用的合法性、合理性、安全性不断提高。同时,企业披露算法应避免“一刀切”,要综合考虑算法解释成本、商业秘密保护、算法安全、平台秩序维护等问题。在算法的司法治理层面,应关注产业发展空间,为产业解决问题留下充足的时间和空间。


关键词:算法应用场景;算法技术;算法治理


互联网的信息分发经历了三个阶段,第一阶段是“人工信息分类时代”,以各类早期门户网站为代表,所有信息通过人工筛选、编辑、分类后提供给用户。第二阶段是“搜索引擎时代”,爬虫技术在信息检索和整合上开始发挥作用,人类逐渐退出上述信息的处理过程。第三阶段是“信息爆炸时代”,为满足用户获取信息的需求,算法技术开始得到大规模应用,也因此引发了一系列新的法律问题。


一、算法及其应用场景


算法是一种自动化的分析决策工具,根据其所依赖的数据范围的不同,有广义、狭义之分。狭义上的算法,即通过计算机程序自动分析、评估个人行为习惯、兴趣爱好或者经济、健康、信用状况等,并据此做出决策[1],其本质是处理个人信息的智能工具。广义上的算法,即一切运用计算机程序对输入的数据进行分析处理,通过自动化手段做出决策的技术。广义上的算法自动化运行所依赖的数据不限于个人信息,而是包括一切相关数据。而狭义上的算法因涉及个人信息的收集和使用,更容易引发法律问题。


对于算法的应用场景,现阶段尚无系统的、公认的定义和分类,网信办于2021年发布的《互联网信息服务算法推荐管理规定》第2条第2款对算法推荐类型做出较为详尽的分类和总结,其与企业内部对算法应用的类型和场景相似,可供参考。具体如下:


算法.png


二、算法应用引发的法律问题


在算法分类的基础上,算法应用所引发的一些法律问题大致可分为以下几类。第一类涉及国家安全、社会公共利益,例如剑桥数据分析事件。第二类涉及平台反垄断问题,例如经营者通过算法合谋所实施的协同定价、差别待遇、限定交易等。第三类涉及公民个人或经营者民事权利的保护,例如个人信息权益及决策自由,还包括算法歧视、算法剥削、个性化广告推荐、“大数据杀熟”等。


目前涉及算法的案件主要集中于民事纠纷领域,包括以下三种类型:第一类涉及个人信息自决权与决策自由,以社交平台自动推送个性化广告的案件为典型。第二类涉及算法歧视与算法剥削,以外卖平台配送费“大数据杀熟”案为典型。第三类纠纷涉及人格权、人身权以及知识产权保护,以“短视频著作权”案为典型。实践中,法官在处理上述案件时,往往遇到相关困难和挑战。


首先,算法“透明度”的相对性与可解释性难以证明。算法在技术层面只关注离散度和相关性,因此当事人很难解释和证明某一具体行为中算法究竟收集了哪些信息、使用了何种信息,以及这些信息被如何使用。当前,算法是在一种不断更新的数据池里发生的即时分析和运算;而民法规制具有滞后性,加之司法审判要求的解释与证明标准尚不明确。对企业而言,在诉讼中证明和解释算法的实现原理可行性较弱。


其次,“授权同意”标准具有不确定性。算法功能时常涉及用户个人信息,如个性化推荐,目前在算法的“授权同意”标准上存在一系列尚待回应的问题。例如,用户在隐私设置上是采取opt in还是opt out,是否所有涉及算法的功能都要获得用户的单独授权。再如,是否需要区分不同内容做出不同设置,比如是广告还是用户创作内容;给予用户同意和退出同意的合理时机、方式等,这些都需要司法实践进一步给出回应。


再次,技术的现实和困境。理论界和实务界对算法在技术可行性的理解上存在巨大分歧。用户倾向于将算法推荐系统想象成一个贴着成百上千个具体标签的“后台”,用户可以表达其个人偏好。对此,平台直观地展示出这样一个“后台”,即向用户解释该算法推荐的运作方式。但这种效果过于理想化,在技术上无法实现。对现有信息流推荐技术而言,其推荐内容越精准,就越容易让人产生推荐系统对被推荐内容做出具体识别的错觉。由此,用户会误认为社交平台的广告推荐系通过监听用户谈话、监控用户聊天而实现。但对于大型互联网平台而言,对于这类主体不可能也不需要识别其内容。一方面,平台难以承受计算、识别具体内容的成本。另一方面,平台缺少进行机器识别内容培训的基础素材(如视频原片)。值得指出的是,算法推荐机制的原理主要有二:一是“基于内容的推荐”,二是“基于协同过滤的推荐”。对平台而言,根据用户行为和相似度,通过用户协同过滤进行推荐效果尚可,因此平台并无识别具体内容的必要。


倘若平台的算法技术先进,其内容自然会加速传播,优质内容随之被更多人看到,这正是算法技术创新的意义所在,也是算法应用的愿景。简言之,先进的算法自然会带来更多的用户关注和流量。同时,应当避免“一刀切”地认为平台有责任解决随之产生的所有问题。互联网行业当前的共识是,平台应当在技术创新与利益分配、社会责任与公共利益之间的利益平衡中有所作为。但也应当认识到,任何技术都有其局限性,在信息分发上具有优势的技术,其识别和处理信息的效果未必最好,需要其他技术和措施的辅助。而这一切也需要投入时间、资金成本并深入探索和验证技术手段的可行性。唯此,才有望更合理地界定平台责任的边界。


正如杭州互联网法院在(2021)浙0192民初10493号民事判决书中指出[2],算法本身并不具有可责性,算法推荐不具备实质性侵权的用途或系专门为实施侵权行为而服务,更非用于推荐被诉侵权视频。法院应根据个案情况予以综合审查评价,其关键在于分析运用该项算法技术的方式和特定场景,以判断平台是否明知或应知涉案侵权行为。


三、抖音集团算法合规工作


在算法合规层面,抖音集团整体围绕算法公开透明、公正公平、向上向善等原则构建合规工作。具体内容如下:第一,建立算法安全管理制度,确保算法透明度、相关算法的备案与公示、日志留存等义务的履行;第二,确保算法知情权、选择权和决定权的落实,针对各类消费者提供算法推荐服务,充分保障用户个人权益;第三,坚持正确的价值观导向,确保算法不被用于恶意竞争或误导舆论,积极传播正能量。


在这三大原则的指导下,抖音集团从研发、部署、应用等三个层面构建算法合规体系。确保研发层关注底层技术及科技伦理,部署层关注技术原理、算法透明度与可解释性,应用层关注输出结果的公平公正、安全可控。


四、算法治理的建议


从产业实践角度,本文拟针对算法治理提出四点参考建议。


首先,避免算法责任泛化。由于算法的应用深入各领域,算法不可避免地与其他传统领域和法律规定产生重合。为此,需要区分不同层面、不同类型的算法问题。避免把一些本应在传统法律体系下解决的问题装进算法的箩筐,导致算法相关的问题更加难以厘清。在治理过程中,应当将真正的算法问题剥离出来,单独予以评判。


其次,聚焦算法规制对象。应以算法与人互动的环节为切入点,聚焦于算法的“输出结果”“干预和保护措施”“用户赋予的权利”等环节,致力于提升算法应用的合法性、合理性和安全性,而不应拘泥于算法技术本身。


再次,限缩算法披露方式。企业应避免“一刀切”式的算法披露,要综合考虑解释算法的成本、商业秘密的保护以及披露后对算法模型安全、平台秩序造成的影响等,并据此在披露内容、程度、时间和方式上实行“差别化对待”。


最后,关注产业发展空间。以抖音集团和爱奇艺公司为例,此前双方就长视频内容的二次创作与推广达成合作。从产业运作逻辑、核心利益诉求和发展规律来看,短视频平台和包括长视频平台在内的版权方的合作共赢是必然趋势。从爱奇艺公司2022年第二季度财报电话会议也可看出,爱奇艺公司与抖音集团的合作创造了平台和用户的双赢局面,提供了新的合作范例。对爱奇艺公司而言,视频“短带长”的导流效应能够为爱奇艺公司带来更多用户,其优质内容逐渐被行业所认可。作为长短视频行业的头部平台,爱奇艺公司和抖音集团的合作代表着两个行业规则相互探索的努力和尝试。任何产业的平衡、融合、发展必将经历一个过程。在这个过程中,诉讼只是解决问题的手段。在处理算法相关的新型司法案件时,期待司法裁判秉承开放、谦抑的态度,为解决问题留下足够的时间和空间。


注释:


[1]参见《中华人民共和国个人信息保护法》第73条第2款。


[2]深圳市腾讯计算机系统有限公司、杭州腾讯魔乐软件有限公司诉北京微播视界科技有限公司侵害作品信息网络传播权纠纷案,杭州互联网法院(2021)浙0192民初10493号民事判决书。