数字经济背景下算法治理的目标、难点与解决路径(下)
作者:吴卫明 2023-06-13三、算法治理的难点与解决路径
1、算法分类分级治理的难点与解决路径
(1)分类分级治理的基本规则
对于分类分级治理,在《算法规定》及相关法律法规中已经有所体现。比如,在资管新规中所体现的避免算法缺陷引发羊群效应,即是对决策类算法的规制。
而《电子商务法》第八十一条对竞价排名商品或服务应明显标记“广告”的规定,则可以视为是排序精选类算法的一种规制[1]。
对于个性化推送类,则在《个人信息保护法》中做了规制,如该法第二十四条规定,通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。《电子商务法》第十八条也做了类似的规定:“电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。”
对于生成合成类算法,《深度合成规定》,则做了较为系统的规范。《深度合成规定》第七条对于深度合成服务提供者的责任做了界定,其中算法机制机理审核与科技伦理审核的规定特别值得关注。
此外,《深度合成规定》第十六条规定,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。
对于深度合成服务提供者而言,提供智能对话、智能写作;合成人声、仿声等语音生成;人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成;沉浸式拟真场景等生成等深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。[2]对于深度合成标识,任何组织和个人不得采用技术手段删除、篡改或隐匿。[3]
上述规定可以看出,分类治理可以针对不同算法的原理、对社会公众的影响制定不同的监管措施。
与分类治理相比,分级治理的规则设置则较为简单。从当前的规则来看,分级治理最主要的规定是对于具有舆论属性或社会动员能力的算法进行监管。
《算法规定》及《深度合成规定》中,对于具有舆论属性或者社会动员能力的算法推荐服务提供者,均要求进行备案。此外,深度合成服务提供者开发上线具有舆论属性或者社会动员能力的新产品、新应用、新功能的,应当按照国家有关规定开展安全评估。
(2)分级治理机制需要进一步完善的问题
虽然《算法规定》及《深度合成规定》均要求具有舆论属性或者社会动员能力的算法推荐服务提供者进行备案。但是,对于什么是具有“舆论属性或者社会动员能力”,上述规定却并未进一步界定。
“舆论属性或者社会动员能力”的表述,在《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》中最早进行了规定。该规定中,将“具有舆论属性或社会动员能力的互联网信息服务”定义为(一)开办论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播、信息分享、小程序等信息服务;或者(二)开办提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力的其他互联网信息服务。
按照上述定义,可以看出,提供具有信息传播、交流、沟通功能的信息服务,或者提供公众舆论服务,以及具有能够发动社会公众从事特定活动的服务,都可以视为具有舆论属性或社会动员能力。算法推荐服务也属于一种互联网信息服务,因此,《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》对于“具有舆论属性或社会动员能力的互联网信息服务”的界定,也可成为认定具有舆论属性或者社会动员能力的算法推荐服务的参照依据。
实际上,开办论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播、信息分享、小程序等信息服务或者附设相应功能,其服务的目的在于提供信息传播、交流、沟通的场所或通道,为了优化相应服务,可能对应的算法推荐服务包括:生成合成类、个性化推送类、排序精选类、检索过滤类等。
对于提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力的其他互联网信息服务,其服务过程中,也会涉及个性化推送类、排序精选类、生成合成类与调度决策类等算法服务。
从《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》确定的原则可以看出,“具有舆论属性或社会动员能力”是与服务内容相对应的,而并不直接与信息的传播范围或能够发动的社会公众范围相对应。
从算法生态治理和社会公共秩序的角度看,这一认定无疑有利于对算法的从严治理。但是,这也会产生一个问题,即所有的算法推荐服务都可能需要面临备案。而企业为了规避风险,可能会将所有的算法均实施备案,这不仅会增加企业备案的成本,也会弱化算法备案的针对性,从而使得监管成本大幅度提升。
对此,笔者认为,对于舆论与社会动员能力认定标准的进一步细化,有利于优化算法备案。细化有关标准的过程中,可以考虑以下几方面的因素:其一、算法对于用户思想认知的影响,如算法是否会对用户的社会行为认知、宗教认知、种族认知、社会阶层认知、政治倾向认知产生重要影响,或包含某种歧视性的社会观念。其二、算法是否具有调动人群物理空间分布的能力,比如通过算法可能影响人员的聚集或公共场所的活动等。其三、算法是否存在危害社会公共利益、国家安全的因素。
2、关于说明义务的实现
《算法规定》第十七条规定:算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。
这一规定,对应的是《个人信息保护法》第二十四条关于自动决策的内容,即自动化决策应提供不针对个人的选项,以及通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。
此外,《算法规定》第十二条还规定,鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响,预防和减少争议纠纷。其中,算法的透明度和可解释性,与算法的说明义务具有类似性。
《算法规定》第十七条、第十二条及《个人信息保护法》第二十四条关于算法说明权的规定,可以理解为对算法治理中“透明”原则的具体落实。但在实践中,关于算法的说明,仍有诸多问题有待解决。
(1)算法说明存在的难点
笔者认为,对于算法的说明,存在两大难点:
其一,什么是重大影响?
《个人信息保护法》并未界定什么是重大影响,《算法规定》提到了算法应用的若干限制,比如,对未成年人提供算法推荐服务的限制、对劳动者提供工作调度服务的限制,以及对老年人及其他特定人群提供算法推荐服务的限制。这些限制所针对的是特定人群利益,似乎是立法者重点关注的问题,可否作为个人权益构成重要影响的判断依据呢?基于法律的公平原则,仅将重大影响理解为特定群体利益并不妥当。另一种理解则是,将个人权益的重大影响理解为对某些特定法益的损害,如侵害人格尊严、财产权、人身安全的权利等。
笔者认为,对于个人权益的重大影响,应结合不同算法对个人造成的影响进行判断:有些算法虽然会影响个人的选择,但影响往往仅限于信息获取的选择权问题,比如个性化推送类、排序精选类、检索过滤类等算法,虽然也会对个人利益造成影响,但这种影响往往可控;而生成合成类,如果对个人权益造成侵害,则也可以通过肖像权或一般人格权的诉讼得到纠正;但是,如果采用调度决策类算法,则会影响到个人的实际经济利益或工作的休息权利,且并无其他的法律救济渠道。因此,对于个人权益重大影响,不宜一刀切适用于各种算法,而是应有所限制,针对不同算法对个人权利的不同影响,界定重大影响。必要时,采用列举的方式予以列示。
其二,算法说明义务如何实现?
法律及相关的规则,对于如何实现算法的说明,并未予以规定。如果个人对于算法说明不予接受,或者企业拒绝提供算法说明。该行为是否属于《个人信息保护法》中随规定的个人信息处理者拒绝个人行使权利的情形?个人是否可以据此向人民法院提起诉讼?
此外,对于算法的说明程度,也是算法说明过程中的难点。企业可能会以商业秘密为由,或者以算法黑箱为由,拒绝做出适当的说明。而由于法律界定较为笼统,对于算法的监管机关或是司法机关而言,也缺乏必要的规则对算法的说明问题进行规制。
(2)对于算法说明的制度优化
笔者认为,算法的说明并非完全无章可循,按照《算法规定》的原则,公平、公正原则是算法服务的基本原则。由于算法说明义务的适用主要是针对个人权益的重大影响,因此,算法说明应主要基于算法是否符合公平、公正原则展开。
对于算法形成的过程及要素而言,应从以下几个方面予以说明:
其一、算法设计的目的
算法设计的目的决定了算法的设计与运行是否会影响个人权益,目的正当性是算法不会侵害用户或消费者权益的基础。比如,在以对不同消费进行定价为目的的算法中,就首先需要算法服务提供者对于算法设计的目的进行说明,如果算法目的是提供不合理的差别定价,则该种算法服务将侵犯消费者的权益。而如果算法的目的是合理的差异化定价,则需要对算法的原理和运营机制进行说明。
其二、算法的基本原理和运行机制
《算法规定》第十六条规定,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。
在目的正当性的前提下,算法服务提供者公示算法服务原理及主要运行机制。笔者认为,如果公示仅仅达到披露存在算法服务这一层面,显然无法达到说明的效果。合理的公示应该是对于算法本身的原理和运行机制进行说明。即,算法设计考虑的主要因素,以及这些因素如何影响算法的输出。
其三、算法非歧视性的说明
当然,算法基本原理和运行机制的披露,可能会涉及到企业的商业秘密。笔者认为,对于运行机制的披露,至少应达到能够说明算法并不具有法定的歧视性内容。算法应具有可验证性,即针对个人的算法,应能够通过测试性的输入来验证算法不具有歧视性。
其四、算法训练数据的真实性、准确性、客观性、多样性
在深度学习算法训练过程中,预训练数据和优化训练数据的真实性、准确性、客观性、多样性,能够在很大程度上影响算法的质量乃至算法的正当性与非歧视性。《生成式人工智能服务管理办法(征求意见稿)》第七条规定,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据,应满足以下要求:(一)符合《中华人民共和国网络安全法》等法律法规的要求;(二)不含有侵犯知识产权的内容;(三)数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;(四)能够保证数据的真实性、准确性、客观性、多样性。
(3)算法知情权诉讼问题
《个人信息保护法》第二十四条规定“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”。这一规定,对于通过自动化决策提供服务的个人信息处理者而言,设定了法定的说明义务,与此相对应,接受服务的个人信息主体则拥有知情权。据此规定,是否能够必然推导出个人信息主体对于算法应用具有知情权,并进而拥有诉权?
笔者认为,自动化决策是一个较大的概念,而算法则是自动化决策的一个重要环节或组成部分。如果自动化决策中包含了算法的运用,则个人信息主体拥有对算法的知情权。
虽然算法的知情权被《个人信息保护法》确立为一项民事权利,但该权利如何获取司法救济,仍有若干需要进一步明确的地方。
首先,自动化决策的举证问题。法律仅规定个人有权要求个人信息处理者予以说明。从这一规定来看,个人信息处理者说明义务的前提是通过自动化程序做出决定,也就是说,首先要有自动化决策的事实,然后才有说明义务。如果按照谁主张谁举证的一般原则,则个人信息主体可能根本无法完成初步的举证,从而不具有主张知情权的请求权基础。
对此,笔者认为,由于自动化决策本身会对个人权益造成影响,且自动化程序的系统、代码、运行逻辑均由个人信息处理者掌握,个人实际上并不具有举证的能力。由个人进行举证,并不符合法律的公平原则。同时,个人信息保护法第六十九条对于侵权损害也规定了无过错责任原则,处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。因此,无论从《个人信息保护法》的立法精神还是公平原则,在个人提出自动化决策知情权的前提下,采用自动化决策的个人信息处理者对于是否采用了自动化决策,负有举证责任。
其次,对于算法说明的内容与程度。对此,笔者在上文已经进行的分析,个人信息处理者应说明算法设计的目的、算法的基本原理和运行机制、算法非歧视性的说明,以及算法训练数据的真实性、准确性、客观性、多样性。
但问题是,对于上述内容的说明应达到何种程度,才可以视为尽到了算法说明义务?
笔者认为,说明义务应以达到对算法目的合法性、算法运行非歧视性说明的程度为原则。虽然算法说明的内容较为复杂,但应以算法运用与个人的歧视性待遇之间的因果关系作为核心说明内容。也就是说,不应对算法的说明做无限扩展。此外,算法的商业合理性与算法的合法性的边界,也应准确把握。比如,某种算法不够优化,对于消费者的分析、决策未必符合最优原则,但由于该种不准确是一种普遍性的问题,并不针对某些特定人群形成歧视,则不宜认定存在歧视。只有在某些歧视性规则被植入算法,或者进行算法测试过程中证明了存在对特定人群标签的歧视性,才能认定存在歧视性算法。
算法规制是大数据应用与人工智能发展的必然产物,分类分级以及算法的说明问题,是算法规制的重要问题。如何优化、完善算法分类分级治理,以及如何实现说明义务,是算法治理过程中需要进一步优化的问题。
注释
[1] 《电子商务法》第八十一条电子商务平台经营者违反本法规定,有下列行为之一的,由市场监督管理部门责令限期改正,可以处二万元以上十万元以下的罚款;情节严重的,处十万元以上五十万元以下的罚款:
(一)未在首页显著位置持续公示平台服务协议、交易规则信息或者上述信息的链接标识的;
(二)修改交易规则未在首页显著位置公开征求意见,未按照规定的时间提前公示修改内容,或者阻止平台内经营者退出的;
(三)未以显著方式区分标记自营业务和平台内经营者开展的业务的;
(四)未为消费者提供对平台内销售的商品或者提供的服务进行评价的途径,或者擅自删除消费者的评价的。
电子商务平台经营者违反本法第四十条规定,对竞价排名的商品或者服务未显著标明“广告”的,依照《中华人民共和国广告法》的规定处罚。
[2] 《互联网信息服务深度合成管理规定》第十七条 深度合成服务提供者提供以下深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况:(一)智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务;(二)合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务;(三)人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务;(四)沉浸式拟真场景等生成或者编辑服务;(五)其他具有生成或者显著改变信息内容功能的服务。
[3] 《互联网信息服务深度合成管理规定》第十八条 任何组织和个人不得采用技术手段删除、篡改、隐匿本规定第十六条和第十七条规定的深度合成标识。