人工智能生成内容的刑事合规边界
作者:曾峥 吴卫明 2024-08-14人工智能生成内容(AIGC)是利用生成式人工智能(GAI)技术自动生成内容的新型生产方式。随着GAI技术的广泛应用,AIGC的内容合规问题愈发受到关注。本文将从法律责任主体类型、不同情形下的责任承担等方面对AIGC可能涉及的刑事风险进行分析。
不良内容原因
AIGC的生成原理基于GAI的训练,包括数据收集与预处理、模型构建与训练、内容生成与输出。AIGC包含不良信息的原因包括以下四类。
1.训练数据问题:训练数据包含不良信息或标签错误,模型可能学习并生成类似内容;
2.模型架构问题:设计时未考虑对不良内容的检测和过滤,生成内容可能包含不良信息;
3.输入内容问题:用户输入包含不良信息,GAI在生成回复时可能继续使用该上下文;及
4.缺乏过滤和监控机制:未采取内容过滤等后处理步骤,可能导致不良信息直接输出。
法律责任主体
AIGC产业链上涉及的法律责任主体类型包括:
1.GAI服务提供者,即提供GAI服务的组织或个人;
2.技术支持者,即为GAI服务提供技术支持的组织或个人;及
3.服务使用者,即使用GAI服务制作、复制、发布、传播信息的组织或个人。
一般情况下,服务使用者并非特定的用户群体,没有成为责任主体的条件。
责任承担
刑事风险分析主要针对服务提供者和技术支持者,他们在AIGC出现不良内容时须分别承担责任。
训练数据或模型架构问题。技术支持者可能因使用非法数据或基础模型、数据标注质量问题、未遵守语料和模型安全要求而被追究刑事责任;缺乏过滤和监控机制。服务提供者有义务设置过滤和监控机制,避免不良信息输出。未履行此义务可能导致刑事责任。
输入内容问题。服务使用者通过输入引导生成不良信息,此时服务提供者或技术支持者的责任取决于他们对使用者行为的态度和监管措施。基于中国共犯理论与《刑法修正案(九)》新增的帮助信息网络犯罪活动罪、拒不履行信息安全管理义务罪以及非法利用信息网络罪,传统意义上的帮助犯已独立正犯化。服务提供者或技术支持者单独依靠技术中立原则出罪较为困难,核心问题仍然在于对犯罪活动的主观认识与犯意联络上。这对服务提供者、技术支持者提出了更高的合规要求。即便服务提供者或技术支持者与使用者之间不存在就特定犯罪的犯意联络,也可以通过主观上的推定明知,就网络产品及AI产品对实行犯犯罪行为的促进作用对服务提供者、技术支持者入罪。
《生成式人工智能服务管理暂行办法》第九条要求服务提供者承担网络信息内容生产者责任。第十四条则明确要求:“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。”
《互联网信息服务深度合成管理规定》第十条亦规定:“深度合成服务提供者应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。深度合成服务提供者应当建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序,记录并留存相关网络日志。深度合成服务提供者发现违法和不良信息的,应当依法采取处置措施,保存有关记录,及时向网信部门和有关主管部门报告;对相关深度合成服务使用者依法依约采取警示、限制功能、暂停服务、关闭账号等处置措施。”
由此可见,中国监管部门目前对AIGC服务提供者提出了较高的注意义务。如服务提供者未履行上述注意义务,导致服务使用者利用GAI生成违法违规内容,将受到监管部门责令改正。
结语
AIGC技术的快速发展带来了创新与便利,同时也带来了合规挑战。合理设置产品提供者的刑事责任对于平衡创新发展与法律风险至关重要。服务提供者、技术支持者和服务使用者应在法律规则逐步完善的环境下,树立合规意识,防范风险