人工智能侵权法律问题简析(下篇)
作者:丁峰 王枫伟 孔琴 段雨欣 2025-03-28随着人工智能技术在自动驾驶、内容生成、医疗辅助等多个领域的广泛应用,与此相伴而生的是日益增多的侵权争议和法律适用难题。AI在侵权责任的归属、避风港原则的适用、技术中立原则的边界等方面,引发了司法实践中的诸多讨论。例如,在自动驾驶事故案件中,如何界定AI系统、产品提供者与用户之间的责任比例?在生成式AI的应用场景下,若AI生成的内容侵犯了他人权益,算法开发者、平台运营方、终端用户之间的责任应如何区分?此外,AI技术是否仍可主张避风港原则或技术中立原则,也存在不同意见。在司法实践中,法院对于AI侵权案件的处理仍在探索之中,不同案例中审理法院的认定标准也有所差异。因此,本文尝试通过剖析典型AI侵权案例,探讨避风港原则与技术中立原则的适用性,以及法律风险的防范措施等,希望对读者带来一定启示。
AI侵权案例分析
对于自动驾驶系统,若车辆因AI决策失误发生事故,对责任的甄别与分担将更为困难。在全球首例自动驾驶汽车撞人致死一案[1]中,争议焦点在于如何确定自动驾驶系统与使用者的责任。该案涉案车辆为由Uber公司在沃尔沃SUV基础上改装的自动驾驶测试车。根据美国国家运输安全委员会(NTSB)发布的初步事故报告,受害人推着自行车进入车辆传感器探测范围后,Uber的自动驾驶系统先将自行车错误识别为汽车,随后又将其认定为正缓慢移动的自行车。由于系统未能及时、准确识别物体类型,直到事故发生前约1.3秒才发出紧急制动指令,但由于沃尔沃原厂的紧急制动功能已被Uber禁用,导致该指令无法执行,最终酿成事故。事故发生时,车上有一位安全驾驶员,根据坦佩警察局的报告显示,该驾驶员在事发时正在观看手机上的综艺节目,未尽到必要的注意义务。鉴于此,法院最终认定,由于并无证据表明车辆本身存在产品缺陷,沃尔沃公司无需承担责任;因事故主要是系统决策错误,而不是公司有意犯罪,Uber公司被判无刑事责任;安全员则因过失致人死亡被判三年缓刑。本案凸显了自动驾驶AI决策失误的责任认定复杂性,AI系统运行产生的日志数据对于责任的认定起了决定性作用。
同样,在生成式AI引发的侵权问题上,当AI自动生成侵权的内容,究竟谁来为侵权结果负责也成为实践中的难点。在杭州互联网法院审理的“AI奥特曼”侵权纠纷案[2]中,平台提供图生图、模型在线训练等生成式人工智能服务,用户可以通过上传图片等方式利用该平台基础模型训练生成奥特曼AI模型,并可再利用奥特曼AI模型生成与原奥特曼形象构成类似的作品。从该案件数据输入和数据训练阶段看,生成式人工智能的数据来源不仅有平台自己输入的训练数据库,还有平台在服务用户过程中,由用户输入的数据。平台管理者与内容生产者之间的界限较为模糊,法院认为若严格要求服务提供者对用户输入端的每份数据进行逐一审查和验证,势必阻碍生成式人工智能的发展,因此服务提供者的注意义务应当与身份及信息管理能力相适应。法院最终认定,平台应当知道网络用户利用其服务侵害信息网络传播权而未采取必要措施,其未尽到合理注意义务,主观上存在过错,构成帮助侵权。该案例综合考量生成式人工智能服务的性质、当前人工智能技术的发展水平、侵权信息的明显程度、可能引发的侵权后果、采取的必要措施及其效果等因素,动态地将平台的注意义务控制在与其信息管理能力相适应的合理程度,表明未来AI平台的合规管理或将成为核心议题。
此外,AI生成的内容是否享有著作权,以及该著作权应归属于谁,理论界和司法实践存在争议。学界对人工智能生成物不属于作品主要理由在于人工智能并非自然人,自然人创作才是作品成立的前提与基础。[3]并且人工智能生成物体现不出创作者的个性化特征,因而不可能满足作品的独创性要求。认为人工智能生成物属于作品则因为其在外在表现形式上满足最低程度创造性要求。[4]对构成作品的著作权归属问题,则存在着将人工智能生成物著作权归属于设计者或使用者两种观点。司法实践中,自2018年北京互联网法院受理“菲林诉百度”案[5]后,人工智能生成物的保护问题正式进入司法领域,在该案中法院认为人工智能生成物不构成作品,但相关内容亦不能自由使用。而在“腾讯诉盈讯科技”一案[6]中,法院却做出了相反的结论,明确认定人工智能生成的文章构成作品,是全国首例认定人工智能生成的文章构成作品的生效案件。同时,在2024年北京互联网法院 “AI文生图”著作权侵权案[7]中,法院也明确了人工智能生成的涉案图片属于作品的属性,并认为人工智能模型本身无法成为我国著作权法规定的作者,对涉案人工智能模型进行相关设置的使用者,才是涉案图片的作者,享有涉案图片的著作权。至今,我国司法实践上对AI生成作品的著作权认定尚未统一,需要更高层级的法院给出一定的指引。
AI产品或服务可否适用避风港原则
避风港原则最初适用于网络平台责任,旨在对信息服务提供者设定合理的责任边界,使其不对用户发布的内容承担事前审查义务。该原则在《电子商务法》《民法典》侵权责任编及相关法律实践中已有明确适用框架,但面对AI技术,避风港原则的适用备受争议。
传统的避风港原则适用前提是平台不直接参与内容的生产,而仅提供存储或传播服务。然而,AI的运行模式不同于传统信息平台,其内容的生成往往由算法主导,服务提供者在AI的训练、优化及决策过程中可能起到实质性作用。因此,AI服务提供者是否仍可依据避风港原则主张免责,成为法律适用上的争议点。现行法律并未对此作出明确规定,但从责任分配的角度来看,AI工具提供者若能够对其生成内容施加控制,则其免责空间将受到限制。
在司法实践中,法院对避风港原则的适用通常取决于平台在内容监管中的角色,如上文提到的“AI奥特曼”侵权纠纷一案,被告虽引入避风港原则作为抗辩理由,但最终因其在平台管理中的失职败诉。若AI提供者具备内容管理能力,却未采取合理的过滤或防范措施,则其责任将比传统网络平台更重。例如,开发者通过人工标注或算法优化调整AI的输出方向,这种行为表明其在内容生成中具有实质性影响,将不适用避风港原则的免责条款。因此,适用避风港原则应针对AI技术的特点进行修正,确保权利人权益得到合理保护,同时避免对AI创新形成过度限制。
AI产品是否适用技术中立原则
技术中立原则起源于1984年美国的“索尼案”,该案确立了“实质性非侵权用途”规则,即如果一项技术具有重要的非侵权用途,即使被用于侵权,技术提供者也不应承担间接侵权责任。这一原则强调技术本身是中立的,其使用方式和结果取决于使用者的意图和行为。技术中立原则旨在促进技术发展和创新方面发挥积极作用,然而AI不仅是信息处理工具,其自主学习能力使其在一定程度上具备了决策能力,因此在AI技术背景下,技术中立或将导致技术滥用,产生巨大的社会风险。
以往技术中立性常被用作免责抗辩,例如搜索引擎的自动补全功能在不涉及明显违法的信息推荐时不被认定为侵权。然而,AI在处理信息时并非完全被动,而是基于数据训练和算法调整形成自主输出,对输出结果AI也有一定的判断能力和思考能力。故在某些AI的输出内容将直接影响社会公众场景下,例如医疗AI系统的诊断建议、自动驾驶系统的行驶决策、AI生成新闻等,作为AI技术的提供方,是否应当利用AI技术的“智能”进行必要的审查义务,是否仍能以技术中立放任侵权结果的发生,这些均值得进一步探讨。
我们认为,在AI侵权案件中,若AI提供者能够预见其技术可能导致的侵权风险,基于现有AI技术有能力进行预防但未采取合理的防范措施的,其技术中立的抗辩事由应当受到限制。
法律风险防范建议
人工智能技术的飞速发展在推动产业进步的同时,也带来了大量潜在的法律风险,尤其是由于其自主学习能力、不可预测性和决策过程的复杂性所导致的侵权风险愈发突出。因此,建立系统性风险方案措施,特别是通过事前预防措施减少潜在侵权纠纷、降低侵权发生概率,需要AI开发者、提供者及用户予以重点关注。
(1)产品提供者应提升安全管理能力
作为AI技术的核心推动主体,产品提供者在AI系统的设计、开发、部署和运营过程中承担着关键责任。其产品在市场应用中可能引发的侵权风险,与开发阶段中的算法逻辑、数据选取、产品安全控制等密切相关。因此,产品提供者需要在产品全生命周期内建立完善的安全管理能力,确保AI技术在合理风险范围内运行。
产品提供者应当在公司层面建立专门的合规管理部门,负责全公司的合规性评估与监控。合规部门不仅需要与技术部门、开发部门协作,确保AI系统从设计到部署的每一环节符合国家法律要求,还需要及时跟进最新的法律法规变动,确保产品的合规性。合规部门应负责制定安全管理策略,并将其贯彻到公司的日常运营中,从而避免因管理不善造成的法律责任。
公司内部应建立健全的合规制度,涵盖数据保护、隐私权保障、信息安全、算法审查等多个方面。尤其是在处理个人信息和敏感数据时,需严格遵守《个人信息保护法》和《数据安全法》等相关法律法规,确保所有数据的收集和处理行为均具有合法依据,并采取必要的安全措施以防止数据泄露或滥用。公司还应建立数据访问控制机制,确保仅限于授权人员能够访问敏感数据,从而保障用户的隐私权和数据安全。
(2)建立数据来源合规评估与风险控制体系
AI的决策能力高度依赖于训练数据,数据合规、数据质量和数据公正性直接影响AI输出的合规性和安全性。数据偏差、训练数据中的违法内容或侵犯他人权益的信息,将导致AI系统产生歧视性或侵权性结果。因此,在数据管理环节,AI产品提供者需严格遵守《个人信息保护法》《网络安全法》《数据安全法》等法规,确保数据合法、安全、合规使用。
AI产品提供者必须对数据的来源进行严格审查,确保所使用的所有数据均经过合法授权或来源于合法渠道。特别是在数据训练阶段应引入法律风险评估机制,通过多维度检视数据的合法性与合规性,提前发现可能导致侵权的风险并及时采取纠正措施。对于可能涉及知识产权争议的数据,需在训练前对数据来源进行审查,确保在使用受著作权保护的数据时已获得授权,避免因未经许可使用第三方作品而构成著作权侵权。例如,在处理个人信息时,应遵循数据最小化原则和目的限制原则,确保收集的数据与处理的目的相匹配,不得超范围使用。所有个人数据的收集、存储、使用和传输,均应当遵循告知——同意的处理原则,并严格按照《个人信息保护法》进行管理。未经过合法授权使用的第三方数据或未经许可的个人信息,将会导致数据侵权责任,甚至涉及刑事责任。对于AI训练数据中涉及敏感信息的部分,产品提供者应严格按照法律规定进行匿名化、去标识化处理,减少数据泄露的风险。尤其在处理涉及生物识别、医疗健康、金融账户等敏感数据时,必须采取加密等安全措施,确保数据的安全性和保密性。
基础风险防范是AI产品提供者确保产品安全合规的关键。公司应制定全面的风险评估机制和应急预案,定期进行安全风险评估,对产品可能存在的漏洞进行模拟测试,识别潜在风险并及时修复。对于出现的数据泄露、AI系统错误或数据滥用等紧急情况,设立快速响应机制,确保能够迅速采取补救措施,减轻损害,并根据法律规定及时通知受影响的用户和监管机构。
(3)建立伦理控制与法律责任评估体系
算法是AI系统的核心,其设计直接决定了AI在运行过程中的决策逻辑和输出结果。因此,在算法设计阶段,产品提供者应遵循《生成式人工智能服务管理暂行办法》等规定,确保算法符合伦理规范并采取必要的责任控制措施,防止因算法偏差或逻辑漏洞导致侵权行为。
首先,算法设计应遵循透明性和可解释性原则。AI决策过程的“黑箱”问题是法律认定责任的重要障碍,而通过提高算法的可解释性,使其在发生损害后能够清晰追溯决策过程,有助于司法实践中对责任主体的合理认定。尤其是涉及自动驾驶、医疗AI等高风险领域时,算法的解释能力不仅是法律责任划分的关键,也是安全运行的重要保障。
其次,产品提供者在算法设计阶段应进行伦理审查,特别是在可能影响公众利益或涉及敏感群体时,需对算法的社会影响进行评估。对于生成式AI的内容生成,应设置合理的过滤机制,防止其生成淫秽、暴力、歧视性等违法内容。此外,在算法运行过程中,若发现算法输出结果存在潜在风险,应具备即时调整或暂停运行的能力。
(4)强化用户的合理使用与法律责任意识
AI产品的最终输出不仅取决于算法本身,也与用户的使用方式密切相关。特别是在生成式AI等用户交互性较强的场景中,用户输入的提示词直接影响AI的输出内容,从而引发潜在的侵权风险。因此,用户在使用AI产品时也应承担相应的法律责任,并严格遵循产品提供者制定的使用规范。
产品提供者应通过用户协议明确提示可能产生的法律后果,并提供必要的指导,确保用户在合理范围内使用AI功能。例如,在生成式AI的应用中,用户协议应禁止输入具有违法、侵权性质的提示词,并对可能导致侵权的场景进行事前警示。同时,用户应提高自身法律意识,避免通过AI生成侵犯他人名誉、隐私或知识产权等权利的内容。在用户不当使用AI导致侵权时,产品提供者在采取合理监管措施并尽到注意义务的情况下,可依据相关法律法规主张免责。
(5)建立全流程投诉处理和监督机制
由于AI系统的运行存在动态变化性,单纯依靠事前风险防范难以完全避免侵权行为的发生,因此产品提供者应建立全流程的投诉处理和监督机制,及时发现并纠正可能存在的侵权问题。
产品提供者应设立便捷的投诉渠道,受害方在发现AI输出结果侵害其合法权益时,能够及时提交投诉并得到迅速处理。依据相关规定,网络服务提供者在接到侵权通知后,若未及时采取必要措施,则将承担相应责任。因此,在实践中,AI产品提供者应及时响应投诉,采取删除、屏蔽或其他纠正措施,防止损害进一步扩大。
另外,监督机制应覆盖AI系统运行的全过程,尤其在高风险场景中,需通过动态监测发现潜在的侵权隐患并及时采取补救措施。例如,生成式AI在内容生成过程中,若检测到可能涉及违法信息、侵犯他人权益或损害公共利益等内容,应立即触发审核机制并中止生成过程。
结语
人工智能技术的快速发展给社会带来了深远的影响,同时也对现行法律体系提出了前所未有的挑战。在侵权责任认定方面,AI的自主性、不确定性和复杂的因果关系使得传统侵权责任体系在适用时面临诸多困难。如何在现有法律框架内科学、合理地归责,既保障受害方的合法权益,又避免对技术创新形成不必要的阻碍,成为当前司法实践与学术研究的核心议题。
面对AI可能引发的法律风险,产品提供者、数据处理方、算法开发者、用户等不同主体均应加强自身的法律意识,确保AI产品的合规性与安全性。AI产品提供者通过健全组织架构、完善合规制度、优化算法治理、加强数据管理和风险防控机制,从源头抓起,勤勉尽职,可以有效降低法律风险,减少侵权事件的发生,以减轻或免除侵权责任。同时,监管机构和司法体系也需在审慎监管与促进技术发展之间寻求平衡,制定更加细化的AI侵权责任认定标准,确保法律适用的科学性与公正性。
未来,随着人工智能技术的进一步发展,其在法律适用领域的影响将更加深远。我国法律体系需要在现有侵权责任框架的基础上,基于自身国情,借鉴国际先进经验,结合AI技术的演进趋势,不断完善相关法律制度,为人工智能的安全、合规发展提供坚实的法律保障。通过科学合理的法律规制,推动AI技术在可控范围内发展,实现技术进步与法律责任的协调统一,为人工智能时代的法律秩序奠定坚实基础。
注释
[1] 第一例因自动驾驶技术致人死亡的案例发生在2018年3月18日,涉及Uber的自动驾驶测试车。事故发生在美国亚利桑那州坦佩市(Tempe, Arizona),受害者是一名49岁的女性行人伊莱恩·赫茨伯格(Elaine Herzberg)
[2] 杭州互联网法院审理的“AI奥特曼”侵权纠纷案:(2024)浙0192民初1587号
[3] 邱润根、曹宇卿:《论人工智能“创作”物的版权保护》,载《南昌大学学报(人文社会科学版)》2019年第 2 期,第 40页。
[4] 廖斯:《论人工智能创作物的独创性构成与权利归属》 ,载《西北民族大学学报( 哲学社会科学版) 》2020 年第 2 期,第 80-81 页。
[5] 2018年北京互联网法院受理“菲林诉百度”案:(2018)京0491民初239号
[6] 腾讯诉盈讯科技:(2019)粤0305民初14010号
[7] 2024年北京互联网法院 “AI文生图”著作权侵权案:(2023)京0491民初11279号