以制度之变回应时代之需

作者:中国政法大学法律硕士学院院长、数字社会治理研究院院长 许身健 来源:中国新闻出版广电报 时间:2024-12-19


  生成式人工智能引发的人工智能生产内容(AIGC)版权风险主要集中在训练数据和生成内容两方面。一方面,人工智能训练依赖大量受版权保护的数据,未经许可的使用可能构成侵权。另一方面,随着技术进步,传统“避风港规则”面临挑战,生成式人工智能服务提供者可能需承担更高的事前过滤义务,以防止侵权内容的生成。

  在宏观导向方面,生成式人工智能版权治理应以人为本,结合公私与私法规则,统筹司法与立法,促进市场与规则良性互动,保障技术创新与公共利益兼顾。须寻找生成式人工智能发展路径上妥适的版权治理时点、治理对象和治理方式,让社会在技术变迁的“无知之幕”前始终能够保持对新生技术的包容式接收与理智性选择,是构建生成式人工智能版权治理体系的关注重点。一方面,需根据人工智能生成链条上的主体定位有针对性地设置风险防范义务与版权法律责任,并容许各方在满足最低限度的必要合规要求后,自主约定责任分配方式,及时回应技术适用中的突出问题;另一方面,引入“技术之治”,采取高效的技术手段与技术逻辑来引导生成式人工智能健康发展,在技术与制度的有机结合上更好驾驭生成式人工智能的可持续发展变革。

  具体而言,生成式人工智能的全链条治理旨在应对版权风险和治理规则碎片化的挑战,通过构建“模型开发—应用部署—内容输出”的综合治理范式来明确各阶段主体的责任。

  模型开发阶段,开发者需确保数据来源合法、控制数据质量,并设立语料披露机制和安全保障措施,同时注重算法的可控制性,履行透明度报告义务。

  应用部署阶段,服务提供者需根据参与深度不同有区别地承担义务:深度参与者需对内容严格审查,而单纯传输服务者遵循“避风港规则”;终端服务提供者则负责管理内容呈现,协助用户并采取标识与风险提示等措施;下游应用部署中,实质参与生成服务的提供者需主动审查内部数据与用户输入,过滤潜在侵权内容,并对最终生成的内容进行二次审查,建立投诉举报渠道和用户救济机制。

  终端内容输出阶段,服务提供者需承担信息管理义务,包括采用显性和隐性双重机制标注人工智能生成内容的属性,确保标识互认与兼容,并向用户进行版权风险提示。

  为促进自治规范与行业标准构建,企业应将版权治理纳入合规核心,落实具体治理要求,设立专项治理部门,并构建监督反馈机制。制定行业标准时应根据场景的不同而采取设计型或管理型标准,确保数据挖掘合规。在执行过程中,企业、协会和政府应协同作用,保障标准落地并持续优化,最终形成国家治理与行业自治的合力。