在AIGC内容生态与版权保护论坛上,专家认为——

谁受益谁担责原则适用人工智能生成物

来源:中国新闻出版广电报 时间:2023-05-11

□本报记者 隋明照 文/摄

  AIGC内容生态与版权保护论坛现场。

  人工智能技术在不断发展,人工智能生成物的版权问题一直是版权界的热门研究课题。近期,随着AI绘画、ChatGPT的出现,相关版权问题再次“破圈”,引发大众关注。大众关注的问题包括:人工智能生成物到底有没有版权?人工智能在收集数据的过程中有哪些侵权风险?如果侵权了,又该谁来负责任?4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,政府机关对于人工智能的监管话题,同样引发了关注和讨论。

  在中国人民大学高瓴人工智能学院与中国人民大学国家版权贸易基地主办的AIGC内容生态与版权保护论坛上,来自司法界、学界与实务界的嘉宾分享了各自的思考。


人工智能生成的作品是否有可版权性

  人工智能生成图片、演讲稿等功能,已经有不少人进行了尝试。浙江垦丁律师事务所主任张延来在演讲中就举例说,他想要找一张主题为人工智能对教育产生影响的配图,就对人工智能作图软件提出了人工智能注视着写作业的小朋友的作图要求,然后软件生成了很多图,他挑出最满意的一张使用。

  张延来认为,人工智能的应用,把人要做的工作从“0到1”变成“N选1”或者“N改造为1”,这时候,《著作权法》是否要保护人的筛选和优化能力呢?如果保护,对于不同情况,保护的力度和方式又是否相同呢?人在人工智能作图过程中的参与度是不同的,比如让AI设计集成电路图,工程师会在图片产生的过程中不断发指令进行微调,这个过程中就会加入工程师自己的经验和智慧,对于这样的复杂情况,法律该如何规定?这是《著作权法》面临的巨大挑战。

  北京互联网法院综合审判一庭负责人张连勇介绍,目前法院比较统一的裁判观点是,创作作品的主体一定是人类,不应是机器或者软件作为创作的主体。

  世界知识产权组织在《经修订的关于知识产权政策和人工智能问题的议题文件》中明确指出,“人工智能”是计算机科学中的一门学科,旨在开发各种机器和系统,这些机器和系统能够在有限或完全没有人类干预的情况下执行被认为需要人类智能完成的任务。“人工智能生成的”与“人工智能自主创造的”是可以互替使用的术语,系指在没有人类干预的情况下由人工智能生成产出。在这种情况下,人工智能可以在运行期间改变其行为,以应对意料之外的信息或事件。要与“人工智能辅助完成的”加以区分,后者需要大量人类干预、引导。

  华东政法大学教授王迁则提到了上述文件对于人工智能的定义,并指出,现实情况是,现在的人工智能生成的内容不可能由指挥他的人预见到,就算给人工智能发指令的人能够指出大方向,但是构成作品表达性要素的内容都直接出自人工智能,而不是来自指令发出者,这个时候不能认为人以人工智能为工具生成了内容,顶多可以说人对相关内容生成是有间接影响的。


人工智能服务提供者担责的边界在哪里

  王迁认为,不管是自己用还是许可他人使用,人工智能服务都会产生巨大的利益,既然有利益,当然要承担相应的责任,如果内容侵权,人工智能服务提供者则要承担侵权责任。就像餐厅播放背景音乐需要经过许可、支付使用费一样,餐厅播放背景音乐使得就餐环境变好,餐厅由此获得了利益,就要承担责任,这体现了权利和义务相一致的原则。

  《生成式人工智能服务管理办法(征求意见稿)》中,多次提到了人工智能服务提供者不得侵害知识产权的责任,如第四条关于提供生成式人工智能产品或服务应当遵守的要求中提到“尊重知识产权、商业道德,不得利用算法、数据、平台等优势实施不公平竞争”。第七条中要求人工智能服务提供者应当对生成式人工智能产品的预训练、优化训练数据来源的合法性负责,用于生成式人工智能产品的预训练、优化训练数据的要求中就包括“不含有侵犯知识产权的内容”。

  中国政法大学数据法治研究院教授张凌寒认为,监管者把治理的视角和触角深入到训练数据的层面,就是希望通过提醒人工智能服务提供者注意训练数据合理义务,达到内容信息安全的效果。

  中国人民大学未来法治研究院执行院长张吉豫强调,如果对于所有利用生成式人工智能产品去提供相应服务的组织、个人的所有内容,不加区分地都认定应该承担该产品生成内容生产者的责任,是不合理的,生成内容生产者责任指代什么责任?是不是一种产品责任或者严格责任?这是未来需要解决的问题。

  抖音集团法务部商业化法务总监朱小荔介绍,在产业实践中,模型的训练数据来源广泛复杂,可能包含他人的作品内容以及他人的公开信息,如果使用公开发表的作品数据均需获取每个作者的授权,使用他人的公开信息也需征得每个个人的同意,将为模型研发者获得合法的训练数据增加巨大的成本,需要配套建立高效的数据集许可使用制度,否则可能限制模型的快速开发。

  腾讯研究院秘书长张钦坤则认为,希望能配予人工智能大模型的应用者合理的避风港责任,使其承担间接侵权责任,由最终用户承担直接侵权责任,否则,如果一开始就要求大模型平台承担直接侵权责任的话,不符合现在技术发展的需要。


对训练数据来源合法性进行监管有必要性

  政府层面的监管应如何做到合理监管和促进发展的平衡?对外经济贸易大学法学院副教授张欣介绍,目前,生成式人工智能仍存在一些技术局限,比如数据质量风险,对数据进行标注时,可能会有歧视和偏见;再比如训练数据的模型中,英语数据占绝大多数,所以训练语料库的多样性不足。对于个人或是机构敏感关键数据的泄露,则已经有不少实例。

  张欣认为,当技术滥用可能导致不可逆的风险时,对技术进行监管具有一定的必要性,不过要注意对监管对象的判定这个问题,需要关注技术和服务背后的法益和风险。此外,张欣认为,要将事后追责与事前、事中监管有效联动,以治理思维引导企业在合规架构和治理架构层面作出有益改善,实现“治理型监管”。

  张吉豫引用中国人民大学教授刘春田的观点提到,技术的本质说到底就是靠人的能力把自然界的物质、能量、信息进行重新配合和重新组合,构建一个适合人类生活的世界。在技术发展过程中如何引导其真正建构出适合我们生活的世界,让其潜能发挥出来,是未来应该关注的话题。