- 分享到:
- 全屏阅读
- 放大
- 缩小
- 默认
AI生成内容的知识产权与安全监管
来源:中国新闻出版广电报 时间:2023-04-06


□王军
在网络技术的推动下,人类社会在过去的20年间,正以加速度进入到信息时代。在笔者看来,人工智能是人类信息时代发展的核心标志,人工智能将深刻改变人类教育、就业、商业、生活、交往的方式,而人工智能的发展速度之快,应用领域之广,甚至让其创造者人类自身措手不及。ChatGPT的横空出世无疑印证了这一点,其在认知与表达方面确实很像人,又很超人。
笔者认为,自ChatGPT始,“人工智能”开始走向“机器智能”,而伴随类人智能、超人智能的发展,碳基人类如何处理与硅基智能主体的关系,这一问题值得深思,其生成物的权属与可版权性也值得探究。
人工智能的法律主体应该如何界定
人类社会的基本治理规则是法律,法律是以“人”为治理目标的,包括自然人和拟制的法人,未来会不会为“人工智能体”另行增设一个“电子人”的法律主体身份呢?从法律逻辑上,不是不可行,但从人工智能的存在形式、开发目的及人类自身安全考虑,“电子人”独立法律主体地位的授予应当非常慎重。
人工智能在未来的应用领域之广、个体数量之大、“智能行为”方式之多元是现在的人类所难以想象的,很难参照现有法人实体的分类模式做有限分类。人类开发人工智能的目的,是为了更好地服务人类的生活、生产与智慧创造,从目的论而言,人工智能是为了人类的需要而存在的,“归属于人类、服务于人类、决定于人类”应当作为定位人机关系的三大基本准则,这一从属关系决定了不应给予人工智能独立法律主体资格。自主智能属性与人类智能存在着天然的分离性、不可预知和不可控特征,“过早”赋予人工智能独立人格,等同于把人工智能视为与人类平等的主体。
ChatGPT还处于新一代人工智能的婴儿期,但其通晓古今、学贯中西的能力与反馈输出速度,已经远在人类之上,其输出的内容与行为走向既可能让人类坐享其实,也可能使人类深受其害。那么哪些“人”应当享有人工智能行为之权益并对其行为承担责任,“代”其享有法律主体资格呢?就此,我们又需要分成两个维度来进行探讨。其一,AI本身的权属主体;其二,AI创造物、生成物的权属主体。在信息时代,传统物权/所有权已经变得不再那么稀缺、有价值,更能产生或者持续产生增值价值的是使用权。换言之,讨论人工智能知识产权价值与知识产权权属的意义远大于讨论其物权/所有权的价值。物权所有者因使用人工智能这一“物”所引发的违约或侵权责任,由物权所有者/使用者承担法律责任,这是没有多大争议的,但问题是如何判定“谁拥有、谁操作”。
AI本身的权属主体:人工智能的基因是代码,开发者基于代码开发来生成人工智能系统。因此,AI系统开发者、AI系统投资人、为AI系统的产生提出特定需求/发出特定指令的人或组织最有机会成为AI系统的权利人和法律责任主体。
AI创造物/生成物的权属主体:AI的创造活动,是基于大数据学习、算法研发的数据驱动而实现的,无论其生成的是工业元器件、3D打印模型,还是音乐、绘画、诗歌,都是由AI算法研发者或AI系统操作者的触发/设置行为而产生的,从知识产权维度来评价,最有机会成为AI系统生成物权利人(如版权人,专利权人)的包括AI算法研发者、AI系统操作者、AI系统投资人、为AI生成作品提出特定需求的人/组织、为AI创作进行了必要安排/设置的人/组织。
当然,AI系统也可以通过其算法与代码编写能力创设出新的AI,这种情形下,权属的判断仍可遵循上述规律,而在判断具体应当由“谁”对人工智能的行为享有权利/承担责任方面,则必须在法律规制层面,给出明确的规定和判断标准。虚拟世界对人类现实生活的入侵已经无孔不入,相比人类历史上任何一种人类创造物,人工智能对于人类来说是最难预判的。让法律规则、安全设计可以更准确、快速、直接地锁定行为人、责任人,是人类应对人工智能的发展与挑战所必须设定的目标,这也是讨论人工智能法律主体地位的意义所在。
人工智能生成物的可版权性如何判定
有学者提出观点,如果人工智能的生成物(比如文章、诗歌、美术作品)具有可版权性,那么意味着人工智能“创作”了作品,应当至少赋予其“作者”的身份权,笔者部分同意这样的观点,同时认为,这样的“AI作者身份权”与人类作品中的“作者署名权”是不一样的,前者的目的是为了标识与锁定行为主体,其“身份”标识应当是真实、唯一、不可篡改的,这应当成为一项法定义务,而著作权法意义上的署名权则是作者的一项权利,可以署真名,可以署笔名,也可以不署名。既然在我们的讨论语景下,AI系统不应当被赋予“人”的权利和法律地位,那么这里的“身份权”也就只算是一种识别码,与“作者署名权”不可等量齐观。
仍旧以“作品”这一人类创作物举例,作品是具有独创性的、可复制的智力表达(一般集中在文学和艺术领域),人类创作作品的过程,大体可以分成三个阶段:首先,产生创作的欲望与意志;其次,通过内在构思预设表达;最后,通过工具形成作品表达的外化,这里所称的工具包括嘴、手指、笔、计算机等。以上,都是人的意志和行为。那么,我们在讨论人工智能的意志和行为时,或者说,在判断这到底是人的意志还是机器的行为时,也可以按照这样的标准来进行测试。
关于“弱人工智能”与“强人工智能”的讨论是现在人工智能研究领域的标准话题,在这里,笔者想从“强人工干预”与“弱人工干预”的维度来做表述,可能更有助于理解人和机器的关系。人工对“智能机器”的干预主要体现为在先数据库的筛选与提取、训练数据的选择与分类、人类指令控制与人工智能表达生成之间的对应关系等方面,人工干预越强,人工对于作品的最终表达呈现的控制能力越直接,人工智能就越弱,人工智能越符合人类工具的特征。而当人工智能基于数据训练与学习,可以超出人类的控制或预判,甚至可以在没有人类干预的情形下,自行生成作品的表达时,那么表达本身与人工智能的关联关系(意志或行为)就更近,或者说,这样的创作表达不是人类脑电波活动作用在一定载体上的体现形式,不符合人类创作所需要的第三阶段。而当人工智能可以基于自身对网络数据的学习、提取、筛选、分析,形成自己的创作表达时,人工智能的意志与行为就会进一步前移到创作行为的第二阶段和第一阶段,从而体现出更加独立自主的人工智能意志和行为。
人工智能安全规则有哪些着眼点
新的技术模式、商业模式、传播模式给人工智能的发展带来了极大的可能性,如何发展好、应用好、规范好人工智能,对于人类的安全来说具有重大战略意义。
中国互联网产业在过去几十年间的“野蛮生长”,是否适用于人工智能呢?笔者持明确反对的态度,因为人工智能比以往任何一项人类的发明都更容易失控,这是由人工智能的自身特性和发展方向所决定的。人工智能的安全,需要国家层面的安全顶层设计和底层技术结构规制。
安全顶层设计的基础目标,是让人工智能的发展处在便于政府监管的维度上,而政府的监管,应当至少在技术、法律、伦理、身份分级认证这几个方面来做布局。
如前所述,人工智能的基因是代码,对于人工智能的安全监管,以“代码或算法”为对象的技术规制是首要问题。美国有学者认为,无论如何,代码对法律至关重要的原因在于,它具备在一个大标准下识别行为的能力。这种能力在代码作为规制手段时,可以对行为作出限制。它同样可以把行为塑造成法律允许的形式。笔者持相同观点,政府监管者需要深度理解技术,管住了代码和算法,就可以在最大限度上管控人工智能的发展方向与行为空间(上限与下限),人类可以无法确知人工智能的行为表达具体是什么,但应当确保人工智能的意志与行为不“出圈”,而这个圈的边界就是伦理与法律,人类的伦理标准具有事先预见性,而法律准则则具有可执行的规范性。
法律往往是滞后的,对于未来将要发生的情况无法做出准确的预测,这就要求在国家监管层面建立自己可分类、且不定期动态更新的人工智能分类管理体系,至少应当包括鼓励类、限制类、禁止类的类别区分,并制定相应的安全分级,安全分级的考量至少应当包括国家安全、社会公共利益、商业秘密与个人隐私保护。政府统一管控的人工智能技术管理委员会、人工智能伦理管理委员会、人工智能法律规制委员会应当成为国家对于人工智能管理的重要执行机构。对于人工智能而言,事先防范远比事后处置更有意义。
在我们通过顶层设计来规制人工智能的发展方向与范围时,需要同时制定人工智能产品的国家标准与身份认证识别体系,要求所有的人工智能产品都具备唯一的可识别编码,通过识别编码,准确了解人工智能的功能、用途、风险等级,准确定位人工智能的权利人、责任人、使用者,同时在一定权限内,可以随时定位、检索、追踪人工智能行为的指令情况,以便作出行为规制。
人工智能的发展是超乎想象的,安全是人工智能发展的首要课题,因为这直接决定了人类自己的命运。
(作者系北京韬安律师事务所首席合伙人)