- 分享到:
- 全屏阅读
- 放大
- 缩小
- 默认
ChatGPT生成内容引发讨论
版权和新闻伦理问题备受关注
来源:中国新闻出版广电报 时间:2023-02-21
□本报见习记者 齐雅文
2月20日,本报记者就ChatGPT对新闻伦理的影响和挑战对话ChatGPT,图为ChatGPT给出的回答。本报见习记者 张博 摄
ChatGPT问世,随之产生的一些新闻出版领域伦理问题也会更加突出,例如新闻的真实性、虚假新闻传播风险、版权归属等。2月15日,在中国新闻出版传媒集团主办的《高低音会客厅》访谈节目中,天津大学新媒体与传播学院院长陆小华、中国新闻出版研究院原副院长张立和中国科学院自动化研究所人工智能伦理与治理中心主任曾毅针对以ChatGPT为代表的人工智能生成内容产生的新闻出版、版权、伦理等相关问题分享了自己的观点和看法。
《中国新闻出版广电报》:如何界定人工智能生成内容的版权?
陆小华:人工智能生成的内容有版权吗?这是新闻出版从业者需要首先思考和回答的问题。
在新闻出版领域已经面临一个问题,就是写稿机器人写出来的稿件如果出现了问题,谁来负责?具体来说,目前写稿机器人写出来的东西最后是有人审核的,审核者应当负相应责任。写稿机器人写的稿件经人工审核后播出或出版,那么这篇稿件的版权是属于审核者的还是写稿机器人的?目前此类问题人们还在探讨。因此智能内容生成产品所生成的画面、文字等内容,版权归属到底如何认知、如何确定仍是一个问题。随着智能内容生成技术不断发展和广泛使用,一定会促使人们深刻认识、确定相应规则,这也是人类必须回答的一个问题。
当前,针对使用人工智能所生成内容涉及的伦理问题,急需研究、制定相应规则。使用智能内容生成应用生产出来的内容能否直接用于新闻出版?能否见报?如果用于新闻出版,是否必须制定见报、出版之前有人审核、有人负责等相关的规则体系?一系列问题都值得关注和探讨。尤其新闻出版行业能够深刻影响社会,智能内容生成产品所生成内容的使用伦理和规则问题是非常重要的,而版权归属问题也必将提上日程。
张立:我们人类在内容生产和内容创作上走过了几个显著的阶段。互联网和移动互联网时代,是自媒体和用户创作内容的时代,这个时代的特点是“人人皆媒”。今天,随着人工智能技术的进步,我们正迎来一个机器或AI参与生成内容的时代。人工智能生成内容,至少在现阶段在形式上还是模仿人类。它很可能模仿得越来越像,足以乱真,甚至比有些真人还会表达。但这并不意味着它能完全替代人类对内容的生产。
这是因为我们人类是在“创作”内容,而非简单地“产生”内容。“创作”是人类特有的智慧,“创作”的本义是表达思想,抒发情感,对事物进行价值判断,对社会现象或风气给予道德诉求。迄今为止,我们人类社会辉煌灿烂的文明都是靠我们的智慧“创造”“创作”和“创新”出来的。这正是目前的人工智能技术尚未达到的水平。因此,是“生产”还是“创作”,这才是界定人还是非人提供内容的标准。但这里必须强调一点,千万不要轻视人工智能技术进步的速度。特别是中国的科技工作者,与其证明人工智能技术目前有待提高,不如奋起超越。
关于版权需要说明的是:第一,版权是私权,不能把它说成社会责任。第二,版权不是随内容创作的起源就自古有之,制度性的版权仅300多年的历史,由于创作主体的日益复杂化,从我个人研究的结果看,未来版权的发展是一个多元化的趋势。第三,版权分为财产权和人身权,财产权意味着版权是与利益相关的,只有当人们希望从内容创作直接获利时,版权的财产权才变得重要。第四,随着互联网的发展,人类社会进入到了一个大传播的时代,传播带来的商业利益巨大。它使人们有可能从内容作品直接获利,变成通过内容作品快速而广泛地传播获得商机。在这种情况下,有一部分人会认为商机比版权更重要,他们追求的是“羊毛出在猪身上”的机会。第五,未来版权的强保护主要体现在大IP上,开源、开放版权会与之并存。第六,人工智能生产的内容是否属于作品,如何对其确权是个新问题。
曾毅:人工智能生成的内容是在人类生成的内容基础上进行模式和特征的学习,在此基础上对模式、特征及内容进行半自动化或者全自动的重新组织与加工,并生成的与原始人类生成的内容具有可辨析乃至显著差异的内容。
权利和义务是相伴相生的,人们如果给人工智能权利,那它就必须承担义务,但目前的人工智能无法做到负责任,那何来所谓的权利?所以从技术的角度来说,人工智能无法承担责任,就无法成为作者,也谈不上所谓的权利问题。目前人工智能是一个看似智能的信息处理工具,并不具备真正的理解能力,因此也无法为所产生的内容负责任,所以责任还是在人类身上。
我们看到ChatGPT已经用于生成虚假的新闻,甚至是对可能涉及违法犯罪的行为给出操作性的建议,对ChatGPT这样的内容自动生成人工智能的监管已经迫在眉睫,需要人类更严格的审视乃至审查。
《中国新闻出版广电报》:您如何看待人工智能生成内容所带来的传播风险?应当怎样避免?
陆小华:智能内容科技所生成内容对公众信息获取、认知形成和观点表达会有深刻影响,这种影响目前还难以准确估量。这主要是因为:一是ChatGPT之类的智能内容科技产品是对应用户所提问题生成内容,且可以根据聊天上下文智能生成新内容,其与用户当时的需求的匹配度可能更高,甚至可能比现在互联网平台信息服务算法个性推送内容更精准贴近人们的实时信息需求,与用户需求的实时匹配度可能更高,从而影响更为深刻;二是ChatGPT之类智能内容生成产品是针对用户问题,根据人类已有知识和信息生成内容,类似于根据互联网上所能抓取到的现有知识和信息选取、提炼后生成内容,知识性特征更明显,且更有说服力。
从科学与真实等维度看,ChatGPT之类智能内容生成应用所生成内容,目前和今后一段时间内可能鱼龙混杂,可能帮助或干扰公众的信息获取、认知形成和观点表达。从政治高度看,也可能带来意识形态安全风险。因此,重要的不仅是优化算法、推进向可信人工智能发展,更应未雨绸缪、“小雨绸缪”,现在就系统、全面、针对性地研究、制定相应规则体系,以有效规制减少、防范智能内容科技应用可能带来的负面影响。
张立:人工智能生成的内容所带来的传播风险包括:内容的真实性,内容的立场、观点甚至政治上的错误,如何区分和判断人机写作?AI生产的内容还是作品吗?如果不是,那它是什么?如果是,如何确权?当前,主流媒体普遍在朝智库方向转型。主流媒体对舆情和真相的理解是优于人工智能的。以传统纸媒为例,作为新闻纸,其优势欠佳,但作为政府主流媒体,其眼光、判断、舆情分析能力和对第一现场的把握,都是今天的人工智能所不能达到的高度。
避免上述问题的出现,首先要加强对人工智能生成内容的监管,这是很重要的手段。要研究技术审核和人工监管的方式。毕竟AI生产内容的能力太强,有效监管并非易事。同时,要深入研究人工智能生成内容的机制与特点,引导其为人类做有益的服务。这里需要说明的是,至少今天的生成内容的能力,还是我们人类赋予的。由于现实中我们人类自己也存在着说谎、侵权盗版的情况,所以我认为对人的关心和教育非常重要。
曾毅:人工智能生成的内容对社会不同年龄、不同类型的用户和公众产生的潜在影响难以估量。即使在使用人工智能生成内容的服务中进行了显著标识,但是在传播过程中这种标识也很难确保被保留,这就不仅对内容版权可能造成实际侵害,内容的真实性也需要投入大量人力物力进行核查和辨别。人工智能生成内容服务的提供商在发展内容自动生成服务的同时,也应提升自律自治能力,有义务提供自动生成信息鉴别和信息鉴伪的服务以减少潜在风险。社会各级监管部门应当构建更完善的人工智能治理体系,推进相关政策、标准、法规的制定和落实,在管理、设计、研发、部署、使用等人工智能全生命周期的各个环节都应当加强和确保对人工智能内容生成的必要监管。
《中国新闻出版广电报》:您认为新闻出版行业应该如何利用好人工智能生成内容?
陆小华:在我看来,一是新闻出版行业从业者要以更具科技感的认识方式看待智能内容生成科技发展。ChatGPT引发了多个互联网平台加快应用步伐,或把ChatGPT与搜索引擎相结合,或是加快在这个领域推出相应产品的速度。人们普遍预测,智能内容生成科技会得到更大范围应用。更具科技感的认识方式,会帮助新闻出版业找到更切合行业实际的智能内容科技运用方式。二是新闻出版行业从业者要秉持新闻出版规则、伦理的原则跟踪研究智能内容生成产品本身发展,谨慎分析、思考是否可能、如何在一定规则、条件约束下有限运用。既积极研究,又依规谨慎行事,才可能实现“利用好”。
张立:对于新闻出版行业来说,第一,传统媒体转型一定要找好转型点;第二,千万不要轻视技术革命的进步所带来的风险。今天的人工智能技术,确实可以帮助我们做一些初步的文案工作,就像今天的搜索引擎可以帮助我们查询信息一样。今天,我们在很多时候不必像过去那样,只能到图书馆去翻看资料。所以我们要感谢搜索引擎的发明。我们也要感谢人工智能技术的进步,它所带来的生成内容能力的提升,可以部分地让我们人类从繁琐的文案工作中解放出来。
从目前人工智能生成内容的水平来看,它的文献处理的能力很强,但它代替不了人的现场采访,它还不可能代替实地采访的记者的工作,它只能代替从文献到文献的工作。所以,对媒体从业者来说,提高“四力”,既是按照习近平总书记对宣传思想工作者的期待那样,切实走出去,提高我们的脚力、眼力、脑力和笔力。这样,我们才会采写出鲜活的、不同于人工智能生成的内容。
曾毅:人工智能内容生成服务有潜力在资源收集和话题组织方面为新闻出版行业提供有力的支持,在针对特定话题开展观点论证方面有潜力提供不同视角观点的参考辅助,有利于论述和报道的中立性和全面性。但从目前人工智能作为数据驱动的信息处理工具的本质来看,在人工智能没有能力也难以成为责任主体的前提下,新闻出版行业的从业者都不应尝试将最终审核权和决策权交给人工智能。