人工智能大模型对新闻业的影响

作者:秦军 张铭 来源:中国新闻出版广电报 时间:2024-07-30

  当前,全球科技创新进入空前密集活跃期。人工智能技术变革迅猛,尤其自2022年以来,ChatGPT、ChatGPT-4、Sora等人工智能大模型相继火爆“出圈”,传媒业更是开启了技术创新应用的新篇章。

  “媒体+大模型”覆盖新闻生产全过程

  随着人工智能大模型的发展,媒体融合进入多语种、跨模态领域的融媒体3.0阶段,即“媒体+大模型”发展阶段。

  在国外,很多著名媒体机构借助人工智能大模型展开了相关应用。2023年以来,路透社、彭博社等媒体已经将ChatGPT大模型应用于内容采集、数据分析、内容制作、个性化报道和受众互动运营等媒体场景中。2023年8月,全球最大新闻媒体公司之一的新闻集团,成立了一个只有4名员工的“Data Local”部门,每周用人工智能大模型自动创建3000篇澳大利亚本地新闻。

  在国内,许多媒体单位也开始使用人工智能大模型。2024年全国两会举办期间,人民日报新媒体积极尝试将人工智能大模型技术应用于融媒体产品制作中,推出一系列AIGC创意产品。如创意微视频《AI共创大片|江山如此多娇》,一经推出便引发业内外强烈关注,总播放量超过4.6亿。

  中央广播电视总台2023年7月发布成立“央视听媒体大模型”,这是首个专注于视听媒体内容生产的AI大模型,可根据内容提示创作文稿,自动生成标题、字幕、解说、背景音乐并生成短视频等。2024年2月,中央广播电视总台推出中国首部文生视频AI系列动画片《千秋诗颂》,打造出“诗词唱吟中,再现长安三万里”的视听盛宴。

  新华社2023年7月发布了人工智能大语言模型MediaGPT,在成都大运会报道中,基于AI绘图和文本生成平台,制作发布了《AIGC:珍稀“宝贝”为成都大运会加油助威》,生成了具有表现力的内容。

  除央媒外,地方媒体也纷纷与大模型企业联合开发自己的专业媒体大模型,促进媒体业务升级。

  浙江广电集团推出了“基于AIGC的‘Z视介’创作者系统”,创作了“AI眼里的五千年良渚文明”系列微纪录片,获得一致好评。

  浙江日报报业集团早早布局人工智能大模型。其旗下的传播大脑(浙江)股份有限公司研发推出了“传播大模型”,可提供多模态检索、热点推荐、实时资讯生成、文图互生等各类服务。

  2024年2月,《解放日报》也推出了“浦先生·新闻魔笔”大模型应用。打开这款应用,首先看到的是热点新闻列表,这是它对主流媒体最新报道内容进行分析后形成的新闻热点。用户选择其中一个热点后,“新闻魔笔”会自动生成这一新闻的报道视角,并匹配“解放日报党报观点库”,然后基于“书生·浦语”大模型2.0生成符合《解放日报》风格的新闻报道内容。

  大模型助力新闻业五大重点

  人工智能大模型技术给新闻行业带来了有力的帮助,体现在多个环节。

  第一是数据分析。人工智能大模型运用了海量数据,可以为新闻工作者提供有力的数据分析,从而在选题策划环节提供新闻趋势和热点分析。

  第二是内容生成。人工智能大模型可以生成文本、图像、音频和视频等形态内容,还可以生成摘要、文章,也可以生成策划大纲、采访提问等许多创意性内容。

  第三是跨语言音频传播。德国《图片报》依靠AI实现跨语言音频传播。自2020年以来,该报每年发布4万篇语音文章,迄今已由AI语音回答了超过4500万个问题。目前该报播客产品已能实现细腻、逼真、富有情感的29种语言转化。

  第四是新闻精准分发。人工智能大模型可以根据用户偏好生成个性化内容,通过分析用户阅读历史、浏览习惯、点击行为等数据,为每个用户提供定制的新闻推荐,从而将过去的“人找信息”转向“信息找人”,实现了精准化传播。

  第五是事实核查。尽管人工智能大模型在内容的准确性、真实性方面受到质疑,但它可以通过数据训练后自动对信息进行事实核查,帮助新闻工作者核实信息的准确性。

  大模型可能引发的问题

  人工智能大模型技术在新闻领域带来的变化是令人振奋的,但万事有利有弊,它也可能引发一系列问题。

  第一,可能制造虚假新闻。人工智能很容易对音频、视频和图像等进行深度伪造,假新闻“有图有真相有信源”使得新闻真假难辨。2023年5月,一张显示五角大楼附近地区发生爆炸的图片在社交网络上疯传,多家媒体推特账户也分享了这张图片,引起美国股市震荡,但是后来发现该图是由AI生成的。

  第二,可能引发知识产权纠纷。Sora等AI技术在快速生成大量视频内容方面的能力也可能导致知识产权纠纷增多。例如,美国《纽约时报》在2023年12月曾起诉OpenAI和微软,指控它们未经许可使用该报数百万篇文章来训练聊天机器人。此外,在人工智能大模型生成内容的著作权归属和责任问题上也存在法律争议。

  第三,可能对个人隐私造成威胁。在新闻传播过程中,人工智能大模型需要搜集、分析和发布各种信息,其中包括个人信息,一旦信息被窃取或泄露,将对个人隐私和安全造成威胁。

  第四,可能造成“信息茧房”问题。人工智能大模型的信息分发以用户的个性化需求为导向,容易导致受众视野窄化和观点极化的“信息茧房”,局限个人知识面拓展。

  推动“人与AI协同生产”

  为了应对人工智能大模型对新闻行业带来的挑战,新闻机构需建立全流程管控机制,确保合理负责使用。

  包括加强内容的准确性和真实性。媒体应利用先进工具提高内容透明度和可信度,识别和过滤虚假或误导性内容,保护用户免受不良信息影响。媒体还应采取严格的安全措施,加大数据的安全和隐私保护,包括加密敏感数据、限制数据访问权限、监控数据流动等,确保用户数据得到充分的保护和处理。

  人工智能大模型不可能取代采编人员,采编人员在新闻领域仍然不可替代。比如,人工智能大模型无法进行实地报道,无法获得独家新闻,无法亲身经历地采写新闻,它只擅长加工和处理已有信息。再如,人工智能大模型缺乏人类的思考能力、人类的情感,无法像记者一样写出有深度、有温度、人性化的新闻报道。

  尽管如此,人工智能大模型还是会对采编新闻工作者造成冲击。在智媒体时代,采编人员如何才能用好人工智能大模型来为新闻业务提质增效?

  一是加强新技术素养和人机交互能力。采编人员需要了解如何与机器有效交互,以实现最佳的协作效果。北京师范大学新闻传播学院院长张洪忠认为,记者今后应扮演一个重要角色——提示工程师。

  二是保持批判性思维与独立思考能力。虽然人工智能大模型在数据处理和新闻写作方面表现出色,但在批判性思维方面仍有不足。因此,采编人员需要强化自己的批判性思维能力,以便对人工智能生成的内容进行必要的甄别。

  三是加强职业伦理和价值观。新闻工作者需要确保新闻内容的真实性、客观性和公正性,这要求记者和编辑在人机协同中保持正确的价值观。

  随着人工智能技术的快速迭代升级,可以预见,人工智能大模型将为媒体生产和传播带来革命性的变化。2024年政府工作报告首次提出开展“人工智能+”行动,对此,媒体机构要积极行动起来,只有充分利用新技术手段,打破传统生产范式,从内部不断变革和重塑生产流程,同时提升记者一线采编能力,坚持强化原创与深度报道,在人机协同的共创环境中实现人机各展所长,才能在爆炸式的信息洪流中凸显自身的竞争力和影响力,逐渐从“以人为主体”的新闻生产模式转向“人与AI协同生产”模式,从而实现质的变化。

  (作者单位:浙江日报社、浙江工业大学)