- 分享到:
- 全屏阅读
- 放大
- 缩小
- 默认
AI声音滥用现象亟待有效规范
来源:中国新闻出版广电报 时间:2025-02-27
随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到如今的“真假难辨”。不少有声读物采用AI配音,读者甚至能选择模仿某个特定人的声音,这既降低了成本,也增添了趣味性。与此同时,AI声音滥用现象也时有发生。(2月24日《工人日报》)
如今在网络平台上,AI声音随处可见,而有的的确能够以假乱真。并且,据报道,大量软件具备相关功能,一些APP的下载量超千万次。有的只需简单念出一段文字或输入音频片段,这些APP十几秒即可完成声音的合成。还有一些商家在短视频平台带货时,通过AI模仿知名人士的声音编造内容。
AI声音滥用背后的风险不容小觑。可以说,个人的声纹信息作为一种生物识别特征,具有高度的可识别性,其独特性、唯一性及稳定性,使其成为将信息与特定自然人相关联的关键要素。同时,根据《个人信息保护法》的规定,声纹信息被归类为敏感个人信息,受到严格保护。所以说,擅自将他人声音AI化是违法行为。
AI声音滥用现象亟待有效规范。毋庸讳言,AI生成声音的过程中,涉及声音样本的采集、使用、算法的研发和应用等多个环节,每个环节都可能涉及不同主体的权益。保障各方合法权益,法律的完善是基础性工作。于此,进一步完善法律体系,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,需要相关部门重视起来。
平台也应当切实负起责任。一方面是监管责任,如建立健全对AI声音的审核和侵权举报机制,及时发现和拦截侵权、虚假、违法等不良内容;另一方面是预警责任,平台有必要加强相关警示,增强公众对AI声音滥用危害性的认识。平台或企业唯有坚持技术边界,依法合规使用,才能避免AI技术被滥用。
《民法典》第一千零二十三条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。所以,对AI声音涉嫌违法的同样须依法惩治。相关部门应继续加大对利用AI技术进行诈骗等违法犯罪行为的打击力度,形成更加完善的常态化治理机制,绝不能任由AI肆意“偷声”。