技术向善:筑牢AI治理的法治屏障
来源:中国新闻出版广电报 时间:2025-03-13
当前,人工智能技术正以前所未有的速度重塑社会生活。全国人大代表、小米集团创始人雷军在全国两会期间提交5份建议,其中包括“关于加强‘AI换脸拟声’违法侵权重灾区治理的建议”,将公众视线聚焦于这项技术的治理难题。
当数字分身技术突破伦理边界,如何在技术创新与公民权益间架设防护网,已成为数字时代的重要课题。
“AI换脸拟声”技术最初以“创意助手”的形象进入公众视野:影视作品借此重现历史场景,文博机构通过虚拟讲解活化传统文化。但随着技术门槛降低,其破坏性逐渐显现。例如,2022年2月,浙江温州市公安局瓯海分局仙岩派出所接到陈先生报案,称其被“好友”诈骗近5万元。警方调查发现,诈骗分子利用AI换脸技术制造了陈先生与“好友”视频聊天的假象,从而骗取其信任并实施诈骗。2024年8月,上海市民刘先生到上海闵行公安分局报案,称其在两个月前通过一则短视频结交了网友“焦女士”。“焦女士”以家属生病、进货需要资金等理由,陆续向刘先生“借”了近20万元,而这些短视频里的“焦女士”都是通过AI生成,并非真人。
这些案例折射出三重治理困境:其一,人格权益保护存在漏洞,肖像、声音等生物特征数据面临滥用风险;其二,社会信任基石遭遇冲击,虚假信息消解公众判断力;其三,法律追责面临新挑战,现有法律法规难以精准匹配技术特性。
破解“AI换脸拟声”治理难题,需建立法律规制、技术防控、社会共治的协同机制。
法治建设需突出前瞻性。尽管《民法典》已明确声音权保护,《互联网信息服务深度合成管理规定》要求标注AI生成内容,但具体场景中的权责边界仍需细化。笔者建议借鉴北京互联网法院“全国首例AI声音侵权案”判例经验,加快人工智能单行法立法进程,建立生物特征数据分级管理制度,对公众人物适用“授权+追责”双重机制,对普通公民强化“知情同意”原则落实。
技术防线要体现反制力。平台企业应开发AI内容识别系统,建立“生成备案—传播监测—溯源追责”的全链条管理体系。当前腾讯、字节跳动等企业试点的数字水印技术,可通过隐形标识实现内容溯源,此类创新应加速推广。建议推动建立“AI生成内容国家数据库”,要求所有深度合成内容上传备案,为执法取证提供支撑。
社会共治重在强根基。既要通过典型案例宣传提升公众防范意识,也要强化行业自律。中国网络视听协会可牵头制定《AI内容创作自律公约》,建立违规创作者“黑名单”制度。短视频平台需改变“流量至上”的运营思维,对AI换脸视频实施“二次审核”机制,切断违法内容传播链条。
技术治理的本质是价值选择。雷军代表建议中强调的“加快单行法立法进程”“强化行业自律共治”“加大普法宣传的广度力度”,正是把握这种平衡的关键支点。在杭州深度求索人工智能基础技术研究有限公司开发的AI审核系统中,已实现98%的深度合成内容识别准确率,证明技术手段可以有效补位法律滞后。
治理创新需要更多这样的实践探索。2024年12月上线的个案全景地图和数字化办案辅助模型,是全国检察系统首个AI全流程办案导航系统。上海检察机关正通过技术机构实体化、鉴定手段智能化、监督体系全域化的改革路径,构建起具有示范效应的AI司法应用生态。其经验已被最高检列为“数字检察”重点推广项目。2024年11月28日,教育部发布《关于加强中小学人工智能教育的通知》,要求“2030年前在中小学基本普及AI教育”。短短数月,AI进入全国的中小学,覆盖全国数以百万计的中小学生。这些实践表明,当技术创新与制度创新同频共振,就能织密防护网络。
站在数字文明的门槛前,我们既要为技术创新保留试错空间,也要为人格尊严筑牢防护屏障。技术的温度,永远来自对人类价值的坚守;创新的高度,始终依存于法治文明的根基。唯有如此,方能让AI技术真正成为造福人类的“智慧之翼”。