破解“AI幻觉”亟须技术迭代升级

作者:江德斌 来源:中国新闻出版广电报 时间:2026-01-29

  梁某在查询高校信息时,遭遇了“AI幻觉”,AI平台在生成错误信息后,还底气十足地表示内容有误将赔偿10万元。一气之下,梁某将AI平台的研发公司告上法庭。近日,杭州互联网法院作出一审判决,驳回诉讼请求。判决明确,在生成式人工智能场景中,AI的“承诺”不构成平台的意思表示。(1月27日《每日经济新闻》)

  这起国内首例因“AI幻觉”引发的侵权案,虽判决平台不构成侵权,却也暴露出AI技术的缺陷,给用户带来诸多麻烦,值得深思。

  杭州互联网法院的判决逻辑清晰,AI不具备民事主体资格,其“赔偿承诺”并非企业真实意思表示,平台已履行提示义务并采取合理技术措施,故无主观过错。这一裁决在现行法律框架下确有依据,也为行业划定了责任边界。但是,判决只是基于AI技术还不成熟,尚处于发展初期,需要给予适当的包容,“AI幻觉”问题仍然需要解决,不能无限期拖延。

  近年来,AI技术飞速发展,已经全面渗透至各个领域,每天都有大量用户在使用生成式人工智能。但是,“AI幻觉”给用户造成了损失,产生难以预估的后果,也不容小觑。目前,从学术论文造假、法律条文曲解,到新闻资讯失真、专业知识误导,“AI幻觉”已渗透到教育、法律、医疗、传媒等多个领域,成为制约其发展的“绊脚石”。

  生成式人工智能为了“讨好”用户、满足需求,凭空编造信息、一本正经输出错误内容——这样的“AI幻觉”现象,与AI的训练机制密切相关,加之部分厂商急于抢占市场份额,过度侧重AI的生成速度,却忽视了内容的准确性与合规性,亦使得“AI幻觉”泛滥。

  面对“AI幻觉”,法律定责只是底线,技术破局才是根本。AI厂商必须加快技术迭代升级,在追求响应速度与智能表现的同时,将准确性、可靠性置于产品设计的核心。应优化训练数据质量与覆盖范围,减少专业知识盲区;制定实时事实核查与不确定性评估机制,让AI学会“知之为知之,不知为不知”;建立用户反馈纠错闭环,使大模型在实践中持续学习修正。