给AI数据过“安检” 专家解读如何让大模型反“投毒”

发布时间:2026年04月01日 10:26     来源:中国新闻网

  从搜索引擎到AI大模型,我们获取信息的入口正在发生变化。近期媒体曝光,不法机构利用GEO(生成式引擎优化)技术批量生产虚假信息,对大模型“投毒”,让其错把“电子垃圾”当成“干货”输出给用户。专家提醒,这导致AI语料库面临“近亲繁殖”风险,大量平庸、重复的内容被模型吸收,加剧其“逻辑退化”与“幻觉”。

  对抗“投毒”,技术防线正在构筑。研发人员正训练大模型“自我甄别”真伪的能力,核心是建立信源评分体系与第三方交叉校验机制。同时,用户也需保持警惕,对AI提供的消费建议应自行交叉验证。 净化AI空间需企业、监管与平台全链路联动:企业需建立语料库动态防火墙,识别并清洗AI生成的劣质数据;监管方需推动数据确权与安全评估;平台则需强化AI内容的水印标识。(记者 卢晓娜 北京报道)

责任编辑:【罗攀】

版权声明:中新视频版权属中新社所有,未经书面许可的使用行为,本社将依法追究其法律责任。
发表评论
文明上网理性发言,请遵守新闻评论服务协议
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
Copyright ©1999-2026 chinanews.com. All Rights Reserved