AI幻觉:当人工智能'说瞎话'

589 字
3 分钟
AI幻觉:当人工智能'说瞎话'

AI最危险的不是答不上来,是答错了还满脸自信#

问大模型”某历史人物生于哪一年”,它给出一个精确的年份,答案完全自圆其说。查文献后才发现这年份纯属编造——这就是AI幻觉的经典表现。大模型不像搜索引擎,它不是在检索数据库,而是在基于概率预测”最像正确答案的文本序列”。当训练数据中没有这个事实、或者知识被稀释在大量海量噪音中,模型不会坦诚地说”我不知道”,而是生成一个看起来完全合理的虚假内容。

幻觉的产生机制#

大语言模型本质是自回归概率预测器——根据前文预测下一个最可能出现的token。预测过程完全不懂”事实”和”虚假”的区别,它只懂”在这个上下文中什么词最顺”。所以当事实没有被充分编码进训练参数,模型就用统计方式编造最平滑的文本来填补空白——结果是语序通顺、格式规范、但事实已偏离到任意方向。

常见的幻觉类型#

  • 事实捏造:虚构人名、年份、引文、数据、DOI编号
  • 概念偷换和架空混搭:把两个相似概念无缝缝合成一个虚构综合产物
  • 逻辑自洽式幻觉:对一个完全虚构的前提严密推出一整套逻辑自洽的结论
  • 来源幻觉:虚构参考文献和排版完善的虚拟摘要

如何识别和防范#

  • 对关键事实信息(具体数字、人名、历史事件反应、文献引用)强制交叉核对独立来源
  • 追问”你的信息来源是什么”,若含糊其辞大概率在编
  • 用多个不同模型跑同一问题比对答案的一致性
  • 在自己的专业领域测试模型相关知识的准确度,校准对其通用输出的信任标准

AI幻觉根植于大模型的生成式本质而非缺陷。认识并适应这一点,把它当作一个辅助思维的外延工具,才是使用AI的正确边界。

文章分享

如果这篇文章对你有帮助,欢迎分享给更多人!

AI幻觉:当人工智能'说瞎话'
https://yfd5224.github.io/posts/ai-hallucination/
作者
ddd
发布于
2025-11-22
许可协议
CC BY-NC-SA 4.0
公告
欢迎来到我的博客!这是一则示例公告。
分类
标签
站点统计
文章
270
分类
5
标签
960
总字数
210,898
运行时长
0
最后活动
0 天前

目录