ChatGPT 能够构建文本并回答复杂问题。然而,有时创作的内容在事实上是错误的,但在语言上却是合理的——所谓的 幻觉本文解释了主要原因、技术背景并展示了如何降低风险。

1. ChatGPT 中的幻觉是什么?
幻觉是指看似令人信服,但缺乏事实依据的陈述。典型形式包括:
- 虚构的事实或来源
- 矛盾的陈述
- 尽管缺乏证据或证明,但仍过于自信的言论。
示例:
问“谁发明了灯泡?“,ChatGPT 可以正确地说出托马斯·爱迪生的名字——但在某些情况下,它也可能错误地说出尼古拉·特斯拉甚至虚构人物的名字。答案最初在语言上似乎合理,但在事实上是不正确的。
与经典错误相反,幻觉源于 基于概率进行预测的人工智能模型。他们计算出接下来最有可能出现的单词—— 不是是否真实.
2.为什么会出现幻觉?
- 训练数据: 不完整、扭曲或过时的数据会导致错误的模式。
- 生成原理: 模型会选择最可能的单词序列,即使它不正确。较长的答案会放大错误。
- 提示设计: 模糊或不正确的输入会增加出现错误结果的风险。
- 优化目标: 该模型经过训练,旨在尽可能地提供帮助。不确定性或无知很少会得到奖励,因此即使没有坚实的基础,也会做出回应。
Anzeige
MAGICRAVEN 笔记本电脑屏幕扩展器,14 英寸 FHD 1080P 三重便携式显示器,适用于 14 英寸-16 英寸笔记本电脑的便携式显示器,USB C 显示器扩展器适用于 Mac、Windows、Android、Chrome,即插即用
- 【多种显示模式】这款便携式屏幕扩展器支持三种显示模式:复制模式、扩展模式和镜像模式。非常适合商务会议、多任务处理、观影和游戏。帮助笔记本电脑用户解决
3. 如何减少幻觉?
- 清除提示: 精确的问题和背景信息可以减少误解。
- 源绑定(RAG): 通过访问经过验证的信息可以确保费用安全。
- 自我检查: “验证链”等程序检查答案的一致性。
- 不确定性标记: AI 用于指示何时不确定的方法。模型无需猜测,而是可以说:“我对此没有任何可靠的信息。”
使不确定性可见的方法
有多种方法可以帮助用户更好地评估答案的可靠性:
- 概率信息: 在研究中,AI 模型可以将其预估置信度以百分比形式表示。ChatGPT 默认不显示此信息,但可以通过某些提示或技术调整来请求显示。
- 有保留地回答: 诸如“根据现有知识”之类的短语明确表明了局限性。
- 因缺乏依据而拒绝: 该模型并没有提出答案,而是明确指出:“我对此没有任何可靠的数据。”
- 具有权重的多个答案: 该模型提出了不同的选项并对其概率进行排序。
示例提示:
只有当您至少有 80% 的确定性时,才回答以下问题。如果您不确定,请解释原因,并提供几个可能的答案以及您估计的概率。
示例:
问题:“太阳系中哪颗行星最大?”
– 未标注不确定性:“土星。”(错误,但似乎合理)
– 带有不确定性标记:“木星的可能性很大。”
期末考试可能是什么样子
即使不确定性方法有帮助: 最后检查 通常是必要的,以确保答案的质量。
- 人工跟进: 专家在发表之前审查答案。
- 通过外部来源进行事实核查: 将重要信息与官方文件或科学出版物进行比较。
- 人工智能双重检查: 让第二个模型检查答案(“检查这个答案是否正确”)。
- 自动验证: 在应用程序中建立标记或阻止不安全答案的规则。
常见问题
ChatGPT 中的幻觉是什么意思?
产生看似合理但却是虚假或捏造的信息。
这个提示重要吗?
是的,不清楚或者不正确的提示会增加错误输出的可能性。
可以降低风险吗?
是的,通过更好的提示、源链接、自我检查以及使不确定性可见的方法。
外部来源能保证准确性吗?
不,它们提高了事实的准确性,但也需要质量控制。
结论
幻觉是 根据概率计算词序列的人工智能模型目前还无法完全避免。提示设计清晰,来源可验证, 在人工智能不确定时使其可见的方法,风险可以大大降低。
AI提供了很好的支持,但最终的责任还是在用户身上。
(mh - 2025 年 9 月 21 日)
图像 AI 生成
| 透明度: | 本文可能包含附属链接。 这些直接通向提供商。 如果通过此方式进行购买,我们会收到佣金。 您无需支付任何额外费用! 这些链接帮助我们为 win-tipps-tweaks.de 的运营提供再融资。 |
此技巧来自 www.win-tipps-tweaks.de
©版权所有Michael Hille
警告:
不正确地使用注册表编辑器或提示会导致影响整个系统的严重问题并需要重新安装操作系统。 修改注册表文件和使用提示的风险由您自行承担。


