Created
Jul 30, 2024 10:36 AM
Favorite
Favorite
Priority
备注
推荐
类型
Prompt
您好!
在使用AI大模型的过程中,是否遇到过它一本正经地“胡说八道“的时候。
对,这就是AI幻觉。
根据2024年6月的调研,72%的人相信AI能提供可靠信息,但75%的人至少被AI误导过一次。
反正,小编不知是遇到多少次了。所以这几天特意梳理了一下来龙去脉,下面是关于AI幻觉的关键知识点总结。
AI幻觉定义:人工智能模型生成的内容与现实世界事实或用户输入不一致的现象。
类型:
  1. 1、事实性幻觉 (Factuality Hallucination)
      • 定义: 模型生成的内容与可验证的现实世界事实不一致。
      • 例子: 错误地回答第一个在月球上行走的人是Charles Lindbergh。
  1. 2、忠实性幻觉 (Faithfulness Hallucination)
      • 定义: 模型生成的内容与用户的指令或上下文不一致。
      • 例子: 用户要求总结当前年份的新闻,模型却描述了过去的事件。
产生原因:
  1. 1、数据源问题
      • 数据缺陷:错误信息和偏见。
      • 知识边界:领域知识缺陷和过时的事实知识。
  1. 2、训练过程问题
      • 架构缺陷:模型设计限制。
      • 曝露偏差:依赖错误token产生级联错误。
      • 能力错位:模型能力与数据需求不匹配。
      • 信念错位:迎合人类偏好牺牲真实性。
  1. 3、推理问题
      • 抽样随机性:生成内容的随机性。
      • 解码表示不完美:关注不足和表达能力受限。
现在,我们知道了问题的原因,接下来看看有什么样的消除策略。由于大模型准确来说,它就是一个软件系统,我们是终端用户。根据上面原因,首先我们要清醒认识到100%消除幻觉,是不太可能的,如它受随机性、数据时效性的设计限制。我们需要考虑的是如何降低AI幻觉出现的机率,总的来说,有如下两个方向的应对措施。
站在模型研发的角度,AI研发团队的应对措施:
1、迭代优化模型
通过持续的模型迭代,改善AI的理解和推理能力。
2、模型解释性
使用模型解释工具,理解并优化模型预测结果。
3、更丰富的训练数据
供多元化和平衡的训练数据,减少过度推断或假设。
4、用户反馈
收集用户反馈,根据实际案例进行模型优化。
5、使用RAG控制内容
引入检索增强生成(RAG),优化输出,引用权威知识库。
站在用户的角度,AI使用者的应对技巧:
1、提升个人判断力
持批判性思维,不盲目接收AI信息。
2、理解AI的局限性
了解AI技术发展程度,不完全依赖AI作为信息来源。
3、优化问题提问方式
使用明确和具体的提问方式,减少AI的过度推断。
4、重复或重新提问
对有疑问或不满意的回答进行重复或重新提问。
5、索取支持信息
要求AI提供答案来源,验证答案准确性。
其中,第1点要做到,与提问者的专业性、知识面息息相关,不是短时间内能习得的。后面3点,小编是经常干的事,前面曾分享过如何通过优化提示词消除AI幻觉的文章,见消除AI幻觉:提示词中分隔符的精妙应用
最后综之,作为AI产品的用户,为了能从大模型中拿到好的结果,目前能做的也就是提示词优化及如何与AI对话的技巧上了。
重要提示
希望对AI感兴趣,特别在AI办公领域有意愿探索者,一起学习,一起探索,相互帮助,相互成长。小编建一个学习群,进群二维码(请在备注中说明来意,如:张三学AI应用)
notion image
【进群收益】
1、AI学习路上的问题交流,陪伴;
2、免费AI学习资料分享;
3、群主学习与实战经验干货分享;
4、工作中AI应用问题,群主尽量抽时间免费答疑;
【往期AI应用相关文章】
AI提示词
AI绘图
AI办公
AI学习
AI生活
AI提示词6
Loading...