引言:大模型这个超级赛亚人,虽然看了很多书,但并不完全理解书中的内容。通过强大的记忆力将知识存储在大脑中,并根据一些模糊的规律来联想相关的词汇和短语。每当它听到一些话时,就会按照这些模糊的规律组织出一些语句,然后从中选择一段来说出来,这些语句看起来符合语法规则,但有时候却是在胡说八道。
正在说胡话的机器人
从2022年11月30日ChatGPT上线以来,AI生成式大模型浪潮现已风靡全球。在体验试用这些大模型的过程中,我们很容易发现有些回答令人喜悦,很有帮助,但是也很容易发现一些回答就是胡说八道,尤其对于想借助大模型查询专业知识用于撰写论文的情况来说。AI通过预测最符合查询问题的字符串来进行输出,有些情况下缺乏相应的逻辑推理能力,并没有考虑到其回答与事实不一致之处。换句话说,AI有时会为了取悦我们而偏离实际,这时候就会产生所谓的幻觉(hallucination)。
国内外的AI生成式大模型
在众多大模型中,毋庸置疑,各方面综合来看,ChatGPT是表现最好的。OpenAI的开发人员添加了许多护栏来控制它给出的响应类型。其中一些是为了防止它发出攻击性的谩骂,但另外一些则是为了防止它愚蠢地跳跃逻辑或虚构虚假的历史事实。
ChatGPT的回答(很准确)
文心一言的回答(幻觉)
讯飞星火的回答(幻觉)
尽管这样,还是难以避免大模型产出幻觉。那么如何才能减少AI大模型的幻觉呢?以下给出了一些避免大模型幻觉的方法,主要与提示工程(Prompt Engineering)有关,也即优化我们输入的提示语。
1.限制可能的结果,尽量做选择题而不是论述题
开放式的问题有很大自由度去创造随机(不准确)的回答,而选择题意味着正确的答案就在面前,利用已经储存下来的知识,相对容易地通过排除过程推断出正确的答案。
问答题与选择题
2.将相关的数据和信息提供给模型
我们不能指望在没有得到关键信息的情况下给出解决方案,人工智能也是如此。将提示与相关信息或现有数据结合在一起,可以让模型更好地抓住我们真正感兴趣的点。
3.计算的时候给模型提供数据模板
解决数学问题的最佳方法是在提示中提供示例数据,以指导AI模型的行为,使其远离不准确的计算。我们可以生成一个数据表,作为模型要遵循的参考,而不是以文本格式写出提示。
明确数据格式的输入
4.给模型特定的角色,并让它不要撒谎
当我们给模型分配一个角色时,相当于给了它更多的指导,让它知道我们在寻找什么。从本质上讲,我们给了它一个选择来考虑某些东西是否错误。
假定身份的回答
5.告诉它想要什么,以及不想要什么
我们可以根据自身的要求预测AI的反应,并先发制人地避免接收到不想要的信息。
明确需要与不需要的回答
6.调整模型的温度(temperature)
温度(temperature)控制着结果的随机性。这里的温度在有些产品页面上没有对外提供,但以接口的形式调用的时候可以设置。虽然较低的温度会产生相对可预测的结果,但较高的温度会增加其反应的随机性,因此它可能更有可能产生幻觉或“创造性的结果(大脑烧糊涂了[呲牙])。
总的来说,目前大模型的幻觉问题还未解决,就连OpenAI也仍在尝试通过增加过程反馈让模型更加接近人类思维链的方式来减少幻觉。以上是可能减少其产生幻觉的几种方法,最终模型输出是否可靠还是需要大家自己验证的。
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved