
在当今人工智能(AI)研究中,一项新兴技术可能会显著改善生成式AI和大型语言模型(LLMs)的运行方式。这项研究提出一种创新的方法,旨在减少AI的幻觉现象并提高其事实性。这种方法的核心在于重新设计AI模型内部的处理流程,进而克服目前生成回应时的局限。
目前的AI模型通常是以“传递”的方式运行,最终的回应仅是最后一个组件的结果,过程中其他组件的处理结果则被忽略。这项研究建议,在生成回应的最终阶段,增加一个机制来回顾之前每个阶段的处理过程,这样可以更全面地分析并确定最终结果应该是什么。
为了更好地理解这个概念,可以用一个模拟来说明:假设有十个人排成一列,每个人都在尝试解决同一个数学问题。每个人都根据前一个人的答案来给出自己的答案,这样一来,最终的答案可能会受到前面几个人的影响,但最终的接收者却只能看到最后一个人的答案,无法得知过程中的其他答案。这样的情况可能导致错误的结果。
这项研究的关键在于,当AI模型生成最终回应时,应该考虑到之前各层的输出,这样可以更好地集成资讯,提高最终答案的准确性。研究指出,这种方法不需要对现有的人工神经网络进行大规模的代码修改,而是可以在不干扰原有结构的情况下,增加一个新的处理步骤。
研究人员认为,将早期层的输出与最终层的输出结合,可以更好地稳定最终答案,减少生成虚假或不准确结果的风险。
此外,OpenAI的研究指出,当前的评估方法设置了“错误的奖励机制”,这是导致AI幻觉的重要根源。根据最新数据,OpenAI ChatGPT的GPT-5模型在幻觉率上比GPT-4降低了约45%至80%。这一创新方法的提出,无疑为解决当前LLMs面临的挑战提供了新的思路。这项研究是否能够突破现有AI设计的限制,仍有待观察,但它无疑为未来的AI发展提供了新的可能性。
研究成果发表在arXiv上,标题为《SLED: Self Logits Evolution Decoding for Improving Factuality in Large Language Models》。
(首图来源:shutterstock)










