
人工智能(AI)聊天机器人近年来已成为日常生活中的便利工具,然而,它们偶尔会出现“幻觉”(hallucinations)现象,也就是自信满满地给出错误资讯,让用户感到困惑。针对这个问题,开发ChatGPT的OpenAI最近发布研究报告,指出AI产生幻觉并非是技术上的根本缺陷,而是当前的训练和评估方式,鼓励AI在不确定时“猜答案”,而非坦承“我不知道”。
AI幻觉指的是AI模型产生“听起来合理,但实际上是错的”的资讯。OpenAI举例,当他们向聊天机器人询问一位研究员的博士论文题目和生日时,模型都给出了多个答案,但全部都是错的。这显示,即使是看似简单的提问,AI模型仍可能因为资讯不足而产生错误的回答。
OpenAI的研究解释,这种现象与AI的训练方式息息相关。目前主流的评估方式,就像一场多选题考试:如果模型猜对了,就能得分;如果选择“我不知道”,则分数为零。为了在评分榜上取得高分,AI模型被鼓励去猜测答案,因为即使猜错,也总比完全不回答来得好。
举例来说,当AI不知道某人的生日时,如果它随机猜一个日期,有机会猜对。但如果它回答“我不知道”,则注定得不到任何分数。长久下来,这种机制导致模型学会了“宁可乱猜,也不要说不知道”的行为模式,进而增加了幻觉发生的机率。
OpenAI认为,解决AI幻觉问题的关键,在于改变现行的评分机制。他们建议,应该设计一种新的评估方式,对于AI坦承不确定或无法回答的状况给予部分分数,同时严格惩罚那些自信却错误的回答。
虽然市面上已有部分评估方法考虑了“不确定性”,但OpenAI强调,这还不够。只要大多数的评分榜单仍旧只看重“准确度”,开发者就会持续训练出偏好猜测的AI模型。因此,他们呼吁整个AI产业重新思考评分标准,才能从根本上解决幻觉问题。
OpenAI也解释了幻觉的技术成因。AI模型在训练初期,是通过“预测下一个字”的方式来学习。然而,这种方式并未针对“正确”或“错误”的资讯进行标记。这就像是训练一个图像识别模型,只提供数百万张猫和狗的照片,却没有提供“这张是猫,这张是狗”的明确标签。
对于一些有固定模式的资讯(如拼写或标点符号),AI模型能轻松学会。但对于不规则、随机的低频率资讯(如某个人的生日),模型很难单纯从模式中学习,这就容易导致幻觉的产生。
OpenAI的研究打破了几个关于AI幻觉的常见偏见:
OpenAI表示,他们最新的模型已经显著降低了幻觉率,并将持续努力减少AI产生自信却错误的资讯,让AI系统更加可靠。
文章来源:OpenAI










