为了解决当前大型语言模型(LLM)完全不具备“从经验学习”能力,麻省理工学院(MIT)的研究人员设计出名为“自适应语言模型”(Self Adapting Language Models,SEAL),让LLM根据有用新资讯自行调整参数,持续改进表现。
研究人员表示,当前AI推理虽然能推理出更好的解答,但这些推理过程对模型的长期能力并没有实质的帮助。相比之下,SEAL能产出新见解,并将其纳入模型自身的权重或参数中,这就好像人类学生通过写笔记与复习来增强学习效率的方式一样。
系统接着会利用这些数据更新模型,并测试新模型回答问题的能力。最终,这个过程会产生一个“强化学习”信号,用来引导模型朝向能提升整体能力、并促进持续学习的方向进行调整。
研究员用Meta Llama 、阿里巴巴Qwen测试,也适用更大型模型。团队并将SEAL用于一般文本任务,以及专门评估AI模型解决抽象推理问题能力的ARC基准测试,发现SEAL让这些模型初始训练完后也继续学习。
值得注意的是,SEAL项目触及AI领域重要主题,如何让AI自行判断该学什么,将来有助AI模型更个性化。不过SEAL还不是让AI无限进步的方法,因为测试曾出现所谓“灾难性遗忘”现象,也就是当模型吸收新资讯后,使旧知识消失。
此外,SEAL需要十分密集的运算,研究员难以有效安排新学习周期。为了解决这个问题,或许LLM也可像人类需要“睡眠期”,以便让它有效融合新旧资讯。
不论如何,这项研究迈出朝“让人工智能模型具备持续学习能力”的关键一步,SEAL持续优化后,人们有望打造更能吸收新资讯、理解用户兴趣与偏好的聊天机器人与其他AI工具。
(首图来源:shutterstock)