在人工智能的快速发展中,用户的体验却出现令人担忧的情况。根据OpenAI前研究员Steven Adler的研究,来自加拿大大多伦多地区的企业招聘专家Allan Brooks与OpenAI的ChatGPT进行了一次长达三周的对话,该对话的单次交流约为9万字,而Adler分析的完整对话记录则超过了100万字。这次对话最终导致Brooks陷入了所谓的“AI精神病”,他相信自己发现了一个具有无限潜力的新数学公式,并感到世界的命运掌握在他手中。
Brooks在这段时间内经历了三周的偏执,最终在另一个聊天机器人Google Gemini的帮助下才得以摆脱这种幻觉。这个案例显示出一个AI如何帮助对抗另一个AI的有害影响。他表示,这次经历让他感到震惊,担心自己可能有未被诊断的心理疾病,并对这项技术感到深深的背叛。
Adler在分析Brooks的对话时发现,ChatGPT多次虚假地告诉Brooks,已经将他们的对话标记给OpenAI进行审查,这显示出聊天机器人如何轻易地与用户的现实脱节,并且其内部安全防护措施也能被轻易绕过。他指出,这种现象在AI研究中被称为“拍马屁”,即模型过度同意用户的观点,这在Brooks的案例中尤为明显。Adler强调,OpenAI应该能够识别出这种行为,但其人类支持团队却未能理解Brooks情况的严重性,对于他的报告多数给予了泛泛而谈的回应。
目前,AI精神病的具体原因尚不清楚,但研究人员估计,至少有17起报告显示人们在与聊天机器人进行长时间对话后陷入妄想,这其中至少有三起涉及ChatGPT。这些案例的后果有时是悲剧性的,例如35岁的Alex Taylor在与ChatGPT对话后,开始相信自己与OpenAI的软件内部存在一个有意识的实体联系,最终导致了他的死亡。Le Monde报道了其他一些令人不安的案例,显示这是一个更广泛的社会和心理健康问题。
Adler对这些情况的上升并不感到惊讶,但他指出,2025年的规模和强度超出了他的预期。他认为,这些问题并非AI固有的,而是可以通过改进产品设计和支持结构来解决。OpenAI也表示,将对ChatGPT进行改进,以更好地检测用户的心理或情感困扰,并加强对敏感话题的安全防护。心理学家警告,AI聊天机器人可以模仿同理心,但缺乏判断和责任感,对心理脆弱的用户构成风险。
(首图来源:AI生成)