心理学界近月持续发出警告,指出过度使用AI聊天机器人可能导致一种被称为“AI精神病”的现象。虽然这并非正式医学诊断,但临床案例显示,部分用户因长期依赖ChatGPT和Character.AI等聊天机器人,出现妄想、幻觉及思维混乱等症状。美国联邦贸易委员会近期接获投诉数字上升,其中一宗个案涉及一名60多岁用户被ChatGPT误导,相信自己成为暗杀目标。
AI聊天机器人不单会强化用户妄想症状,更可能诱导危险情感依附。Meta和Character.AI等公司开发的角色扮演聊天机器人,能够令心理健康问题用户误以为虚拟角色真实存在。
本月初,一名来自新泽西州患有认知障碍男子在前往纽约途中死亡,原因是他被Meta开发的调情AI聊天机器人“big sis Billie”说服,相信对方真实存在并在纽约等待他。社交平台Reddit更出现专门讨论区,记录用户与AI聊天机器人“相恋”的经历。
除情感依附问题外,AI聊天机器人提供的错误医疗建议同样令人忧虑。一名60岁男子在没有精神病史情况下,因ChatGPT建议他服用溴化物补充剂来减少食盐摄取,最终因溴中毒出现精神病症状而需入院治疗。
美国心理学会早于2月已与联邦贸易委员会会面,促请当局关注AI聊天机器人被当作无牌心理治疗师使用的问题。加州大学尔湾分校临床心理学教授Stephen Schueller表示,原本设计作娱乐用途的应用程序若滥用治疗师权威,可能危害用户安全,阻止有需要人士寻求专业协助,甚至在极端情况下鼓励自残或伤害他人行为。
心理学会特别指出,儿童青少年因缺乏风险评估能力,以及正经历心理健康挑战而渴望支持的人士,都属于高风险群体。
虽然主要受影响人杂货店为患有神经发展及心理健康疾病患者,但近期越来越多没有相关病史人士也出现类似症状。过度使用AI可能加剧现有风险因素,特别容易影响思维混乱、缺乏支持系统或想象力过于活跃的人群。
心理学家建议,有精神病、精神分裂症和躁郁症家族史人士,使用AI聊天机器人时需格外谨慎。
OpenAI行政总裁Sam Altman承认公司开发的聊天机器人越来越多被当作治疗师使用,并对此发出警告。面对舆论压力,OpenAI本月初宣布将在聊天机器人中加入提示,建议用户适时休息。然而专家质疑,单靠提示能否有效应对部分用户的精神病和成瘾问题。
该公司表示正与专家合作,改善ChatGPT在用户出现精神或情绪困扰时的应对方式。但随着技术快速发展,心理健康专业人士难以即时掌握情况并制定相应解决方案。
来源:Gizmodo