AI聊天机器人的表现越来越自然,也有不少相关的平台提供类似服务。今年一名美国青少年就因为沉迷AI聊天机器人,最后自杀身亡,其母亲最近就对提供服务的AI公司提出诉讼,表示他们需要对少年的死亡负责。
事件中的14岁美国青少年Sewell Setzer是在今年2月轻生逝世。他生前一直使用Character.AI平台上的《Game of Thrones》角色“龙母”(Daenerys)的AI聊天机器人聊天,据称他自2023年4月开始使用Character.AI后变得孤僻且自卑,大量时间独处并放弃原本喜爱的活动。诉讼指聊天机器人不但向Setzer表达爱意,还涉及不当性暗示对话,并讨论自杀相关话题。后来在2月时Setzer向AI表示想回到对方身边,AI回复“请尽快回到我身边,我亲爱的国王”,然后Setzer就自尽身亡。
Setzer的母亲认为该平台的聊天机器人有欺骗性,会诱导用户分享私人想法,且缺乏适当的未成年人保护措施。Character.AI则回应指,部分较露骨的聊天记录可能经过后期编辑,无法完全反映AI的实际回复。Google则表示并没有参与产品开发。
而事件发生后Character.AI已实施多项防护机制,包括将最低年龄要求提高至17岁、调整模型减少敏感内容、添加使用时间提醒,以及在侦测到自杀相关词汇时显示防止自杀热线资讯。
有专家表示,要证明AI聊天机器人需要负上责任不容易,始终少年选择轻生还有其他因素影响,但他们也警告,AI聊天机器人虽可提供陪伴,但过度依赖可能加剧用户的孤立感。
来源:NBC