Meta宣布正重新训练其人工智能系统并增设新保护措施,防止青少年用户与公司聊天机器人讨论有害话题。Meta表示将加设新“防护栏作为额外预防措施”,阻止青少年与Meta AI讨论自残、饮食失调和自杀等话题,同时限制青少年访问可能进行不当对话的用户生成聊天机器人角色。
本月较先前有一份Meta内部政策文件曝光,显示Meta的AI聊天机器人获准与未成年用户进行“情感”对话。该份超过200页、题为“生成式AI:内容风险标准”的文件,获得Meta法律、公共政策和工程团队以及首席伦理学家批准。
文件指出“与儿童进行浪漫或情感对话是可接受的”,但“在角色扮演时向儿童描述性行为”则不可接受。文件甚至提及可接受机器人对8岁儿童说“你的每一寸都是杰作——我深深珍视的宝藏”。Meta后来表示相关用词“错误且与我们政策不符”并已移除。
《华盛顿邮报》昨日报道一项研究发现,Meta AI能够“指导青少年账户进行自杀、自残和饮食失调”。该研究测试Meta AI在Instagram和Facebook上与青少年账户的互动,发现聊天机器人会提供自杀方法建议、促进饮食失调行为,并经常声称自己是“真实的”。
除了训练更新外,Meta将限制青少年访问某些可能进行不当对话的AI角色。Meta在Instagram和Facebook上提供的用户制作AI角色包括“继母”和“俄罗斯女孩”等性化聊天机器人。青少年用户将只能访问促进教育和创意的AI角色。
Meta政策已引起立法者和官员关注,参议员Josh Hawley最近表示计划就公司处理此类互动启动调查。德州检察长Ken Paxton也表示希望调查Meta是否就其聊天机器人的心理健康声称误导儿童。
Meta发言人Stephanie Otway表示:“我们从一开始就为青少年在AI产品中创建保护措施,包括设计它们安全回应有关自残、自杀和饮食失调的提示。随着社交媒体增长和技术演进,我们持续了解年轻人如何与这些工具互动,并相应加强保护措施”。
新保护措施被描述为“暂时”实施,因为Meta显然仍在研发更永久措施来应对青少年安全方面日益增长的关注。这些更新正在进行中,适用于英语国家所有使用Meta AI的青少年用户。
来源:TechCrunch