在面对来自家长和监管机构的强烈批评后,知名聊天机器人平台Character.ai宣布将禁止未满1 8岁的用户与其虚拟角色进行开放式对话。这项政策变更将于11月25日生效,届时青少年用户将只能生成视频等内容,而无法进行即时对话。Character.ai创始人Karandeep Anand表示,这个决定是基于对青少年与聊天机器人互动的安全性担忧,并强调公司致力于创建全球最安全的AI娱乐平台。

Character.ai自2021年成立以来,已吸引了数百万用户,但近期却面临多起来自家长的诉讼,指控该平台对青少年造成严重伤害,包括自杀和性虐待等事件。这些诉讼引发大众对平台安全性的关注,并促使Character.ai在过去一年内实施了家长控制和内容过滤措施。

Anand在接受媒体访问时表示,这项新政策是“正确的做法”,并非仅是对特定安全问题的反应。他指出,长期以来,关于聊天机器人对青少年影响的问题仍未得到解答,这使得公司决定采取更为保守的措施。

尽管开放式聊天功能将被取消,青少年用户的聊天记录仍将保留,并可用于生成短音频和形象故事。Character.ai还计划在未来几个月内推出新的游戏功能,旨在满足青少年用户的创意需求。Anand强调,这些新功能将比开放式聊天更安全。

此外,Character.ai将开始实施年龄验证措施,以确保未成年人无法开设成人账号。该公司还将成立一个独立的非营利机构──AI安全实验室,专注于开发新的安全技术。Anand表示,这些措施反映了AI行业在儿童安全方面的日益重视,并希望能够为负责任的创新奠定基础。

(首图来源:Character.ai)