根据美国国家公共广播电台(NPR)的报道,社交媒体Meta正在计划将其产品的潜在风险评估任务,从人工审核转向更多依赖人工智能(AI),以加快审核流程。

报道指出,根据内部文件显示,Meta的目标是让高达90%的风险评估工作由AI完成,甚至包括涉及青少年风险和诚信领域的评估。在诚信领域方面涵盖了暴力内容、虚假资讯等多个方面。然而,接受NPR采访的现任和前任Meta员工则是警告,AI可能会忽视一些人工团队能够识别的严重风险。

事实上,长期以来,Meta旗下包括Instagram和WhatsApp在内的平台其相关的更新及新功能推出,在针对公众推出之前都会经过人工审核。但根据报道,过去两个月Meta大幅增加了对AI的使用。如今,产品团队需要填写一份关于其产品的调查问卷,之后提交给AI系统进行审核。该系统通常会提供即时决策,然后识别出的风险领域。之后,产品团队需要进行解决AI提出的问题,完成后才能发布产品。

报引导用一位Meta前高层表示,减少审核历代代表着正在创造更高的风险。产品变更的负面外部效应在开始造成问题之前更不可能被阻止。不过,Meta在一份声明中回应表示,公司仍会利用人类专业知识来评估新颖且复杂的问题,而降低风险决策交给AI来处理。

另外,Meta几天前公布了其最新单季诚信报告,这是该公司2025年早些时候改变内容审核和事实核查政策后所提出的首份报告。报告显示,在政策调整后,被删除的内容数量如预期般有所下降,但霸凌和骚扰行为、以及暴力和血腥内容却略有上升。

(首图来源:shutterstock)