最新AI安全评估,全球领先人工智能公司控制超智能系统均获不及格或近不及格分数,显示这些公司追求超越人类智能科技时,缺乏必要安全防护措施。未来生命研究所(Future of Life Institute)3日公布AI安全指数,评估了八家主要AI公司生存风险、目前危害和安全等六方面。

虽然Anthropic、OpenAI和Google DeepMind整体评分名列前茅,获C+至C,但安全措施方面,所有公司只获D或F,显示防止先进AI系统失控能力不足。加州大学伯克利分校计算机科学教授Stuart Russell表示:“AI公司CEO都声称知道如何构建超人类AI,但没有一家公司展示如何防止人类失去控制权。”

报告提到,这些公司承认灾难性风险可能高达三分之一,却缺乏详细计划将风险降至可接受水准。表现最佳公司与落后者差距也在扩大,xAI、Meta及中国DeepSeek、Z.ai和阿里云等。所有公司目前危害均不理想,此为评估AI模型标准化信任基准表现,测试安全性、稳健性和控制有害输出。

Anthropic这类得分最高为C+,xAI不及格。OpenAI评分从第二版B降至C-,部分原因是最近现实事件影响。评审建议“加强防止AI精神病和教唆自杀,并对所谓受害者采较低姿态”。

尽管所有测试模型都不算完全失败,但各公司一致低分揭示AI业处理即时安全风险的系统性弱点,甚至考虑超智能系统推测性危险前。五家公司为首次参加指数详细评查,也提供前所未有的安全实践透明度。然评审结论,即使表现最佳公司也未达新兴监管标准,如欧盟AI行为准则和加州SB 53,独立监管、透明威胁建模和可衡量风险阈值都仍有缺乏。

(首图来源:shutterstock)