美国国家标准暨技术研究院(National Institute of Standards and Technology,NIST)上周发布Dioptra 1.0,这是一个用来评估AI安全及可靠性的软件测试平台,它支持AI风险管理框架(AI RMF)的测量功能,可评估、分析及关注AI风险。

Dioptra最早现身于2022年,当时NIST形容它是一个用来评估适合用来保护机器学习系统之安全技术与解决方案的方法,并让研究人员比较用来对抗不同攻击、数据集或各种状况的方法。

而今发布的Dioptra 1.0版预计提供几项功能,一为模型测试,如第一方于开发生命周期中评估AI模型,或是第二方在收购前或于实验室环境中以Dioptra来评估AI模型,以及身为第三方的审计员或合规官员用来评估模型的法规与道德标准。

此外,Dioptra还可协助学术界或产业的研究人员有系统地关注与记录AI实验;或是提供一个标准化平台,让参与AI竞赛或评估挑战的参赛者测试他们的模型;也能让红队借由模拟攻击或对抗条件,来测试AI模型的韧性与安全性。

整体而言,NIST期望Dioptra成为一个多功能的平台,在不同的开发阶段或用途上测试、评估与确保AI模型的可靠性。