随着DALL‧E和Stable Diffusion等AI产图模型大行其道,加上Shutterstock和Adobe更抢先将这类AI模型集成至自家主力产品线,使网络聊天机器人也有编辑图片甚至创图能力,使恶意攻击者能编修及操纵未授权的合法图片。故MIT麻省理工学院计算机科学与人工智能实验室(CSAIL)开发出能杜绝浮滥风气的“PhotoGuard”技术。

用浮水印增加有心人窃取图片或图片作品的难度与门槛已有很长时间,但拜AI产图模型流行,黑客可直接用模型非法编修或改造图片。面对威胁,MIT“PhotoGuard”技术采能“扰动”(perturbation)AI的“编码器”(encoder)攻击法,改变选定像素,破坏AI理解图片的能力。

AI算法模型会以复杂数学表示目标图像每个像素位置和颜色,而“编码器”攻击是引入伪影,阻止AI理解看到的图片内容。

不仅如此,“PhotoGuard”技术采更先进且运算密集的“扩散”(diffusion)攻击,让黑客特殊处理过图(优化图片扰动,与黑客锁定图类似)误认成想攻击的目标图,为其加上“免疫”防护罩。AI若试图编辑“免疫”图,都会套用至“假目标”图,最终只会产生看起来非常不真实的图片。

但这技术并非万无一失,攻击者可通过增加数字噪声、剪贴或反转等,逆向工程受保护的图。麻省理工学院博士生和论文主要作者Hadi Salman表示,要使保护机制可行,还有许多工作要做,唯有集合模型开发人员、社交媒体和政策制定者众人之力,才能有效防御未授权图片编辑攻击。

(首图来源:视频截屏)