随着具身AI机器人与智能移动载体的技术成熟,它们正快速进入公共与家庭场景,大幅改变了我们的工作与生活模式。然而,这种高度自主、能与物理世界互动的设备,一旦面临安全威胁,其后果将远超传统的网络攻击。

VicOne LAB R7实验室负责人张裕敏对此发出警示,强调业界对机器人安全的理解仍处于初阶阶段,许多厂商甚至将具高风险的远程控制功能视为产品“功能”的一部分,而非安全漏洞。

为此,VicOne LAB R7实验室借由此次受访的机会,对外公布一份详尽的安全风险检核表包括:《具身AI智能移动载体安全风险检核表》(以下简称《安全检核表》),以及《具身AI智能移动载体延伸相关领域安全风险检核表》(以下简称《安全检核表2》),目的就是希望可以为整个机器人产业链、企业甚至个人用户,提供一套确认安全风险的基本核实基准。

张裕敏明确指出,这份检核表应被视为一个确认安全风险的基础清单,所有列出的项目都应该是安全检核的基本项目。

他更表示,这张检核表堪称“全球第一份”针对机器人所推出的安全检核表,希望可以做到抛砖引玉的效果,借此引领社会大众能够正视具身AI机器人带来的全面挑战。

针对机器人本体,从硬件底层到智能核心的深度验证

针对具身AI智能移动载体本身的安全,VicOne LAB R7实验室公布的《安全检核表》,已经涵盖了从最底层的硬件芯片到最上层的AI模型,要求进行多达数十项的严格检查。

张裕敏认为,从产业到个人,若要引进具身AI机器人或相关智能移动载体时,都可以参考检核表的具体项目做逐一查验。

针对在最底层的硬件层(Hardware Level),进行安全检查必须深入到芯片与传感器。

为了防范恶意固件植入与后门,《安全检核表》则要求必须验证芯片安全启动(Secure Boot)、硬件加密模块(HSM/TEE),能否抵御旁信道攻击(Side-Channel Attack),通过电力分析、电磁辐射或时间串行分析,测试是否泄露密钥或模型资讯。

此外,传感器安全的验证,如模拟假信号攻击(GPS spoofing)或传感器注入,也是确保机器人不会被欺骗而做出错误行为的关键。

向上推进到固件层与操作系统层,检核的重点是系统完整性与权限隔离。《安全检核表》要求必须对固件进行严谨的签章验证,并模拟中间人攻击,以确保OTA更新的过程中不会被恶意篡改。

在操作系统层面(如Ubuntu、Yocto或RTOS)上,则要求定期进行操作系统程序修补(OS Patch)与软件升级(Update),落实root/sudo权限管控,以及全面的安全加固(Hardening),以防范权限提升攻击。

在机器人中介层,特别是广泛采用的ROS/ROS2机器人操作系统,安全挑战尤其严峻。

由于ROS1默认无安全机制,任何知道Master URI的节点都能连接,造成未授权节点恶意指令注入或数据窃取。

因此,《安全检核表》要求必须激活DDS-Security,验证ROS/ROS2节点验证与访问控制,确保节点间的通信使用TLS加密信道,并测试DoS防护,防止恶意节点发布大量消息阻断控制信号。

至于最上层的AI模型层,张裕敏认为,重点就是要防范针对VLA/VLM模型的攻击。对于具身AI机器人的智慧核心,即VLA/VLM模型层,《安全检核表》提出了专业化的检查项目,因为攻击者不再需要入侵传统的IT系统,而是直接锁定模型的逻辑和认知。

《安全检核表》强调,必须对模型进行完整性验证,包含对签章和Hash(散列值)的验证,并进行严格的提示词注入攻击(Prompt injection)的测试与安全策略检查。因为这种攻击手法,允许黑客通过恶意提示词,造成模型任务误导或资讯泄露。

此外,由于VLA/VLM具备多模态特性,必须进行跨模态对抗攻击测试(例如形象与语言的组合攻击),以确保模型不会因对抗样本而做出错误判断。

另外,为了保护开发团队的知识产权,《安全检核表》还要求进行模型旁信道攻击(Side-channel Attack)测试,通过功耗或缓存分析,测试是否能从运算时推测模型权重或输入。同时,必须参考OWASP ML Security Top 10与LLM Top 10等常见的风险,以应对不断变化的AI威胁。

在云计算层(Cloud Services)方面,其要求全面检测API安全性,并落实严格的“最小权限原则”(IAM身份访问管控政策测试),以避免账号窃取和横向移动。这对于那些将AI算力或数据日志传输到云计算的机器人来说,是数据保护的生命线。

生态圈延伸,也需远程管理、云计算与手机的风险链

具身AI机器人的安全不仅限于载体本身,更扩展到其运维的整个生态系统。

张裕敏表示,该实验室推出的《具身AI智能移动载体延伸相关领域安全风险检核表》(《以下简称安全检核表2》)也同样专注于这些外部连接带来的可能风险。

至于在Fleet Mgmt层(远程舰队管理/多机协作)方面,由于这类系统可以同时控制大量的机器人,一旦被黑客入侵,后果不堪设想。《安全检核表2》便要求验证远程控制与任务派发的权限管理,以防范C2攻击(Command and Control,命令与控制)。

更重要的是,必须具备安全的OTA和软件更新管理流程,包括签章验证、Staged Rollout(逐批推送)以及回滚机制(Rollback),以避免恶意更新导致整个设备fleet一次性失效。

至于作为控制端的手机App层,检查项目则包括App数据访问安全(防止机密敏感数据明文存储)、通信加密(防止消息拦截或MITM中间人攻击),以及强化身份验证(如MFA多因素验证、硬件Token)。

从“有做”到“做对”,安全检核是必要共识

当前国际缺乏针对具身AI的统一法规或安全标准,虽然目前有ISO 10218-2或IEC 62443等标准存在,但皆不足以应对具身AI的复杂性。张裕敏认为,台湾应该要有机器人安全的标准或法案出来,厂商才能符合相关要求,进而让产品选用有依据。

在法规尚未完善之前,这份《安全检核表》便是该实验室从安全角度出发,建议产业可以主动采用的自律的安全检核依据。张裕敏强调,“即便有通过验测还是有风险,但还是比什么都没有做要好”。

这意味着,虽然安全风险永远无法完全消除,但至少通过这份《安全检核表》,各界能够厘清攻击的各个层面,避免黑客从最基本的环节轻易突破防线,确保具身AI机器人在进入公共与家庭生活时,其带来的福祉能远大于潜在的威胁。