美国国会正在讨论一项非常特别的提案:未来十年,各州不得自行立法监管AI。这项计划获得多家科技巨头支持,像是Meta、Amazon、Google和微软,他们担心如果每个州各订一套AI法律,可能会出现法规碎片化的情况,导致企业难以遵循,也阻碍了新技术的发展。这其实就是法律中的“法规一致性原则”,它强调立法应尽量避免重复、矛盾,让产业能在清晰的法律环境下运行。
例如,假设加州禁止AI用在面试筛选,但德州允许,企业该怎么办?难道要针对每个州调整一次算法?这不仅增加研发成本,也拖慢创新步伐。正是因为如此,一些业界人士才认为,与其各州乱成一团,不如暂时由联邦统一规划,先给产业一个稳定的创新空间。这不是完全不监管,而是“先集成、再制定”的策略思维。
规范不是刹车,是方向盘:科技要发展,也得看得清前方道路
不过,是否全面禁止各州立法,就能让AI更快、更好?微软的首席科学家Eric Horvitz就不这么认为。他指出,适当的法律框架反而能加速技术的实际使用,因为企业才知道什么能做、什么不能碰。这其实呼应了法律中一个很核心的原则:“可预测性(legal predictability)”。一套法律如果能让行为者预先知道规则,才有助于风险管控与资源分配,这对AI公司来说就是投资信心的来源。
也就是说,完全没有监管的情况下,反而会让企业不知道怎么遵守、怎么设计产品,变成一场“冒险式”的创新。所以,法律不是来限制创新,而是像高速公路上的标志,让科技在快速发展史,不会撞墙或偏离轨道。
十年不管是“喘息”还是“空窗”?这条界线该由谁决定
“十年禁令”的优点在于,AI技术还在发展早期,现在谈立法会让创新绑手绑脚。或许可先由联邦政府出面统筹,再慢慢创建规范。但问题是:联邦政府目前根本还没有完整的AI法制蓝图,而这十年,AI却可能从文本生成进步到机器人、从客服系统延伸到决策代理。这里涉及到法律上一个重要观念:“预防原则(precautionary principle)”,也就是当新技术有可能对公共利益造成重大影响时,应提早创建基本的防线,而非等问题出现后才亡羊补牢。
所以,问题不在于“要不要监管”,而是“在怎样的层级、用什么方式监管”。各州的角色,能够根据地方场景,探索合适的规范模式。如果完全禁止州政府立法,我们也就失去了多样制度创新的可能性。
不只美国在思考,其他国家也在讨论怎么监管AI
其实,不只美国在思考AI该怎么监管,全球各国也早已展开类似讨论,而且采取的策略并不相同。例如欧盟正在推动的《AI法案》(AI Act)就是目前世界上最具体、最全面的AI监管法案之一。它依照AI系统的风险等级,从最低风险到不可接受风险,分层设计不同的规范强度:聊天机器人可能只需要透明标示,但像用来进行信用评分或招聘的AI,则需接受更严格的审查与测试。这种“风险为本的监管模型”,是一种结合法律审慎与技术弹性的中间路线。
另一方面,加拿大蒙特利尔AI伦理宣言(Montreal Declaration)、新加坡生成式人工智能开发安全指南(Guidelines on Securing AI Systems)与日本《人工智能相关技术研究开发及应用推动法》则采行“轻监管,自律标准”的策略,强调由产业与政府合作制定伦理准则,让AI在透明与责任下发展。这就反映出另一个法律观念:“软法(soft law)”,它不是强制性的法律条文,但仍具有引导与约束力,可作为创新技术早期监管的过渡选项。
美国若选择十年完全不立法,等于自愿退出这场国际规范竞赛,让AI治理的标准由他国定义。对全球科技领导者来说,这恐怕是错过设置方向的最佳时机。
AI创新值得空间,但规则不能永久延期
AI的影响力已经超过了单纯的科技工具。要让这样的技术顺利发展,我们当然不希望不合理的监管成为创新的绊脚石;但我们也得理解:“完全不设限”从来不是自由,而是风险的温床。
与其禁止各州参与规范,不如设计一个“联邦为主、州政府补充”的协调机制,让地方政府能在确保公平与透明的基础下,提出符合当地需求的创新监管方案。毕竟,法律不是为了拖慢科技,而是为了确保科技是往对的方向前进。
(首图来源:shutterstock)