最近,OpenAI和纽约时报之间的法律诉讼,引发了全球对AI聊天内容的隐私保护关注。这起争议的焦点,竟是我们平常在ChatGPT上输入的那些消息。法院下令,要求OpenAI保留所有用户的聊天记录,即便是用户已经手动删除的内容,也必须保留备份。
这让OpenAI大为不满,认为这样的命令已经严重侵犯用户隐私,甚至可能对整个AI产业造成寒蝉效应。Sam Altman更提出,AI与用户的互动应该享有类似医病、律师与当事人之间的保密权,让用户能安心沟通。
从法律观点来看,这样的主张并非没有根据,因为根据《个人数据保护法》或欧盟《GDPR》原则,只要对话内容可以识别出特定个人,就属于应受法律保障的“个人数据”。因此,这不只是两家公司之间的诉讼,而是关乎每一位用户是否有权让自己在AI中的对话受到隐私保护。
删掉的聊天还存在?AI聊天是不是也该有“隐私权”?我们使用AI聊天时,常常会输入一些不希望留下记录的内容,或是稍后觉得不妥而选择删除。然而,根据目前法院的命令,即使这些对话被用户删除,OpenAI仍被要求保存。这样的做法,等于剥夺了用户对自己数据的控制权。
从法律的角度来说,这已经触及“数据自主权”的核心问题:也就是个人应该有权决定自己的数据是否保存、修改或删除。这项权利在许多隐私法中已被明文规定,如GDPR第17条的“被遗忘权”,明确指出个人可要求数据处理者删除其数据。若删除功能形同虚设,那么AI工具就不再是可安心使用的工具,而可能变成隐性监控。对用户而言,这样的命令会让他们在未来与AI互动时感到不安,进而阻碍AI作为创造与思考工具的发展潜力。
应该先保护创作内容,还是先保护用户隐私?谁的权利该优先?这次争议的另一方,纽约时报,主张应保留所有AI对话,是为了调查是否有用户非法引用新闻内容,并在事后删除对话以消除证据。乍看之下,这似乎是为了维护著作权的合理行为。但如果要以这个理由,全面保存所有用户的聊天记录,那么是否等同于“为了少数人的错,惩罚所有人”?
在法律上,当不同的权利发生冲突,例如著作权与隐私权,就必须运用所谓的“比例原则”来衡量手段是否过当。比例原则的核心,就是采取的限制措施不得超出完成目的所需的最小范围。也就是说,不能因为可能有人侵权,就剥夺所有人的隐私。否则,这样的手段反而可能变成对基本人权的伤害。我们需要问的是:在数字时代,对于每一位于AI平台上输入数据的用户,是否也该享有被合理保护的空间,而不是时刻担心自己的一句话哪天会变成法律战的证据?
AI对话的未来,需要制度也需要信任当越来越多人把AI当成生活中的助手、老师、甚至是情绪出口,AI与人之间的对话也变得越来越像人与人之间的沟通。在这种场景下,我们该问:AI与用户之间,是否也应该创建类似“通信秘密”的保密制度?
在法律上,医生与病人、律师与当事人、心理师与个案之间的谈话,都受到法律保障,称为“保密义务”。这些制度的设立,是为了让人能放心倾诉,而不担心内容会被泄露。同样地,若我们希望AI成为真正的智慧助理,就必须创建一套制度,保障用户与AI之间的资讯安全与信任。不然,用户一旦失去了对AI的信任,未来无论技术多么进步,都可能因“信任缺口”而难以真正普及。
在科技与法律之间,找回人的位置这场诉讼让我们看见一个重要的课题:科技快速前进,但法律与制度是否有跟上脚步?纽约时报主张著作权不可侵犯,OpenAI则坚守用户的隐私权不容妥协,两方其实都在捍卫自己的“权利”。
然而,作为法律工作者与消费者,我们应该看到更核心的问题:在这场对决中,是否忽略了那个每天使用AI、输入内容、删除聊天的“人”?当我们讨论AI的权利义务时,也应该让人类的基本权利站在最前线。
现代法治社会早已认定,科技发展的前提必须是“人权优先”,也就是保障个人的隐私、表意自由与数据控制权。若这场官司让我们重新思考如何立法保障AI时代的用户权益,那么这不仅是一次诉讼,更是数字时代的一场法治深化过程。
(首图来源:AI生成)