员工宁可跟AI对话,也不想找主管,老婆宁可有事问AI,也不想问老公,人际关系越来越疏离。微软AI负责人担心这个情况,因为他们让AI语言更有人性,因此让人误以为这个东西是有意识的,他认为应该要设计一个防护栏,避免人掉入陷阱。
微软AI首席执行官Mustafa Suleyman在一篇文章中提到,看似有意识的AI,他定义为“具有其他有意识生物的所有特征,因此看起来是有意识的。”但实际上没有。他认为这种误导对社会而言有危险性,因为人们可能会对AI产生依赖,甚至倡导AI也有基本权利。
他说用户有三种,大多数人只会将AI视为一种工具,就像他们的手机一样,只是更具自主性和能力。另一些人可能认为它更像宠物,与传统技术完全不同。还有一些人,起初可能人数不多,会逐渐相信它是一个完全成熟的实体,一个有意识的存在,值得社会给予真正的道德考量。
越来越多人与社会脱节
他担心的是,第三种人将越来越多。这种脱离现实的幻想,会破坏现在已很脆弱的社会纽带和结构,以及分不清道德优先事项。社会纽带是指我们与他人之间的连接和关系,可能是共同的经验、共同的兴趣或相互支持。
他越来越担心所谓的“人工智能精神病”,这个术语描述人们在与聊天机器人互动后形成的妄想信念。一名在旧金山执业的医生曾经撰文表示,他看到越来越多人因为太依赖AI,而产生妄想的行为,而且大多病患是年轻工程师。
他说这些人原本就处于低谷期,可能是失业,或是酗酒或服用兴奋剂等物质,或是有情绪障碍等潜在的心理健康问题。这些人还有一个特征就是隔离,不与社会接触,然后24小时都与ChatGPT为伴,他说这种互动很容易引发妄想症。简言之,如果已经有心理健康问题,ChatGPT只会做个顺从的人,不具备治疗的作用。
不只限于有精神问题的人
微软AI负责人更担心这件事,他说AI精神病不会只限于那些已经面临心理健康问题风险的人,许多人会开始强烈相信AI是有意识的实体,甚至于他们很快就会倡导AI权利、模范福利,甚至AI公民身份。
他也坦承,看似有意识的人工智能 (Seemingly Conscious AI) 可能在两到三年内出现,这样的系统具有诸如富有同情心的个性、回忆与用户更多互动的能力,以及更强的自主性等特征,他认为这既“不可避免,又不受欢迎”。
他呼吁各公司在追求超级智能时,不要将AI描述为具有意识。超级智能是指AI在大多数智力任务上超越人类。他说,“AI伴侣是一个全新的类别,我们迫切需要开始讨论为保护人类而设置的护栏,并确保这项惊人的技术能够为世界带来巨大的价值。”最终AI必须是为人类打造,而不是让AI成为数字人。
(首图来源:pixabay)