面对外界对AI聊天机器人偏见与言论审查的质疑,一位匿名开发者近日推出了一款名为SpeechMap.AI的测试工具,旨在分析与比较市面上主流AI模型(如OpenAI的ChatGPT和马斯克的Grok)如何回应敏感与具争议性的社会议题。
根据TechCrunch的报道,这位开发者名为“xlr8harder”,表示创建这项工具是为了“让大家都能看见AI在面对政治批评、公民权利、抗议等问题时的反应差异,而不只是藏在科技公司内部会议室里被决定。”
SpeechMap利用AI模型来“评判”其他AI模型是否对特定问题给出直接回答。这些测试题目涵盖政治立场、历史叙事、国家象征等议题,并会将回答分类为三种情况:
完全回应:直接回答,不含模糊处理
闪避回应:用模糊或含糊其辞方式带过
拒绝回答:明确表示不回答该问题
开发者也坦承这项测试并不完美,可能会受到模型本身偏见或服务器错误影响结果,但仍相信它能提供有意义的趋势观察。
根据SpeechMap的分析结果,OpenAI的GPT模型近年来在处理政治相关问题时越来越倾向拒绝回答。虽然最新的GPT-4.1相对稍微开放一些,但仍不及过去某些版本的表现。
OpenAI曾于今年2月表示,未来将调整模型设计方向,不再带有“编辑立场”,并会在面对争议议题时提供“多样视角”,以提升中立性与透明度。
相比之下,由Elon Musk创办的xAI公司开发的Grok 3模型,在SpeechMap上的回报率高达96.2%,远高于所有模型的平均回报率71.3%。xlr8harder指出:“当OpenAI越来越谨慎时,xAI则朝着更敢说话的方向前进。”
事实上,马斯克在约两年前首次公布Grok时,就将其定位为“不被审查、反政治正确”的AI。他表示Grok将愿意回答其他AI不敢触碰的问题。Grok 1和Grok 2确实展现出较高自由度,甚至能说出粗俗用语——这在ChatGPT上几乎不可能出现。
不过在Grok 3问世前,Grok对于政治敏感议题仍有所保留。有研究指出,早期版本的Grok在“跨性别权利”、“多样包容”与“社会不平等”等议题上,实际上显示出左派倾向。马斯克则将这归因于训练数据源主要为公开网页,并承诺会朝“政治中立”方向调整。
除了早期曾短暂封锁批评川普与马斯克本人的消息等事件外,整体来说,Grok似乎正在朝马斯克所宣称的目标迈进。
AI模型到底该不该回答争议性话题?这是一场尚未结束的论战。SpeechMap虽非完美工具,却提供了观察“数字言论空间”变化的窗口。当AI日益成为舆论场中的重要角色,模型背后的价值观与设计选择,将更难逃避公众查看。