一项来自宾州州立大学的最新研究显示,对ChatGPT使用较为粗鲁的语气可能会提高其准确性,但研究人员警告,这样的做法可能会带来长期的负面影响。这项研究于本月早些时候发布,结果显示,当研究人员的提示变得越来越粗鲁时,ChatGPT-4o模型在50道选择题上的表现有所提升。

研究中,设计了50道跨数学、科学与历史领域的多选题,并将每题的提示语分为5种礼貌层级,从非常礼貌到非常粗鲁,共产生250种独特提示。结果发现,“非常粗鲁”的提示所产生的准确率为84.8%,比“非常礼貌”的提示高出四个百分点。这表明,当研究人员使用像“嘿,帮我解决这个”这样的语气时,ChatGPT的反应更为准确,而不是使用“您能否帮我解决以下问题?”这样的礼貌用语。

尽管粗鲁的语气通常能够产生更准确的回答,研究人员指出,“不文明的对话”可能会带来意想不到的后果。他们表示,使用侮辱性或贬低性的语言进行人机互动,可能会对用户体验、可及性和包容性产生负面影响,并可能助长有害的沟通规范。

这项尚未经过同行评审的预印本研究提供了新的证据,显示不仅句子结构,语气也会影响AI聊天机器人的反应。研究人员指出,这可能表明人机互动比以往认为的更为复杂。过去的研究已经发现,聊天机器人对人类的输入非常敏感。

宾州州立大学的研究人员也承认了他们研究的一些限制,例如样本量相对较小,且主要依赖于一个AI模型──ChatGPT-4o。他们还表示,更先进的AI模型可能会“忽略语气问题,专注于每个问题的本质”。尽管如此,这项研究进一步引发了人们对AI模型及其复杂性的兴趣。

(首图来源:shutterstock)