在当今的数字时代,人工智能(AI)已成为许多专业人士工作中的重要工具。然而,许多人在使用AI时经常会遇到一个令人沮丧的问题:AI似乎经常忽略指令,即使这些指令已经重复多次。根据专家Dr. Diane Hamilton的分析,这一现象的根本原因在于AI的运行方式。
AI的运行基于大量的数据和模式预测,而不是像人类助手那样能够记住用户的偏好。当我们要求AI执行某项任务时,AI会根据其训练过程中学到的模式来生成回应,这意味着它可能会偏离用户的具体要求,回到它所熟悉的统计常规中。例如,若大多数商业写作中使用了特定的标点符号,AI可能会自动选择这些标点符号,即使用户明确表示不希望使用。
根据今年5月量子位(QbitAI)发布的研究,推理能力越强的模型(如采用监督微调SFT和强化学习RL)往往越难绝对服从指令,因为训练目标偏向提高问题解决能力,而非严格遵守格式或字数限制。为了提高AI的表现,专家建议用户在每次请求中重申自己的要求,这样可以帮助AI更好地理解并遵循指示。尽管AI的记忆功能可以在某种程度上提供一致性,但目前主流大型语言模型(LLM)多为无持久记忆,除非有特定设计。AI的记忆更像是基于概率生成的参考笔记,而不是强制执行的规则,因此用户仍需在不同的上下文中重申自己的偏好。
此外,用户的互动历史也会影响AI的回应。不同的账户可能会因为记忆、历史或系统更新的微妙差异而产生不同的结果。因此,专业人士应该测试和调整提示,而不是逐字复制他人的提示,以便更好地适应自己的工作流程。
在数据分析方面,AI的表现也可能不如预期。大型语言模型如ChatGPT并不是精确的计算工具,而是基于文本的预测引擎。当用户要求进行数学计算时,AI可能会根据训练示例生成答案,这可能导致数字的替换或改变,影响结果的准确性。因此,专家建议用户在进行精确的统计工作时,应使用专门的工具来检查计算结果。
最后,AI在语音回应方面也可能出现不一致的情况。虽然用户可以选择语音风格,但AI有时会添加不必要的过渡语句,这可能与模型生成性质及语音合成引擎设计相关,让用户感到困扰。专家建议用户应该简化指令,并尝试不同的措辞,以减少这些多余的内容。
总之,AI的运行方式与人类助手截然不同,这使得它在遵循指令方面存在挑战。专业人士在使用AI时,应该保持耐心,重复指示,并根据自己的需求调整提示,以获得最佳的使用效果。
(首图来源:AI生成)