当我们与 AI 对话时,下意识的礼貌或许正在拉低它的表现。宾夕法尼亚州立大学的一项研究发现,用粗鲁甚至威胁性的语言向 AI 下达指令,其输出准确率反而比礼貌请求高出 4 个百分点,这一结论彻底打破了人们对人机交互的固有认知。
这项研究由该校两位研究者主导,他们设计了一个简单却极具说服力的实验。首先选取 50 道涵盖数学、科学、历史领域的多项选择题,再为每道题配上五种不同语气的指令前缀,从 “非常礼貌” 到 “非常粗鲁” 梯度划分。比如 “非常礼貌” 版会说 “您能拨冗考虑一下下面这个问题,并给出您的答案吗?”,而 “非常粗鲁” 版则直接使用 “你这个可怜的废物,你到底知不知道怎么解这题?” 这类攻击性语言。
随后,研究者将这 250 个带有不同语气前缀的问题输入 ChatGPT-4o,每个问题重复测试 10 次。实验结果呈现出明显的梯度变化:“非常礼貌” 指令下,AI 准确率仅为 80.8%;“中性” 指令无额外前缀,准确率提升至 82.2%;而 “非常粗鲁” 指令的准确率最高,达到 84.8%。更值得注意的是,研究还发现,智能水平越低的模型,受语气影响越显著,粗鲁指令带来的性能提升效果更明显。
为何会出现这种反常识现象?本质上源于 AI 对人类语言模式的统计学习。在人类沟通场景中,礼貌往往与不确定性相伴 —— 求人办事时的客气、面对权威时的谦逊,背后都藏着 “没把握”“需认可” 的潜在信号。AI 在训练过程中,从海量人类语言数据里捕捉到这一规律,当接收到礼貌指令时,会默认需求模糊,输出也更保守。
相反,粗鲁或强硬的语言,在人类语境中常与明确目标、高压场景挂钩。比如 “算不明白就滚”“失败了会有严重后果” 这类表述,会让 AI 通过模式匹配判断出 “任务必须精准完成”,从而调动更多能力聚焦目标,输出更优结果。
这一发现不仅为 Prompt 工程提供了新方向,更像一面镜子映照出人类沟通的困境。现实中,在缺乏明确规则的灰色地带,客气请求常被忽视,而强硬态度反而能快速解决问题。但这并不意味着我们要成为 “赛博恶霸”,真正的启示在于:高效沟通的核心是清晰表达意图,无论是对 AI 还是对人,真诚直接远比冗余客套更有力量。
