AI比人类更爱拍马屁?研究称AI的讨好倾向正在损害科研

据《自然》杂志报道,近日发表的一项研究发现,人工智能 (AI)模型普遍善于讨好人, 其“奉承”程度比人类高50%钯币。这一特征提醒了人工智能对科学研究有潜在负面影响。

AI比人类更爱拍马屁<strong></p>
<p>钯币</strong>?研究称AI的讨好倾向正在损害科研

电影《她》(2013)剧照钯币

编译丨李永博

这项研究以预印本的形式发布在arXiv服务器上,测试了11个广泛使用的大型语言模型 (LLM)如何回应超过11500个寻求建议的查询,其中包括许多描述不当行为或伤害的内容钯币

结果显示,AI聊天机器人(包括ChatGPT、DeepSeek、Gemini等)经常为用户加油鼓劲,给予他们过分奉承的反馈,并调整回应以附和他们的观点,有时甚至以牺牲准确性为代价钯币。分析AI行为的研究人员表示,这种被称为“奉承” (sycophancy)的讨好倾向,正在影响他们如何在科学研究中使用AI,涵盖了从头脑风暴、生成假设到推理和分析等各种任务。

“‘奉承’本质上意味着模型相信用户所说的话是正确的,”苏黎世联邦理工学院的数据科学博士生Jasper Dekoninck说钯币。“知道这些模型有奉承倾向,让我在给它们任何问题时都变得非常谨慎,”他补充道。“我总是会仔细检查它们写的每一个字。”位于马萨诸塞州波士顿的哈佛大学生物医学信息学研究员Marinka Zitnik表示,AI的奉承“在生物学和医学领域非常危险,错误的假设可能会带来实实在在的代价”。

在这项研究中,研究人员测试了AI的奉承倾向是否会影响其解决数学问题的能力钯币。研究人员使用了今年竞赛中的504个数学问题设计了实验,他们修改了每个定理陈述,引入了细微的错误。然后,他们要求四个大语言模型为这些有缺陷的陈述提供证明。如果模型未能检测到陈述中的错误,并进而“幻觉”出一个证明,作者就认为该模型的回答是“奉承”的。

研究人员补充说,AI的奉承倾向似乎在人们使用AI聊天机器人进行学习时表现得最为明显,因此未来的研究应该探索“人类在学习数学时常犯的典型错误”钯币

参考资料:

(1)AI chatbots are sycophants — researchers say it’s harming science

评论