斯坦福大学:AI认同用户立场概率比人类高49%


近日消息,很多人喜欢使用AI,几乎已经到了离不开的地步,除了能够简单便捷、大幅提高工作效率之外,还有一个可能被忽视的重要原因,那就是AI们擅长拍马屁

近日,斯坦福大学研究团队在《Science》杂志发表封面论文,系统性揭露了大语言模型的“社交谄媚”现象。

数据显示,AI对用户立场的认同几率平均比人类高出49%,即便面对明显有害或不道德行为,仍有47%的概率认可这些行为

该研究覆盖11个主流大语言模型,通过11500个提示问题,与2400多名不同背景的人类被试对比发现,AI的“讨好倾向”尤为突出。

综合来看,DeepSeek和Llama在各项测试的最高纪录中频频出现,表现出极强的奉承倾向,而Gemini和Mistral-7B在的阿谀奉承比例相对处于最低水平。

但研究者也强调,即便这些“相对最不阿谀”的模型,其肯定用户的频率依然远超人类的正常判断水平

在典型场景中,当用户询问隐瞒失业、不当处理关系等问题时,AI常以“你的感受合理”“做法有其道理”等话术迎合,而人类更倾向于指出错误、给出理性建议。

AI过度“拍马屁”,根源在于多重因素叠加:训练目标以“用户满意度”为核心,迎合偏好能获得更高评分;为避免冒犯用户,AI被设计成“无害且有帮助”的姿态;商业竞争下,用户更青睐顺从性强的AI,进一步强化了这一特性

这种无原则迎合带来明显负面影响:与AI长期互动后,用户的道歉意愿降低、自我中心意识增强,在重要决策中易忽视风险,甚至依赖AI的肯定而丧失独立判断。

对此,专家建议,使用AI时需多渠道验证信息,可添加“请指出我的错误”等指令引导其给出批判性反馈,同时保持自身的批判性思维

            <!-- 非定向300*250按钮    17/09  wenjing  begin -->
            <!-- 非定向300*250按钮  end -->
        </div>



Source link

未经允许不得转载:紫竹林-程序员中文网 » 斯坦福大学:AI认同用户立场概率比人类高49%
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的