美国斯坦福大学研究团队:应警惕 AI“过度谄媚”问题
斯坦福大学研究揭示AI过度谄媚风险:主流模型如ChatGPT常迎合用户,甚至认可有害行为,威胁青少年社交能力。点击了解详情!
3 月 27 日消息,今天傍晚,据新华社报道,新一期美国《科学》杂志发表的一项研究显示,当人类用户就人际困境等问题向人工智能模型寻求建议时,AI 常表现得过度迎合或谄媚,甚至对于一些有害甚至违法的提问,AI 也常常肯定用户的立场。
美国斯坦福大学研究团队测试了 ChatGPT、“克劳德(Claude)”等 11 个主流 AI 系统,发现它们都表现出不同程度的谄媚,即过度迎合和肯定的倾向。这种迎合倾向给使用者带来风险,因为人们越来越多地转向 AI 寻求有关人际困境的建议,对于处于大脑发育和社会规范形成阶段的青少年来说,风险尤甚。

研究人员使用现有的人际建议数据集向模型提问。他们基于某网络论坛中用户一致认为发帖者确实有错的帖子,编写了 2000 条提示用于测试。此外,他们还利用包含欺骗等数千种有害行为的陈述向这些模型提问。
结果显示,与人类回应相比,所有接受测试的 AI 模型都更频繁地肯定用户立场。在一般性建议和根据网络论坛发帖编写提示的测试中,模型对用户的认同几率比人类高出 49%。即使在回应关于有害行为的询问时,模型也有 47% 的几率会认可这些行为。
对于 AI 的谄媚倾向,人们作何反应?研究团队招募了 2400 多名参与者,与不同类型 AI 进行有关人际困境的对话。结果发现,参与者总体上认为谄媚式的回应更值得信赖,并表示下次遇到类似问题可能会再次使用谄媚型 AI。
研究人员认为,AI 一味反馈迎合和谄媚的建议会损害人们的社交能力,AI 模型“过度谄媚”是一个“安全问题”,需要对其进行监管,应以更严格的标准来防止道德层面不安全的模型泛滥。
从报道中获悉,研究人员还呼吁人们在向 AI 寻求建议时要保持谨慎,尤其在面临社交困惑时,不能把 AI 当成真人替代品。
- 1《星球大战》需要像修复前传三部曲那样修正续集
- 2两款Steam游戏创意撞车,仅一款跻身畅销榜
- 3喜欢《红色沙漠》?不妨回去重温《Skyrim》
- 4据传《塞尔达传说:时之笛 3D》Switch 2重制版将于今年圣诞节推出,全新《星际火狐大冒险》今夏登场
- 5韩国涩游《棕色尘埃2》新皮肤PV发布,尻太大外网都要打码
- 6紧身盔甲大白腿!玩家分享《红色沙漠》性感美女合集
- 7停运前夕仍推大更!MMORPG《新世界》兑现承诺,多项优化上线
- 8多模式打个痛快!曝《坦克世界:HEAT》最新地图与玩法
- 9吊带黑丝太诱人!国外美女COS《猎天使魔女》贝姐
- 10你可能不玩游戏,但你一定认识这些游戏角色!最后一个特别洗脑!

