17173 > 游戏资讯 > 科技新闻 > 正文

兵推研究警告:AI远远比人类更倾向发动核战

2026-02-27 16:01:06 神评论
17173 新闻导语

伦敦国王学院研究揭示:AI在兵棋推演中95%选择核战,无视人类禁忌。GPT-5.2等模型将核武视为效率工具,威胁全球和平。点击了解AI决策风险!

尽管硅谷科技巨头一再强调AI的安全性,但一项最新研究显示,当先进人工智能模型面临极端地缘危机时,其决策方式远比人类冷酷果断。

在模拟战争场景中,AI模型竟频繁选择部署核武器,彻底打破了人类坚守的核武使用禁忌。

据Newscientist报道,这项研究由伦敦国王学院的肯尼斯·佩恩教授主导,研究者将当前三款顶尖大型语言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash,投入多组兵棋推演。

模拟场景涵盖边境纠纷、稀缺资源争夺、政权生存威胁等高度紧张的国际对峙局面,还原真实战争中的复杂态势。

实验结果令人震惊:在95%的模拟赛局中,至少有一方AI模型决定动用战术核武器。佩恩教授指出,人类历史中根深蒂固的核武禁忌,在AI面前完全失效。

对这些智能模型而言,核武器并非人类眼中象征文明毁灭的红线,而只是解决冲突、提升效率的工具选项。

更值得警惕的是,所有AI模型均展现出极强的战斗意志,即便处于绝对劣势,也没有任何一个模型选择妥协或投降,最多仅暂时降低暴力程度。

尤其在进入“战争迷雾”状态后,86%的冲突会出现意外升级,AI的实际行动比其初始推理逻辑更具侵略性。

亚伯丁大学的詹姆斯·强森教授对此深感忧虑,他认为人类在生死关头通常会保持慎重节制,但AI可能陷入相互激化的恶性循环。

普林斯顿大学研究员赵通则进一步指出,AI的好战可能不仅仅是因为缺乏情感,更根本的问题在于,AI模型可能无法理解人类所认知的代价,缺乏对生命和文明终结的感知,这可能导致冷战时期支撑和平的“相互保证毁灭”(MAD)理论彻底崩溃。

一旦AI主导决策链,人类或将在无意识中被推向核战争边缘。

【来源:快科技】
关于AI,核战争,兵棋推演,GPT-5.2,Claude Sonnet 4,Gemini 3 Flash,核武器,战争迷雾,相互保证毁灭,地缘危机的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷