兵推研究警告:AI远远比人类更倾向发动核战
伦敦国王学院研究揭示:AI在兵棋推演中95%选择核战,无视人类禁忌。GPT-5.2等模型将核武视为效率工具,威胁全球和平。点击了解AI决策风险!
尽管硅谷科技巨头一再强调AI的安全性,但一项最新研究显示,当先进人工智能模型面临极端地缘危机时,其决策方式远比人类冷酷果断。
在模拟战争场景中,AI模型竟频繁选择部署核武器,彻底打破了人类坚守的核武使用禁忌。
据Newscientist报道,这项研究由伦敦国王学院的肯尼斯·佩恩教授主导,研究者将当前三款顶尖大型语言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash,投入多组兵棋推演。
模拟场景涵盖边境纠纷、稀缺资源争夺、政权生存威胁等高度紧张的国际对峙局面,还原真实战争中的复杂态势。
实验结果令人震惊:在95%的模拟赛局中,至少有一方AI模型决定动用战术核武器。佩恩教授指出,人类历史中根深蒂固的核武禁忌,在AI面前完全失效。
对这些智能模型而言,核武器并非人类眼中象征文明毁灭的红线,而只是解决冲突、提升效率的工具选项。
更值得警惕的是,所有AI模型均展现出极强的战斗意志,即便处于绝对劣势,也没有任何一个模型选择妥协或投降,最多仅暂时降低暴力程度。
尤其在进入“战争迷雾”状态后,86%的冲突会出现意外升级,AI的实际行动比其初始推理逻辑更具侵略性。
亚伯丁大学的詹姆斯·强森教授对此深感忧虑,他认为人类在生死关头通常会保持慎重节制,但AI可能陷入相互激化的恶性循环。
普林斯顿大学研究员赵通则进一步指出,AI的好战可能不仅仅是因为缺乏情感,更根本的问题在于,AI模型可能无法理解人类所认知的代价,缺乏对生命和文明终结的感知,这可能导致冷战时期支撑和平的“相互保证毁灭”(MAD)理论彻底崩溃。
一旦AI主导决策链,人类或将在无意识中被推向核战争边缘。

- 1《深海迷航2》上线12小时累计销量突破200万份
- 2可永久提升属性!韩国MMO《王权与自由》全新赛季上线
- 3《权力游戏国王大道》能不能搬?如何提升战力?9小时游玩感受!
- 4韩国奇幻背景FPS新作《枪与巨龙》公开实机视频
- 5从扮演007特工到2.5D动作,5月这些新游值得一玩!
- 6暗黑4社区左右互搏:一边用新“不死”Build冲层,一边骂游戏已“坏掉”
- 7亚马逊逼开发者做AI游戏,做完了把所有懂AI的人都开了
- 8暗黑4“树的馈赠”回归,经验、金币、材料三倍速毕业?
- 9好莱坞女星艾丽·范宁穿“碎蛋”高跟鞋引发热议
- 10感谢全国网友支持!央视拿下两届世界杯版权 美加墨费用约4亿:揭秘国际足联服软原因

