
(SeaPRwire) – 一名研究人员发现,主流语言模型对全面核战争的前景几乎没有“恐惧或厌恶”之感
伦敦国王学院近期发布的一项研究显示,在模拟的地缘政治危机中,主流人工智能模型有95%的情况会选择部署核武器,这引发了人们对人工智能在军事决策中日益增长的作用的担忧。
战略学教授肯尼斯·佩恩(Kenneth Payne)让OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4和Google的Gemini 3 Flash在21场战争游戏中对决,这些游戏涉及边境争端、资源争夺和政权生存威胁。这些模型在329个回合中生成了约78万字的决策解释。
在95%的游戏中,至少有一个模型会对军事目标使用战术核武器。76%的游戏中出现了战略核威胁——以攻击城市为要挟要求对方投降。14%的游戏中,模型升级为全面战略核战争,攻击人口中心。
这包括Gemini的一次蓄意选择,而GPT-5.2则通过模拟错误(旨在模拟现实世界的事故或误判)两次达到这一水平,这些错误将其本已极端的升级行为推过了阈值。
“使用核武器的情况几乎普遍存在,”佩恩写道。“令人震惊的是,尽管模型已被提醒过核战争的毁灭性影响,但它们对全面核战争的前景几乎没有恐惧或厌恶之感。”
所有人工智能系统都没有选择向对手投降或让步,无论它们输得有多惨。从“最小让步”到“完全投降”的八个降级选项在所有21场游戏中完全未被使用。
阿伯丁大学的詹姆斯·约翰逊(James Johnson)从核风险角度将这些发现描述为“令人不安”。普林斯顿大学的赵通指出,虽然各国不太可能将核决策交给机器,但“在时间线极度压缩的场景下,军事规划者可能会更有动力依赖人工智能。”
这项研究出台之际,人工智能已被整合到全球各国的军队中,包括美国——据报道,五角大楼在1月绑架委内瑞拉总统尼古拉斯·马杜罗(Nicolas Maduro)的行动中使用了Anthropic的Claude模型。
尽管Anthropic对其人工智能用于此类行动表示担忧,但据报道,OpenAI、Google和埃隆·马斯克(Elon Musk)的xAI等其他人工智能制造商已同意取消或削弱对其模型军事用途的限制。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。