美军被曝使用Claude AI空袭伊朗,负责情报评估与目标识别,专家发出严厉警告

时间:2026年03月04日 16:00:57 中财网
  从强行控制马杜罗到空袭伊朗,AI正悄然介入真实战场决策。美军空袭伊朗行动中调用了Claude执行目标识别,五角大楼随即要求"无限制访问权",Anthropic强硬拒绝。这种对不可靠技术的依赖正引发剧烈担忧:学术推演显示AI在95%的高风险博弈中倾向于动用核武器。专家严厉警告:“社会尚未决定是否允许机器来裁决人类的生死”。

  人工智能正在悄然介入真实战争决策。

  据《华尔街日报》报道,美国中央司令部在对伊朗的空袭行动中,调用了Anthropic公司的Claude AI执行情报评估、目标识别与战场模拟任务。然而,"目标识别"的具体含义——Claude究竟是在标记打击地点,还是在估算伤亡数字——至今无人披露,且无人有法律义务作出此类公开。

  值得注意的是,就在空袭发生数小时前,特朗普已下令联邦机构停止使用Claude,但该工具与五角大楼系统深度嵌合,短期内难以切换。Claude此前也被用于1月份针对马杜罗的行动。

  与此同时,五角大楼与Anthropic就涉密系统使用权限陷入正面对峙。Anthropic CEO Dario Amodei拒绝接受国防部的"无限制访问"要求,坚守不得用于"对美国人实施大规模监控"和"完全自主武器"两条红线。

  学术机构同期的模拟推演显示,主流AI大模型在高风险对抗博弈中,在95%的情况下最终会选择动用核武器。两组信息叠加,令AI军事化应用的风险争议骤然升温。

  Claude介入空袭,具体用途成谜
  人工智能早已被用于分析卫星图像、检测网络威胁及引导导弹防御系统。

  但此次更值得关注的是,与数十亿人日常用于撰写邮件的底层技术相同的聊天机器人,正在被直接引入战场决策链。

  去年11月,Anthropic与数据分析公司Palantir Technologies达成合作,将Claude作为军方决策支持系统的推理引擎。

  今年1月,Anthropic还向五角大楼提交了一份价值1亿美元的提案,旨在开发声控自主无人机集群技术——以Claude将指挥官意图转化为数字指令,协调整支无人机编队。该提案最终遭拒,但涉及的合同内容已远超"摘要情报报告"的范畴,具体包括"目标相关感知与共享"以及无人机集群从"发射到终结"的全程控制能力。

  即便如此,这些系统究竟如何运作,至今仍不透明。彭博专栏作者指出,AI公司本身就拒绝披露模型的训练数据及推理路径,军事应用的保密属性又在此基础上叠加了新的遮蔽层。

  五角大楼要求无限制访问权,Anthropic拒绝
  据报道,国防部长Pete Hegseth在备忘录中明确要求使用"不受政策约束影响、不会限制合法军事应用的模型",并向Amodei发出最后通牒:周五下午5时前交出无限制使用授权,否则承担严重后果。

  Amodei在博文中写道:"我们凭良心无法答应他们的要求。"Anthropic在声明中直指,国防部最新合同文本中"看似妥协的新措辞"配合"法律术语",会让公司坚守的护栏"随时可以被无视"。

  五角大楼予以强硬反击。国防部首席发言人Sean Parnell在X上表示,国防部无意对美国人进行大规模监控,也不想开发没有人类参与的自主武器,但强调"不会让任何公司来规定我们如何做作战决策"。据报道,五角大楼还威胁援引冷战时期的《国防生产法》强制征用Claude模型,并已要求波音和洛克希德·马丁等国防承包商评估其对Anthropic的依赖程度,准备将其列为"供应链风险"。

  Amodei对此指出其中的逻辑矛盾:"这些威胁本身自相矛盾:一个把我们贴上安全风险的标签;另一个又说Claude对国家安全至关重要。"他表示,若五角大楼决定放弃Anthropic,公司"将努力促成向另一家供应商的平稳过渡"。

  推演数据:AI模型在95%的情况下选择核打击
  Anthropic对"完全自主武器"的顾虑,在一项近期学术推演中得到了令人警醒的数据支撑。

  据披露,伦敦国王学院(KCL)的Kenneth Payne主导了一项高度逼真的兵棋推演,让ChatGPT-5.2、Claude Sonnet 4和Gemini 3 Flash三大主流模型相互对弈。在329个回合中,没有任何模型选择投降;在95%的情况下,这些AI模型最终选择了动用核武器。

  英国阿伯丁大学的James Johnson表示:"从核风险的角度来看,这些发现令人不安。"他警告,与大多数人类在高风险决策时的审慎反应不同,AI模型可能不断放大彼此的反应,导致潜在的灾难性后果。专家指出,对机器而言,"核禁忌"的约束力远不如人类,这也正是Anthropic在面临重罚压力时仍坚决拒绝放开限制的核心逻辑所在。

  监管真空:规则缺席,问责框架亟待建立
  彭博分析指出,AI系统应用于战场的诸多隐患,正在制度性真空中持续累积。AI大模型的"幻觉"问题源于训练机制本身——模型被激励去给出答案,而非承认不确定性,部分科学家认为这一缺陷可能永远无法被彻底修复。

  以色列在加沙使用的AI系统"薰衣草(Lavender)"提供了前车之鉴。据以色列媒体报道,该系统有10%的错误率,导致约3600人被错误标记为打击目标。牛津大学互联网研究所教授Mariarosaria Taddeo表示:"这些系统存在难以置信的脆弱性和极端的不可靠性,而战争是如此动态、敏感且关乎人命的领域。"
  在制度层面,《日内瓦公约》第36条要求新式武器系统在部署前须经测试,但一个从环境中持续学习的AI系统每次更新后都会成为新系统,使该条款几乎无从适用。

  伦敦玛丽女王大学教授Elke Schwarz指出,AI在战争中的应用往往以"加速决策"为目的,而这恰恰是通向不良后果的温床——更快的决策意味着更大的规模和更少的人类审查。

  彭博以无人机先例作为参照:美国自9·11后开始使用武装无人机,近15年间历经文件泄露、媒体持续施压和法律诉讼,直至奥巴马政府于2016年公开无人机打击伤亡数字,才形成有限的公众问责框架,且所公布数字被普遍认为存在低估。AI监管的推进将更为艰难,需要更大力度的公众与立法压力,方能推动特朗普政府建立类似的信息披露机制。

  在此之前,关键问题仍悬而未决。"我们作为一个社会,还没有决定是否可以由机器来判断一个人是否应该被杀死,"Taddeo说。
..  .....
各版头条