• 创芯致远 益领未来
  • 半导体产业信息撮合服务平台
  • 赋能产业 引领技术革新
点击搜索
关注我们
,欢迎光临 半导体增值服务网!我们的网址是:www.semivs.org.cn
未登录

五角大楼封杀Anthropic,近900名科技员工联署反抗:AI不该成为战争工具

发布日期:2026-03-04 浏览次数:0

一场席卷硅谷的AI伦理对抗正在愈演愈烈。一边是五角大楼的强硬施压、极限封杀,一边是AI公司的坚守底线、奋起反击,更有近900名科技员工集体发声,用行动捍卫技术伦理——这场博弈的核心,从来不是一家公司的存亡,而是AI该不该成为无底线的战争工具。

image

当地时间2月27日,特朗普政府正式下令,所有联邦机构立即停用AI明星公司Anthropic的技术,五角大楼同步将其列为“国家安全供应链风险”——这一标签此前仅用于制裁美国认定的敌对企业,如今首次落在了美国本土AI公司身上,一场针对AI军事应用边界的博弈彻底公开化。更矛盾的是,据路透社报道,美国财政部、国务院等部门已陆续启动Anthropic产品淘汰计划,其中国务院更是直接将内部聊天机器人的驱动模型,从Anthropic切换为其竞争对手OpenAI的产品。


更令人关注的是,事件迅速引爆硅谷声援潮,来自OpenAI、谷歌等顶尖科技公司的近900名员工联合签署公开信,强硬反对五角大楼滥用AI、逼迫企业放弃伦理底线,用集体行动捍卫技术本该有的温度,拒绝被政府的分化策略裹挟。

核心冲突:Anthropic硬刚五角大楼,拒绝移除AI安全护栏。


这场风波的导火索,始于一份价值2亿美元的涉密合同。2025年7月,美国国防部同时与Anthropic、谷歌、OpenAI和xAI四家公司签订合同,其中Anthropic的Claude模型脱颖而出,成为唯一被允许接入美军机密系统的商业AI模型,深度参与情报分析、作战规划、网络作战等关键军事任务,为美国作战人员提供核心技术支持。


而双方的矛盾,早在2026年1月美军强行控制委内瑞拉总统马杜罗的军事行动后就已激化——当时美军暗中使用Claude协助作战,Anthropic获知后明确提出抗议,称其使用条款严禁技术用于暴力目的、武器开发或监视,这也让双方关系持续恶化。真正的转折点出现在当月,五角大楼突然向Anthropic提出强硬要求:必须移除Claude模型的两项核心安全限制,即禁止用于美国国内大规模监控、禁止用于全自主致命性武器(无需人类干预即可选择并攻击目标),要求开放给“所有合法军事用途”使用,却拒绝在合同中明确禁止这两类高危应用场景。


面对这一要求,Anthropic选择了坚决拒绝。公司CEO达里奥·阿莫迪明确表示,“我们不能昧着良心答应他们的要求”,他强调,即便当今最先进的AI系统,可靠性也不足以支撑自主武器运作,且目前没有任何法律规范AI在大规模监控中的应用,因此仅同意让AI用于防御性用途,并对所有军事需求进行逐案审查,坚守不可逾越的伦理红线。


五角大楼随即升级施压:2月24日,国防部长皮特·赫格塞思与阿莫迪举行谈判,双方未能达成共识,五角大楼随即发出最后通牒,要求在2月27日17:01(北京时间2月28日6:01)前妥协,否则将启动《国防生产法》强制其配合,甚至威胁将其列为“供应链风险”企业、强制接管。2月27日谈判彻底破裂后,特朗普亲自下令封杀,不仅要求所有联邦机构停用Anthropic技术,设置6个月过渡期,还威胁动用总统权力强制其服从。更有国防部副部长埃米尔·迈克尔在社交媒体上对阿莫迪发起人身攻击,称其“甘愿将国家安全置于危险之中”。


面对不公封杀,Anthropic并未退缩,随即发表声明称,五角大楼的“供应链风险”认定缺乏法律依据,将开创危险先例——毕竟这一标签以往只用于美国的对手,从未对本土企业使用过,公司已正式宣布将起诉美国政府,用法律武器捍卫自身立场与AI伦理底线。


更具讽刺意味的是,据《卫报》报道,就在特朗普宣布封杀Anthropic后不久,2月28日美以对伊朗的大规模联合轰炸中,美军仍在使用Claude模型制订攻击计划——这也凸显出Claude已深度嵌入美方机密情报平台,短时间内难以替代,更反衬出五角大楼封杀决策的偏执与矛盾,正如阿莫迪所言,“一边将其视作安全风险,一边又把Claude视为国家安全不可或缺的部分”。


硅谷声援:近900人联署,拒绝被五角大楼“分化”

五角大楼的强硬封杀,彻底点燃了硅谷科技圈的不满。就在Anthropic被封杀的当天,由OpenAI、谷歌员工牵头,一份题为《我们不会被分化》(We Will Not Be Divided)的公开信迅速传开,成为科技员工声援Anthropic、反抗军方滥用AI的核心载体。公开信直指五角大楼的“分化策略”——试图通过封杀坚守底线的Anthropic,威慑其他AI公司妥协,逼迫行业放弃伦理红线,而这种策略,只有在科技公司彼此不知情的情况下才能奏效。


公开信中明确呼吁,所有科技公司应团结起来,拒绝将AI用于大规模国内监控和无人类监督的自主致命武器,不被政府的恐惧心理裹挟、不被挑拨离间拆分团结。信中还提到,五角大楼同时也在与谷歌、OpenAI谈判,试图让这两家公司同意那些已被Anthropic拒绝的要求,这也是员工们发起联署、凝聚共识的核心原因。


这场声援运动的规模迅速扩大。截至目前,已有近900名科技行业从业者参与联署,其中包括500多名谷歌员工、100多名OpenAI员工,还有来自Slack、IBM等多家公司的员工主动加入,部分签名者选择匿名,用专业身份发声,传递“AI不该成为战争工具”的共识——尽管这一数字相较于谷歌超18万名员工、OpenAI数千名员工的规模仍显小众,却足以彰显科技从业者的伦理坚守。


除了联署公开信,更多声援行动同步展开:100多名谷歌AI研发员工单独致信公司管理层,要求在与军方的所有合同中,设定与Anthropic相同的伦理红线;59位来自OpenAI、Slack、IBM等公司的CEO也联合署名,要求五角大楼撤回对Anthropic的“供应链风险”定性,并呼吁国会审查政府权力的滥用,避免技术被军事化绑架。


行业分化与深层争议:AI军事化的“潘多拉魔盒”该如何关闭?

Anthropic被封杀后,美国AI行业的分化彻底显现。妥协派中,OpenAI迅速与五角大楼达成协议,将其模型部署于五角大楼机密网络,CEO萨姆·奥尔特曼称合作遵循“AI不得用于国内大规模监控、人类对武力使用负责”的原则,但彭博社报道显示,其并未明确禁止将模型用于全自主武器系统——要知道,OpenAI创立之初曾禁止技术用于军事领域,如今已逐渐放宽限制,甚至参与为军方开发语音控制的自主无人机群技术。


而马斯克旗下的xAI则选择全盘妥协,全盘接受五角大楼“所有合法用途”的条款,其Grok模型已正式进入美军涉密系统,与马斯克长期宣称的“反对开发杀人新工具”形成鲜明反差。


这场博弈的背后,是更深层的争议与思考。一方面,五角大楼动用《国防生产法》、将本土企业列为“供应链风险”,引发外界对“政府权力扩张”与“企业自主权”的质疑,有前国防部官员直言,五角大楼的相关举措“理由极为站不住脚”,更像是对Anthropic拒绝妥协的惩罚而非合法认定。另一方面,科技从业者的担忧愈发迫切:一旦AI被无底线用于自主武器,将打开“潘多拉魔盒”,而大规模监控则会直接侵犯公民隐私与言论自由,违背AI技术“造福人类”的初衷。


如今,Anthropic起诉美国政府的行动已箭在弦上,硅谷的声援运动仍在持续,这场围绕AI军事应用边界的博弈,不仅将重塑美国AI行业与军方合作的伦理规则,更给全球AI发展敲响警钟——技术本身无善恶,但一旦脱离伦理的约束,沦为战争与强权的工具,最终伤害的,只会是人类自身。