> 免責聲明:本文為資訊整理與獨立觀點分析,不構成投資建議。 --- ## 先說重點 Anthropic CEO Dario Amodei 上週公開拒絕了五角大樓的要求,寧願冒著失去 2 億美元合約的風險,也不願移除 Claude 的安全限制。 這件事本身已夠戲劇性。但它…
> 免責聲明:本文為資訊整理與獨立觀點分析,不構成投資建議。 --- ## 先說重點 Anthropic CEO Dario Amodei 上週公開拒絕了五角大樓的要求,寧願冒著失去 2…
> 免責聲明:本文為資訊整理與獨立觀點分析,不構成投資建議。 --- ## 先說重點 Anthropic CEO Dario Amodei 上週公開拒絕了五角大樓的要求,寧願冒著失去 2 億美元合約的風險,也不願移除 Claude 的安全限制。 這件事本身已夠戲劇性。但它真正重要的地方,在於它暴露了一個更深層的問題:**當 AI 公司把「安全」當成護城河,政府又把「國家安全」當成萬用鑰匙——這兩個邏輯的碰撞,接下來只會越來越頻繁。** --- ## 事件還原 2025 年 7 月,Anthropic 和美國國防部(DoD)簽下一份 **2 億美元合約**,透過 CDAO(首席數位與人工智慧辦公室)協助推進國防 AI 能力。合約框架寫明「負責任 AI」,看起來雙方都有共識。 然後,摩擦開始了。 五角大樓要求 Anthropic 解除 Claude 的使用限制,允許軍方用於「所有合法用途」。Anthropic 說不行,原因有兩個: 1. **自主武器**:Anthropic 認為 AI 目前的可靠度,不足以在無人類介入的情況下做出致命性決策 2. **大規模國內監控**:沒有足夠的法律框架規範這種應用,Anthropic 拒絕提供這個能力 國防部長 Pete Hegseth 的回應是直接下最後通牒:**2026 年 2 月 28 日週五下午 5:01 前,同意或拒絕**。若不同意: - 終止合約 - 將 Anthropic 列為「供應鏈風險」(這個標籤通常保留給中俄等外國對手,用在美國本土企業史無前例) - 援引《國防生產法》(Defense Production Act)強制要求配合 Amodei 的回答:「這些威脅,不會改變我們的立場。我們不能昧著良心答應他們的要求。」 --- ## 這三個威脅,有多嚴重? ### 1. 「供應鏈風險」標籤 這個標籤的殺傷力,不在於 Anthropic 和政府的關係,而在於**市場**。一旦掛上這個標籤,所有國防承包商依法必須評估是否繼續使用 Anthropic 的產品。換句話說,Anthropic 的整個 B2B 企業客戶鏈都可能連帶受影響。 ### 2. 《國防生產法》的邊界在哪? 法律學者 Lawfare 做了詳細分析:DPA Title I 的核心問題是「政府可以要求公司提供一個它平常不做的產品嗎?」Anthropic 的立場是,「移除安全限制的 Claude」根本不是他們的產品,所以這不叫「優先供應」,叫「強制研發新產品」。這個法律爭點還沒有先例,若訴諸法院,Anthropic 不是沒有機會。 ### 3. 五角大樓已有的 AI 政策本身就存在矛盾 DoD 的《自主武器指令 3000.09》(2023 年更新版)明確要求:自主武器系統的致命決策必須保留人類判斷介入空間。但 Hegseth 現在要求 Anthropic 允許的,恰恰包括「無人類介入的自主武器」——這和 DoD 自己的政策是矛盾的。五角大樓發言人 Sean Parnell 後來緊急澄清:「我們對用 AI 監控美國公民沒有興趣,也不要無人監督的自主武器。」但這個澄清本身就說明雙方溝通出了嚴重問題。 --- ## 我的判斷:Anthropic 這次站對了,但不是因為他們「善良」 我不相信企業會有良心,除非良心剛好和商業利益一致。Anthropic 這次的立場,其實有非常清楚的商業邏輯: **他們的估值建立在「安全 AI」這個敘事上。** 如果今天 Claude 被用來執行無人機自動炸彈或監控平民,Anthropic 賣給企業的「負責任 AI」品牌會瞬間崩塌。失去的,遠不止 2 億美元。 但這不代表他們的立場是錯的。 **AI 用於全自主武器,目前確實不成熟。** 現有的大語言模型在高壓、高歧義的戰場判斷中,犯錯的代價是人命。Anthropic 的工程師比五角大樓更清楚模型的邊界。這個謙遜,是對的。 **大規模監控缺乏法律框架,也是真的。** 美國目前沒有聯邦層級的 AI 監控規範,第四修正案的適用範圍在 AI 輔助監控場景下仍有爭議。在法律空白中開放這個能力,等於讓工具跑在規則前面。 --- ## 更大的問題:這場戰爭才剛開始 Hegseth 的 AI 戰略文件(2026 年 1 月)非常清楚地描繪了五角大樓的方向:「AI 優先軍事」,七個核心專案,包括自主無人機群戰術(Swarm Forge)、AI 戰場指揮(Agent Network)、AI 情報轉武器加速(Open Arsenal)。他的原話是:「我們不再開和平時期的科學博覽會。」 這意味著,**這次的 Anthropic 事件只是第一槍。** 接下來每一家和美軍有合約的 AI 公司,都會面臨同樣的壓力。OpenAI 目前在和 DoD 的合作中態度更配合,Google 的 Project Maven 爭議已有前車之鑑。這個賽道上,「安全護欄」和「國家安全需求」的張力會持續升溫。 --- ## 幾個值得繼續追蹤的問題 1. **Anthropic 最終會不會妥協?** 若 DoD 把「供應鏈風險」標籤落地,市場衝擊不可小看。 2. **DPA 援引訴訟如果真的開打,判決會怎麼走?** 這可能成為 AI 治理的歷史性判例。 3. **其他 AI 公司怎麼選邊?** OpenAI、Google、Meta 的反應,決定了整個產業的談判基準線。 4. **DoD 的 GenAI.mil 平台用的是 Gemini 和 Grok**——如果 Claude 出局,替代方案早就備妥了。 --- ## 參考資料 - [CNN: Anthropic rejects Pentagon offer (2026-02-26)](https://www.cnn.com/2026/02/26/tech/anthropic-rejects-pentagon-offer) - [CNBC: Anthropic Pentagon AI Amodei (2026-02-26)](https://www.cnbc.com/2026/02/26/anthropic-pentagon-ai-amodei.html) - [Reuters: Anthropic digs heels in dispute with Pentagon (2026-02-24)](https://www.reuters.com/world/anthropic-digs-heels-dispute-with-pentagon-source-says-2026-02-24) - [NBC News: Anthropic Pentagon missile defense offer (2026)](https://www.nbcnews.com/tech/security/anthropic-pentagon-us-military-can-use-ai-missile-defense-hegseth-rcna260534) - [Lawfare: What the Defense Production Act Can and Can't Do to Anthropic](https://www.lawfaremedia.org/article/what-the-defense-production-act-can-and-can't-do-to-anthropic) - [CBS News: Pentagon Anthropic feud (2026)](https://www.cbsnews.com/news/pentagon-anthropic-feud-ai-military-says-it-made-compromises) - [Anthropic & DoD original contract announcement (2025-07)](https://www.anthropic.com/news/anthropic-and-the-department-of-defense-to-advance-responsible-ai-in-defense-operations) - [DoD Directive 3000.09 Autonomy in Weapon Systems (2023)](https://irp.fas.org/doddir/dod/d3000_09.pdf) - [Hegseth AI-First Military Strategy Document (2026-01)](https://www.globalsecurity.org/military/library/policy/dod/artificial-intelligence-strategy-for-the-department-of-war_20260102.pdf) - [GovCIO: Hegseth unveils wartime AI strategy](https://govciomedia.com/hegseth-unveils-wartime-footing-for-military-ai-in-strategy-document/)