近期生成式 AI 令人矚目的戰場,出現在國安體系中。由於 Anthropic 不允許五角大廈在不受限制的情況下使用旗下 AI 模型 Claude,因此川普政府要求聯邦機構全面停用 Anthropic 的 AI 工具,五角大廈隨後更將其列為供應鏈風險,讓一場原本發生在合約談判桌上的分歧,迅速升高為軍事 AI 使用權與治理權的正面對決。其中的關鍵在於,Anthropic 並非拒絕與軍方合作,而是不願放棄對 Claude 使用邊界的主導權。
Anthropic 的堅持:爭議核心不是合作與否,而是 Claude 的使用紅線
Anthropic 執行長 Dario Amodei 近日受訪時強調,公司依然有意願與美國軍方合作,他甚至直言希望提供 AI 模型供軍方使用,然而這一切的前提是軍方必須遵守 Anthropic 設定的「紅線(red lines)」。
Anthropic 為 Claude 設定的護欄包含禁止用於大規模監控,以及禁止驅動自主武器。Dario Amodei 進一步指出他的具體擔憂:大規模監控可能演變成政府向私人企業購買數據並交由 AI 進行分析;驅動自主武器則代表系統可能在沒有人類介入的情況下逕自發動攻擊。Dario Amodei 表示,這類武器目前的「可靠性還不夠」,因此 Anthropic 絕對不會在這些紅線上妥協。
五角大廈則堅持必須能將 Claude 用於「任何合法用途」,以確保軍方對 AI 模型擁有最廣泛的運用彈性,但 Dario Amodei 擔憂,若將尚不可靠的 AI 投入高風險的軍事場景,恐將導致美軍或無辜平民喪生。
Claude 已深度嵌入軍事任務,伊朗軍事行動讓這場爭議浮上檯面
目前美軍在全球多個指揮體系皆已廣泛採用 Claude,其中包含負責中東行動的美國中央司令部(CENTCOM)。在近期針對伊朗的大規模聯合打擊行動中,CENTCOM 實際運用 Claude 來執行情報評估、目標識別與戰場情境模擬等核心軍事任務。
這些實戰應用情境證明,Claude 早已深度嵌入美軍的作戰規劃與戰備系統。當 AI 工具已經以如此錯綜複雜的方式融入軍事行動時,軍方要將其從既有任務流程中徹底抽離,面臨著極大的實務困難。
更進一步來看,由於 Claude 的應用還牽涉到與大數據分析公司 Palantir 這一類國防合作夥伴的深度整合,因此政策專家 George Pollack 警告,貿然將這套系統從軍事運作系統中移除,恐將引發嚴重的「作戰摩擦(operational friction)」。
OpenAI 的對照:不是不用 AI,而是誰願意接受政府條件
正因為 Anthropic 不願在紅線上退讓,才讓 OpenAI 與國防部的合作顯得格外關鍵。在 Anthropic 被列為供應鏈風險後不久,OpenAI 隨即透過部落格文章宣布已與美國國防部達成框架協議,同意把包含 ChatGPT 在內的旗下 AI 模型部署至軍方的機密網路與環境中。
OpenAI 強調,他們同樣為與五角大廈的合作劃定了明確的「紅線」,這些限制條款明文禁止將模型用於大規模國內監控、指揮自主武器,以及社會信用(social credit)等高風險的自動化決策系統。OpenAI 表示,這份協議是透過分層護欄(layered safeguards)的架構來保護這些限制,且任何涉及自主武器或監控的應用,皆必須絕對遵守現行法規與國防部的指令。
針對這項合作,OpenAI 執行長 Sam Altman 在一系列的線上問答(Ask-Me-Anything)中表示:「我對一個 AI 公司表現得比政府更有權力的世界感到恐懼,但我也同樣恐懼我們的政府認為大規模國內監控是可以接受的。」
隨著 Anthropic 與軍方關係持續惡化,國防部已轉而與 OpenAI 以及馬斯克(Elon Musk)旗下的 xAI 達成協議,著手在機密場景中導入這些替代模型。然而,AI 專家評估,要完全以這些新模型替換掉目前深植於系統的 Claude,仍需要數個月的緩衝期。
值得注意的是,在 Anthropic 與政府關係惡化之際,OpenAI 卻選擇與美國國防部達成協議,將模型部署至機密環境。這兩家 AI 公司看似不同的商業選擇,背後反映的,其實是對「軍事 AI 紅線究竟該由誰劃定」的根本分歧。
這場爭議最後指向的是軍事 AI 的治理權
美國創新基金會(Foundation for American Innovation)的高級研究員 Dean Ball 指出,美國政府與 Anthropic 的僵局已進入「未知領域」(uncharted territory),因為這是一場雙方皆堅持原則的硬仗:Anthropic 堅持透過合約來嚴格限制技術的最終用途,而五角大廈則堅定認為國家防衛政策理應優先於企業的道德考量。Dean Ball 也警告,這對 Anthropic 而言這是一場「生存危機」,因為政府若能輕易懲罰堅持道德護欄的企業,將對所有考慮與聯邦政府合作的科技創業家產生強烈的寒蟬效應。
在制度與權力結構之外,這場爭議也進一步引出更尖銳的實戰與倫理問題。AI 學者 Gary Marcus 直言,生成式 AI 在推理、視覺認知與常識判斷上至今仍存在重大缺陷,特別是將尚不可靠的 AI 系統僅憑「直覺(vibes)」用於軍事目標定位,本質上就是一場充滿致命風險的豪賭。Marcus 更提出深層的「道德問題」:軍方可能藉由 AI 來掩護其道德責任,在大量平民傷亡時將錯怪給演算法,這就像擲骰子決定目標,出了事卻怪罪骰子,而非追究一開始把生死交給機率的人。
Anthropic 與軍方的衝突,已經不是單一事件,而是「誰真正控制著美國最強大的軍事科技」。當 Claude 這一類 AI 工具已經實際介入情報評估、目標識別與戰場模擬等軍事流程,軍事 AI 的最終使用邊界,究竟該由企業條款約束、政府命令主導,還是交由既有的作戰系統與人類指揮官來決定,才是這場風波留給未來的最大課題。
本圖/文由「Techorange科技報橘」授權刊登,非經同意不得任意轉載。
原文出處:軍事 AI 控制權誰說了算?Claude 捲入伊朗戰場、OpenAI 進入機密環境,科技巨頭正在與國安體系爭奪治理主導權