五角大樓轉投OpenAI 塞翁失馬Anthropic爆紅
2026 年 2 月,OpenAI 宣佈與美國國防部達成協議,將 AI 模型導入機密網絡,並強調設有「技術安全保障」以防止自動化武器濫用。此前,競爭對手 Anthropic 因堅持倫理底線拒絕讓步,遭特朗普政府列為供應鏈風險並要求停用。本文深入分析兩大 AI 巨頭在軍事合作上的分歧、技術安全棧的實際運作,以及此事件對全球 AI 產業倫理與市場排名的深遠影響。
前言:AI 進入軍事機密網絡的里程碑
2026 年 2 月底,全球人工智慧領域迎來了一個關鍵轉折點。OpenAI 行政總裁 Sam Altman 正式宣佈,公司已與美國國防部(DoD,在特朗普政府下亦被稱為「戰爭部」)達成協議,允許國防部在其分類機密網絡(Classified Network)中使用 OpenAI 的 AI 模型。
這項協議嘅達成,標誌住 AI 技術由民用、商用正式大規模踏入國家安全嘅核心領域。然而,喺呢單新聞背後,係 OpenAI 與另一 AI 巨頭 Anthropic 之間截然不同嘅處事方式,以及科技公司喺面對政府軍事需求時,如何喺倫理、法律同商業利益之間取得平衡。
事件背景:Anthropic 的「紅線」與政治風波
要理解 OpenAI 呢份協議嘅重要性,必須先回顧過去數週 Anthropic 與五角大樓之間嘅僵局。
Anthropic 嘅堅持
Anthropic 由前 OpenAI 成員創立,一向標榜「AI 安全性(AI Safety)」。喺與國防部嘅談判中,Anthropic 堅持要喺合約中劃清「紅線」,明確禁止將其模型用於:
- 大規模國內監視(Mass Domestic Surveillance)。
- 完全自動化武器系統(Fully Autonomous Weapons),即係由 AI 自行決定是否進行武力攻擊。
Anthropic 行政總裁 Dario Amodei 指出,雖然公司唔會隨意限制一般軍事行動,但喺特定情況下,AI 可能會損害而非捍衛民主價值。
政府嘅強硬回應
呢種「設限」嘅做法引起咗特朗普政府嘅強烈不滿。國防部長 Pete Hegseth 批評 Anthropic 試圖對美軍嘅行動決策行使「否決權」,並將其定性為「供應鏈風險」。隨後,總統特朗普更指令聯邦機構喺六個月內逐步停用 Anthropic 嘅產品。
OpenAI 的戰略:以「技術安全棧」化解分歧
喺 Anthropic 陷入政治風波之際,OpenAI 選擇咗一條唔同嘅路。Sam Altman 表示,OpenAI 同樣重視安全性,但佢哋選擇透過「技術手段」而非「單方面限制」嚟達成共識。
1. 核心安全原則嘅共識
Altman 喺 X(前稱 Twitter)上指出,OpenAI 嘅兩大原則——禁止大規模監視以及確保武力使用中嘅「人類責任」——已經得到國防部嘅認可,並反映喺法律同政策之中。
2. 何謂「技術安全保障」(Technical Safeguards)?
OpenAI 提出將會建立一套專屬嘅**「安全棧」(Safety Stack)**。呢套系統嘅核心邏輯包括:
- 拒絕執行特定指令: 如果 AI 模型判斷某項任務違反安全原則,模型會拒絕執行。
- 政府不強迫原則: 根據 OpenAI 內部會議透露,如果模型拒絕執行某項任務,政府協議中承諾唔會強迫 OpenAI 更改該決定。
- 派駐工程師: OpenAI 將派遣工程師進駐五角大樓,直接協助模型部署並確保其行為符合預期。
3. 去標籤化與合規化
Altman 嘅目標係將軍事合作「去敏感化」。佢呼籲政府對所有 AI 公司提供相同嘅條款,認為只要有合理嘅技術監管,AI 科技界同政府之間嘅緊張關係應該得以緩和。
分析:OpenAI vs. Anthropic 的立場比較
呢次事件反映咗兩間公司喺「負責任 AI」實踐上嘅差異。下表整理咗兩者嘅主要觀點:
| 比較項目 | Anthropic | OpenAI |
| 軍事合作態度 | 高度警惕,堅持明文限制用途 | 積極合作,強調技術監管與政策對齊 |
| 安全執行方式 | 法律合約紅線,界定禁止使用場景 | 建立「安全棧」,由工程師與模型共同把關 |
| 政府關係 | 陷入對抗,被視為「供應鏈風險」 | 達成協議,推動行業標準化 |
| 市場反應 | 美國 App Store 排名升至第一(受公眾關注影響) | 鞏固其作為政府主要合作夥伴嘅地位 |
觀點分析:邊套方案更具可操作性?
從專業角度睇,Anthropic 嘅立場代表咗科技界對 AI 武器化嘅傳統憂慮。然而,喺國家安全同大國競爭嘅背景下,政府好難接受科技公司對其運作擁有「否決權」。
OpenAI 嘅方案則更具「實務主義」色彩。透過將安全功能內置於技術架構中,而非單靠合約文字,OpenAI 俾咗政府一個下台階:既保留咗政府嘅面子(唔係被公司限制),又喺實際上保留咗對 AI 模型行為嘅控制權。
意外的副作用:Claude 意外爆紅
有趣嘅係,雖然 Anthropic 受到政府制裁,但喺民間市場反而獲得咗意想不到嘅支持。
根據數據顯示,Anthropic 旗下嘅聊天機器人 Claude 喺與五角大樓發生糾紛後,喺美國 App Store 嘅下載排名迅速攀升,甚至一度超越 ChatGPT 奪得冠軍。
點解讀者會支持 Anthropic?
- 倫理光環: 部分用戶認為 Anthropic 敢於挑戰權威、堅持 AI 倫理,係值得信賴嘅表現。
- 「被禁」效應: 當政府宣佈要停用某項產品時,往往會激發大眾嘅好奇心同埋「趕喺禁令前使用」嘅心理。
- 產品實力: 數據顯示 Claude 嘅付費用戶喺 2026 年翻咗一倍,反映出其模型性能本身已經具備同 OpenAI 競爭嘅實力。
香港讀者關注點:呢單新聞同我有咩關係?
雖然呢場係美軍與 AI 巨頭之間嘅博弈,但對於身處香港嘅讀者同科技從業者嚟講,有幾點值得留意:
1. AI 監管趨勢嘅轉向
未來 AI 嘅安全標準可能唔再係由公司單方面決定,而係變成「政府與公司共建」嘅模式。如果你係從事數據安全或企業合規工作,呢種「技術安全棧」嘅概念好快會由軍用擴展到金融、醫療等受監管行業。
2. 供應鏈風險嘅連鎖反應
Anthropic 被列為「供應鏈風險」係一個重要訊號。如果你嘅業務流程中依賴特定嘅美資 AI API,必須留意地緣政治或政府政策變動對服務穩定性嘅影響。
3. 模型選擇嘅考慮
- 追求合規與穩定: OpenAI 顯示出強大嘅政府對接能力,喺大型企業應用中可能更具穩定性。
- 追求倫理與安全: 如果你嘅應用場景對 AI 倫理有極高要求,Claude 喺呢方面嘅堅持可能會成為你選擇佢嘅理由。
總結:AI 安全的新常態
OpenAI 與五角大樓嘅協議,標誌住 AI 科技公司正式成為「國防工業」嘅一部分。Altman 提出嘅「技術安全保障」雖然聽落好理想,但實際執行中如何確保 AI 唔會喺壓力下「妥協」,仍然需要時間觀察。
同時,Anthropic 嘅經歷提醒我哋,科技公司嘅獨立性喺國家戰略面前係幾咁脆弱。無論你支持邊一方嘅理念,AI 已經唔再單純係一個提高效率嘅工具,佢已經成為左右國際政治同國家安全嘅核心資產。
Comments ()