圖靈學院內的文章包含三大主題:ESG浄零實驗室、AI實驗室及精實管理實驗室,我們會不定期分享相關主題之文章,也歡迎並對前述主題有興趣的學員投稿分享您的見解  (我要投稿)

圖靈學院創辦人 科楠老師的願景

Anthropic 推出「Claude Gov」:AI 如何重塑美國國安體系?

 

圖靈學院
科楠
2025-6-10

 

Anthropic 與國家安全:一次顛覆式的策略轉向

 

    2025 年 6 月 5 日,人工智慧公司 Anthropic 正式宣佈推出 Claude Gov——專為美國國防與情報機構打造的定制化 AI 服務。該版本 比一般消費者版本更能處理機密資訊,且對敏感內容的拒絕策略「放寬」,標誌著 AI 技術正進一步滲透高層國家安全領域。

 

Anthropic 強調這些模型已部署於美國機密層級的政府部門,支援從戰略規劃、威脅評估,到情報翻譯與分析等多元任務。其特點包括:

 

* 增強機密檔處理能力,允許 AI 有條件地分析機敏內容。
* 加強語境理解,特別針對國防與情報專業文本。
* 支援特定關鍵語言與方言,滿足不同情報收集需求。
* 精進網路安全資料解析能力,如網絡攻擊模式與分析等。

 

這些功能反映出 Anthropic Constitutional AI(憲法 AI)思維與安全優先原則的延伸:在國安領域中應用 AI,不是放寬底線,而是將安全設計嵌入技術架構之中。

 

國安領域的 AI 擴張:多方競合中的新戰場

 

    Anthropic 並非孤軍作戰。時至今日,AI 企業間正掀起一場 「政府導向 AI 服務」的大戰。OpenAI、Scale AI、Meta 等皆已投入。House 臺的 ChatGPT Gov 已於今年初上線,並已於聯邦、州、地方政府內被超過 90,000 名員工使用。

 

相比之下,Anthropic 在宣傳其產品已部署於「最高層級國安機構」時,卻未公開具體使用規模與案例。儘管如此,其加入 Palantir 的 FedStart 計劃,也透露出該公司正在尋求「政府通路」成為長期合作夥伴。

 

Scale AI 早在 3 月取得國防部合約,開始打造軍事 AI Agent;而類似計畫也進軍卡達等國際政府部門,形成跨國 AI 國安佈局 。AI 不再僅是科技界之爭,更是國安與外交的新戰場。

 

江湖規則變了?政府 AI 版圖與道德挑戰

 

    政府透入 AI 技術,意味深遠。你或許記得,美國司法部已因面孔辨識與預測警務系統引發多起誤判與歧視事件。AI 濫用的潛在風險,不僅是民間事件,也可能被帶進情報與軍事操作中。

 

即使 Anthropic 明訂其使用政策禁止武器製造、惡意網絡行動等用途,卻承認對 「政府特定任務可行性例外」 進行調整 。這樣的框架,表面上看似理性;但若不慎誤傷民主制度,無論是資訊誤導、系統歧視或逾權運用,都可能形成 制度性風險。

 

安全 vs. 可用:Anthropic 的技術兩難

 

    Anthropic 自家 Claude 系列最近系統性升級。5 月推出的 Claude Opus 4,是自家最強大模型,同時也引發巨大「生化武器」風險疑慮,因此被列為安全機制最高 ASL‑3 級別,並實施“prompt 分析規則”、“攻擊補丁獎勵計畫”、“強化網安”等保護措施。

 

然而,若連這樣深度的安全設計,都無法完全承保模型不被濫用,那麼在國安版本中的使用還是否可控?加之 Claude Gov 對敏感內容容忍度提高,是否拋棄了某些安全防線?成為學界、社會必須正面探討的課題。

 

跨界挑戰:政策、法規還不足

 

    至今,美國國會尚未就 AI 國安應用建立跨黨派法規框架。雖有學界學者提出 AI “incident regime” 建議,強調部署前需提交風險報告、事故通報機制與政府再檢視策略;又如 MCP(通用 API 協定)被曝出可以被利用攻擊系統 。但現實是,這些技術上的規劃仍遠未進入立法體系內。

 

On one hand,美國政府需要 AI 幫助情報分析、常態攻防與威脅預警;on the other hand,不確定的濫用、偏見崩壞民主過程與濫權破口,仍隨時可能顯現。如何在速度與風險間取得平衡?是科技界與制度設計者的急迫課題。

 

結語:AI 國安戰略骨幹重製

 

    Anthropic 的 Claude Gov,無疑是 AI 國際軍備競賽中的一環。它代表的不僅是技術進步,也是一種AI 開疆擴土的政治宣言:AI 不僅是商業產物,更是國家力量的延伸工具。

 

在未來,若缺乏公開透明的監管與機制,我們可能將迎來一個 AI-driven 的國家安全時代:速度取代穩定,效率淩駕倫理。Anthropic、OpenAI 乃至所有投身政府項目的 AI 公司,都必須承擔超越商業成功的責任。

 

最終,社會與監管部門必須建構起一套由法律、技術與公民監督共同支撐的「AI 國安邊界」。否則,AI 也許能幫助摧毀威脅,也可能成為更難抵禦的新型威脅本身。

 

 

參考資料:

1.theverge.com:Anthropic launches new Claude service for military and intelligence use

 

2.Anthropic launches new Claude service for military and intelligence use

 

3.Anthropic Unveils Claude Gov for U.S. Security Agencies

 

4.Exclusive: New Claude Model Triggers Stricter Safeguards at Anthropic  

 

5.A proposal for an incident regime that tracks and counters threats to national security posed by AI systems