Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

人工智慧如何改變現代戰爭:從伊朗衝突看 AI 武器、軍事倫理與未來戰場

 

 

圖靈學院
圖靈學院評論
2026-3-11

 

前言


    伊朗衝突凸顯人工智慧正快速進入現代戰場,從目標識別、無人機導航到軍事決策支援,AI 正改寫戰爭樣貌。本文從 Nature 報導出發,分析 AI 戰爭的優勢、風險、倫理爭議與未來國際規範挑戰。當人工智慧逐步進入人類生活的每個領域時,戰爭也不再例外。近期 Nature 一篇文章指出,伊朗相關衝突正凸顯 AI 在現代軍事行動中的角色已快速升級,從後勤支援、情報分析,到目標辨識與攻擊建議,人工智慧正逐漸從幕後輔助走向前線決策。這不只是技術進步的展現,更是一個關於倫理、責任與國際秩序的重大警訊。因為當戰場上的判斷越來越依賴演算法,人類究竟還能保有多少真正的控制權,將成為未來戰爭最值得追問的問題。


AI 已經不是軍事配角,而是戰場規則改寫者

 

    過去談到軍事科技革新,多數人想到的是飛彈、防空系統、衛星偵測或無人機。但今天,人工智慧的角色已經比這些單一裝備更深。它不只是某種武器的附屬功能,而是逐步變成整個作戰系統的核心能力。根據 Nature 的報導,美軍目前已將 AI 應用在多項軍事流程中,包括大型語言模型支援的行政與後勤作業、情報蒐集與分析,以及戰場上的決策輔助。像 Maven Smart System 這類系統,更被認為可用於影像辨識、目標排序與戰術支援,協助軍方更快判斷哪些目標需要優先處理。

 

    從軍事效率的角度來看,這樣的技術確實極具吸引力。AI 能在極短時間內處理龐大的影像、通訊與感測資料,幫助指揮系統快速找出可疑目標、預測威脅,甚至提出打擊建議。這在分秒必爭的戰場環境中,代表巨大的戰術優勢。但問題也正出在這裡:當速度成為第一優先,人類判斷往往會被壓縮。


AI 真的能讓戰爭更精準、更人道嗎?

 

    支持軍事 AI 的論點通常很直接:既然 AI 可以提升辨識能力與打擊精準度,那麼理論上就有機會降低誤擊與平民傷亡。這個說法聽起來合理,甚至帶有某種「科技使戰爭更文明」的想像。然而,現實並沒有這麼樂觀。Nature 文章提到,從烏克蘭到加薩,AI 已被應用於目標識別、無人機導航與情報判讀等用途,但這些衝突並未因此顯著降低平民死亡。相反地,高度科技化的作戰模式有時反而讓攻擊節奏更快、打擊範圍更廣,導致人員傷亡與附帶損害持續升高。這說明了一個重要事實:AI 的精準,不等於戰爭的仁慈。
因為戰爭從來不是單純的技術問題。即使系統可以更快圈出一個目標,也不代表它能真正理解現場情境,例如平民是否正在附近、建築是否具有雙重用途、攻擊行動是否符合比例原則。這些涉及法律、倫理與脈絡判斷的問題,至今仍不是演算法可以可靠承擔的工作。換句話說,AI 或許能幫助軍隊「更有效率地打仗」,卻不必然能讓戰爭「更符合人道」。


最危險的不是 AI 犯錯,而是人類把責任交給 AI

 

    我認為,AI 軍事化最值得警惕的地方,不只是模型可能誤判,而是它可能讓責任變得模糊。傳統戰爭的責任鏈相對清楚:情報人員提供資訊、指揮官做出決策、武器操作員執行命令。可是當 AI 介入後,一次軍事行動背後可能涉及資料提供者、模型開發商、系統整合商、軍方分析人員、作戰指揮官與實際操作員。若最終出現錯誤打擊,責任究竟要歸屬於誰?

是資料集有偏差?
是模型判讀錯誤?
是感測器誤傳訊號?
還是人類過度相信系統建議?

 

    這種責任分散,會讓暴力行為在程序上看起來更「科學」、更「客觀」,但其實也更容易逃避問責。當人類開始相信「系統這樣判斷應該沒錯」,那麼真正被削弱的,不是機器,而是人類自身的道德判斷能力。


「人在迴路中」不代表真的有人類控制

 

    在軍事 AI 討論中,常常會出現一個看似令人安心的說法:human in the loop,也就是「人仍然在決策流程中」。但這句話其實未必可靠。如果操作人員只是面對系統自動產出的高優先級目標清單,在有限時間內做形式上的核准,那麼這種人類參與究竟是實質審查,還是只是在替機器背書?如果人無法理解模型判斷邏輯、無法檢驗資料品質,也無法在高壓情境下有效拒絕系統建議,那麼所謂「人類控制」很可能只是表面存在。真正有意義的人類控制,不應只是最後按下同意鍵,而應包括幾個條件:

 

第一,操作人員必須理解系統限制。
第二,系統必須能被追溯與審計。
第三,人類必須有實質拒絕權,而非被時間壓力推著做決定。
第四,整個流程在法律上必須可被問責。

 

若缺乏這些條件,那麼「人在迴路中」只是一句漂亮的制度口號。


致命自主武器系統為何引發全球焦慮?

 

    Nature 文章也提到,當前國際社會對 AI 戰爭最有爭議的焦點之一,就是「致命自主武器系統」。這類武器一旦啟動,可能在缺乏人類即時介入的情況下,自主識別、選擇並攻擊目標。這種技術對軍方當然很有吸引力。它意味著無人機、機器載具或其他武器平台未來可能在更少人力下執行任務,並在高速作戰環境中做出即時反應。但問題在於,國際人道法要求武器使用者必須區分戰鬥員與平民,並遵守比例原則與必要性原則。現階段的 AI,尤其是依賴大型語言模型或複雜機器學習系統的自主武器,並沒有能力穩定且可靠地完成這種高風險判斷。這也是為什麼聯合國、國際紅十字會與眾多法律學者持續呼籲,應對某些不可接受的自主武器用途設下明確禁止,並對高風險軍事 AI 建立嚴格限制。問題不是未來會不會出現更聰明的模型,而是在人類還沒有建立清楚規則前,技術已經先被推上戰場。


科技公司也正在成為戰爭體系的一部分

 

    這篇文章另一個很值得深思的地方,是它點出了 AI 供應商與政府之間的關係。今天軍事 AI 的能力,往往不只掌握在國家手裡,也深受科技公司影響。模型由企業開發、雲端由企業提供、晶片由企業製造、資料清理與標註也常依賴民間供應鏈。這意味著,未來戰爭不再只是國家機器的展現,也可能是國家與科技企業共同塑造的混合權力。這裡帶來兩個隱憂。第一,軍事倫理可能被商業機密遮蔽。第二,企業的技術紅線究竟是否穩固,外界其實難以監督。當商業利益、國家安全與地緣政治交纏在一起時,AI 治理會變得更複雜,也更不透明。所以,討論 AI 戰爭,不能只盯著戰場本身,也必須檢視背後的供應鏈治理、企業責任與公共監督機制。


未來戰爭最需要升級的不是武器,而是規範

 

    從伊朗衝突所反映出的現象來看,真正落後的不是技術,而是規範。AI 正在快速滲透軍事領域,但國際法與國際共識卻仍在追趕。聯合國雖持續針對致命自主武器系統進行討論,然而全球目前仍未形成真正具拘束力的明確規範。這種「先部署、後討論」的模式十分危險,因為一旦各國將 AI 軍事化視為競爭優勢,技術擴散速度就會遠遠超過治理速度。我認為,未來至少應建立幾項底線:

任何直接涉及致命打擊的 AI 系統,都必須保有實質人類控制;
所有參與目標辨識與攻擊建議的系統,都應具備可追溯與可審計能力;各國不得以商業機密或國安理由,完全拒絕外部監督;
國際社會應對部分不可接受用途明文禁止,而非僅止於原則性呼籲。因為一旦沒有底線,AI 不只會改變戰場,還會改變人類對暴力的道德敏感度。


結語:AI 可以協助戰爭判斷,但不能取代人類的倫理責任

 

    伊朗衝突之所以值得關注,不只是因為它展現了 AI 已深入現代軍事行動,更因為它逼迫我們面對一個根本問題:當生死判斷被資料化、自動化與平台化之後,人類是否還願意對暴力負起完整責任?人工智慧確實能幫助軍隊更快整理資訊、更快鎖定威脅、更快做出反應,但戰爭從來不只是效率問題。它同時是法律問題、倫理問題,也是責任問題。如果未來戰爭變得更快、更準、更自動,卻也更不透明、更難問責,那麼這樣的「進步」未必值得歡迎。真正需要被升級的,不只是武器,而是我們對人類控制底線的堅持。AI 可以協助人類理解戰場,但絕不能成為人類逃避判斷與責任的藉口。

 

 

參考資料

1. Nature News: “How AI is shaping the war in Iran — and what’s next for future conflicts”

2. United Nations Office for Disarmament Affairs (UNODA): “Lethal Autonomous Weapon Systems”

3. UN CCW 會議資料:致命自主武器系統政府專家小組

4. U.S. Department of Defense: “Responsible Artificial Intelligence Strategy and Implementation Pathway”

5. U.S. Department of Defense Directive 3000.09:“Autonomy in Weapon Systems”

6. ICRC:“ICRC position on autonomous weapon systems”

7.Project Maven (Wiki)


8.Kairi Talves & Dierk Spreen (2025): Artificial Intelligence in Military Technology