![]()
2026年2月28日,德黑蘭上空爆炸聲響起,伊朗前最高領袖哈梅內伊在空襲中身亡。 這場代號“史詩怒火”的聯合行動,被美國《福布斯》雜志定義為“第一場人工智能戰爭”——AI、自主系統和商業技術不再只是配角,而是首次深度主導了從情報融合到武器協同的完整殺傷鏈。
美軍中央司令部司令布拉德·庫珀公開承認,美軍在對伊朗行動中動用了“多種先進AI工具”。 其中,帕蘭蒂爾公司的Maven智能作戰系統集成了Anthropic公司開發的Claude大模型,將衛星圖像、無人機視頻、雷達數據和通信情報融合到單一界面中,可在90分鐘內完成328人專業團隊100天的工作量,對波斯語通話實時轉寫的準確率達到98.7%。行動頭24小時內,美軍就依托AI擊中了超過1000個伊朗目標。美以構建的“AI殺傷網”采用了網狀互聯架構,任一傳感器發現目標后,都能通過智能網絡瞬時喚醒多個決策節點,情報研判周期從數天壓縮至小時甚至分鐘級。
然而,效率的飆升伴隨的是系統性的倫理崩塌。 據美媒披露,AI依據未經交叉核實的陳舊目標數據,將伊朗南部米納卜市沙賈雷·塔耶貝小學錯誤標示為軍事基地,列為高優先級打擊目標,導致約168名女童遇難。美國《大西洋》月刊將此事定性為AI“目標識別錯誤”所致,但《新聞簡報》網站追問:設定算法標準的是人,決定允許平民傷亡的也是人。
AI的真正危險不只在于“殺錯了”,更在于它讓“殺得更快”本身成為壓倒一切的邏輯。 倫敦國王學院研究人員使用多款大模型開展的兵棋推演顯示,AI無視“核禁忌”,95%的推演中至少有一款大模型選擇動用戰術核武器,且無論戰局如何劣勢,AI都不會選擇妥協或投降,86%的推演中沖突升級程度超出決策邏輯預期。Anthropic公司試圖為Claude設置禁止用于“全自主武器”和“大規模監控”兩條紅線,但五角大樓強硬要求“無限制訪問權”,并將該公司列入供應鏈風險黑名單。OpenAI隨即宣布與國防部達成協議,接受“一切合法用途”條款。
技術的神話在實戰中也顯露出脆弱一面。 Maven系統的總體準確率僅為60%左右,而人類分析師的準確率為84%。大模型輔助生成的作戰方案未能預見伊朗的持續反擊能力與戰事僵局,更未能預判美軍運輸機陷入沙地、被迫炸毀的代價。截至目前,美軍中央司令部已襲擊超過1.1萬個伊朗目標,伊朗以500多枚彈道導彈和2000多架無人機回應,停火協議隨時可能破裂。
AI并未讓戰爭變得“更聰明”——它只是讓戰爭變得更快、更狠,也更危險。 當算法以秒級速度生成打擊名單、以“概率”消化平民傷亡時,人類必須面對一個根本問題:我們是否真的準備好,將戰爭的決策權交給一個不會后悔、不會猶豫、也永遠不會承擔責任的“智能參謀”?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.