最近,五角大樓宣布與七家科技巨頭達成合作協議,將其人工智能(AI)技術應用于軍方機密計算機網絡,助力作戰人員優化決策、提升戰場效能,這一舉措標志著美軍AI軍事應用進入新階段。但外界對美軍在戰場上過度依賴人工智能的擔憂也日益加劇,技術賦能的背后,倫理爭議與安全隱患正逐漸浮出水面。
![]()
此次與五角大樓達成合作的企業涵蓋了全球科技領域的核心力量,包括谷歌、微軟、亞馬遜云科技、英偉達等知名企業,以及開放人工智能研究中心、反射人工智能公司和太空探索技術公司。按照協議,這些企業將提供核心技術資源,幫助美軍在復雜多變的作戰環境中快速整合信息、優化決策流程,為作戰行動提供智能化支撐。美軍近年來一直在加速推進AI技術的軍事應用,不僅可以大幅縮短戰場目標識別與打擊的時間,提升作戰效率,還能協助統籌武器維護、規劃補給線路,降低人力成本。
值得關注的是,AI領域的一些重要企業并未出現在這份合作名單中,其背后是該公司與特朗普政府圍繞AI軍事應用的激烈爭執與法律糾紛。隨著AI在軍事領域的應用不斷深入,外界的擔憂也愈發強烈,核心集中在隱私侵犯、自主打擊風險以及過度依賴帶來的決策偏差三大方面。
![]()
AI技術在軍事領域的廣泛應用可能侵犯美國民眾的隱私,而更令人擔憂的是,若允許機器自主選擇戰場打擊目標,可能導致平民傷亡大幅增加。此前以色列在加沙和黎巴嫩的軍事行動中,美國科技巨頭暗中為其提供AI目標鎖定技術支持,隨著當地平民死亡人數急劇攀升,進一步加劇了人們對AI軍事應用倫理風險的擔憂,也讓“機器決定生死”的爭議成為焦點。現代戰爭局勢混亂多變,指揮人員需要根據復雜場景作出靈活決策,AI可以提供輔助,但不能替代人類的判斷。更值得警惕的是“自動化偏見”,人們往往會高估機器的實際使用效果,過度信任AI給出的結論,進而放棄自身的獨立判斷,這在瞬息萬變的戰場上可能引發致命失誤。
盡管爭議不斷,五角大樓仍在持續推進AI軍事應用,強調其能為美軍帶來戰略優勢。但事實上,即便是與五角大樓簽約的企業,也在協議中明確要求,AI技術的使用在特定情況下必須有人為監督,這也從側面印證了技術應用的風險。
![]()
從本質上看,美軍加速AI軍事應用,是其追求軍事霸權、提升戰場優勢的必然選擇,但其忽視倫理風險、盲目推進技術落地的做法,反而可能陷入“技術依賴”的陷阱。AI技術本身存在內在的不成熟性,其決策邏輯的黑箱特性的、場景匹配的不精準性,都可能導致誤判,而過度依賴AI,不僅會削弱指揮人員的決策能力,還可能因技術故障或算法偏差引發不可挽回的后果。美軍在推進AI軍事應用的過程中,唯有正視爭議、明確倫理邊界,加強人為監督與人員培訓,才能避免陷入過度依賴的困境,讓技術真正服務于安全與和平,而非成為新的風險源頭。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.