「我們為此感到自豪。」——谷歌高管這樣回應員工對軍方合同的質疑。
這句話出現在一份內部備忘錄中,對象是數百名抗議將人工智能(AI)用于軍事項目的員工。十年前,谷歌曾因類似爭議退出Maven項目,承諾不將技術用于武器開發。如今,同樣的劇本重演,結局卻截然不同。
![]()
合同升級:從"特定用途"到"任何合法目的"
谷歌近期與美國國防部(DoD)的合同擴展包含兩個關鍵動作。
第一,將Gemini(谷歌的大語言模型)的可用范圍擴大到機密項目,授權條款明確寫明用于"任何合法目的"。
第二,退出了一項價值1億美元的五角大樓挑戰賽——該項目旨在開發語音控制的自主無人機蜂群系統。
表面看,退出無人機項目像是倫理底線的堅守。但彭博社的報道揭示了另一層:內部倫理審查確實發揮了作用,阻止了特定項目的推進。然而,Gemini的通用授權條款,實際上為更廣泛的軍事應用打開了大門。
這種"拒絕具體項目、開放底層能力"的策略,讓谷歌得以聲稱仍在審查倫理風險,同時將核心AI技術嵌入國防體系。
員工反彈:從公開抗議到內部備忘錄壓制
2018年Maven項目爭議時,超過3000名谷歌員工簽署公開信,最終迫使公司宣布不再續約。當時谷歌明確承諾:不追求"設計或部署"用于武器的技術。
2025年的情況變了。數百名員工再次聯名致信首席執行官桑達爾·皮查伊,要求拒絕軍事AI用途。公司的回應不是談判,而是一份立場強硬的內部聲明。
這份備忘錄的核心信息有三層:國防是國家優先事項;谷歌的技術將"以符合我們價值觀的方式"使用;員工應當為支持國家安全感到自豪。
沒有撤回合同,沒有公開承諾限制,只有對質疑者的安撫與立場重申。
倫理條款的悄然改寫
谷歌AI原則的變化值得逐字比對。
舊版原則(2018年前后):不會部署"可能造成重大傷害"的AI,不會設計用于"監視或武器"的技術。
現行原則:刪除了"重大"這一限定詞,將"傷害"標準模糊化;武器相關條款被重新表述為"不會追求"而非"不會設計或部署"。
措辭的微調創造了巨大的解釋空間。"可能造成傷害"與"可能造成重大傷害"之間,隔著無數種軍事應用場景。無人機目標識別算"傷害"嗎?情報分析算"監視"嗎?Gemini用于機密項目的"任何合法目的",這些邊界由誰來劃定?
答案是:由合同條款和軍方需求共同劃定,而非谷歌公開的倫理承諾。
商業邏輯:政府市場的誘惑與壓力
五角大樓的AI支出正在加速。2024財年,美國國防部人工智能相關預算超過18億美元,生成式AI(能夠創造文本、圖像、代碼的AI系統)是重點投入方向。
谷歌并非唯一參與者。微軟、亞馬遜、甲骨文均已獲得不同層級的機密云服務和AI合同。但谷歌的特殊性在于:它曾是最高調宣稱技術倫理邊界的公司,"不作惡"(Don't Be Evil)一度是其品牌核心。
2015年,谷歌重組為Alphabet控股公司時,"不作惡"從公司行為準則的頂部移至底部,最終被"做正確的事"(Do the Right Thing)取代。當時外界普遍視為修辭調整,如今看來像是預言。
對谷歌云業務而言,政府合同是縮小與亞馬遜AWS、微軟Azure差距的關鍵路徑。2024年,谷歌云營收突破330億美元,但市場份額仍落后前兩名。五角大樓的機密項目不僅帶來直接收入,更是技術可信度的背書——能夠處理機密數據的AI,意味著安全架構通過了最嚴格的審查。
行業鏡像:當所有大廠都在"合規"框架下進軍國防
將谷歌單獨拎出來批判并不公平,這正是問題所在。
OpenAI在2024年初刪除服務條款中"禁止用于軍事和戰爭"的明確限制,改為"不得用于開發或使用武器"。微軟與OpenAI的技術已通過軍方承包商間接進入戰場情報系統。亞馬遜的JEDI合同(后被取消并重組)爭議持續了數年。
整個行業的倫理防線正在"合規化"中瓦解。不是直接開發武器,而是通過"雙重用途"技術——民用AI的軍用適配——實現滲透。Gemini用于"后勤分析"與用于"目標篩選",在代碼層面可能是同一套系統。
谷歌的"任何合法目的"條款,不過是將這種行業潛規則書面化。當法律框架(美國法律授權的軍事行動)取代企業自我約束,倫理審查就退化為風險評估——不是"應不應該",而是"會不會出事"。
技術人員的困境:抗議的邊際效用遞減
2018年Maven抗議的成功,建立在兩個條件上:員工集體行動的罕見性,以及谷歌對公眾形象的敏感。
2025年,這兩個條件都已弱化。大型科技公司的員工流動率上升,遠程辦公削弱了組織動員能力。更關鍵的是,AI軍備競賽的敘事已經重構——"不讓我們做,中國會做"成為管理層回應質疑的標準話術。
谷歌內部備忘錄的措辭變化耐人尋味。2018年,高管強調"傾聽員工聲音";2025年,強調"為國家安全自豪"。員工從需要安撫的利益相關方,變成了需要統一思想的內部公眾。
這種轉變的底層邏輯是:當技術成為國家戰略資產,企業倫理必須讓位于國家意志。谷歌只是率先完成了這一認知調整。
遺留問題:當"不作惡"成為歷史注腳
谷歌聯合創始人拉里·佩奇和謝爾蓋·布林在2004年招股書中寫下"不作惡",作為對華爾街的警告:谷歌不會為短期利益犧牲用戶信任。二十年后,這句話出現在關于公司倫理崩塌的新聞標題中,成為一種諷刺。
但更值得追問的是:這個口號從一開始就是可行的嗎?
搜索引擎的商業模式建立在注意力經濟之上,廣告定向投放與"不作惡"的兼容性從未被真正檢驗。AI技術的軍民兩用特性,只是將這一張力推向極端。當技術能力本身成為善惡的放大器,企業的自我約束在競爭壓力和政府合同面前顯得脆弱。
谷歌的選擇或許不是倫理的潰敗,而是倫理幻想的終結。當Gemini被授權用于"任何合法目的",真正的問題不是谷歌變了,而是"不作惡"這個口號所依賴的前提——企業可以且應當獨立于國家權力定義技術邊界——從來就不成立。
接下來需要觀察的是:其他AI公司是否會跟進類似的合同條款,以及"合法用途"這一表述是否會成為行業標配。如果答案是肯定的,那么2018年至2025年的這段歷史,將被記錄為AI倫理從"自我約束"向"合規外包"的轉型期——而谷歌是第一家公開完成這一轉型的巨頭。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.