![]()
算力優勢,不再自動等同于效率優勢。競爭的關鍵已不在于“誰更強”,而在于“誰更高效地定義基礎設施”。
文|胡嘉琦ID | BMR2004
2026年春季科技發布會密集召開,美國加州圣何塞再次成為全球算力競爭的風暴中心。隨著新一代芯片、互連技術與系統級產品集中發布,英偉達(NVIDIA)創始人兼CEO黃仁勛將2025—2027年的市場預期上調至1萬億美元,體現了當AI邏輯從“訓練”向“推理”大遷移后帶來的發展機遇。
英偉達并未止步于芯片,而是不斷擴展邊界。在真實的產業運行中,芯片只是入口,圍繞算力展開的,是一整套更為龐大的支出體系,包括高帶寬內存、服務器集群、數據中心、電力系統、液冷散熱以及貫穿其間的高速互連網絡。
《商學院》記者從英偉達方面獲悉,英偉達推出了光電一體化封裝網絡交換機Spectrum-X Photonics,助力“AI工廠”擴展至數百萬GPU級別。同時,英偉達發布NVIDIA Spectrum-X與NVIDIA Quantum-X硅光網絡交換機,使AI工廠能夠跨區域連接數百萬GPU,在大幅降低能耗的同時優化運營成本,實現電子電路與光通信的深度融合。
這一系列動作都表明,AI不再是一個單點產品市場,而更像是一場圍繞基礎設施展開的系統性競爭。芯片、網絡與存儲被重新組織,作為整體能力落地到產業。
01
推理時代:算力體系的重構與性能爆發
以集中化、規模化為特征的算力供給方式,能夠高效支撐大模型訓練與推理需求
在這一輪技術與產品的集中發布中,一個更直觀的信號是:AI算力的組織方式正在被重新定義。
在本屆GTC上,Groq 3 LPU首次亮相,使Rubin平臺的核心計算芯片擴展至7顆。與此同時,英偉達將其與5個機架級系統打包,形成一整套AI超級計算機方案。
這種變化并非偶然,而是直接回應了當下最核心的需求。大模型訓練與推理正在進入規模化階段,隨著模型參數步入萬億級時代,傳統服務器架構逐漸難以承載,行業不得不轉向更高密度、更低延遲的系統級整合。
但是相比之下,Google的TPU、Cerebras的晶圓級芯片以及Groq等廠商的專用推理架構,能夠在單位能耗、響應速度和成本控制上形成更直接的優勢。這種差異正在影響客戶的選擇邏輯。以OpenAI和Meta為代表的大模型公司,正在從過去對單一算力供應商的依賴,轉向多供應商組合策略,以在推理成本不斷攀升的背景下實現效率最優。
換言之,英偉達的問題并不在于性能不足,而在于其通用架構在“推理優先”時代不再具備絕對的效率優勢。當AI進入大規模商業化應用階段,行業競爭的焦點正在從“誰能提供更強算力”,轉向“誰能以更低成本、更高效率持續提供算力”也正是在這一背景下,英偉達的角色發生了變化,它不再只是GPU供應商,而是試圖通過完整的產品與架構體系,定義AI基礎設施的基本形態,并在這一過程中,占據產業鏈更高的位置。
在這樣的背景下,Rubin的意義不只是一次產品升級。作為上一代Blackwell GPU架構的繼任者,Rubin更像是一輪系統架構的重構。它最早在2024年臺北電腦展上亮相,并在2025年GTC上披露更完整的技術細節,名稱則來自美國天文學家薇拉·魯賓,延續了英偉達以女性科學家命名架構的傳統。
從產品節奏來看,Rubin推進明顯加快。在2026年CES上,黃仁勛就透露,該架構已進入量產階段,首批產品預計在2026年下半年交付,微軟、亞馬遜、谷歌、甲骨文等云廠商將率先部署,OpenAI等AI公司也已加入這一體系。
性能層面,Rubin帶來的是一次明顯躍升。訓練效率提升約3.5倍,推理性能提升約5倍,同時由于架構更為集成,單位算力成本顯著下降,在部分場景中,推理Token成本有望降至上一代的十分之一。
架構層面,Rubin由GPU、定制CPU(Vera)以及網絡交換組件協同構成,并配備HBM4高帶寬內存,顯著提升數據吞吐能力。計算、存儲與網絡被整合在同一體系中,使其更接近一個完整的系統,而非傳統意義上的芯片產品。
但更高性能也帶來了新的工程挑戰。隨著算力密度提升,功耗迅速上升,單卡可達2000瓦以上,對散熱系統提出更高要求。液冷逐漸從可選方案變為標配,數據中心的設計邏輯也隨之改變。
在更大規模的應用中,Rubin將被納入英偉達的超算體系,例如DGX SuperPod,同時也可以拆分為模塊化產品供客戶靈活組合。針對超長上下文等復雜任務,英偉達還設計了專用版本GPU,并通過大規模集群協同運行,提供接近“數據中心級”的單機算力。
資深企業戰略和技術創新管理專家、科方得咨詢機構負責人張新原在接受《商學院》記者采訪時指出,英偉達所推動的“AI工廠”與大規模GPU集群模式,正在成為未來AI基礎設施的重要形態之一。這種以集中化、規模化為特征的算力供給方式,能夠高效支撐大模型訓練與推理需求,但其可持續性取決于算力需求是否持續增長、電力與土地等資源供給是否匹配,以及軟硬件生態是否具備足夠的開放性與兼容性。
在這一邏輯下,英偉達的動作也開始向更上游和更廣范圍延伸。
02
向光通信與網絡層延伸
在生成式人工智能加速發展的背景下,競爭正在從模型與算法,轉向算力供給與基礎設施能力。
2026年3月初,英偉達宣布與Lumentum Holdings和Coherent建立合作并進行投資,將布局從計算芯片延伸至光通信與網絡層。這一動作指向一個正在顯現的瓶頸,即帶寬與延遲。隨著模型規模擴大,數據在GPU、機架乃至數據中心之間的流動,逐漸成為影響性能的關鍵因素,僅依靠算力提升已經不再足夠。
這一變化背后,是產業邏輯的轉向。在生成式人工智能加速發展的背景下,競爭正在從模型與算法,轉向算力供給與基礎設施能力。
英偉達推出的硅光交換機通過創新性集成光器件,將激光器數量減少約4倍,能源效率提升至約3.5倍,信號完整性提升約63倍,大規模組網可靠性提升約10倍,部署效率提升約1.3倍,可以推動大規模AI基礎設施向更高效、更穩定的方向演進。
張新原認為,節點之間的數據交換需求顯著增加,使網絡帶寬與延遲逐漸成為制約整體效率的關鍵因素,這一趨勢源于模型參數規模進入萬億級、訓練數據持續擴大,以及分布式訓練對高頻同步通信的更高要求。在此背景下,硅光技術被寄予更高期待,但仍處于從實驗室走向規模化應用的過渡階段,在制造良率、成本控制及與現有電互聯體系的兼容性方面仍面臨挑戰,未來3—5年有望在部分高性能場景率先落地,但全面替代仍需更長周期。
與此同時,數據中心的架構正在發生轉變,“以網絡為核心”的設計逐漸推動系統從計算與存儲分離,走向計算、網絡與存儲深度融合。網絡不再只是連接通道,而是逐步成為資源調度與任務編排的核心中樞。與之對應,光互連的價值被重新評估,其在長距離與高帶寬傳輸中的能效優勢,使其在高性能計算與AI集群中的應用空間持續擴大。產業鏈也在這一過程中發生重構,光電協同趨勢逐漸形成,整體呈現出垂直整合與專業分工并存的格局。
在這一演進下,GPU廠商進入網絡與光通信領域也具有必然性。張新原指出,隨著AI集群規模擴大,網絡性能已成為系統效率的關鍵變量,通過掌握全棧能力,GPU廠商能夠在系統層面實現進一步優化,這也推動產業競爭從單一硬件,轉向全棧解決方案的競爭格局。但與此同時,跨區域部署帶來的延遲與一致性問題依然存在,受物理約束影響,短期內只能通過異步訓練、梯度壓縮及網絡優化等方式緩解。
當AI競爭從模型走向基礎設施,硬件的角色也隨之改變,不再只是算力載體,而是影響系統效率與成本結構的核心變量。英偉達正在做的,是將分散算力整合為可調度、可規模化運行的工業級能力,而Rubin正是這一進程中的關鍵一環。
03
重構AI系統的“五層架構”
AI基礎設施呈現出更清晰的分層結構:底層是芯片與互連,中間是系統與網絡,上層是模型與應用。
如果算力只是其中一環,那么整套AI系統如何被組織?英偉達給出的答案,是“五層架構”。
在這條不斷延展的路徑中,它試圖回答的不只是算力強弱,而是算力如何被更高效地使用。
隨著模型規模增長,單純堆疊GPU難以帶來線性提升,反而受到數據調度、通信延遲與系統瓶頸的限制。算力競爭因此從“單點性能”轉向“系統協同能力”。任務拆分、數據流動與資源調度,成為新的關鍵變量。
這也讓AI基礎設施呈現出更清晰的分層結構:底層是芯片與互連,中間是系統與網絡,上層是模型與應用。英偉達正試圖向每一層延伸,并通過統一架構將其整合為一個整體。
這一結構被黃仁勛概括為“五層蛋糕”。在他看來,AI產業的競爭不再是單一技術棧之爭,而是系統工程的比拼。未來門檻將從“是否擁有算力”轉向“是否具備系統級能力”。單點優勢會被削弱,而系統差距將被放大。
從這個角度看,英偉達所構建的并不僅是產品組合,而是一種基礎設施范式。當算力被重新組織并規模化調度后,AI逐漸從模型問題,演變為工程問題。
在此基礎上,這一“五層蛋糕”也被進一步拆解為更具體的工業結構。
黃仁勛提出,從工業視角審視AI,可以理解為一個“五層棧”:第一層,也是最底層,是能源。智能是在實時生成中被持續塑造的過程,而這一過程依賴穩定的電力。每一個Token的生成,都涉及電子流動、熱量管理以及能量向計算的轉化。這一過程沒有抽象空間,也不存在捷徑。因此,能源成為AI的第一性原理,決定智能的上限。
第二層是芯片。芯片是將能源轉化為計算的工廠。隨著AI對并行計算、高帶寬內存與高速互聯的需求提升,芯片架構的演進直接影響系統效率與智能邊界。
第三層是基礎設施。包括土地、電力、冷卻與網絡系統以及復雜的工程體系,它將成千上萬顆處理器組織為一臺協同運轉的機器。黃仁勛稱之為“AI工廠”,其目標不再是存儲信息,而是持續生產智能。
第四層是模型。AI正在逐步理解更多“世界語言”:人類語言、生物語言、化學語言、物理語言乃至金融邏輯。語言模型只是其中一類,更具變革性的進展正在蛋白質預測、化學模擬、物理建模以及機器人和自主系統中發生。
第五層是應用。真正的價值在這一層釋放:藥物研發、工業機器人、法律助手、自動駕駛與人形機器人等。每一個成功應用,都會反向推動模型、基礎設施、芯片乃至能源體系形成持續強化的正向循環。
知名財經作家、眺遠影響力研究院院長高承遠則指出,算力、網絡與能源共同構成底層約束,真正的競爭焦點在于誰能夠更高效地整合這些要素,并構建可持續擴展的系統架構。在這一過程中,全棧能力與系統工程能力的重要性持續上升,產業格局也將圍繞“系統定義權”展開重塑。
從長期來看,英偉達在全棧布局中的優勢,更多體現在軟硬件協同能力與開發者生態之上。其CUDA平臺與AI軟件體系,與GPU及網絡硬件深度綁定,形成從芯片到系統再到應用的完整技術閉環,不僅帶來性能優勢,也構建了較高的生態壁壘。如今,AI基礎設施正在走向異構化、分布式與綠色化,算力供給更加多元,網絡架構更加注重低延遲與高帶寬,而能源效率與系統協同能力,將成為未來競爭的關鍵變量。
當AI競爭從模型能力轉向基礎設施,算力不再是終點,而是體系的一部分。英偉達正試圖通過芯片、網絡與系統,定義這一體系的標準,將分散算力重構為可持續運行的“智能工廠”。
但在推理成為主導、成本與效率成為核心變量的階段,通用架構的邊界正在顯現。算力優勢,不再自動等同于效率優勢。這場競爭的關鍵,已不在于“誰更強”,而在于“誰更高效地定義基礎設施”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.