![]()
![]()
更便宜、更快,向Agent和國(guó)產(chǎn)替代更進(jìn)一步。
作者|衛(wèi)琳聰 周悅
終于,DeepSeek-V4 來(lái)了。
距離上次版本發(fā)布已經(jīng)過(guò)去近5個(gè)月,期間多次有DeepSeek新版本發(fā)布的消息傳出,但都干打雷不下雨,等待的空氣里不免泛起一些懷疑。
4月24日,DeepSeek-V4 預(yù)覽版正式上線(xiàn)并同步開(kāi)源,官方新聞稿里直接宣稱(chēng)“邁入百萬(wàn)上下文普惠時(shí)代”。
此次發(fā)布的版本包含兩款MoE語(yǔ)言模型——DeepSeek-V4-Pro和DeepSeek-V4-Flash。
前者總參數(shù)1.6T、激活參數(shù)49B,后者總參數(shù)284B、激活參數(shù)13B,兩者均支持一百萬(wàn)token 上下文。
如果單看百萬(wàn)上下文的能力,在V4之前市場(chǎng)上已有多款模型能夠?qū)崿F(xiàn),國(guó)外如谷歌Gemini ,國(guó)內(nèi)如阿里Qwen、月之暗面Kimi等。
DeepSeek-V4 令人驚艷的地方,是又一次帶來(lái)效率革命,在性能提升的同時(shí)實(shí)現(xiàn)成本下降,尤其是讓Agent更便宜成為可能。
更重要的是,V4為打破算力束縛提供了更大可能性,大模型的算力底座從英偉達(dá)向華為邁出了堅(jiān)實(shí)一步。
1.轉(zhuǎn)向Agent
DeepSeek官方表示,V4在Agent能力、世界知識(shí)和推理性能上均實(shí)現(xiàn)國(guó)內(nèi)與開(kāi)源領(lǐng)域的領(lǐng)先。
其中,DeepSeek-V4-Pro性能比肩頂級(jí)閉源模型。
在世界知識(shí)測(cè)評(píng)中,DeepSeek-V4-Pro大幅領(lǐng)先其他開(kāi)源模型,僅稍遜于頂尖閉源模型Gemini-Pro-3.1。在推理性能上,DeepSeek-V4-Pro超越當(dāng)前所有已公開(kāi)評(píng)測(cè)的開(kāi)源模型,取得了世界頂級(jí)閉源模型相當(dāng)?shù)某煽?jī)。
不過(guò),技術(shù)報(bào)告顯示,最大推理強(qiáng)度模式DeepSeek-V4-Pro-Max性能仍略遜于GPT-5.4和Gemini 3.1-Pro,這表明其發(fā)展軌跡大致落后于最先進(jìn)的前沿模型約3到6個(gè)月。
![]()
DeepSeek-V4-Pro-Max與同類(lèi)模型的基準(zhǔn)性能對(duì)比
值得注意的是,DeepSeek-V4-Pro的Agent 能力大幅提高。
在對(duì)DeepSeek-V4技術(shù)報(bào)告的深入分析中,「甲子光年」注意到,V4在更明顯地轉(zhuǎn)向Agent任務(wù)。從V3.1到V3.2,DeepSeek已經(jīng)在強(qiáng)化工具調(diào)用和Agent能力,到了V4,這條線(xiàn)更清楚。
技術(shù)報(bào)告里出現(xiàn)了工具調(diào)用格式、推理內(nèi)容管理、Quick Instruction、Agent沙箱基礎(chǔ)設(shè)施,以及Search、White-Collar Task、Code Agent等真實(shí)任務(wù)評(píng)測(cè)。重點(diǎn)考察模型能不能在多步任務(wù)中低成本地調(diào)用工具、保留狀態(tài)、繼續(xù)執(zhí)行。
在Agent 能力提高的同時(shí),V4提供的價(jià)格相當(dāng)實(shí)惠。緩存命中場(chǎng)景下,F(xiàn)lash版輸入成本低至0.2元/百萬(wàn)Token。對(duì)于需要大量、多輪次Token交互的Agent應(yīng)用來(lái)說(shuō),這無(wú)疑是降低成本的好消息。
能力提高、價(jià)格下降,毫無(wú)疑問(wèn),V4在瞄準(zhǔn)Agent 發(fā)力,也將進(jìn)一步推動(dòng)Agent 的普及。
2.更便宜、更快
DeepSeek-V4系列此次表現(xiàn)出的最大特點(diǎn),是在長(zhǎng)上下文場(chǎng)景中極高的效率。
在1M上下文設(shè)置下,V4-Pro的單token推理FLOPs只有V3.2的27%,所需KV緩存空間也僅為其10%。
而參數(shù)激活數(shù)量更少的DeepSeek-V4-Flash則進(jìn)一步提升了效率:在百萬(wàn)上下文中,其單token推理FLOPs僅為DeepSeek-V3.2的10%,KV緩存容量?jī)H為7%。
![]()
DeepSeek-V4系列與DeepSeek-V3.2的推理FLOPs計(jì)算量及KV緩存容量
基于這種進(jìn)步,DeepSeek官方宣布,“從現(xiàn)在開(kāi)始,1M(一百萬(wàn))上下文將是 DeepSeek 所有官方服務(wù)的標(biāo)配。”
這帶來(lái)了什么?最直觀的就是價(jià)格便宜。
處理一個(gè)Token所需的總計(jì)算量驟降,直接導(dǎo)致在云端處理每一條請(qǐng)求的電力、硬件磨損和運(yùn)營(yíng)成本都斷崖式下降。這是DeepSeek敢于將API定價(jià)打到行業(yè)地板價(jià)。
DeepSeek V4-Flash輸出價(jià)為2元/百萬(wàn)token,不到同天發(fā)布的GPT-5.5 Pro輸出價(jià)(180美元)的千分之二。
![]()
除了更便宜,模型也會(huì)更快。KV緩存占用降低,也有助于提升并發(fā)能力,并在一定程度上改善長(zhǎng)上下文請(qǐng)求的響應(yīng)效率。
讓或許能讓許多曾經(jīng)“奢侈”的應(yīng)用場(chǎng)景成為現(xiàn)實(shí)。例如,將整個(gè)代碼庫(kù)塞進(jìn)上下文進(jìn)行跨文件的“智能體編程”(Agentic Coding)、讓AI進(jìn)行長(zhǎng)時(shí)間的自主規(guī)劃與反思等。
效率的提高源自工程層面的創(chuàng)新。
「甲子光年」認(rèn)為,在延續(xù)底層工程哲學(xué)的基礎(chǔ)上,V4的重點(diǎn)進(jìn)一步轉(zhuǎn)向兩個(gè)問(wèn)題:一是如何低成本支持百萬(wàn)token上下文,二是如何讓更復(fù)雜的模型結(jié)構(gòu)和后訓(xùn)練流程穩(wěn)定運(yùn)行。
最核心的結(jié)構(gòu)創(chuàng)新是混合注意力機(jī)制(HybridAttention),這讓V4的長(zhǎng)上下文效率大幅提升。
大模型在生成內(nèi)容時(shí),需要不斷回看此前上下文。上下文越長(zhǎng),需要保存和調(diào)用的KV緩存就越多,每生成一個(gè)新Token時(shí)的推理開(kāi)銷(xiāo)也會(huì)隨之增加。DeepSeek-V4的思路是,將長(zhǎng)上下文分層處理,將壓縮稀疏注意力(CSA)與重度壓縮注意力(HCA)相結(jié)合。
具體來(lái)說(shuō),V4將壓縮稀疏注意力(CSA)和重度壓縮注意力(HCA)結(jié)合:CSA先壓縮KV信息,再篩選與當(dāng)前query最相關(guān)的部分參與計(jì)算;HCA則以更高壓縮率保留遠(yuǎn)距離上下文的粗粒度信息。同時(shí),滑動(dòng)窗口注意力(SWA)處理近處上下文細(xì)節(jié),彌補(bǔ)壓縮機(jī)制可能導(dǎo)致的局部信息損失。
通俗地說(shuō),傳統(tǒng)注意力機(jī)制更像把整本書(shū)逐頁(yè)攤開(kāi),每次答題都重新翻一遍;V4則更像更像是一個(gè)智能索引,把近處內(nèi)容保留原文,把遠(yuǎn)處內(nèi)容壓縮成章節(jié)摘要。
另一項(xiàng)核心架構(gòu)創(chuàng)新是流形約束超連接(mHC),用于增強(qiáng)底層穩(wěn)定性。混合注意力機(jī)制解決的是模型“怎么看長(zhǎng)文本”,mHC解決的是模型內(nèi)部信息“如何穩(wěn)定傳遞”。
技術(shù)報(bào)告中提到,通過(guò)重計(jì)算、融合算子等工程優(yōu)化,mHC帶來(lái)的額外訓(xùn)練時(shí)間開(kāi)銷(xiāo)被控制在約6.7%。這表明它并非單純的理論構(gòu)想,而是適配V4大規(guī)模生產(chǎn)訓(xùn)練的實(shí)用設(shè)計(jì)。
DeepSeek對(duì)V4的架構(gòu)很有信心,表示其性能可與GPT-5.2和Gemini-3.0-Pro相媲美,確立了其作為處理復(fù)雜推理任務(wù)的高性?xún)r(jià)比架構(gòu)的地位。
![]()
DeepSeek-V4系列的整體架構(gòu)
3.加速?lài)?guó)產(chǎn)替代
另一個(gè)值得注意的地方是,此次DeepSeek-V4與華為的關(guān)聯(lián)更強(qiáng)。
技術(shù)報(bào)告中提到一個(gè)細(xì)節(jié):DeepSeek的細(xì)粒度專(zhuān)家并行優(yōu)化方案已經(jīng)在英偉達(dá)GPU和華為昇騰NPU上驗(yàn)證。
并且,這套方案在通用推理負(fù)載中帶來(lái)1.50—1.73倍加速,在強(qiáng)化學(xué)習(xí)采樣和高速智能體服務(wù)等低延遲場(chǎng)景中最高達(dá)到1.96倍加速。
這并不等于V4全棧已經(jīng)完全適配昇騰,但意味著昇騰950超節(jié)點(diǎn)對(duì)V4-Pro的意義不只是增加算力,也在于提升多卡協(xié)同能力。若后續(xù)供給和適配順利,V4-Pro的吞吐和成本空間有望改善。
DeepSeek在V4發(fā)布的官宣文章中,用一行小字寫(xiě)道:預(yù)計(jì)下半年昇騰950超節(jié)點(diǎn)批量上市后,pro的價(jià)格會(huì)大幅下調(diào)。
另一方面,技術(shù)報(bào)告還提到,DeepSeek-V4系列的路由專(zhuān)家參數(shù)均采用FP4精度。雖然在現(xiàn)有硬件上,F(xiàn)P4×FP8運(yùn)算的峰值FLOPs性能與FP8 × FP8運(yùn)算相同,但從理論上講,在未來(lái)硬件上其效率可提高三分之一,這將進(jìn)一步提升DeepSeek-V4系列的運(yùn)算效率。
據(jù)「甲子光年」觀察,從V3開(kāi)始,DeepSeek就沒(méi)有單純依賴(lài)參數(shù)規(guī)模,而是持續(xù)優(yōu)化訓(xùn)練效率、顯存占用和硬件利用率。在訓(xùn)練工程上,V4引入Muon優(yōu)化器,并進(jìn)一步使用FP4/FP8低精度訓(xùn)練。前者用于提升收斂速度和訓(xùn)練穩(wěn)定性,后者用于降低顯存、帶寬和推理成本。
這可謂DeepSeek-V4 在技術(shù)選型上的一個(gè)“伏筆”:它在當(dāng)前硬件上選擇了成熟的 FP8×FP8 路線(xiàn),但架構(gòu)設(shè)計(jì)已為未來(lái)的 FP4×FP8 混合精度運(yùn)算做好了準(zhǔn)備,一旦硬件成熟,效率將立刻躍升。
這意味著 V4 未來(lái)有望在單卡上運(yùn)行更大模型,推理成本也有望繼續(xù)下降。
同時(shí),基于DeepSeek的高效架構(gòu),即使國(guó)產(chǎn)AI芯片單卡算力絕對(duì)值不如英偉達(dá)等頂級(jí)產(chǎn)品,也能憑借其高吞吐、低顯存占用的優(yōu)勢(shì)運(yùn)行大模型。
這無(wú)疑進(jìn)一步打破了算力束縛,國(guó)產(chǎn)替代的步伐加快了。
(封面圖由AI生成,文中配圖來(lái)自:DeepSeek)
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.