<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      DeepSeek-V4 本地部署,SGLang 把活做絕了

      0
      分享至


      關于 DeepSeek-V4,我之前寫過:

      今天換個角度,從架構和推理引擎的視角聊聊:DeepSeek-V4 這次發(fā)布為啥這么難伺候,以及 SGLang Day-0 是怎么把活給做下來的

      V4 到底改了啥

      先簡單交代下背景,DeepSeek 這次一發(fā)就是倆:

      變體

      總參數(shù)

      激活參數(shù)

      單節(jié)點部署門檻

      DeepSeek-V4-Flash

      284B

      13B

      B200 / GB200 / GB300 / H200 4 卡

      DeepSeek-V4-Pro

      1.6T

      49B

      B200 8 卡 / GB200 8 卡(2 節(jié)點)/ GB300 4 卡 / H200 8 卡(FP4)

      兩個版本的 Instruct 都是 FP4 MoE 專家權重 + FP8 注意力/dense 的混合精度 checkpoint,一份權重通吃所有支持 FP4 的卡,這一手就把 Hopper、Blackwell、AMD、NPU 全打通了,MIT 協(xié)議,1M 上下文,32T+ token 預訓練

      真正狠的是架構層,三件套:

      • 混合稀疏注意力(CSA + HCA) :每一層都把 SWA(128 token 滑動窗口)和兩種壓縮機制之一組合起來——要么是 C4 (4:1 壓縮 + top-512 稀疏),要么是 C128 (128:1 壓縮 + dense),在 1M 上下文場景,V4-Pro 每 token 推理 FLOPs 只有 V3.2 的 27%,KV cache 只有 10%

      • mHC(流形約束超連接) :把傳統(tǒng)殘差連接換成一組并行分支的混合,配 Sinkhorn 歸一化生成混合權重,梯度流和表征質(zhì)量雙雙拉升

      • 原生 FP4 專家權重 :直接吃 Blackwell 的 FP4 張量核心紅利,小批次 decode 場景不再被 MoE 權重帶寬卡死

      外加一個讓推理框架頭疼的小細節(jié):V4 給了一個單層 MTP head做投機解碼,而且 reasoning 分了三檔——Non-think(直覺響應)、Think High(鏈式推理)、Think Max(推到極限,建議 ≥384K 上下文窗口)

      下圖一張圖說清楚 V4 每層注意力的工作范圍(N=1024 的例子):


      V4 每層混合注意力作用域 SGLang 干了什么硬活

      V4 的混合注意力最難受的地方是:3 套異構 KV 池 + 2 套壓縮狀態(tài)池,要在 prefill / decode / 投機解碼三種 pass 之間保持一致性換句話說,傳統(tǒng)的 prefix cache 假設直接報廢了

      SGLang 這次的活兒,密度相當高,挑幾個關鍵的看:

      ShadowRadix:給混合注意力的原生前綴緩存

      核心思路一句話:用一棵基數(shù)樹索引"虛擬全 token 槽",再把它投影成各物理池的影子(SWA / C4 / C128),壓縮狀態(tài)環(huán)形緩沖嵌套在 SWA 頁索引里,地址公式是 swa_page * ring_size + pos % ring_size,SWA 頁一釋放、ring 自動失效,零額外追蹤成本

      每個節(jié)點帶倆計數(shù)器:full_lock_ref 管 source 和 C4/C128 影子,swa_lock_ref 只管滑動窗口SWA 計數(shù)清零就直接 tombstone 掉 SWA 槽,但節(jié)點本身和壓縮影子還在樹上繼續(xù)被復用——一個 1 萬 token 的請求最終只占 128 個 SWA token + 完整 C4/C128,前綴復用的就是這塊壓縮 KV

      下圖是 ShadowRadix 的存儲布局:


      ShadowRadix 存儲布局

      投機解碼這塊還有個隱藏陷阱:draft token 在 verify 之前就先寫進了 ring,萬一被拒絕重試就可能繞一圈覆蓋活窗口里的槽,SGLang 的解法很樸素——spec 模式下把 ring size 翻倍(C4: 8→16, C128: 128→256),EAGLE 直接 work out of the box

      HiSparse:把不活躍 KV 甩到 CPU

      C4 層的特點是 indexer 每步只 top-k 一小撮壓縮位置,絕大多數(shù) KV 在任意時刻都是非活躍的——典型的可以下沉到 CPU 的場景,HiSparse 給 C4 KV 池單獨掛了一份固定在 CPU 的鏡像,GPU 只留小工作集,每步由 Coordinator 異步換頁,按 LRU 淘汰

      效果是 V4-Flash 在 2×B200 上跑 200K 輸入 / 20K 輸出的長上下文場景,峰值吞吐最高拉到 3 倍


      HiSparse 架構與峰值吞吐

      MTP 投機解碼 + 圖內(nèi)元數(shù)據(jù)

      混合注意力的 per-pass 元數(shù)據(jù)非常重——SWA 頁索引、影子映射、壓縮器/索引器的執(zhí)行計劃、各池寫入位置——這些東西如果在調(diào)度器線程上 eager 準備,投機解碼下直接被啟動開銷吃干凈

      SGLang 的做法是把元數(shù)據(jù)準備整個塞進 CUDA Graph,每次 replay 只拷貝原始 batch 狀態(tài)進固定 buffer,剩下的索引算術全在圖內(nèi) device kernel 里算,Python 完全不參與 per-pass 路徑配合 CPU 端的 overlap 調(diào)度(結果處理、batch 準備、釋放都和 GPU 執(zhí)行并行),把投機解碼的啟動瓶頸壓到了底

      最直觀的效果,看這張圖:


      不同上下文長度的解碼吞吐

      混合稀疏 + ShadowRadix + 圖內(nèi) spec 元數(shù)據(jù)三件套堆下來,SGLang 的解碼吞吐從 4K 一路平到 900K,逼近 1M 上下文窗口B200 從 199 token/s 跌到 180,H200 從 266 跌到 240,**兩邊掉幅都不到 10%**這個吞吐曲線的"平坦度",是過去 long context 推理基本不敢想的

      Kernel 層一堆狠活

      簡單列下,每一項單拎出來都夠寫一篇:

      • FlashMLA 新接口 :SWA 和 extra attention(C4/C128)一次 kernel 調(diào)用搞完,metadata 在 forward 里共享

      • Flash Compressor :把壓縮注意力 5 次 HBM 往返壓成 1 次片上 pass(HBM 5→2),H200 上能吃滿 80% 峰值帶寬,比 naive PyTorch pipeline 快 10×+

      • Lightning TopK :1M 上下文下 indexer 要從 256K 候選里挑 top-512,naive 實現(xiàn)單 batch 都要 100us+,用 cluster-of-8 radix-select 替代全局排序, 壓到約 15us

      • FlashInfer TRTLLM-Gen MoE :MXFP8 激活 × MXFP4 專家權重,吃 Blackwell FP4 張量核心

      • DeepGEMM Mega MoE :把 EP dispatch + 第一次 FP8×FP4 GEMM + SwiGLU + 第二次 GEMM + EP combine 融成一個 mega kernel,NVLink 通信和張量核心計算重疊

      • TileLang mHC kernels(帶 split-K) :低延遲 decode 下 pre-GEMM 容易成瓶頸,split-K 把它救回來

      • DP/TP/CP 注意力,DeepEP 上的 EP MoE,PD 解聚合部署 :并行策略一應俱全

      怎么部署

      SGLang 給每個硬件平臺都準備了獨立 Docker 鏡像:

      硬件

      鏡像

      NVIDIA B300

      lmsysorg/sglang:deepseek-v4-b300

      NVIDIA B200

      lmsysorg/sglang:deepseek-v4-blackwell

      NVIDIA GB200/GB300

      lmsysorg/sglang:deepseek-v4-grace-blackwell

      NVIDIA H200

      lmsysorg/sglang:deepseek-v4-hopper

      最小啟動命令長這樣:

      docker run --gpus all \
      --shm-size 32g \
      -p 30000:30000 \
      -v ~/.cache/huggingface:/root/.cache/huggingface \
      --env "HF_TOKEN= " \
      --ipc=host \
      lmsysorg/sglang:deepseek-v4-blackwell \
      sglang serve

      具體的啟動參數(shù),強烈建議用官方 cookbook 的交互式命令生成器


      https://docs.sglang.io/cookbook/autoregressive/DeepSeek/DeepSeek-V4-1-basic-configuration

      按照(硬件 × 變體 × 配方)選好直接出命令三種主推配方:

      • low-latency :MTP steps=3, draft-tokens=4,bs=1 時收益最大

      • balanced :MTP steps=1, draft-tokens=2,高 batch 下更平衡

      • max-throughput :直接關掉 MTP,飽和場景下 verify 比省下的更貴

      外加兩個特化配方:cp(prefill 上下文并行,長上下文專用)、pd-disagg(prefill/decode 解聚合)

      跑起來之后調(diào)用就是標準 OpenAI 兼容接口:

      curl http://localhost:30000/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
      "model": "deepseek-ai/DeepSeek-V4-Flash",
      "messages": [{"role": "user", "content": "What is 15% of 240?"}]
      }'

      要 reasoning 分離,加上 deepseek-v4 reasoning parser,reasoning_contentcontent 自動分兩個字段;要 tool calling,掛 deepseekv4 解析器,結構化 tool calls 直接出

      幾個坑要提醒

      實戰(zhàn)部署的話,有幾個雷點直接看官方 cookbook,免得踩:

      • DeepEP dispatch buffer :必須滿足 max-running-requests × MTP_draft_tokens ≤ SGLANG_DEEPEP_NUM_MAX_DISPATCH_TOKENS_PER_RANK ,違反了穩(wěn)態(tài)負載會直接炸 buffer,生成器給的默認值偏保守,跑通之后建議自己往上調(diào)

      • Hopper(H200)雙方案 :原始 FP4 checkpoint 走 Marlin w4a16 MoE kernel,只支持 TP,單節(jié)點能吃下完整 Pro;想要更多并行就用 SGLang 預轉的 FP8 checkpoint( sgl-project/DeepSeek-V4-Flash-FP8 / Pro-FP8

      • PD-Disagg on H200docker run 要帶 --privileged --ulimit memlock=-1 (或 --device /dev/infiniband:/dev/infiniband --cap-add IPC_LOCK ),不然 mooncake 拿不到 IB HCA 會靜默掉成 TCP,大 checkpoint 容易 KV 傳輸錯亂

      • Base model :用 base 必須 SGLANG_FIX_DSV4_BASE_MODEL_LOAD=1

      • GB300 跨 pod NVLink :mooncake 報 nvlink_transport.cpp:497 Requested address ... not found! 的話,prefill 和 decode 都加上 MC_FORCE_MNNVL=1 NCCL_MNNVL_ENABLE=1 NCCL_CUMEM_ENABLE=1

      如果你對工程實現(xiàn)感興趣,主合并 PR 是 sgl-project/sglang#23600,從 V4Config 注冊、JIT kernel dtype map、FP8 weight postprocess、SM_120 上 MLA 的 Triton fallback、MXFP4 MoE 的 Marlin fallback……一路到具體的混合注意力 kernel,commits 寫得相當有教學意義,建議有時間拉下來過一遍

      總結

      DeepSeek 這次把架構層搞這么激進,其實是把"開源大模型怎么壓成本上長上下文"這個問題又往前推了一大步,1M 上下文做到 27% FLOPs、10% KV cache,是真的可以"把長上下文當默認能力賣"的水平

      但代價是:所有推理引擎幾乎都得重寫 KV/緩存/注意力這條線,SGLang 這次能做到 Day-0,靠的是 ShadowRadix、HiSparse、圖內(nèi) spec 元數(shù)據(jù)、一票新 kernel 集成這一整套體系工程,不是一兩個補丁

      從 LMSYS 公開的 Day-0 對比圖看,30K 上下文同口徑單批 decode 下,SGLang 明顯領先另一家開源引擎——而且對手在這個口徑里其實是帶傷上陣:B200 上 MTP-3 的 accept length 只有 1.19(SGLang EAGLE 是 2.5),H200 上 num_speculative_tokens≥2 直接踩 kernel assertion 起不來,只能降級到 MTP-1,長上下文 200K+ 干脆 timeout 跑不出來,不過 LMSYS 自己也聲明這是 Day-0 快照,不是定論排名,等社區(qū)把另一家的配置調(diào)通之后再看也不遲

      更扎實的數(shù)字其實是 SGLang 自己的縱向吞吐曲線:B200 上 V4-Pro 從 4K 一路平到 900K,從 199 token/s 跌到 180;H200 上 V4-Flash 從 266 跌到 240,**兩邊掉幅都不到 10%**,這個吞吐曲線的"平坦度"才是真正能落地長上下文的關鍵

      至于到底好不好用,等手上的卡再倒騰倒騰,回頭再來一篇真機評測

      制作不易,如果這篇文章覺得對你有用,可否點個關注,給我個三連擊:點贊、轉發(fā)和在看,若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      深夜打虎!戴瑞你都53了,才學又好,為什么要貪?現(xiàn)在后悔都沒用

      深夜打虎!戴瑞你都53了,才學又好,為什么要貪?現(xiàn)在后悔都沒用

      小陸搞笑日常
      2026-05-06 05:43:30
      早就知道丈夫變心,卻忍到節(jié)目結束才離婚,拿九成財產(chǎn)后徹底翻盤

      早就知道丈夫變心,卻忍到節(jié)目結束才離婚,拿九成財產(chǎn)后徹底翻盤

      一盅情懷
      2026-05-04 16:33:57
      被曝求復合48小時后,文章忙于餐廳合影,馬伊琍會吃回頭草嗎?

      被曝求復合48小時后,文章忙于餐廳合影,馬伊琍會吃回頭草嗎?

      一盅情懷
      2026-04-14 14:21:32
      強行換主演的十部電視劇,口碑雪崩,賠了夫人又折兵

      強行換主演的十部電視劇,口碑雪崩,賠了夫人又折兵

      小Q侃電影
      2026-05-05 21:47:39
      7種適合糖尿病人吃的主食,放心吃,血糖好!

      7種適合糖尿病人吃的主食,放心吃,血糖好!

      小胡軍事愛好
      2026-05-05 21:00:48
      威力堪比數(shù)百萬顆原子彈,有個“大家伙”可能落在了我國南海

      威力堪比數(shù)百萬顆原子彈,有個“大家伙”可能落在了我國南海

      果殼
      2026-05-05 16:06:50
      上海市紀委監(jiān)委一則通報,讓一個名字再次進入公眾視野——吉玉萍

      上海市紀委監(jiān)委一則通報,讓一個名字再次進入公眾視野——吉玉萍

      愛意隨風起呀
      2026-05-05 21:23:02
      高速免費大改賬:沒了節(jié)假日全免,換3000公里隨便跑,是賺是虧?

      高速免費大改賬:沒了節(jié)假日全免,換3000公里隨便跑,是賺是虧?

      娛樂圈的筆娛君
      2026-05-06 05:47:30
      2名中國游客日本登山遇險,1人獲救,另一人救援困難!朋友發(fā)中日雙語求助,稱氣溫極度寒冷,兩人食物耗盡

      2名中國游客日本登山遇險,1人獲救,另一人救援困難!朋友發(fā)中日雙語求助,稱氣溫極度寒冷,兩人食物耗盡

      揚子晚報
      2026-05-05 17:24:46
      王清海教授:山楂的3個黃金組合,掃清血管“垃圾”,便宜又好用

      王清海教授:山楂的3個黃金組合,掃清血管“垃圾”,便宜又好用

      蠟筆小小子
      2026-04-21 14:43:37
      大陸表態(tài)后、鄭麗文一鳴驚人!賴清德終成笑話,國民黨3人丟盡臉

      大陸表態(tài)后、鄭麗文一鳴驚人!賴清德終成笑話,國民黨3人丟盡臉

      青梅侃史啊
      2026-05-05 19:39:00
      善惡到頭終有報,如今73歲的唐國強,已經(jīng)走上了一條不歸路!

      善惡到頭終有報,如今73歲的唐國強,已經(jīng)走上了一條不歸路!

      吳蒂旅行ing
      2026-03-20 05:20:46
      老婆出軌后,對方的妻子上門找到我:你媳婦跟我老公好上了

      老婆出軌后,對方的妻子上門找到我:你媳婦跟我老公好上了

      千秋文化
      2026-05-04 18:38:07
      閨蜜大婚我隨了5000,她回禮雨傘,看見傘柄刻著地址和6個數(shù)字

      閨蜜大婚我隨了5000,她回禮雨傘,看見傘柄刻著地址和6個數(shù)字

      磊子講史
      2026-01-23 16:54:49
      賴清德返臺不到10小時,特朗普就對中國喊話,臺當局淪為犧牲品

      賴清德返臺不到10小時,特朗普就對中國喊話,臺當局淪為犧牲品

      徐竦解說
      2026-05-05 22:27:35
      羅翔:如果一個人突然努力工作,業(yè)余時間開始學習,不再參加社交活動,那么,身邊的人可能不僅不會幫他,還會拉他下來,原因就一個!

      羅翔:如果一個人突然努力工作,業(yè)余時間開始學習,不再參加社交活動,那么,身邊的人可能不僅不會幫他,還會拉他下來,原因就一個!

      譚老師地理大課堂
      2026-04-22 00:03:57
      2026年上海浦東新區(qū)房價大幅下滑區(qū)域

      2026年上海浦東新區(qū)房價大幅下滑區(qū)域

      石辰搞笑日常
      2026-05-06 05:51:11
      高圓圓坦言:40歲高齡為小丈夫誕下寶貝,是我這輩子最正確且決定

      高圓圓坦言:40歲高齡為小丈夫誕下寶貝,是我這輩子最正確且決定

      一盅情懷
      2026-05-04 15:53:35
      京東秒送“倒閉”神曲

      京東秒送“倒閉”神曲

      我不叫阿哏
      2026-05-05 15:53:09
      5.6凌晨世乒賽16強全:國乒絕地反擊大獲全勝 韓乒零封 張本又爆冷

      5.6凌晨世乒賽16強全:國乒絕地反擊大獲全勝 韓乒零封 張本又爆冷

      林子說事
      2026-05-06 05:47:41
      2026-05-06 08:32:49
      Ai學習的老章 incentive-icons
      Ai學習的老章
      Ai學習的老章
      3372文章數(shù) 11146關注度
      往期回顧 全部

      科技要聞

      傳蘋果考慮讓英特爾、三星代工設備處理器

      頭條要聞

      小伙去理發(fā)被店家弄到VIP房間后臉白了 聯(lián)系父母要錢

      頭條要聞

      小伙去理發(fā)被店家弄到VIP房間后臉白了 聯(lián)系父母要錢

      體育要聞

      全世界都等著看他笑話,他帶國米拿下冠軍

      娛樂要聞

      內(nèi)娛真情誼!楊紫為謝娜演唱會送花籃

      財經(jīng)要聞

      套現(xiàn)約455億,李嘉誠又賣了

      汽車要聞

      同比大漲190% 方程豹4月銷量29138臺

      態(tài)度原創(chuàng)

      房產(chǎn)
      本地
      時尚
      教育
      公開課

      房產(chǎn)要聞

      五一樓市徹底明牌!塔尖人群都在重倉凱旋新世界

      本地新聞

      用青花瓷的方式,打開西溪濕地

      衣服不用準備太多,找到一些實用的單品才最重要,百搭又有性價比

      教育要聞

      家長自我感動式簽名走紅,老師滿是反感:全班都這樣搞,還了得

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 欧美性爱视频免费在线观看| 国产毛片基地| 国产精品久久久久一区二区三区| 国产亚洲一区二区av| 国产人妻精品午夜福利免费| 操碰在线观看| 国产精品点击进入在线影院高清| 亚洲欧洲无卡二区视頻| 高颜值午夜福利在线观看| 精品人妻一区二区三区日产乱码| 加勒比中文无码久久综合色| 欧美精品亚洲精品日韩专区va| 思思久99久女女精品| 91精品少妇一区二区三区蜜桃臀| 亚洲成a人片在线观看导航| 最新69国产成人精品视频免费| 中文字幕一区三区| 人妻无码免费系列| 九九九九色精品视频在线观看| 国产成人午夜福利在线播放| 亚洲精中文字幕二区三区| 久久中文亚洲| 国色天香中文字幕在线视频| 亚洲精品国产av一区二区| 久久国产精品超级碰碰热| 国产成人丝袜在线无码| 无码人妻aⅴ一区二区三区有奶水| 亚洲av乱码久久亚洲精品| 五月婷婷激情| 亚洲天堂视频在线观看| 99热都是精品久久久久久 | 99久久国语露脸精品国产色 | 国产做无码视频在线观看 | 韩国三级Hb久久精品| 两个人看的视频WWW在线高清| 无码人妻久久久一区二区三区| 亚洲AV无码成人精品区不卡| 欧美 日韩 亚洲 在线| 91纯肉无码动漫在线观看| 无尺码精品产品视频| 国产精品一区二区三|