<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      拒絕大力出奇跡,PRISM框架讓dLLM也能高效Test-Time Scaling

      0
      分享至



      近年來,大模型能力提升的焦點正在從「訓練時擴展」轉(zhuǎn)向「推理時擴展」。從 Best-of-N、Self-Consistency 到更復雜的搜索與驗證框架,Test-Time Scaling 已經(jīng)成為提升大模型復雜推理能力的重要范式。

      然而,一個長期被忽視的問題是:這些方法大多默認模型是自回歸生成的。

      對于離散擴散語言模型(Discrete Diffusion Language Models, dLLMs)而言,情況完全不同。dLLM 并不是從左到右逐 token 生成,而是從被 mask 的序列出發(fā),通過多步去噪逐漸恢復完整答案。這種并行、非自回歸的生成方式天然具備全局雙向上下文,也更適合規(guī)劃與自我修正;但與此同時,傳統(tǒng)面向自回歸模型設(shè)計的樹搜索、過程獎勵模型和 Best-of-N 推理并不能直接高效適配。

      針對這一問題,論文提出了 PRISM:Pruning, Remasking, and Integrated Self-verification Method,一個專為離散擴散語言模型設(shè)計的高效 Test-Time Scaling 框架。其核心目標很明確:不是簡單地讓模型「多跑幾遍」,而是在去噪過程中識別更有潛力的軌跡,動態(tài)裁剪、局部分支,并用模型自身完成輕量級驗證,從而在較低推理預算下接近甚至超過 Best-of-N 的效果。



      • 論文標題:Prism: Efficient Test-Time Scaling via Hierarchical Search and Self-Verification for Discrete Diffusion Language Models
      • arXiv 地址:https://arxiv.org/abs/2602.01842
      • 代碼地址:https://github.com/viiika/Prism



      傳統(tǒng) Best-of-N 太貴,PRISM 重新設(shè)計 dLLM 的推理搜索

      對于 dLLM 來說,樸素 Best-of-N 的代價非常直接:如果采樣 N 條軌跡、每條軌跡需要 T 步去噪,那么總函數(shù)調(diào)用次數(shù)就是 O (NT)。這意味著所有候選答案都要完整跑完,即便其中很多軌跡在中途已經(jīng)明顯質(zhì)量不佳,也仍然會消耗完整預算。

      PRISM 的關(guān)鍵思路是把推理過程拆成三個階段:早期隨機探索、中期漸進裁剪和后期精修。

      在高噪聲階段,模型輸出仍然不穩(wěn)定,因此 PRISM 保持較寬的候選集合以保留多樣性;在早中期去噪窗口,當答案的「邏輯骨架」開始形成時,PRISM 使用自驗證信號裁剪低質(zhì)量軌跡,并把計算資源重新分配給更有前景的候選;最終,只保留較小數(shù)量的軌跡繼續(xù)完成精修。論文中將這一過程稱為 Hierarchical Trajectory Search(HTS)。

      這種設(shè)計使得 PRISM 的實際復雜度接近 O (N + KT),其中 K 是最終保留的較小候選寬度。相比傳統(tǒng) Best-of-N 的 O (NT),這相當于把 “所有路線都跑到底” 改成了「先廣泛探索,再集中火力」。

      不是重新開始,而是在低置信 token 上局部分支

      PRISM 的第二個關(guān)鍵組件是 Local Branching via Partial Remasking。直觀來說,模型在中期去噪時已經(jīng)形成了一部分高置信 token,這些 token 往往對應答案的穩(wěn)定結(jié)構(gòu)或邏輯骨架;與此同時,低置信 token 則可能對應不確定的推理細節(jié)、實現(xiàn)方式或局部表達。

      PRISM 不會粗暴地丟棄整條軌跡重新采樣,而是保留高置信部分,只對低置信位置進行重新 mask,然后從這些局部變化中生成新的分支。這樣做的好處是,它既保留了已有的高質(zhì)量結(jié)構(gòu),又能繼續(xù)探索不同的細節(jié)實現(xiàn),避免過早收斂到單一路徑。論文圖 2 對這一過程做了直觀展示:在漸進裁剪階段,PRISM 會圍繞高分軌跡進行局部分支,并通過部分重 mask 生成新的候選。



      不再依賴外部 verifier:模型自己給自己打分

      很多 Test-Time Scaling 方法依賴額外的 reward model 或 verifier 來判斷候選答案質(zhì)量。但這會帶來顯著系統(tǒng)開銷:部署時需要額外加載一個模型,顯存、延遲和工程復雜度都會上升。

      PRISM 提出了 Self-Verified Feedback(SVF):直接復用同一個 dLLM 作為二分類驗證器。具體來說,模型先根據(jù)中間去噪狀態(tài)生成一個完整候選答案,然后構(gòu)造一個 Yes/No 驗證 prompt,讓模型判斷該答案是否可能正確。PRISM 將 Yes 和 No 的 logits 轉(zhuǎn)換為一個二元歸一化分數(shù),用于軌跡排序、裁剪和最終選擇。

      這一設(shè)計的價值在于,它把 verification 從「額外模型」變成了「同一模型的一次輕量自檢」。論文進一步指出,SVF 調(diào)用次數(shù)相較去噪 NFE 很少,實驗中通常低于總 NFE 的 10%,因此可以在較低額外開銷下提供有效的搜索信號。



      實驗:在數(shù)學推理和代碼生成上實現(xiàn)顯著性價比提升

      論文在四個基準上評估 PRISM:數(shù)學推理任務(wù) GSM8K、MATH-500,以及代碼生成任務(wù) HumanEval、MBPP。實驗覆蓋三個離散擴散語言模型:LLaDA-8B-Instruct、Dream-7B-Instruct 和 LLaDA-2.0-mini。

      在 LLaDA-8B-Instruct 上,PRISM(K=8)將 GSM8K 從 67.58% 提升到 85.30%,將 MATH-500 從 26.40% 提升到 42.80%;在代碼任務(wù)上,HumanEval 提升 24.39 個百分點,MBPP 提升 16.40 個百分點。更重要的是,這些提升并不是通過線性增加 Best-of-N 計算量獲得的:例如在 GSM8K 上,PRISM 用 1048 NFE 達到 85.30%,而 Best-of-16 需要 4096 NFE 才達到 87.50%,實現(xiàn)了超過 4 倍的去噪計算節(jié)省。

      在論文圖 1 中,PRISM 相比 Best-of-N 在多個任務(wù)上展現(xiàn)出更優(yōu)的性能 — 計算曲線:在可比準確率下,GSM8K、MATH500、HumanEval、MBPP 分別呈現(xiàn) 2.9×、6.5×、1.8×、1.7× 的速度優(yōu)勢。



      論文還與其他推理期擴展方法進行了比較。在 TruthfulQA 上,PRISM 的 ROUGE-1/2/L 達到 31.8/35.5/31.9,推理時間為 1048.0 秒;相比之下,LLaDA-ReMDM 為 29.5/31.8/29.5,推理時間為 1354.8 秒。這表明 PRISM 不僅能提升任務(wù)性能,也能維持更好的推理效率。



      在外部 verifier 對比中,SVF 在 GSM8K 上達到 85.30%,只需加載原本的 8B 模型;雖然 Qwen3-8B verifier 可達到 87.35%,但需要額外加載模型,總參數(shù)量達到 16B。論文認為,SVF 的優(yōu)勢并不在于絕對替代所有外部驗證器,而在于它提供了一條更輕量、更易部署的 dLLM 推理擴展路徑。



      意義:為非自回歸語言模型打開推理期擴展路線

      PRISM 的核心貢獻并不是簡單提出一個新的搜索啟發(fā)式,而是重新定義了 dLLM 上的 Test-Time Scaling 應該如何發(fā)生。

      對于自回歸模型,推理搜索通常圍繞「前綴」展開;而對于離散擴散模型,中間狀態(tài)是部分 mask 的全局序列,傳統(tǒng)前綴式過程獎勵和樹搜索并不天然適用。PRISM 將搜索、裁剪、局部分支和自驗證都重新放回 dLLM 的去噪動力學中:在結(jié)構(gòu)形成階段集中分配預算,在低置信區(qū)域探索替代表達,在無需額外模型的情況下完成驗證。

      這意味著,dLLM 不再只是「并行生成更快」的替代范式,也可能成為一種適合推理、規(guī)劃和自我修正的新型語言模型架構(gòu)。隨著 LLaDA、Dream、Mercury、Gemini Diffusion 等模型推動離散擴散語言模型走向更大規(guī)模,PRISM 展示了一條重要方向:讓非自回歸模型也能像當前主流 LLM 一樣,通過推理期計算持續(xù)獲得能力提升。

      從這個角度看,PRISM 不只是一個更省算力的 Best-of-N 替代方案,而是離散擴散語言模型邁向高效推理系統(tǒng)的一塊關(guān)鍵拼圖。

      作者簡介


      本文由 Jinbin Bai 等研究者完成。作者團隊長期關(guān)注 discrete diffusion 與 masked generative modeling 等新一代生成范式,研究方向涵蓋高分辨率文生圖、統(tǒng)一多模態(tài)生成、離散擴散模型的偏好對齊與推理優(yōu)化,以及可交互世界模型等。

      此前,團隊曾提出 Meissonic [1],探索 masked generative transformer 在高分辨率文本到圖像生成中的潛力;隨后進一步提出 Muddit [2],將離散擴散建模從圖像生成推進到更統(tǒng)一的多模態(tài)生成框架。此次入選 ICML 2026 的 PRISM,則將這一研究脈絡(luò)進一步延伸到推理階段,關(guān)注如何通過層次化搜索、自驗證反饋和局部 remasking,讓離散擴散模型在無需額外 verifier 的情況下實現(xiàn)高效 Test-Time Scaling。

      [1] Meissonic: Revitalizing Masked Generative Transformers for Efficient High-Resolution Text-to-Image Synthesis, ICLR 2025, https://arxiv.org/abs/2410.08261

      [2] Muddit: Liberating Generation Beyond Text-to-Image with a Unified Discrete Diffusion Model, ICLR 2026, https://arxiv.org/abs/2505.23606

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      A股停牌提示:24股今日停牌

      A股停牌提示:24股今日停牌

      每日經(jīng)濟新聞
      2026-05-11 09:08:10
      寶馬新車提回家 引擎蓋現(xiàn)一窩貓 4S店:檢測洗車未發(fā)現(xiàn) 愿提供檢查與關(guān)懷補償

      寶馬新車提回家 引擎蓋現(xiàn)一窩貓 4S店:檢測洗車未發(fā)現(xiàn) 愿提供檢查與關(guān)懷補償

      快科技
      2026-05-09 20:16:11
      嘲諷皇馬內(nèi)訌,有巴薩球迷在場外高舉楚阿梅尼KO巴爾韋德牌子

      嘲諷皇馬內(nèi)訌,有巴薩球迷在場外高舉楚阿梅尼KO巴爾韋德牌子

      懂球帝
      2026-05-11 02:05:16
      秦昊真坦誠啊:和伊能靜結(jié)婚時,她卡里有6000萬,我就20萬

      秦昊真坦誠啊:和伊能靜結(jié)婚時,她卡里有6000萬,我就20萬

      阿廢冷眼觀察所
      2026-05-06 15:16:12
      小雷:在如此關(guān)鍵的時刻阿爾特塔居然讓賴斯踢了25分鐘右后衛(wèi)

      小雷:在如此關(guān)鍵的時刻阿爾特塔居然讓賴斯踢了25分鐘右后衛(wèi)

      懂球帝
      2026-05-11 12:30:07
      清朝“大辮子”到底多臟?滿頭油光,虱子滿頭,十步之內(nèi)不能站人

      清朝“大辮子”到底多臟?滿頭油光,虱子滿頭,十步之內(nèi)不能站人

      云霄紀史觀
      2026-05-07 20:06:19
      今晚起央一央八黃金檔炸了!歐豪肖戰(zhàn)等頂流扎堆開播

      今晚起央一央八黃金檔炸了!歐豪肖戰(zhàn)等頂流扎堆開播

      陳意小可愛
      2026-05-11 10:28:23
      梅婷攜12歲女兒拍攝母親節(jié)雜志,母女復刻神顏,暖心相處讓人羨慕

      梅婷攜12歲女兒拍攝母親節(jié)雜志,母女復刻神顏,暖心相處讓人羨慕

      蒂蒂茱家
      2026-05-11 10:10:07
      《人民日報》:路,要和優(yōu)秀的人一起走;事,要和靠譜的人一起做

      《人民日報》:路,要和優(yōu)秀的人一起走;事,要和靠譜的人一起做

      富書
      2026-05-09 21:57:29
      4只皮皮蝦1035元,官方回應是否“帶客吃回扣”

      4只皮皮蝦1035元,官方回應是否“帶客吃回扣”

      中國新聞周刊
      2026-05-09 19:38:06
      世乒賽女團決賽:日本差口氣輸球,孫穎莎太欺負人

      世乒賽女團決賽:日本差口氣輸球,孫穎莎太欺負人

      不想長大的莫扎特
      2026-05-11 15:30:32
      尷尬!王石公開脫衣秀身材“翻車”,網(wǎng)友:像是一副被榨干的軀體

      尷尬!王石公開脫衣秀身材“翻車”,網(wǎng)友:像是一副被榨干的軀體

      火山詩話
      2026-05-08 21:39:02
      汪小菲帶玥兒出游看孔雀,馬筱梅刻意與玥兒保持距離,恐已有嫌隙

      汪小菲帶玥兒出游看孔雀,馬筱梅刻意與玥兒保持距離,恐已有嫌隙

      阿策聊實事
      2026-05-11 13:44:23
      總統(tǒng)是間諜?美國最新機密文件顯示:特朗普是傀儡,早已被以色列收買

      總統(tǒng)是間諜?美國最新機密文件顯示:特朗普是傀儡,早已被以色列收買

      不掉線電波
      2026-02-01 15:52:15
      李嘉誠再談及未來房價:100萬的房子,到2030年還能值多少錢?

      李嘉誠再談及未來房價:100萬的房子,到2030年還能值多少錢?

      社會日日鮮
      2026-05-11 04:52:07
      生活由普京擔保,來中國療養(yǎng),葉利欽人生中最后那8年過得怎樣?

      生活由普京擔保,來中國療養(yǎng),葉利欽人生中最后那8年過得怎樣?

      云霄紀史觀
      2026-04-25 20:20:46
      第1現(xiàn)場|俄烏對峙下的紅場閱兵:36年來首次未見坦克

      第1現(xiàn)場|俄烏對峙下的紅場閱兵:36年來首次未見坦克

      澎湃新聞
      2026-05-09 21:40:28
      胎壓2.5是謊言?干了十年汽修,我來告訴你真正的標準!

      胎壓2.5是謊言?干了十年汽修,我來告訴你真正的標準!

      娛樂圈的筆娛君
      2026-05-10 01:52:36
      確認不打了!CBA頂級內(nèi)線慘遭棄用,或被廣東隊重金挖走?

      確認不打了!CBA頂級內(nèi)線慘遭棄用,或被廣東隊重金挖走?

      緋雨兒
      2026-05-11 09:21:49
      FIFA以1.2億美元“賤賣”世界杯轉(zhuǎn)播權(quán),CCTV該不該接?

      FIFA以1.2億美元“賤賣”世界杯轉(zhuǎn)播權(quán),CCTV該不該接?

      新浪財經(jīng)
      2026-05-10 18:02:01
      2026-05-11 16:04:49
      機器之心Pro incentive-icons
      機器之心Pro
      專業(yè)的人工智能媒體
      12968文章數(shù) 142648關(guān)注度
      往期回顧 全部

      科技要聞

      黃仁勛:你們趕上了一代人一次的大機會

      頭條要聞

      媒體:中美元首即將北京會晤 美方一細節(jié)耐人尋味

      頭條要聞

      媒體:中美元首即將北京會晤 美方一細節(jié)耐人尋味

      體育要聞

      那個曾讓詹姆斯抱頭的兄弟,40歲從大學畢業(yè)了

      娛樂要聞

      “孕婦墜崖案”王暖暖稱被霸凌協(xié)商解約

      財經(jīng)要聞

      "手搓汽車"曝光:偽造證件、電池以舊代新

      汽車要聞

      吉利銀河“TT”申報圖曝光 電動尾翼+激光雷達

      態(tài)度原創(chuàng)

      房產(chǎn)
      本地
      數(shù)碼
      親子
      軍事航空

      房產(chǎn)要聞

      低價甩賣!海口這個地標商業(yè),無人接盤!

      本地新聞

      用蘇繡的方式,打開江西婺源

      數(shù)碼要聞

      努比亞推出GT Buds耳機:支持35dB降噪,269元

      親子要聞

      首都教育親子歡樂跑開跑,合作伙伴火花思維攜親子家庭亮相系統(tǒng)

      軍事要聞

      特朗普:伊朗的回應“完全不可接受”

      無障礙瀏覽 進入關(guān)懷版 主站蜘蛛池模板: 久久久久国产精品熟女影院| 亚洲一卡2卡三卡四卡精品| 91老湿机福利免费体验| 久久精品国产再热青青青| 新91视频在线观看www| 日本一区二区三区中文字幕| 中文字幕无码白丝袜| 亚洲激情自拍| 国产麻豆放荡av激情演绎| 人人妻人人揉人人模人人模| 无码射肉在线播放视频| 国产.a片| 日韩美女av二区三区四区| 国产精品高清一区二区不卡 | 久热超碰| 国产欧美日韩VA另类| 国产成人免费a在线视频| 免费va国产高清不卡大片| 亚洲精品一区二三区不卡| 成全在线电影在线观看| 萍乡市| 久久国内精品一区二区三区| 北条麻妃无码视频| 国产精品久久精品第一页| 免费人成再在线观看视频| 新版天堂资源中文www连接| 亚洲AV无码一区二区三区波多野结衣| 亚洲成AV人国产毛片| 丝袜美腿一区二区三区| av二区在线| 国产www| 久久综合精品国产丝袜长腿 | 激情综合色综合久久丁香| 欧美国产三级| 广宗县| 午夜日本永久乱码免费播放片 | 国产成人精品日本亚洲77美色| 熟女亚洲综合精品伊人久久| 香蕉免费一区二区三区| 国产伦精品免编号公布| chinese国产av|