快科技5月6日消息,NVIDIA宣布旗下開源大模型Nemotron 3 Super登上EnterpriseOps-Gym排行榜開源類別首位,以平均27.3分的成績(jī)擊敗Kimi-K2.5、DeepSeek v3.2、MiniMax m2.7及GPT-OSS-120B等眾多競(jìng)爭(zhēng)對(duì)手。
具體排名顯示,Kimi-K2.5以26.2分位列第二,DeepSeek v3.2以23.8分排在第三,MiniMax m2.7以23.0分緊隨其后,GPT-OSS-120B以17.1分位列第五。
![]()
Nemotron 3 Super是NVIDIA在今年3月GTC大會(huì)上發(fā)布的混合專家模型,總參數(shù)量達(dá)到1200億,但每次推理僅激活其中120億參數(shù),在保持模型知識(shí)密度的同時(shí)大幅降低推理開銷。
該模型采用了多項(xiàng)關(guān)鍵技術(shù)。潛在混合專家架構(gòu)通過壓縮輸入數(shù)據(jù),能夠在相同推理成本下激活并調(diào)用多達(dá)四倍數(shù)量的"專家子網(wǎng)絡(luò)"(專業(yè)化的神經(jīng)網(wǎng)絡(luò)模塊)來處理任務(wù)。
Nemotron 3 Super還原生支持100萬token上下文窗口,在長(zhǎng)時(shí)間任務(wù)中可保持長(zhǎng)期記憶,有效避免目標(biāo)偏移問題。其吞吐量較上一代Nemotron Super提升超過五倍。
在硬件適配方面,該模型針對(duì)NVIDIA Blackwell架構(gòu)進(jìn)行原生NVFP4預(yù)訓(xùn)練,在B200上的推理速度比H100使用FP8格式快四倍,同時(shí)保持模型精度。
此外,借助NVIDIA NeMo Gym與NeMo RL框架,該模型在21種環(huán)境配置下完成了多環(huán)境強(qiáng)化學(xué)習(xí)后訓(xùn)練,總計(jì)部署了超過120萬次訓(xùn)練環(huán)境。
NVIDIA Nemotron 3系列開源模型覆蓋Nano、Super和Ultra三條產(chǎn)品線。NVIDIA還同步推出了Nemotron 3 Nano Omni,宣稱可將AI吞吐量提升九倍。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.