2月10日,以“具身原生”為主題的原力靈機(jī)技術(shù)開放日在北京中關(guān)村展示中心舉行。在這場被稱為“最硬核的具身產(chǎn)品發(fā)布會”上,原力靈機(jī)一舉發(fā)布三大核心產(chǎn)品:全球首個具身原生大模型DM0、具身原生開發(fā)框架Dexbotic2.0、以及具身原生應(yīng)用量產(chǎn)工作流DFOL。
“2026年不是具身智能的元年,而是具身原生的元年。”原力靈機(jī)CEO唐文斌在現(xiàn)場表示:“過去大家在爭論用哪個大模型來改,我們直接跳出這個問題——為什么要改?為什么不從第一行代碼就為機(jī)器人而寫?”
![]()
全球首個具身原生大模型DM0,2.4B參數(shù)量登頂全球真機(jī)評測
原力靈機(jī)認(rèn)為,不僅僅是一個“能在機(jī)器人上運(yùn)行的大模型”,而是一個“智能本質(zhì)和形成機(jī)制都根植于物理交互的新AI范式”。
基于此,原力靈機(jī)在業(yè)內(nèi)首次提出“具身原生”概念:具身智能從誕生之初就需立足真實(shí)世界,聚焦“復(fù)雜環(huán)境中精準(zhǔn)完成人類任務(wù)”,并發(fā)布全球首個具身大模型DM0。
DM0具有兩大優(yōu)勢:一是從0開始訓(xùn)練的具身原生大模型,聯(lián)合階躍星辰聯(lián)合訓(xùn)練,除了深度融合多模態(tài)互聯(lián)網(wǎng)信息外,還涵蓋駕駛行為數(shù)據(jù)、機(jī)器人操作、導(dǎo)航等具身場景特有的多傳感數(shù)據(jù)。二是DM0沒有把模型限制在單一硬件或特定場景,而是在預(yù)訓(xùn)練階段系統(tǒng)混合抓取、導(dǎo)航、全身控制三類核心任務(wù),并覆蓋UR、Franka、ARX、UMI、Aloha、R1-Lite、Realman、DOS-W1等8種差異顯著的機(jī)型,獲得強(qiáng)跨機(jī)型的泛化與遷移能力。
DM0僅2.4B參數(shù)量,卻實(shí)現(xiàn)了業(yè)內(nèi)最高的智能密度,尤其在精細(xì)操作場景中表現(xiàn)突出。不同于市面上多數(shù)VLA模型僅有224-384像素的輸入分辨率,DM0專屬768×768高分辨率設(shè)計(jì),實(shí)時推理延遲僅60ms,在工業(yè)級精細(xì)作業(yè)中表現(xiàn)優(yōu)異。
DM0首創(chuàng)廣義動作解鎖復(fù)雜任務(wù)。DM0構(gòu)建空間推理思維鏈,把環(huán)境感知、任務(wù)理解、運(yùn)動規(guī)劃與精細(xì)執(zhí)行串成閉環(huán),使模型能夠在復(fù)雜真實(shí)場景中穩(wěn)定完成高精度操作,實(shí)現(xiàn)機(jī)器人的動作不局限在手上,拍照和發(fā)送指令一樣行。
在RoboChallage真機(jī)評測中,DM0獲得單任務(wù)與多任務(wù)雙項(xiàng)第一,目前位居榜單全球第一。為推動產(chǎn)業(yè)協(xié)同,原力靈機(jī)宣布DM0全面開源,開發(fā)者可在消費(fèi)級顯卡上便捷微調(diào)、二次開發(fā),助力科研工作者搭建專屬應(yīng)用、訓(xùn)練自有模型及產(chǎn)品。
![]()
夯實(shí)具身基礎(chǔ)設(shè)施,Dexbotic2.0打造具身智能的PyTorch
基礎(chǔ)設(shè)施是技術(shù)迭代效率的根本,也是一家AI公司真正的競爭力,原力靈機(jī)重磅發(fā)布全球首個具身原生開發(fā)框架Dexbotic2.0。原力靈機(jī)合伙人汪天才表示,"PyTorch讓每個研究者都能快速驗(yàn)證想法,Dexbotic2.0要做的是同樣的事——讓每個開發(fā)者都能用樂高式的方式搭建自己的具身應(yīng)用。"
相比去年發(fā)布的1.0版本,Dexbotic2.0實(shí)現(xiàn)了具身原生的全面升級,具備五大核心優(yōu)勢:模塊化架構(gòu),將具身智能系統(tǒng)拆成三塊可自由組合的“樂高模塊”,V(Visionencoder)、L(LLM)、A(ActionExpert)模可以獨(dú)立升級、替換和混搭,便于快速試驗(yàn)新模型,并適配不同硬件和任務(wù)場景。
同時全面支持多源數(shù)據(jù)混合訓(xùn)練,用同一套訓(xùn)練過程,讓模型同步學(xué)會“看懂世界”和“動手操作”;此外,Dexbotic2.0還實(shí)現(xiàn)統(tǒng)一具身操作與導(dǎo)航、統(tǒng)一模仿學(xué)習(xí)與強(qiáng)化學(xué)習(xí)、標(biāo)準(zhǔn)化具身開發(fā)全流程,從“數(shù)據(jù)—訓(xùn)練—評測—硬件”四個環(huán)節(jié)形成閉環(huán)。
目前,Dexbotic2.0已經(jīng)服務(wù)數(shù)十家機(jī)構(gòu),包括清華、北大、普林斯頓、帝國理工等知名企業(yè),以及騰訊、北京具身智能機(jī)器人創(chuàng)新中心等知名企業(yè),覆蓋超千位研發(fā)者。
正如PyTorch曾為深度學(xué)習(xí)社區(qū)提供統(tǒng)一、開放的基礎(chǔ)設(shè)施,加速整個領(lǐng)域的繁榮,原力靈機(jī)聯(lián)合清華大學(xué)、無問芯穹,共同宣布打造具身智能的PyTorch,Dexbotic2.0與強(qiáng)化學(xué)習(xí)框架RLinf達(dá)成戰(zhàn)略合作,旨在降低開發(fā)門檻,讓研究者與開發(fā)者專注于算法創(chuàng)新與場景突破。
![]()
規(guī)模化落地:破解工程痛點(diǎn),DFOL解鎖具身應(yīng)用量產(chǎn)工作流
在夯實(shí)具身原生技術(shù)底座、打造基礎(chǔ)設(shè)施降低開發(fā)門檻的基礎(chǔ)上,原力靈機(jī)進(jìn)一步推動機(jī)器人走進(jìn)工廠,實(shí)現(xiàn)具身規(guī)模化場景落地,原力靈機(jī)發(fā)布具身應(yīng)用量產(chǎn)工作流DFOL(DistributedFieldOnlineLearning),核心是通過“硬件通用+模型智能”的模式,使機(jī)器人既能保持較高效率與確定性,又擁有接近人類的靈活性和適應(yīng)性。
DFOL關(guān)鍵創(chuàng)新在于數(shù)據(jù)回流機(jī)制:現(xiàn)場產(chǎn)生的訓(xùn)練片段(episode)與負(fù)樣本塊(negativechunk)實(shí)時回傳云端,形成“云端訓(xùn)練-現(xiàn)場執(zhí)行-數(shù)據(jù)回流-模型更新”的持續(xù)進(jìn)化閉環(huán),使系統(tǒng)能夠在真實(shí)工作環(huán)境中不斷自我改進(jìn),實(shí)現(xiàn)柔性生產(chǎn)力的持續(xù)優(yōu)化。這不僅是一次技術(shù)升級,更是創(chuàng)造真實(shí)商業(yè)價值的關(guān)鍵一躍,有利于打破非標(biāo)自動化與人工的邊界,推動物理智能真正走向規(guī)模化和普惠化。
從DM0打破行業(yè)“改模型”的路徑依賴、以2.4B參數(shù)量登頂全球真機(jī)評測榜首,到Dexbotic2.0聯(lián)合RLinf準(zhǔn)備扛起具身智能的“PyTorch”大旗、破解研發(fā)壁壘,再到DFOL打通工程化難題、變現(xiàn)技術(shù)落地閉環(huán),原力靈機(jī)拋出的“三枚炸彈”,對具身智能產(chǎn)業(yè)進(jìn)行全方位重構(gòu)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.