<tr id="tp1vn"><td id="tp1vn"><dl id="tp1vn"></dl></td></tr>
  1. <p id="tp1vn"></p>
  2. <sub id="tp1vn"><p id="tp1vn"></p></sub>
    <u id="tp1vn"><rp id="tp1vn"></rp></u>
    <meter id="tp1vn"></meter>
      <wbr id="tp1vn"><sup id="tp1vn"></sup></wbr>
      日韩第一页浮力,欧美a在线,中文字幕无码乱码人妻系列蜜桃 ,国产成人精品三级麻豆,国产男女爽爽爽免费视频,中文字幕国产精品av,两个人日本www免费版,国产v精品成人免费视频71pao
      網易首頁 > 網易號 > 正文 申請入駐

      清華系團隊出手!一張 4090 即可「爆改」,1.3B小鋼炮震撼開源

      0
      分享至


      新智元報道

      編輯:YHluck

      【新智元導讀】端側多模態,卷出新天花板。僅1.3B,性能反超,效率翻倍,一張4090就能「爆改」。剛剛,清華系團隊面壁智能開源了新一代「小鋼炮」MiniCPM-V 4.6,再次證明了在端側AI領域,中國團隊已然站在世界前沿。

      想象一下:你將一支筆放進裝滿水的玻璃杯,用手機拍下照片,然后問它:「這個現象的原因是什么」?


      幾秒鐘后,手機屏幕上出現了「光的折射」的準確回答和原理解釋,視覺問答表現驚人:

      還有機票識別,文字提取精準:

      整個過程絲滑流暢,沒有聯網,沒有等待云端服務器的響應,不產生天價token賬單

      而實現這一切的,不是云端某個需要排隊等API的千億參數模型,而是一個剛剛開源、僅有1.3B的「小鋼炮」——MiniCPM-V 4.6

      5月11日,「國產端側大模型擔當」面壁智能聯合清華大學、OpenBMB開源社區正式開源了新一代端側多模態大模型MiniCPM-V 4.6

      MiniCPM-V 4.6一經發布,立即給1B量級多模態模型重新劃定了起跑線,給日趨白熱化的端側AI賽道投下了一枚重磅炸彈!


      它不僅在性能上全面超越了阿里 Qwen3.5-0.8B和谷歌Gemma4-E2B-it等同級對手,更在效率上實現了驚人的「反超」——參數更大,跑得卻更快

      這波操作,直接打破了行業里「小尺寸=閹割版」的常規認知。

      MiniCPM-V 4.6用扎實硬核的數據向行業證明:1B級模型,也可以是性能強悍、足以在端云兩棲部署的工業級武器

      此外,在尺寸上,MiniCPM-V 4.6是MiniCPM-V系列模型上有史以來參數規模最小的模型,只有1B左右,但智能密度卻為同尺寸模型范圍內最高,這再次驗證了面壁智能在2024年提出并登上Nature子刊的「密度定律」。

      根據Artificial Analysis(AA)榜單評測,MiniCPM-V 4.6 1.3B(非推理版本)的運行僅消耗5.4M token量,僅為Qwen3.5-0.8B(非推理版本,101M)的1/19、Qwen 3.5-0.8B(推理版本,233M)的1/43


      Hugging Face:

      https://huggingface.co/openbmb/MiniCPM-V-4.6

      GitHub:

      https://github.com/OpenBMB/MiniCPM-V

      Modelscope:

      https://modelscope.cn/models/OpenBMB/MiniCPM-V-4.6

      Web Demo:

      https://huggingface.co/spaces/openbmb/MiniCPM-V-4.6-Demo

      APP Demo:

      https://github.com/OpenBMB/MiniCPM-V-Apps

      性能越級,效率反超

      體感是最終標準

      Talk is cheap,直接上數據。

      在多個主流Benchmark上,MiniCPM-V 4.6的表現突出一個「反常識」。

      無論是做通用圖文理解、解數學題,還是搞文檔OCR,它的Instruct版Thinking版基本都是亂殺局,全面碾壓Qwen3.5-0.8B與Gemma4-E2B-it。



      在更看綜合實力的Artificial Analysis(AA)榜單上,MiniCPM-V 4.6的得分也表現出色,領先Mistral 3 3B、Qwen 3.5-0.8B等在內的一眾模型一個身位,成為了1B多模態大模型賽道的「新科狀元」!


      但真正讓技術圈高潮的,是它的效率!

      • 推理吞吐量:直接干到1.5倍

      拿一張4090跑高并發,MiniCPM-V 4.6處理高清圖的吞吐量是Qwen3.5-0.8B 的1.5倍

      什么概念?一樣的服務器成本,你能扛住過去1.5倍的用戶流量對于SaaS服務來說,這就是赤裸裸的利潤。


      • 首響延遲(TTFT):延遲曲線被拉直了!

      處理31362的超高清大圖,它的首響延遲比對手快了2.2倍。更驚人的是,當圖片分辨率暴漲49倍,它的延遲增長居然不到2.5倍

      這條幾乎被「拉直」的延遲曲線,意味著你的4090無論加載多大的圖,用戶體感都差不多——一個字,穩!


      這兩個維度共同指向同一個結論:MiniCPM-V 4.6用更短的視覺序列和更小的 KV-Cache,把端側體感與云側ROI同時推到了新的高度。

      對端側產品而言,這意味著流暢;對云端工業場景而言,這意味著同等成本下的吞吐翻倍。

      參數更大,跑得更快這聽起來就像是物理學不存在了。但這背后,是兩個非常硬核的架構創新。

      技術深扒:這效率「外掛」是怎么開的?

      為什么一個比Qwen3.5-0.8B參數更大的模型,反而跑得更快?

      答案藏在MiniCPM-V 4.6的兩項核心架構創新里:一個是ViT架構創新,另一個是4倍/16倍混合視覺token壓縮率

      ViT架構重構

      LLaVA-UHD v4開路

      傳統ViT(視覺編碼器) 在編碼圖像時,會讓大量冗余視覺token一路跑完全程,造成顯著的算力浪費。

      就像個耿直的打工人,收到一堆視覺Token(圖像信息塊),不管有用沒用、全部拉通處理一遍,計算量巨大。

      而MiniCPM-V 4.6不當「老實人」,采用了面壁智能聯合清華大學自研的LLaVA-UHD v4技術,在 ViT 內部很早就把沒用的Token給優化掉了,提前完成視覺token的壓縮,算力直接節省約50%

      也就是說,僅在圖像編碼這一環節,MiniCPM-V 4.6就比傳統ViT路線少跑了一半的開銷,且性能不掉點。

      這也是為什么 MiniCPM-V 4.6雖然參數比Qwen3.5-0.8B略大,卻在推理效率上實現反超的根本原因。

      具體是怎么做到的?

      主要是LLaVA-UHD v4圍繞兩個方向做了優化:如何更高效地看高清大圖,以及如何更早地減少視覺Token帶來的計算負擔。

      一是「切片大法」不傻乎乎地處理整張高清大圖,而是先切成小塊,分而治之。這樣Attention計算量就不會隨分辨率指數爆炸。MiniCPM-V 4.6的研究團隊做了不同尺寸和不同數據量的模型試驗,證明切片相比于全局編碼不掉點——這實際是一個「反常識」的技術突破。

      二是「提前壓縮」最關鍵的一步。在ViT剛開始工作沒多久,就用一個精巧的壓縮模塊(Intra-ViT Early Compressor)把Token數量壓下來。這樣一來,后續ViT層的計算開銷節省75%+。


      LLaVA-UHD v4 論文鏈接:https://huggingface.co/papers/2605.08985

      通過這一設計,視覺Token壓縮可以穩定地前移到 ViT 淺層,在大幅降低后續計算量的同時,仍然保持較好的圖像表征質量和下游任務表現。

      這就是MiniCPM-V 4.6「效率反超」的秘密武器:在最耗算力的環節,只干最該干的活。

      4倍/16倍混合壓縮

      給足開發者選擇權

      視覺token壓縮率,影響的是顯存占用、首響延遲、推理吞吐、功耗這些核心效率指標,壓縮率越高,響應速度就越快。

      市面上的多模態大模型,絕大部分都焊死在了固定的4倍壓縮MiniCPM-V系列從2024年起就率先支持16倍壓縮,此前支持在4倍/16倍中二選一,但這次MiniCPM-V 4.6實現了魚和熊掌可兼得


      • 4倍模式(精度更高)適合高要求識別任務,如文檔解析、密集文字識別等。跑文檔識別、醫療影像這種任務,一個像素都不能錯。

      • 16倍模式(速度更快)跑手機端實時交互、云端高并發API,速度就是生命線。


      這個設計,讓同一個模型既能塞進手機里做你的隨身AI,又能部署在云端扛住千萬級日活兩全其美,開發者便無需做取舍。

      這可不是PPT技術。快手的推薦大模型OneRec,扛下主場景25%的流量,就采用了MiniCPM-V系列模型。16倍壓縮的工業級實戰能力,已經被真金白銀驗證過了。


      論文地址:

      https://arxiv.org/abs/2502.18965

      只需一張 4090

      為「魔改」而生的開源生態

      技術再牛,部署和微調不行、開發者照樣不買賬。

      面壁智能這次直接把開發者體驗拉滿了。

      最炸裂的一點是:一張消費級的RTX 4090,就能完整跑下全量微調!

      這意味著什么?無論是獨立開發者、小團隊還是學術圈,多模態模型的定制化開發,都能用得起MiniCPM-V 4.6,門檻從「服務器集群」直接降到了「一臺高性能PC」。這才是真正的AI普惠!

      配套的工具鏈也安排得明明白白!

      MiniCPM-V 4.6實現了與當前主流開源生態的全面無縫對接,讓開發者徹底告別繁瑣的環境配置:

      • 微調:原生支持最火的LLaMA-Factory和ms-swift——


      微調框架

      LLaMA-Factory:

      MiniCPM-V-CookBook/finetune/finetune_minicpmv46_zh.md at main · OpenSQZ/MiniCPM-V-CookBook

      ms-swift:

      MiniCPM-V-CookBook/finetune/finetune_minicpmv46_zh.md at main · OpenSQZ/MiniCPM-V-CookBook


      • 推理:vLLM、SGLang、llama.cpp、Ollama全家桶無縫銜接——


      推理框架:

      vLLM:

      https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/vllm/minicpm-v4_6_vllm_zh.md

      SGLang:

      https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/sglang/minicpm-v4_6_sglang_zh.md

      llama.cpp:

      https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/llama.cpp/minicpm-v4_6_llamacpp.md

      Ollama:

      https://github.com/OpenSQZ/MiniCPM-V-CookBook/blob/main/deployment/ollama/minicpm-v4_6_ollama_zh.md

      極低的顯存占用、極高的并發吞吐量、完備的上下游工具鏈——可以說MiniCPM-V 4.6天生就是為了被「魔改」而生,是開發者用于構建高并發計算、極速響應的垂直應用的高性價比多模態底座

      它把最硬核的底層優化做完,把最靈活的改造空間留給了社區。

      端側部署指南

      https://github.com/tc-mb/MiniCPM-V-edge-demo/blob/main/README_zh.md

      從「被抄襲」到「定義者」

      端側 AI 的中國敘事

      從2024年4月的V 2.0算起,MiniCPM-V已經走過了6代


      截至2026年3月,MiniCPM-V系列在開源社區累計下載量已接近3000萬,多次霸榜GitHub Trending與HuggingFace趨勢榜。

      在產業落地端,已先后服務于聯想、吉利、上汽大眾、廣汽、馬自達、紅旗等廠商,覆蓋汽車、PC、手機、智能家居等多場景。

      回顧面壁智能的MiniCPM-V系列,你會發現一條非常清晰的進化路徑——追求極致的「智能密度」。

      也就是,用最小的代價,干最智能的事。

      從2024年面壁智能密度定律登上《Nature子刊》,到MiniCPM-V2.5被斯坦福研究團隊「套殼」引發全球關注,再到今天MiniCPM-V 4.6用1.3B模型重新定義端側效率,面壁智能已經變成端側AI賽道的最大「定義者」。

      MiniCPM-V 4.6的發布,不只是一個更強的模型,更是一個信號:端側AI的「妥協」時代,正在結束。

      MiniCPM-V 4.6證明了:1B多模態模型可以又強又快又省,也可以同時擔任端側最佳基座和云端高并發利器

      面壁在做的事情,從來不是卷參數、卷榜單。

      他們在用一種近乎偏執的方式,把AI能力塞進每一塊你能想到的屏幕里——手機、平板、車載屏、智能家居面板、工廠質檢終端……凡是有屏幕、有芯片的地方,都是他們想覆蓋的場景。這便是所謂「智周萬物」。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      73歲車田正美再執筆,圣斗士星矢天界篇第一話正式登場!

      73歲車田正美再執筆,圣斗士星矢天界篇第一話正式登場!

      墜入二次元的海洋
      2026-05-14 18:04:37
      父母的無效人脈能讓人多惱火?網友:親戚水電,兩代人都踩雷了!

      父母的無效人脈能讓人多惱火?網友:親戚水電,兩代人都踩雷了!

      另子維愛讀史
      2026-05-14 20:24:27
      上海樓市爆了!

      上海樓市爆了!

      地產觀點
      2026-05-14 18:00:07
      俄總統新聞秘書:只要美國不再把經貿合作與烏克蘭問題掛鉤,俄愿同美開展商業往來

      俄總統新聞秘書:只要美國不再把經貿合作與烏克蘭問題掛鉤,俄愿同美開展商業往來

      極目新聞
      2026-05-14 09:58:58
      成本超2億,票房僅41萬,收手吧黃渤,別讓百億影帝成一個笑話

      成本超2億,票房僅41萬,收手吧黃渤,別讓百億影帝成一個笑話

      靠譜電影君
      2026-05-14 18:02:24
      入朝前夕,毛主席聽取林帥建議:換掉13兵團主將!兩年后才知高明

      入朝前夕,毛主席聽取林帥建議:換掉13兵團主將!兩年后才知高明

      搜史君
      2026-05-08 13:00:16
      美國胃有多愛中餐?特朗普給出在美中餐館數據,直呼“驚人”

      美國胃有多愛中餐?特朗普給出在美中餐館數據,直呼“驚人”

      澎湃新聞
      2026-05-14 21:07:15
      醒醒吧中國導演!看完《給阿嬤的情書》,才知資方是影視攪屎棍

      醒醒吧中國導演!看完《給阿嬤的情書》,才知資方是影視攪屎棍

      秋姐居
      2026-05-12 19:26:44
      南京一市民在湖邊晨練時,發現湖面上有條一米多長的大蛇:這邊看到這么大的蛇確實不多見;網友調侃:“白素貞”也出來晨練

      南京一市民在湖邊晨練時,發現湖面上有條一米多長的大蛇:這邊看到這么大的蛇確實不多見;網友調侃:“白素貞”也出來晨練

      臺州交通廣播
      2026-05-14 15:50:46
      上海乒羽主任:樊振東是國乒獨一無二的領軍人物 比王楚欽高出一塊

      上海乒羽主任:樊振東是國乒獨一無二的領軍人物 比王楚欽高出一塊

      818體育
      2026-05-14 23:56:01
      劉和平:蹲過2年大牢卻混成副書記,還被百姓稱為“青天大老爺”

      劉和平:蹲過2年大牢卻混成副書記,還被百姓稱為“青天大老爺”

      云霄紀史觀
      2026-05-14 17:59:05
      三個月交易超7億美元?特朗普“炒股賬本”曝光,硅谷和華爾街巨頭一個不少

      三個月交易超7億美元?特朗普“炒股賬本”曝光,硅谷和華爾街巨頭一個不少

      華爾街見聞官方
      2026-05-15 05:44:51
      從未來可期到萬年不紅,被賣還數錢的陳瑤,才是娛樂圈一股清流

      從未來可期到萬年不紅,被賣還數錢的陳瑤,才是娛樂圈一股清流

      好賢觀史記
      2026-05-13 14:50:58
      5月16日午后開始,連續6天!北京開啟多雨模式

      5月16日午后開始,連續6天!北京開啟多雨模式

      新浪財經
      2026-05-15 00:25:49
      黃仁勛被問英偉達是否會向華為出售芯片:這是個多么奇怪的問題啊

      黃仁勛被問英偉達是否會向華為出售芯片:這是個多么奇怪的問題啊

      泡泡網
      2026-05-14 17:50:15
      剛向191國發出通知,大陸轉頭放行臺當局,鄭麗文公開力挺一中

      剛向191國發出通知,大陸轉頭放行臺當局,鄭麗文公開力挺一中

      千羽解讀
      2026-05-14 10:17:47
      原來老一輩才是最敢買的!網友:一旦有了條件就開始放飛自我!

      原來老一輩才是最敢買的!網友:一旦有了條件就開始放飛自我!

      夜深愛雜談
      2026-05-14 20:28:51
      槍聲響起!小馬科斯大勢已去,菲軍方緊急切割,中菲關系或迎轉機

      槍聲響起!小馬科斯大勢已去,菲軍方緊急切割,中菲關系或迎轉機

      影孖看世界
      2026-05-14 23:06:05
      暴漲95%!“最大芯片”公司成功上市!英偉達要當心了

      暴漲95%!“最大芯片”公司成功上市!英偉達要當心了

      EETOP半導體社區
      2026-05-15 07:32:03
      特朗普訪華代表團集體使用一次性手機,禁止連接中國公共WiFi

      特朗普訪華代表團集體使用一次性手機,禁止連接中國公共WiFi

      桂系007
      2026-05-15 00:05:27
      2026-05-15 09:07:00
      新智元 incentive-icons
      新智元
      AI產業主平臺領航智能+時代
      15214文章數 66868關注度
      往期回顧 全部

      科技要聞

      兩年聯姻一地雞毛,傳蘋果OpenAI瀕臨決裂

      頭條要聞

      歡迎宴會座位公開:馬斯克黃仁勛與中國企業家同桌吃飯

      頭條要聞

      歡迎宴會座位公開:馬斯克黃仁勛與中國企業家同桌吃飯

      體育要聞

      爭議抽象天王山,和季后賽最穩定中鋒

      娛樂要聞

      何九華官宣當爸!全程不提孩子媽

      財經要聞

      特朗普的北京時刻

      汽車要聞

      雙零重力座椅/AI智能體/調光天幕 啟境GT7內飾發布

      態度原創

      親子
      藝術
      游戲
      家居
      公開課

      親子要聞

      “67歲自然懷孕”的天賜媽媽,現狀曝光:7年前的預言,正在應驗

      藝術要聞

      花園里,花叢中

      萬字解析:大叔蘿莉的組合為什么經久不衰?"/> 主站 商城 論壇 自運營 登錄 注冊 萬字解析:大叔蘿莉的組合為什么經久不衰? 神堡薛師傅 2026-0...

      家居要聞

      精神奢享 對話塔尖需求

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 日韩在线视频观看免费网站| 久久久久国产一级毛片高清板| 亚洲无码?制服丝袜| 国模大胆一区二区三区| 欧美a级欧美1级a大片| 国产波霸爆乳一区二区| 可以在线观看的亚洲视频| 国产成人高清亚洲一区91| 成人无码av免费网站| 精品国产精品一区二区夜夜嗨| 麻豆aⅴ精品无码一区二区| 亚洲妇女黄色三级视频| 免费午夜无码片在线观看影院| 麻豆人妻换人妻好紧| 亚洲精品中文av在线| 国内精品免费久久久久电影院97 | 爱性久久久久久久久| 亚洲成人网站在线| 国产目拍亚洲精品二区| 色偷偷www8888| 天堂av亚洲一区二区| 日韩精品有码在线视频| 国产亚洲精品国产福利在线观看| 色色二区| 男女激情无遮挡免费视频| 40岁成熟女人牲交片| 日韩成人无码v清免费| 国产无码视屏| 日韩人妻无码精品无码中文字幕| 大地资源在线播放观看mv| 久久人妻精品国产| 少妇无码精油按摩专区| 国内精品久久久久久99蜜桃| 亚洲中文字幕日产喷水| 麻豆最新国产av原创精品| 亚洲中文字幕无码av| 免费国产好深啊好涨好硬视频| 边坝县| 亚洲精品乱码久久久久久久久久久久 | 亚洲国产精品日韩av专区 | 中文屏幕乱码av|