2026北京車展上,最熱鬧的當然還是新車——大六座、獵裝車、方盒子、增程、插混、純電、快充、智駕,幾乎每一個展臺都能找到足夠多的產品賣點。
但如果把這些熱鬧往后撥一層,會發現這屆車展還有一條更隱蔽、也更值得關注的線索:
汽車行業,正在集體把“AI Agent”請進車里。
換句話說,智能座艙的關鍵詞正在變。
![]()
過去幾年,車企講智能座艙,核心是屏幕、芯片、語音、生態——屏幕越做越大,數量越堆越多;語音助手從“一問一答”進化到連續對話;高通8295、8155這樣的座艙芯片成為賣點;音樂、視頻、導航、小游戲被不斷塞進車機里面。
但到了2026北京車展,一個新的問題浮出來了:如果車機只是更會聊天、更像手機,它還不夠聰明。
真正的下一步,是它能不能理解你的目標,替你拆解任務,調用車輛和外部服務,把事情辦完。
這就是“智能體上車”的意義。
![]()
從“全民養蝦”說起:為什么說 AI Agent 比大模型更適合上車?
過去一段時間,AI圈里有個挺有意思的現象,叫“養蝦”。
OpenClaw、Hermes Agent、Claude Code這類產品突然被很多人討論。
![]()
它們和傳統聊天機器人不太一樣。普通大模型更多是你問一句、它答一句;而這些Agent工具更像一個可以被訓練出來的數字助手:它能讀文件、調用工具、整理資料、寫代碼、執行流程、記住偏好,甚至在邊界允許的情況下主動推進任務。
這也是為什么很多AI博主會反復強調“約束先行”“規范先行”。
以卡茲克(一位長期觀察AI Agent和智能體工作流的內容創作者)的說法,Agent不是簡單靠一句Prompt就能變強,關鍵是要給它建立規則、工具、記憶和反饋。你不是在跟一個聊天框許愿,而是在養一個能長期工作的數字分身。
![]()
這件事放在電腦上,表現為AI幫你寫代碼、整理知識庫、查資料、改文檔。
放在汽車里,就變成一個更有想象力的問題:
如果一個AI助手能住進車里,它會怎樣改變智能座艙?
汽車其實比電腦更適合智能體。
因為車不只是一個屏幕。
![]()
它有傳感器,能知道車外環境和車內乘員狀態;
它有執行器,能控制空調、座椅、車窗、燈光、導航和輔助駕駛;
它有固定場景,通勤、接娃、出差、補能、長途自駕、露營,都高度重復;
它還有天然的時間、位置、路線、電量、車況、乘員信息。
也就是說,汽車不是一個單純的信息終端,而是一個能感知物理世界、也能影響物理世界的移動空間。
這正是AI Agent最需要的土壤。
![]()
地平線 KaKaClaw:北京車展上的“龍蝦時刻”
如果說“全民養蝦”讓普通人第一次感受到AI Agent能干活,那么2026北京車展則讓汽車行業集中展示了另一件事:
Agent正在從個人電腦走向汽車座艙。
最直接的案例,是地平線的KaKaClaw咖咖蝦。
4月22日,北京車展前夕,地平線發布了整車智能體操作系統KaKaClaw咖咖蝦。
![]()
它當然有星空艙駕融合芯片作為底層支撐,但芯片參數不是重點,真正值得關注的是,KaKaClaw想把車機從一個“聽指令的系統”,變成一個“會組織任務的智能體”。
過去車機語音助手的典型邏輯,是用戶說一句,系統做一步。
你說“導航回家”,它打開導航;
你說“打開空調”,它調整溫度;
你說“播放音樂”,它切到音樂App。
每個功能都能用,但它們彼此之間是割裂的。
KaKaClaw要解決的,正是這種割裂。
![]()
按照地平線的定義,KaKaClaw是整車智能體操作系統,核心交互范式是“任務即服務”。
用戶不需要把需求拆成一條條車控指令,而是可以用自然語言直接表達目標,系統再去調度智艙、智駕、車控、地圖和不同技能。
比如,用戶說“我今天有點累,幫我舒服點回家”,傳統車機可能很難判斷該做什么;
而一個車載智能體需要理解這句話背后的真實意圖:它可能意味著更穩妥的駕駛策略、更安靜的音樂、更柔和的空調、更少打擾的路線提醒,以及必要時推薦最近的休息點。
這就是從“執行命令”到“理解任務”的差別。
KaKaClaw還強調三個能力:有性格、記性好、會得多。
![]()
“有性格”,指的是它支持多維度人格設定,可以在“實干派”“知心友人”“全能派”等不同人設之間切換,也支持方言和不同語氣。表面看這是陪伴感,背后其實是車企在嘗試讓座艙AI從工具變成長期相處的對象。
“記性好”,指的是長時序記憶系統。它會持續學習用戶習慣,逐漸知道你常走哪條路、喜歡什么溫度、什么時間更愿意聽播客、孩子上車時通常需要什么內容。智能座艙要想真正主動服務,記憶是前提。沒有記憶,就只能每次重新認識你。
“會得多”,則對應技能體系。KaKaClaw不僅內置多種場景技能,用戶還可以零代碼創建自己的專屬技能,官方和用戶也可以發布、分享技能,系統根據場景自動激活合適的技能組合。
這和“養蝦”的邏輯非常接近。
OpenClaw、Claude Code之所以讓人覺得有用,不只是模型更聰明,而是它能接入工具、遵守規則、調用技能,并在長期使用中形成更順手的工作流。
KaKaClaw把類似的思路搬進車里:車不再只是提供一個語音入口,而是擁有一套圍繞出行場景運行的技能系統。
![]()
當然,車和電腦不同。車載智能體一旦接入車控和智駕,就必須有更強的安全邊界。
因此KaKaClaw也強調Skill生態運行在獨立安全沙箱中,權限調用需要經過策略審核,隱私路由管控對外通道,避免云端模型、車輛控制和第三方API之間出現越權交互。
這其實說明,車載智能體不是簡單把大模型塞進車機,也不是讓車機“更會聊天”。
它更像是把一個有記憶、有技能、有權限邊界的AI助手,嵌入整車操作系統里。
如果說過去車機像一個裝在車里的平板,那么KaKaClaw想表達的是,未來車機會更像一個整車級的AI管家。
![]()
不只是地平線,供應鏈已經開始卷“會干活的車機”
地平線不是孤例。
本屆北京車展上,商湯絕影也發布了面向“艙駕一體全場景智能體”的智能座艙與智能駕駛產品體系。
![]()
它對原有New Member智能座艙產品進行了升級,推出New Member 2.0。
![]()
核心表達很直白:從“會聊天”到“能干活”。
這句話很關鍵。
過去很多智能座艙已經能聊天,能講笑話,能回答百科問題,甚至能做情緒陪伴。
但用戶真正需要的往往不是一個車內聊天對象,而是一個能在具體場景里解決問題的助手。
比如出行前,它能根據歷史偏好、實時路況和目的地信息規劃個性化行程;車上多人同時說話,它能識別不同乘員的需求;車輛、家庭、辦公設備之間,它能完成多端協同任務。
為了支撐這種能力,商湯絕影推出了Sage Box千機智盒,采用“Sage端側大模型+Sage OS千機系統+New Member原生智能體”的三層架構。
![]()
它強調端側部署,試圖解決車載AI的兩個現實問題:響應速度和云端成本。
公開信息顯示,Sage Box希望實現0.5秒級響應,并通過端側計算降低Token成本,單車日均可節省30元云端費用,萬車年省超億元。
這說明車載智能體不是一個只靠概念就能跑起來的東西。它必須面對延遲、成本、車規安全、隱私保護和量產適配。
![]()
火山引擎的路線則更像互聯網大廠把C端AI助手能力帶進汽車。
北京車展首日,火山引擎發布基于Agentic AI架構的新一代汽車AI解決方案,包含AI座艙套件方案和豆包座艙助手方案。
![]()
它提出一個統一的“汽車大腦”,把對話推理引擎、目標驅動引擎、學習成長引擎融入同一套架構。
對話推理解決自然交流,目標驅動負責自主調用車載工具,學習成長則在任務執行中沉淀經驗,形成可復用的Skill。
一個很典型的場景是后排孩子上車。
過去車機最多根據語音指令播放兒歌或動畫片;而Agentic AI想做的是,根據孩子狀態和車端記憶,自主選擇唱歌、放動畫、講故事、做游戲、哄睡等方式,陪伴孩子整個旅途。
![]()
這就是從“響應指令”到“完成目標”的變化。
更重要的是,火山引擎已經有規模化基礎。
公開數據顯示,搭載豆包大模型的智能汽車已超過700萬輛,覆蓋超過50個汽車品牌、145款車型,日均完成超過3000萬次座艙交互和服務閉環。
這意味著,AI座艙并不只是發布會上的Demo。
它已經是一個高頻入口,只是下一步要從“用起來”變成“辦成事”。
![]()
而騰訊給出的答案又不一樣——拼的不只是模型,而是生態。
北京車展前夕,騰訊智慧出行發布了“出行全場景智能體開放平臺”,并展示了7個座艙智能體。這里最值得看的,不是騰訊又做了多少個AI功能,而是它如何把汽車和真實生活服務重新編排。
![]()
比如“隨行點單智能體”。
用戶在通勤路上想買咖啡或餐食,系統可以結合用戶偏好、實時行程和車輛ETA,篩選合適門店,并反向推算出餐時間。理想狀態下,用戶開到門店時,餐品剛好做好,還能關聯車牌送到車邊。領券、下單、支付、取餐都被整合進一條鏈路。
![]()
這聽起來并不是科幻,但它恰恰說明了智能體的價值。
單獨看,導航、點餐、支付、優惠券、車牌識別都不是新東西。但過去這些能力分散在不同App、不同設備、不同流程里。智能體要做的,是把它們組織成一個圍繞用戶目標運轉的服務閉環。
騰訊的優勢也在這里。它有微信、微信支付、騰訊地圖、內容生態和小程序能力。很多公司能做一個聰明的車內助手,但未必能把任務真正執行下去。智能體越往后走,越考驗生態調用能力。
這也是為什么智能座艙的競爭正在從“單點能力”轉向“系統組織能力”。
過去車企比誰屏幕多、誰語音準、誰芯片強;接下來要比的是:誰能把車控、導航、智駕、內容、支付、生活服務、用戶記憶和安全邊界組織成一個真正可用的智能中樞。
![]()
中國智能體正在倒逼全球車企重寫座艙邏輯
智能體上車并不是自主品牌和中國科技公司的自嗨。本屆北京車展前夕,大眾汽車集團發布了“全域智能體AI(Agentic AI for All)”路線圖。
![]()
按照大眾的規劃,今年下半年起,所有基于CEA架構打造的車型都將應用車載AI智能體,并采用本地訓練的大語言模型作為自然語言交互接口。
與傳統被動響應指令的語音助手不同,大眾強調車載AI智能體能夠主動理解用戶需求,通過自然對話完成跨車身操作系統的復雜操作,并根據不同場景作出決策。同時,該系統將完全在車端運行,以保證個人隱私信息不離開車輛。
到2027年,大眾計劃通過CEA 2.0架構,基于更強的中央計算平臺打造“駕艙一體”的統一體驗,并讓服務“AI駕駛”和“AI艙內及云端服務”的多個車載AI智能體協同運行。
![]()
寶馬也在北京車展上展示了類似方向。
寶馬基于阿里AI能力定制的座艙智能體首發亮相,以千問大模型為底座,基于斑馬智能元神AI,推出“用車專家”“出行伙伴”“百科達人”三個專為中國市場定制的AI智能體。BMW iX3長軸距版將成為首款搭載車型,全新BMW 7系也將隨后跟進。
![]()
其中“出行伙伴”的例子很典型。用戶可以說:“幫我找3公里內的商場,配備逸安啟充電樁,最好有評分高、環境好的餐廳,午餐后前往大興機場趕下午4點的航班。”智能體需要拆解出距離、充電、餐飲、評分、環境、航班時間和路線規劃等多重意圖,再一次性輸出方案。
這已經不是傳統車機語音能夠輕松完成的任務。它要求系統理解復雜目標,并調用地圖、POI、充電、餐飲、導航等多種能力。
換句話說,中國市場對智能座艙的要求,正在倒逼跨國車企接受Agentic AI的產品范式。
![]()
華為、中科創達、高通,把智能體推向底層
如果說地平線、商湯、火山、騰訊、大眾、寶馬更多展示的是產品體驗和生態能力,那么華為、中科創達、高通、英偉達等玩家,則把車載智能體繼續往底層推。
華為乾崑在車展前夕發布ADS 5和鴻蒙座艙HarmonySpace 6。
![]()
ADS 5基于WEWA 2.0架構,引入云端Multi-Agent仿真、在線強化學習和車端安全風險場。
鴻蒙座艙HarmonySpace 6則升級MoLA 2.0架構,System Agent升級為千億級端到端大模型,并支持A2A跨域調用。
![]()
全新一代小藝智能體被定義為全場景聊天型AI助理,能夠穿透導航、控車、閑聊等不同場景,完成復雜意圖理解和執行。
![]()
![]()
啟境GT7作為華為乾崑與廣汽合作的高端智能新能源車型,也首發搭載新一代鴻蒙座艙,小藝智能體可以通過語音完成百科查詢、新聞播報、控車、影音娛樂、模糊地點搜索、車機在線點餐等操作。
這背后其實有一個重要變化:智能體不只是一個浮在車機桌面上的應用,它正在進入座艙操作系統和整車智能架構。
![]()
![]()
中科創達發布的AquaClaw就更直接。
4月26日,中科創達宣布推出AquaClaw,這是一個基于NVIDIA NemoClaw參考軟件棧的車載AI智能體操作系統。它被定義為車載多智能體AI系統的核心運行底座,支持實時交互,也支持跨多次駕駛保持連貫的“狀態化智能體”。
![]()
從公開信息看,AquaClaw采用“端側AI+云端協同+安全可控”架構,貫穿底層操作系統、AI運行時和場景適配。
中科創達提供定制化Base OS、本體知識庫和智能汽車技能庫;NVIDIA則提供Agent Toolkit、NemoClaw、OpenShell沙盒、Nemotron模型、TensorRT Edge-LLM推理框架以及DRIVE AGX車端計算平臺。
![]()
高通生態里也出現了更明確的“龍蝦上車”。
北京車展現場,斑馬智能展示了基于驍龍8295的AutoClaw智艙協作服務方案,支持主動交互、端到端語音、自主確認、搜索、外呼和鏈接不同Skill。
![]()
![]()
中科創達的滴水AIOS 2.1也基于OpenClaw架構搭建AquaClaw汽車智能體技術底座,試圖讓智能座艙從“被動響應執行”走向“主動全域智能”。
![]()
所以,龍蝦與汽車的相遇并不是個意外——它不是把一個網絡熱詞硬塞進汽車里面,而是同一種技術范式正在從個人生產力工具擴散到車載操作系統。
電腦上的Agent幫你整理文件、寫代碼、查資料;車里的Agent則要幫你規劃路線、管理座艙、調用服務、協調智駕,甚至在你開口之前提前準備。
頂尖AI人才為什么開始流向汽車?
除了產品和技術,人才流動也在說明問題。
北京車展期間,元戎啟行首次設立“首席科學家”一職,由前DeepSeek多模態核心成員阮翀出任。
![]()
![]()
公開報道顯示,阮翀曾深度參與DeepSeek多模態與大模型相關研發,加入元戎后首次公開亮相,分享了元戎40B參數VLA基座模型。
這個案例很值得我們關注,它說明汽車行業爭奪的人才結構正在變化。
![]()
過去自動駕駛企業最需要的是感知、規控、仿真、地圖等方向的工程人才;現在,具備多模態、大模型、VLA、Agent研發經驗的人,正在成為新的關鍵資源。
元戎啟行的技術路線也很能說明這種變化。
按照阮翀的介紹,過去自動駕駛研發往往依賴多個小模型,各自解決不同問題;現在行業開始向統一基座模型收斂。元戎的40B參數VLA基座模型,可以分化為駕駛模型、分析模型和評估模型:駕駛模型像AI司機,負責開車;分析模型像AI分析員,解釋為什么這么開;評估模型像AI教練,判斷開得好不好。
![]()
這套架構讓研發閉環效率明顯提升。公開信息顯示,元戎單次模型迭代周期從100多個小時縮短到10多個小時,研發提效約10倍;數據閉環也從約5天縮短到約12小時。
更有意思的是,阮翀在談“物理AI”時提到,物理AI最重要的是閉環。狹義上,它要有現實載體,比如車或機械手;廣義上,AI Coding也有類似邏輯,因為代碼寫完后編譯器會給出反饋,告訴你對不對,AI再據此調整。
![]()
![]()
![]()
這句話把“Claude Code”和“自動駕駛”之間的底層邏輯連上了。
無論是電腦里的Agent,還是汽車里的智能體,真正讓它成長的都不是單次問答,而是任務、工具、反饋和迭代。區別只在于,代碼世界的反饋來自編譯器和測試,汽車世界的反饋來自道路、乘員、車輛狀態和真實物理環境。
這也是為什么汽車會成為AI人才的新戰場。
![]()
當通用大模型的邊際收益逐漸遞減,物理世界的復雜性、數據閉環和商業落地,反而變成了更有吸引力的方向。汽車是目前最成熟的大規模物理AI載體之一:它有海量數據,有真實用戶,有明確安全邊界,也有足夠大的商業市場。
龍蝦上車,用戶最終會感受到什么?
說到底,用戶并不關心一輛車到底用了多少個Agent,也不關心系統底層叫KaKaClaw、AquaClaw,還是別的什么名字。
用戶關心的是:
車能不能更懂我?
能不能少讓我操作?
能不能在我需要之前先準備好?
![]()
車載智能體真正落到體驗上,大概會有三層變化。
第一層,是聽懂話。
這不只是識別普通話,而是能理解自然表達、方言、多輪對話、多人指令和模糊需求。你不用再記固定口令,不用說“打開空調,溫度調到24度,打開座椅加熱,導航回家”,而是像跟人說話一樣表達:“有點冷,回家吧,路上找個不堵的路線。”
第二層,是辦成事。
它不只回答你附近有什么餐廳,而是能結合路線、電量、停車、排隊、支付和時間,把整個任務閉環。你說“下午四點趕飛機,路上找個能充電、能吃飯、別繞太遠的地方”,系統就要自動拆成行程規劃、充電篩選、餐廳推薦、時間控制和導航執行。
第三層,是提前準備。
這才是智能體和語音助手真正拉開差距的地方。
比如它知道你最近經常加班,晚上上車時自動調暗屏幕、打開座椅加熱、推薦更安靜的音樂;它識別到孩子上車,自動切換兒童內容、鎖定后排車窗、調整空調風量;它發現你明天一早有航班,而車輛電量不足,就提前提醒你是否順路補能;長途駕駛時,如果艙內攝像頭和傳感器識別到疲勞狀態,它不只是提醒“請注意休息”,還可以讓智駕策略更保守、調低空調溫度、播放提神內容,并推薦最近服務區。
這不是車機“更會聊天”,而是車開始具備一種圍繞人運轉的主動服務能力。
![]()
當然,智能體上車也不能被寫成一場沒有阻力的技術童話。
汽車和手機、電腦不同。車載智能體控制的是真實車輛,面對的是高速移動、復雜交通和生命安全。它不能像普通聊天機器人一樣隨便試錯,也不能因為“理解錯了”就貿然執行。
所以,安全、隱私、低延遲、成本和責任邊界,會成為車載智能體真正落地的五道門檻。
地平線強調Skill生態運行在獨立安全沙箱,隱私路由管控所有對外通道;大眾強調車載AI智能體完全在車端運行,保證用戶隱私不離開車輛;華為乾崑強調確定性調度、零信任安全模型和全維冗余;中科創達和NVIDIA也把沙盒、邊緣推理、安全可控作為AquaClaw的重要架構。
![]()
這些并不是發布會上的附屬信息,而是車載Agent能否規模化的前提。
另一個現實問題是艙駕一體并不容易。
行業里已經討論了很多年,但真正打通座艙和智駕,需要解決模型頻率、算力分配、安全隔離、成本收益和責任劃分。智駕模型需要高頻推理,座艙模型則更偏語義理解和服務編排,二者強行融合可能帶來算力冗余,也可能增加系統復雜度。
所以,短期內所謂“艙駕一體”,更可能先體現在體驗層和任務層:座艙理解用戶意圖,智駕系統承擔駕駛執行,二者通過安全邊界和標準接口協同,而不是簡單合成一個模型。
這也意味著,誰能在安全邊界內把任務鏈路做順,誰才真正有機會贏得用戶。
![]()
寫在最后:北京車展之后,車機要換一種競爭方式了
2026北京車展的智能化敘事很多。
有人看到了L3級自動駕駛的臨近,有人看到了芯片算力繼續上探,有人看到了大模型批量上車,也有人看到了合資品牌加速本土化反攻。
但如果從智能座艙這條線看,一個更值得記住的變化是:
汽車正在從“智能終端”走向“移動智能體”。
過去,車機的價值是把功能搬上車。導航、音樂、視頻、語音、應用生態,都是在回答“車里能不能用”。
現在,車機開始回答另一個問題:它能不能像一個懂你的助手一樣,把這些功能組織起來,替你完成一個真實目標。
這就是從“大模型上車”到“智能體上車”的區別。
大模型上車,讓車機更會說話;智能體上車,則讓車機開始學會干活。
從OpenClaw、Hermes、Claude Code帶來的“全民養蝦”,到地平線KaKaClaw、商湯New Member、火山豆包、騰訊出行智能體、華為小藝、中科創達AquaClaw這些北京車展案例,背后其實是同一條技術潮流:AI正在從回答問題,走向執行任務;從數字世界,走向物理世界;從桌面上的助手,走向車里的伙伴。
這對汽車行業的意義,不只是多了一個新賣點。
它意味著智能座艙的競爭方式要變了。
![]()
以后用戶評價一套車機,可能不再只是“流不流暢”“屏幕大不大”“語音準不準”,而是會問:
它懂不懂我的習慣?
能不能把復雜需求一次辦完?
會不會越用越懂我?能不能在安全邊界內提前替我準備?
如果答案是肯定的,那么車機才真正從工具變成了助手。
而北京車展之后,這場變化已經開始了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.