![]()
![]()
AI上車的大潮中,智能座艙的進度要領先智駕;理解車里的人,比理解車外無法窮盡的物理世界更容易
文|《財經》研究員 尹路
編輯|黃凱茜
2026年4月的北京車展,“AI上車”大潮空前,技術發布密集,汽車行業已從“軟件定義汽車”全面步入“AI定義汽車”的階段。
然而,AI能力上車在智能座艙和智能駕駛兩個領域出現了差異性分化,座艙推出的AI新功能、新服務及其帶來的用戶感知度,比智能駕駛領域更加立竿見影。
在智能駕駛端,幾年前行業從基于規則,向基于數據驅動的技術躍升時,曾顯著改善用戶體驗,可理解為是一次從50分到80分的質變,相比之下,本輪AI大模型上車尚未帶來同等幅度的質變。
引入云端多智能體博弈機制與超高算力,使智駕系統在數據表現上再次取得了長足進步,在處理復雜博弈、避讓等場景時更加絲滑且“擬人”。但對于終端消費者而言,由底層百億、千億參數量增長帶來的能力,體驗層面改進的邊際效益正在遞減。智駕的體驗提升更像是從80分到90分,而攻克這10分或實現另一個30分的跨越要耗費更多資源。此外,在面對不可預知的長尾場景時,AI體驗的提升仍然需要長期的打磨與積淀。
反觀智能座艙,AI上車后已發生體驗的質變。座艙不再僅僅是掛在車上的“大平板”,或被動的語音指令接收器,而是已具備全場景跨域交互能力的移動智能終端。交互邏輯從“你說我做”的單向指令式,變為基于場景感知的主動推薦與任務執行,底層技術與情緒價值的結合也創造了新的商業轉化潛力。
![]()
理解車里的人,比理解物理世界更容易
智能駕駛的重點和難點在于如何理解及應對物理世界,而智能座艙則在于理解人的需求。
智能駕駛的本質,是一個涉及物理學、幾何學、動力學以及復雜人類行為學的綜合博弈系統。盡管當前的AI大模型已大幅增強了車輛對外部環境的感知與預測能力,但物理世界具有兩個關鍵特征:不可窮盡性和極高的試錯成本。
在實際道路中,路況、天氣、行人的非理性行為以及各類異形障礙物的組合幾乎是無限的。即便通過云端世界模型模擬出海量的極端場景數據,AI依然面臨著“長尾效應”的約束。
當前的大語言模型或VLA(視覺-語言-動作)模型本質上仍是基于概率的生成式系統,而駕駛要求的是更高程度的確定性。大模型的“幻覺”問題,一旦發生在智能駕駛決策中,代價就是安全風險。
這就是為什么即使企業投入百億元研發、應用里程突破百億公里、事故率遠低于人類駕駛員,但哪怕還有最后0.1%的長尾問題未被徹底解決,智能駕駛就很難完成從“好用”到“完全放心”的跨越。
與寬闊的物理世界相比,人類的需求在特定封閉場景(如車內)是相對具體、有限且具備高容錯率的。
在文本理解、意圖拆解、多輪對話、邏輯推理方面,現有的AI大模型已達到甚至超越了人類水平。更重要的是,座艙服務的容錯率較高。如果AI推薦了一首不合時宜的歌,或導航找錯了餐廳,用戶只需口頭糾正或手動取消。這只會帶來輕微的體驗折損,并不會引發安全事故。這也是企業能在座艙領域大膽試錯、激進應用最新AI技術的前提,并大幅縮短了技術推向市場并完成迭代的周期。
![]()
智能座艙的三大進化趨勢
基于對人的深刻理解,AI智能座艙正在重構交互邏輯與硬件形態,不再是簡單的功能堆砌。從近期的行業新技術發布中,可以看到智能座艙應用的三大進化趨勢。
從語音助手到全場景跨域智能體
傳統的車載語音系統,本質上是缺乏跨應用協同與長時記憶的“語音遙控器”。當前,行業正普遍向Agentic AI(智能體AI)演進。以鴻蒙智能座艙全新一代小藝智能體為代表的系統,正在重新定義智能助手這一座艙交互中樞。
通過引入具備龐大參數量的中心智能體作為“大腦”,并輔以導航、控車、娛樂等垂直領域的智能體作為“小腦”,這種架構帶來了三個改變:
一是跨域交互與任務編排。面對復雜的模糊意圖,系統“大腦”負責理解并分發任務,各“小腦”協同執行。同時,借助圖形界面智能體模擬點擊操作,AI還能夠控制尚未開放底層接口的第三方應用,從根本上打破應用之間的圍墻。
二是長時記憶與主動響應。智能體具備了長時記憶能力,當系統捕捉到用戶連續多日在特定時間開啟座椅加熱或播放特定內容,便會主動將這些服務編排進場景模式并適時推薦,實現從“人找服務”到“服務找人”的轉換。
三是不同智能體的深層協同。座艙智能體系統與帶有智能體能力的第三方應用深度對接。以視頻應用為例,AI不僅能控制播放進度,還能進行劇情推理互動,基于特定情節的高級搜索,甚至聯動車內氛圍燈與香氛系統,實現多模態的沉浸式體驗。
座艙硬件被AI重新定義
AI能力高度依賴輸入端的數據質量,在智能駕駛靠傳感器識別車外物理世界的同時,艙內感知系統也在加速重構。
以鴻蒙HarmonySpace 6的AI多模態感知系統為代表的新型座艙硬件正在逐步裝車。通過融合高清攝像頭、紅外攝像頭以及雷達等高精度傳感技術,結合AI視覺與生命體征算法,新的座艙硬件大幅提升了艙內識別能力。
過去車輛只能依靠攝像頭和座椅重量傳感器來判斷哪個座椅上有人,而現在的系統能更立體且精準定位艙內人員位置和人員身份。在暗光或嚴重遮擋的情況下,甚至能通過紅外攝像頭或雷達穿透座椅等遮擋物,探測到寵物、兒童等容易藏進后排盲區的對象,大幅提升安全防護可靠性。
多模態硬件還具備在復雜光線下進行手勢捕捉與動作預判能力。例如揮手拒接電話、遠距離指向特定區域(如指定車窗)實現控制,或在預判兒童將頭、手伸出窗外等危險動作時提前干預。
情緒價值帶來高溢價
座艙領域利用成熟技術與具身智能理念提供情緒價值,已展現出商業潛力。
以鴻蒙座艙生態內的“哈蒙蒙”AI實體陪伴機器人為例,其未必是硬核科技角度的突破性創新,但在產品定義上卻能切中用戶的使用場景與情感需求。這類AI玩偶既有實體形態,還能跟隨車輛動態做出暈車、興奮等情緒反饋;它們可以作為背包掛件、冰箱貼或桌面擺件,打破了車內空間的局限。
![]()
鴻蒙座艙AI陪伴機器人“HAMOMO哈蒙蒙”
這種跨場景的長時間陪伴,正在成為人車互動的延伸。AI玩偶可以在離車狀態下繼續收集并學習用戶的行為偏好與情緒狀態,當用戶回到車上,玩偶能迅速同步車端和云端數據。這相當于為座艙系統提供了一個全天候的數據觸角,更全面地感知并響應車上人員的需求。
無論是跨域智能體、多模態感知硬件還是情緒交互,AI重構座艙體驗的過程,都繞不開一個非常關鍵卻常被忽視的技術門檻,即智能體的“冷啟動”。
再強大的AI智能體在出廠時都是一張白紙,需要用戶從零開始“投喂”數據,實際體驗煩瑣。破解的關鍵在于打破單車數據孤島,基于移動生態互聯的數據共享,通過打通賬號體系,在用戶第一次登錄智能座艙時,將其他智能終端和軟件服務中沉淀的歷史行為、內容偏好和生物特征等數據,對車上智能體進行“冷啟動”。
因此,在AI全面上車的時代,座艙競爭不再是單車算力或單一功能。同時擁有軟、硬件系統開發能力,并已經構建跨終端數據、內容與服務生態的企業,可以憑借海量用戶數據積累形成先發優勢。
![]()
責編 | 陳湘
題圖來源 | 視覺中國
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.