文 | 極智 GeeTech
任何一項技術在誕生伊始,圍繞發(fā)展路線的爭論總是伴隨左右,智能輔助駕駛技術也不例外。
該選擇從 L2 到 L4 級的漸進式發(fā)展,還是直達 L4 終點的跨越式發(fā)展?是追隨純視覺技術路線的極致簡化,還是堅守多傳感器融合的冗余安全?行業(yè)標準的統(tǒng)一化與車企定制化如何平衡?垂直整合與開放聯(lián)盟的博弈將走向何方?
這些懸而未決的命題,恰恰證明了技術創(chuàng)新的旺盛生命力。在持續(xù)探索與實踐驗證中,智能輔助駕駛的未來演進圖譜正逐漸清晰。
三級架構下的算力躍升
過去十年,智能輔助駕駛系統(tǒng)的算力實現了從量變到質變的跨越,其核心支撐在于 " 云端訓練 - 邊緣推理 - 車端執(zhí)行 " 三級架構的深度落地。通過將計算負荷從資源受限的車端向云端遷移,釋放出指數級增長的算力潛能。
云端作為智能輔助駕駛的 " 超級大腦 ",已成為模型訓練、數據閉環(huán)與算法迭代的核心載體。在端到端模型訓練與 Corner Case 場景挖掘領域,云端算力的規(guī)模直接決定了智能輔助駕駛系統(tǒng)的進化速度。
全球范圍內,特斯拉云端算力已突破 88.5EFLOPS;國內陣營中,吉利星睿智算中心以 23.5EFLOPS 領跑,華為突破 10EFLOPS,理想與小米均達 8.1EFLOPS,小鵬則計劃于 2025 年將云端算力從 2.51 EFLOPS 躍升至 10EFLOPS,構建更強大的訓練基座。
車端作為實時決策的 " 邊緣終端 ",算力正以指數級增速向千 TOPS 級別發(fā)起沖擊。L2 級任務如自動泊車、城市 NOA 需數十至數百 TOPS 支撐,而 L3 及以上級別則需突破 1000TOPS 門檻,以滿足端到端模型實時推理需求。
當前芯片矩陣中,英偉達 Thor-X-Super 芯片蓄勢待發(fā),2000TOPS 算力將重塑性能標桿;蔚來 NX9031 已實現 1000TOPS 算力突破,小鵬圖靈芯片以 750TOPS 緊隨其后,華為昇騰 910 與地平線 J6P 則分別以 512TOPS、560TOPS 構筑中端算力壁壘。
在熱門的智能輔助駕駛方案中,蔚來 NIO Pilot 的車端算力達到 1016TOPS;特斯拉 FSD 以 720TOPS 的算力緊隨其后;小鵬 XNGP、理想 AD PRO、小米 Xiaomi Pilot Max、比亞迪天神之眼 A 和極氪千里浩瀚 H7 則實力相當,均為 508TOPS;與之相比,華為 ADS3.0 的車端算力稍顯遜色,約為 200TOPS。
邊緣算力作為車云協(xié)同的 " 神經節(jié)點 ",承擔著車端、路側與云端數據的實時協(xié)同重任,其標準化進程直接影響 L3 級以上智能駕駛的落地效率。通過提升局部環(huán)境感知精度與交通優(yōu)化響應速度,邊緣算力正成為高階智能駕駛不可或缺的技術基座。
高階智能輔助駕駛邁向 " 技術平權 "
中國智能輔助駕駛正沿著場景復雜度梯度持續(xù)突破:從高速 NOA 在結構化道路實現自動變道、匝道通行等基礎功能,到城市 NOA 攻克紅綠燈識別、無保護左轉等城市復雜場景,最終將實現全場景車位到車位(Door to Door,D2D)貫通,構建 " 地庫 - 城區(qū) - 高速 " 全鏈路智能駕駛體系,并融合自動充電、跨樓層泊車等終極場景。
這一演進軌跡不僅標志著技術范式從 " 規(guī)則驅動 " 向 " 數據驅動 " 的根本轉變,更意味著高階智能駕駛從 " 特定場景輔助 " 向 " 全旅程智能賦能 " 的價值躍升,其核心驅動力源于算法、數據、算力的三元協(xié)同突破。
算力端通過三級架構實現量級躍遷,數據端依托真實與合成數據雙輪驅動突破長尾場景瓶頸,算法端從 " 規(guī)則引擎 + 模塊堆疊 " 向 " 數據引擎 + 端到端集成 " 進化,完成 " 感知 - 決策 - 控制 " 全鏈路優(yōu)化。
2025 年,高階智能駕駛的 " 科技平權 " 趨勢顯著提速。比亞迪將高速 NOA 功能下探至 8 萬元車型,小鵬城市 NOA 覆蓋至 15 萬元級市場,其余主流車企也將城市 NOA 功能下沉至 10-20 萬元車型,高階智能輔助駕駛的科技平權愈發(fā)顯露。
高階智能輔助駕駛科技平權的實現是軟件增效、硬件降本、規(guī)模擴產三力共振的結果。在科技平權的推動下,L2 及 L2+ 高階智能輔助駕駛的市場規(guī)模與滲透率呈現爆發(fā)式增長,預計 L2+ 滲透率將從 2024 年的 8% 躍升至 2025 年的 15%,乘用車高階智駕市場正迎來爆發(fā)式增長周期。
數據閉環(huán)助推技術應用 " 降本 "
當前,智駕輔助駕駛系統(tǒng)正經歷從 " 硬件冗余堆砌 " 到 " 算法定義感知 " 的范式轉換,數據閉環(huán)生態(tài)成為這一變革的核心載體。從車端多模態(tài)傳感器被激活進行采集開始,整臺 " 數據機器 " 的齒輪便開始轉動、嚙合、協(xié)同運作。
當數據被傳輸到邊端后,規(guī)則引擎和輕量化模型會根據不同精度做出篩選,最終獲得與智駕相關的高價值數據。根據算法,此類數據經過壓縮與優(yōu)化得到分級存儲,并根據緊急度被歸入不同優(yōu)先級的上傳隊列。在此過程中,數據還將經過脫敏處理,傳輸過程也將得到監(jiān)控,以達到最高的合規(guī)性和安全性。
最終,數據閉環(huán)將在云端形成。在這里,從邊端傳入的多源數據將完成入庫、標簽及索引建立的步驟,并根據聚類算法實現自動化清洗,剔除沖突數據。
接下來,4D 標注工具鏈和數據合成工具將令保留下來的有效數據得到標注和增強;此后,經過分布式模型訓練、仿真驗證與部署、價值評估和合規(guī)審計等環(huán)節(jié),數據將正式完成閉環(huán)反饋與迭代。
隨著邊緣與云端算力的持續(xù)增強,現實數據與合成數據的深度融合成為突破高階自動駕駛的關鍵路徑。動態(tài)數據蒸餾技術與多模態(tài)特征對齊算法的成熟,正逐步降低系統(tǒng)對硬件冗余的依賴,場景泛化能力隨之顯著提升。
定位技術也在同步演進,從依賴激光雷達點云匹配與高精地圖的傳統(tǒng)模式,邁向無圖化與端到端模型新階段。
通過多攝像頭融合生成鳥瞰圖替代預置高精地圖,地圖維護成本大幅降低;車端海量數據構建的云端仿真環(huán)境,持續(xù)強化模型對動態(tài)場景的泛化能力;視覺感知權重的提升,進一步弱化了對激光雷達等高成本硬件的依賴。
長遠來看,無圖化與端到端模型僅是過渡形態(tài)。當車路云協(xié)同與自進化學習成為技術核心,芯片級集成實現突破后,基于泛在智能(Ambient Intelligence)與生成式 AI 的全域動態(tài)定位將成為終極形態(tài)。
從 " 模塊化 " 到 " 端到端 " 的躍遷
智能駕駛算法正經歷從模塊化堆疊到端到端集成的革命性演進,架構創(chuàng)新成為技術突破的核心引擎。
端到端(end to end,E2E)架構依托單一神經網絡實現 " 感知 - 決策 - 控制 " 全流程運算,直接輸出車輛控制指令。其無需人工規(guī)則干預,通過海量數據訓練可逼近人類直覺式決策,響應效率與復雜工況適應性顯著提升,但系統(tǒng)泛化能力受限于車企數據規(guī)模的閾值。
為突破這一局限,視覺 - 語言模型(VLM)作為增強模塊應運而生,其融合視覺感知與自然語言理解能力,解析復雜交通語義并通過鏈式推理生成決策,與端到端架構形成 " 快慢協(xié)同 " 的決策組合系統(tǒng),提升長尾場景與 Corner Case 的安全性。
但 VLM 對算力的消耗較大,且無法快速做出類似端到端那樣的直覺式響應。此外,對于高精地圖的高度依賴也增加了維護成本,同時令泛化能力出現折損。
為此,智駕算法開發(fā)者在由 "VLM+ 端到端 " 構成的多段式端到端架構上更進一步,設計出一套性能更強的技術組合——視覺 - 語言 - 動作模型(Vision-Language-Action,VLA)。
VLA 在 VLM 基礎上實現進階,融合動作模態(tài)構建 " 視覺 - 語言 - 動作 " 統(tǒng)一模型,完成 " 感知 - 決策 - 執(zhí)行 " 端到端閉環(huán)。
尤為重要的是,其推理過程全程可求導,可通過人機交互界面向用戶直觀展現推理過程和工作邏輯,增強用戶使用信心。
同時,此類架構數據需求及采集成本高,導致初期訓練成本過高,且多模態(tài)感知對力反饋、物理交互等具身能力的支持不足。
此外,計算實時性要求與當前車域芯片算力存在矛盾,而黑箱決策風險則降低了決策的可解釋性,增加調試難度等等。
因此,在 VLA 的研發(fā)門檻與落地成本得到有效控制前,"VLM+E2E" 構成的多段式端到端架構仍是更具普惠性的主流選擇。
世界模型或成 " 類人智駕 " 引擎
在很大程度上,更先進的云端算法將有助降低車端 VLA 架構的訓練難度,快速增強其泛化能力。而眼下,云端算法自身也在經歷重大的技術革新。
從數據驅動的模仿學習,到具備物理世界建模能力的生成式世界模型,云端算法發(fā)展的底層邏輯非常清晰:基于生成式 AI 技術,通過合成虛擬場景構建億公里級的里程閉環(huán)仿真系統(tǒng)。后者不僅包含出現在現實世界中的長尾場景,還能借助時空演化預測能力,模擬車輛在未知場景中(如極端天氣、交通事故等),由特定動作引發(fā)的環(huán)境變化。
此舉將大幅降低算法模型訓練過程中,對現實世界駕駛數據的依賴,并且可在持續(xù)生成多模態(tài)訓練數據的同時,融合增強型自學習機制,對駕駛策略做出以類人化為目標的終極優(yōu)化。
另一方面,不斷進化的車云協(xié)同蒸餾機制將有效提升車端 VLA 算法架構的泛化能力,而從車端回流的實時數據則能反哺云端模型,助其合成長尾場景,驅動完成迭代,最終形成雙向增強的認知進化閉環(huán)。
更加不能忽視的一點是,云端世界模型高度整合了傳感器數據、交通規(guī)則、實踐經驗等智駕要素,因此其本質是一個能夠理解、推理和預測駕駛環(huán)境的 AI 框架。
伴隨其在感知與決策優(yōu)化方面的優(yōu)勢,云端世界模型可提供語義信息以提升智駕系統(tǒng)的環(huán)境識別能力,并預測周圍交通參與者的行為意圖,對決策規(guī)劃和車輛控制起到輔助作用。甚至在一定程度上,其出現有望取代車端的視覺語言模型,用云端算力幫助車端形成具有更高精度的場景推理能力。
目前,已有不少行業(yè)玩家開始在云端算力層面發(fā)力。例如,華為 ADS 4.0 公開宣稱其通過云端完成了高達 6 億公里的 L3 級智能輔助駕駛仿真驗證;小鵬汽車則披露了他們通過蒸餾壓縮云端模型參數,實現輕量化車端部署的計劃。
此外,類似 Momenta、地平線這樣的第三方智駕解決方案供應商也已將世界模型與強化學習(Reinforcement Learning)相結合,對獎勵函數(Reward Function)設計做出優(yōu)化,令決策效率得到顯著提升。
盡管世界模型已逐步成為智駕系統(tǒng)云端算法的重要發(fā)展趨勢,但其對于數據質量、多樣性以及車端實時算力的要求依然較高。此外,基于物理規(guī)則的三維建模能力,也將對其規(guī)模化商業(yè)應用構成挑戰(zhàn)。
2025 年全場景 D2D 功能的規(guī)模化落地,以及年底至 2026 年即將量產上車的 L3 功能,促使智能輔助駕駛第三方供應商、激光雷達廠商、線控企業(yè)、智能輔助駕駛圖商、數據標注與仿真企業(yè)等愈發(fā)成為主機廠提升功能安全的關鍵生態(tài)伙伴。同時,全場景 D2D 功能帶來復雜的應用場景,也使智能輔助駕駛芯片供應商更加注重感知算法的業(yè)務布局。
隨著智能輔助駕駛功能的不斷發(fā)展,參與企業(yè)的市場競爭正在 " 縮圈 ",未來市場集中度也將進一步提升,能夠快速響應主機廠需求以及具有 AI 能力的企業(yè)將脫穎而出。
當 L3 之門正式開啟,我們看到的或許不只是方向盤短暫的 " 松手 ",更是一場關于 " 智能邊界 " 的終極叩問。
三級算力架構重構了機器的思考速度,數據閉環(huán)消解了技術落地的成本壁壘,VLA 與世界模型讓算法越來越接近人類的認知邏輯。可當智能輔助駕駛能處理 99.99% 的場景,那 0.01% 的未知該交給代碼還是人心?
或許,智能輔助駕駛的新十年,真正的考題從不在技術參數的小數點后幾位,而在每一次代碼迭代時,我們是否記得,讓機器學會駕駛的,從來不只是數據與算力,更是人類對于駕駛和出行最本真的期待——不是抵達終點的效率,而是路上每一刻的從容與安心。
在這扇 L3 的門后,藏著的從來不是技術的終點,而是人類學會如何與智能共處的新起點。