奔馳也用端到端,衝進智駕第一梯隊?

2024-11-06 18:42:44    編輯: robot
導讀 2023年之前,梅賽德斯-奔馳下放的輔助駕駛技術,能做到不止自適應巡航、車道居中保持等常規功能;2023年之後,全新E級長軸距版用上了高速領航輔助系統,打通這項功能奔馳用了12個月;到了2024年1...

2023年之前,梅賽德斯-奔馳下放的輔助駕駛技術,能做到不止自適應巡航、車道居中保持等常規功能;2023年之後,全新E級長軸距版用上了高速領航輔助系統,打通這項功能奔馳用了12個月;到了2024年11月初,無圖L2++智駕系統問世,明年4月份會隨着CLA純電量產落地,而這次用了14個月。不出意外,差不多在半年後,奔馳會是第一個用上端到端智駕的豪華品牌,也是繼小鵬、極越和華爲之後,國內第四個採用攝像頭+多傳感器視覺方案的智駕方案,我們更感興趣的是,奔馳用上端到端之後,效果究竟怎么樣?和目前比較主流的華爲乾崑智駕ADS 3.0、理想和小米的E2E+VLM和小鵬AI鷹眼方案比起來,大概是什么水平?

接管率比小米低,但舒適性細節仍需優化?

奔馳的無圖L2++全場景高階智能駕駛,底層邏輯是把BEV+transformer架構整合成了一個端到端AI大模型,主要變化是具備深度學習的功能,當然了,由於端到端是把以往感知端、決策端和執行端這三個獨立的黑盒子融合在了一起,數據傳輸的速度肯定也變得更快了,話句話說,端到端這套系統需要大量數據分析學習,從而不斷優化決策,理論上講,就是跑的越多,系統就越接近人類駕駛員的駕駛習慣和風格。

這套系統的核心,是去掉了激光雷達,也不依賴高精地圖,走的是攝像頭+多傳感器的技術方案,那該怎么理解奔馳的這套智駕系統呢?其實,端到端的思路到現在基本已經非常明確了,所謂的多傳感器(含激光雷達)還是純視覺技術方案,只是車企在數據感知端的硬件選擇不同,無論是華爲、理想、小鵬還是小米,他們的自動駕駛功能下一步要實現的階段,就是做到類似特斯拉FSD的One Model形態,也就是用一個模型完成所有的感知、決策和執行,所以說白了端到端就是用大量的實測數據,去教會大模型如何安全駕駛。

那么,從BEV+transformer架構升級成端到端之後,奔馳的這套L2++系統好用嗎?從今年8月初國內首次开啓路測,到現在已經過去了差不多3個月,基本的城市NOA功能都可以實現,比如起步就能用,主輔路切換、進出環島、U型調頭、識別紅綠燈、避讓行人和自行車、無保護轉彎、旁車博弈等等,基本覆蓋了華爲乾崑智駕ADS 3.0的智駕功能。

开啓城市NOA之後,整套系統在城市道路中的駕駛風格,並沒有刻意選擇保守或者激進,比如在窄路面對同向行駛的非機動車,或者臨停佔道的機動車,系統的策略是進行合理避讓,在安全距離內基本沒有多余的避讓動作,幾乎是貼着障礙物通過,而小米SU7前不久在OTA1.4.0之後,同向避讓的邏輯層面就存在停車等待或者主動降級問題,相比之下奔馳的這套系統明顯是要更激進一些,而在面對錯位路口,尤其是由於施工造成地面標线混亂的情況下,系統的決策就會變得偏保守,以禮讓作爲優先考慮,但基本的通行效率還是有一定的保證。

值得一提的是,奔馳這次的測試車全程幾乎沒有幾次接管的情況,之前雷軍本人在北京親自測試小米SU7城市NOA時,將近50公裏出現了4次接管,而奔馳這邊唯獨出現的一次接管,是因爲社會車輛突然加速加塞搶道,出於安全考慮駕駛員主動接管幹預,多打半圈方向避开了被剮蹭風險,這類相對的極限場景其實考驗了兩件事,一個是系統會不會和駕駛員搶方向盤,另一個是超過安全距離系統是否會降級,從實際情況來看,當人工介入且接管力度較大時,整套系統的控車力度明顯是有所減弱的,人駕和智駕之間的過渡相對絲滑。

但是,這套系統要說細節上擬人、舒適,其實也並非全部工況都能實現,比如當識別到路口由綠燈轉爲黃燈閃爍時,系統會綜合前後車距、到路口的距離、加減速的乘坐舒適性等因素,優先選擇不闖黃燈的策略,避免因路口搶行造成的交通事故隱患,不過從實際場景來看,這裏會出現一個特殊的情況,會導致車輛並不是每次都能溫柔剎停,比如當綠燈即將結束,前車緊急制動,而系統按照設定,路口會綜合跟車距離、信號燈指令作出判斷,所以在還未出現黃燈前車就制動的情況下,系統同樣會大腳制動,此時明顯影響到駕乘舒適性。

同樣,在處理鬼探頭的情況時,系統的執行邏輯不是減速繞行,而是以緊急制動爲主,通過實測片段就可以清楚看到,制動下前懸彈簧行程被大量壓縮,剎車點頭情況明顯,如此一來,有關奔馳的這套端到端智駕效果,基本可以出一波結論了,接管率比現階段的小米更低,市區復雜路口通行效率有保證,但是在舒適性細節仍有一些優化的空間,當然了,這個問題解決起來並不難,畢竟端到端的數據迭代速度已經可以實現周更級,所以關於這套智駕系統的舒適性的表現,我們可以期待一下後續版本的表現。

擺脫高精地圖後,水平能排智駕第一梯隊?

奔馳用的這套端到端智駕系統,其實就是Momenta提供的技術方案,但是研發調教都是奔馳自己團隊完成的,從硬件水平來看,除了沒有用到激光雷達之外,芯片用到了英偉達orin Drive,單顆算力254TOPS,小米汽車和理想汽車用的也是這款芯片,不過,在外部感知硬件的性能上,可能會產生些區別,比如,小鵬在AI鷹眼智駕搭載了Lofic攝像頭,可以識別大光比場景,小米則通過BEV變焦技術,可以更好的掌握探測精度,不過結合前面提到的整體效果來看,奔馳的端到端智駕表現,基本上都能實現華爲乾崑智駕ADS 3.0的大多數功能,所以從某種程度上講,這套系統的水平幾乎是在智駕第一梯隊的。

目前比較主流的幾個智駕代表性方案,是華爲的乾崑智駕ADS 3.0、小米汽車和理想汽車的E2E+VLM,小鵬的XNGP在全面切換到AI純視覺路线之後,還需要大量的數據訓練,所以參考價值比較高的,還是華爲和理想採用的這兩類技術,那么,奔馳端到端和他們比,有多少差距呢?

先來簡單復盤一下這兩條技術方案,首先,華爲在ADS前兩個版本中,一直是把BEV網絡單獨拿出的,而進化到3.0版本之後,BEV網絡被融到了GOD網絡之中,同時把負責決策規劃的PDP網絡也加了進去,形成了GOD一張大網的概念,這個邏輯其實就是和前面提到的特斯拉one model形態類似,只不過在硬件感知端,需要一顆192线束的激光雷達做實時掃圖,這也是這套系統的立足根本,4D毫米波雷達通過強回波來構建三維立體數據,所以在數據層面,這兩套硬件基本不會出現錯判或漏判,小體積和不規則障礙物也能准確捕捉到,PDP網絡算是針對無數未知case場景的兜底安全機制,總之,這套系統基本是非常靠近未來L3級的技術了。

其次,小米和理想用的E2E+VLM,本質上還是需要BEV給障礙物作數據立體坐標,大模型經過訓練給出相應的處理決策,VLM主要是用來分析復雜場景,這也可以把E2E和VLM看作成一套快系統和一套慢系統,和小米汽車稍有不同的是,理想還用上一個叫雲端世界的模型,這其實就是一套復雜記錄並分析黑盒子場景的數據庫,經過無數條未知場景的構建分析後,再把自主訓練後的數據傳給大模型,從某種程度上講,這個和華爲的PDP網絡作用有些類似,都是兜底安全的機制。

對比下來,奔馳的端到端智駕,就沒有前面提到的PDP和雲端世界模型了,兜底安全機制的反而是傳統的規則算法,這個該怎么理解?舉個最簡單的例子,在關於智能機器人的電影中,機器人經過大量數據分析和自我學習,甚至都進化到了具備像人類的“意識形態”,但是最底層的規則算法,是一串“不能傷害人類”的代碼,如此一來,奔馳的這套智駕系統,在遇到從未見過的未知復雜場景時,很有可能就會出現BEV+transformer+佔用網絡的早期智駕效果,也就是出於安全的第一性考慮,主動降級、通行效率變低這類問題都可能會出現,解決的辦法只有達到一定的數據量和訓練學習,所以針對未知的復雜場景,華爲、理想這類有雲端數據庫的智駕方案,迭代能力和周期可能會更強更快一些。

作者丨張衛東

       原文標題 : 奔馳也用端到端,衝進智駕第一梯隊?



標題:奔馳也用端到端,衝進智駕第一梯隊?

地址:https://www.utechfun.com/post/442156.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡