激光雷達如何加速城市 NOA 落地?我們這次展開聊聊
激光雷達如何加速城市 NOA 落地?我們這次展開聊聊
2023 年 11 月 4 號,“激光雷達助力城市 NOA 駛入量產快車道”技術分享會在禾賽麥克斯韋智造中心舉辦。禾賽戰(zhàn)略負責人施葉舟、輕舟智航產品負責人許諾,與行業(yè)媒體專家、先鋒用戶等,一起就激光雷達如何加速賦能城市 NOA 功能落地進行了深入交流。
激光雷達:
車企競逐城市 NOA 的
“秘密武器”
——by 禾賽戰(zhàn)略負責人施葉舟
激光雷達成為車企落地高階智駕功能的必選項
據(jù)近期媒體報道,熱門車型的高階智駕版選裝率已經突破了 60% 的占比,消費者對智能駕駛功能的認可和熱情持續(xù)高漲。主機廠方面,國內率先落地城市 NOA 的智能車型均搭載了激光雷達;海外布局 L3 智駕功能的頭部車企也都配備了激光雷達。
率先在美國獲得 L3 級智能駕駛運營許可的梅賽德斯-奔馳官方表示:奔馳的 DRIVE PILOT 搭載包含激光雷達在內的多個傳感器,足夠的安全冗余對實現(xiàn)安全可靠的 L3 級別智能駕駛是必不可少的。其 2024 年款 S 級和 EQS 轎車車型將會搭載此智駕系統(tǒng)。1
本質上,是激光雷達具有「抗干擾」「真三維」「高置信度」的優(yōu)勢,能為算法預測和規(guī)控提供高質量的感知輸入。
激光雷達既是智能汽車的「隱形安全氣囊」,更是加速算法開發(fā)落地的「秘密武器」。
MIT:激光雷達夜間融合感知精度是攝像頭的 3 倍
工作原理上,激光雷達能主動發(fā)射人眼安全的不可見光,可以“自己照亮道路”,不依賴外界環(huán)境光,在視線較差的夜晚,也能清晰地還原行車環(huán)境,穩(wěn)定地為算法提供感知數(shù)據(jù)。
在一項 MIT 的研究論文中,作者對比基于攝像頭數(shù)據(jù)的算法和融合了激光雷達數(shù)據(jù)的算法結果發(fā)現(xiàn):攝像頭算法到了夜晚感知精度有明顯的下降,而通過融合激光雷達,可以將夜晚環(huán)境的感知精度提升至 3 倍。這項研究結果非常直接地展現(xiàn)了激光雷達對夜晚感知的重要性,能進一步提升夜晚行車的安全。2
同樣,在「大光比」「對向強光」等其他攝像頭感知相對較差的場景下,激光雷達仍然能憑借接收自身發(fā)出的紅外光,進行穩(wěn)定的感知輸出。
感知更精準,直擊 AEB 誤觸發(fā)行業(yè)痛點
AEB 功能的推出,是為了幫助車輛減少碰撞,讓行車更加安全。但實際使用過程中,受限于感知精準度,會出現(xiàn) AEB 誤觸發(fā)事件,即在不該剎車的時候剎車,輕的會使得乘坐體驗下降,嚴重的甚至會導致后車追尾、車內人員受傷。
出現(xiàn)誤觸發(fā)的主要原因是車輛感知精度不足,導致決策失誤,比如在遇到減速帶、車庫轉彎、隔離帶、路邊樁桶,如果對距離、尺寸的感知精度不高,會誤以為這些物體阻礙了車輛行駛,威脅到行駛安全,從而觸發(fā) AEB。但通過激光雷達的厘米級精度,車輛能做出更加準確的判斷,諸如:減速帶非常低矮可以通過,隔離帶不在行車路徑上……
從實際效果看,融合了激光雷達的理想 L9 AEB 誤觸發(fā)率已經低至 0.31 次/10 萬公里,遠低于行業(yè)水平 1 次/10 萬公里,把誤觸發(fā)率降低了 70%。3
極大降低“算法+算力+數(shù)據(jù)”等隱性成本
施葉舟指出,特斯拉堅持視覺算法路線,背后隱含的是數(shù)據(jù)驅動的邏輯。與這套方案相匹配的是特斯拉通過數(shù)百萬輛車源源不斷采集的數(shù)據(jù),官方統(tǒng)計,截止 2023 年 10 月,Autopilot 累計行駛里程超 90 億英里,F(xiàn)SD beta 累計行駛里程超 5 億英里。4
而為了處理這些海量數(shù)據(jù),特斯拉儲備了 14000 塊總價值數(shù)十億的 AI 芯片,可同時處理 1600 億幀圖像。與此同時,特斯拉從 2014 年開始自研芯片,21 年發(fā)布了 7 nm AI 訓練芯片以更好地適配算法模型。
“算法+算力+數(shù)據(jù)”,構成了后來者難以追趕的競爭壁壘。
從全局看,不光要關注看得見的顯性成本,更要關注看不見的隱性成本。拿掉激光雷達看似節(jié)省了一些硬件成本,但車端感知能力的下降,需要在云端投入更多的資源進行開發(fā),極大抬高了隱性成本,在車輛銷量沒有非常高的情況下,這些隱性成本均攤下來實際上遠高于硬件成本。
激光雷達的加入,
讓感知精度領先視覺算法 3 年以上
Nuscenes 是全世界影響力最大的開源數(shù)據(jù)集之一,各大頂尖算法在該數(shù)據(jù)集上進行測試打分。統(tǒng)計發(fā)現(xiàn),視覺算法 2023 年所達到的平均感知精度仍然不及融合激光雷達算法在 3 年前的水平。5
與此同時,激光雷達融合算法也在快速迭代升級,多傳感器數(shù)據(jù)的融合方法從基于目標識別結果的「后融合」,到特征級的「中融合」,再向著更加底層的「前融合」發(fā)展,平均感知精度在近兩年呈現(xiàn)出了加速提升的趨勢。
無論是語義識別還是占用網(wǎng)絡,
有限的數(shù)據(jù)訓練不能覆蓋所有通用障礙物
首先傳統(tǒng)的基于“語義識別”的視覺算法,由于需要預先設定物體種類“白名單”,這樣的白名單往往只能涵蓋高頻出現(xiàn)的道路元素和障礙物,例如:機動車、自行車、行人、小孩、水馬、紅綠燈等,最多幾十種類型。按照語義識別的規(guī)則,只有白名單以內的物體,才會被準確地標上“標簽”,其余不認識的物體都不能被“框住”,也就是會被算法「漏識別」。
例如 2021 年 FSD 推出之后,2022 年 11 月公開測試 6 中,特斯拉面對擺在路上的“黑色小狗”模型,仍然徑直開過去,沒有剎車。原因在于,視覺算法模型對于道路出現(xiàn)黑色小狗這樣的場景訓練還不足夠,而類似這樣的場景難以通過數(shù)據(jù)訓練全部覆蓋,總會有沒見過的“例外”。
視覺占用網(wǎng)絡的推出仍然不能完全解決以上難題。在一項研究占用網(wǎng)絡的論文 7 中,算法在對道路進行網(wǎng)格處理時,不常見的“黑色消防栓”就沒有被檢測為障礙物。究其原因是因為占用網(wǎng)絡同樣依賴數(shù)據(jù)訓練。為了覆蓋更多障礙物的識別,必然伴隨著數(shù)據(jù)采集標注量的增大,對于算法的訓練成本投入會持續(xù)增加,但是帶來的邊際效應會越來越小。
相比之下,激光雷達則直接得多,不用訓練,有無障礙物可以直接基于空間點云的有無進行判斷。
厘米級感知低矮物體,高效追蹤近距離物體
低矮物體的準確判斷也是視覺算法的難點,考慮到低矮物體往往只有十幾厘米或更矮,視覺算法的精度不足以準確測量,因此在沒有明顯的語義特征時,低矮物體“是否識別到”“有多高”“能不能通過”,成為了影響行車體驗乃至安全的不可控因素。
而激光雷達對高度的測量精度穩(wěn)定在「幾厘米」水準 8,即使是低矮物體,也不會出現(xiàn)遺漏。
視覺算法的另一難點是,對于近距離物體的速度監(jiān)測,需要結合多幀圖像以及海量的算法過程,這樣的復雜運算大大增加了延時,從而降低了及時性,因此單純靠視覺算法,應對「近距離加塞」「擁堵跟車」顯得力不從心,更別提各種突然竄出來的電動車了。
相比而言,激光雷達憑借三維位置信息,通過簡單高效的幾何運算就能獲取速度,就顯得游刃有余的多。從輕舟智航的實測視頻來看,融合激光雷達的感知算法很好地應對了各類近距離極限場景。
最后,施葉舟指出,加速城市 NOA 功能量產意味著建立先發(fā)優(yōu)勢,而激光雷達正是加速智駕算法開發(fā)的利器。誰能將感知算法做到好用,將城市 NOA 功能盡快量產,誰才能盡早獲得消費者的認可,在智駕的“戰(zhàn)場”上領先一個身位。
城市 NOA 規(guī)?;涞?,
迎來“ iPhone 時刻”
——by 輕舟智航產品負責人許諾
輕舟智航多款標桿產品搭載激光雷達
許諾首先分享了輕舟智航在 L4 自動駕駛、L2+ 高階輔助駕駛量產等多款標桿產品中使用了激光雷達,包括在無人駕駛小巴等“龍舟”系列產品上標配了多個「360° 旋轉式圖像級激光雷達 Pandar128」,在高階輔助駕駛解決方案“輕舟”系列 MAX 產品上配置了「超高清遠距激光雷達 AT128」。
在談到激光雷達的作用時,許諾直言,現(xiàn)階段單純依靠視覺方案,很難應對中國城市道路中的各類 Corner Case。
“激光雷達,是以投入換時間,加速城市 NOA 落地的捷徑。” 許諾這樣概括。
具體表現(xiàn)為四點:
擅長處理城市復雜場景
當高階輔助駕駛在開放多樣的城區(qū)場景落地過程中,會不斷地遇到從未見過的棘手問題,如何靈活地與近距離車輛博弈,如何在夜間攝像頭視線不佳時穩(wěn)定行駛,如何在沒有車道線的停車樓穿行。輕舟認為,激光雷達對環(huán)境的精準感知,能夠幫助車輛更好地應對城市的復雜場景。
許諾還在 Q&A 時提到:
不同的傳感器是一定會帶來不同的系統(tǒng)差別。舉例來看,如果是視覺感知,當遇到眩光或者當有物體遮擋住傳感器就會降低感知能力,但增加一顆其他的傳感器,比如說激光雷達,就會增加一份安全冗余。
以 AEB 為例,如果車輛配備激光雷達,作為算法公司一定會去使用激光雷達,因為已經有了這樣一個很好的硬件配置在里面,如果不用,那相當于浪費了。
穩(wěn)定識別通用障礙物
輕舟具備行業(yè)領先的通用障礙物識別能力,融合了激光雷達數(shù)據(jù),算法可以在不檢測物體類別的情況下對物體進行檢出,保證行車安全。
而如果 OmniNet 感知大模型,將多傳感器時序穿插融合,通過在重點區(qū)域激光雷達與圖像的結合將提升感知精度,采用 120° 激光雷達對前向進行了 3D 感知覆蓋,幫助算法解決難處理的低速和靜態(tài)物體,從而用一顆激光雷達方案實現(xiàn)了非常好的城市 NOA 體驗。
采用視覺算法,許諾提到:“即便是隨著數(shù)據(jù)量越來越多,能處理更多的長尾場景,但是要把長尾場景全部處理完,實際上是一個非常困難的一個事情。”
輕舟展現(xiàn)了行業(yè)領先的 OmniNet 感知大模型,將多傳感器時序穿插融合,通過在重點區(qū)域激光雷達與圖像的結合將提升感知精度,采用 120° 激光雷達對前向進行了 3D 感知覆蓋,幫助算法解決難處理的低速和靜態(tài)物體,從而用一顆激光雷達方案實現(xiàn)了非常好的城市 NOA 體驗。
加速算法迭代,
提供精準真值數(shù)據(jù),高效挖掘長尾數(shù)據(jù)
作為高精度的傳感器,激光雷達數(shù)據(jù)可以在點云大模型的解析下進行自動化標注,為算法提供真值,加速算法進化迭代。
許諾在分享時舉了兩個例子:一個是在夜晚道路上,視覺算法漏檢了一輛隔離帶對面的車輛,而通過點云標注正確識別了這輛車;另外一個是視覺算法誤檢了一輛兩輪車為三輪車,而通過點云標注同樣糾正了這個問題。
最后,激光雷達對物體的識別不依賴預設的語義信息,舉例來說,下圖中躺在路邊的行人,如果沒有激光雷達作為感知補充,可能很難識別到。
因此,利用激光雷達數(shù)據(jù)可以更好地挖掘長尾場景,高效地實現(xiàn)數(shù)據(jù)積累,進一步加速算法的進化,更早實現(xiàn)量產落地。
咨詢詳情:如需咨詢文中涉及的相關產品或解決方案詳情,請加微信:ZiDongHuaX 。
微信聯(lián)盟:激光雷達微信群、自動駕駛微信群、傳感器微信群,各細分行業(yè)微信群:點擊這里進入。
鴻達安視:水文水利在線監(jiān)測儀器、智慧農業(yè)在線監(jiān)測儀器 金葉儀器: 氣體/顆粒物/煙塵在線監(jiān)測解決方案
西凱昂:SMC氣動元件、力士樂液壓元件、倍加福光電產品等 山東諾方: 顆粒物傳感器、粉塵濃度傳感器
深圳金瑞銘:RFID射頻識別、智能傳感器等物聯(lián)網(wǎng)解決方案 北京英諾艾智: 容錯服務器、邊緣計算解決方案
微信聯(lián)盟:激光雷達微信群、自動駕駛微信群、傳感器微信群,各細分行業(yè)微信群:點擊這里進入。
鴻達安視:水文水利在線監(jiān)測儀器、智慧農業(yè)在線監(jiān)測儀器 金葉儀器: 氣體/顆粒物/煙塵在線監(jiān)測解決方案
西凱昂:SMC氣動元件、力士樂液壓元件、倍加福光電產品等 山東諾方: 顆粒物傳感器、粉塵濃度傳感器
深圳金瑞銘:RFID射頻識別、智能傳感器等物聯(lián)網(wǎng)解決方案 北京英諾艾智: 容錯服務器、邊緣計算解決方案
我要收藏
個贊
評論排行