|
《智能駕駛之激光雷達算法詳解》多傳感器融合 SLAM
鑒于各傳感器的工作特性及其局限性,單獨依賴(lài)一種或兩種傳感器在復雜路況下往往難以確保高精度定位。例如,激光里程計在隧道、高架等環(huán)境下易受影響,而IMU與輪速計則受限于累積誤差,難以獨立提供可靠位置信息。GPS在特定場(chǎng)景如立交橋、隧道及高樓密集區則常遭遇信號丟失問(wèn)題。視覺(jué)里程計則受天氣、光照及動(dòng)態(tài)環(huán)境變化影響較大,其穩定性亦受挑戰。當前學(xué)術(shù)界與工業(yè)界正致力于通過(guò)多傳感器融合技術(shù),實(shí)現高精度、穩定且實(shí)時(shí)的定位解決方案。多傳感器融合SLAM主要分為松耦合與緊耦合兩大類(lèi)別,其中緊耦合方式因能更充分融合各傳感器信息,成為研究重點(diǎn)。
在緊耦合領(lǐng)域,已有多種創(chuàng )新算法涌現。如X.Za0等人在IROS 2019上提出的LIC-Fusion算法,基于MSCKF框架實(shí)現了激光雷達、IMU與相機的緊密協(xié)作。牛津大學(xué)D.wi油團隊則依托因子圖框架,融合了激光里程計、視覺(jué)里程計與IMU預積分因子,實(shí)現了高精度定位。香港大學(xué)Mars實(shí)驗室更是在此基礎上,提出了RLIVE與R'LIVE算法,通過(guò)結合濾波與平滑優(yōu)化技術(shù),進(jìn)一步提升了激光雷達、IMU與相機的融合定位精度與建圖能力。為滿(mǎn)足L4級智能駕駛等高級應用場(chǎng)景的需求,學(xué)者們還探索了結合高精點(diǎn)云地圖的全局定位方法。百度團隊通過(guò)誤差狀態(tài)卡爾曼濾波框架,實(shí)現了激光雷達、GNSS、IMU與先驗點(diǎn)云地圖的深度融合,實(shí)現了厘米級定位精度。圖森未來(lái)則進(jìn)一步挑戰極限,嘗試在無(wú)激光里程計的情況下,僅憑輪速計、IMU與先驗點(diǎn)云地圖,實(shí)現了無(wú)人物流卡車(chē)的高精度全局定位。在此背景下,特選激光雷達+IMU+視覺(jué)組合定位中的RPLIVE算法,以及圖森未來(lái)在ICRA 2021上提出的基于激光雷達特征地圖輔助的多傳感器緊耦合定位算法進(jìn)行深入探討,以期洞悉其背后的原理與技術(shù)創(chuàng )新。
視覺(jué)、激光雷達、IMU融合的RLVE算法
RLVE算法,源自香港大學(xué)Man Li等人在IROS 2021的卓越貢獻,是一種創(chuàng )新的實(shí)時(shí)傳感器融合SLAM算法。該算法巧妙地將激光雷達、相機與IMU緊密集成于一個(gè)高效預處理模塊中,隨后通過(guò)現代優(yōu)化技術(shù)實(shí)現精準定位與建圖。Li團隊憑借三種傳感器的深度協(xié)同,使RLVE能夠從容應對視覺(jué)失效及激光雷達里程計挑戰,室內外測試中均展現出卓越的性能與成果。算法的核心流程清晰分為兩大板塊:里程計模塊與因子圖優(yōu)化模塊。里程計模塊依托于先進(jìn)的誤差狀態(tài)卡爾曼濾波框架,無(wú)縫融合激光雷達、相機與IMU數據,初步估算系統姿態(tài),并分別針對各傳感器特性進(jìn)行優(yōu)化輸出。其獨特之處在于,通過(guò)誤差狀態(tài)空間的迭代更新策略,將問(wèn)題轉化為最大化后驗估計,運用高斯牛頓法高效求解。在激光雷達處理上,采用平衡特征點(diǎn)提取與運動(dòng)補償技術(shù);相機端則運用快速角點(diǎn)提取與KLT光流跟蹤,確保視覺(jué)信息的精確捕捉。為進(jìn)一步提升視覺(jué)測量的精準度,因子圖優(yōu)化模塊引入動(dòng)態(tài)滑窗機制,對視覺(jué)地標、關(guān)鍵姿態(tài)及傳感器間的時(shí)間偏差進(jìn)行精細調整與優(yōu)化,從而構建出更加精確與魯棒的環(huán)境地圖。RLVE解法以其創(chuàng )新的理念與卓越的性能,為SLAM領(lǐng)域樹(shù)立了新的標桿。
![]()
在智能駕駛任務(wù)中,高精度要求促使我們實(shí)時(shí)結合激光雷達、相機及IMU等傳感器,以確保在復雜環(huán)境中,如隧道、橋梁等GPS信號受限的區域,定位算法的精準度、實(shí)時(shí)性和魯棒性。為了實(shí)現長(cháng)距離的絕對定位,學(xué)界提出并應用了基于多傳感器緊耦合的定位算法(Tightly-Coupled Multi-Sensor Localization, TCML),這一創(chuàng )新在RA2D1會(huì )議上得以展示。TCML算法構建于因子圖優(yōu)化框架之上,巧妙地將IMU數據、輪速計信息與激光雷達點(diǎn)云地圖的融合轉化為一個(gè)優(yōu)化問(wèn)題,利用固定延平滑(fixed-lag smoothing)技術(shù)求解。具體而言,算法中,激光雷達點(diǎn)云與預先構建的地圖特征相匹配,實(shí)現了對車(chē)輛全局位姿的估計;同時(shí),結合車(chē)輛運動(dòng)學(xué)模型和輪速計數據,精準捕捉車(chē)輛局部時(shí)刻的相對位姿變化。兩者相輔相成,共同約束車(chē)輛狀態(tài)的最優(yōu)估計。
![]()
圖13-5清晰展示了TCML算法的整體流程,其關(guān)鍵傳感器包括輪速編碼器、IMU和激光雷達,而一張精細的激光雷達特征地圖則是算法不可或缺的外部數據源。輪速編碼器負責提供車(chē)輛速度的直接觀(guān)測,IMU則用于計算幀間相對位姿變化,并作為系統狀態(tài)的初步估計。激光點(diǎn)云在IMU校正運動(dòng)畸變后,與地圖特征精準匹配,從而得到系統位姿的精確估計。最終,TCML算法通過(guò)局部滑窗內的因子殘差最小化,實(shí)現了傳感器信息的緊耦合優(yōu)化,采用固定間隔平滑策略,迭代提升系統位姿估計的精度,詳細過(guò)程如圖13-6所示。利用激光雷達、IMU與輪速計等多源傳感器的緊密集成,實(shí)現長(cháng)距離、高精度且魯棒的實(shí)時(shí)定位技術(shù)。為縮減點(diǎn)云處理時(shí)間與計算負荷,TMFL算法巧妙地從密集點(diǎn)云地圖中篩選稀疏特征點(diǎn),并通過(guò)每幀激光點(diǎn)云的均勻采樣策略,精簡(jiǎn)特征匹配點(diǎn)數量,同時(shí)確保定位精度不受損。在因子圖優(yōu)化框架下,該算法融合激光雷達特征、IMU預積分及輪速計速度信息,對車(chē)輛狀態(tài)進(jìn)行聯(lián)合優(yōu)化,并運用固定后平滑策略,簡(jiǎn)化優(yōu)化難題,加速算法響應。
另外最近部門(mén)招聘,要求如下:
內外飾數字模型工程師
1、負責內飾全倉數字模型設計工作
2、對內飾零部件有充分了解、IP、門(mén)板、console等零部件
3、負責內飾IP、門(mén)板、座椅、console、頂棚、立柱等零部件的設計工作
4、掌握內飾零部件之間的配合關(guān)系,并完整表達設計意圖。
要求
1、大專(zhuān)及以上學(xué)歷,藝術(shù)設計、工業(yè)設計相關(guān)專(zhuān)業(yè)
2、熟練使用ALIAS軟件
3、 測試A級至少5-8年實(shí)際CAS、A面設計工作經(jīng)驗 測試B級至少3-5年CAS、A面設計工作經(jīng)驗
4、善于團隊合作、有責任心、敢于擔當、工作主動(dòng)積極
有意者戳 汽車(chē)造型/產(chǎn)品設計師社會(huì )招聘-表單-金數據 (jsj.top) |
|
|