久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

自動(dòng)駕駛中車輛的如何使用點(diǎn)云定位,?

 點(diǎn)云PCL 2021-03-09

標(biāo)題:Review on 3D Lidar Localization for Autonomous Driving Cars

作者:Mahdi Elhousni and Xinming Huang

翻譯:particle

歡迎各位加入免費(fèi)知識(shí)星球,獲取PDF文檔,,歡迎轉(zhuǎn)發(fā)朋友圈,,分享快樂(lè)。







激光雷達(dá)傳感器能夠獲取豐富,,稠密且精確的三維空間中物體的點(diǎn)云數(shù)據(jù),,這可以幫助自動(dòng)駕駛車輛實(shí)現(xiàn)定位和障礙物的跟蹤,lidar也將成為實(shí)現(xiàn)完全自動(dòng)駕駛的核心傳感器,。本篇文章將主要介紹三維激光雷達(dá)在自動(dòng)駕駛定位領(lǐng)域最新的研究,,并分析各種方法的定位的效果。


介紹

        自動(dòng)駕駛的定位意味著能夠在地圖中找到車輛的位置和方向,。這里的地圖也是只使用激光雷達(dá)獲取的,,使用激光束獲取測(cè)量的距離并產(chǎn)生點(diǎn)云數(shù)據(jù),其中的每個(gè)點(diǎn)表示傳感器獲取的物體表面的(XYZ)的坐標(biāo),?;邳c(diǎn)云的高精地圖是可以通過(guò)lidar掃描離線的構(gòu)建出來(lái),也可以在導(dǎo)航過(guò)程中通過(guò)里程計(jì)實(shí)現(xiàn)閉環(huán)的構(gòu)建地圖,,也就是SLAM系統(tǒng),。

        這里首先分析使用激光雷達(dá)的點(diǎn)云數(shù)據(jù)作為定位的優(yōu)缺點(diǎn),與圖像或其他傳感器相比,。

  1. lidar數(shù)據(jù)能夠在獲取更為豐富且精確的空間信息,,這也使得車輛在定位中更為有優(yōu)勢(shì)。

  2. 由于激光雷達(dá)的數(shù)據(jù)不斷的下降,,這使傳感器更易于大眾使用和研究,,并且對(duì)于汽車廠商來(lái)說(shuō)也逐漸被接受。

但是使用3D lidar作為定位設(shè)備通常也會(huì)有一些問(wèn)題,,由于lidars數(shù)據(jù)數(shù)量巨大,,因此需要快速處理輸出并確保系統(tǒng)的實(shí)時(shí)性,所以確保車輛的實(shí)時(shí)定位具有一定的挑戰(zhàn)和難度,。所以通常需要使用下采樣或者特征點(diǎn)提取的方法來(lái)高效的簡(jiǎn)化點(diǎn)云信息,。

        我們知道在車輛的實(shí)時(shí)定位系統(tǒng)中生成里程計(jì)是必不可少的部分,在過(guò)去的研究中,,已經(jīng)提出了很多的使用lidar的點(diǎn)云數(shù)據(jù)來(lái)計(jì)算車輛的里程計(jì)的方法,,這些方法中主要有三個(gè)不同的類別:

(1)基于點(diǎn)云數(shù)據(jù)的配準(zhǔn)方法[1]:這是一種很好的離線的構(gòu)建高精地圖的方法,,這種方法由于太慢而無(wú)法實(shí)時(shí)的處理,因?yàn)樵摲椒紤]了lidar點(diǎn)云數(shù)據(jù)中的所有點(diǎn)進(jìn)行配準(zhǔn),,可以將這種方法歸納為稠密的方法,。

(2)基于點(diǎn)云特征點(diǎn)的方法:受2D圖像特征提取和匹配方法的啟發(fā)[2,3,4],根據(jù)3D點(diǎn)云的特征點(diǎn)的提取,,計(jì)算連續(xù)幀之間的位移,,這種方法的準(zhǔn)確性和實(shí)時(shí)處理還是可以的,但是對(duì)快速運(yùn)動(dòng)不夠魯棒,。這種方法僅僅使用了點(diǎn)云中提取的特征點(diǎn)來(lái)代表一幀的點(diǎn)云數(shù)據(jù)進(jìn)行配準(zhǔn),,可以歸納為稀疏的方法。

(3)基于點(diǎn)云數(shù)據(jù)的深度學(xué)習(xí)的方法:深度學(xué)習(xí)在決定車輛的定位問(wèn)題上的研究獲得越來(lái)越多的研究,。在[5,6,7,8]文章中首先使用2D的圖像來(lái)預(yù)測(cè)和計(jì)算里程計(jì),,并且最終的定位效果還是可以接受的。但仍不能超過(guò)現(xiàn)有的技術(shù)水平,。

最近很多的工作正在探索使用lidar點(diǎn)云數(shù)據(jù),,而結(jié)果上提有著很好的效果。接下來(lái)講介紹各種點(diǎn)云定位技術(shù)對(duì)比和測(cè)試結(jié)果,。

自動(dòng)駕駛車輛的3D激光雷達(dá)定位

首先回顧和討論文獻(xiàn)中可用的所有方法,,在這些文獻(xiàn)中,僅使用3D LIDAR傳感器即可實(shí)現(xiàn)對(duì)車輛的3D定位,。我們將可用方法分為三類(點(diǎn)云配準(zhǔn),,3D特征點(diǎn)匹配法和深度學(xué)習(xí)的方法),并在下表中列出了它們,。并在接下來(lái)的閱讀中細(xì)細(xì)介紹,。

1

3D點(diǎn)云配準(zhǔn)方法

這里主要回顧基于3d 點(diǎn)云的配準(zhǔn)的定位方法,配準(zhǔn)的目的是實(shí)現(xiàn)一對(duì)點(diǎn)云能夠?qū)R在同一坐標(biāo)系下,,從而可以計(jì)算出兩次掃描之間的點(diǎn)云的變換,,在自動(dòng)駕駛定位場(chǎng)景下,可以通過(guò)兩種方法使用配準(zhǔn)的方法:

(1)通過(guò)將獲取的掃描幀點(diǎn)云與預(yù)構(gòu)建的高精點(diǎn)云地圖的一部分進(jìn)行配準(zhǔn),,對(duì)車輛進(jìn)行定位,。

(2)通過(guò)連續(xù)的Lidar掃描獲取的點(diǎn)云計(jì)算出車輛的里程計(jì)信息。

點(diǎn)云配準(zhǔn)主要用于形狀對(duì)齊和場(chǎng)景重建等領(lǐng)域,,其中迭代最近點(diǎn)算法(ICP)是最受歡迎的算法之一,,在ICP中通過(guò)最小化點(diǎn)云數(shù)據(jù)之間的度量誤差來(lái)優(yōu)化源點(diǎn)云和目標(biāo)點(diǎn)云之間的轉(zhuǎn)換。并在該研究領(lǐng)域有多種ICP算法的變種【47】,,常見(jiàn)的變種算法有點(diǎn)到線段的ICP[48],點(diǎn)到面的ICP[49]以及通用的ICP[10],ICP算法可以認(rèn)為是解決點(diǎn)云配準(zhǔn)的經(jīng)典算法,,在文章【11】中將點(diǎn)云配準(zhǔn)和回環(huán)檢測(cè)以及車輛位姿圖的優(yōu)化結(jié)果在一起,以減少連續(xù)配準(zhǔn)帶來(lái)的累計(jì)誤差,。在論文【50】中提出了一種計(jì)算里程計(jì)并整合雷達(dá)傳感器數(shù)據(jù)的特征來(lái)改善ICP算法,,這是一種通過(guò)對(duì)點(diǎn)云的下采樣和點(diǎn)云數(shù)據(jù)的幾何性質(zhì)抑制點(diǎn)云匹配的ICP算法,,作者在KITTI數(shù)據(jù)集上的里程計(jì)漂移下降了27%,但是ICP算法最終被3D正態(tài)分布(NDT)算法所超越【14】【51】3DNDT算法其實(shí)是一種將2D NDT算法的擴(kuò)展到三維空間的算法,與ICP算法類似的是源點(diǎn)云和目標(biāo)點(diǎn)云質(zhì)檢的轉(zhuǎn)換也需要進(jìn)行迭代和優(yōu)化,,但是這種方法的優(yōu)化的誤差方程不在點(diǎn)對(duì)之間,,而在根據(jù)預(yù)先計(jì)算的體素中存在的點(diǎn)的均值和協(xié)方差,,NDT首先將點(diǎn)云轉(zhuǎn)換為概率密度函數(shù)(PDF),,然后將概率密度函數(shù)與高斯牛頓算法結(jié)合優(yōu)化,找到兩點(diǎn)云之間的空間變換,,在【52】中提出了對(duì)3D NDT算法的擴(kuò)展并命名為概率NDT算法,,該算法嘗試解決經(jīng)典的NDT算法的稀疏性。這種不再給予點(diǎn)的數(shù)量而是概率的點(diǎn)的概率的方法能夠獲取LIDAR數(shù)據(jù)之間的轉(zhuǎn)換關(guān)系,,但是在自動(dòng)駕駛中,,這種方法很少能夠滿足實(shí)時(shí)運(yùn)行計(jì)算的要求。所以一般會(huì)加入一下輔助的傳感器,,比如IMU,,作為初始的定位值。在IMLS-SLAM[20]算法中提出了三部算法:

(1)首先是動(dòng)態(tài)對(duì)象的刪除,,該動(dòng)態(tài)對(duì)象通過(guò)對(duì)掃描幀點(diǎn)云數(shù)據(jù)的聚類獲取再刪除,。

(2)對(duì)于刪除動(dòng)態(tài)障礙物的剩余點(diǎn)云進(jìn)行下采樣,

(3)最后是匹配步驟,,通過(guò)掃描到模型的匹配策略,,使用隱式最小移動(dòng)法(IMLS)計(jì)算和優(yōu)化轉(zhuǎn)換關(guān)系.

另外一種流行的處理方法是計(jì)算點(diǎn)云的surfel(SURFace ELement)文章【24】構(gòu)建點(diǎn)云的surel貼圖,構(gòu)建的貼圖和法線貼圖可用于ICP算法來(lái)計(jì)算車輛的里程計(jì),,并通過(guò)surfel實(shí)現(xiàn)回環(huán)檢測(cè)和軌跡優(yōu)化,。在文章[38]中,通過(guò)以下步驟將激光雷達(dá)掃描轉(zhuǎn)換為線點(diǎn)云:從相鄰環(huán)的相鄰點(diǎn)之間采樣線段,。然后使用迭代方法將這些線點(diǎn)云對(duì)齊:首先,,計(jì)算生成的線的中心點(diǎn)。然后,,通過(guò)在目標(biāo)點(diǎn)云中找到中心距源點(diǎn)云中最近的線,,將這些點(diǎn)用于查找連續(xù)掃描之間的轉(zhuǎn)換。然后使用其他后期處理技巧來(lái)提高準(zhǔn)確性,,例如使用以前的變換來(lái)預(yù)測(cè)和初始化下一個(gè)姿勢(shì)估計(jì)步驟,。有時(shí),減小LIDAR數(shù)據(jù)的維數(shù)也可以產(chǎn)生合理的結(jié)果,,例如在[40]中,,將傳入的掃描數(shù)據(jù)投影到具有占用柵格和高度的2.5D網(wǎng)格圖上。

2

基于3D特征的定位方法

3D的點(diǎn)云特征有【55】【56】【57】是代表在時(shí)間和空間上具有一致性的可識(shí)別區(qū)域的興趣點(diǎn),,這些特征點(diǎn)通常用于3D的對(duì)象檢測(cè)使用特征描述子作為唯一的向量表示法,,并且描述子可以用于匹配兩個(gè)不同點(diǎn)云中的特征,,通過(guò)找到足夠且一致的匹配項(xiàng),再使用優(yōu)化的方法計(jì)算兩次掃描點(diǎn)云之間的轉(zhuǎn)換關(guān)系,。從而能夠構(gòu)建里程計(jì),,在文章【12】中作者提出了一項(xiàng)研究著重于尋找出在自動(dòng)駕駛實(shí)現(xiàn)精確定位的特征信息,但是由于點(diǎn)簇的分布由于場(chǎng)景的不同,,該方法提取出來(lái)的特征點(diǎn)也是不穩(wěn)定的,,在論文【16】中,提出了PoseMap的方法,,作者認(rèn)為地圖的連續(xù)性是實(shí)現(xiàn)車輛定位的關(guān)鍵,,并且預(yù)先構(gòu)建的點(diǎn)云高精地圖,然后根據(jù)重疊閾值對(duì)齊進(jìn)行二次采樣,,以生成維持關(guān)鍵幀姿態(tài)的環(huán)境集合,,這些子地圖可以在不同的時(shí)間點(diǎn)彼此獨(dú)立的更新,然后通過(guò)簡(jiǎn)單的使用兩個(gè)與當(dāng)前車輛最近的子地圖并且最小化舊地圖和和新特征之間的距離,,通過(guò)滑動(dòng)窗口的方法解決定位問(wèn)題,。

還有論文【21】【22】利用自動(dòng)駕駛車輛環(huán)境中存在的幾何形狀作為定位的要素,將平面提取算法與幀與幀之間的技術(shù)相結(jié)合以產(chǎn)生姿態(tài)的估計(jì)用于車輛的定位,,與通過(guò)ICP算法獲得的結(jié)果比較平面提取和對(duì)齊的方法在準(zhǔn)確性和速度上都顯示出了極大的提高,。

目前KITTI里程計(jì)排行榜上排名第一的方法[25],首先根據(jù)點(diǎn)的平滑度和遮擋度提取平面和角點(diǎn)要素,。這些特征與后續(xù)掃描中的點(diǎn)patch相匹配,,然后使用Levenberg-Marquardt方法求解LIDAR運(yùn)動(dòng)。正如通常在大多數(shù)SLAM流程中所做的那樣,,在后臺(tái)線程中以比里程計(jì)估計(jì)更慢的頻率構(gòu)建地圖,,這有助于改善最終定位結(jié)果。在文章[26]中提出了對(duì)該方法的擴(kuò)展方法,,以提高其速度并保證里程計(jì)計(jì)算的實(shí)時(shí)性,。主要的改進(jìn)在于通過(guò)消除不可靠的特征并使用兩次LevenbergMarquardt方法來(lái)加快優(yōu)化步驟,從而充分利用地面的信息,。盡管如此,,LOAM流程中的主要遺留問(wèn)題之一是由于累積誤差導(dǎo)致的里程表漂移。但是,,將回環(huán)檢測(cè)算法加入到流程中是可以解決此問(wèn)題,,如[28]或[27]中所示。

3

基于3D點(diǎn)云深度學(xué)習(xí)的定位方法

        深度學(xué)習(xí)的方法應(yīng)用在里程計(jì)和定位上還是比較新穎的研究方向,,但是在深度學(xué)習(xí)被證明在圖像領(lǐng)域的價(jià)值之后,,并且像PointNet【60】和PointNet++這樣的方法表明,深度學(xué)習(xí)的使用將會(huì)越來(lái)越流行,,涉及到深度學(xué)習(xí)的方法可以嘗試使用原始點(diǎn)云作為輸入并使用單個(gè)網(wǎng)絡(luò)直接預(yù)測(cè)車輛的位移以端到端的方式解決此任務(wù),,提出使用深度學(xué)習(xí)方法解決里程計(jì)的方法是論文【13】,,為了簡(jiǎn)化深度學(xué)習(xí)的網(wǎng)絡(luò)的輸入不是直接對(duì)3D點(diǎn)云進(jìn)行處理而是將LIDAR點(diǎn)云投影到2D空間上生成全景的深度圖像,然后將其輸入到卷積網(wǎng)絡(luò)中,,求解兩個(gè)輸入幀之間的旋轉(zhuǎn)和平移,,獲得的結(jié)果低于標(biāo)準(zhǔn),但是確是探索使用深度學(xué)習(xí)解決此任務(wù)的方案,。

        全景的深度圖像是lidar數(shù)據(jù)的一種常見(jiàn)的表示形式,,另一種使用深度圖像的方法是DeepPCO【17】將雷達(dá)投影生成的全景深度圖分別輸入到兩個(gè)卷積網(wǎng)絡(luò)中,分別用于計(jì)算兩幀之間的旋轉(zhuǎn)和平移,。另外還有將雷達(dá)點(diǎn)云投影到球形坐標(biāo)系下生成兩個(gè)新的2D圖像,,分別是定點(diǎn)圖(表示每個(gè)點(diǎn)的位置(XYZ))和發(fā)現(xiàn)圖(表示每個(gè)點(diǎn)的法線值),,將兩個(gè)圖像分別輸入到兩個(gè)網(wǎng)絡(luò)中,,分別是:VertexNet他以定點(diǎn)圖作為輸入,用于預(yù)測(cè)連續(xù)幀之間的轉(zhuǎn)換,,NormalNet以法線圖作為輸入,,預(yù)測(cè)兩者之間的旋轉(zhuǎn)。

        在[44]中提出了一種稱為CAE-LO的解決方案,,其中使用無(wú)監(jiān)督卷積自動(dòng)編碼器以多尺度方式從LIDAR數(shù)據(jù)的球形投影中提取特征,。附加的自動(dòng)編碼器用于生成特征描述符,然后使用基于RANSAC的幀到幀匹配來(lái)匹配點(diǎn),。最后,,ICP算法用于完善里程計(jì)結(jié)果。

        在[29]中,,提出了LORAX算法,。這種方法引入了超點(diǎn)的概念,超點(diǎn)是位于球體內(nèi)并描述了點(diǎn)云局部表面的點(diǎn)的子集,,這些超點(diǎn)被投影到2D空間上以形成2D深度圖,。然后使用一系列測(cè)試對(duì)這些深度圖進(jìn)行過(guò)濾,僅留下相關(guān)的超點(diǎn),,并使用PCA和深度自動(dòng)編碼器進(jìn)行編碼,。然后,再進(jìn)行粗配準(zhǔn)步驟(其中使用涉及RANSAC算法的迭代方法)之前,,根據(jù)特征之間的歐式距離來(lái)選擇要匹配的候選對(duì)象,。作為最后一步,使用ICP算法微調(diào),,以提高整個(gè)算法結(jié)果的準(zhǔn)確性,。

        在集成一系列的論文[32],[31],,[33],,[34]后提出SegMap方法[35]的作者探索了如何使用簡(jiǎn)單的卷積網(wǎng)絡(luò)有效地從點(diǎn)云中提取和編碼片段,,用于解決定位和構(gòu)建地圖相關(guān)任務(wù)。這種方法的主要貢獻(xiàn)在于其數(shù)據(jù)驅(qū)動(dòng)的3D片段描述符,,該描述符是使用由一系列卷積和完全連接的層組成的網(wǎng)絡(luò)提取的,。使用由兩部分組成的損失函數(shù)訓(xùn)練描述符提取器網(wǎng)絡(luò):分類損失和重建部分。最終,,使用k-Nearest Neighbors(k-NN)算法找到提取的片段及其候選對(duì)應(yīng)關(guān)系,,這使得解決定位任務(wù)成為可能。

         當(dāng)試圖使兩幀點(diǎn)云之間的運(yùn)動(dòng)回歸時(shí),,前面討論的大多數(shù)方法都會(huì)不可避免地遭受場(chǎng)景中動(dòng)態(tài)對(duì)象(汽車,,行人等)的影響。已知在場(chǎng)景中刪除動(dòng)態(tài)對(duì)象可以改善大多數(shù)SLAM流程中的里程計(jì)計(jì)算結(jié)果,。但是,,以有監(jiān)督的方式檢測(cè)然后從場(chǎng)景中刪除動(dòng)態(tài)對(duì)象會(huì)帶來(lái)額外的復(fù)雜性,這可能導(dǎo)致更長(zhǎng)的處理時(shí)間和不穩(wěn)定的結(jié)果,。為了以一種無(wú)監(jiān)督的方式解決這個(gè)問(wèn)題,,論文[37]中的作者提出了為動(dòng)態(tài)掩碼預(yù)測(cè)的任務(wù)訓(xùn)練編碼器-解碼器分支。這是通過(guò)優(yōu)化幾何一致性損失函數(shù)來(lái)完成的,,該函數(shù)說(shuō)明了點(diǎn)云數(shù)據(jù)的法線可以對(duì)幾何一致性進(jìn)行建模的區(qū)域,。完整的網(wǎng)絡(luò)稱為L(zhǎng)O-Net可以通過(guò)端對(duì)端的方式進(jìn)行訓(xùn)練,方法是將幾何一致性損失,,里程計(jì)回歸損失和交叉熵?fù)p失結(jié)合起來(lái)以進(jìn)行正則化,。

在KITTI訓(xùn)練數(shù)據(jù)集上的3D深度學(xué)習(xí)定位方法的比較

 在KITTI測(cè)試數(shù)據(jù)集上3D定位方法的比較。

            有些深度學(xué)習(xí)方法不是直接使用LIDAR進(jìn)行定位車輛的,,而是嘗試學(xué)習(xí)常見(jiàn)流程中的錯(cuò)誤模型,。換句話說(shuō),深度學(xué)習(xí)可用于校正已經(jīng)可用的里程計(jì)計(jì)算,,產(chǎn)生功能強(qiáng)大且靈活的插件模塊,。論文[39]的作者建議學(xué)習(xí)一個(gè)偏差校正項(xiàng),目的是改善以LIDAR數(shù)據(jù)作為輸入的狀態(tài)估計(jì)器的結(jié)果,。高斯模型用于對(duì)6個(gè)測(cè)距誤差進(jìn)行相互獨(dú)立的建模,,其精心選擇的輸入特征集中在受誤差影響最大的3個(gè)自由度上。在[41]中,,提出了一種更高級(jí)的方法,,稱為L(zhǎng)3-Net,可以將其關(guān)聯(lián)到偏差校正問(wèn)題上,,因?yàn)榇颂幍淖髡咛岢隽艘粋€(gè)嘗試學(xué)習(xí)殘差項(xiàng)的網(wǎng)絡(luò),,而不是預(yù)測(cè)幀之間的轉(zhuǎn)換關(guān)系。首先提取相關(guān)特征并將其輸入miniPointNet中以生成其相應(yīng)的特征描述符。然后構(gòu)建殘差項(xiàng),,并使用3D卷積神經(jīng)網(wǎng)絡(luò)對(duì)其進(jìn)行正則化,。此外,將RNN分支添加到網(wǎng)絡(luò)中,,以確保位移預(yù)測(cè)的時(shí)間平滑性,。同一作者在[42],[43]中提出了一個(gè)更完整,,更通用的L3-Net變種,,并將其命名為DeepICP。在這里,,使用PointNet ++提取特征,,然后使用僅保留最相關(guān)特征的加權(quán)層進(jìn)行過(guò)濾。與先前的方法類似,,使用miniPointNet結(jié)構(gòu)計(jì)算特征描述符,,然后將其反饋到相應(yīng)的點(diǎn)云生成層,該層在目標(biāo)點(diǎn)云中生成相應(yīng)的關(guān)鍵點(diǎn),。為了使變換的最終值回歸,,將兩個(gè)損失函數(shù)組合在一起,,并對(duì)局部相似度和全局幾何約束進(jìn)行編碼,。

總結(jié)

        我們根據(jù)先前在KITTI里程計(jì)數(shù)據(jù)集[9]上報(bào)告的結(jié)果對(duì)先前引用的方法進(jìn)行比較,該基準(zhǔn)測(cè)試是最流行的用于戶外里程計(jì)評(píng)估的大型數(shù)據(jù)集之一:它包含使用Velodyne HDL-64E記錄的22個(gè)序列激光雷達(dá)掃描儀已經(jīng)過(guò)預(yù)處理,,以補(bǔ)償車輛的運(yùn)動(dòng),。地面真值可用的11個(gè)序列,并且是使用高級(jí)GPS / INS系統(tǒng)獲得的,。盡管LOAM仍然占據(jù)著KITTI排行榜的第一位,,但是很明顯,涉及深度學(xué)習(xí)的方法正變得越來(lái)越準(zhǔn)確,。例如,,DeepICP的報(bào)告平均結(jié)果優(yōu)于訓(xùn)練數(shù)據(jù)集上提出的任何其他方法。但是,,我們很難將它們歸類為“最先進(jìn)”的方法,,主要有兩個(gè)原因:

(1)DeepICP報(bào)告,配準(zhǔn)每對(duì)點(diǎn)云大約需要2秒鐘,。這太慢了,,以至于不能在現(xiàn)實(shí)生活中運(yùn)行的真正的自動(dòng)駕駛汽車上使用。

(2)尚未報(bào)告測(cè)試數(shù)據(jù)集上這些方法的結(jié)果,。在測(cè)試數(shù)據(jù)集上的良好結(jié)果將證明這些方法能夠在實(shí)際場(chǎng)景中使用,,而不僅是在深度神經(jīng)網(wǎng)絡(luò)已經(jīng)看到的數(shù)據(jù)上。在此之前,,LOAM及其變體仍然是真正的自動(dòng)駕駛部署的最佳選擇和最可信賴的,。

        在本文中,,主要回顧,分析,,比較和討論了自動(dòng)駕駛汽車3D LIDAR定位領(lǐng)域中的大多數(shù)最新進(jìn)展和發(fā)現(xiàn),。考慮了使用唯一的傳感器是3D LIDAR的系統(tǒng),,這是由于該傳感器在當(dāng)今最準(zhǔn)確的感知和定位系統(tǒng)中的重要性日益增加,,此外,它對(duì)大眾和制造商的可用性也有所提高,。從論文對(duì)KITTI里程計(jì)數(shù)據(jù)集進(jìn)行比較,,得出以下結(jié)論:盡管基于深度學(xué)習(xí)的方法展現(xiàn)出良好的結(jié)果,并且似乎代表了未來(lái)的研究方向,,但是基于3D特征檢測(cè)和匹配的方法由于在現(xiàn)實(shí)應(yīng)用中具有一定的穩(wěn)定性,,仍被認(rèn)為是最佳且有效的方案。

參考文獻(xiàn)

向上滑動(dòng)閱覽

[1] G. K. Tam, Z.-Q. Cheng, Y.-K. Lai, F. C. Langbein, Y. Liu, D. Marshall, R. R. Martin, X.-F. Sun, and P. L. Rosin, “Registration of 3d point clouds and meshes: A survey from rigid to nonrigid,” IEEE transactions on visualization and computer graphics, vol. 19, no. 7, pp. 1199–1217, 2012. 

[2] R. Mur-Artal, J. M. M. Montiel, and J. D. Tardos, “Orb-slam: a versatile and accurate monocular slam system,” IEEE transactions on robotics, vol. 31, no. 5, pp. 1147–1163, 2015.

 [3] R. Mur-Artal and J. D. Tard ′os, “Orb-slam2: An open-source slam system for monocular, stereo, and rgb-d cameras,” IEEE Transactions on Robotics, vol. 33, no. 5, pp. 1255–1262, 2017. 

[4] D. Scaramuzza and F. Fraundorfer, “Visual odometry [tutorial],” IEEE robotics & automation magazine, vol. 18, no. 4, pp. 80–92, 2011. 

[5] K. R. Konda and R. Memisevic, “Learning visual odometry with a convolutional network.” in VISAPP (1), 2015, pp. 486–490.

 [6] S. Wang, R. Clark, H. Wen, and N. Trigoni, “Deepvo: Towards end-to-end visual odometry with deep recurrent convolutional neural networks,” in 2017 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2017, pp. 2043–2050.

[7] R. Clark, S. Wang, H. Wen, A. Markham, and N. Trigoni, “Vinet: Visual-inertial odometry as a sequence-to-sequence learning problem,” in Thirty-First AAAI Conference on Artificial Intelligence, 2017.

 [8] N. Yang, R. Wang, J. Stuckler, and D. Cremers, “Deep virtual stereo odometry: Leveraging deep depth prediction for monocular direct sparse odometry,” in Proceedings of the European Conference on Computer Vision (ECCV), 2018, pp. 817–833. 

[9] A. Geiger, P. Lenz, C. Stiller, and R. Urtasun, “Vision meets robotics: The kitti dataset,” The International Journal of Robotics Research, vol. 32, no. 11, pp. 1231–1237, 2013.

 [10] A. Segal, D. Haehnel, and S. Thrun, “Generalized-icp.” in Robotics: science and systems, vol. 2, no. 4. Seattle, WA, 2009, p. 435. 

[11] E. Mendes, P. Koch, and S. Lacroix, “Icp-based pose-graph slam,” 2016 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR), pp. 195–200, 2016.

 [12] K. Yoneda, H. T. Niknejad, T. Ogawa, N. Hukuyama, and S. Mita, “Lidar scan feature for localization with highly precise 3-d map,” 2014 IEEE Intelligent Vehicles Symposium Proceedings, pp. 1345– 1350, 2014.

 [13] A. Nicolai, R. Skeele, C. Eriksen, and G. A. Hollinger, “Deep learning for laser based odometry estimation.” 

[14] M. Magnusson, A. Lilienthal, and T. Duckett, “Scan registration for autonomous mining vehicles using 3d-ndt,” Journal of Field Robotics, vol. 24, no. 10, pp. 803–827, 2007.

 [15] B. Zhou, Z. Tang, K. Qian, F. Fang, and X. Ma, “A lidar odometry for outdoor mobile robots using ndt based scan matching in gps-denied environments,” in 2017 IEEE 7th Annual International Conference on CYBER Technology in Automation, Control, and Intelligent Systems (CYBER). IEEE, 2017, pp. 1230–1235. 

[16] P. Egger, P. V. Borges, G. Catt, A. Pfrunder, R. Siegwart, and R. Dub′e, “Posemap: Lifelong, multi-environment 3d lidar localization,” in 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2018, pp. 3430–3437.

 [17] W. Wang, M. R. U. Saputra, P. Zhao, P. Gusmao, B. Yang, C. Chen, A. Markham, and N. Trigoni, “Deeppco: End-to-end point cloud odometry through deep parallel neural network,” arXiv preprint arXiv:1910.11088, 2019. 

[18] Y. Cho, G. Kim, and A. Kim, “Deeplo: Geometry-aware deep lidar odometry,” arXiv preprint arXiv:1902.10562, 2019. 

[19] K. Ji, H. Chen, H. Di, J. Gong, G. Xiong, J. Qi, and T. Yi, “Cpfgslam:a robust simultaneous localization and mapping based on lidar in off-road environment,” in 2018 IEEE Intelligent Vehicles Symposium (IV), June 2018, pp. 650–655. 

[20] J. Deschaud, “IMLS-SLAM: scan-to-model matching based on 3d data,” CoRR, vol. abs/1802.08633, 2018. [Online]. Available: http:///abs/1802.08633

[21] K. Pathak, A. Birk, N. Vaskevicius, M. Pfingsthorn, S. Schwertfeger, and J. Poppinga, “Online three-dimensional slam by registration of large planar surface segments and closed-form pose-graph relaxation,” Journal of Field Robotics, vol. 27, no. 1, pp. 52–84, 2010.

[22] W. S. Grant, R. C. Voorhies, and L. Itti, “Finding planes in lidar point clouds for real-time registration,” in 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2013, pp. 4347– 4354. [23] H. Yin, L. Tang, X. Ding, Y. Wang, and R. Xiong, “Locnet: Global localization in 3d point clouds for mobile vehicles,” in 2018 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2018, pp. 728–733.

 [24] J. Behley and C. Stachniss, “Efficient surfel-based slam using 3d laser range data in urban environments.”

 [25] J. Zhang and S. Singh, “Loam: Lidar odometry and mapping in realtime.”

 [26] T. Shan and B. Englot, “Lego-loam: Lightweight and groundoptimized lidar odometry and mapping on variable terrain,” in 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2018, pp. 4758–4765. 

[27] X. Ji, L. Zuo, C. Zhang, and Y. Liu, “Lloam: Lidar odometry and mapping with loop-closure detection based correction,” in 2019 IEEE International Conference on Mechatronics and Automation (ICMA), Aug 2019, pp. 2475–2480.

 [28] J. Lin and F. Zhang, “A fast, complete, point cloud based loop closure for lidar odometry and mapping,” 09 2019.

 [29] G. Elbaz, T. Avraham, and A. Fischer, “3d point cloud registration for localization using a deep neural network auto-encoder,” in 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 2017, pp. 2472–2481.

 [30] X. Chen, A. M. E. Palazzolo, P. Gigu`ere, J. Behley, and C. Stachniss, “Suma + + : Efficient lidar-based semantic slam,” 2019.

 [31] A. Cramariuc, R. Dub′e, H. Sommer, R. Siegwart, and I. Gilitschenski, “Learning 3d segment descriptors for place recognition,” arXiv preprint arXiv:1804.09270, 2018. 

[32] R. Dube, D. Dugas, E. Stumm, J. Nieto, R. Siegwart, and C. Cadena, “Segmatch: Segment based place recognition in 3d point clouds,” 05 2017, pp. 5266–5272.

 [33] R. Dub′e, M. G. Gollub, H. Sommer, I. Gilitschenski, R. Siegwart, C. Cadena, and J. Nieto, “Incremental-segment-based localization in 3-d point clouds,” IEEE Robotics and Automation Letters, vol. 3, no. 3, pp. 1832–1839, 2018.

 [34] R. Dub, A. Gawel, H. Sommer, J. Nieto, R. Siegwart, and C. Cadena, “An online multi-robot slam system for 3d lidars,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Sep. 2017, pp. 1004–1011. 

[35] R. Dub′e, A. Cramariuc, D. Dugas, J. Nieto, R. Siegwart, and C. Cadena, “Segmap: 3d segment mapping using data-driven descriptors,” arXiv preprint arXiv:1804.09557, 2018. 

[36] C. Park, S. Kim, P. Moghadam, C. Fookes, and S. Sridharan, “Probabilistic surfel fusion for dense lidar mapping,” 2017 IEEE International Conference on Computer Vision Workshops (ICCVW), pp. 2418–2426, 2017.

 [37] Q. Li, S. Chen, C. Wang, X. Li, C. Wen, M. Cheng, and J. Li, “Lo-net: Deep real-time lidar odometry,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2019, pp. 8473–8482. [38] M. Velas, M. Spanel, and A. Herout, “Collar line segments for fast odometry estimation from velodyne point clouds,” 2016 IEEE International Conference on Robotics and Automation (ICRA), pp. 4486–4495, 2016.

 [39] T. Tang, D. Yoon, F. Pomerleau, and T. D. Barfoot, “Learning a bias correction for lidar-only motion estimation,” in 2018 15th Conference on Computer and Robot Vision (CRV). IEEE, 2018, pp. 166–173. 

[40] L. Sun, J. Zhao, X. He, and C. Ye, “Dlo: Direct lidar odometry for 2.5 d outdoor environment,” in 2018 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2018, pp. 1–5.

本文是自動(dòng)駕駛中激光雷達(dá)點(diǎn)云定位相關(guān)綜述,,由于篇幅文章內(nèi)容以及參考文獻(xiàn)有所刪減,,如有興趣,可加入知識(shí)星球下載原文進(jìn)行學(xué)習(xí),。

資源

三維點(diǎn)云論文及相關(guān)應(yīng)用分享

【點(diǎn)云論文速讀】基于激光雷達(dá)的里程計(jì)及3D點(diǎn)云地圖中的定位方法

3D目標(biāo)檢測(cè):MV3D-Net

三維點(diǎn)云分割綜述(上)

3D-MiniNet: 從點(diǎn)云中學(xué)習(xí)2D表示以實(shí)現(xiàn)快速有效的3D LIDAR語(yǔ)義分割(2020)

win下使用QT添加VTK插件實(shí)現(xiàn)點(diǎn)云可視化GUI

JSNet:3D點(diǎn)云的聯(lián)合實(shí)例和語(yǔ)義分割

大場(chǎng)景三維點(diǎn)云的語(yǔ)義分割綜述

PCL中outofcore模塊---基于核外八叉樹的大規(guī)模點(diǎn)云的顯示

基于局部凹凸性進(jìn)行目標(biāo)分割

基于三維卷積神經(jīng)網(wǎng)絡(luò)的點(diǎn)云標(biāo)記

點(diǎn)云的超體素(SuperVoxel)

基于超點(diǎn)圖的大規(guī)模點(diǎn)云分割

更多文章可查看:點(diǎn)云學(xué)習(xí)歷史文章大匯總

SLAM及AR相關(guān)分享

【開(kāi)源方案共享】ORB-SLAM3開(kāi)源啦,!

【論文速讀】AVP-SLAM:自動(dòng)泊車系統(tǒng)中的語(yǔ)義SLAM

【點(diǎn)云論文速讀】StructSLAM:結(jié)構(gòu)化線特征SLAM

SLAM和AR綜述

常用的3D深度相機(jī)

AR設(shè)備單目視覺(jué)慣導(dǎo)SLAM算法綜述與評(píng)價(jià)

SLAM綜述(4)激光與視覺(jué)融合SLAM

Kimera實(shí)時(shí)重建的語(yǔ)義SLAM系統(tǒng)

SLAM綜述(3)-視覺(jué)與慣導(dǎo),視覺(jué)與深度學(xué)習(xí)SLAM

易擴(kuò)展的SLAM框架-OpenVSLAM

高翔:非結(jié)構(gòu)化道路激光SLAM中的挑戰(zhàn)

SLAM綜述之Lidar SLAM

基于魚眼相機(jī)的SLAM方法介紹

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多