亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        動(dòng)態(tài)環(huán)境中多幀點(diǎn)云融合算法及三維目標(biāo)檢測算法研究

        2023-01-01 00:00:00王理嘉于歡劉守印

        摘 要:低線束激光雷達(dá)掃描的點(diǎn)云數(shù)據(jù)較為稀疏,導(dǎo)致無人駕駛環(huán)境感知系統(tǒng)中三維目標(biāo)檢測效果欠佳,通過多幀點(diǎn)云配準(zhǔn)可實(shí)現(xiàn)稀疏點(diǎn)云稠密化,但動(dòng)態(tài)環(huán)境中的行人與移動(dòng)車輛會降低激光雷達(dá)的定位精度,也會造成融合幀中運(yùn)動(dòng)目標(biāo)上的點(diǎn)云偏移較大。針對上述問題,提出了一種動(dòng)態(tài)環(huán)境中多幀點(diǎn)云融合算法,利用該算法在園區(qū)道路實(shí)況下進(jìn)行三維目標(biāo)檢測,提高了低線束激光雷達(dá)的三維目標(biāo)檢測精度。利用16線和40線激光雷達(dá)采集的行駛路況數(shù)據(jù)進(jìn)行實(shí)驗(yàn),結(jié)果表明該算法能夠增強(qiáng)稀疏點(diǎn)云密度,改善低成本激光雷達(dá)的環(huán)境感知能力。

        關(guān)鍵詞:激光雷達(dá);點(diǎn)云融合;位姿變換;無人駕駛

        中圖分類號:TP391.41 文獻(xiàn)標(biāo)志碼:A

        文章編號:1001-3695(2023)03-044-0909-05

        doi:10.19734/j.issn.1001-3695.2022.05.0345

        Research on multi-frame point cloud fusion algorithm and 3D object

        detection algorithm in dynamic environment

        Wang Lijia1,Yu Huan2,Liu Shouyin1

        (1.College of Physical Science amp; Technology,Central China Normal University,Wuhan 430079,China;2.Wuhan InDriving Technology Co.,Ltd.,Wuhan 430079, China)

        Abstract:The point cloud data scanned by the low-beam LiDAR is relatively sparse,resulting in poor 3D object detection in the unmanned environment perception system.Multi-frame point cloud registration can achieve sparse point cloud densification,however,pedestrians and moving vehicles in a dynamic environment will reduce the positioning accuracy of the LiDAR,and will also cause a large offset of the point cloud on the moving object in the fusion frame.Aiming at the above problems,this paper proposed a multi-frame point cloud fusion algorithm in a dynamic environment,and used this algorithm to detect 3D objects in the real situation of park roads,which improved the 3D object detection accuracy of low-beam LiDAR.This paper used the dri-ving road condition data collected by 16-line and 40-line LiDAR to conduct experiments.The results show that the algorithm can enhance the density of sparse point clouds and improve the environmental perception ability of low-cost LiDAR.

        Key words:LiDAR;point cloud fusion;pose transformation;autonomous driving

        0 引言

        隨著計(jì)算機(jī)視覺、人工智能、自動(dòng)化等學(xué)科的快速發(fā)展,自動(dòng)駕駛汽車[1]應(yīng)運(yùn)而生。有研究表明,自動(dòng)駕駛技術(shù)將引領(lǐng)智能交通的變革,為道路擁堵、交通事故、環(huán)境污染等問題帶來新的解決方案[2]。自動(dòng)駕駛系統(tǒng)如圖1所示,包括環(huán)境感知、導(dǎo)航定位、決策規(guī)劃、運(yùn)動(dòng)控制等模塊,其中最基礎(chǔ)的環(huán)境感知模塊為上層決策規(guī)劃提供依據(jù)。障礙物檢測是環(huán)境感知的核心任務(wù),也是保障車輛安全行駛的關(guān)鍵,目前主流的用于環(huán)境感知的車載傳感器有攝像機(jī)、激光雷達(dá)、毫米波雷達(dá)等。其中激光雷達(dá)相較于攝像機(jī),可以獲取準(zhǔn)確的深度信息,且不受光照影響;相較于毫米波雷達(dá),其分辨率更高,可用于車輛、行人等障礙物的輪廓提取和靜態(tài)、動(dòng)態(tài)跟蹤等[3]。因此激光雷達(dá)以精度高、不易受光照影響、獲取深度信息精確等特點(diǎn)成為了自動(dòng)駕駛汽車的重要傳感器。

        三維目標(biāo)檢測與基于圖像的二維目標(biāo)檢測相比,增加了障礙物的三維尺寸和方向信息。點(diǎn)云是三維視覺的表達(dá)方式,激光雷達(dá)掃描的點(diǎn)云具有更強(qiáng)的空間捕獲能力,且對自然光不敏感,可以更精確地描述三維世界[4]。因此,基于激光雷達(dá)點(diǎn)云的三維目標(biāo)檢測算法具有重要的應(yīng)用價(jià)值。激光雷達(dá)線束越多,對環(huán)境感知能力越強(qiáng),故自動(dòng)駕駛領(lǐng)域基準(zhǔn)數(shù)據(jù)集大多使用高線束激光雷達(dá)或多雷達(dá)融合來獲取環(huán)境信息,如KITTI[5,6]使用Velodyne-64線激光雷達(dá),nuScenes[7]使用一個(gè)LiDAR(激光雷達(dá))和五個(gè)RADAR(雷達(dá)),Waymo[8]使用五個(gè)定制激光雷達(dá)等。但高線束的激光雷達(dá)在提升檢測性能的同時(shí)也增加了高昂的成本,Velodyne生產(chǎn)的64線激光雷達(dá)售價(jià)約是同系列16線產(chǎn)品價(jià)格的10倍左右。為降低成本,可以使用具有較低線束的激光雷達(dá),但必須提高目標(biāo)檢測算法的性能來保障汽車行駛安全,因此提高低線束激光雷達(dá)的目標(biāo)檢測準(zhǔn)確率和精度已成為降低自動(dòng)駕駛汽車成本、加快其落地量產(chǎn)的重要舉措。

        低線束激光雷達(dá)掃描的點(diǎn)云數(shù)據(jù)較為稀疏,造成三維目標(biāo)檢測效果欠佳,因此許多研究者通過增大其點(diǎn)云密度來提升目標(biāo)檢測精度。比如張佳鵬[9]通過提取點(diǎn)云的曲率特征進(jìn)行點(diǎn)云配準(zhǔn),將歷史幀點(diǎn)云投影至當(dāng)前幀,再以配準(zhǔn)后的密集點(diǎn)云投影至柵格地圖,最后根據(jù)柵格內(nèi)每個(gè)點(diǎn)的高度來判別柵格內(nèi)是否為障礙物點(diǎn)云;蘇天楚等人[10]通過激光雷達(dá)里程計(jì)獲取坐標(biāo)變換矩陣,從而實(shí)現(xiàn)多幀疊加點(diǎn)云,再基于歐氏聚類完成障礙物檢測。但是在實(shí)際的駕駛環(huán)境中存在移動(dòng)的行人和行駛的車輛,這些動(dòng)態(tài)目標(biāo)的點(diǎn)云數(shù)據(jù)會降低激光雷達(dá)定位精度[11],也會導(dǎo)致融合幀中運(yùn)動(dòng)目標(biāo)的點(diǎn)云偏移較大[12]。上述文獻(xiàn)方法在利用激光里程計(jì)計(jì)算位姿階段沒有考慮動(dòng)態(tài)目標(biāo)點(diǎn)云引起的定位偏差問題,在點(diǎn)云融合階段沒有考慮動(dòng)態(tài)目標(biāo)點(diǎn)云偏移問題,在目標(biāo)檢測階段僅使用傳統(tǒng)的基于規(guī)則的障礙物檢測方法,無法給出目標(biāo)精確的三維框信息。

        此外,其他的多幀點(diǎn)云融合方法大多借助GPS、IMU(慣性測量單元)等外部運(yùn)動(dòng)測量傳感器來獲取載體運(yùn)動(dòng)信息。例如文獻(xiàn)[11]直接通過計(jì)算IMU數(shù)據(jù)來獲取幀間位姿變換矩陣,避免了動(dòng)態(tài)目標(biāo)點(diǎn)云引起的定位誤差;文獻(xiàn)[12]在此基礎(chǔ)上進(jìn)一步考慮了利用IMU直接投影存在動(dòng)態(tài)目標(biāo)上的點(diǎn)云偏移問題。上述文獻(xiàn)方法不僅增加了成本,而且其融合效果極大地依賴外部傳感器的性能。因此,本文考慮不使用額外傳感器,僅基于激光雷達(dá)進(jìn)行多幀點(diǎn)云融合,以稀疏點(diǎn)云稠密化來增強(qiáng)點(diǎn)云表征能力,從而改善其三維目標(biāo)檢測效果。但在動(dòng)態(tài)環(huán)境中進(jìn)行多幀點(diǎn)云配準(zhǔn),行人與移動(dòng)車輛等動(dòng)態(tài)目標(biāo)點(diǎn)云會降低激光雷達(dá)的定位精度,文獻(xiàn)[13]同樣借助IMU來濾除動(dòng)態(tài)目標(biāo)點(diǎn)云從而提高激光里程計(jì)的定位精度,而且動(dòng)態(tài)目標(biāo)點(diǎn)云在融合幀中存在較大偏移問題。

        針對上述問題,本文提出一種動(dòng)態(tài)環(huán)境中多幀點(diǎn)云融合算法,并結(jié)合基于深度學(xué)習(xí)的三維目標(biāo)檢測模型PointRCNN[14]完成園區(qū)道路實(shí)況中的障礙物檢測任務(wù)。該算法通過幀幀配準(zhǔn)與Ceres優(yōu)化來計(jì)算幀間位姿變換矩陣,并借助動(dòng)態(tài)目標(biāo)檢測解決動(dòng)態(tài)目標(biāo)點(diǎn)云引起的定位偏差與融合幀動(dòng)態(tài)目標(biāo)點(diǎn)云偏移問題,最后使用融合幀點(diǎn)云進(jìn)行三維目標(biāo)檢測,提高低線束激光雷達(dá)的檢測精度。

        1 整體結(jié)構(gòu)設(shè)計(jì)

        本文的整體算法框圖如圖2所示。低線束激光雷達(dá)以10 Hz的頻率輸出點(diǎn)云幀,表示為(N,3+C),其中N是點(diǎn)的個(gè)數(shù),3是每個(gè)點(diǎn)的三維坐標(biāo)[x,y,z],C是傳感器捕捉到的其他信息,如點(diǎn)云的強(qiáng)度、目標(biāo)的材質(zhì)信息等。在每三幀點(diǎn)云數(shù)據(jù)中,使用前兩幀作為歷史幀,通過多幀點(diǎn)云融合算法將歷史幀點(diǎn)云數(shù)據(jù)融合進(jìn)當(dāng)前幀,豐富當(dāng)前幀點(diǎn)云信息,得到融合幀,再將融合幀點(diǎn)云數(shù)據(jù)作為三維目標(biāo)檢測算法的輸入,獲取環(huán)境中障礙物的類別與三維框信息。

        圖2中“融合幀點(diǎn)云”通過多幀點(diǎn)云融合算法得到,其算法流程如圖3所示,主要包括位姿變換矩陣計(jì)算與動(dòng)態(tài)目標(biāo)平移兩部分。算法首先通過預(yù)處理來濾除動(dòng)態(tài)目標(biāo)點(diǎn)云,再根據(jù)環(huán)境中的靜態(tài)目標(biāo)點(diǎn)云提取特征進(jìn)行點(diǎn)云配準(zhǔn),從而降低動(dòng)態(tài)目標(biāo)點(diǎn)云引起的定位偏差;計(jì)算出歷史幀到當(dāng)前幀的位姿變換矩陣(R,T)后,將歷史幀點(diǎn)云數(shù)據(jù)轉(zhuǎn)換至當(dāng)前幀點(diǎn)云坐標(biāo)系下,得到初步融合點(diǎn)云幀;接下來將預(yù)處理后的動(dòng)態(tài)目標(biāo)點(diǎn)云簇進(jìn)行歐氏聚類[15],通過動(dòng)態(tài)目標(biāo)平移來解決初步融合點(diǎn)云幀中動(dòng)態(tài)目標(biāo)點(diǎn)云偏移問題,最終得到經(jīng)過精確配準(zhǔn)的致密點(diǎn)云數(shù)據(jù),便于后續(xù)的檢測算法。

        2 算法設(shè)計(jì)與實(shí)現(xiàn)

        2.1 動(dòng)態(tài)目標(biāo)預(yù)處理

        預(yù)處理主要是為了濾除行駛環(huán)境中的動(dòng)態(tài)目標(biāo)點(diǎn)云,因?yàn)樵诟鶕?jù)前后幀點(diǎn)云配準(zhǔn)來估計(jì)位姿變換矩陣時(shí),動(dòng)態(tài)目標(biāo)點(diǎn)云會導(dǎo)致累積誤差,從而降低定位精度。為快速提取出點(diǎn)云幀中的動(dòng)態(tài)點(diǎn),將三維點(diǎn)云數(shù)據(jù)投影至二維柵格圖,根據(jù)柵格內(nèi)點(diǎn)云屬性劃分出障礙物點(diǎn)云簇,再由候選目標(biāo)點(diǎn)云簇特點(diǎn)找到動(dòng)態(tài)目標(biāo)點(diǎn)云簇,完成動(dòng)態(tài)目標(biāo)點(diǎn)云的快速識別與濾除。

        設(shè)點(diǎn)云集合為P,其中某一點(diǎn)Pi的坐標(biāo)為(xi,yi,zi),在激光雷達(dá)坐標(biāo)系的XOY平面中劃分柵格,柵格尺寸G為0.5 m,整個(gè)柵格圖在x、y坐標(biāo)軸上的偏移量為(gridx,gridy),則激光雷達(dá)坐標(biāo)系中點(diǎn)Pi到二維柵格圖的投影轉(zhuǎn)換公式為

        柵格圖中每個(gè)柵格存儲原始點(diǎn)云的全部信息,如三維坐標(biāo)與反射率等。通過將柵格內(nèi)點(diǎn)云與最低點(diǎn)的高度差與閾值進(jìn)行比較,可以劃分出地面點(diǎn)云與非地面點(diǎn)云,濾除地面點(diǎn)云后,對每個(gè)柵格判斷其屬性來劃分障礙物與非障礙物點(diǎn)云柵格。具體做法是,遍歷柵格圖中每個(gè)柵格里的點(diǎn),計(jì)算柵格內(nèi)點(diǎn)與點(diǎn)之間的最大高度差H_max和柵格中點(diǎn)的數(shù)量point_num,如果柵格內(nèi)H_max大于閾值T1的同時(shí)point_num大于閾值T2,那么認(rèn)為此柵格為障礙物柵格。這種考慮高度差和點(diǎn)云數(shù)量的判定方法可以進(jìn)一步消除殘余地面點(diǎn)影響,降低環(huán)境噪聲帶來的干擾,在保留點(diǎn)云簇原始幾何特征的同時(shí)也降低了計(jì)算存儲量。

        障礙物柵格中包含靜態(tài)與動(dòng)態(tài)目標(biāo),環(huán)境中的動(dòng)態(tài)目標(biāo)主要考慮行人和車輛,根據(jù)行人、車輛點(diǎn)云簇的特點(diǎn)從候選目標(biāo)柵格中確定其對應(yīng)的柵格。上述候選目標(biāo)點(diǎn)云簇表示為[l,w,h,0;cluster{i}],主要包括點(diǎn)云簇的長、寬、高尺寸信息與點(diǎn)云簇中每個(gè)點(diǎn)的位置坐標(biāo)(x,y,z)和強(qiáng)度信息。本文根據(jù)車輛、行人點(diǎn)云簇的輪廓信息、幾何信息和材質(zhì)信息來區(qū)分出車輛點(diǎn)云簇和行人點(diǎn)云簇。文中提取了點(diǎn)云簇的寬高比、點(diǎn)云強(qiáng)度信息的均值和方差作為特征向量,從候選目標(biāo)點(diǎn)云簇中識別車輛與行人目標(biāo)點(diǎn)云。

        2.2 位姿變換矩陣計(jì)算

        從歷史幀到當(dāng)前幀的位姿變換矩陣的計(jì)算主要包括載體運(yùn)動(dòng)畸變?nèi)コ?、點(diǎn)云特征提取和點(diǎn)云配準(zhǔn)三部分。因?yàn)榧す饫走_(dá)傳感器位于載體汽車上,隨著汽車的運(yùn)動(dòng),激光雷達(dá)所發(fā)射的激光線束掃描完成一圈后,其起點(diǎn)與終點(diǎn)會發(fā)生偏移,產(chǎn)生點(diǎn)云畸變,為精確實(shí)現(xiàn)點(diǎn)云位姿變換,需要先計(jì)算畸變因子,消除因載體運(yùn)動(dòng)產(chǎn)生的點(diǎn)云畸變。假設(shè)激光雷達(dá)點(diǎn)云所在的三維空間坐標(biāo)系為L,第k幀點(diǎn)云表述為pLk,該幀點(diǎn)云掃描的起始與終止時(shí)刻分別為tk、tk+1,對于幀內(nèi)的某一點(diǎn)i,其對應(yīng)的畸變因子fi的計(jì)算公式為

        2.3 動(dòng)態(tài)目標(biāo)平移

        根據(jù)位姿變換矩陣將歷史幀點(diǎn)云投影至當(dāng)前幀完成點(diǎn)云初步融合,對于歷史幀中的動(dòng)態(tài)目標(biāo),其在從歷史幀到當(dāng)前幀的時(shí)間間隔內(nèi)存在運(yùn)動(dòng)偏移情況,參考文獻(xiàn)[12]完成動(dòng)態(tài)目標(biāo)點(diǎn)云的提取與平移,與文獻(xiàn)[12]不同,本文無須限制障礙物的長寬,可直接利用預(yù)處理獲得動(dòng)態(tài)目標(biāo)點(diǎn)云簇。首先將預(yù)處理階段得到的動(dòng)態(tài)目標(biāo)點(diǎn)云簇進(jìn)行歐氏聚類[15],并對聚類出的點(diǎn)云簇計(jì)算出最小外接矩形框,矩形框的中心為動(dòng)態(tài)目標(biāo)點(diǎn)云簇的中心。

        將歷史幀與當(dāng)前幀點(diǎn)云的聚類結(jié)果進(jìn)行最近鄰搜索,設(shè)置最大搜索距離閾值為0.3 m,在閾值內(nèi)搜索到的進(jìn)行匹配,將歷史幀中對應(yīng)的聚類目標(biāo)平移至當(dāng)前幀中目標(biāo)所在的位置,使得動(dòng)態(tài)目標(biāo)矩形框的中心重合。通過上述動(dòng)態(tài)目標(biāo)平移降低動(dòng)態(tài)目標(biāo)點(diǎn)云偏移問題,得到更精確的融合點(diǎn)云幀。

        2.4 三維目標(biāo)檢測算法

        基于點(diǎn)云的3D目標(biāo)檢測任務(wù),輸入是點(diǎn)云(N,3+C),輸出是場景中目標(biāo)的3D包圍框(3D bounding box,3D Bbox)。3D Bbox是在真實(shí)三維世界中包圍目標(biāo)物體的最小長方體,其主要包含物體中心位置距離自車的原點(diǎn)距離坐標(biāo)(cx,cy,cz),物體的長、寬、高(dx,dy,dz)以及物體在鳥瞰圖上的朝向(heading),即物體的移動(dòng)方向,自動(dòng)駕駛場景下是車頭的方向。因此自動(dòng)駕駛中的三維目標(biāo)檢測也是一個(gè)目標(biāo)物體7自由度預(yù)測問題。

        基于深度學(xué)習(xí)的點(diǎn)云目標(biāo)檢測算法根據(jù)特征提取方式分為基于點(diǎn)point-based、基于體素voxel-based、基于鳥瞰圖BEV-based等;根據(jù)檢測方式分為基于錨定anchor-based與無錨定anchor-free;根據(jù)階段劃分可以分為一階段one-stage和兩階段two-stage。三維目標(biāo)檢測算法流程如圖4所示。

        本文選擇基于點(diǎn)的、無錨定兩階段檢測網(wǎng)絡(luò)PointRCNN[14]用于識別環(huán)境中車輛并定位車輛的三維框。PointRCNN網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示,第一階段是從原始點(diǎn)云中自底向上生成3D提案,即從每一個(gè)前景點(diǎn)中生成三維候選框;第二階段進(jìn)行三維框細(xì)化,通過點(diǎn)云區(qū)域池化來回歸目標(biāo)準(zhǔn)確的3D包圍框和分類置信度。

        3 實(shí)驗(yàn)結(jié)果與分析

        本文利用16線和40線激光雷達(dá)分別采集實(shí)際行駛路況的點(diǎn)云數(shù)據(jù)進(jìn)行實(shí)驗(yàn),測試本文的多幀點(diǎn)云融合算法在不同線束激光雷達(dá)點(diǎn)云數(shù)據(jù)上的融合效果,驗(yàn)證算法的魯棒性;同時(shí)進(jìn)行三維目標(biāo)檢測實(shí)驗(yàn),驗(yàn)證點(diǎn)云稠密化對目標(biāo)檢測算法性能的提升,證明本文算法能夠增強(qiáng)稀疏點(diǎn)云密度,在較低成本的激光雷達(dá)上實(shí)現(xiàn)較好的環(huán)境感知效果。

        3.1 傳感器介紹

        本文使用速騰聚創(chuàng)RS-LiDAR-16型號的16線與禾賽科技Pandar40P型號的40線激光雷達(dá)分別采集環(huán)境信息,傳感器為車頂對心安裝。選用NVIDIA Jetson TX2嵌入式計(jì)算機(jī)作為主控板實(shí)時(shí)接收環(huán)境信息,軟件系統(tǒng)為Ubuntu 16.04和ROS(robot operation system),采集場景為兩個(gè)高校和兩個(gè)科技園區(qū)。RoboSense-16與Pandar40P 激光雷達(dá)性能參數(shù)如表1、2所示。

        3.2 實(shí)驗(yàn)平臺

        本文的實(shí)驗(yàn)基于Ubuntu服務(wù)器和PyTorch深度學(xué)習(xí)框架,實(shí)驗(yàn)平臺具體配置介紹如表3所示。

        3.3 多幀點(diǎn)云融合結(jié)果

        本文基于16線和40線激光雷達(dá)點(diǎn)云數(shù)據(jù)進(jìn)行了融合實(shí)驗(yàn),通過處理前后的效果對比圖,可視化展示了激光雷達(dá)點(diǎn)云的稠密化效果。

        圖6為RoboSense-16的融合效果對比圖,中間黑色圓圈是搭載激光雷達(dá)傳感器采集車所在的位置,點(diǎn)云從采集車發(fā)散出去,距離激光雷達(dá)越遠(yuǎn),點(diǎn)云數(shù)量越少,越稀疏。其中,(a)是16線激光雷達(dá)的單幀點(diǎn)云數(shù)據(jù);(b)是三幀融合后的點(diǎn)云數(shù)據(jù)??梢钥闯?,歷史幀點(diǎn)云可以較好地增強(qiáng)當(dāng)前幀的點(diǎn)云信息。

        激光雷達(dá)40線的點(diǎn)云融合效果對比如圖7所示,其中自車的前進(jìn)方向?yàn)閳D中由左至右,整個(gè)行駛場景點(diǎn)云圖展示出遠(yuǎn)距離、大范圍的點(diǎn)云融合效果。

        圖8為動(dòng)態(tài)目標(biāo)“行人”的點(diǎn)云融合效果對比圖,是Pandar40P激光雷達(dá)采集的點(diǎn)云數(shù)據(jù)。由圖可知,算法通過歷史幀中點(diǎn)云信息豐富了當(dāng)前幀點(diǎn)云,較好地解決了動(dòng)態(tài)目標(biāo)點(diǎn)云偏移問題,增強(qiáng)了運(yùn)動(dòng)目標(biāo)的點(diǎn)云密度,便于后續(xù)檢測。

        本文算法融合效果與迭代最近點(diǎn)算法(iterative closest point,ICP)融合效果的對比如圖9所示。為便于觀察融合效果,使用Pandar40P激光雷達(dá)采集的點(diǎn)云數(shù)據(jù)。由圖可知,針對動(dòng)態(tài)目標(biāo)“車輛”,本文算法相較于迭代最近點(diǎn)算法,可以較好地降低動(dòng)態(tài)目標(biāo)點(diǎn)云的偏移誤差,改善動(dòng)態(tài)目標(biāo)融合效果。

        由實(shí)驗(yàn)結(jié)果可知,本文提出的多幀點(diǎn)云融合算法可以適應(yīng)不同線束激光雷達(dá)點(diǎn)云數(shù)據(jù),能夠降低動(dòng)態(tài)目標(biāo)點(diǎn)云引起的定位偏差與融合幀點(diǎn)云偏移問題,對于動(dòng)態(tài)環(huán)境中的點(diǎn)云有較好的融合效果。

        接下來進(jìn)行算法耗時(shí)性分析,本文采集16線點(diǎn)云數(shù)據(jù)共1 050幀,融合算法共耗時(shí)76.65 s,平均每幀耗時(shí)0.073 s,激光雷達(dá)以10 Hz輸出點(diǎn)云,本文設(shè)計(jì)的算法能夠滿足實(shí)時(shí)性要求。

        3.4 三維目標(biāo)檢測結(jié)果

        為驗(yàn)證點(diǎn)云融合算法對后續(xù)三維目標(biāo)檢測算法的影響,本文分別在單幀點(diǎn)云和融合幀點(diǎn)云中使用PointRCNN算法進(jìn)行三維目標(biāo)檢測,對比其檢測結(jié)果中目標(biāo)識別的準(zhǔn)確率與三維框的定位精度。

        圖10為RoboSense-16的三維目標(biāo)檢測效果對比。圖中綠色三維框?yàn)椤败囕v”,每個(gè)三維框右上角的數(shù)值為判別其是該類目標(biāo)的置信度,三維框中含有×標(biāo)記的一面為車頭方向。由對比圖可知,融合幀點(diǎn)云可以識別出更遠(yuǎn)處的“車輛”,提高16線激光雷達(dá)的目標(biāo)檢測效果。

        基于Pandar40P的三維目標(biāo)檢測效果對比如圖11所示。其中藍(lán)色三維框?yàn)椤靶腥恕?,可以看出,相較于融合幀,單幀點(diǎn)云難以識別出遠(yuǎn)距離、有遮擋、小目標(biāo)的障礙物。

        上述是分別針對不同線束的激光雷達(dá)點(diǎn)云進(jìn)行三維目標(biāo)檢測效果對比,圖12是對比不同融合算法的檢測效果。由圖12可知,基于ICP的點(diǎn)云融合算法在靜態(tài)環(huán)境中效果較好,但在動(dòng)態(tài)環(huán)境中,動(dòng)態(tài)目標(biāo)點(diǎn)云會引起定位誤差,且位姿變換后動(dòng)態(tài)目標(biāo)點(diǎn)云會產(chǎn)生偏移,影響三維目標(biāo)檢測的檢測精度。圖12中,(a)顯示不能檢測到遠(yuǎn)處的目標(biāo),(b)則能很好地檢測出遠(yuǎn)處的目標(biāo)。

        由實(shí)驗(yàn)結(jié)果對比可知,融合幀可以較好地提升低線束激光雷達(dá)單幀點(diǎn)云的三維目標(biāo)檢測精度,即本文算法能夠增強(qiáng)稀疏點(diǎn)云密度,改善低成本激光雷達(dá)的環(huán)境感知效果。

        4 結(jié)束語

        本文從降低成本、加快技術(shù)落地、提高算法檢測性能的角度出發(fā),使用低線束激光雷達(dá)進(jìn)行環(huán)境感知,為改善稀疏點(diǎn)云的三維目標(biāo)檢測效果,提出一種動(dòng)態(tài)環(huán)境中多幀點(diǎn)云融合算法,通過識別動(dòng)態(tài)目標(biāo)來降低點(diǎn)云幀的定位誤差與融合幀的點(diǎn)云偏移,讓歷史幀點(diǎn)云更精確地融合進(jìn)當(dāng)前幀,最后使用融合幀點(diǎn)云進(jìn)行三維目標(biāo)檢測。實(shí)車實(shí)驗(yàn)證明,該方法能夠適用于不同線束激光雷達(dá)點(diǎn)云數(shù)據(jù),改善低成本激光雷達(dá)的環(huán)境感知能力。

        參考文獻(xiàn):

        [1]張茜.無人駕駛系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[J].電子技術(shù)與軟件工程,2019(18):103-104.(Zhang Qian.Design and implementation of unmanned driving system[J].Electronic Technology amp; Software Engineering,2019(18):103-104.)

        [2]劉少山,唐潔,吳雙,等.第一本自動(dòng)駕駛技術(shù)書[M].北京:電子工業(yè)出版社,2017.(Liu Shaoshan,Tang Jie,Wu Shuang,et al.The first handbook of autonomous driving technology[M].Beijing:Publishing House of Electronics Industry,2017.)

        [3]陳篤廉.無人駕駛客車的發(fā)展現(xiàn)狀及展望[J].機(jī)電技術(shù),2017(3):109-112.(Chen Dulian.Development status and prospect of driverless buses[J].Mechanical amp; Electrical Technology,2017(3):109-112.)

        [4]Wu Yutian,Wang Yueyu,Zhang Shuwei,et al.Deep 3D object detection networks using LiDAR data:a review[J].IEEE Sensors Journal,2021,21(2):1152-1171.

        [5]Geiger A,Lenz P,Urtasun R.Are we ready for autonomous driving?The KITTI vision benchmark suite[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2012:3354-3361.

        [6]Geiger A,Lenz P,Stiller C,et al.Vision meets robotics:the KITTI dataset[J].International Journal of Robotics Research,2013,32(11):1231-1237.

        [7]Caesar H,Bankiti V,Lang A H,et al.nuScenes:a multimodal dataset for autonomous driving[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:11621-11631.

        [8]Sun Pei,Kretzschmar H,Dotiwalla X,et al.Scalability in perception for autonomous driving:Waymo open dataset[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:2446-2454.

        [9]張佳鵬.基于時(shí)空融合的激光雷達(dá)障礙物檢測與運(yùn)動(dòng)目標(biāo)跟蹤[D].杭州:浙江大學(xué),2019.(Zhang Jiapeng.Obstacle detection and moving object tracking based on spatial-temporal fusion of LiDAR[D].Hangzhou:Zhejiang University,2019.)

        [10]蘇天楚,潘博,倪俊.基于低線束雷達(dá)的低矮障礙物優(yōu)化檢測[C]//2018中國汽車工程學(xué)會年會論文集.北京:機(jī)械工業(yè)出版社,2018:177-182.(Su Tianchu,Pan Bo,Ni Jun.Optimal detection of low obstacles based on low beam radar[C]//Proc of Society of Automotive Engineers-China Congress.Beijing:China Machine Press,2018:177-182.)

        [11]張艷國,李擎.基于慣性測量單元的激光雷達(dá)點(diǎn)云融合方法[J].系統(tǒng)仿真學(xué)報(bào),2018,30(11):4334-4339.(Zhang Yanguo,Li Qing.Multi-frame fusion method for point cloud of LiDAR based on IMU[J].Journal of System Simulation,2018,30(11):4334-4339.)

        [12]劉輝席,陳文浩,劉守印.基于IMU和動(dòng)態(tài)目標(biāo)檢測的多幀點(diǎn)云融合算法[J].計(jì)算機(jī)應(yīng)用研究,2021,38(7):2179-2182.(Liu Huixi,Chen Wenhao,Liu Shouyin.Multi-frame point cloud fusion algorithm based on IMU and dynamic target detection[J].Application Research of Computers,2021,38(7):2179-2182.)

        [13]張濤,張晨,魏宏宇.動(dòng)態(tài)環(huán)境下融合激光雷達(dá)和IMU的激光里程計(jì)設(shè)計(jì)[J].導(dǎo)航定位與授時(shí),2022,9(3):70-78.(Zhang Tao,Zhang Chen,Wei Hongyu.Design of LiDAR Odemeter integrating LiDAR and IMU in dynamic environment[J].Navigation Positioning and Timing,2022,9(3):70-78.)

        [14]Shi Shaoshuai,Wang Xiaogang,Li Hongsheng.PointRCNN:3D object proposal generation and detection from point cloud[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:770-779.

        [15]陳向陽,楊洋,向云飛.歐氏聚類算法支持下的點(diǎn)云數(shù)據(jù)分割[J].測繪通報(bào),2017(11):27-31,36.(Chen Xiangyang,Yang Yang,Xiang Yunfei.Measurement of point cloud data segmentation based on Euclidean clustering algorithm[J].Bulletin of Surveying and Mapping,2017(11):27-31,36.)

        收稿日期:2022-05-15;修回日期:2022-07-12

        作者簡介:王理嘉(1993-),女,河南鹿邑人,碩士研究生,主要研究方向?yàn)樽詣?dòng)駕駛、三維目標(biāo)檢測;于歡(1991-),男(土家族),湖南慈利人,博士研究生,主要研究方向?yàn)槎嘣锤兄c定位在自動(dòng)駕駛里面的應(yīng)用;劉守?。?964-),男(通信作者),河南周口人,教授,博士,主要研究方向?yàn)闊o線通信、物聯(lián)網(wǎng)、機(jī)器學(xué)習(xí)(syliu@mail.ccnu.edu.cn).

        亚洲av永久无码天堂网小说区| 九九在线中文字幕无码| 亚洲中文字幕不卡一区二区三区| 国产精品一区二区在线观看99| 18禁黄污吃奶免费看网站| 久久91精品国产一区二区| 色播在线永久免费视频网站| 精品国产三级在线观看| 综合色区亚洲熟妇另类| 人妻久久久一区二区三区蜜臀| 邻居少妇太爽在线观看| 九九99久久精品午夜剧场免费| 欧美日韩不卡合集视频| 亚洲av无码码潮喷在线观看| 成年人干逼视频水好多| 亚洲一区二区三区码精品色| 欧美1区二区三区公司| 午夜免费福利在线观看| 国产人妻无码一区二区三区免费| 99久久人妻无码精品系列| 男女边摸边吃奶边做视频韩国| 字幕网中文字幕精品一区| 加勒比熟女精品一区二区av | 国产成人av无码精品| 免费视频亚洲一区二区三区| av天堂一区二区三区| 国产亚洲精选美女久久久久| 日本一本久道| 97精品人妻一区二区三区香蕉| 国产肉丝袜在线观看| 久久久www成人免费无遮挡大片| 日韩精品一区二区三区视频| 天天天天躁天天爱天天碰2018| 人与人性恔配视频免费| 国产av在线观看一区二区三区| 中文字幕成人精品久久不卡91| 日本岛国一区二区三区| 四虎国产精品成人影院| 久久久久久久一线毛片| 欧美黄色免费看| 亚洲网站地址一地址二|