亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種兩階段路面三維點(diǎn)云目標(biāo)檢測(cè)算法

        2024-12-31 00:00:00高揚(yáng)宋增峰何朝洪欒洪剛
        汽車技術(shù) 2024年8期
        關(guān)鍵詞:檢測(cè)

        【摘要】針對(duì)基于深度學(xué)習(xí)的三維點(diǎn)云目標(biāo)檢測(cè)算法在更換場(chǎng)景或設(shè)備的情況下容易出現(xiàn)網(wǎng)絡(luò)性能無(wú)法維持、可遷移性較差的問(wèn)題,提出一種準(zhǔn)確、靈活且遷移性較好的兩階段三維點(diǎn)云目標(biāo)檢測(cè)算法(AF3D):在第一階段,對(duì)采集到的激光點(diǎn)云使用分段擬合算法去除路面,并使用具有噪聲應(yīng)用的基于密度的空間聚類(DBSCAN)算法對(duì)非地面點(diǎn)云進(jìn)行聚類,得到若干個(gè)聚類簇;在第二階段,搭建點(diǎn)云全連接網(wǎng)絡(luò)(PFC-Net)對(duì)聚類簇提取特征并進(jìn)行分類。試驗(yàn)結(jié)果表明:該算法在KITTI數(shù)據(jù)集上可實(shí)現(xiàn)良好的檢測(cè)性能,且在實(shí)車數(shù)據(jù)集上對(duì)汽車、行人、騎行者的檢測(cè)精度分別為69.74%,41.25%、54.33%,具有較好的可遷移性。

        主題詞:智能交通 無(wú)人駕駛 深度學(xué)習(xí) 目標(biāo)檢測(cè) 激光點(diǎn)云

        中圖分類號(hào):U461.91" "文獻(xiàn)標(biāo)志碼:A" "DOI: 10.19620/j.cnki.1000-3703.20230550

        A Two-Stage 3D Point Cloud Object Detection Algorithm for Road Surfaces

        【Abstract】The 3D point cloud object detection algorithm based on deep learning is prone to issues such as inability to maintain network performance and poor transferability when changing scenes or devices. To address this issue, this article proposes an Accurate, Flexible, and highly transferable two-stage 3D point cloud object detection algorithm (AF3D). In the first stage of the AF3D detection algorithm, a segmented fitting algorithm is used to remove the road surface from the collected laser point cloud, then DBSCAN algorithm is used to cluster non-ground point clouds and obtain several clustering clusters. In the second stage of the AF3D detection algorithm, a point cloud fully connected network PFC-Net is established, and features are extracted and classified. Through experiments, it has been proven that this algorithm can achieve good detection performance on public KITTI datasets, and the detection accuracy for cars, pedestrians, and cyclists on real vehicle datasets is 69.74%, 41.25%, and 54.33%, respectively, indicating good transferability.

        Key words: Intelligent transportation, Unmanned vehicle, Deep learning, Object detection, Laser point cloud

        1 前言

        傳統(tǒng)三維點(diǎn)云目標(biāo)檢測(cè)算法整體具有不錯(cuò)的檢測(cè)效果,但難以獲得障礙物的語(yǔ)義信息[1]。范小輝等[2]采用自適應(yīng)具有噪聲應(yīng)用的基于密度的空間聚類(Density-Based Spatial Clustering of Application with Noise,DBSCAN)算法耗時(shí)較長(zhǎng),且難以獲得語(yǔ)義信息。范晶晶等[3]引入KD-Tree(K-Dimensional Tree)方法,縮短了運(yùn)行時(shí)間,但難以獲取行人的語(yǔ)義信息。楊思遠(yuǎn)等[4]使用DBSCAN算法實(shí)現(xiàn)了車輛等動(dòng)態(tài)障礙物聚類。萬(wàn)佳等[5]提出一種多密度自適應(yīng)DBSCAN算法,聚類效果較好,但時(shí)間較長(zhǎng),難以獲取語(yǔ)義信息。

        近年來(lái),深度學(xué)習(xí)[6]技術(shù)廣泛應(yīng)用于三維目標(biāo)檢測(cè)領(lǐng)域。如YOLO系列算法及其變體[7-8],計(jì)算速度較快,但存在一定的漏檢及誤檢。Zhou等[9]提出的體素網(wǎng)絡(luò)(VoxelNet)準(zhǔn)確率較好,但無(wú)法滿足實(shí)時(shí)性要求。Lang等[10]提出的Pointpillars算法可預(yù)測(cè)目標(biāo)的空間位置和朝向等信息,但遷移性較差。Chen等[11]提出的多視點(diǎn)三維目標(biāo)檢測(cè)網(wǎng)絡(luò)(Multi-View 3D object detection Network,MV3D-Net)算法將融合后的圖像通過(guò)VGG16(Visual Geometry Group 16)[12]提取二維圖像特征,結(jié)果更加準(zhǔn)確,但受模型深度及復(fù)雜度影響,遷移性較差。Qi等[13]提出Frustum PointNet對(duì)圖片進(jìn)行目標(biāo)檢測(cè),同樣,其在陌生場(chǎng)景下的檢測(cè)準(zhǔn)確率將會(huì)下降。Qi[14]提出的PointNet直接以點(diǎn)云數(shù)據(jù)作為網(wǎng)絡(luò)輸入,該網(wǎng)絡(luò)可完成點(diǎn)云分類、分割等任務(wù)。Anshul Paigwar等[15]將視覺(jué)注意力機(jī)制擴(kuò)展到三維點(diǎn)云,結(jié)合PointNet進(jìn)行車輛識(shí)別,該方法檢測(cè)速度較快,但識(shí)別準(zhǔn)確率不高。Shi等[16]將圖像分割網(wǎng)絡(luò)區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-based Convolutional Neural Networks,RCNN)遷移到點(diǎn)云數(shù)據(jù),提出一種兩階段三維目標(biāo)檢測(cè)網(wǎng)絡(luò),但該方法的深度學(xué)習(xí)模型較為復(fù)雜,限制了其泛化能力。

        基于深度學(xué)習(xí)的檢測(cè)算法通常效果更優(yōu),但由于其更加依賴數(shù)據(jù)集,造成在大范圍內(nèi)場(chǎng)景信息變化極大的陌生場(chǎng)景下應(yīng)用時(shí)存在性能突然下降的現(xiàn)象。另外,由于點(diǎn)云標(biāo)注成本高,算法的可遷移性顯得尤為重要。事實(shí)上,場(chǎng)景的變化對(duì)目標(biāo)點(diǎn)簇的特征影響較小,利用該特征,本文提出一種準(zhǔn)確、靈活且遷移性較好的兩階段三維點(diǎn)云目標(biāo)檢測(cè)算法(Accurate, Flexible and highly transferable 3D object detection algorithm,AF3D),通過(guò)經(jīng)典聚類方法提取目標(biāo)點(diǎn)簇,以縮小識(shí)別的感興趣區(qū)域,利用深度學(xué)習(xí)方法直接識(shí)別點(diǎn)簇,可提升對(duì)陌生場(chǎng)景的適應(yīng)能力。

        2 兩階段三維點(diǎn)云目標(biāo)檢測(cè)算法

        本文結(jié)合傳統(tǒng)障礙物檢測(cè)算法,搭建基于PointNet的點(diǎn)云分類網(wǎng)絡(luò)并命名為點(diǎn)云全連接網(wǎng)絡(luò)(Point cloud Fully Connected Network,PFC-Net),提出一種靈活準(zhǔn)確的三維目標(biāo)檢測(cè)算法,如圖1所示,算法主要由2個(gè)階段組成:在第一階段中,首先通過(guò)分段擬合算法進(jìn)行地面分割,然后將剩余點(diǎn)云通過(guò)DBSCAN算法進(jìn)行聚類,得到若干個(gè)點(diǎn)云聚類簇{C1,C2,C3,…,Ck-1,Ck};在第二階段,首先搭建點(diǎn)云分類網(wǎng)絡(luò)PFC-Net,基于KITTI 3D Object重構(gòu)數(shù)據(jù)集進(jìn)行訓(xùn)練,得到權(quán)重文件,其次,將第一階段得到的每個(gè)聚類簇的點(diǎn)云數(shù)量通過(guò)最遠(yuǎn)點(diǎn)采樣或零填充的方式統(tǒng)一設(shè)置為1 024個(gè),并行輸入到訓(xùn)練好的PFC-Net中進(jìn)行點(diǎn)云聚類簇的分類,得到屬于汽車、行人、騎行者類別的目標(biāo),最終通過(guò)最小外接矩形的方法生成三維邊界框。

        2.1 基于分段擬合的路面濾除

        在原始激光雷達(dá)點(diǎn)云數(shù)據(jù)中,地面點(diǎn)云數(shù)量占比約為40%~50%[17],地面點(diǎn)云的存在會(huì)對(duì)點(diǎn)云聚類、分類過(guò)程造成嚴(yán)重干擾,因此有效去除地面有利于減少后續(xù)非地面點(diǎn)云聚類中的噪聲及其計(jì)算量,提高障礙物檢測(cè)的準(zhǔn)確率。基于分段擬合的點(diǎn)云地面分割算法主要思想為:沿汽車前進(jìn)方向(激光雷達(dá)X坐標(biāo)軸方向)將激光點(diǎn)云分割為若干子區(qū)域,對(duì)各子區(qū)域提取高度最低的種子點(diǎn)集,擬合得到初始平面模型;判斷點(diǎn)到初始平面模型的距離是否小于設(shè)定閾值,將滿足條件的點(diǎn)作為新的種子點(diǎn)擬合得到新的平面,循環(huán)數(shù)次后得到每個(gè)子區(qū)域地面的平面表示。圖2所示為基于KITTI數(shù)據(jù)集的點(diǎn)云地面分割算法分割效果。

        2.2 點(diǎn)云聚類

        去除地面點(diǎn)云后,需對(duì)非地面點(diǎn)云進(jìn)行分割處理。DBSCAN算法可以從有噪聲的空間數(shù)據(jù)庫(kù)中通過(guò)分割獲得任意形狀的簇,連接密度足夠大的相鄰區(qū)域,不需要提前指定聚類數(shù)量。因此,本文針對(duì)去除地面后的點(diǎn)云通過(guò)KD-Tree的方法建立點(diǎn)云拓?fù)潢P(guān)系,采用DBSCAN算法進(jìn)行非地面點(diǎn)云聚類。基于DBSCAN的點(diǎn)云聚類算法流程如圖3所示。根據(jù)可視化結(jié)果,將基于KD-Tree的DBSCAN點(diǎn)云聚類算法聚類鄰域半徑Eps設(shè)置為0.45 m,簇的最小點(diǎn)集中點(diǎn)云數(shù)量設(shè)置為10個(gè),基于DBSCAN的點(diǎn)云聚類效果如圖4所示,分割出的點(diǎn)云較為接近實(shí)際情況,未出現(xiàn)明顯的欠分割或過(guò)分割現(xiàn)象。本文采用原理簡(jiǎn)單、計(jì)算量較小的基于最小外接矩形的包圍框擬合方法獲得三維邊界框。

        2.3 PFC-Net點(diǎn)簇分類網(wǎng)絡(luò)

        采用DBSCAN算法完成自動(dòng)駕駛場(chǎng)景中非地面點(diǎn)云的聚類后需對(duì)聚類生成的簇進(jìn)行分類,識(shí)別點(diǎn)云場(chǎng)景中的目標(biāo)。首先搭建PFC-Net,該網(wǎng)絡(luò)主要負(fù)責(zé)對(duì)DBSCAN算法生成的聚類簇進(jìn)行分類,獲得每個(gè)簇類的語(yǔ)義信息。

        PFC-Net網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示,該網(wǎng)絡(luò)以(N,3)大小的張量作為輸入,其中N為點(diǎn)云數(shù)量,3為點(diǎn)云通道信息,使用多個(gè)權(quán)重共享的多層感知機(jī)(Multi-Layer Perceptron,MLP)對(duì)每個(gè)點(diǎn)云進(jìn)行特征提取,依次經(jīng)過(guò)64個(gè)3×1、256個(gè)4×1、512個(gè)256×1、1 024個(gè)512×1大小的卷積核,得到(N,1 024)大小的張量,這時(shí)對(duì)于卷積后的每一個(gè)點(diǎn)云,都有1 024維的向量特征,經(jīng)過(guò)最大池化得到點(diǎn)云的全局特征。將點(diǎn)云的全局特征與每個(gè)點(diǎn)云的特征進(jìn)行拼接,得到(N,2 048)大小的張量,該張量既包含每個(gè)點(diǎn)云的多維特征,又包含點(diǎn)云的全局特征。然后依次經(jīng)過(guò)2 048個(gè)2 048×1大小的卷積核、1 024個(gè)2 048×1大小的卷積核,得到(N,1 024)大小的張量。將該張量展平,經(jīng)3層全連接層后得到分類預(yù)測(cè)結(jié)果。

        3 基于KITTI數(shù)據(jù)集的試驗(yàn)

        3.1 數(shù)據(jù)處理

        KITTI 3D Object數(shù)據(jù)集是目前國(guó)際上最大的自動(dòng)駕駛場(chǎng)景下的計(jì)算機(jī)視覺(jué)算法評(píng)測(cè)數(shù)據(jù)集。由于其目標(biāo)種類與本文的目標(biāo)種類不同,無(wú)法直接用于本文網(wǎng)絡(luò)的訓(xùn)練過(guò)程,因此首先對(duì)該數(shù)據(jù)集進(jìn)行重構(gòu),提取屬于汽車、行人、騎行者3種類別的點(diǎn)云數(shù)據(jù)并賦予相應(yīng)的類別標(biāo)簽。其次,針對(duì)因各類別樣本數(shù)量不均衡易導(dǎo)致模型泛化能力差的問(wèn)題,采用數(shù)據(jù)增強(qiáng)方法均衡各類別樣本的數(shù)量。KITTI 3D Object數(shù)據(jù)集的重構(gòu)主要包括目標(biāo)點(diǎn)云提取、數(shù)據(jù)增強(qiáng)2個(gè)部分。

        3.1.1 目標(biāo)點(diǎn)云提取

        針對(duì)KITTI訓(xùn)練集的每一幀點(diǎn)云文件,將其對(duì)應(yīng)的標(biāo)簽文件中類別為“廂式貨車(Van)”“汽車(Car)”“卡車(Truck)”“有軌電車(Tram)”的統(tǒng)一轉(zhuǎn)換為“汽車(Car)”,只保留“汽車(Car)”“行人(Pedestrian)”“騎行者(Cyclist)”3種類別。KITTI 3D Object數(shù)據(jù)集只對(duì)相機(jī)視角下的點(diǎn)云進(jìn)行了標(biāo)注,因此本文只對(duì)相機(jī)視角中的點(diǎn)云進(jìn)行處理。如圖6所示,根據(jù)相機(jī)坐標(biāo)系與激光雷達(dá)坐標(biāo)系之間的轉(zhuǎn)換關(guān)系,將類別為汽車、騎行者、行人的三維邊界框中的點(diǎn)云逐一提取保存至文件夾并賦予類別標(biāo)簽,提取后的點(diǎn)云可視化結(jié)果如圖7所示。此外,由于激光雷達(dá)“近密遠(yuǎn)疏”的成像特點(diǎn),遠(yuǎn)處的目標(biāo)點(diǎn)云空間信息嚴(yán)重缺失,影響網(wǎng)絡(luò)分類性能,因此規(guī)定類別為汽車的目標(biāo)點(diǎn)云數(shù)量不能少于200個(gè),類別為行人的目標(biāo)點(diǎn)云數(shù)量不能少于50個(gè),類別為騎行者的目標(biāo)點(diǎn)云數(shù)量不能少于50個(gè)。

        此外,將目標(biāo)提取后的剩余點(diǎn)云依次進(jìn)行地面去除(如圖8所示)、DBSCAN聚類(如圖9所示),保存通過(guò)DBSCAN聚類生成的其他目標(biāo)簇并將該類別命名為“其他目標(biāo)(Otherobjects)”。至此,本文從KITTI 3D Object數(shù)據(jù)集提取了“汽車”“行人”“騎行者”“其他目標(biāo)”4種類別的數(shù)據(jù)集進(jìn)行點(diǎn)云分類網(wǎng)絡(luò)的訓(xùn)練。

        3.1.2 數(shù)據(jù)增強(qiáng)

        KITTI 3D Object重構(gòu)數(shù)據(jù)集中4種類別的樣本數(shù)量所占比例相差較大,會(huì)導(dǎo)致網(wǎng)絡(luò)模型泛化能力較差。本文一方面通過(guò)對(duì)點(diǎn)云進(jìn)行平移、繞激光雷達(dá)坐標(biāo)系的軸隨機(jī)旋轉(zhuǎn)某個(gè)角度等經(jīng)典數(shù)據(jù)增強(qiáng)方法對(duì)樣本數(shù)量較少的類別進(jìn)行擴(kuò)充,另一方面采用加權(quán)隨機(jī)采樣的方法,有效解決各類別樣本數(shù)量比例不均衡的問(wèn)題。采用數(shù)據(jù)增強(qiáng)方法、加權(quán)隨機(jī)采樣后樣本數(shù)量所占比例如表1所示。因提取的各種類別的點(diǎn)云數(shù)量不同,輸入網(wǎng)絡(luò)前需統(tǒng)一對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行預(yù)處理:若目標(biāo)簇點(diǎn)云數(shù)量少于1 024個(gè),則通過(guò)零填充的方式補(bǔ)充至1 024個(gè);若該目標(biāo)簇點(diǎn)云數(shù)量多于1 024個(gè),則采用最遠(yuǎn)點(diǎn)采樣法將點(diǎn)云數(shù)量下采樣至1 024個(gè),盡可能完整地保留點(diǎn)云的空間幾何信息。

        3.2 基于KITTI數(shù)據(jù)集的試驗(yàn)

        本文試驗(yàn)在Unbutu 18.04 LTS系統(tǒng)上運(yùn)行,涉及的軟件有Cuda 11.1、Cudnn 8.0.5、Python 3.7等。將重構(gòu)后的KITTI 3D Object數(shù)據(jù)集按照8∶2的比例劃分為訓(xùn)練集、測(cè)試集作為試驗(yàn)數(shù)據(jù)集。

        云分類網(wǎng)絡(luò)PFC-Net采用交叉熵?fù)p失作為損失函數(shù):

        式中,N為樣本數(shù)量;M為類別數(shù)量;yic為樣本i屬于類別c的符號(hào)函數(shù),若網(wǎng)絡(luò)預(yù)測(cè)類別與標(biāo)簽一致,則取yic=1,否則取yic=0;pic為樣本i屬于類別c的預(yù)測(cè)概率。

        本文將重構(gòu)后的KITTI 3D Object數(shù)據(jù)集特征標(biāo)準(zhǔn)化(Feature Standardization)后作為網(wǎng)絡(luò)輸入,以真實(shí)類別信息作為標(biāo)簽,使用初始學(xué)習(xí)速率為1×10-3的Adam優(yōu)化器,最大迭代次數(shù)(Epoch)設(shè)置為150,批量處理尺寸(Batch Size)設(shè)置為128。由于激光雷達(dá)點(diǎn)云數(shù)據(jù)具有“近密遠(yuǎn)疏”的特點(diǎn),遠(yuǎn)處的目標(biāo)點(diǎn)云數(shù)量較少,不再具有完整的輪廓,根據(jù)文獻(xiàn)[18],車速為80 km/h的車輛應(yīng)具有檢測(cè)前方40~50 m距離內(nèi)目標(biāo)的能力,以較低速度行駛的車輛(車速≤40 km/h)應(yīng)至少具有30 m的檢測(cè)距離。因此,本文僅對(duì)車輛行駛方向上40 m距離內(nèi)的障礙物進(jìn)行感知。

        為了驗(yàn)證本文AF3D算法的可遷移性,引入Pointpillars[14]算法進(jìn)行對(duì)比。2種三維目標(biāo)檢測(cè)算法基于公開(kāi)數(shù)據(jù)集的試驗(yàn)對(duì)比結(jié)果如表2所示。

        采用AF3D算法對(duì)KITTI數(shù)據(jù)集進(jìn)行推理,可視化結(jié)果如圖10所示。

        由圖10可以看出,AF3D算法可有效識(shí)別地面,以及近距離的汽車、行人與騎行者,但該方法依靠聚類得到目標(biāo)輪廓,通過(guò)PFC-Net進(jìn)行分類獲得每個(gè)聚類簇的語(yǔ)義信息,在識(shí)別過(guò)程中無(wú)法獲得點(diǎn)云場(chǎng)景的上下文信息,導(dǎo)致某些因存在嚴(yán)重遮擋或距離較遠(yuǎn)造成點(diǎn)云數(shù)量稀疏而無(wú)法保留其輪廓的目標(biāo)識(shí)別效果較差。

        4 實(shí)車試驗(yàn)

        4.1 實(shí)車數(shù)據(jù)采集平臺(tái)

        本文搭建如圖11所示的實(shí)車數(shù)據(jù)采集平臺(tái),數(shù)據(jù)采集車基于長(zhǎng)安奔奔改裝獲得,該車搭載的硬件設(shè)備包括激光雷達(dá)安裝支架、禾賽科技Pandar 64線激光雷達(dá)、單目相機(jī)、差分GPS以及一臺(tái)筆記本電腦。其中,禾賽科技Pandar 64線激光雷達(dá)傳感器安裝于汽車縱向?qū)ΨQ平面處的激光雷達(dá)支架上,距離地面高度約為1.90 m。雷達(dá)參數(shù)和計(jì)算機(jī)配置如表3、表4所示。

        4.2 激光雷達(dá)點(diǎn)云數(shù)據(jù)采集及處理

        本文基于機(jī)器人操作系統(tǒng)(Robot Operating System,ROS)建立計(jì)算機(jī)端與禾賽科技Pandar 64線激光雷達(dá)間的通信,激光雷達(dá)的工作頻率默認(rèn)為10 Hz,部分場(chǎng)景如圖12所示。

        激光雷達(dá)在采集數(shù)據(jù)的過(guò)程中因障礙物材質(zhì)、自身精度等會(huì)產(chǎn)生少量的非數(shù)(Not a Number,NaN)點(diǎn)、噪聲點(diǎn)、離群點(diǎn),需對(duì)每幀激光雷達(dá)點(diǎn)云進(jìn)行預(yù)處理,處理過(guò)程如圖13所示。首先去除激光點(diǎn)云數(shù)據(jù)中的NaN點(diǎn),其次,通過(guò)直通濾波截取感興趣區(qū)域,相應(yīng)閾值為:

        式中,(x,y)為點(diǎn)的坐標(biāo)。

        最后,對(duì)感興趣區(qū)域中的點(diǎn)云通過(guò)統(tǒng)計(jì)濾波進(jìn)行噪聲點(diǎn)、離群點(diǎn)的濾除,完成數(shù)據(jù)預(yù)處理。本文借助開(kāi)源軟件PCAT依次對(duì)挑選出的200幀點(diǎn)云數(shù)據(jù)使用三維邊界框進(jìn)行標(biāo)注,包括“汽車”“行人”“騎行者”3種類別。

        4.3 實(shí)車試驗(yàn)

        由于點(diǎn)云數(shù)據(jù)標(biāo)注難度大、耗時(shí)長(zhǎng)、成本高,且算法在陌生場(chǎng)景下的遷移性十分重要。因此對(duì)2種三維目標(biāo)檢測(cè)算法Pointpillars、AF3D在未重新訓(xùn)練的情況下進(jìn)行測(cè)試,2種算法在實(shí)車數(shù)據(jù)集上的檢測(cè)精度如表5所示。

        本文采用經(jīng)KITTI 3D Object數(shù)據(jù)集訓(xùn)練后的Pointpillars、AF3D算法直接推理實(shí)車數(shù)據(jù)集,表2、表5數(shù)據(jù)對(duì)比表明:Pointpillars在陌生場(chǎng)景中的檢測(cè)精度下降幅度較大,而AF3D算法檢測(cè)精度波動(dòng)相對(duì)較小。這一方面可能是因?yàn)闃?biāo)注后的真實(shí)值與實(shí)際場(chǎng)景的真值存在一定誤差,另一方面可能是由于PFC-Net對(duì)實(shí)際場(chǎng)景中的某些車型(如灑水車、敞篷電動(dòng)車等)無(wú)法準(zhǔn)確識(shí)別導(dǎo)致。AF3D算法的目標(biāo)檢測(cè)結(jié)果如圖14所示,AF3D算法在陌生場(chǎng)景中依舊可以準(zhǔn)確地檢測(cè)出目標(biāo)所在的位置以及類別。由此可見(jiàn),相比于Pointpillars,AF3D算法對(duì)陌生場(chǎng)景的適用性較強(qiáng),具有良好的場(chǎng)景遷移性。

        5 結(jié)束語(yǔ)

        本文提出一種較為靈活、準(zhǔn)確且遷移性好的兩階段三維點(diǎn)云目標(biāo)檢測(cè)算法框架AD3F:在第一階段,采用基于分段擬合的地面點(diǎn)云分割方法完成地面點(diǎn)云分割,選用DBSCAN算法對(duì)非地面點(diǎn)進(jìn)行聚類,獲得聚類結(jié)果;在第二階段,搭建PFC-Net進(jìn)行特征識(shí)別,準(zhǔn)確完成點(diǎn)云聚類簇分類任務(wù)。分別對(duì)Pointpillars、AF3D算法在KITTI 3D Object數(shù)據(jù)集以及實(shí)車數(shù)據(jù)集上進(jìn)行了算法對(duì)比驗(yàn)證,結(jié)果表明:在KITTI 3D Object數(shù)據(jù)集上,經(jīng)訓(xùn)練后的Pointpillars網(wǎng)絡(luò)模型檢測(cè)精度整體優(yōu)于AF3D算法;在實(shí)車數(shù)據(jù)集上,AF3D算法的檢測(cè)精度優(yōu)于Pointpillars;Pointpillars在陌生場(chǎng)景中的檢測(cè)精度下降幅度較大,而AF3D算法依靠聚類獲得障礙物的輪廓,使得該算法可以更好地適應(yīng)陌生場(chǎng)景,算法性能可以較好地保持,具有高度可遷移性。

        參 考 文 獻(xiàn)

        [1] MAO J G, SHI S S, WANG X G, et al. 3D Object Detection for Autonomous Driving: A Comprehensive Survey[EB/OL]. (2023-04-04)[2023-09-10]. https://doi.org/10.48550/arXiv.2206.09474.

        [2] 范小輝, 許國(guó)良, 李萬(wàn)林, 等. 基于深度圖的三維激光雷達(dá)點(diǎn)云目標(biāo)分割方法[J]. 中國(guó)激光, 2019, 46(7): 292-299.

        FAN X H, XU G L, LI W L, et al. A 3D LiDAR Point Cloud Target Segmentation Method Based on Depth Maps[J]. China Laser, 2019, 46(7): 292-299.

        [3] 范晶晶, 王力, 褚文博, 等. 基于KD-Tree樹(shù)和歐式聚類的越野環(huán)境下行人識(shí)別的研究[J]. 汽車工程, 2019, 41(12): 1410-1415.

        FAN J J, WANG L, CHU W B, et al. Research on Pedestrian Recognition in off-Road Environments Based on KDTree Tree and Euclidean Clustering[J]. Automotive Engineering, 2019, 41(12): 1410-1415.

        [4] 楊思遠(yuǎn), 鄭建穎. 基于路側(cè)三維激光雷達(dá)的車輛目標(biāo)分類算法[J]. 傳感器與微系統(tǒng), 2020, 39(7): 123-126.

        YANG S Y, ZHENG J Y. Vehicle Target Classification" " " Algorithm Based on Roadside 3D LiDAR[J]. Sensors and" "Microsystems, 2020, 39(7): 123-126.

        [5] 萬(wàn)佳, 胡大裟, 蔣玉明. 多密度自適應(yīng)確定DBSCAN算法參數(shù)的算法研究[J]. 計(jì)算機(jī)工程與應(yīng)用, 2022, 58(2): 78-85.

        WAN J, HU D X, JIANG Y M. Research on Algorithm for Multidensity Adaptive Determination of DBSCAN Algorithm Parameters[J]. Computer Engineering and Applications, 2022, 58(2): 78-85.

        [6] GUO Y L, WANG H Y, HU Q Y, et al. Deep Learning for 3D Point Clouds: A Survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 43(12): 4338-4364.

        [7] ALI W, ABDELKARIM S, ZIDAN M, et al. Yolo3D: End-to-End Real-Time 3D Oriented Object Bounding Box" " " " " "Detection from LiDAR Point Cloud[C]// 2018 European" " Conference on Computer Vision (ECCV) Workshops." " " " Munich, Germany: Springer, 2018: 716-728.

        [8] MARTIN S, STEFAN M, KARL A. Complex-YOLO: An" "Euler-Region-Proposal for Real-Time 3D Object Detection on Point Clouds[C]// 2018 European Conference on" " " " "Computer Vision (ECCV) Workshops. Munich, Germany: Springer, 2018: 197-209.

        [9] ZHOU Y, TUZEL O. VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection[C]// 2018 IEEE" Conference on Computer Vision and Pattern Recognition (CVPR). Salt Lake City, UT, USA: IEEE, 2018: 4490-4499.

        [10] LANG A H, VORA S, CAESAR H, et al. Pointpillars: Fast Encoders for Object Detection from Point Clouds[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA: IEEE, 2019: 12697-12705.

        [11] CHEN X Z, MA H M, WAN J, et al. Multi-View 3D Object Detection Network for Autonomous Driving[C]// 2017 IEEE/CVF Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2017: 1907-1915.

        [12] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition[EB/OL]. (2015-04-10)[2023-07-24]. https://arxiv.org/abs/1409.1556.

        [13] QI C R, LIU W, WU C X, et al. Frustum Pointnets for 3D Object Detection from RGB-D Data[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Salt Lake City, UT, USA: IEEE, 2018: 918-927.

        [14] QI C R, SU H, MO K, et al. PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation[C]// 2017 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2017: 652-660.

        [15] PAIGWAR A, ERKENT O, WOLF C, et al. Attentional PointNet for 3D-Object Detection in Point Clouds[C]// 2019 IEEE/CVF Conference on Computer Vision and" nbsp; "Pattern Recognition (CVPRW). Long Beach, CA, USA: IEEE, 2019: 1297-1306.

        [16] SHI S S, WANG X G, LI H S. PointRCNN: 3D Object" " " Proposal Generation and Detection from Point Cloud[C]// 2019 IEEE/CVF Conference on Computer Vision and" " "Pattern Recognition (CVPR). Long Beach, CA, USA: IEEE, 2019: 770-779.

        [17] 王肖. 復(fù)雜環(huán)境下智能車輛動(dòng)態(tài)目標(biāo)三維感知方法研究[D]. 北京: 清華大學(xué), 2016.

        WANG X. Research on 3D Perception Method for Dynamic Targets of Intelligent Vehicles in Complex Environments[D]. Beijing: Tsinghua University, 2016.

        [18] LI B. On Enhancing Ground Surface Detection from Sparse Lidar Point Cloud[C]// 2019 IEEE/RSJ International" " " Conference on Intelligent Robots and Systems (IROS)." " "Macau, China: IEEE, 2019: 4524-4529.

        猜你喜歡
        檢測(cè)
        QC 檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        “有理數(shù)的乘除法”檢測(cè)題
        “有理數(shù)”檢測(cè)題
        “角”檢測(cè)題
        “幾何圖形”檢測(cè)題
        99蜜桃在线观看免费视频| 国产成人久久精品二区三区牛 | 日产无人区一线二线三线乱码蘑菇| 国内揄拍国内精品| 米奇亚洲国产精品思久久| 精品久久中文字幕系列| 色费女人18毛片a级毛片视频| 亚洲av永久无码精品秋霞电影影院| 91免费国产| 国产人妖在线视频网站| 亚洲av无码国产精品色午夜字幕 | 色偷偷88888欧美精品久久久 | 夜夜综合网| 中文字幕二区三区在线| 亚洲精品国产第一区二区| 亚洲avav天堂av在线网爱情| 国产真实露脸4p视频| 亚洲黑寡妇黄色一级片| а天堂中文地址在线| 内射无码专区久久亚洲| 亚洲狼人社区av在线观看| 日韩有码中文字幕在线视频| 无码人妻丰满熟妇区bbbbxxxx| 亚洲日韩乱码中文无码蜜桃臀 | 日韩人妻美乳中文字幕在线| 欧美老妇交乱视频在线观看| 亚洲av无码乱观看明星换脸va| 最新国产美女一区二区三区| 在线观看一区二区女同| 久久精品国产亚洲av网在| 色与欲影视天天看综合网| 性大片免费视频观看| 亚洲国产精品综合福利专区 | 亚洲日产精品一二三四区| 国产精品久久1024| 亚洲成人av在线播放不卡| 亚洲综合av永久无码精品一区二区| 欧美高大丰满freesex| 精品人妻一区二区三区蜜臀在线| 国产精品久久久天天影视| 久久久www成人免费无遮挡大片 |