亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Feature-RNet的三維大場(chǎng)景點(diǎn)云分類框架

        2022-06-29 12:32:52雷根華張志勇
        關(guān)鍵詞:分類特征方法

        雷根華,王 蕾,2,張志勇

        (1.東華理工大學(xué) 信息工程學(xué)院,江西 南昌 330013;2.江西省核地學(xué)數(shù)據(jù)科學(xué)與系統(tǒng)工程技術(shù)研究中心,江西 南昌 330013)

        0 引 言

        點(diǎn)云是海量點(diǎn)的集合,在同一空間參考系下表達(dá)目標(biāo)空間分布和目標(biāo)表面特性,具有不規(guī)則且無(wú)序等特點(diǎn)。三維點(diǎn)云數(shù)據(jù)的獲取方式主要是通過(guò)三維激光掃描儀進(jìn)行數(shù)據(jù)采集得到。激光雷達(dá)測(cè)量(light detection and ranging,LiDAR),是一種光學(xué)遙感技術(shù),由激光發(fā)射部分、接收部分、信號(hào)處理部分三部分組成,能夠獲取坐標(biāo)(X,Y,Z)、強(qiáng)度、顏色等物體信息,通過(guò)LiDAR采集到的點(diǎn)云數(shù)據(jù)格式多種多樣。LiDAR可以單獨(dú)工作獲取小場(chǎng)景的三維點(diǎn)云數(shù)據(jù),而對(duì)于獲取復(fù)雜大場(chǎng)景下或者大尺寸物體的點(diǎn)云數(shù)據(jù),單獨(dú)的LiDAR往往不能滿足要求,需與GNSS、camera等其他儀器聯(lián)合使用,從而獲取更豐富、完善的物體信息。

        點(diǎn)云分類一般包含從局部和全局兩個(gè)不同的方面提取點(diǎn)特征和通過(guò)學(xué)習(xí)到的特征將每個(gè)點(diǎn)劃分為預(yù)定義的語(yǔ)義類別兩個(gè)步驟[1]。早期的點(diǎn)云分類方法研究主要通過(guò)手工設(shè)計(jì)[2-3]的規(guī)則來(lái)提取點(diǎn)特征,然后使用基于機(jī)器學(xué)習(xí)的分類器預(yù)測(cè)每個(gè)點(diǎn)的語(yǔ)義標(biāo)簽[1]。如高斯混合模型[4-5]、支持向量機(jī)(SVM)[6-7]、AdaBoost[8-9]等。由于手工設(shè)計(jì)規(guī)則提取的特征表達(dá)能力較弱,使得模型在處理復(fù)雜場(chǎng)景時(shí)往往無(wú)法達(dá)到令人滿意的效果,與此同時(shí),有關(guān)分類器的選擇和組合十分復(fù)雜,嚴(yán)重依賴研究人員的專業(yè),極大地降低了此類方法應(yīng)用的靈活性。

        在點(diǎn)云分類的深度學(xué)習(xí)方法中,2006年,卷積神經(jīng)網(wǎng)絡(luò)(CNN)的提出引起了廣泛關(guān)注。2015年,Su等人提出了多視圖卷積神經(jīng)網(wǎng)絡(luò)(MVCNN)[10],通過(guò)設(shè)置不同位置、不同角度的視點(diǎn)獲取多個(gè)視角的二維視圖,以此作為MVCNN的輸入。MVCNN在分類任務(wù)中取得了不錯(cuò)的成績(jī),但是由于無(wú)法動(dòng)態(tài)選擇視圖等因素,導(dǎo)致分類精度受到影響。Maturana等人提出的VoxNet[11]是一種最早將非結(jié)構(gòu)化的點(diǎn)云數(shù)據(jù)體素化為網(wǎng)格數(shù)據(jù)并應(yīng)用于3D卷積神經(jīng)網(wǎng)絡(luò)的模型,在一定程度上解決了點(diǎn)云非結(jié)構(gòu)化的問(wèn)題,但是計(jì)算所需內(nèi)存過(guò)大。Barnea和Filin[12]等提出將輸入的點(diǎn)云數(shù)據(jù)構(gòu)造成深度圖的模式,利用深度圖的特點(diǎn)使用均值平移算法對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行分類分割,最后將劃分出的特征子集進(jìn)行聯(lián)合以達(dá)到良好的分類效果。Barnea[13]改進(jìn)了Filin[12]的分類算法,通過(guò)使用迭代的思想對(duì)其網(wǎng)絡(luò)框架進(jìn)行改進(jìn),能更好地得到分割邊界和分割區(qū)域,但不能準(zhǔn)確得到分割目標(biāo)對(duì)象。

        基于深度學(xué)習(xí)的點(diǎn)云分類方法大多都是基于二維圖像設(shè)計(jì)的。pointNet[14]及其變體的提出給研究人員提供了新的思路。文獻(xiàn)[15]提出了一種基于多維特征矩陣和PointNet(Feature-pointNet框架)的深度神經(jīng)網(wǎng)絡(luò)模型,以特征圖像代替三維點(diǎn)云數(shù)據(jù)作為PointNet的輸入,由于上述改變,文獻(xiàn)[15]在后面的pointNet框架中并沒(méi)有使用T-Net矩陣。該方法取得了不錯(cuò)的分類效果,但是在參數(shù)和運(yùn)行時(shí)間效率上還有待提高。

        基于文獻(xiàn)[15]中的Feature-pointNet網(wǎng)絡(luò)框架,該文設(shè)計(jì)出一種基于Feature-RNet的網(wǎng)絡(luò)框架。在該方法中,通過(guò)借鑒點(diǎn)云特征圖像的獲取方法(特征圖像的生成方法與文獻(xiàn)[15]中的方法一致)作為RNet框架的輸入;其次,設(shè)計(jì)RNet網(wǎng)絡(luò)框架模型,以達(dá)到提升分類精度的目的;最后使用公開(kāi)的Oakland 3D數(shù)據(jù)集進(jìn)行RNet的分類模型訓(xùn)練。

        1 研究基礎(chǔ)

        現(xiàn)今許多領(lǐng)域的發(fā)展都離不開(kāi)三維大場(chǎng)景點(diǎn)云分類,例如自動(dòng)駕駛等,為此許多研究人員對(duì)點(diǎn)云做了大量的研究工作。R.B.Rusu[16]提出FPFH的方法,通過(guò)尋找點(diǎn)云內(nèi)部或者不同點(diǎn)云之間的關(guān)聯(lián)關(guān)系進(jìn)而采取有效措施來(lái)加快FPFH的計(jì)算速度,但是其中點(diǎn)云法線的選取好壞對(duì)最終結(jié)果影響較大。孫杰[17]提出一種能夠有效運(yùn)行在大場(chǎng)景點(diǎn)云數(shù)據(jù)集上的面向?qū)ο蟮姆椒?,該方法能夠獲取LIDAR點(diǎn)云數(shù)據(jù)的多種特征,最終達(dá)到一個(gè)準(zhǔn)確的分類效果。Riegler[18]提出OCNet,由于輸入數(shù)據(jù)中的稀疏性的這一特性從而構(gòu)建不平衡八叉樹(shù)模型來(lái)劃分網(wǎng)絡(luò)空間,是一種高分辨率的3D卷積神經(jīng)網(wǎng)絡(luò)。Hu[19]提出了一個(gè)點(diǎn)到圖的框架,通過(guò)提取窗口內(nèi)的相鄰點(diǎn)并將其轉(zhuǎn)換為圖像,將點(diǎn)的分類問(wèn)題轉(zhuǎn)換成圖像的分類問(wèn)題,該方法在DTM生成任務(wù)(二值分類)中取得了不錯(cuò)的成績(jī),但是該方法在其他類型的點(diǎn)云分類任務(wù)中仍然存在一些問(wèn)題。文獻(xiàn)[15]改進(jìn)Hu的方法,提出了一種基于點(diǎn)的特征圖像生成方法,通過(guò)提取每個(gè)點(diǎn)的二維和三維特征從而構(gòu)建特征圖像,再訓(xùn)練pointNet網(wǎng)絡(luò)框架模型并且使用該模型得到最終分類結(jié)果。

        文獻(xiàn)[15]中采用的框架流程如圖1所示。

        圖1 Feature-pointNet網(wǎng)絡(luò)框架流程

        首先將三維點(diǎn)云數(shù)據(jù)集分別在二維和三維兩個(gè)層面上進(jìn)行特征提取。在三維層面上,采用KNN方法在每個(gè)點(diǎn)周圍選取100個(gè)點(diǎn)計(jì)算17個(gè)特征值,得到的三維特征矩陣為[Lλ,Nx,Ny,Nz,Pλ,Sλ,Mx,My,Mz,Oλ,Aλ,Eλ,Tλ,Cλ,D,Q,V],其中的[Nx,Ny,Nz]T、[Mx,My,Mz]T分別代表點(diǎn)的最大分布方向、點(diǎn)的最小分布方向。在二維層面上,即三維點(diǎn)云在x,y,z三個(gè)不同方向上的二維平面投影,同三維平面上一致,通過(guò)KNN的方法在每個(gè)點(diǎn)周圍選取100個(gè)點(diǎn)作為一個(gè)計(jì)算單位,獲取5個(gè)特征值(三個(gè)不同平面共計(jì)15個(gè)特征值),得到的二維特征矩陣為[rk,D2D,Rλ,2D,S2D,EVratio2D],從左到右分別代表最優(yōu)鄰域半徑、局部點(diǎn)密度、特征值比率、特征值和、高度方差。將得到的二維特征和三維特征進(jìn)行融合構(gòu)建點(diǎn)云的特征矩陣,作為pointNet框架的輸入。需要注意的是,不同于傳統(tǒng)的pointNet,文獻(xiàn)[15]采用的是pointNet中的vanilla版本,由兩個(gè)網(wǎng)絡(luò)層MLP(64,64),MLP(64,128,1 024)以及一個(gè)全連接網(wǎng)絡(luò)層MLP(512,256,C)構(gòu)成。與傳統(tǒng)的pointNet框架相比,vanilla舍棄了旨在保持點(diǎn)云不變性的T-Net矩陣。

        在文獻(xiàn)[15]的Feature-pointNet網(wǎng)絡(luò)框架模型中,提出的點(diǎn)云特征提取方法能夠有效地提取點(diǎn)云數(shù)據(jù)特征,并融合為點(diǎn)云特征圖像作為框架輸入,為以后的研究提供了新的方式且分類效率更高。正是由于對(duì)點(diǎn)云特征轉(zhuǎn)換為點(diǎn)云特征圖像的這一轉(zhuǎn)變,使得應(yīng)用在圖像分類的網(wǎng)絡(luò)框架能夠適用于大場(chǎng)景三維點(diǎn)云分類任務(wù)中。該文正是借鑒其方法,將處理得到的點(diǎn)云特征圖像作為框架輸入進(jìn)行分類訓(xùn)練。另外,在分析比較文獻(xiàn)[15]及其他典型的分類框架后,設(shè)計(jì)出一種RNet網(wǎng)絡(luò)框架,該框架與pointNet(vanilla版本)相似,采用的都是1*1的卷積核,不同之處在于RNet由網(wǎng)絡(luò)層MLP(64,64)、MLP(64,64,1 024)以及全連接網(wǎng)絡(luò)層(521,256,C)組成,同時(shí)在框架中多次添加⊕操作,將不同層次的經(jīng)過(guò)卷積提取的三維點(diǎn)云特征相加形成新的特征,作為下一個(gè)層次的輸入,使得特征多樣化,從一定程度上避免了點(diǎn)云有效信息丟失,提升了分類精度。

        2 網(wǎng)絡(luò)框架

        工作流程如圖2所示。

        圖2 Feature_RNet網(wǎng)絡(luò)框架

        首先,完成特征圖像的生成,即對(duì)三維點(diǎn)云數(shù)據(jù)集進(jìn)行特征提取,所用方法與文獻(xiàn)[15]一致(在上一章節(jié)已經(jīng)詳細(xì)介紹了,這里就不進(jìn)行贅述)。然后將特征值進(jìn)行融合得到特征圖像,再將特征圖像作為RNet網(wǎng)絡(luò)框架的輸入。對(duì)于提出的RNet網(wǎng)絡(luò)框架的設(shè)計(jì),靈感來(lái)源于pointNet論文里的vanilla版本(即沒(méi)有使用T-Net矩陣)的框架模型,主要區(qū)別在于:(1)沒(méi)有卷積核大小為1*1,通道數(shù)為128的卷積層;(2)多次添加⊕操作,實(shí)現(xiàn)特征相加,從而得到新的特征矩陣作為下一層次的輸入,能夠更有效地獲取特征信息,進(jìn)而提升分類精度。

        2.1 RNet網(wǎng)絡(luò)框架

        RNet框架如圖3所示。

        圖3 RNet網(wǎng)絡(luò)框架

        將特征圖像輸入到RNet網(wǎng)絡(luò)框架中,通過(guò)RNet框架中的網(wǎng)絡(luò)層對(duì)輸入的特征圖像進(jìn)行特征提取操作,最終完成點(diǎn)云分類任務(wù)。由于深度學(xué)習(xí)網(wǎng)絡(luò)框架會(huì)隨著卷積層數(shù)的增加而出現(xiàn)過(guò)度擬合的情況,為了防止這一情況的出現(xiàn),RNet網(wǎng)絡(luò)模型中加入了BN和ReLu,從而能更有效地獲取點(diǎn)云的特征信息,同時(shí),類似殘差塊的設(shè)計(jì)能夠在一定程度上解決梯度爆炸以及梯度消失等問(wèn)題。

        RNet網(wǎng)絡(luò)框架包含4個(gè)1*1卷積核,通道數(shù)為64的conv,1個(gè)1*1卷積核,通道數(shù)為1 024的conv。卷積核部分都采用了1*1的卷積核,在卷積神經(jīng)網(wǎng)絡(luò)中,相比于大的卷積核而言,在相同情況下,使用小的卷積核使得卷積層計(jì)算過(guò)程中參數(shù)量減少很多。由于在卷積神經(jīng)網(wǎng)絡(luò)層對(duì)點(diǎn)云特征圖像提取特征的過(guò)程中部分有效特征信息并未提取到,從而導(dǎo)致最終分類結(jié)果精度下降,因此,為了改進(jìn)這一問(wèn)題,在RNet網(wǎng)絡(luò)框架中(如圖3所示),⊕實(shí)現(xiàn)張量相加,通過(guò)疊加輸入的方法,使得網(wǎng)絡(luò)框架將深層特征與淺層特征結(jié)合起來(lái),能夠獲得更為全面的特征信息,從而提高分類精度。

        接下來(lái)介紹點(diǎn)云特征圖像進(jìn)入到RNet框架之后的工作流程。首先通過(guò)文獻(xiàn)[15]中的特征圖像的獲取方法,得到了形如[BatchSize,Channel,Width,Height]格式的[BatchSize,1,32,32]的特征圖像,記為X,其中,Channel為通道數(shù),Width,Height分別為特征圖像的寬度和高度。將上述得到的特征圖像輸入到RNet網(wǎng)絡(luò)框架中,首先經(jīng)過(guò)一個(gè)卷積核大小為1×1,輸出通道數(shù)為64的網(wǎng)絡(luò)層,輸出為[BatchSize,64,32,32]格式的特征矩陣,將上述輸出記為Y。再將Y作為下一個(gè)卷積核大小為1×1,輸出通道數(shù)為64網(wǎng)絡(luò)層的輸入,最終得到[BatchSize,64,32,32]格式的特征矩陣,記為out1。值得注意的是,在第三個(gè)卷積核大小為1×1,輸出通道數(shù)為64的網(wǎng)絡(luò)層時(shí),輸入并非為out1,而是Y+out1,最終得到[BatchSize,64,32,32]格式的特征矩陣,記為out2。同樣的在第四個(gè)卷積核大小為1×1,輸出通道數(shù)為64的網(wǎng)絡(luò)層,輸入并非為out2,而是Y+out2,最終得到[BatchSize,64,32,32]格式的特征矩陣,記為out3。接下來(lái)是一個(gè)卷積核大小為1×1,輸出通道數(shù)為1 024的網(wǎng)絡(luò)層,以out3+X+Y作為輸入,最終得到[BatchSize,64,32,32]格式的特征矩陣。再經(jīng)過(guò)Flatten層之后,輸出(None,230 400)的向量,最終經(jīng)過(guò)全連接FC(512,256,K)得出分類結(jié)果。

        2.2 殘差塊進(jìn)一步的應(yīng)用

        深度殘差網(wǎng)絡(luò)ResNet[20]由許多的殘差單元組成,傳統(tǒng)的殘差單元由直接映射部分和殘差部分組成,每個(gè)殘差塊可以用以下公式表示:

        yl=h(xl)+F(xl,Wl)

        (1)

        xl+1=f(yl)

        (2)

        其中,xl+1和xl分別是第l個(gè)殘差單元的輸出和輸入,F(xiàn)是殘差函數(shù),在文獻(xiàn)[20]中,h(xl)=xl是一個(gè)恒等映射,f是一個(gè)ReLU[21]函數(shù)。

        殘差單元包含具有“快捷連接”的前饋神經(jīng)網(wǎng)絡(luò)??旖葸B接[22-24]是跳過(guò)一個(gè)或多個(gè)層的連接。快捷連接只是執(zhí)行標(biāo)識(shí)映射,它們的輸出被添加到堆疊層的輸出中。標(biāo)識(shí)快捷方式連接既不增加額外的參數(shù),也不增加計(jì)算復(fù)雜性。直接將x從淺層神經(jīng)網(wǎng)絡(luò)傳送到神經(jīng)網(wǎng)絡(luò)的深層,通過(guò)這種方式能夠有助于解決梯度消失和梯度爆炸問(wèn)題,使得在訓(xùn)練更深的網(wǎng)絡(luò)模型時(shí),能保證良好的魯棒性。

        如圖3所示,RNet框架模型在殘差模塊結(jié)構(gòu)的基礎(chǔ)上,做出了一些變型——構(gòu)造4個(gè)⊕操作(⊕代表張量的疊加),與傳統(tǒng)殘差塊不同的是addition是在ReLu之前,而在RNet模型中addition表現(xiàn)在激活函數(shù)ReLu之后。從提取特征的角度上來(lái)說(shuō),將淺層提取的全局特征傳送到網(wǎng)絡(luò)的更深層,與該更深層提取的全局特征進(jìn)行結(jié)合,在不增加參數(shù)量的前提下,提高了最終分類結(jié)果精度。

        2.3 特征圖像的生成

        在文獻(xiàn)[15]的Feature-PointNet網(wǎng)絡(luò)框架模型中,利用構(gòu)造的特征圖像作為框架的輸入,以三維特征與二維特征相結(jié)合的方式表示整體點(diǎn)云特征,以達(dá)到提高分類準(zhǔn)確率的效果。在此基礎(chǔ)上,該文利用文獻(xiàn)[15]的特征圖像構(gòu)造方法,設(shè)計(jì)出特征圖像作為輸入并對(duì)RNet框架進(jìn)行訓(xùn)練。

        三維特征組合為:[Lλ,Nx,Ny,Nz,Pλ,Sλ,Mx,My,Mz,Oλ,Aλ,Eλ,Tλ,Cλ,D,Q,V]

        二維特征組合為:[rk,D2D,Rλ,2D,S2D,EVratio2D]

        (3)

        (4)

        對(duì)于二維數(shù)據(jù)點(diǎn)Pk(xk,yk)作為點(diǎn)P的第k個(gè)近鄰數(shù)據(jù)點(diǎn),則rk(最優(yōu)鄰域半徑)的計(jì)算公式如下:

        (5)

        3 實(shí)驗(yàn)結(jié)果

        3.1 數(shù)據(jù)集

        該文采用Oakland[25]數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集,該數(shù)據(jù)的獲取是通過(guò)配備了側(cè)視 SICK LMS激光掃描儀的Navlab11在賓夕法尼亞州匹茲堡奧克蘭的CMU校園周圍收集的。該數(shù)據(jù)集包含160萬(wàn)個(gè)3D點(diǎn)云數(shù)據(jù),共44個(gè)標(biāo)簽。Oakland數(shù)據(jù)集包含了訓(xùn)練數(shù)據(jù)集、測(cè)試數(shù)據(jù)集和驗(yàn)證數(shù)據(jù)集,其中訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集經(jīng)過(guò)了過(guò)濾和標(biāo)記,將44個(gè)標(biāo)簽重新映射成了5個(gè)標(biāo)簽,這5個(gè)標(biāo)簽分別為scatter_misc(植被)、utility_pole(柱狀物)、load_bearing(地面)、default_wire(電線)、facade(立面),如表1所示。

        表1 Oakland 3D數(shù)據(jù)集

        GML數(shù)據(jù)集[26]是通過(guò)ALTM2050這一系統(tǒng)采集獲取的三維點(diǎn)云數(shù)據(jù)集,該系統(tǒng)提供了GML_A數(shù)據(jù)集和GML_B數(shù)據(jù)集兩個(gè)不同的數(shù)據(jù)集。由于GML數(shù)據(jù)集過(guò)大,總共包含約2 077萬(wàn)個(gè)3D數(shù)據(jù)點(diǎn),而實(shí)驗(yàn)硬件環(huán)境遠(yuǎn)遠(yuǎn)達(dá)不到能夠處理GML數(shù)據(jù)集的條件,同時(shí),GML_A數(shù)據(jù)集相比于GML_B數(shù)據(jù)集分布更為合理,能夠更好地體現(xiàn)網(wǎng)絡(luò)模型分類效果,因此,采用了GML_A數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)集。在應(yīng)用到框架之前,對(duì)GML_A數(shù)據(jù)集進(jìn)行了預(yù)處理(Space采樣),目的是適配現(xiàn)有的硬件環(huán)境以及通過(guò)減少數(shù)據(jù)集數(shù)據(jù)大小從而減少在特征提取計(jì)算上的時(shí)間耗費(fèi)。經(jīng)過(guò)了預(yù)處理之后的GML_A數(shù)據(jù)集每個(gè)類別數(shù)據(jù)如表2所示。

        表2 經(jīng)過(guò)預(yù)處理之后的GML_A數(shù)據(jù)集大小

        3.2 實(shí) 驗(yàn)

        實(shí)驗(yàn)是在Intel i7-4790、NVIDIA RTX 2070、8G內(nèi)存,在Window10和Python3.7下搭建CUDA 10.0、CUDNN7.6.4、Pytorch 0.6的環(huán)境下進(jìn)行的,學(xué)習(xí)率初始化為0.001,訓(xùn)練總輪數(shù)為120,使用weight_decay=1e-8,第一次估計(jì)的指數(shù)衰減率為0.9,第二次估計(jì)的指數(shù)衰減率為0.99的Adam優(yōu)化方法來(lái)訓(xùn)練RNet網(wǎng)絡(luò)框架。通過(guò)提取點(diǎn)云特征計(jì)算特征圖像,而在提取特征值的過(guò)程中,是以100個(gè)點(diǎn)為單位計(jì)算特征值,以此為固定值,通過(guò)修改后面的RNet網(wǎng)絡(luò)框架,與不同的神經(jīng)網(wǎng)絡(luò)框架下的準(zhǔn)確率以及花費(fèi)時(shí)間進(jìn)行對(duì)比。

        對(duì)比其他方法在Oakland 3D數(shù)據(jù)集上進(jìn)行分類任務(wù)的精度,以及為了驗(yàn)證圖3中⊕(張量加addition)的作用,對(duì)比了有⊕操作的RNet網(wǎng)絡(luò)框架以及去除⊕操作的RNet框架在Oakland數(shù)據(jù)集上的分類精度,如表3所示,其中OA代表總體分類精度。

        表3 不同方法分類精度對(duì)比 %

        由表3可知,在scatter_misc和facade這兩大類別的分類精度表現(xiàn)優(yōu)異,在總體分類精度上,所提出的RNet網(wǎng)絡(luò)框架達(dá)到了97.7%,要優(yōu)于其他方法,并且有⊕操作可以提升框架的整體分類精度。但是在utility_pole跟default_wire這兩類上表現(xiàn)的差強(qiáng)人意,造成這個(gè)結(jié)果的原因主要有:(1)這兩個(gè)類別的點(diǎn)數(shù)據(jù)量較少;(2)在進(jìn)行特征提取的過(guò)程中,存在點(diǎn)的覆蓋問(wèn)題。

        圖4(a)為Oakland 原始測(cè)試數(shù)據(jù)集可視化圖,圖4(b)為在Oakland數(shù)據(jù)集上進(jìn)行分類結(jié)果可視化。從圖4的可視化可知,類別utility_pole跟default_wire的分類效果不好,后續(xù)還要對(duì)框架進(jìn)行優(yōu)化。

        (a)Oakland原始測(cè)試數(shù)據(jù)集可視化

        (b)結(jié)果可視化

        收集了一些應(yīng)用GML_A數(shù)據(jù)集的實(shí)驗(yàn)研究,與文中方法進(jìn)行比較,如表4所示,表現(xiàn)比較好的是Tree和Ground這兩個(gè)類別,分別達(dá)到了91.77%、78.4%的準(zhǔn)確率,但是在Building和Car類別上的精度差強(qiáng)人意,造成這種情況的原因有數(shù)據(jù)集該類別的數(shù)據(jù)少等,后續(xù)要改進(jìn)參數(shù)以達(dá)到更好的分類效果。結(jié)果可視化如圖5(b)所示。

        (a)經(jīng)過(guò)預(yù)處理(Space采樣)之后的GML_A測(cè)試數(shù)據(jù)集

        (b)結(jié)果可視化

        表4 不同方法的對(duì)比精度 %

        4 結(jié)束語(yǔ)

        由于近些年科技的發(fā)展與進(jìn)步,大場(chǎng)景三維點(diǎn)云的應(yīng)用領(lǐng)域越來(lái)越廣泛,但是大場(chǎng)景點(diǎn)云分類中還存在很多問(wèn)題,如由于大場(chǎng)景點(diǎn)云數(shù)據(jù)量龐大導(dǎo)致相關(guān)工作所需計(jì)算量巨大,占用內(nèi)存過(guò)大,訓(xùn)練時(shí)間也過(guò)長(zhǎng),以及分類精度低等問(wèn)題。該文提出了一種基于Feature-RNet的大場(chǎng)景三維點(diǎn)云分類框架,在Oakland 3D數(shù)據(jù)集上取得了不錯(cuò)的分類精度,但是在數(shù)據(jù)量少的點(diǎn)云類別上效果不盡如人意。同時(shí)在GML_A數(shù)據(jù)集上取得了不錯(cuò)的成績(jī),但是依然存在很大的進(jìn)步空間,后續(xù)將不斷優(yōu)化框架以達(dá)到更好的分類準(zhǔn)確率。在未來(lái)的工作中,將繼續(xù)研究如何提升深度學(xué)習(xí)框架本身的計(jì)算性能,在保證不錯(cuò)的分類精度的同時(shí)能使用更少的訓(xùn)練時(shí)間,同時(shí)針對(duì)數(shù)據(jù)量少的點(diǎn)云也能取得不錯(cuò)的分類效果,并且將該模型框架應(yīng)用到不同的大場(chǎng)景點(diǎn)云數(shù)據(jù)集中,以便提高框架的通用性。

        猜你喜歡
        分類特征方法
        分類算一算
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        可能是方法不對(duì)
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        亚洲天堂中文| 高潮内射双龙视频| 国产一区二区波多野结衣| 看黄网站在线| 黄色av三级在线免费观看| 亚洲日本中文字幕高清在线| 国产果冻豆传媒麻婆精东| 国产极品美女高潮抽搐免费网站| 色欲AV无码久久精品有码| 综合久久一区二区三区| 一区二区三区无码高清视频| 国产天美传媒性色av| 超碰Av一区=区三区| 国产自拍在线视频观看| 亚洲av成人精品一区二区三区| 人妻av乱片av出轨| 亚洲色欲大片AAA无码| 中文字幕一区二区三区亚洲| 天天综合网网欲色| 亚洲欧洲日本综合aⅴ在线 | 精品久久久久88久久久| 美女被黑人巨大入侵的的视频 | 亚洲熟妇乱子伦在线| 久久老熟女乱色一区二区| 国产欧美日韩一区二区加勒比| 国内精品伊人久久久久影院对白| 久久亚洲成a人片| 国产激情一区二区三区不卡av | 啦啦啦www播放日本观看| 亚洲AV无码资源在线观看| 亚洲情精品中文字幕99在线| 精品卡一卡二卡3卡高清乱码| 久久棈精品久久久久久噜噜| AV中文码一区二区三区| 日本一区二区三区亚洲| 一本一道久久综合久久| 欧美视频九九一区二区| 免费国产不卡在线观看| 特黄熟妇丰满人妻无码| 午夜大片又黄又爽大片app| 人妻少妇精品视频中文字幕国语|