莊祉昀,張 軍,孫廣富
(國防科技大學(xué) 電子科學(xué)與工程學(xué)院, 湖南 長沙 410073)
用于三維點云表示的擴展點特征直方圖算法*
莊祉昀,張 軍,孫廣富
(國防科技大學(xué) 電子科學(xué)與工程學(xué)院, 湖南 長沙 410073)
局部特征提取在點云相關(guān)應(yīng)用中具有十分重要的作用,因此提出一種用于點云局部特征表示的擴展點特征直方圖描述子。針對鄰域點的兩兩點對提出一系列不變量;在特征點上構(gòu)建一個局部參考坐標(biāo)框架以獲得特征描述子對旋轉(zhuǎn)和平移的不變性;將關(guān)鍵點局部鄰域劃分成多個子空間,并依據(jù)每個子空間中的點對不變量構(gòu)建一個直方圖;將所有直方圖串聯(lián)起來得到擴展點特征直方圖特征描述子。采用Bologna公共數(shù)據(jù)集對擴展點特征直方圖特征描述子的性能進行測試,并與多個現(xiàn)有算法進行對比。結(jié)果表明,擴展點特征直方圖特征描述子獲得了良好的性能,其結(jié)果優(yōu)于多個現(xiàn)有的特征描述子。
點云;局部特征;特征表示;點集;特征直方圖
特征提取是計算機視覺和模式識別領(lǐng)域的一個核心基礎(chǔ)問題,目前業(yè)界已提出多種點云局部特征描述算法,但如何實現(xiàn)對局部點云的高鑒別力描述依然是一個有待解決的問題。Johnson等[1-2]采用點云的法向量及點的位置信息提出了一個spin image特征。對于特征點的每一個局部鄰域點,均可采用兩個參數(shù)進行表示,其中一個參數(shù)是該鄰域點到特征點法向量的距離,另一個參數(shù)是該鄰域點到特征點切平面的距離。接著,對所有鄰域點依據(jù)這兩個參數(shù)值進行二維直方圖統(tǒng)計以獲得spin image特征描述子。Spin image特征描述子具有對剛性變換的良好不變性[1]。Hetzel等采用包括點云深度值、表面法向量以及曲率等在內(nèi)的多個屬性構(gòu)建局部特征描述子[3]。這些特征描述子實現(xiàn)簡單且對視點變化具有良好的不變性。Flint等[4-5]通過對關(guān)鍵點與局部鄰域點的法向量夾角進行直方圖統(tǒng)計以得到THRIFT特征描述子。Chen等[6]采用局部鄰域點的形狀指數(shù)和法向量變化這兩類信息構(gòu)建LSP(local surface patch)特征描述子。Rusu等[7]通過計算關(guān)鍵點及其鄰域點的多個幾何屬性關(guān)系構(gòu)建直方圖,并將多個直方圖串聯(lián)起來得到快速點特征直方圖(Fast Point Feature Histograms, FPFH)特征描述子。Pang等[8]通過體素化計算一系列3D Harr特征描述子,并將這些特征描述子用于包含遮擋的點云下的目標(biāo)識別。Tombari等[9-10]在構(gòu)建局部參考坐標(biāo)框架的基礎(chǔ)上提出了一種方位直方圖(Signature of Histograms of OrienTations, SHOT)特征描述子。實驗結(jié)果表明,SHOT特征描述子在鑒別力和穩(wěn)健性之間獲得了良好的折中。Cirujeda等[11]對三維局部表面的形狀與顏色信息進行融合以獲得MCOV特征描述子。MCOV特征對剛性變換具有不變性,且對噪聲和數(shù)據(jù)分辨率變化具有穩(wěn)健性。Hariri等[12]亦提出了一種基于協(xié)方差的局部特征描述子。此外,近期還有全局正交物體描述子(Global Orthographic Object Descriptor, GOOD)[13]、距離直方圖描述子[14]、二值形狀模式描述子[15]以及快速穩(wěn)健局部特征描述子[16]等一系列算法被提出。
大多數(shù)的現(xiàn)有特征描述算法直接采用鄰域點的幾何屬性(如法向量、曲率[17]及積分體積[18]等)或空間坐標(biāo)構(gòu)建點云局部特征描述子。由于只采用了鄰域點上的幾何屬性或空間坐標(biāo)來對關(guān)鍵點鄰域進行表示,這類特征描述子缺乏上下文結(jié)構(gòu)信息,因此,點云中的許多關(guān)鍵點將得到非常相似的特征描述子,從而在特征匹配時帶來大量的錯誤特征匹配。若能將鄰域點的上下文信息添加到特征描述子中,則提取到的特征描述子將具有更高的鑒別力和更多的信息量。一種直觀的思路是將點對的信息用于特征描述,從而使獲得的特征描述子包含上下文信息。受此啟發(fā),基于點對屬性不變量,提出了擴展點特征直方圖(Extended Point Feature Histograms, EPFH)特征描述子。
1.1 Darboux框架
為獲得關(guān)鍵點鄰域表面的點對幾何屬性,首先為每一個點對構(gòu)建一個Darboux框架。給定一個關(guān)鍵點pk及其法向量nk,鄰域點pi及其法向量ni,則Darboux框架的三個坐標(biāo)軸(u,v,w) 可通過這兩個點及它們的法向量構(gòu)建得到,即:
u=nk
(1)
v=(pi-pk)×nk
(2)
w=u×v
(3)
圖1 Darboux框架示意圖Fig.1 Illustration of the Darboux frame
關(guān)鍵點pk定義為該Darboux框架的原點,其示意圖如圖1所示??梢钥闯觯珼arboux框架給出了描述兩個點之間關(guān)系的一種方式。后文將基于Darboux框架定義一系列點對幾何屬性不變量用于特征描述。
1.2 點對幾何屬性不變量
當(dāng)?shù)玫揭粋€關(guān)鍵點pk及其鄰域點pi的Darboux框架后,可據(jù)此計算多個成對幾何屬性不變量[7]。第一個不變量定義為向量v和向量ni的點積,即:
α=vni
(4)
第二個不變量為向量u與連接點pk和點pi的直線之間的點積,即:
(5)
第三個不變量定義為:
θ=arctan(wni,uni)
(6)
這些不變量反映了關(guān)鍵點pk及其鄰域點pi之間的幾何關(guān)系。然而,這些不變量只給出了關(guān)鍵點與鄰域點之間的幾何關(guān)系,而沒有反映出空間信息,因此提出一種同時包含幾何關(guān)系和空間關(guān)系的EPFH特征,從而使得特征描述子的鑒別力更強。
現(xiàn)有的點特征直方圖(Point Feature Histograms, PFH)特征描述子將關(guān)鍵點鄰域的所有點對幾何屬性累加以得到特征描述子[19];現(xiàn)有的FPFH特征描述子只將關(guān)鍵點與鄰域點的點對屬性不變量累加到一個直方圖中[7]。這兩種特征描述子均缺乏點云空間分布的信息,本文提出的EPFH特征將同時包含幾何信息和空間分布信息。EPFH特征的生成過程主要包括如下步驟:局部參考坐標(biāo)框架構(gòu)建、直方圖生成以及直方圖壓縮。
2.1 局部參考坐標(biāo)框架構(gòu)建
一個良好的特征描述子應(yīng)該對剛性變換(包含旋轉(zhuǎn)和平移)具有不變性,以實現(xiàn)不同視角下的兩個點云之間的精確特征匹配。一個典型思路是給每個關(guān)鍵點賦予一個局部參考坐標(biāo)框架,并在該參考坐標(biāo)框架下構(gòu)建特征描述子[10,20]。
給定一個關(guān)鍵點pk及其鄰域點集合{pi|i=1,2,…,N},計算其鄰域點的加權(quán)協(xié)方差矩陣如下:
(7)
式中,r為支撐域的大小,di為關(guān)鍵點pk到其鄰域點pi的距離。
對協(xié)方差矩陣M進行特征值分解,得到:
M=VDVT
(8)
式中,D為協(xié)方差矩陣M的特征值構(gòu)成的對角矩陣,V為協(xié)方差矩陣M的特征向量{e1,e2,e3}構(gòu)成的矩陣。
由于特征向量相互正交,因此可采用協(xié)方差矩陣M的三個特征向量來構(gòu)建局部參考坐標(biāo)框架。為得到一個唯一的局部參考坐標(biāo)框架,需要消除每個特征向量的方向模糊性。本文采用文獻[10]的方法來消除特征向量的方向模糊,該方法首先計算從關(guān)鍵點到所有鄰域點的向量,然后統(tǒng)計這些向量的分布情況,并使特征向量方向與前述向量的多數(shù)方向相一致。
具體而言,首先選出與向量e1方向一致的所有鄰域點,即:
(9)
然后選出與向量e1方向相反的所有鄰域點,即:
(10)
利用類似方法作用于向量e3以獲得參考坐標(biāo)框架的z軸。當(dāng)?shù)玫絰軸和z軸后,y軸定義為z×x。因此,最終的局部參考坐標(biāo)框架將以關(guān)鍵點pk作為其原點,以x軸、y軸和z軸作為其坐標(biāo)軸。
2.2 直方圖生成
為生成特征描述子,首先將關(guān)鍵點的所有鄰域點均變換到該關(guān)鍵點的局部參考坐標(biāo)框架下,從而使得后續(xù)得到的直方圖具有對剛性變換的不變性。接著,采用一個三維球形柵格沿距離、方位角和俯仰角三個維度將關(guān)鍵點的鄰域空間劃分成多個子空間。圖2給出了該三維球形柵格的示意圖。該柵格將空間在距離維度上劃分成2部分,在方位角維度上劃分成8部分,在俯仰角維度上劃分成2部分。因此,關(guān)鍵點鄰域空間共被劃分成32個子空間。
關(guān)鍵點的鄰域空間只被劃分成了32個子空間,該劃分總體上來說是較粗糙的。這樣設(shè)計的目的在于:由于每個子空間中采用了點對幾何屬性不變量進行特征描述,因此本身已具有較高的鑒別力,只需要劃分少量的子空間即可實現(xiàn)高鑒別力地特征描述;較小的子空間數(shù)量有利于獲得緊湊且高效的特征描述子。一個緊湊的特征描述子是高效特征匹配和目標(biāo)識別等高層視覺任務(wù)的基礎(chǔ),是提高運算效率的關(guān)鍵。
圖2 三維柵格示意圖Fig.2 Illustration of the 3D grid
在每個子空間中,分別采用點對幾何屬性不變量α,φ和θ各構(gòu)建一個局部直方圖,然后將這些直方圖連接起來得到該子空間中的子特征。最后將各個子空間中的子特征連接起來得到最終的特征描述子。通過實驗發(fā)現(xiàn),直方圖的維度設(shè)置為10時可以很好地獲得特征描述子長度與鑒別力之間的折中。因此,本文設(shè)置每個直方圖維度為10,則最終的特征描述子長度為10×3×32=960。由于采用了不同的不變量來描述點云所代表的局部表面,因此得到的特征描述子具有很強的鑒別力。
2.3 直方圖壓縮
由于特征描述子長度為960,其維度太高,依然難以實現(xiàn)高效的特征存儲與匹配。事實上,特征描述子中依然存在較多的冗余信息,因此可以采用主成分分析(Principal Component Analysis, PCA)法獲得更加緊湊且鑒別力更強的特征描述子。PCA作為一種典型的降維方法,在特征壓縮、特征選擇以及目標(biāo)識別等領(lǐng)域得到了大量的應(yīng)用[21]。PCA通過將高維特征描述子映射到低維向量空間以揭示特征描述子的內(nèi)在結(jié)構(gòu)。也就是說,通過PCA可用一個低維特征描述向量來表示高維特征向量中的大部分信息。
給定一個用于訓(xùn)練的特征描述子集合{fi|i=1,2,…,Nf},首先計算其協(xié)方差矩陣:
(11)
對協(xié)方差矩陣C進行特征值分解,即得到:
C=VDVT
(12)
式中,D是協(xié)方差矩陣C的特征值構(gòu)成的對角矩陣,V由協(xié)方差矩陣C的特征向量構(gòu)成。
為降低特征描述子的維度,對C的特征向量依據(jù)其對應(yīng)的特征值從大到小進行排序,并選擇前Nfd 2個特征向量構(gòu)成PCA投影矩陣Vc。特征向量個數(shù)的選擇需滿足如下要求:
(13)
式中,{λi|i=1,2,…,Nfd 1}為依降序排列的特征值,Nfd 1為原始直方圖的維度,Nfd 2為投影后的特征描述子維度,η為特征壓縮的系數(shù)。
因此,壓縮后的特征描述子定義為:
(14)
本節(jié)將在Bologna數(shù)據(jù)集上測試所提的EPFH特征描述算法,并將其與多個現(xiàn)有算法進行對比,包括spin image[2],LSP[6]和THRIFT[5]。與文獻[9]一致,本節(jié)將每個場景的特征描述子與模型庫中的特征描述子進行匹配,從而測試特征描述子的匹配性能。
3.1 實驗設(shè)置
給定一個包含遮擋和背景干擾的場景以及一組模型,特征匹配的任務(wù)在于獲得場景局部特征描述子與模型局部特征描述子之間的特征對應(yīng)關(guān)系。采用召回率-精度曲線這一常用指標(biāo)來度量特征描述子的性能。首先,從每個模型上隨機提取1000個特征點,然后采用已知的變換關(guān)系獲得這些特征點在場景中的真實對應(yīng)點。在測試時,計算每個場景特征描述子與所有的模型特征描述子的距離以獲得最近和次近的模型特征描述子,進而將最近距離除以次近距離得到距離比值。若該距離比值小于一個預(yù)先設(shè)定的門限τf,則認為該場景特征描述子與最近模型特征描述子之間構(gòu)成一個特征對應(yīng)關(guān)系。采用場景與模型之間的真實變換關(guān)系可以確定一個特征對應(yīng)關(guān)系是否正確。具體而言,可采用真實變換關(guān)系將場景與模型變換到同一個坐標(biāo)系下,然后計算特征對應(yīng)關(guān)系中的兩個特征點之間的距離,若該距離較小,則認為獲得的特征對應(yīng)關(guān)系是正確的,否則認為是錯誤的。因此,特征匹配的精度定義為正確特征對應(yīng)數(shù)量與所獲得的所有特征對應(yīng)數(shù)量的比值,而特征匹配的召回率定義為正確特征對應(yīng)數(shù)量與所有真實特征對應(yīng)數(shù)量的比值。實際上,特征匹配的精度與召回率依賴于門限τf的選取。采用多個不同的門限便可得到不同門限下對應(yīng)的一系列召回率和精度,即獲得召回率-精度曲線。需要說明的是,文中對所有特征描述子的測試均采用相同的特征點,因此對不同特征描述子的比較結(jié)果是客觀公正的。此外,本文采用隨機選取而非某個特定特征檢測算法,因此可以避免特征檢測算法本身對特征描述子性能帶來的影響。
本文采用公共的Bologna數(shù)據(jù)集進行實驗。該數(shù)據(jù)集包含了斯坦福3D掃描數(shù)據(jù)集中的6個模型,以及通過對多個模型進行隨機旋轉(zhuǎn)和平移得到的45個場景。因此,數(shù)據(jù)集中的場景包含了復(fù)雜的形狀、豐富的幾何細節(jié)、較強的背景干擾以及不同的姿態(tài)變化,這些問題增加了算法的挑戰(zhàn)性。每個場景與模型之間的真實剛性變換關(guān)系在數(shù)據(jù)集獲取的過程中便已記錄下來。
3.2 噪聲下的性能
本小節(jié)將測試不同強度噪聲下的EPFH特征性能。實驗中,將標(biāo)準(zhǔn)差分別為0.1 mr,0.2 mr,0.3 mr和0.4 mr的高斯噪聲加入到每個場景中。不同高斯噪聲下的召回率-精度曲線如圖3所示。
可以看出,所提的EPFH特征描述子在不同強度的高斯噪聲下均取得了最好的性能:
1)對于加入0.1 mr標(biāo)準(zhǔn)差噪聲的場景,所提的EPFH特征描述子在精度為90%時取得的召回率可達到90%左右,大大超越了spin image特征描述子(spin image特征描述子在精度為90%時的召回率只有44%)。
2)當(dāng)噪聲標(biāo)準(zhǔn)差從0.1 mr增加到0.4 mr時,EPFH特征描述子的優(yōu)勢更加明顯。當(dāng)噪聲標(biāo)準(zhǔn)差為0.4 mr時,EPFH獲得的最高召回率為51.31%,而spin image,LSP和THRIFT特征描述子獲得的最高召回率分別僅為6.86%, 2.62%,1.58%。
3)總體而言,當(dāng)噪聲增加時,EPFH特征描述子的性能逐步下降。這是由于,噪聲增加會導(dǎo)致點云中點位置和法向量均與原始的無噪聲點云上的值相差較大,使得得到的Darboux框架和點對屬性不變量均發(fā)生較大變化,因此特征描述子也與無噪聲點云上的特征描述子相差較大。
4)EPFH特征描述子對噪聲相對比較穩(wěn)健。當(dāng)噪聲標(biāo)準(zhǔn)差為0.1 mr時,獲得的最大召回率為90%,而當(dāng)噪聲標(biāo)準(zhǔn)差上升到0.2 mr時,獲得的最大召回率依然高達80%。特別地,當(dāng)噪聲標(biāo)準(zhǔn)差增加到0.4 mr時,獲得的最大召回率依然可達50%以上。EPFH在噪聲標(biāo)準(zhǔn)差為0.4 mr時的性能甚至與spin image在噪聲標(biāo)準(zhǔn)差為0.1 mr時的性能相當(dāng),這充分表明了本文算法在含噪聲場景下的優(yōu)勢。
(a) 高斯噪聲標(biāo)準(zhǔn)差0.1 mr(a) Gaussian noise standard deviation of 0.1 mr
(b) 高斯噪聲標(biāo)準(zhǔn)差0.2 mr(b) Gaussian noise standard deviation of 0.2 mr
(c) 高斯噪聲標(biāo)準(zhǔn)差0.3 mr(c) Gaussian noise standard deviation of 0.3 mr
(d) 高斯噪聲標(biāo)準(zhǔn)差0.4 mr(d) Gaussian noise standard deviation of 0.4 mr圖3 不同高斯噪聲下的特征匹配召回率和精度曲線Fig.3 Precision and recall for feature matching under different Gaussian noise
3.3 數(shù)據(jù)分辨率變化下的性能
本小節(jié)將測試特征描述子在不同數(shù)據(jù)分辨率下的性能。實驗中,將每個場景點云降采樣到原分辨率的1/4和1/8,得到不同分辨率下的召回率-精度曲線如圖4所示。
(a) 1/4降采樣率 (a) 1/4 down-sampling
(b) 1/8降采樣率(b) 1/8 down-sampling圖4 不同數(shù)據(jù)分辨率下的特征匹配召回率和精度曲線Fig.4 Precision and recall for feature matching under different point cloud resolutions
由圖可以看出,所提的EPFH特征描述子在兩個不同的數(shù)據(jù)分辨率下均獲得了比其他算法更好的性能。具體而言,EPFH在1/4降采樣時的性能略優(yōu)于spin image,其獲得的最高召回率為56%。LSP和THRIFT的性能差于EPFH和spin image,獲得的最高召回率僅分別為44%和11%。當(dāng)采樣率為1/8降時,EPFH的性能大大優(yōu)于spin image特征。EPFH獲得的最高召回率為50%,而spin image獲得的最高召回率只有35%左右。由此可知,所提的EPFH特征描述子對數(shù)據(jù)分辨率變化較為穩(wěn)健。
此外,所提EFPH算法是在FPFH特征提取算法[7]的基礎(chǔ)上改進而得到,在大量數(shù)據(jù)集上的測試結(jié)果表明FPFH具有非常高的計算效率[22]。由于EPFH繼承了FPFH高效的特點,因此EPFH算法本身也具有非常高的運算效率。
本文提出了一種用于三維點云表示的EPFH特征描述子。該算法首先對一個點對構(gòu)建Darboux框架并依此獲得多個不變屬性;接著,在每個關(guān)鍵點上構(gòu)建一個局部參考坐標(biāo)框架并將鄰域空間劃分成多個子空間。通過對不變屬性進行直方圖統(tǒng)計以獲得每個子空間的子特征,最后將所有子特征串聯(lián)并經(jīng)過壓縮以得到最終的EPFH特征描述子。在Bologna數(shù)據(jù)集上測試了該特征描述子在不同噪聲和數(shù)據(jù)分辨率下的性能。實驗結(jié)果表明,所提的EPFH特征描述子不僅鑒別力強,且對噪聲和數(shù)據(jù)分辨率變化穩(wěn)健,其獲得了比spin image,THRIFT和LSP特征更好的性能。
References)
[1] Johnson A E, Hebert M. Surface matching for object recognition in complex three-dimensional scenes[J]. Image and Vision Computing, 1998, 16(9/10): 635-651.
[2] Johnson A E, Hebert M. Using spin images for efficient object recognition in cluttered 3D scenes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1999, 21(5): 433-449.
[3] Hetzel G, Leibe B, Levi P, et al. 3D object recognition from range images using local feature histograms[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001.
[4] Flint A, Dick A, van den Hengel A. Thrift: local 3D structure recognition[C]//Proceedings of the 9th Biennial Conference of the Australian Pattern Recognition Society on Digital Image Computing Techniques and Applications, 2007: 182-188.
[5] Flint A, Dick A,van den Hengel A. Local 3D structure recognition in range images[J]. IET Computer Vision, 2008, 2(4): 208-217.
[6] Chen H, Bhanu B. 3D free-form object recognition in range images using local surface patches[J]. Pattern Recognition Letters, 2007, 28(10): 1252-1262.
[7] Rusu R B, Blodow N, Beetz M. Fast point feature histograms (FPFH) for 3D registration[C]//Proceedings of IEEE International Conference on Robotics and Automation, 2009: 3212-3217.
[8] Pang G, Neumann U. Training-based object recognition in cluttered 3D point clouds[C]//Proceedings of IEEE International Conference on 3D Vision, 2013: 87-94.
[9] Salti S, Tombari F, Di Stefano L. SHOT: unique signatures of histograms for surface and texture description[J]. Computer Vision and Image Understanding, 2014, 125: 251-264.
[10] Tombari F, Salti S, Di Stefano L. Unique signatures of histograms for local surface description[C]//Proceedings of European Conference on Computer Vision, 2010: 356-369.
[11] Cirujeda P, Mateo X, Dicente Y, et al. MCOV: a covariance descriptor for fusion of texture and shape features in 3D point clouds[C]//Proceedings of IEEE 2nd International Conference on 3D Vision (3DV), 2014, 1: 551-558.
[12] Hariri W, Tabia H, Farah N, et al. 3D face recognition using covariance based descriptors[J]. Pattern Recognition Letters, 2016, 78: 1-7.
[13] Kasaei S H, Tomé A M, Lopes L S, et al. GOOD: a global orthographic object descriptor for 3D object recognition and manipulation[J]. Pattern Recognition Letters, 2016, 83(3): 312-320.
[14] Kechagias-Stamatis O, Aouf N. Histogram of distances for local surface description[C]//Proceedings of IEEE International Conference on Robotics and Automation (ICRA), 2016: 2487-2493.
[15] Romero-Gonz C, Mart J, Garc I, et al. Binary patterns for shape description in RGB-D object registration[C]//Proceedings of IEEE Winter Conference on Applications of Computer Vision (WACV), 2016: 1-9.
[16] Yang J, Cao Z, Zhang Q. A fast and robust local descriptor for 3D point cloud registration[J]. Information Sciences, 2016, 346/347: 163-179.
[17] Bae K H, Lichti D D. A method for automated registration of unorganized point clouds[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2008, 63(1): 36-54.[18] Gelfand N, Mitra N J, Guibas L J, et al. Robust global registration[C]//Proceedings of Symposium on Geometry Processing, 2005, 2(3): 5.
[19] Rusu R B, Blodow N, Marton Z C, et al. Aligning point cloud views using persistent feature histograms[C]//Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008: 3384-3391.
[20] Petrelli A, Stefano L D. A repeatable and efficient canonical reference for surface matching[C]//Proceedings of IEEE Second International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission (3DIMPVT), 2012: 403-410.
[21] Ke Y, Sukthankar R. PCA-SIFT:a more distinctive representation for local image descriptors[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2004, 2: 506-513.
[22] Guo Y, Bennamoun M, Sohel F, et al. A comprehensive performance evaluation of 3D local feature descriptors[J]. International Journal of Computer Vision, 2016, 116(1): 66-89.
Extended point feature histograms for 3D point cloud representation
ZHUANG Zhiyun, ZHANG Jun, SUN Guangfu
(College of Electronic Science and Engineering, National University of Defense Technology, Changsha 410073, China)
Local feature extraction plays an important role in related point cloud applications. Therefore, an EPFH (extended point feature histograms) descriptor for the local feature representation of 3D point cloud was proposed. Each point pair was represented by several invariant pairwise point attributes. Then, a local reference frame was defined for a keypoint and the neighboring points of the keypoint were transformed into the local reference frame. These pairwise points attributing between the neighboring points and the keypoint were accumulated into several sub-features in a set of subspaces. These sub-features were finally concatenated and compressed into an overall feature descriptor. The EPFH descriptor was tested by a popular publicly available Bologna dataset and was compared with several existing methods. Experimental results show that the proposed EPFH method outperforms several existing methods under different levels of noise and point cloud resolutions.
point cloud; local feature; feature representation; point sets; feature histograms
10.11887/j.cn.201606020
2016-05-19
國家自然科學(xué)基金資助項目(61471371)
莊祉昀(1986—),男,福建南安人,博士研究生,E-mail:jy00842031@163.com; 孫廣富(通信作者),男,研究員,博士,博士生導(dǎo)師,E-mail:sunguangfu_nnc@163.com
TN95
A
1001-2486(2016)06-124-06
http://journal.nudt.edu.cn