亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)圖像描述子的三維彩色點(diǎn)云配準(zhǔn)

        2021-05-25 01:04:58駿,毅,攀,
        關(guān)鍵詞:特征

        李 佳 駿, 安 毅, 秦 攀, 顧 宏

        ( 大連理工大學(xué) 控制科學(xué)與工程學(xué)院, 遼寧 大連 116024 )

        0 引 言

        通過將照相機(jī)和激光雷達(dá)聯(lián)合標(biāo)定,可以使激光掃描儀同時(shí)獲取點(diǎn)云信息和顏色信息,得到更加接近真實(shí)世界的三維彩色點(diǎn)云數(shù)據(jù)[1].因此,研究三維彩色點(diǎn)云數(shù)據(jù)配準(zhǔn)在三維重建等領(lǐng)域具有重要的研究意義.點(diǎn)云配準(zhǔn)是指將兩組有重復(fù)區(qū)域的點(diǎn)云數(shù)據(jù),通過計(jì)算點(diǎn)云間的剛性變換關(guān)系,最終使兩組點(diǎn)云對(duì)齊在一個(gè)坐標(biāo)系下,由此構(gòu)建出完整的數(shù)據(jù)模型[2].通常,迭代最近點(diǎn)法(ICP)[3]是解決這一問題的經(jīng)典方法,但該方法僅適用于源點(diǎn)云和目標(biāo)點(diǎn)云是預(yù)對(duì)齊的情況.如果點(diǎn)云較為稀疏或包含重復(fù)結(jié)構(gòu),則配準(zhǔn)通常會(huì)因落入局部最小值而失敗[4].所以在點(diǎn)云配準(zhǔn)前,首先要對(duì)點(diǎn)云進(jìn)行粗配準(zhǔn),即將兩片點(diǎn)云初步匹配到一個(gè)坐標(biāo)系下,使源點(diǎn)云和目標(biāo)點(diǎn)云之間獲得良好的初始位姿.在此基礎(chǔ)上,使用ICP或其改進(jìn)的算法[5]進(jìn)行精配準(zhǔn),進(jìn)一步提高配準(zhǔn)精度.

        現(xiàn)階段已經(jīng)有許多點(diǎn)云粗配準(zhǔn)算法,按照點(diǎn)云局部描述子類型可以將其分為兩類.第一類是利用點(diǎn)云本身的幾何信息和拓?fù)湫畔⒃O(shè)計(jì)點(diǎn)云局部描述子,如3D-SIFT[6]、Harris 3D[7]和SHOT[8]等.Rusu等[9]首先提出了點(diǎn)云數(shù)據(jù)的快速點(diǎn)特征直方圖(FPFH)特征,提取關(guān)鍵點(diǎn)特征后,使用采樣一致性初始配準(zhǔn)算法計(jì)算出點(diǎn)云的初始變換矩陣完成點(diǎn)云粗配準(zhǔn)[10].鄭德華等[11]根據(jù)點(diǎn)云的點(diǎn)線面幾何特征形成約束條件對(duì)點(diǎn)云配準(zhǔn)參數(shù)進(jìn)行計(jì)算.雖然傳統(tǒng)的點(diǎn)云局部描述子為特征點(diǎn)提供了良好的判別能力,但不能分析點(diǎn)云帶有的顏色紋理信息,且依賴于特定應(yīng)用場(chǎng)景.第二類方法是建立點(diǎn)云中的點(diǎn)和圖像中的像素之間的映射關(guān)系.通過將點(diǎn)云數(shù)據(jù)中的點(diǎn)映射到二維平面,利用圖像中成熟的技術(shù)方法,計(jì)算點(diǎn)云局部特征描述子.比如,Elbaz等[12]將三維點(diǎn)云數(shù)據(jù)劃分為局部超點(diǎn)集并投影為深度圖,利用深度自動(dòng)編碼器計(jì)算點(diǎn)云匹配.Lin等[13]將點(diǎn)云轉(zhuǎn)換為二維方位角圖像,采用二維圖像中的特征計(jì)算方法SURF[14]來尋找兩幅圖像之間的匹配像素對(duì)再尋求匹配關(guān)系.另外,包竹等[15]提出了用點(diǎn)云信息在投影平面上獲得深度圖像,采用ORB[16]算法在深度圖像上完成對(duì)點(diǎn)云的粗配準(zhǔn).但以上這些研究大都是針對(duì)點(diǎn)云數(shù)據(jù)或點(diǎn)云生成的深度圖像,沒有有效利用三維彩色點(diǎn)云數(shù)據(jù)中包含的圖像信息.另外,直接采用傳統(tǒng)算法SIFT[17]、SURF、ORB等進(jìn)行點(diǎn)云匹配,可能出現(xiàn)配準(zhǔn)精度低的現(xiàn)象.而隨著學(xué)習(xí)型描述子在二維圖像局部描述子領(lǐng)域的應(yīng)用逐漸廣泛,TFeat[18]、L2-Net[19]、HardNet[20]等卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可以從圖像中計(jì)算出適用性更加廣泛的深層特征.另外,近年還有一些針對(duì)基于深度學(xué)習(xí)的三維點(diǎn)云特征描述子研究,如PointNet[21]、2D3D-MatchNet[22]、3DSmoothNet[23]等三維卷積神經(jīng)網(wǎng)絡(luò),但是三維卷積神經(jīng)網(wǎng)絡(luò)的模型一般較大,精度提高的同時(shí)計(jì)算效率較低,難以應(yīng)用.

        隨著深度學(xué)習(xí)在點(diǎn)云局部描述子的研究中不斷顯示出優(yōu)越性,大尺寸的模型對(duì)于硬件設(shè)備要求也帶來了挑戰(zhàn),實(shí)用性降低.因此,本文充分利用點(diǎn)云數(shù)據(jù)中的圖像信息,針對(duì)二維淺層卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行研究.

        三維彩色點(diǎn)云數(shù)據(jù)同時(shí)具有點(diǎn)云的空間位置信息和顏色信息,并與圖像中的像素存在一一對(duì)應(yīng)關(guān)系.因此,針對(duì)三維彩色點(diǎn)云數(shù)據(jù),本文提出一種基于圖像特征的局部描述子點(diǎn)云配準(zhǔn)方法,其主要思想是:首先,計(jì)算點(diǎn)云投影圖的特征點(diǎn);其次,由卷積神經(jīng)網(wǎng)絡(luò)和方向梯度直方圖結(jié)合產(chǎn)生圖像描述子作為點(diǎn)云局部描述子;然后,根據(jù)描述子之間的對(duì)應(yīng)關(guān)系,找到匹配的點(diǎn)云特征點(diǎn);最后,根據(jù)對(duì)應(yīng)點(diǎn)云特征點(diǎn),完成對(duì)點(diǎn)云的粗配準(zhǔn).

        1 數(shù)據(jù)來源及圖像匹配訓(xùn)練集構(gòu)建

        1.1 數(shù)據(jù)來源

        本文針對(duì)三維彩色點(diǎn)云數(shù)據(jù)進(jìn)行處理,需要保證該數(shù)據(jù)的精確性和可靠性.本文采用的點(diǎn)云數(shù)據(jù)采集工具是德國西克公司生產(chǎn)的LMS511-10100 PRO激光掃描測(cè)距儀.該激光掃描測(cè)距儀利用激光-時(shí)間飛行的原理以及多重回波技術(shù)實(shí)現(xiàn)對(duì)較遠(yuǎn)距離物體的測(cè)量,其抗干擾性能好.另外,圖像信息由CCD工業(yè)相機(jī)Genie HC1024采集,在實(shí)際應(yīng)用中能采集到低噪聲、高速的穩(wěn)定彩色圖像.在實(shí)際采集系統(tǒng)中,在激光掃描測(cè)距儀頂端固定相機(jī),利用旋轉(zhuǎn)臺(tái)將二者固定,在電機(jī)的驅(qū)動(dòng)下使它們保持相同的角度勻速轉(zhuǎn)動(dòng),由此搭建信息采集系統(tǒng)[24],最終獲得具有顏色信息的三維點(diǎn)云數(shù)據(jù).圖1是搭建的信息采集系統(tǒng)組成框圖.

        圖1 采集系統(tǒng)組成框圖

        1.2 基于網(wǎng)格運(yùn)動(dòng)統(tǒng)計(jì)法的訓(xùn)練集構(gòu)建

        一般利用深度學(xué)習(xí)訓(xùn)練孿生神經(jīng)網(wǎng)絡(luò)均采用liberty、yosemite和notredame等局部圖像塊數(shù)據(jù)集[25],但是這可能導(dǎo)致神經(jīng)網(wǎng)絡(luò)在點(diǎn)云投影圖場(chǎng)景適用性較差.為此,本文采用基于網(wǎng)格的運(yùn)動(dòng)一致性算法,提出一種在點(diǎn)云任意場(chǎng)景下構(gòu)建圖像匹配數(shù)據(jù)集的方法.

        構(gòu)建適用于點(diǎn)云場(chǎng)景的局部圖像塊訓(xùn)練數(shù)據(jù)集,本質(zhì)上是要得到大量高質(zhì)量的匹配點(diǎn).GMS[26]是一種基于運(yùn)動(dòng)的平穩(wěn)性,利用網(wǎng)格統(tǒng)計(jì)鄰域支持量,用大量的特征匹配有效濾除錯(cuò)誤匹配,從而獲得大量準(zhǔn)確的圖像匹配結(jié)果的算法.本文采用精度更高的SURF算法代替GMS采用的ORB算法,使最終得到的匹配更加準(zhǔn)確,數(shù)據(jù)集更加具有可靠性.

        圖2為正確匹配對(duì)與錯(cuò)誤匹配對(duì)的分布圖,若兩幅圖像Ia、Ib的特征點(diǎn)集合分別為N、M,則從Ia到Ib特征匹配的集合可以表示為X={x1,x2,…,x|N|},其中xi表示其中的一對(duì)匹配,即xi={α,β|α∈N,β∈M}.特征點(diǎn)α、β周圍的鄰域分別用a、b表示,對(duì)于給定半徑r,定義特征點(diǎn)鄰域:

        (1)

        根據(jù)運(yùn)動(dòng)的平滑性,若該匹配對(duì)正確,則鄰域a、b之間應(yīng)存在其他若干對(duì)匹配關(guān)系;若該匹配對(duì)錯(cuò)誤,則鄰域a、b之間不存在其他匹配關(guān)系.已知a、b鄰域之間存在某一xi匹配,則鄰域a、b之

        圖2 正確匹配對(duì)與錯(cuò)誤匹配對(duì)分布

        間所有的匹配記作Xi.用Si表示xi的鄰域支持量,即a、b鄰域之間其他匹配對(duì)的數(shù)量,則有:

        Si=|Xi|-1

        (2)

        (3)

        其中m表示區(qū)域b中的特征點(diǎn)數(shù)量,σ是權(quán)重值,0<σ<1.

        (4)

        (5)

        根據(jù)上式,當(dāng)xi是正確匹配時(shí),Si~B(n,pt);當(dāng)xi是錯(cuò)誤匹配時(shí),Si~B(n,pf).

        為了使計(jì)算復(fù)雜度降低,將圖像劃分為G=g×g個(gè)網(wǎng)格,通過計(jì)算兩個(gè)待匹配網(wǎng)格各自周圍相鄰格子的估計(jì)量,得到網(wǎng)格對(duì)的鄰域支持量.

        (6)

        其中K表示與匹配xi一起連續(xù)的不相交區(qū)域的數(shù)量;{ak,bk}表示對(duì)應(yīng)的網(wǎng)格塊,Xk表示在{ak,bk}區(qū)域?qū)ι系钠ヅ洌纱说玫?,?dāng)Xk匹配時(shí),Si~B(Kn,pt);當(dāng)Xk不匹配時(shí),Si~B(Kn,pf).因此,兩種情況下Si的均值和標(biāo)準(zhǔn)差如下:

        (7)

        由于運(yùn)動(dòng)網(wǎng)格的劃分,根據(jù)計(jì)算的均值和標(biāo)準(zhǔn)差,得到網(wǎng)格區(qū)域匹配對(duì)二值化表達(dá)式:

        (8)

        式中:i表示圖像Ia中的第i個(gè)網(wǎng)格區(qū)域;j表示圖像Ib中的第j個(gè)網(wǎng)格區(qū)域;pair{i,j}表示網(wǎng)格對(duì)匹配的結(jié)果;Sij表示判斷圖像塊i和j是否匹配的閾值;μ為權(quán)重值;ni表示K個(gè)網(wǎng)格塊中特征點(diǎn)的平均數(shù)量.根據(jù)這種網(wǎng)格運(yùn)動(dòng)統(tǒng)計(jì)法可以從大量匹配中有效剔除誤匹配,得到大量正確匹配點(diǎn).因此,結(jié)合傳統(tǒng)SURF特征提取算法和GMS算法可以提取出大量相匹配的圖像塊,生成訓(xùn)練數(shù)據(jù)集.

        圖3 fa特征點(diǎn)匹配的事件空間

        2 組合描述子的構(gòu)建

        2.1 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像局部描述子

        傳統(tǒng)描述子一般為人工設(shè)計(jì),且通常需要豐富的經(jīng)驗(yàn)來設(shè)計(jì)和優(yōu)化,另外可能存在泛用性較差的問題.而學(xué)習(xí)型描述子在解決圖像識(shí)別、檢索等領(lǐng)域的問題時(shí)具有較大優(yōu)勢(shì).因此,更多人采用卷積神經(jīng)網(wǎng)絡(luò)提取關(guān)鍵點(diǎn)鄰域的深度特征作為描述子.由于目前已有的網(wǎng)絡(luò)結(jié)構(gòu)都比較深,模型尺寸較大,難以滿足多樣的環(huán)境需求.TFeat的模型是L2-Net、HardNet的一半,是3DSmoothNet的1/10.同時(shí),TFeat的運(yùn)算速度和效率較2D3D-MatchNet[22]和DeepDesc[27]快50倍,且在GPU的加速下,可與Fast特征描述子相媲美[18].因此,基于TFeat的淺層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在應(yīng)用中更便于滿足環(huán)境需求,并搭載到硬件資源中使用.所以,本文采用TFeat網(wǎng)絡(luò)結(jié)構(gòu)計(jì)算特征描述子.

        TFeat是一種三分支網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練數(shù)據(jù)集為成對(duì)的正樣本和單個(gè)負(fù)樣本.其單支網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示.該單支網(wǎng)絡(luò)的輸入為32×32的圖像塊,輸出是128維描述子,分別用d0,…,d127表示.在實(shí)際訓(xùn)練過程中通常負(fù)樣本遠(yuǎn)多于正樣本,即出現(xiàn)數(shù)據(jù)集不平衡的問題.若采用隨機(jī)采樣策略[18]構(gòu)建訓(xùn)練三元組,會(huì)降低訓(xùn)練效率;采用最難區(qū)分負(fù)樣本挖掘策略[20]準(zhǔn)確度更高,但是構(gòu)建三元組極大增加了前期數(shù)據(jù)處理的開銷.因此,本文采用了批處理策略[28],訓(xùn)練損失函數(shù)為

        (9)

        圖4 TFeat單支網(wǎng)絡(luò)結(jié)構(gòu)

        2.2 基于方向梯度直方圖的局部描述子

        由于適用于局部目標(biāo)的方向梯度直方圖(HOG)[29]可以很好地描述圖像塊的全局性特征,HOG描述子也可以作為關(guān)鍵點(diǎn)的局部描述子.HOG算法利用圖像局部區(qū)域的方向梯度直方圖來構(gòu)成特征,步驟為:對(duì)圖像進(jìn)行歸一化,利用一階模板算子分別從橫向、縱向計(jì)算梯度,求得檢測(cè)窗口的梯度圖像;在梯度圖像上滑動(dòng)窗口,每個(gè)窗口被分為更小的單元;在每個(gè)單元中計(jì)算梯度幅值和梯度方向并進(jìn)行統(tǒng)計(jì),將所有直方圖向量連接,即可得到圖像塊的局部描述子.本實(shí)驗(yàn)中圖像塊大小為32×32.若將HOG算法中方塊的邊長設(shè)置為16,間隔為8,單元大小為8×8,單元直方圖方向數(shù)量為9,則對(duì)每一個(gè)關(guān)鍵點(diǎn)計(jì)算HOG特征可得到324維描述子.

        因此,本文將卷積神經(jīng)網(wǎng)絡(luò)提取出的128維局部特征與324維HOG局部特征進(jìn)行特征融合,形成452維組合特征描述子,進(jìn)一步計(jì)算匹配關(guān)系和點(diǎn)云剛性變換關(guān)系,完成點(diǎn)云的粗配準(zhǔn).

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)環(huán)境搭建

        實(shí)驗(yàn)平臺(tái)為Windows 7 64位操作系統(tǒng),處理器為Intel Core i5-5200U,內(nèi)存為8 GB,編程環(huán)境為VS2017、OpenCV3.4.2、PCL1.9.0,開發(fā)語言為C++、Python.本實(shí)驗(yàn)采用的兩幅三維點(diǎn)云數(shù)據(jù)的源點(diǎn)云點(diǎn)數(shù)為284 617,目標(biāo)點(diǎn)云點(diǎn)數(shù)為305 681.

        3.2 實(shí)驗(yàn)結(jié)果分析

        本文通過構(gòu)建組合描述子模型對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行配準(zhǔn).于是,將實(shí)驗(yàn)結(jié)果分為兩個(gè)部分.第一部分,驗(yàn)證文中所提出的適用于點(diǎn)云場(chǎng)景的局部圖像塊訓(xùn)練數(shù)據(jù)集的可靠性.第二部分將文中所提出的組合描述子應(yīng)用于點(diǎn)云粗配準(zhǔn),并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行討論.

        根據(jù)激光掃描測(cè)距儀的數(shù)據(jù)采集原理,將完整的三維彩色點(diǎn)云數(shù)據(jù)投影生成圖像.為了生成局部圖像配準(zhǔn)數(shù)據(jù)集,對(duì)于兩張圖像分別提取特征點(diǎn)并計(jì)算圖像的匹配點(diǎn)對(duì),將計(jì)算的圖像匹配點(diǎn)對(duì)分別以特征點(diǎn)為中心提取周圍32×32的圖像塊.故圖像中匹配點(diǎn)對(duì)的準(zhǔn)確性將直接影響到圖像匹配數(shù)據(jù)集的精度.圖5(a)是采用SURF描述子計(jì)算的匹配點(diǎn)對(duì);圖5(b)是采用SURF+GMS描述子計(jì)算的匹配點(diǎn)對(duì).

        (a) SURF生成圖像匹配點(diǎn)對(duì)

        (b) SURF+GMS生成圖像匹配點(diǎn)對(duì)

        由圖可知,應(yīng)用于點(diǎn)云投影圖時(shí)直接采用SURF算法計(jì)算匹配點(diǎn)對(duì),出現(xiàn)大量的誤匹配,嚴(yán)重影響所提取的局部圖像塊訓(xùn)練數(shù)據(jù)集的精度.這可能是由于點(diǎn)云投影圖中大量存在的像素缺失造成的影響.而本文采用的結(jié)合SURF+GMS的算法計(jì)算的匹配點(diǎn)對(duì)則更加準(zhǔn)確,保證了訓(xùn)練數(shù)據(jù)集的可靠性.因此,本文利用SURF+GMS算法建立場(chǎng)景豐富的訓(xùn)練數(shù)據(jù)集,訓(xùn)練特征提取卷積神經(jīng)網(wǎng)絡(luò).

        為了全面對(duì)比本文方法與其他傳統(tǒng)特征提取算法在三維彩色點(diǎn)云配準(zhǔn)中的算法性能,采用多種指標(biāo)對(duì)點(diǎn)云配準(zhǔn)進(jìn)行評(píng)價(jià).本文選擇的評(píng)價(jià)指標(biāo)為算法產(chǎn)生的特征點(diǎn)數(shù)量、匹配點(diǎn)對(duì)數(shù)量、完成粗配準(zhǔn)所用時(shí)間,以及將源點(diǎn)云配準(zhǔn)到目標(biāo)點(diǎn)云坐標(biāo)系后匹配點(diǎn)對(duì)的均方根誤差(RMSE).實(shí)驗(yàn)結(jié)果見表1.

        表1 不同算法結(jié)果比較

        根據(jù)表1可知,特征點(diǎn)數(shù)量會(huì)對(duì)匹配點(diǎn)對(duì)數(shù)量造成影響,進(jìn)一步影響匹配效果.SIFT和Akaze 算法特征點(diǎn)數(shù)量較少,相應(yīng)得到匹配點(diǎn)對(duì)數(shù)量也較少,RMSE較高,表明這兩種算法不適用于彩色點(diǎn)云場(chǎng)景;其余算法均可以通過控制參數(shù)使得提取到的特征點(diǎn)數(shù)量幾乎一致.TFeat+HOG組合特征描述子可以生成更多的匹配點(diǎn)對(duì);時(shí)間消耗略有提升,與SIFT接近;配準(zhǔn)時(shí)RMSE最低,表明本文所提出的組合描述子在粗配準(zhǔn)精度上具有較大優(yōu)勢(shì).

        通過將各算法得到的粗配準(zhǔn)結(jié)果進(jìn)行ICP精配準(zhǔn),可以進(jìn)一步分析各算法粗配準(zhǔn)的效果.本文采用擬合分?jǐn)?shù)作為評(píng)價(jià)指標(biāo),實(shí)際上是計(jì)算配準(zhǔn)后源點(diǎn)云對(duì)應(yīng)目標(biāo)點(diǎn)云中最近點(diǎn)距離的平方和,將其簡記為F.

        (10)

        將擬合分?jǐn)?shù)與ICP迭代次數(shù)繪制折線圖,其中擬合分?jǐn)?shù)記作F,迭代次數(shù)記作T,最終結(jié)果如圖6所示.

        圖6 各算法精配準(zhǔn)結(jié)果比較

        由圖可知,與其他圖像特征提取描述子對(duì)比,基于本文方法的粗配準(zhǔn)結(jié)果在未進(jìn)行精配準(zhǔn)時(shí),擬合分?jǐn)?shù)最低;迭代次數(shù)一定時(shí),組合描述子的擬合分?jǐn)?shù)最低,進(jìn)一步證明了本研究精配準(zhǔn)精度最高,并且能夠快速收斂,減少精配準(zhǔn)的時(shí)間消耗.另外,傳統(tǒng)圖像算法SURF隨迭代次數(shù)增加,擬合分?jǐn)?shù)幾乎不變,說明陷入了局部最優(yōu)解.但SURF+TFeat+HOG能夠快速收斂至全局最優(yōu)解,配準(zhǔn)結(jié)果更好.實(shí)驗(yàn)表明了本文方法用于彩色點(diǎn)云粗配準(zhǔn),不僅能得到更加精確的初始位姿,在后續(xù)精配準(zhǔn)時(shí)減少時(shí)間損耗,而且避免陷入局部最優(yōu)解,進(jìn)一步證明了本文提出方法的可行性.本文提出的方法充分利用了三維彩色點(diǎn)云中的圖像信息,相比于傳統(tǒng)圖像算法,得到了更好的配準(zhǔn)效果,更加明確了圖像信息在三維彩色點(diǎn)云數(shù)據(jù)中的重要作用.

        4 結(jié) 語

        本文針對(duì)在各種應(yīng)用場(chǎng)景提取局部圖像匹配塊數(shù)據(jù)集的需要,提出一種基于網(wǎng)格運(yùn)動(dòng)統(tǒng)計(jì)法的圖像匹配數(shù)據(jù)集提取算法,并利用該算法生成訓(xùn)練數(shù)據(jù)集.另外,由于以往點(diǎn)云配準(zhǔn)算法未利用三維彩色點(diǎn)云數(shù)據(jù)中的圖像信息,本文設(shè)計(jì)了一種融合深度圖像描述子和方向梯度直方圖局部描述子的局部特征組合描述子.將該方法應(yīng)用于點(diǎn)云粗配準(zhǔn),能有效利用兩種描述子的特性,提高點(diǎn)云投影圖中匹配點(diǎn)對(duì)的準(zhǔn)確性,進(jìn)一步改善點(diǎn)云粗配準(zhǔn)效果.但是該方法存在的局限是,配準(zhǔn)時(shí)尋找點(diǎn)云與圖像像素的對(duì)應(yīng)關(guān)系上消耗的時(shí)間相對(duì)較長.如果能快速獲取對(duì)應(yīng)關(guān)系,則能明顯提高實(shí)際應(yīng)用效率.文中還綜合比較了在點(diǎn)云投影圖中應(yīng)用各種傳統(tǒng)圖像配準(zhǔn)算法的實(shí)際效果,為研究者們進(jìn)一步研究利用點(diǎn)云與圖像之間的映射關(guān)系解決點(diǎn)云領(lǐng)域的相關(guān)問題提供解決思路.

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對(duì)比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠的四個(gè)特征
        詈語的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        久久人人爽爽爽人久久久| 99热免费观看| 国产成人一区二区三区免费观看| 少妇的诱惑免费在线观看| 久久综合加勒比东京热| 亚洲女厕偷拍一区二区| 人人做人人爽人人爱| 无码av天堂一区二区三区| 亚洲成a人片在线观看天堂无码| 亚洲成在人网av天堂| 水蜜桃在线观看一区二区国产| 国产黑丝美腿在线观看| 亚洲成人色区| 粉嫩少妇内射浓精videos| 成人综合久久精品色婷婷| 亚洲午夜经典一区二区日韩 | 国产在线一区二区三精品乱码| 色偷偷偷久久伊人大杳蕉| 国产成人综合久久精品推| 国产一级黄色av影片| 亚洲av乱码二区三区涩涩屋| 亚洲一区二区三区尿失禁| 欧美疯狂做受xxxx高潮小说| 欧美日韩国产另类在线观看| 亚洲一区二区三区综合网| 女女同恋一区二区在线观看| 久久久久国产一区二区| 国产91色在线|亚洲| av网站影片在线观看| 人妻少妇精品专区性色anvn| 欧美私人情侣网站| 国产精品23p| 日本激情视频一区在线观看 | 狠狠色噜噜狠狠狠狠97首创麻豆| 97成人碰碰久久人人超级碰oo| 国产清品夜色一区二区三区不卡| 风流少妇一区二区三区| 精品国产乱子伦一区二区三| 中文字幕无码成人片| 丰满少妇被猛男猛烈进入久久| 亚洲www视频|