陸 可, 鄭伯楨, 盧春盛, 王中元
(1.中國(guó)礦業(yè)大學(xué) 江蘇省資源環(huán)境信息工程重點(diǎn)實(shí)驗(yàn)室,江蘇 徐州 221116; 2.中國(guó)礦業(yè)大學(xué) 環(huán)境與測(cè)繪學(xué)院,江蘇 徐州 221116;3.韶關(guān)市國(guó)土資源技術(shù)中心,廣東 韶關(guān) 512026)
近年來(lái),無(wú)人機(jī)飛行平臺(tái)憑借其機(jī)動(dòng)靈活、成本低廉、操作便捷等優(yōu)勢(shì),在變化檢測(cè)、大比例尺地形圖測(cè)繪、環(huán)境監(jiān)測(cè)等諸多領(lǐng)域得到廣泛應(yīng)用[1]。影像的配準(zhǔn)是上述各類應(yīng)用的基礎(chǔ)與前提,配準(zhǔn)的精度將直接影響各類應(yīng)用的結(jié)果。然而無(wú)人機(jī)航拍時(shí)容易受到旋轉(zhuǎn)、光照、飛行姿態(tài)、相機(jī)畸變等因素影響,且無(wú)人機(jī)影像空間分辨率高,利用基于特征的方法進(jìn)行配準(zhǔn)時(shí),特征點(diǎn)對(duì)提取數(shù)量龐大,給影像配準(zhǔn)帶來(lái)了困難。因此,研究如何提高無(wú)人機(jī)影像配準(zhǔn)的精度與效率具有重要意義。
圖像配準(zhǔn)方法按處理思路可以分為基于灰度的配準(zhǔn)方法和基于特征的配準(zhǔn)方法2類?;诨叶鹊呐錅?zhǔn)方法可以視作模版匹配的過(guò)程,計(jì)算簡(jiǎn)便、容易實(shí)現(xiàn),但是對(duì)不同影像上的灰度差異非常敏感,在實(shí)際應(yīng)用中往往難以取得滿意的配準(zhǔn)結(jié)果;而基于特征的配準(zhǔn)算法對(duì)光照和幾何變化具有較強(qiáng)的魯棒性,且配準(zhǔn)效率較高,是圖像配準(zhǔn)領(lǐng)域的研究熱點(diǎn)。
基于特征的配準(zhǔn)可以分為基于線特征、面特征及點(diǎn)特征的方法,無(wú)人機(jī)影像配準(zhǔn)中最常用的配準(zhǔn)算法大都基于點(diǎn)特征?;邳c(diǎn)特征的配準(zhǔn)方法中最具代表性的是文獻(xiàn)[2]提出的尺度不變特征變換 (scale invariant feature transform,SIFT) 算法,該方法對(duì)旋轉(zhuǎn)、仿射變化、尺度縮放、光照變化具有一定程度的穩(wěn)定性。為了提高SIFT的性能,研究者們提出了一系列基于SIFT的改進(jìn)算法,如加速穩(wěn)健性特征 (speeded-up robust features,SURF) 算法[3]、主成分分析尺度不變特征變換 (principal component analysis SIFT,PCA-SIFT) 算法[4]、基于仿射變換的尺度不變特征變換 (affine-SIFT,ASIFT) 算法[5]等,這類算法都是通過(guò)高斯模糊構(gòu)造尺度空間,容易使得對(duì)象的邊界信息被過(guò)度平滑,導(dǎo)致細(xì)節(jié)特征丟失。文獻(xiàn)[6]通過(guò)非線性濾波構(gòu)建尺度空間,提出了KAZE算法,克服了SIFT算法的這一缺點(diǎn);文獻(xiàn)[7]提出加速KAZE(accelerated KAZE,AKAZE)算法,用快速顯示擴(kuò)散(fast explicit diffusion,FED)求解偏微分方程,提高了運(yùn)算效率,同時(shí)構(gòu)造了改進(jìn)的局部差異二進(jìn)制 (modified local difference binary,MLDB) 特征描述符,增加了對(duì)旋轉(zhuǎn)與尺度變化的魯棒性。此外,有研究者通過(guò)多特征聯(lián)合提取來(lái)滿足特定配準(zhǔn)場(chǎng)景。文獻(xiàn)[8]利用SURF算法提取特征點(diǎn),然后用二進(jìn)制穩(wěn)健基元獨(dú)立特征 (binary robust independent elementary features,BRIEF) 算法進(jìn)行特征描述,滿足了無(wú)人機(jī)影像實(shí)時(shí)拼接的要求;文獻(xiàn)[9]融合AKAZE算法與穩(wěn)定的RootSIFT描述符進(jìn)行圖像配準(zhǔn),并融合了最近鄰 (k-nearest neighbors,KNN) 算法、雙向匹配及余弦相似度約束進(jìn)行特征匹配,該算法更好地適應(yīng)了無(wú)人機(jī)影像的匹配,但是增加了算法復(fù)雜度,難以滿足實(shí)時(shí)性要求;文獻(xiàn)[10]在SIFT基礎(chǔ)上加入歸一化互信息進(jìn)行精配準(zhǔn),克服了影像尺度與光譜差異的問(wèn)題。
雖然上述算法在提高匹配精度方面取得了一定的效果,但是在匹配效率上仍存在不足。另外,文獻(xiàn)[10]發(fā)現(xiàn)樹(shù)冠區(qū)域內(nèi)特征點(diǎn)的誤差對(duì)配準(zhǔn)會(huì)產(chǎn)生較大影響。為解決上述問(wèn)題,本文提出一種基于數(shù)學(xué)形態(tài)學(xué)改進(jìn)的無(wú)人機(jī)影像配準(zhǔn)算法。首先根據(jù)可見(jiàn)光波段差異植被指數(shù)(visible-band difference vegetation index,VDVI)以及數(shù)學(xué)形態(tài)學(xué)原理,對(duì)樹(shù)冠區(qū)域內(nèi)特征點(diǎn)進(jìn)行剔除;然后將雙向匹配算法與KNN算法相結(jié)合,對(duì)特征點(diǎn)進(jìn)行粗匹配;最后利用漸進(jìn)一致采樣(progressive sample consensus,PROSAC)算法[11]進(jìn)行精匹配,進(jìn)一步提高配準(zhǔn)精度。
基于點(diǎn)特征的影像配準(zhǔn)是最常用的配準(zhǔn)方法,通過(guò)提取影像中魯棒性強(qiáng)的特征點(diǎn),建立參考圖與待配準(zhǔn)圖之間的映射關(guān)系,然后計(jì)算幾何變換模型,完成影像的配準(zhǔn)。其主要步驟可以概括為特征點(diǎn)提取、特征描述及特征匹配3步。
特征點(diǎn)是圖像灰度在x、y軸方向都有明顯變化的像素點(diǎn)[12]。近年來(lái),利用尺度空間性質(zhì)檢測(cè)特征點(diǎn)是一種主流的特征點(diǎn)提取方法。尺度空間是圖像領(lǐng)域模擬人眼在不同距離辨別物體的方法,尺度大則觀察范圍大,物體模糊;尺度小則觀察范圍小,可以看到細(xì)節(jié)特征。因?yàn)橛?jì)算機(jī)在分析場(chǎng)景時(shí),預(yù)先并不知道圖像中物體的尺度,所以需要將對(duì)象進(jìn)行多尺度分解。高斯核函數(shù)是唯一的尺度不變核函數(shù), SIFT算法在金字塔框架下構(gòu)造高斯尺度空間[13],SURF算法采用盒子濾波近似高斯導(dǎo)數(shù);但高斯模糊會(huì)導(dǎo)致邊界信息丟失,并且同一尺度下的幾組照片會(huì)平滑掉相同的細(xì)節(jié)和噪聲,影響特征點(diǎn)的定位精度。AKAZE算法采用FED來(lái)構(gòu)建一個(gè)各向異性擴(kuò)散的非線性尺度空間,這樣既保留了物體的邊界信息,又提高了構(gòu)建速度。尺度空間構(gòu)建效果如圖1所示。
在不同尺度的尺度空間效果圖中,圖像上的某個(gè)結(jié)構(gòu)會(huì)在某個(gè)尺度上達(dá)到最大響應(yīng)。通過(guò)Hessian矩陣[14]求取響應(yīng)值是最常用的方法,其中最大響應(yīng)值的點(diǎn)就是極值點(diǎn),而極值點(diǎn)就是潛在的特征點(diǎn)。因此,通過(guò)計(jì)算濾波后圖像的局部響應(yīng)值并求極值,可以獲得特征點(diǎn)的值,求取方式如圖2所示。
圖1 尺度空間效果圖 圖2 極值點(diǎn)選取
若該點(diǎn)在相鄰的3個(gè)尺度中3×3×3鄰域內(nèi)是最大或最小值,則認(rèn)為該點(diǎn)是極值點(diǎn)。通過(guò)確定極值點(diǎn)的亞像素精度,就可以估計(jì)特征點(diǎn)位置。響應(yīng)值計(jì)算公式為:
(1)
其中:i為尺度等級(jí);Li為圖像;σi,norm為步長(zhǎng)。
極值點(diǎn)亞像素精度計(jì)算公式為:
(2)
在檢測(cè)到圖像上的特征點(diǎn)后,為了將這些特征點(diǎn)區(qū)分開(kāi),通常使用特征點(diǎn)鄰域像素信息來(lái)對(duì)該點(diǎn)進(jìn)行描述。描述符可以分為傳統(tǒng)描述符與二進(jìn)制描述符。傳統(tǒng)描述符的代表是SIFT,是一種浮點(diǎn)型描述符,浮點(diǎn)型描述符魯棒性強(qiáng),但運(yùn)算速度慢且占用過(guò)多內(nèi)存;而二進(jìn)制描述符在盡量不丟失必要信息的前提下,減少了內(nèi)存占用率,并大大提高了后續(xù)特征匹配的速度。
其中,MLDB描述符是一種改進(jìn)的局部差分二進(jìn)制(local difference binary,LDB)描述符。LDB通過(guò)在特征點(diǎn)附近劃分多種不同大小的窗口,分別求取網(wǎng)格灰度均值信息以及水平、垂直方向上的梯度信息,將灰度信息和梯度信息值小的區(qū)域賦值為0,大的區(qū)域賦值為1,形成的子集連接成LDB的描述符。MLDB在LDB基礎(chǔ)上將LDB窗口旋轉(zhuǎn)到特征點(diǎn)的主方向,使描述符具有旋轉(zhuǎn)不變性,并對(duì)網(wǎng)格像素進(jìn)行降采樣,用采樣后的平均值代替細(xì)分網(wǎng)格的均值,這樣對(duì)尺度變化也有很好的魯棒性。
為了將參考圖與待配準(zhǔn)圖像的特征點(diǎn)進(jìn)行對(duì)應(yīng),需要在特征描述符基礎(chǔ)上通過(guò)一定的距離準(zhǔn)則尋找相似度最高的特征點(diǎn)對(duì)。特征匹配分為粗匹配與精匹配2個(gè)步驟。
1.3.1 特征粗匹配
KNN的原理為:在一個(gè)特征空間中,如果樣本中的k個(gè)最相鄰的樣本大多屬于同一類別,那么該樣本也屬于該類別,通常將對(duì)象間的歐氏距離作為相似性度量。選取參考影像中的特征點(diǎn)A,在待配準(zhǔn)影像中根據(jù)歐氏距離確定最鄰近點(diǎn)B1和次鄰近點(diǎn)B2,設(shè)A與B1之間距離為d1,A與B2的距離為d2,閾值為T(mén)。若d1/d2>T,則認(rèn)為特征點(diǎn)A周?chē)写罅肯嗨泣c(diǎn),不具有代表性,將其剔除;若d1/d2 傳統(tǒng)的特征點(diǎn)粗匹配都是單向匹配,但是歐氏距離在各維向量中分布不一,容易影響匹配精度。因此,本文在完成單向匹配基礎(chǔ)上,以待配準(zhǔn)影像為基準(zhǔn),再求取B1在參考影像中對(duì)應(yīng)的最鄰近特征點(diǎn)A1,當(dāng)A1=A時(shí),保留該點(diǎn)對(duì)。雙向匹配有效提高了特征點(diǎn)粗匹配精度。 1.3.2 特征精匹配 樹(shù)冠區(qū)域SIFT特征點(diǎn)提取如圖3所示。 圖3 樹(shù)冠區(qū)域SIFT特征點(diǎn)提取 在完成特征點(diǎn)粗匹配之后采用PROSAC算法對(duì)特征點(diǎn)進(jìn)行特征點(diǎn)提純,PROSAC是針對(duì)隨機(jī)抽樣一致性 (RANdom SAmple Consensus,RANSAC) 算法的改進(jìn)。RANSAC算法從整個(gè)數(shù)據(jù)集中隨機(jī)采樣進(jìn)行計(jì)算,得到模型參數(shù),而PROSAC先將特征點(diǎn)對(duì)按照相似度進(jìn)行降序排序,取相似度較強(qiáng)的點(diǎn)對(duì)進(jìn)行迭代計(jì)算,得到模型參數(shù),因此該算法提高了正確樣本的抽取幾率,同時(shí)也節(jié)省了運(yùn)算時(shí)間。 在利用已有配準(zhǔn)算法進(jìn)行無(wú)人機(jī)影像配準(zhǔn)時(shí)發(fā)現(xiàn),無(wú)人機(jī)影像具有豐富的結(jié)構(gòu)和紋理信息,提取的特征點(diǎn)數(shù)量非常龐大,并且位于樹(shù)冠區(qū)域的特征點(diǎn)十分密集。對(duì)圖3中2幅影像提取SIFT特征點(diǎn),左右兩幅影像分別提取12 452、12 571個(gè)特征點(diǎn)。但是經(jīng)過(guò)RANSAC精匹配后只有22個(gè)點(diǎn)對(duì)匹配成功,且大多位于輪廓上。 樹(shù)冠區(qū)域特征點(diǎn)匹配結(jié)果如圖4所示,其中特征點(diǎn)的連線交錯(cuò)相連,可以直觀地看出正確匹配點(diǎn)對(duì)很少。因此,如果能夠預(yù)先剔除樹(shù)冠區(qū)域內(nèi)的特征點(diǎn)再進(jìn)行特征描述與匹配,那么將大大提高匹配的速度與精度。 圖4 樹(shù)冠區(qū)域特征點(diǎn)匹配結(jié)果 本文改進(jìn)算法流程如圖5所示。 圖5 本文改進(jìn)算法流程 衛(wèi)星影像由于成像高度很高,可以近似看作正射影像;而無(wú)人機(jī)影像成像高度較低,當(dāng)?shù)匦纹鸱^大時(shí),特征點(diǎn)高差會(huì)呈現(xiàn)顯著的變化,導(dǎo)致影像的配準(zhǔn)結(jié)果不理想。樹(shù)冠區(qū)域特征點(diǎn)與地面點(diǎn)高差大,且紋理信息豐富導(dǎo)致特征點(diǎn)密集,容易受外界因素影響,大都是無(wú)效的特征點(diǎn)。如果能提取出樹(shù)冠范圍,然后剔除該區(qū)域內(nèi)特征點(diǎn),那么將大幅提高配準(zhǔn)的精度與速率。采用植被指數(shù)方法可以將樹(shù)冠區(qū)域大致分離出來(lái),但在無(wú)人機(jī)影像上樹(shù)冠區(qū)域是按像素分布,區(qū)域破碎且不連貫。為了能提取出完整、準(zhǔn)確的樹(shù)冠區(qū)域,本文采用數(shù)學(xué)形態(tài)學(xué)(簡(jiǎn)稱“形態(tài)學(xué)”)的先驗(yàn)知識(shí)來(lái)改進(jìn)特征點(diǎn)剔除算法。在形態(tài)學(xué)中,圖像被視為一個(gè)集合,結(jié)構(gòu)元素是基礎(chǔ)研究對(duì)象,通過(guò)交集和并集運(yùn)算達(dá)到圖像分割的目的。其中,腐蝕與膨脹操作是形態(tài)學(xué)運(yùn)算的基礎(chǔ),將腐蝕與膨脹操作結(jié)合可以實(shí)現(xiàn)不同形式的運(yùn)算。 在形態(tài)學(xué)中,通常使用結(jié)構(gòu)元素逐像素掃描目標(biāo)圖像,并根據(jù)結(jié)構(gòu)元素與圖像關(guān)系確定對(duì)應(yīng)結(jié)構(gòu)元素中心位置的像素值,結(jié)構(gòu)元素通常是較小的矩陣。腐蝕操作中,當(dāng)結(jié)構(gòu)元素全都在目標(biāo)區(qū)域中,結(jié)構(gòu)元素的原點(diǎn)對(duì)應(yīng)像素點(diǎn)屬于該區(qū)域;反之認(rèn)為結(jié)構(gòu)元素的原點(diǎn)對(duì)應(yīng)像素點(diǎn)不屬于該區(qū)域。與此類似,膨脹的基本思想是:當(dāng)結(jié)構(gòu)元素中任一點(diǎn)處于目標(biāo)區(qū)域,認(rèn)為結(jié)構(gòu)元素原點(diǎn)對(duì)應(yīng)的像素點(diǎn)屬于該區(qū)域;反之認(rèn)為不屬于該區(qū)域。腐蝕和膨脹算法的運(yùn)算公式分別為: C1=A1ΘB1={(x,y)|(B1)(x,y)?A1} (3) C2=A2?B2={(x,y)|(B2)(x,y)∩A2≠?} (4) 其中:C1、C2分別為腐蝕、膨脹后的結(jié)果;A1、A2為目標(biāo)對(duì)象;B1、B2為結(jié)構(gòu)元;(x,y)為結(jié)構(gòu)元的原點(diǎn)。腐蝕與膨脹效果如圖6所示。圖6中,紅色是腐蝕掉的像素,藍(lán)色是膨脹后的像素。腐蝕操作可以將圖像的邊界點(diǎn)消除,使圖像沿著邊界向內(nèi)收縮,借此可以進(jìn)行噪聲去除、元素分割等;膨脹操作則會(huì)將圖像邊界向外擴(kuò)張,連通2個(gè)對(duì)象。 圖6 腐蝕與膨脹效果圖 腐蝕和膨脹是形態(tài)學(xué)的基礎(chǔ),將兩者組合就可以實(shí)現(xiàn)形態(tài)學(xué)開(kāi)、閉運(yùn)算等不同形式的操作。開(kāi)運(yùn)算是先對(duì)圖像腐蝕后膨脹,在不改變物體輪廓的情況下,平滑物體邊緣,消除小噪聲點(diǎn)。閉運(yùn)算是先對(duì)圖像進(jìn)行膨脹再腐蝕,可以消除區(qū)域內(nèi)的“空洞”,或者是去除物體上的小黑點(diǎn)。 受此啟發(fā),在特征點(diǎn)提取后,以VDVI為基礎(chǔ),通過(guò)形態(tài)學(xué)開(kāi)、閉運(yùn)算可以從無(wú)人機(jī)影像中獲取完整、簡(jiǎn)明的樹(shù)冠范圍,然后將該區(qū)域內(nèi)特征點(diǎn)剔除。算法具體步驟如下: (1) 將無(wú)人機(jī)影像R、G、B 3個(gè)通道信息進(jìn)行拆分。 (2) 計(jì)算圖像的植被指數(shù)IVDV。因?yàn)闊o(wú)人機(jī)影像沒(méi)有近紅外波段,所以通過(guò)VDVI[15]進(jìn)行計(jì)算,計(jì)算公式為: (5) 其中:IVDV取值范圍為[-1,1];ρred、ρgreen、ρblue分別為紅、綠、藍(lán)3個(gè)波段的反射率或像元值。 (3) 利用大津閾值法進(jìn)行分割,將無(wú)人機(jī)影像分為樹(shù)冠區(qū)域(前景)與非樹(shù)冠區(qū)域(背景)。 (4) 確定合適的結(jié)構(gòu)元素,將小于結(jié)構(gòu)元的對(duì)象視為噪聲點(diǎn)并移除。 (5) 利用形態(tài)學(xué)算法去除植被區(qū)域邊緣的“毛刺”,填補(bǔ)區(qū)域中的“空洞”。 (6) 獲取完整的樹(shù)冠范圍,剔除樹(shù)冠內(nèi)的特征點(diǎn)。 特征點(diǎn)剔除的具體流程如圖7所示。 圖7 特征點(diǎn)剔除流程 圖7a、圖7e所示分別為特征點(diǎn)剔除前、后的結(jié)果。從圖7e可以看出,樹(shù)冠區(qū)域內(nèi)的特征點(diǎn)已全部被剔除掉。 在無(wú)效特征點(diǎn)剔除后,對(duì)剩余特征點(diǎn)進(jìn)行描述與特征匹配。其中,特征粗匹配本文采用雙向匹配方法,特征精匹配用PROSAC算法。最后,通過(guò)計(jì)算兩幅影像單應(yīng)矩陣將影像配準(zhǔn)到同一區(qū)域,單應(yīng)矩陣H計(jì)算公式為: (6) 其中:(x1,y1)為參考影像上特征點(diǎn)坐標(biāo);(x,y)為待配準(zhǔn)影像上特征點(diǎn)坐標(biāo);hmn為單應(yīng)矩陣的自由度參數(shù)。 為驗(yàn)證提出算法的有效性,選取4組無(wú)人機(jī)影像進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)數(shù)據(jù)如圖8所示。 圖8 實(shí)驗(yàn)影像對(duì) 本文研究的無(wú)人機(jī)影像配準(zhǔn)主要針對(duì)城市區(qū)域,圖8所示為4組典型的城市場(chǎng)景影像對(duì),其中左圖為參考圖,右圖為待配準(zhǔn)圖,分辨率均為6 000×4 000像素。為便于后續(xù)變化檢測(cè)研究,選取的影像是重疊度較高的同一區(qū)域2期影像,間隔時(shí)間2周。本文所有算法均在Python3.7環(huán)境下編譯完成,部分開(kāi)源代碼調(diào)用OpenCV庫(kù)實(shí)現(xiàn)并在此基礎(chǔ)上進(jìn)行改進(jìn)。實(shí)驗(yàn)設(shè)備為64位Win10系統(tǒng)的筆記本電腦,其CPU為i5-8265U,內(nèi)存為8 GiB。 圖8a的影像代表典型的城市住宅區(qū),建筑物密集,左側(cè)為低層,右側(cè)為高層建筑,小區(qū)中道路兩側(cè)有綠化植被;圖8b的影像是城市高架公路,道路兩側(cè)以及環(huán)形匝道中有成片高大喬木,樹(shù)冠面積較大;圖8c的影像中有多種場(chǎng)景元素,包括建筑物、主干道路、河湖、小型公園,這可以驗(yàn)證算法在復(fù)雜場(chǎng)景下的表現(xiàn);圖8d的影像是在建區(qū)域,幾乎沒(méi)有樹(shù)冠區(qū)域,通過(guò)此區(qū)域可以驗(yàn)證本文算法在沒(méi)有植被覆蓋區(qū)域的表現(xiàn)。 為驗(yàn)證改進(jìn)算法效果,首先對(duì)配準(zhǔn)前、后影像進(jìn)行定性分析。以SIFT算法為例,結(jié)合本文提出的形態(tài)學(xué)算法進(jìn)行兩期影像配準(zhǔn),其中特征點(diǎn)匹配情況如圖9所示,配準(zhǔn)結(jié)果如圖10所示。 圖9 特征點(diǎn)匹配情況 從圖9可以看出:住宅區(qū)由于建筑物比較密集,且2周內(nèi)幾乎沒(méi)有變化,特征點(diǎn)分布多,在剔除樹(shù)冠區(qū)域內(nèi)特征點(diǎn)后,特征點(diǎn)匹配效果很好;主干道路區(qū)域較空曠,特征點(diǎn)分布較少且位于樹(shù)冠區(qū)域內(nèi)的已被剔除,但是道路上有同款汽車(chē)導(dǎo)致特征點(diǎn)存在誤匹配情況;混合區(qū)特征點(diǎn)數(shù)量與分布適中,特征點(diǎn)匹配效果好;在建區(qū)域特征點(diǎn)數(shù)量與分布適中,但變化較明顯,會(huì)存在部分特征點(diǎn)誤匹配情況。 圖10 影像配準(zhǔn)結(jié)果 圖10中,為了更直觀地查看配準(zhǔn)效果,在ArcGIS中利用卷簾工具進(jìn)行對(duì)比,其中配準(zhǔn)后的影像置于圖層頂層,參考影像置于底層并用灰度圖像展示。通過(guò)對(duì)建筑物、道路、河流等的邊界位置進(jìn)行比對(duì)可以得出結(jié)論,配準(zhǔn)后的影像與原影像基本重合,配準(zhǔn)效果較好。 為了對(duì)本文提出的算法性能進(jìn)行定量分析,評(píng)價(jià)其性能提升的幅度,分別對(duì)4個(gè)區(qū)域數(shù)據(jù)集中的影像對(duì)采用SIFT、SURF、BRISK[16]、AKAZE 4種算法進(jìn)行配準(zhǔn)。實(shí)驗(yàn)分為2組,其中一組采用原算法匹配,作為對(duì)照組,另一組采用本文提出的形態(tài)學(xué)算法進(jìn)行改進(jìn)。具體的評(píng)價(jià)指標(biāo)為特征點(diǎn)的正確匹配率(correct matching ratio,CMR)RCM、均方根誤差(root mean square errors,RMSE)ERMS及運(yùn)算時(shí)間t。RCM、ERMS計(jì)算公式分別為: RCM=n/N (7) (8) 其中:n為正確匹配點(diǎn)對(duì)數(shù)量;N為所有匹配點(diǎn)對(duì)數(shù)量;ERMS取值范圍為(0,1),值越小精度越高;(xi,yi)為參考圖像中特征點(diǎn)的坐標(biāo);P(xi′,yi′)為待配準(zhǔn)影像中特征點(diǎn)轉(zhuǎn)換后的坐標(biāo)。 4種算法改進(jìn)前、后對(duì)4個(gè)區(qū)域數(shù)據(jù)集進(jìn)行配準(zhǔn),評(píng)價(jià)結(jié)果見(jiàn)表1所列。由表1可知,從CMR看,改進(jìn)后算法在4個(gè)區(qū)域數(shù)據(jù)集中均有不同程度的提升,SIFT算法特征點(diǎn)正確匹配率提高了約6.47%,SURF算法提高了約7.09%,BRISK算法提高了約4.56%,AKAZE算法提高了約0.69%。其中,AKAZE算法在提取特征點(diǎn)時(shí),采用FED來(lái)構(gòu)建一個(gè)各向異性擴(kuò)散的非線性尺度空間,提取的特征點(diǎn)魯棒性較強(qiáng)且數(shù)量適中,通過(guò)觀察AKAZE特征點(diǎn)分布情況,樹(shù)冠區(qū)域分布較少,其算法本身性能很高,因此本文提出的改進(jìn)算法效果不明顯。但是對(duì)于SIFT、SURF這種特征點(diǎn)分布密集且魯棒性不是很高的特征匹配算法而言,采用本文提出的改進(jìn)算法后,其特征點(diǎn)匹配正確率有較大提升。 表1 4種算法改進(jìn)前、后3個(gè)評(píng)價(jià)指標(biāo)結(jié)果對(duì)比 為驗(yàn)證改進(jìn)算法對(duì)配準(zhǔn)精度的提升,在參考影像上選取10個(gè)均勻分布的特征點(diǎn),然后記錄其在配準(zhǔn)前、后兩幅圖像上的坐標(biāo)信息,利用(8)式計(jì)算出RMSE。由表1可知:從RMSE 看,4種算法的配準(zhǔn)精度也有一定幅度的提升,SIFT、SURF、BRISK算法配準(zhǔn)精度分別提升了約0.17、0.20、0.14像素;其中對(duì)住宅區(qū)和混合區(qū)的影像配準(zhǔn)結(jié)果基本控制在1.0像素內(nèi),道路區(qū)域以及在建工地區(qū)域的影像配準(zhǔn)精度在1.5像素內(nèi),可以滿足后續(xù)變化檢測(cè)等處理的要求。 在運(yùn)行速度方面,由于無(wú)人機(jī)影像分辨率較高,運(yùn)算時(shí)間較長(zhǎng),為了方便計(jì)算,本文在算法運(yùn)行前先對(duì)無(wú)人機(jī)影像進(jìn)行降采樣。對(duì)改進(jìn)前、后算法對(duì)比后發(fā)現(xiàn),對(duì)住宅區(qū)和混合區(qū)配準(zhǔn)的4種算法改進(jìn)后速度得到一定的提升,這是因?yàn)檫@2片區(qū)域的樹(shù)冠面積較大,剔除這些樹(shù)冠區(qū)域內(nèi)的特征點(diǎn)再進(jìn)行特征描述和匹配,可以大幅減少運(yùn)算時(shí)間。而在道路附近和在建區(qū)中,特征點(diǎn)分布較少,在建區(qū)甚至沒(méi)有樹(shù)冠區(qū)域,而本文算法在特征粗匹配中采用雙向匹配,使運(yùn)算時(shí)間稍有增加,在后續(xù)的研究中,應(yīng)該繼續(xù)改進(jìn)。 總體而言,本文提出的基于形態(tài)學(xué)改進(jìn)算法對(duì)影像配準(zhǔn)的精度有了一定的提升,其中對(duì)SIFT、SURF這類提取特征點(diǎn)較密集的傳統(tǒng)配準(zhǔn)算法提升效果明顯;當(dāng)影像上樹(shù)冠區(qū)域密集時(shí)提升了算法的運(yùn)算速度,對(duì)于沒(méi)有樹(shù)冠區(qū)域分布的影像,時(shí)間復(fù)雜度略有增加。 基于特征的影像配準(zhǔn)算法中,特征描述子的提取與匹配是影像配準(zhǔn)中的關(guān)鍵,決定了配準(zhǔn)的精度與效率。本文從樹(shù)冠區(qū)域內(nèi)特征點(diǎn)匹配結(jié)果中發(fā)現(xiàn),該區(qū)域內(nèi)的特征點(diǎn)對(duì)大多是錯(cuò)誤匹配,因此在特征點(diǎn)提取時(shí)通過(guò)形態(tài)學(xué)處理提取樹(shù)冠區(qū)域,然后剔除該區(qū)域內(nèi)的特征點(diǎn)再進(jìn)行特征描述和匹配,提高了算法的特征匹配精度,也有效提高了配準(zhǔn)結(jié)果的精度。該算法對(duì)SIFT、SURF這類特征點(diǎn)魯棒性較差的算法,改進(jìn)效果很好;而對(duì)于AKAZE這類特征點(diǎn)數(shù)量適中且魯棒性強(qiáng)的算法,改進(jìn)效果不是很明顯。在特征匹配方面,本文結(jié)合相關(guān)研究,通過(guò)雙向匹配算法提高了粗匹配精度,但是增加了運(yùn)算時(shí)間,可以根據(jù)任務(wù)情況進(jìn)行選用;通過(guò)PROSAC算法提高了精匹配的效率。與已有的算法相比,本文提出的改進(jìn)算法在特征點(diǎn)匹配精度與配準(zhǔn)精度上有了一定的提升,運(yùn)算速度也基本滿足要求。2 改進(jìn)的點(diǎn)特征配準(zhǔn)算法
2.1 數(shù)學(xué)形態(tài)學(xué)原理
2.2 基于數(shù)學(xué)形態(tài)學(xué)改進(jìn)的特征點(diǎn)剔除算法
3 實(shí)驗(yàn)結(jié)果與分析
3.1 實(shí)驗(yàn)數(shù)據(jù)與設(shè)備配置
3.2 定性分析
3.3 定量分析
4 結(jié) 論