胡翔云,鞏曉雅,張 覓
武漢大學遙感信息工程學院,湖北 武漢 430079
目標提取是數(shù)字攝影測量中矢量地圖測繪的基本問題之一,人工地物(道路、建筑物、橋梁、機場等)是興趣目標的重要組成部分,在遙感影像中對其進行提取有著廣泛的應(yīng)用,如城市地圖制作與更新[1]、災(zāi)害預警與評估[2]、變化檢測[3]及軍事目標檢測[4-5]等。隨著光學遙感影像空間分辨率不斷提高,影像細節(jié)更為豐富,場景與目標也更為復雜多樣,人工地物的提取與檢測有了更多可用信息,也面臨著更多的問題與挑戰(zhàn)。
傳統(tǒng)的人工選取特征的檢測算法主要分為兩類:①基于特征描述的影像分割算法;②基于模型構(gòu)建的目標檢測算法?;谔卣髅枋龅挠跋穹指钏惴▽⑦b感影像分為前景(人工地物)和背景兩部分,通過恰當?shù)奶卣髅枋龊头指钏惴ǎ瑢⑷斯さ匚飶谋尘爸蟹指畛鰜?。文獻[6]采用一個基于分形誤差和紋理邊緣約束的簡化Mumford-Shah模型對航空影像進行分割得到人工地物區(qū)域。文獻[7]通過提取分形特征及閾值分割的方法對紅外影像中的人工地物進行檢測,并對多種分形特征進行試驗,最終得出多尺度分形特征(multi-scale fractal feature related with K,MFFK)精度較高的結(jié)論。文獻[8]針對傳統(tǒng)水平集演化方法調(diào)參復雜、計算量大的問題,提出將傳統(tǒng)的平均曲率正則項替換成高斯核的改進水平集演化方法,并在高分辨率遙感影像中對人工地物進行提取,在保證精度的同時提高了運算速度?;谔卣鞯姆指钏惴茌^完整地提取遙感影像中的人工地物,但由于影像細節(jié)豐富,不可避免地會出現(xiàn)邊緣破碎的現(xiàn)象,使用超像素替代像素作為影像分割的基本單位可以有效改善此現(xiàn)象。文獻[9]就對此進行了嘗試,首先通過多尺度NSCT(nonsubsampled contourlet)變換獲取影像的特征,然后采用一種改進的分水嶺算法對影像進行過分割,最后以分割的超像素為單位采用分形布朗運動(fractional Brownian motion,fBm)模型對影像進行分割得到人工地物區(qū)域。而基于模型構(gòu)建的目標檢測算法則是對人工地物進行建模,然后進行全圖搜索尋找符合模型描述的人工地物區(qū)域。文獻[10]使用神經(jīng)網(wǎng)絡(luò)對人工地物進行建模,結(jié)合人工地物的幾何特征如形狀、鄰接關(guān)系、尺度及主方向等進行監(jiān)督訓練,最終用SVM分類器對影像進行分類,得到包含人工地物的矩形區(qū)域。文獻[11]采用最小二乘SVM訓練器對包含人工地物樣本的SAR影像進行訓練,并通過交叉驗證和網(wǎng)格搜索的方法對訓練參數(shù)進行優(yōu)化,得到人工地物的預測模型,最終使用該預測模型對影像進行分類得到人工地物區(qū)域。文獻[12]依據(jù)圖像的平滑性及4種目標特征進行訓練得到人工地物的預測模型,然后使用滑動窗口遍歷圖像得到包含人造目標的矩形窗口?;谀P偷臋z測算法能較為緊湊地提取包含人工地物的矩形區(qū)域,適用于人工地物稀疏、特征明顯的影像,但無法獲取人工地物的邊緣信息,且對于背景復雜、人工地物繁多的影像適用性較差。
近年來,深度學習理論知識得到不斷發(fā)展,深度學習的概念最早由文獻[13]提出,是指通過深度網(wǎng)絡(luò)對復雜函數(shù)進行逼近的學習過程。深度學習方法通過深度網(wǎng)絡(luò)自動化學習特征,減少了人為設(shè)計特征的不完備性,在很多應(yīng)用中具有優(yōu)異的識別或分類性能。一些學者將深度學習方法應(yīng)用到遙感影像人工地物檢測中,并取得了不錯的效果[14-15]。但深度學習方法需要大量的訓練數(shù)據(jù)和計算開銷,對樣本分布也有一定的要求,因此在很多應(yīng)用中受到限制。此外,使用深度學習生成的模型較為復雜,難以解釋和分析,也難以直接進行改進,這些都是有待解決的問題。
本文致力于從遙感影像中提取邊界光滑、區(qū)域完整的人工地物目標,提出了一種基于人工選定特征的變分泛函優(yōu)化方法。變分泛函優(yōu)化方法是計算機視覺中的一類經(jīng)典的方法,其中泛函數(shù)是以函數(shù)為自變量的一類函數(shù),對泛函數(shù)求極值的問題稱為變分問題。本文算法受Chan-Vese圖像分割模型[15]的啟發(fā),根據(jù)人工地物在影像中顯著度和紋理與背景差異較大的特點,構(gòu)建了一個包含顯著性約束、面積和邊界約束、紋理約束以及灰度方差約束的能量泛函數(shù)。采用變分法迭代求取局部極值,得到前景部分,即為人工地物區(qū)域。該能量函數(shù)同時包含超像素優(yōu)化項和像素優(yōu)化項,一定程度上解決了傳統(tǒng)的圖像分割算法在遙感影像中易產(chǎn)生破碎邊緣的問題。
自文獻[16]提出活動輪廓模型(active contour model,ACM)以來,基于曲線演化的圖像分割算法得到了極大的發(fā)展[17-18]。該類算法的基本思想是在圖像感興趣區(qū)域內(nèi)初始化一條曲線,同時構(gòu)造能量泛函數(shù)驅(qū)動該曲線運動,在能量泛函數(shù)取得極小值時使得演化曲線逼近目標邊緣,從而得到分割結(jié)果[19]。本文算法首先基于超像素對遙感影像進行顯著性計算,將計算得到的顯著性圖進行閾值分割,并將其邊緣作為曲線演化的初值,然后構(gòu)建驅(qū)動曲線演化的能量泛函,分別包含基于超像素的顯著性約束項和基于像素的邊界、面積、紋理和灰度方差約束項,最后通過變分法迭代求取曲線演化的結(jié)果,得到分割的前景即人工地物部分。算法流程如圖1所示。
傳統(tǒng)的Chan-Vese模型(以下簡稱C-V模型)用一條封閉曲線C將待分割圖像I分為外部區(qū)域outside(C)和內(nèi)部區(qū)域inside(C)兩部分,并通過極小化如式(1)所示的能量泛函數(shù),使得曲線演化到目標邊界處完成圖像分割。
EC-V(C,c1,c2)=μLengh(C)+
(1)
式中,μ≥0、λ1>0、λ2>0是權(quán)重參數(shù);c1為內(nèi)部區(qū)域的灰度均值;c2為外部區(qū)域的灰度均值;I(x,y)為圖像坐標為(x,y)處的像素灰度值。
C-V模型的能量泛函數(shù)共有3項:使得曲線C趨于平滑的長度項,目標區(qū)域的灰度方差能量偏差項,以及背景區(qū)域的灰度方差能量偏差項。隨著能量泛函數(shù)EC-V的取值不斷減小直至趨近于全局最小值,曲線C不斷演化,最終移動到目標區(qū)域的邊界處。Chan-Vese模型基于目標與背景灰度的均一性,適用于紋理簡單或匱乏的影像,而高分辨率遙感影像細節(jié)豐富,紋理復雜,傳統(tǒng)的C-V模型并不適用。
人工地物在遙感影像中一般具有顯著性和紋理與背景差異較大的特點。本文算法借鑒曲線演化思想,將人工地物提取轉(zhuǎn)化為圖像分割及能量泛函數(shù)極小化的問題。對于待提取的遙感影像Ω,分割曲線C將其分為人工地物區(qū)域Ωo及背景區(qū)域Ωb兩部分,驅(qū)動曲線C運動的能量函數(shù)設(shè)計如下
Emanmade-object(C)=ES+ELA+ET+EDEV
(2)
能量函數(shù)共包含4項,其中第一項ES為基于超像素的顯著性約束項;后3項則為基于像素的約束項,其中ELA為邊界和面積約束項,使得分割邊界盡可能緊湊平滑,ET為紋理約束項,EDEV為灰度方差約束項。下文將對4個約束項進行詳細介紹。
1.1.1 顯著性約束
大部分現(xiàn)有的自底向上的顯著性檢測算法都是基于像素或超像素塊與局部或全局特征的對比度計算的[20],許多學者對計算對比度的方法做出了改進[21],而文獻[22]提出一種基于圖的流形排序算法計算圖像的顯著性,在結(jié)構(gòu)與紋理較為復雜的圖像中取得了較好的結(jié)果。本文結(jié)合兩種方法,根據(jù)傳統(tǒng)的對比度計算方法計算圖像的顯著性,并對其進行閾值分割,將得到的前景部分作為種子點,構(gòu)建無向有權(quán)圖并采用流行排序的方法得到最終的顯著性圖。為提高運算效率,并有效減少分割結(jié)果邊緣破碎的問題,本文采用分水嶺算法[23]對圖像進行過分割,以產(chǎn)生的超像素塊為處理單位進行顯著性檢測。顯著性計算方法如下。
將圖像表示為超像素數(shù)據(jù)集X={x1,x2,…,xn}∈Rm×n的形式,超像素xi的特征向量vi表示為
vi=[rigibiditi]
(3)
式中,ri、gi、bi分別是超像素的三波段顏色均值;di為超像素的梯度主方向;ti為超像素的CS-LBP[25]紋理統(tǒng)計平均量。則超像素xi的顯著性值定義為
(4)
式中,xj為所有與xi相鄰的超像素,0≤λ<1是權(quán)重參數(shù),試驗時取0.4~0.6。對得到的顯著性圖進行閾值分割,得到前景部分,稱為標記點。
構(gòu)建圖G=(V,E),其中V為超像素節(jié)點,E為每對相鄰超像素的邊,其權(quán)重由矩陣W=[ωij]決定,其中
(5)
定義排序函數(shù)f:X→Rn,對于每一個超像素xi,都有一個排序值f(xi)與之對應(yīng)。f可記為向量形式f=[f1f2…fn]T。定義標記向量y=[y1y2…yn]T,當超像素xi為標記點時,yi=1,否則yi=0。則可通過最小化如式(6)所示的代價函數(shù),求得排序向量f。
(6)
經(jīng)過推演,f的閉合(close form)解為
(7)
根據(jù)標記點計算初始標記向量y,再由超像素特征向量計算權(quán)值矩陣W,即可通過式(7)求得每個超像素的排序值,也即顯著性。圖2顯示了標記點和計算得到的顯著性圖。
圖2 顯著性計算方法Fig.2 Saliency map calculation
使用得到的顯著性圖作為能量泛函數(shù)的顯著性約束條件,一般來說顯著值高的區(qū)域?qū)儆谌斯さ匚飬^(qū)域的可能性較大,反之則屬于背景的可能性較大;并且同屬于人工地物區(qū)域的超像素之間的顯著性差異較小,而分別屬于前景/背景的超像素之間的顯著性差異較大。對于得到的人工地物分割結(jié)果Ωo,希望其顯著性強且分布均勻,顯著性約束項設(shè)計如下
(8)
式中,xc為圖像的平均顯著值;si為超像素的顯著性值;sj為與si相鄰的超像素的顯著性值。
該約束項是基于超像素的。試驗表明,加入超像素顯著性優(yōu)化項后,能較好地改善人工地物提取噪聲較多的情況,且對于顯著性較低的非人工地物區(qū)域有很好的剔除作用。
1.1.2 邊界和面積約束
對于分割得到的人工地物區(qū)域,筆者希望其邊界完整、形狀圓滑,因此設(shè)計邊界和面積約束項,如下
ELA=μ1length(C)+μ2area(C)
(9)
式中,μ1>0,μ2>0為正值參數(shù),試驗時應(yīng)選取略大于0的微小正值,以求在保證邊緣平滑性的同時,不影響演化曲線與目標邊緣的切合性。
1.1.3 紋理約束
紋理特征是遙感影像的重要特征之一,因此是人工地物提取中不可忽視的一部分。局部二值模式(LBP)[24]是目前二維圖像簡單高效的局部紋理描述子之一,本文采用改進的CS-LBP特征[25]統(tǒng)計圖像的紋理特征,紋理約束項設(shè)計如下
(10)
式中,λ1,λ2∈[0.8,1.2]為經(jīng)驗權(quán)重參數(shù);T(x,y)為圖像坐標為(x,y)處的CS-LBP計算值;to、tb分別為人工地物區(qū)域和背景的CS-LBP紋理均值。
1.1.4 灰度方差約束
本文算法能量泛函數(shù)的灰度方差約束項與C-V模型的灰度方差約束項相同,定義為
(11)
式中,λ1,λ2∈[0.8,1.2]為經(jīng)驗權(quán)重參數(shù);cio、cib分別為各波段人工地物區(qū)域和背景的灰度均值。
首先介紹二維泛函數(shù)的極值求解過程,設(shè)
為二維泛函表達式,則E[f(x,y)]取得極值的條件是滿足E-L方程[26]
(12)
求解能量泛函的極值問題可以轉(zhuǎn)化為求解相應(yīng)的E-L方程,但由于E-L方程一般為非線性偏微分方程,數(shù)值計算上比較困難。水平集方法是用E-L方程求解泛函數(shù)極值的一種具體實現(xiàn)方法,下面對水平集方法進行概述。
定義水平集函數(shù)φ(x,y)如下
(13)
重寫本文算法的能量泛函
Emanmade-object(C)=
μ1length(C)+μ2area(C)+
(14)
式中,v(x,y)=[Ii(x,y),T(x,y)](i=1,2,3)為圖像坐標為(x,y)處的灰度、紋理組合特征;vo、vb分別為人工地物區(qū)域和背景的平均組合特征。
將此能量函數(shù)用水平集函數(shù)φ(x,y)表達,如下所示
Emanmade-object(φ,vo,vb)=
(15)
通過變分后,可以獲得以φ表達的偏微分方程,如下所示
(16)
本文設(shè)計了兩組試驗,用來評估本文算法在高分辨率遙感影像中提取人工地物的性能。其中試驗1進行本文算法與傳統(tǒng)的人工地物提取算法的對比,試驗2進行本文算法與深度學習方法的對比。試驗1選取多樣的人工地物場景,包括城區(qū)結(jié)構(gòu)復雜的高大建筑、鄉(xiāng)村低矮建筑、城區(qū)立交橋、鄉(xiāng)村土路等,用于驗證本文算法在多種復雜的場景中均有較為良好的表現(xiàn)。試驗2則選取高分辨率的樣本數(shù)據(jù)并對其進行降采樣,用于驗證本文算法在不同的分辨率下均有較好的普適性。兩組試驗均選取重慶和廣東某地的航拍影像為試驗數(shù)據(jù),影像分辨率均在1 m以內(nèi),(試驗數(shù)據(jù)可從http:∥earthvisionlab.whu.edu.cn/MSOD/index.html下載)。
2.2.1 與傳統(tǒng)算法的對比
為了驗證本文提出的超像素優(yōu)化項能極大改善人工地物提取的結(jié)果,本文使用去除超像素優(yōu)化項的算法進行試驗,與加入超像素優(yōu)化項的試驗結(jié)果進行對比,部分試驗結(jié)果如圖3所示。從圖3可以看出,加入超像素顯著性優(yōu)化項后,能剔除夾雜在人工地物中的大塊植被等低顯著性區(qū)域。為了進一步說明超像素約束項對人工地物檢測結(jié)果的優(yōu)化作用,采取精確度、虛警率及漏檢率3種評價指標定量描述有/無超像素約束項情況下算法的檢測精度。試驗數(shù)據(jù)集共包含像素363 587個,其中人工地物所占的像素個數(shù)為188 485個(參考真值為人工勾繪),背景所占的像素個數(shù)為175 102個。3種評價指標定義如式(17)所示。有無超像素優(yōu)化項檢測結(jié)果的定量評價如表1 所示。
圖3 超像素約束項優(yōu)化結(jié)果Fig.3 Man-made object detection results with and without superpixel constrain
超像素約束項正確提取錯誤提取漏提取精確度/(%)虛警率/(%)漏檢率/(%)無18163956346639676.3223.683.39有170485112201755093.836.179.31
(17)
從表1可以看出,沒有超像素約束項時,人工地物檢測的精度較低,而且存在大量的誤檢。這是由于沒有顯著性約束,算法容易將顯著性較低的部分背景誤檢為人工地物。加入超像素約束項后,算法的精確度和虛警率都有了明顯的改善。此外,雖然表1顯示沒有超像素約束項時算法的漏檢率較低,但這是建立在大量的誤檢之上的。綜合來說,加入超像素約束項后,算法的穩(wěn)定性得到了較大的提升,不僅能夠保證較高的檢測精度,誤檢現(xiàn)象也大為減少。
選取傳統(tǒng)Chan-Vese模型及基于馬爾科夫隨機場的分割算法[27]對相同區(qū)域進行人工地物提取,部分提取結(jié)果如圖4所示。提取結(jié)果以二值圖的形式展示,其中白色區(qū)域為提取的人工地物,黑色區(qū)域為非人工地物(本文算法的可執(zhí)行程序可從http:∥earthvisionlab.whu.edu.cn/MSOD/code.rar下載)。其中C-V模型的演化曲線初始化為圖像正中心的圓。
由圖4可以看出,本文算法可以較為完整地提取出建筑物、道路等人工地物,由于加入了超像素優(yōu)化項,零碎的噪聲點和大片人工地物中間的孔洞現(xiàn)象也較其他兩種方法大為減少,人工地物的邊緣也較為平滑和明顯,對于多樣的人工地物類型,都能較為準確地提取其輪廓。而由于沒有先驗知識,C-V模型隨機初始化,對于紋理復雜的遙感影像,得到的分割結(jié)果較為零碎,且由于C-V模型完全基于前景與背景的灰度差異性,以及前景與背景內(nèi)部的灰度均一性,對于人工地物與背景灰度相似的影像,分割結(jié)果完全錯誤,表明C-V模型對演化曲線初始位置敏感、不適用于紋理復雜的遙感影像目標提取?;隈R爾可夫隨機場的分割算法雖然能較為完整地提取人工地物部分,但由于遙感影像紋理復雜,容易產(chǎn)生較多的噪聲點,虛警率較高,而且由于沒有超像素優(yōu)化項,分割結(jié)果較為零碎,人工地物內(nèi)部的空洞現(xiàn)象也較為明顯。同樣采取精確度、虛警率及漏檢率3種指標評價3種算法的檢測精度,結(jié)果如表2所示。
圖4 人工地物提取結(jié)果方法對比Fig.4 Results of man-made object detection by different approaches
從表2可以看出,本文提出的算法在多樣的試驗數(shù)據(jù)中均具有較好的檢測結(jié)果,檢測精度達93.83%。在保證檢測精度的同時,虛警率和漏檢率也較低。C-V模型檢測精度較低,且出現(xiàn)較嚴重的漏檢情況。而基于馬爾可夫隨機場的分割算法雖然檢測精度尚可,但由于未加入超像素顯著性優(yōu)化項,存在大量的噪聲及內(nèi)部空洞等細碎的檢測結(jié)果,使得虛警率和漏檢率都偏高。綜合3種精度評定指標,本文算法能夠較為完整地提取人工地物區(qū)域,漏檢的人工地物區(qū)域較少,虛警現(xiàn)象也較少,在人工選定特征的人工地物提取算法中取得了良好的表現(xiàn)。
表2 傳統(tǒng)人工地物檢測算法評價結(jié)果
2.2.2 與深度學習方法的對比
選取文獻[28]提出的深度學習方法與本文算法進行對比。為驗證兩種算法在不同分辨率下的性能,選取原始大小為512×512的試驗數(shù)據(jù),并將其降采樣至256×256,分別對兩種分辨率不同的數(shù)據(jù)進行試驗,試驗結(jié)果如圖5—圖8所示。其中圖5為較高分辨率下本文算法與深度學習方法的對比,圖6為較低分辨率下二者的對比,而圖7和圖8則分別展示了不同分辨率下本文算法和深度學習方法的提取結(jié)果。
從圖5及圖7可以看出,深度學習算法在較高分辨率下具有良好的表現(xiàn),對人工地物的分類極為準確,且對陰影下的人工地物具有優(yōu)異的識別性能,細碎的邊緣和人工地物內(nèi)部的空洞現(xiàn)象也極少。而通過分析圖6和圖7可知,降低分辨率后深度學習方法的提取精度有所下降,而且出現(xiàn)一些難以解釋的提取錯誤,如明顯的房屋未被提取等,這是由于訓練樣本過少, 導致訓練得到的模型普適性較差。
而從圖8可以看出,本文方法在不同分辨率下提取結(jié)果相差較小,高分辨率下能提取更多細小的支路等人工地物細節(jié),但也會產(chǎn)生更多的細碎噪聲,反之低分辨率下噪聲較少,但部分面積較小的地物細節(jié)會由于超像素優(yōu)化而丟失。
圖5 較高分辨率提取結(jié)果Fig.5 Extraction results in higher resolution images
圖6 較低分辨率提取結(jié)果Fig.6 Extraction results in lower resolution images
圖7 深度學習方法不同分辨率對比Fig.7 Results in different resolution using deep learning method
圖8 本文方法不同分辨率對比Fig.8 Results in different resolution using method proposed in this paper
綜合圖5—8,在較高分辨率下,深度學習方法由于能夠?qū)W習到豐富的特征,人工地物提取準確,且對陰影抗性極好,提取精度優(yōu)于本文算法。而較低分辨率下深度學習方法的檢測精度有所下降,且存在大量漏檢,而本文算法提取結(jié)果相差較小,本文算法總體精度更優(yōu)。試驗2共有圖像像素3 932 160個,其中人工地物像素1 317 542個,降采樣后共有像素983 040個,其中人工地物像素
329 386個。表3展示了兩種算法的提取精度,同樣以精確度、虛警率及漏檢率3種評價指標定量評價兩者的精度。從表3可以得出結(jié)論,本文算法在高分辨率下檢測精度略遜于深度學習方法,但對不同分辨率都具有普適性,且不需要大量的訓練數(shù)據(jù)即可完成自動化檢測,是一種較為有效的人工地物檢測算法。
表3 與深度學習方法對比評價結(jié)果
本文采用能量泛函變分求解的算法,通過提取特征及構(gòu)建合理的能量泛函數(shù),實現(xiàn)了高分辨率遙感影像人工地物區(qū)域的分割提取。該算法以流形排序計算得到的顯著性圖為初值,綜合利用影像的顯著性、紋理及灰度等多項特征構(gòu)建能量泛函數(shù),使得人工地物提取的結(jié)果更為準確可靠。試驗選取了多幅包含不同人工地物類型的高分辨率航拍影像作為試驗數(shù)據(jù)對本文算法進行驗證,并與其他傳統(tǒng)的人工選擇特征的提取算法及深度學習方法進行對比,結(jié)果表明本文算法具有優(yōu)異的表現(xiàn)。對人工地物這樣的有比較明顯的、易于用比較緊致的特征來進行描述的目標,總體來說并不比深度學習方法效果差,且無須進行樣本的學習。
本文算法仍需改進,如難以區(qū)分顯著性較高(比較規(guī)則)的裸地與人工地物,以及被陰影遮擋的人工地物區(qū)域等。對于難以人工設(shè)計特征進行描述的高度復雜目標,深度學習方法(例如深度卷積網(wǎng)絡(luò))往往可以通過大數(shù)據(jù)的訓練較好地抽取一些高層次的、抽象的特征。人的先驗知識、人工設(shè)計的特征和深度學習框架進行結(jié)合,從而克服深度學習對大數(shù)據(jù)樣本的依賴等問題,并運用于遙感影像的自動解譯,是繼續(xù)探索的方向。
參考文獻:
[1] 曹兵. 城市基本比例尺地形圖動態(tài)聯(lián)動更新機制[J]. 測繪工程, 2016, 25(5): 78-80.
CAO Bing. A Dynamic Linkage Updating Mechanism of the Basic Scale Topographic Map[J]. Engineering of Surveying and Mapping, 2016, 25(5): 78-80.
[2] CHEN Kunshan, CRAWFORD M M, GAMBA P, et al. Introduction for the Special Issue on Remote Sensing for Major Disaster Prevention, Monitoring, and Assessment[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(6): 1515-1518.
[3] PHALKE S, COULOIGNER I. Change Detection of Man-made Objects Using High Resolution Imagery and GIS Data[C]∥New Strategies for European Remote Sensing. Rotterdam: Millpress, 2005: 191-198.
[4] GROENWALL C A, CHEVALIER T R, ELMQVIST M, et al. Methods for Recognition of Natural and Man-made Objects Using Laser Radar Data[C]∥Proceedings Volume 5412, Laser Radar Technology and Applications IX. Orlando, Florida: SPIE, 2004, 5412: 310-320.
[5] PHAM I, POLASEK M. Algorithm for Military Object Detection Using Image Data[C]∥IEEE/AIAA 33rd Digital Avionics Systems Conference. Colorado Springs, CO: IEEE, 2014: 3D3-1-3D3-15.
[6] CAO Guo, YANG Xin, ZHOU Dake. Mumford-Shah Model Based Man-made Objects Detection from Aerial Images[C]∥Proceedings of the 5th International Conference on Scale Space and PDE Methods in Computer Vision. Heidelberg: Springer-Verlag, 2005: 386-395.
[7] LIU Jun, WEI Hong. Optimal Selection of Fractal Features for Man-made Object Detection from Infrared Images[C]∥2ndInternational Asia Conference on Informatics in Control, Automation and Robotics. Wuhan, China: IEEE, 2010: 177-180.
[8] LI Zhongbin, SHI Wenzhong, WANG Qunming, et al. Extracting Man-made Objects From High Spatial Resolution Remote Sensing Images via Fast Level Set Evolutions[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 53(2): 883-899.
[9] WEI Wang, XIN Yang. Rapid, Man-made Object Morphological Segmentation for Aerial Images Using a Multi-scaled, Geometric Image Analysis[J]. Image and Vision Computing, 2010, 28(4): 626-633.
[10] INGLADA J. Use of Pre-conscious Vision and Geometric Characterizations for Automatic Man-made Object Recognition[C]∥IEEE International Geoscience and Remote Sensing Symposium. Seoul, South Korea: IEEE, 2005: 180-182.
[11] YANG Zhaohui, SU Qun, CHEN Yingying. Automatic Recognition of Man-made Objects in SAR Images Using Support Vector Machines[C]∥ Urban Remote Sensing Event. Shanghai, China: IEEE, 2009: 1-5.
[12] 李玲玲, 劉永進, 王自樺, 等. 基于滑動窗口的遙感圖像人造目標檢測算法[J]. 廈門大學學報(自然科學版), 2014, 53(6): 792-796.
LI Lingling, LIU Yongjin, WANG Zihua, et al. Man-made Object Extraction from the Remote Sensing Image Based on Sliding Windows[J]. Journal of Xiamen University (Natural Science), 2014, 53(6): 792-796.
[13] HINTON G E, OSINDER O S, TEH Y W. A Fast Learning Algorithm for Deep Belief Nets[J]. Neural Computation, 2006, 18(7): 1527-1554.
[14] MAKANTASIS K, KARANTZALOS K, DOULAMIS A, et al. Deep Learning-based Man-made Object Detection from Hyperspectral Data[M]∥BEBIS G. Advances in Visual Computing. Cham: Springer, 2015: 717-727.
[15] VAKALOPOULOU M, KARANTZALOS K, KOMODAKIS N, et al. Building Detection in Very High Resolution Multispectral Data with Deep Learning Features[C]∥IEEE International Geoscience and Remote Sensing Symposium. Milan, Italy: IEEE, 2015: 1873-1876.
[16] KASS M, WITKIN A, TERZOPOULOS D. Snakes: Active Contour Models[J]. International Journal of Computer Vision, 1988, 1(4): 321-331.
[17] CHAN T F, VESE L A. Active Contour Without Edges[J]. IEEE Transactions on Image Processing, 2001, 10(2): 266-277.
[18] ZHOU Dongguo, ZHOU Hong, SHAO Yanhua. An Improved Chan-Vese Model by Regional Fitting for Infrared Image Segmentation[J]. Infrared Physics & Technology, 2016, 74: 81-88.
[19] 王相海, 方玲玲. 活動輪廓模型的圖像分割方法綜述[J]. 模式識別與人工智能, 2013, 26(8): 751-760.
WANG Xianghai, FANG Lingling. Survey of Image Segmentation Based on Active Contour Model[J]. Pattern Recognition & Artificial Intelligence, 2013, 26(8): 751-760.
[20] 李京衛(wèi), 董水龍, 張朝立. 自底向上的圖像顯著性檢測綜述[J]. 數(shù)字技術(shù)與應(yīng)用, 2014(12): 220-221.
LI Jingwei, DONG Shuilong, ZHANG Chaoli. Review of Bottom-up Saliency Detection Methods of Images[J]. Digital Technology & Application, 2014(12): 220-221.
[21] CHENG Mingming, ZHANG Guoxin, MITRA N J, et al. Global Contrast Based Salient Region Detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2011: 409-416.
[22] YANG Chuan, ZHANG Lihe, LU Huchuan, et al. Saliency Detection via Graph-based Manifold Ranking[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR: IEEE, 2013: 3166-3173.
[23] DE SMET P, PIRES R L V P M. Implementation and Analysis of an Optimized Rainfalling Watershed Algorithm[C]∥Proceedings Volume 3974, Image and Video Communications and Processing 2000. San Diego, CA, USA: SPIE, 2000: 759-766.
[24] AHONEN T, HADID A, PIETIKAINEN M. Face Description with Local Binary Patterns: Application to Face Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(12): 2037-2041.
[26] MOREL J M, SOLIMINI S. Variational Methods in Image Segmentation[M]. Boston: Birkh?user Boston, 1995: 83-91.
[27] ZONG Kaibin, SOWMYA A, TRINDER J. Building Change Detection Based on Markov Random Field: Exploiting Both Pixel and Corner Features[C]∥International Conference on Digital Image Computing: Techniques and Applications. Adelaide, SA, Australia: IEEE, 2015: 1-7.
[28] ZHANG Mi, HU Xiangyun, ZHAO Like, et al. Learning Dual Multi-scale Manifold Ranking for Semantic Segmentation of High-Resolution Images[J]. Remote Sensing, 2017, 9(5): 500.