曹云剛,王志盼,慎 利,肖 雪,楊 磊
1.西南交通大學(xué)高速鐵路運(yùn)營(yíng)安全空間信息技術(shù)國(guó)家地方聯(lián)合工程實(shí)驗(yàn)室,四川 成都 611756;2.西南交通大學(xué)地球科學(xué)與環(huán)境工程學(xué)院,四川 成都 611756;3.四川省第二測(cè)繪地理信息工程院,四川 成都 610100
?
像元與對(duì)象特征融合的高分辨率遙感影像道路中心線提取
曹云剛1,2,王志盼1,2,慎 利1,2,肖 雪1,2,楊 磊3
1.西南交通大學(xué)高速鐵路運(yùn)營(yíng)安全空間信息技術(shù)國(guó)家地方聯(lián)合工程實(shí)驗(yàn)室,四川 成都 611756;2.西南交通大學(xué)地球科學(xué)與環(huán)境工程學(xué)院,四川 成都 611756;3.四川省第二測(cè)繪地理信息工程院,四川 成都 610100
提出了一種融合像元-多尺度對(duì)象級(jí)特征的高分辨率遙感影像道路中心線提取方法。首先在像素級(jí)上提取影像的紋理和形狀結(jié)構(gòu)特征,在構(gòu)建的多尺度分割集影像上提取對(duì)象的區(qū)域光譜特征。然后,將像元級(jí)特征與多尺度對(duì)象特征進(jìn)行決策級(jí)融合,完成道路網(wǎng)的粗提取。最后,結(jié)合本文所提出的非道路區(qū)域自動(dòng)去除算法和張量投票算法,實(shí)現(xiàn)道路中心線的精提取。不同場(chǎng)景、不同分辨率數(shù)據(jù)下開(kāi)展的試驗(yàn)結(jié)果表明,該方法可有效改善傳統(tǒng)道路提取方法易產(chǎn)生的“鹽噪聲”和非道路地物粘連現(xiàn)象。
高分辨率遙感;多特征融合;道路提取;基于像素;面向?qū)ο?/p>
基于遙感影像的道路提取在更新地理信息庫(kù)、軍事、導(dǎo)航等方面具有重要的研究意義[1]。近年來(lái),隨著高分辨率遙感影像的可獲取性日益增強(qiáng),使得在遙感影像上精確地提取道路要素信息成為可能,相關(guān)的自動(dòng)化處理方法成為遙感領(lǐng)域的研究熱點(diǎn)之一。
傳統(tǒng)的道路提取算法大多從像元級(jí)角度出發(fā),利用像元級(jí)光譜特征或通過(guò)構(gòu)建基于像元的空間特征來(lái)顧及形狀、邊緣、紋理等上下文信息[2-8]。文獻(xiàn)[2]基于影像的光譜特征設(shè)計(jì)了一種改進(jìn)圓投影變換的曲折道路自動(dòng)提取算法,在山區(qū)公路提取上取得了較為理想的效果。文獻(xiàn)[3]通過(guò)融合道路的光譜和邊緣特征來(lái)提高道路的提取精度,雖取得了一定的效果,但是對(duì)于邊緣不明顯的道路具有一定的局限性。文獻(xiàn)[4]提出了融合LiDAR數(shù)據(jù)的道路提取方法,在城市遮擋嚴(yán)重的道路提取上取得了很好的效果,但是LiDAR數(shù)據(jù)的獲取使得該方法具有一定的局限性。由于高分辨率遙感影像上地物細(xì)節(jié)信息極其豐富,空間分布復(fù)雜,同類(lèi)地物呈現(xiàn)出很大的光譜異質(zhì)性,具體表現(xiàn)為類(lèi)內(nèi)方差變大,類(lèi)間方差減小,不同地物的光譜相互重疊[5],基于像素級(jí)光譜紋理結(jié)構(gòu)信息的道路提取方法容易產(chǎn)生“鹽噪聲”現(xiàn)象。因此,面向?qū)ο蟮牡缆诽崛》椒ń陙?lái)日益受到重視。該類(lèi)方法不再以單個(gè)像元及鄰域像元作為處理單元,而是以對(duì)象區(qū)域作為基本的處理單元,通過(guò)分析粒度的提升,能夠有效地改善像元級(jí)分析方法所存在的不足,使得道路提取結(jié)果具有較好的空間平滑性[9-10]。相關(guān)研究表明:面對(duì)對(duì)象的道路提取方法,對(duì)于空間相鄰、形狀相似的地物容易造成混分,從而產(chǎn)生粘連現(xiàn)象。此外,在現(xiàn)有的道路提取方法中,不管是基于像元級(jí)還是面向?qū)ο蠹?jí),為了提升處理的精度,對(duì)于初始提取的道路區(qū)域,通常仍然需要較多的特征約束來(lái)進(jìn)行非道路區(qū)域的去除,如長(zhǎng)寬比,面積等特征[3,7,12],且參數(shù)的確定大多由人工確定,約束了算法的自動(dòng)化程度。
通過(guò)上述分析,現(xiàn)有道路提取方法存在以下問(wèn)題:①基于像元級(jí)的道路提取和基于對(duì)象級(jí)的道路提取,是作為兩個(gè)不同研究方向進(jìn)行的;②基于像元級(jí)道路提取,容易產(chǎn)生“鹽噪聲”現(xiàn)象,而基于對(duì)象級(jí)道路提取,容易產(chǎn)生較多非道路區(qū)域“粘連”現(xiàn)象;③非道路區(qū)域去除,需要較多的特征和參數(shù)設(shè)置。
考慮到像元級(jí)特征與對(duì)象級(jí)特征能夠分別在兩個(gè)不同的層次對(duì)特征信息進(jìn)行度量。與單層特征相比,像元-對(duì)象特征的融合能夠?qū)崿F(xiàn)不同層次特征信息的優(yōu)勢(shì)互補(bǔ),有利于減少單一信息源對(duì)道路要素提取中對(duì)象可能存在的不確定性、不完全性和誤差,從而有效提升道路提取精度[11]。因此,本文提出一種融合像元-多尺度對(duì)象級(jí)特征的高分辨率遙感影像道路提取方法,并設(shè)計(jì)一種新的高效的非道路區(qū)域去除算法,來(lái)精化道路區(qū)域提取結(jié)果,最后利用張量投票算法實(shí)現(xiàn)道路中心線的提取。
本文所提出的道路中心線自動(dòng)提取方法的總體流程如圖1所示。該方法主要包括兩部分:
(1) 融合像元級(jí)特征與多尺度對(duì)象級(jí)特征的道路網(wǎng)初提取。首先構(gòu)建多尺度對(duì)象級(jí)光譜特征和像元級(jí)空間特征特征向量,其中對(duì)象級(jí)光譜特征與像素級(jí)空間特征采用矢量疊加的方式進(jìn)行[13],然后將構(gòu)建的多尺度特征向量,輸入到Probabilistic SVM分類(lèi)器中,通過(guò)決策級(jí)融合得到不同尺度下的道路網(wǎng)絡(luò),通過(guò)投票的方式完成道路網(wǎng)粗提取。
(2) 非道路區(qū)域自適應(yīng)去除下的道路中心線精提取。通過(guò)本文提出的一種新的非道路區(qū)域去除算法,自動(dòng)去除初始道路網(wǎng)絡(luò)中的非道路區(qū)域,并結(jié)合張量投票算法完成道路中心線精提取。
1.1 像元-對(duì)象特征融合的道路網(wǎng)粗提取
本文從像元級(jí)和對(duì)象級(jí)兩個(gè)層次出發(fā),分別選取具有代表性的空間或光譜特征指標(biāo),開(kāi)展多特征融合道路網(wǎng)粗提取。
1.1.1 像元級(jí)特征提取
遙感影像空間特征,作為光譜特征的有效補(bǔ)充,在遙感影像信息提取方面得到了較多的應(yīng)用,但是很難找到一個(gè)適合描述整體影像的空間特征[13],因此,本文分別從紋理、形狀和線性3個(gè)角度開(kāi)展多特征提取。
圖1 道路中心線自動(dòng)提取方法流程Fig.1 The process flow of the proposed approach for automatic extration of road center line
(1) 紋理結(jié)構(gòu)特征。紋理是圖像灰度在空間上以緩慢變化或者周期性變化而產(chǎn)生的圖案模式,是反映圖像中同質(zhì)現(xiàn)象的重要視覺(jué)特征。作為一種典型的局部紋理特征描述算子,局部二值模式(local binary pattern,LBP)具有旋轉(zhuǎn)不變性、灰度不變性和計(jì)算效率高等顯著的優(yōu)點(diǎn),并且已經(jīng)被廣泛應(yīng)用于影像分類(lèi)、圖像分割等研究領(lǐng)域[14],因此,本文將其作為紋理特征提取算子。
(2) 形狀結(jié)構(gòu)特征。本文利用像元形狀指數(shù)(pixel shape index,PSI)來(lái)提取形狀特征,通過(guò)度量像元與其周邊鄰域內(nèi)像元的光譜相似度來(lái)描述空間上下文的形狀分布。相關(guān)研究表明,PSI特征的引入有助于提升高分率遙感影像上城市目標(biāo)要素的自動(dòng)提取精度[15]。
(3) 線性結(jié)構(gòu)特征。在高分影像上,道路通常具有明顯的線性特征,因此,提取線性特征理論上能夠提高道路提取精度。相關(guān)研究表明,F(xiàn)rangi濾波能夠增強(qiáng)影像中的線性結(jié)構(gòu)特征,并且已經(jīng)在醫(yī)學(xué)影像處理中的血管增強(qiáng)方面得到了成功的應(yīng)用[16]。因此,本文采用Frangi濾波進(jìn)行道路線性目標(biāo)增強(qiáng)特征的提取。
1.1.2 對(duì)象級(jí)特征提取
傳統(tǒng)的面向?qū)ο蟮奶卣魈崛》椒?,往往關(guān)注為整幅影像選擇一個(gè)最優(yōu)尺度開(kāi)展影像分割的預(yù)處理,繼而開(kāi)展對(duì)象級(jí)特征的提取。然而,高分辨率遙感影像中包含的不同尺寸大小的地物目標(biāo)及不同層次的空間結(jié)構(gòu)差異需要在不同尺度下反映,僅在單一尺度進(jìn)行分析,很難充分全面反映不同尺度下的地物目標(biāo)與空間格局。因此,本文擬借助多尺度分割手段,形成遙感影像分割集[17],將同一空間分辨率的遙感影像信息擴(kuò)展到不同尺度上,實(shí)現(xiàn)影像信息的多尺度描述,繼而在此框架下提取不同尺度下的對(duì)象級(jí)區(qū)域光譜特征。
1.1.3 基于DS證據(jù)理論的多特征融合
現(xiàn)有特征融合算法通常是采用特征“疊加”的方式(vector stacking),對(duì)多個(gè)特征進(jìn)行融合,雖然該方法能夠取得一定的效果,但是當(dāng)特征維度增加時(shí),會(huì)在一定的程度上“掩蓋”光譜特征,在某些情況下,甚至?xí)?dǎo)致精度下降。針對(duì)此問(wèn)題,雖然有文獻(xiàn)提出了自適應(yīng)特征加權(quán)的算法來(lái)進(jìn)行多特征融合[13],但是并不能有效改善某個(gè)特征造成的提取誤差,且其需要計(jì)算每個(gè)特征的分類(lèi)精度,效率較低。而DS證據(jù)理論(dempster-shafer evidence theory)能夠突出較優(yōu)特征,且有效改善某一特征造成的誤差[18]。因此,本文采用DS證據(jù)理論,進(jìn)行決策級(jí)特征融合。其原理如下:
(1)
式中,k由下式確定
(2)
BPA經(jīng)DS證據(jù)理論融合,最終的目標(biāo)判決公式如下
m(Aw)=max{m(Ai)}
(3)
m(Aw)-m(Ai)>ε
(4)
式中,m(Aw)表示目標(biāo)地物BPA值;m(Ai)表示某一地物類(lèi)別BPA值;ε表示目標(biāo)類(lèi)與其他類(lèi)的差值。
由于SVM(support vector machine)算法具有小樣本、結(jié)構(gòu)化風(fēng)險(xiǎn)最小等優(yōu)點(diǎn),因此將SVM作為分類(lèi)算法[19],其輸出的后驗(yàn)概率構(gòu)建DS證據(jù)理論中的BPA,實(shí)現(xiàn)特征的決策級(jí)融合。關(guān)于SVM中的概率輸出,請(qǐng)參見(jiàn)文獻(xiàn)[20]。
為了避免高維空間特征影響光譜特征,本文將提取的3個(gè)像元級(jí)特征分別與對(duì)象級(jí)光譜特征進(jìn)行疊加,在每個(gè)尺度下得到3組區(qū)域光譜-像元級(jí)特征,基于DS證據(jù)理論的多特征決策級(jí)融合流程參見(jiàn)圖2。
圖2 SVM與DS證據(jù)理論融合Fig.2 SVM and DS evidence theory fusion
設(shè)地物類(lèi)別為k類(lèi),分類(lèi)器個(gè)數(shù)為n個(gè),多特征決策級(jí)融合具體流程如下:
(3) 對(duì)于Di按照式(1)和式(2)進(jìn)行融合,對(duì)融合的結(jié)果依據(jù)式(3)和式(4)進(jìn)行最終的類(lèi)別判決。
(4) 重復(fù)以上步驟,得到所有像元的類(lèi)別判決結(jié)果。
1.1.4 道路網(wǎng)粗提取
由上述算法提取出多個(gè)尺度下的初始道路區(qū)域。由于分割的尺度差異,不同的尺度提取的道路區(qū)域存在一定的誤差,因此,考慮將其結(jié)果進(jìn)行綜合。本文對(duì)提取的n個(gè)不同尺度下的道路區(qū)域進(jìn)行多尺度投票,具體如下
(5)
式中,scales示尺度s下的二值圖像值;V表示道路二值圖像值。通過(guò)對(duì)提取的多層次道路二值圖像中每一個(gè)像元自動(dòng)進(jìn)行“決策”,得到最終初始道路網(wǎng)絡(luò)。
1.2 非道路區(qū)域自適應(yīng)去除下的道路中心線精提取
最終道路中心線的形成主要包括兩個(gè)步驟,即初始道路二值圖像自動(dòng)閾值去除和基于張量投票理論的道路中心線提取。
1.2.1 自適應(yīng)閾值去除非道路區(qū)域
經(jīng)過(guò)多尺度投票算法提取的道路二值圖像中,仍然會(huì)有部分非道路區(qū)域?,F(xiàn)有算法大多是基于形態(tài)學(xué)的長(zhǎng)寬比、面積等多個(gè)幾何特征組合來(lái)去除非道路區(qū)域,而且需要人工設(shè)定閾值[3,6,11],從而影響了算法的魯棒性。因此,設(shè)計(jì)一種自動(dòng)的非道路區(qū)域去除算法具有重要的意義。考慮到道路區(qū)域具有連通區(qū)域長(zhǎng),曲率變換緩慢等特點(diǎn),本文提出一種新的自動(dòng)非道路區(qū)域去除算法:
(1) 二值圖像連通區(qū)域標(biāo)記(本文采用八鄰域標(biāo)記)。
(2) 對(duì)于任意標(biāo)記區(qū)域,計(jì)算該區(qū)域形狀描述子——外接橢圓長(zhǎng)軸ab(如圖3所示,ab表示任意標(biāo)記區(qū)域的外接橢圓),由于道路具有細(xì)長(zhǎng)等線性特征,該值較大,因此能夠很好地區(qū)分其他地物。
(3) 統(tǒng)計(jì)所有標(biāo)記區(qū)域的形狀描述子的值,通過(guò)OSTU自動(dòng)閾值法[21]獲取閾值T。
(4) 將小于閾值T的標(biāo)記區(qū)域進(jìn)行自動(dòng)去除。
圖3 道路形狀特征Fig.3 The road shape features
1.2.2 道路中心線精提取
現(xiàn)有道路中心線提取算法中,大部分采用了形態(tài)學(xué)細(xì)化或中軸變換等算法,容易產(chǎn)生“毛刺”現(xiàn)象。因此,引入張量投票算法,改善這一問(wèn)題。由于篇幅所限,具體的計(jì)算過(guò)程與方法參見(jiàn)文獻(xiàn)[22]。
張量投票算法僅需要設(shè)定一個(gè)參數(shù)σ,且具有對(duì)噪聲不敏感,提取的中心線光滑等優(yōu)點(diǎn)[22]。但是該方法并不能提取道路交叉口??紤]道路網(wǎng)絡(luò)的拓?fù)涮卣?,采用文獻(xiàn)[23]提出的方法進(jìn)行連接。
為了驗(yàn)證本文方法的有效性,試驗(yàn)設(shè)計(jì)主要從以下幾個(gè)方面考慮:①選擇不同傳感器、不同分辨率、不同場(chǎng)景的高分辨率遙感影像作為試驗(yàn)數(shù)據(jù)源;②充分考慮空間關(guān)系,并從對(duì)象級(jí)和像元級(jí)兩個(gè)角度出發(fā),對(duì)現(xiàn)有道路提取算法進(jìn)行比較。因此,本文設(shè)計(jì)了兩組試驗(yàn)進(jìn)行驗(yàn)證,依次與現(xiàn)有相關(guān)文獻(xiàn)提出的方法進(jìn)行對(duì)比,其中文獻(xiàn)[9]從對(duì)象級(jí)的角度出發(fā),文獻(xiàn)[6,11,25]則從像素級(jí)的角度出發(fā),文獻(xiàn)[9,25]分別顧及了對(duì)象級(jí)和像素級(jí)的空間特征。最終的精度評(píng)價(jià)從定性和定量?jī)蓚€(gè)角度進(jìn)行,其中定量評(píng)價(jià)采用了完整率、正確率、檢測(cè)質(zhì)量3個(gè)指標(biāo)[24],計(jì)算公式如下
(6)
(7)
(8)
式中,E1、E2、E3分別為完整率、正確率、檢測(cè)質(zhì)量;TP表示正確提取的道路長(zhǎng)度(像元個(gè)數(shù));FN表示沒(méi)有提取出的道路長(zhǎng)度;FP表示錯(cuò)誤提取出的道路長(zhǎng)度。E1(完整率)用來(lái)描述道路提取的完整程度,最優(yōu)值為1。E2(正確率)表示道路提取的正確程度,最優(yōu)值為1。E3(檢測(cè)質(zhì)量)表示提取結(jié)果質(zhì)量,同時(shí)顧及了完整率指標(biāo)和正確率指標(biāo),最優(yōu)值為1。值得指出的是,道路提取的精度不僅僅依靠一個(gè)指標(biāo),需要同時(shí)考慮3個(gè)指標(biāo)的結(jié)果[23]。
考慮到算法的效率和自動(dòng)化程度,本文在試驗(yàn)中確定了4個(gè)不同的分割尺度構(gòu)建多尺度影像集。PSI計(jì)算中,有3個(gè)重要的計(jì)算參數(shù):光譜約束閾值(Tspe)、空間約束閾值(Tspa)、方向線條數(shù)(D)。根據(jù)文獻(xiàn)[5]的建議,將Tspe設(shè)定為各類(lèi)樣本均值歐氏距離的標(biāo)準(zhǔn)差,將Tspa設(shè)定為50,方向線條數(shù)D設(shè)為20,在特征描述與效率方面能夠取得較為理想的結(jié)果。此外,本文采用LibSVM軟件包實(shí)現(xiàn)SVM分類(lèi)算法,其中核函數(shù)為RBF,參數(shù)c與g通過(guò)交叉驗(yàn)證自動(dòng)獲得最優(yōu)值。
2.1 試驗(yàn)1:IKONOS影像
試驗(yàn)數(shù)據(jù)為澳大利亞Hobart地區(qū)(42°48′S,147°14′E)的IKONOS影像,影像大小為1072×1059像素,影像通過(guò)與全色波段融合,空間分辨率為1m,波段數(shù)為可見(jiàn)光3波段。如圖4所示為試驗(yàn)1所采用的IKONOS高分辨率遙感影像以及人工目視判斷生成的作為地表真試驗(yàn)證值的道路區(qū)域和中心線圖。
圖4 試驗(yàn)1數(shù)據(jù)Fig.4 The data for experiment 1
通過(guò)與文獻(xiàn)[6]、文獻(xiàn)[9]、文獻(xiàn)[11]、文獻(xiàn)[25]的方法進(jìn)行對(duì)比,結(jié)果如圖5所示。
本文算法在試驗(yàn)1中的相關(guān)參數(shù)設(shè)置參見(jiàn)表1,與現(xiàn)有算法提取精度對(duì)比見(jiàn)表2。對(duì)比算法相關(guān)參數(shù)設(shè)置為:文獻(xiàn)[6]算法中,通過(guò)人工設(shè)置兩個(gè)5×5道路模板,分割參數(shù)設(shè)置為T(mén)=18,非道路區(qū)域去除,面積參數(shù)設(shè)置為100,長(zhǎng)度參數(shù)設(shè)置為150,區(qū)域搜索參數(shù)設(shè)置為30;文獻(xiàn)[9]算法中尺度參數(shù)為10、15、25、40;文獻(xiàn)[11]算法中二值化參數(shù)設(shè)置為0.01,非道路區(qū)域去除,面積參數(shù)設(shè)置為50,長(zhǎng)寬比參數(shù)設(shè)置為15;文獻(xiàn)[25]算法中空間剖面特征設(shè)置為10、20、30、40,連接參數(shù)設(shè)置為25。由圖5中(f)—(j)可以看出,文獻(xiàn)[6]算法提取的中心線出現(xiàn)了較多的漏提取現(xiàn)象,文獻(xiàn)[9]提取的中心線產(chǎn)生了較多“毛刺”現(xiàn)象,文獻(xiàn)[11]提取的中心線產(chǎn)生了較多的非道路中心線線條,文獻(xiàn)[25]和本文算法對(duì)道路中心線保持較好,但是本文的中心線目視更佳,且中心線更加完整。
表1 試驗(yàn)1和試驗(yàn)2中本文算法參數(shù)設(shè)置
Tab.1 Parameter settings for the proposed method in experiment 1 and experiment 2
試驗(yàn)分割尺度特征融合參數(shù)中心線提取參數(shù)試驗(yàn)140、30、20、100.9420試驗(yàn)230、20、15、100.8815
圖5 試驗(yàn)1中不同方法所提取道路區(qū)域和中心線Fig.5 Road areas and centerline extracted by different methods in experiment 1
為了更加準(zhǔn)確地描述本文方法與其他方法的差異,對(duì)圖4(b)中選取的局部區(qū)域(圖中選定的正方形區(qū)域),進(jìn)行放大精確對(duì)比分析,如圖6所示。
圖6 局部區(qū)域精確對(duì)比Fig.6 Accurate comparison in local areas
從圖6中橢圓區(qū)域的對(duì)比可以看出,文獻(xiàn)[6]和文獻(xiàn)[9]算法提取的道路區(qū)域,容易出現(xiàn)邊緣粘連現(xiàn)象,而且邊緣擬合并不準(zhǔn)確與光滑。文獻(xiàn)[11]提出的方法中,道路區(qū)域邊緣較為光滑與準(zhǔn)確,但是容易出現(xiàn)較多的“鹽噪聲”,本文算法與文獻(xiàn)[25]所提算法對(duì)道路形狀保持較好。
2.2 試驗(yàn)2:QuickBird影像
試驗(yàn)2數(shù)據(jù)為美國(guó)德克薩斯州地區(qū)(31°44′N(xiāo),106°15′E)的QuickBird影像,影像大小為1043×880像素,波段為4(可見(jiàn)光+近紅外),空間分辨率約為2.6 m(圖7)。設(shè)計(jì)本次試驗(yàn)的目的是驗(yàn)證不同分辨率和不同場(chǎng)景對(duì)道路提取精度的影響。
對(duì)比文獻(xiàn)[6]、文獻(xiàn)[9]、文獻(xiàn)[11]、文獻(xiàn)[25]提出的方法,道路提取如圖8所示。
本文算法在試驗(yàn)2中的相關(guān)參數(shù)設(shè)置參見(jiàn)表1,與現(xiàn)有算法提取精度對(duì)比見(jiàn)表2。對(duì)比算法相關(guān)參數(shù)設(shè)置為:文獻(xiàn)[6]算法中,通過(guò)人工設(shè)置兩個(gè)5×5道路模板,分割參數(shù)設(shè)置為T(mén)=20,非道路區(qū)域去除,面積參數(shù)設(shè)置為20,長(zhǎng)度參數(shù)設(shè)置為20,區(qū)域搜索參數(shù)設(shè)置為25;文獻(xiàn)[9]算法中尺度參數(shù)為10、20、25、35;文獻(xiàn)[11]算法中二值化參數(shù)設(shè)置為0.01,非道路區(qū)域去除,面積參數(shù)設(shè)置為30,長(zhǎng)寬比參數(shù)設(shè)置為10;文獻(xiàn)[25]中空間剖面特征設(shè)置為10、20、30、40,連接參數(shù)設(shè)置為20。由圖8中(f)—(j)可以看出,文獻(xiàn)[11]和文獻(xiàn)[25]算法提取的道路中心線擬合并不十分準(zhǔn)確,例如彎曲道路段出現(xiàn)了偏移現(xiàn)象。文獻(xiàn)[6]、文獻(xiàn)[9]和本文提出的算法提取的中心線,準(zhǔn)確度較高,但是文獻(xiàn)[6]算法中中心線出現(xiàn)了較多漏提取情況,而文獻(xiàn)[9]算法提取的中心線出現(xiàn)了較多非道路中心線, 且“毛刺”現(xiàn)象較多。本文算法提取的中心線無(wú)論從準(zhǔn)確度和完整性均優(yōu)于其他算法。
圖7 試驗(yàn)2數(shù)據(jù)Fig.7 The data for experiment 2
Tab.2 Accuracy assessment for experiments (%)
圖8 試驗(yàn)2中不同方法所提取道路區(qū)域和中心線的結(jié)果圖Fig.8 Road areas and centerlines extracted by different methods in experiment 2
為了更加準(zhǔn)確地描述本文方法與其他方法的差異,對(duì)圖7(b)中選定的局部區(qū)域(右下角正方形區(qū)域),進(jìn)行放大精確對(duì)比分析,如圖9所示。
圖9 局部區(qū)域精確對(duì)比Fig.9 Accurate comparison in local areas
由圖9的上方橢圓區(qū)域可以看出,文獻(xiàn)[9]提出的方法,過(guò)度平滑了地物的細(xì)節(jié),如對(duì)道路的隔離帶進(jìn)行了合并。對(duì)比圖中的下方橢圓區(qū)域看出,文獻(xiàn)[6,11,25]算法產(chǎn)生了部分“鹽噪聲”,后續(xù)處理中容易產(chǎn)生較多錯(cuò)誤的道路中心線,本文方法保持了道路的細(xì)節(jié)特征,減少了“鹽噪聲”現(xiàn)象。
在不同場(chǎng)景、不同分辨率、不同傳感器的高分遙感影像上得到的試驗(yàn)結(jié)果,從定性的角度來(lái)看,本文算法在目視效果上均優(yōu)于現(xiàn)有其他算法(如圖5和圖8所示),道路區(qū)域和中心線均取得了較為理想的結(jié)果,有效減少了道路二值圖像中的“鹽噪聲”和粘連現(xiàn)象,道路中心線提取更為完善,減少了漏提取、毛刺及擬合不準(zhǔn)確現(xiàn)象,不論從實(shí)際應(yīng)用的角度和視覺(jué)效果都更為理想。
對(duì)表2的試驗(yàn)精度評(píng)價(jià)結(jié)果進(jìn)行定量分析,可以發(fā)現(xiàn),試驗(yàn)1和試驗(yàn)2中本文算法結(jié)果的3個(gè)精度指標(biāo)均處于較高的層次,從而證明了本文方法的有效性。文獻(xiàn)[9]和文獻(xiàn)[11]提出的算法對(duì)道路的完整性保持得較好,但是由于“鹽噪聲”和粘連現(xiàn)象,導(dǎo)致提取的中心線正確率較低。文獻(xiàn)[6]和文獻(xiàn)[25]提出的算法得到道路中心線正確率較高,但是文獻(xiàn)[6]提取的道路中心線缺失較多,因此完整率較低,文獻(xiàn)[25]的方法由于提取的二值道路圖像,產(chǎn)生了較多的斷裂,其結(jié)果依賴于后續(xù)的中心線連接,因此降低了完整率。本文算法道路二值圖像提取更為完整,準(zhǔn)確率更高,且中心線的形成有效減少了毛刺和斷裂現(xiàn)象,因此取得了較其他算法更優(yōu)的定量結(jié)果。
2.3 參數(shù)敏感性分析
為了使參數(shù)設(shè)置更加準(zhǔn)確,試驗(yàn)1影像輻射分辨率經(jīng)過(guò)線性拉伸至8位。本文提出的方法中,主要需設(shè)定的參數(shù)包括:初始分割尺度層數(shù)n,特征融合判決參數(shù)ε,中心線提取尺度參數(shù)σ。以試驗(yàn)1所采用數(shù)據(jù)為例,參數(shù)ε和參數(shù)σ對(duì)本文提取精度影響如圖10所示。
圖10 不同參數(shù)設(shè)置條件下對(duì)本文道路提取精度的影響Fig.10 The accuracy of road extraction under different parameter settings
從圖10(a)中可以看出,試驗(yàn)1中正確率指標(biāo)在[0.88,0.98]區(qū)間均處于上升階段,而完整率和檢測(cè)質(zhì)量指標(biāo)均在ε=0.9取得最大值,在區(qū)間[0.92,0.98]內(nèi),當(dāng)ε=0.94時(shí),兩者均取得局部最大值??紤]到總體的精度,因此選取0.94作為本文試驗(yàn)的參數(shù)值。值得提出的是,從圖10(a)可以看出,特征融合參數(shù)對(duì)總體精度的影響不明顯。從圖10(b)可以看出,檢測(cè)質(zhì)量和正確率,這兩個(gè)指標(biāo)均在區(qū)間[5,20]處于上升階段,當(dāng)σ=20時(shí)取得最大值,這是由于當(dāng)參數(shù)過(guò)小時(shí),提取的中心線可能會(huì)產(chǎn)生不必要的“毛刺”現(xiàn)象,而正確率指標(biāo)在區(qū)間[20,45]局部下降,之后基本保持不變。完整率和檢測(cè)質(zhì)量指標(biāo)在區(qū)間[20,45]之間,精度均處于下降階段,且變化較為明顯,這是由于參數(shù)過(guò)大時(shí),部分中心線擬合的并不完整(例如:小環(huán)形道路擬合成折線)。當(dāng)σ=20時(shí),在區(qū)間[5,45]取得全局最優(yōu)值,因此,選取20作為中心線提取參數(shù)。從圖10(c)可以看出,隨著分割尺度層數(shù)n的增加,3個(gè)精度評(píng)價(jià)指標(biāo)精度變化較為平緩,精度上無(wú)顯著提高。由于尺度的增加會(huì)大大降低處理的效率,因此綜合考慮,本文將分割尺度定為4。
2.4 結(jié)果討論與分析
文獻(xiàn)[9]提出的方法中,其采用了對(duì)象級(jí)結(jié)構(gòu)特征,而該特征的獲取受到影像分割的影響,由于同譜異物等現(xiàn)象,相似地物容易分割在一起,因此容易形成“粘連”現(xiàn)象。文獻(xiàn)[6]和文獻(xiàn)[11]提出的方法中,本身從像元級(jí)的角度出發(fā),且僅顧及了像元的光譜特征,易形成“鹽噪聲”和斷裂現(xiàn)象,需要后續(xù)復(fù)雜的算法進(jìn)行斷裂道路段連接,而本文利用張量投票算法,很好地解決了斷裂道路連接問(wèn)題。而且文獻(xiàn)[6]和文獻(xiàn)[11]所提算法,對(duì)初始提取的道路段,設(shè)計(jì)了多個(gè)形狀特征組合的方式進(jìn)行非道路段去除,且閾值的設(shè)置依靠經(jīng)驗(yàn),影響了算法的自動(dòng)化程度和效率。文獻(xiàn)[6]提出的算法,需要人工精心選擇兩個(gè)5×5像元大小的道路模板,且分割閾值的確定,需要經(jīng)驗(yàn)判斷,當(dāng)?shù)缆穼挾刃∮?個(gè)像元的大小時(shí),容易造成漏提取(如試驗(yàn)2 QuickBird影像所示)。文獻(xiàn)[25]提出的算法,考慮了影像的空間結(jié)構(gòu)特征,利用道路區(qū)域通常較為勻質(zhì)的性質(zhì),設(shè)計(jì)了一種基于結(jié)合像元級(jí)光譜-空間特征的道路提取算法,較好地改善了同譜異物現(xiàn)象,且道路邊緣較為理想,但是隨著空間特征尺度的增加,會(huì)對(duì)寬度和長(zhǎng)度較小的道路產(chǎn)生“掩蓋”的作用,最終的特征組合方式,與文獻(xiàn)[9]提出的算法類(lèi)似,采用了特征疊加的方式進(jìn)行處理,當(dāng)空間特征維度增加時(shí),對(duì)光譜特征會(huì)產(chǎn)生一定的影響,會(huì)在一定程度上影響道路網(wǎng)的完整性。
像元級(jí)道路提取易產(chǎn)生的“鹽噪聲”現(xiàn)象和面對(duì)對(duì)象易產(chǎn)生的粘連現(xiàn)象,對(duì)后續(xù)道路提取和中心線的形成產(chǎn)生了比較嚴(yán)重的影響。本文提出的方法,主要有以下3個(gè)方面的優(yōu)點(diǎn):①利用了像元級(jí)形狀結(jié)構(gòu)特征、紋理結(jié)構(gòu)特征、線性結(jié)構(gòu)特征,像元級(jí)空間特征的融入,有效改善了光譜特征的不足,多尺度對(duì)象級(jí)光譜特征能夠更好地描述地物本身屬性和平滑部分地物“噪聲”;②本文采用證據(jù)理論進(jìn)行多特征融合,能夠修正少數(shù)特征下的錯(cuò)誤提取結(jié)果,且能避免高維空間特征對(duì)光譜特征的影響,使提取的道路區(qū)域更加完善與準(zhǔn)確;③本文設(shè)計(jì)的自適應(yīng)去除算法,有效地減少了人為干預(yù),提高了算法的效率??傊?,本文提出了一個(gè)完整的高分影像道路中心線提取算法。通過(guò)開(kāi)展不同的試驗(yàn)表明,本文算法能夠?yàn)閷?shí)際應(yīng)用和其他研究方向提供參考和借鑒。
本文提出了一種融合像元-多尺度對(duì)象級(jí)特征的高分辨率遙感影像道路中心線提取方法。該方法結(jié)合了像元級(jí)和對(duì)象級(jí)道路提取各自的優(yōu)點(diǎn),較好地改善了基于像元級(jí)道路提取易產(chǎn)生的“鹽噪聲”現(xiàn)象,與面向?qū)ο蟮缆诽崛∫桩a(chǎn)生的粘連現(xiàn)象。試驗(yàn)證明,像元級(jí)特征和對(duì)象級(jí)特征融合的道路提取算法是可行的,且比單一層次取得更好的結(jié)果。此外,本文還提出了一種新的非道路區(qū)域自動(dòng)去除算法,改善了初始道路提取后需要較多的后續(xù)處理問(wèn)題,提高了道路提取的準(zhǔn)確性。由于本文是基于監(jiān)督學(xué)習(xí)的方法來(lái)提取道路中心線,需要借助于地表真實(shí)值訓(xùn)練樣本,因此在今后的研究中將進(jìn)一步探索非監(jiān)督模式下的道路提取策略。
[1] 史文中,朱長(zhǎng)青,王昱.從遙感影像提取道路特征的方法綜述與展望[J].測(cè)繪學(xué)報(bào),2001,30(3): 257-262.DOI: 10.3321/j.issn:1001-1595.2001.03.014.
SHI Wenzhong,ZHU Changqing,WANG Yu.Road Feature Extraction from Remotely Sensed Image: Review and Prospects[J].Acta Geodaetica et Cartographica Sinica,2001,30(3): 257-262.DOI: 10.3321/j.issn:1001-1595.2001.03.014.
[2] 傅罡,趙紅蕊,李聰,等.曲折道路遙感影像圓投影匹配改進(jìn)追蹤法[J].測(cè)繪學(xué)報(bào),2014,43(7): 724-730.DOI: 10.13485/j.cnki.11-2089.2014.0097.
FU Gang,ZHAO Hongrui,LI Cong,et al.A Method by Improved Circular Projection Matching of Tracking Twisty Road from Remote Sensing Imagery[J].Acta Geodaetica et Cartographica Sinica,2014,43(7): 724-730.DOI: 10.13485/j.cnki.11-2089.2014.0097.
[3] 李曉峰,張樹(shù)清,韓富偉,等.基于多重信息融合的高分辨率遙感影像道路信息提取[J].測(cè)繪學(xué)報(bào),2008,37(2): 178-184.DOI: 10.3321/j.issn:1001-1595.2008.02.009.
LI Xiaofeng,ZHANG Shuqing,HAN Fuwei,et al.Road Extraction from High-resolution Remote Sensing Images Based on Multiple Information Fusion[J].Acta Geodaetica et Cartographica Sinica,2008,37(2): 178-184.DOI: 10.3321/j.issn:1001-1595.2008.02.009.
[4] 李怡靜,胡翔云,張劍清,等.影像與LiDAR數(shù)據(jù)信息融合復(fù)雜場(chǎng)景下的道路自動(dòng)提取[J].測(cè)繪學(xué)報(bào),2012,41(6): 870-876.LI Yijing,HU Xiangyun,ZHANG Jianqing,et al.Automatic Road Extraction in Complex Scenes Based on Information Fusion from LiDAR Data and Remote Sensing Imagery[J].Acta Geodaetica et Cartographica Sinica,2012,41(6): 870-876.
[5] 黃昕,張良培,李平湘.融合形狀和光譜的高空間分辨率遙感影像分類(lèi)[J].遙感學(xué)報(bào),2007,11(2): 193-200.HUANG Xin,ZHANG Liangpei,LI Pingxiang.Classification of High Spatial Resolution Remotely Sensed Imagery Based on the Fusion of Spectral and Shape Features[J].Journal of Remote Sensing,2007,11(2): 193-200.
[6] CHAUDHURI D,KUSHWAHA N K,SAMAL A.Semi-Automated Road Detection from High Resolution Satellite Images by Directional Morphological Enhancement and Segmentation Techniques[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2012,5(5): 1538-1544.
[7] 雷小奇,王衛(wèi)星,賴均.一種基于形狀特征進(jìn)行高分辨率遙感影像道路提取方法[J].測(cè)繪學(xué)報(bào),2009,38(5): 457-465.DOI: 10.3321/j.issn:1001-1595.2009.05.013.
LEI Xiaoqi,WANG Weixing,LAI Jun.A Method of Road Extraction from High-resolution Remote Sensing Images Based on Shape Features[J].Acta Geodaetica et Cartographica Sinica,2009,38(5): 457-465.DOI: 10.3321/j.issn:1001-1595.2009.05.013.
[8] MIAO Zelang,SHI Wenzhong,GAMBA P,et al.An Object-based Method for Road Network Extraction in VHR Satellite Images[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2015,8(10): 4853-4862.
[9] HUANG Xin,ZHANG Liangpei.Road Centreline Extraction from High-resolution Imagery Based on Multiscale Structural Features and Support Vector Machines[J].International Journal of Remote Sensing,2009,30(8): 1977-1987.
[10] LI Mengmeng,STEIN A,BIJKER W,et al.Region-based Urban Road Extraction from VHR Satellite Images Using Binary Partition Tree[J].International Journal of Applied Earth Observation and Geoinformation,2016,44: 217-225.
[11] MIAO Zelang,SHI Wenzhong,ZHANG Hua,et al.Road Centerline Extraction from High-resolution Imagery Based on Shape Features and Multivariate Adaptive Regression Splines[J].IEEE Geoscience and Remote Sensing Letters,2013,10(3): 583-587.
[12] 李剛,萬(wàn)幼川.基于改進(jìn)的像素級(jí)和對(duì)象級(jí)的遙感影像合成分類(lèi)[J].測(cè)繪學(xué)報(bào),2012,41(6): 891-897.LI Gang,WAN Youchuan.Synthesis Classification of Remote Sensing Image Based on Improved Pixel-level and Object-Level Methods[J].Acta Geodaetica et Cartographica Sinica,2012,41(6): 891-897.
[13] 張春森,鄭藝惟,黃小兵,等.高光譜影像光譜-空間多特征加權(quán)概率融合分類(lèi)[J].測(cè)繪學(xué)報(bào),2015,44(8): 909-918.DOI: 10.11947/j.AGCS.2015.20140544.
ZHANG Chunsen,ZHENG Yiwei,HUANG Xiaobing,et al.Hyperspectral Image Classification Based on the Weighted Probabilistic Fusion of Multiple Spectral-spatial Features[J].Acta Geodaetica et Cartographica Sinica,2015,44(8): 909-918.DOI: 10.11947/j.AGCS.2015.20140544.
[14] OJALA T,PIETIKAINEN M,MAENPAA I,et al.Multiresolution Gray-scale and Rotation Invariant Texture Classification with Local Binary Patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7): 971-987.
[15] HUANG Xin,ZHANG Liangpei,LI Pingxiang.Classification and Extraction of Spatial Features in Urban Areas Using High-resolution Multispectral Imagery[J].IEEE Geoscience and Remote Sensing Letters,2007,4(2): 260-264.
[16] FRANGI A F,NIESSEN W J,VINCKEN K L,et al.Multiscale Vessel Enhancement Filtering[M]∥WELLS W M,COLCHESTER A,DELP S L.Medical Image Computing and Computer-assisted Intervention.Berlin: Springer,1998: 130-137.
[17] HAY G J,BLASCHKE T,MARCEAU D J,et al.A Comparison of Three Image-object Methods for the Multiscale Analysis of Landscape Structure[J].ISPRS Journal of Photogrammetry and Remote Sensing,2003,57(5-6): 327-345.
[18] ZHOU Qifeng,ZHOU Hao,ZHOU Qingqing,et al.Structural Damage Detection Based on Posteriori Probability Support Vector Machine and Dempster-shafer Evidence Theory[J].Applied Soft Computing,2015,36: 368-374.
[19] CHANG C C,LIN C J.LibSVM: A Library for Support Vector Machines[J].ACM Transactions on Intelligent Systems and Technology,2006,2(3): 27.
[20] PLATT J C.Probabilistic Outputs for Support Vector Machines and Comparisons to Regularized Likelihood Methods[M]∥SMOLA A J,BARTLETT P,SCH?LKOPF B,et al.Advances in Large Margin Classifiers.Cambridge,MA: MIT Press,1999.
[21] OTSU N.A Threshold Selection Method from Gray-level Histograms[J].IEEE Transactions on Systems,Man,and Cybernetics,1979,9(1): 62-66.
[22] 沈大江,王崢,田金文.基于張量投票算法的SAR圖像道路提取方法[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2009,37(4): 51-54.SHEN Dajiang,WANG Zheng,TIAN Jinwen.Road Networks Detection in SAR Images Using Tensor Voting Algorithm[J].Journal of Huazhong University of Science & Technology (Natural Science Edition),2009,37(4): 51-54.
[23] CHEN Qiang,SUN Quansen,HENG P A,et al.A Double-threshold Image Binarization Method Based on Edge Detector Pattern Recognition[J].Pattern Recognition,2008,41(4): 1254-1267.
[24] HEIPKE C,MAYER H,WIEDEMANN C,et al.Evaluation of Automatic Road Extraction[C]∥Proceedings of the International Archives of Photogrammetry,Remote Sensing and Spatial Information Sciences.Tokyo:ISPRS,1997: 151-160.
[25] SHI Wenzhong,MIAO Zelang,DEBAYLE J.An Integrated Method for Urban Main-road Centerline Extraction from Optical Remotely Sensed Imagery[J].IEEE Transactions on Geoscience and Remote Sensing,2014,52(6): 3359-3372.
(責(zé)任編輯:叢樹(shù)平)
Fusion of Pixel-based and Object-based Features for Road Centerline Extraction from High-resolution Satellite Imagery
CAO Yungang1,2,WANG Zhipan1,2,SHEN Li1,2,XIAO Xue1,2,YANG Lei3
1.State-province Joint Engineering Laboratory of Spatial Information Technology of High-speed Railway Safety,Southwest Jiaotong University,Chengdu 611756,China; 2.Faculty of Geosciences and Environmental Engineering Southwest Jiaotong University,Chengdu 611756,China; 3.Sichuan Province Second Geographic Information Engineering Institute of Surveying and Mapping,Chengdu 610100,China
A novel approach for road centerline extraction from high spatial resolution satellite imagery is proposed by fusing both pixel-based and object-based features.Firstly,texture and shape features are extracted at the pixel level,and spectral features are extracted at the object level based on multi-scale image segmentation maps.Then,extracted multiple features are utilized in the fusion framework of Dempster-Shafer evidence theory to roughly identify the road network regions.Finally,an automatic noise removing algorithm combined with the tensor voting strategy is presented to accurately extract the road centerline.Experimental results using high-resolution satellite imageries with different scenes and spatial resolutions showed that the proposed approach compared favorably with the traditional methods,particularly in the aspect of eliminating the salt noise and conglutination phenomenon.
high resolution remote sensing; multiple feature fusion; road extraction; pixel-based; object-based
The National Basic Research Program of China(973 Program) (No.2012CB719901); The National Natural Science Foundation of China (Nos.41201434;41401374); The Key Laboratory of Digital Mapping and Land Information Application of National Administration of Surveying,Mapping and Geoinformation(No.DM2016SC06);Geographical Condition Monitoring Engineering Technology Research Center of Sichuan Province((No.GC201516))
CAO Yungang(1978—),male,associate professor,majors in remote sensing of resources and environment.
SHEN Li
曹云剛,王志盼,慎利,等.像元與對(duì)象特征融合的高分辨率遙感影像道路中心線提取[J].測(cè)繪學(xué)報(bào),2016,45(10):1231-1240.
10.11947/j.AGCS.2016.20160158.
CAO Yungang,WANG Zhipan,SHEN Li,et al.Fusion of Pixel-based and Object-based Features for Road Centerline Extraction from High-resolution Satellite Imagery[J].Acta Geodaetica et Cartographica Sinica,2016,45(10):1231-1240.DOI:10.11947/j.AGCS.2016.20160158.
P237
A
1001-1595(2016)10-1231-10
國(guó)家重點(diǎn)基礎(chǔ)研究計(jì)劃(2012CB719901);國(guó)家自然科學(xué)基金(41201434;41401374);數(shù)字制圖與國(guó)土信息應(yīng)用工程國(guó)家測(cè)繪地理信息局重點(diǎn)實(shí)驗(yàn)室開(kāi)放基金(DM2016SC06);四川省地理國(guó)情監(jiān)測(cè)工程技術(shù)研究中心開(kāi)放基金(GC201516)
2016-04-07
修回日期:2016-06-16
曹云剛(1978—),男,副教授,研究方向?yàn)橘Y源與環(huán)境遙感。
E-mail:yungang@swjtu.cn
慎利
E-mail:rsshenli@outlook.com