亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視覺顯著性與知覺組織相結合的高分影像居民地提取方法

        2018-01-02 07:07:29陳一祥
        測繪學報 2017年12期
        關鍵詞:紋理顯著性居民

        陳一祥,秦 昆,張 曄,袁 媛

        1. 南京郵電大學地理與生物信息學院,江蘇 南京 210023; 2. 安徽省智慧城市與地理國情監(jiān)測重點實驗室,安徽 合肥 230031; 3. 武漢大學遙感信息工程學院,湖北 武漢 430079

        視覺顯著性與知覺組織相結合的高分影像居民地提取方法

        陳一祥1,2,秦 昆3,張 曄3,袁 媛1

        1. 南京郵電大學地理與生物信息學院,江蘇 南京 210023; 2. 安徽省智慧城市與地理國情監(jiān)測重點實驗室,安徽 合肥 230031; 3. 武漢大學遙感信息工程學院,湖北 武漢 430079

        受人類視覺認知機制的啟發(fā),提出了一種利用視覺顯著性與知覺組織相結合的高分辨率遙感影像居民地提取方法。首先利用認知物理學中的數(shù)據(jù)場構建居民地的視覺顯著性模型,并通過自適應閾值法實現(xiàn)候選居民地的自動提取,然后利用多尺度小波變換的高頻特征實現(xiàn)居民地的知覺組織,最后通過集合交運算提取同時滿足這兩種視覺機制的居民地。通過ZY-3和Quickbird兩種高分傳感器的影像數(shù)據(jù)集進行居民地提取試驗,驗證了該方法的有效性。

        高分辨率遙感影像;視覺顯著性;數(shù)據(jù)場;知覺組織;小波變換;居民地提取

        近年來,高空間分辨率(高分)對地觀測技術得到了快速發(fā)展,其分辨率已達到亞米級的水平,因而能夠在更精細的尺度上實現(xiàn)對地物的觀測[1]。居民地是一種建設用地,它是由建筑物(主要是房屋)聚集覆蓋而構成的區(qū)域,及時準確地獲取居民地信息對于基礎地理數(shù)據(jù)庫構建與更新、土地利用規(guī)劃、城鎮(zhèn)擴張及其動態(tài)監(jiān)測等具有重要的意義。

        高分影像具有光譜信息相對不足、光譜異質性較大而紋理、結構等空間信息豐富的特點,基于多光譜或高光譜的目標分類與探測技術[2-3]一般不適合高分影像居民地的提取。目前對于高分影像居民地的提取更多地是利用其紋理、結構等空間特征?;诩y理特征的方法把居民地看成是一個紋理對象,通常使用灰度共生矩陣(GLCM)[4]、Gabor變換[5]、空間統(tǒng)計[6]等方法描述居民地紋理。比如,PanTex是一種基于灰度共生矩陣(GLCM)紋理構建的表征居民地存在性的指數(shù),對SPOT-5全色影像具有很強的穩(wěn)健性[4]。由于不關注居民地內部的幾何結構,該類方法對于分辨率低于1 m(比如2~5 m)時效果較好,但當分辨率較高時(比如亞米級)往往不能獲得理想的結果。

        隨著影像分辨率的提高,居民地內部幾何結構及其空間布局更加明顯,局部結構特征為居民地的提取提供了新的線索。在較高分辨率的影像上,居民地內部單個建筑物已可識別,建筑物的點、線、面等幾何結構特征成為居民地提取的有效判據(jù)。相關的研究工作主要包括:基于局部特征點分布和空間投票[7]、利用局部邊緣密度和均衡性[8]、利用角點[9-10]以及融合直角點和直角邊[11]的高分影像城市區(qū)/居民地提取方法。這類方法主要依賴于居民地局部的點、線等幾何結構特征及它們的空間分布,對于較高分辨率(比如亞米級)的影像,通常會比基于紋理的方法表現(xiàn)出更優(yōu)越的性能。但居民地內部的點、線等幾何結構特征常與其他地物有混淆,比如道路、農田等也具有明顯的角點和邊緣特征,這常常會導致居民地的偽檢,因此需要更進一步的特征或模型進行驗證。

        近年來隨著認知科學、計算機視覺和人工智能等技術的發(fā)展,視覺認知規(guī)律和計算模型開始被引入高分影像典型地物的提取。場景中顯著的對象或區(qū)域更容易引起生物視覺的注意,因此模擬視覺注意機制的顯著性模型被提出,用于實現(xiàn)興趣目標的識別[12-13]和場景理解[14-15]。對于高分影像中的居民地,近幾年已有相關的研究,使用的主要是小波變換的方法,比如非下采樣輪廓波變換(non subsampled contourlet transform,NSCT)[16-17]、提升小波變換(lifting wavelet transform,LWT)[18]等,通過小波變換來建模人類視覺注意對居民地的紋理響應,然后構建居民地的顯著性模型。這類方法由于模擬人類視覺機制,在模型上通常更勝一籌,但目前的方法主要是根據(jù)色調或紋理特征來建立居民地的顯著性模型,模擬的是人類視覺對地物的感知方法。神經科學和認知科學的研究表明,除了對顯著地物的感知,人類的視覺機制還具有將圖像中的基本結構組織成完整目標的能力,即知覺組織能力[19-20]。符合知覺組織規(guī)律的目標,一般會具有更大的顯著性,更容易引起人的視覺注意。

        基于以上分析,本文認為在對地物的識別過程中,視覺注意與知覺組織這兩種機制都發(fā)揮了作用,綜合利用紋理和結構特征能夠提高高分影像居民地判別能力。鑒于此,本文提出一種利用視覺顯著性與知覺組織相結合的居民地提取方法。該方法首先基于局部的角點分布構建居民地的視覺顯著性模型,并通過閾值分割獲得候選的居民地區(qū)域,然后根據(jù)局部紋理特征的一致性,利用基于區(qū)域的知覺組織和集合交運算實現(xiàn)居民地的精提取,具體流程如圖1所示。

        圖1 技術流程Fig.1 The work flow of the proposed method

        1 基于視覺顯著性的候選居民地提取

        1.1 基于數(shù)據(jù)場的視覺顯著性建模

        本文引入認知物理學中的數(shù)據(jù)場方法來構建居民地的視覺顯著性模型?!皥觥笔俏锢韺W中的概念,用來描述非接觸對象之間的相互作用。把物理學中場的概念引入數(shù)域空間,將每個數(shù)據(jù)對象看成是具有一定質量的質點,其周圍存在一個作用場,位于該場中的任何數(shù)據(jù)對象都將會受到其他數(shù)據(jù)對象的聯(lián)合作用,那么這個數(shù)域空間就構成了一個數(shù)據(jù)場[21]。借鑒物理學中“勢”的概念,數(shù)據(jù)場使用勢函數(shù)來描述數(shù)據(jù)對象之間的相互作用。勢函數(shù)一般具有以下特性:空間任一點的勢值大小與場源強度參數(shù)成正比,并隨該點與場源距離的增大而減小。

        本文將高分影像中的居民地看成是由內部建筑物(或其局部結構)構成的場,居民地內部由于建筑物顯著的局部視覺特征(如點、邊線、屋頂面、陰影等)以及這些特征的聚集分布,使得居民地整體上具有更大的顯著性,也就具有了更大的勢值。相關研究表明,影像中的角點特征具有良好的定位和表征建筑物的能力[22]。設圖像中共有n個角點,其構成的集合為P={p1,p2,…,pn},如果選擇局部的角點作為質點,則這n個質點可以形成一個數(shù)據(jù)場。對于質點pi,它在影像任意一點p處的勢值φi(p)若用高斯函數(shù)來表示,則

        (1)

        式中,mi為質點pi的質量,與該點局域的特征有關;σ為表征勢函數(shù)作用范圍的參數(shù),其取值與影像的分辨率以及建筑物自身的特征(如尺寸)相關,本文通過試驗發(fā)現(xiàn),對于高分影像,其取值在6到9時較合適。

        基于數(shù)據(jù)場的疊加原理,影像中點p處在n個質點的聯(lián)合作用下,其勢值為

        (2)

        (3)

        將勢值φ(p)作為影像中p點處的顯著性度量,可得到居民地視覺顯著性的定量模型。目前計算機視覺領域已有許多角點檢測算子,總體上可分為兩大類:基于圖像邊緣的方法和基于圖像灰度的方法[24],前者依賴于圖像的分割和邊緣提取,對遙感圖像具有較大的計算難度和計算量,而后者通過計算點的梯度和曲率來進行角點檢測,可以避免第1類方法的不足。因此本文利用后者,并選擇其中代表性的Harris算子[25]進行試驗。

        1.2 候選居民地提取

        通過上文構建的數(shù)據(jù)場模型可以獲得影像中任意一點的顯著性值(即勢值),由于影像中的角點主要存在于居民地內部并且聚集分布,這將會使居民地較非居民地獲得更大的視覺顯著性值。為此,可以設置一個顯著性閾值T0,輸出滿足條件φ(p)>T0的像素區(qū)域R0={p|φ(p)>T0}作為候選的居民地。目前已有許多自動選擇閾值的方法,如Rosin的單峰直方圖閾值法[26]、Otsu的最大類間方差法[27]等,本文選擇后者,自動獲得目標與背景分割的最佳閾值參數(shù),實現(xiàn)候選居民地的提取。居民地提取本質上是一個二分類問題,Otsu最大類間方差法是一種自適應地確定閾值的方法,該方法根據(jù)圖像的灰度特性,將圖像分成目標和背景兩部分。它的優(yōu)勢表現(xiàn)在:基于該方法確定的分割閾值,能夠使得目標和背景之間的類間方差最大,這也就意味著錯分概率最小。

        2 基于區(qū)域的居民地知覺組織

        2.1 視知覺組織

        人類視覺系統(tǒng)能夠快速而又準確地完成物體識別的另一機制是知覺組織,即只需根據(jù)場景中感知的局部線索,就可以將其組織成完整的目標。格式塔心理學派提出了一套適合視覺系統(tǒng)進行知覺組織的規(guī)律,包括接近性、相似性、閉合性等[19]。知覺組織和視覺顯著性并不是割裂的,符合知覺組織規(guī)律的目標會具有更大的顯著性,更容易完成物體的識別。

        模擬人類視覺系統(tǒng),本文把居民地的識別看成是知覺組織的過程。在遙感領域,知覺組織方法已被用于道路[28]、矩形建筑屋頂[29]的提取,主要是對局部的邊緣或線特征進行組織。鑒于居民地的復雜性,不適合使用基于邊線特征的知覺組織法,本文提出使用基于區(qū)域的方法實現(xiàn)居民地的知覺組織。該方法首先對影像進行規(guī)則分塊,將每個矩形子塊作為局部視覺感知的基本單元,然后獲得每個子塊具有一致性的視覺特征,并根據(jù)特征相似性或一致性將居民地子塊組織成完整的目標。

        2.2 居民地紋理特征描述

        除了上文提到的點、線、面等幾何結構特征,高分影像中居民地還具有豐富的紋理特征,在視覺上它表現(xiàn)為更高頻率的亮度變化,并且這種特性還會因距離遠近的不同而產生差異(即具有多尺度特性),為此本文引入多尺度小波變換來建模每個子區(qū)域的紋理特征。

        多尺度小波變換能夠把信號分解成低頻和高頻成分,前者對應信號的近似部分(approximation,A),后者對應信號的細節(jié)部分(details,D)。對于2D圖像f(x,y),在分辨率為2j下的近似(A)和細節(jié)(D)部分可由下面的卷積公式來計算[30]

        2-jm)](n,m)∈Z2

        (4)

        2-jm)](n,m)∈Z2

        (5)

        2-jm)](n,m)∈Z2

        (6)

        2-jm)](n,m)∈Z2

        (7)

        式中,j為分解層次;m和n為整數(shù);φ(x)為一維尺度函數(shù);ψ(x)為一維小波函數(shù)。一般來說,φ(x)為平滑函數(shù)(smoothing function),用來提供低頻信息(低通濾波器);ψ(x)為差異函數(shù)(differencing function),用來提供高頻信息(高通濾波器)。

        鑒于居民地具有更高的頻率特性,本文使用小波分解的高頻成分來描述居民地的紋理特征。首先對子區(qū)域進行小波分解,獲得高頻和低頻成分,然后利用水平、垂直和對角3個方向的高頻成分來對居民地的紋理進行描述,并定義如下的特征描述參數(shù)

        (1) 對數(shù)能量(log energy,LOG)

        (8)

        (2) 香農指數(shù)(Shannon’s index,SHAN)

        (9)

        式中,P(i,j)為分解圖像中第(i,j)個像元小波系數(shù)值。

        2.3 紋理一致性的居民地知覺組織

        在將影像進行規(guī)則分塊獲得的子區(qū)域中,屬于居民地的子區(qū)域應該具有一致的紋理特征,為此本文利用該規(guī)則將隸屬于居民地的子區(qū)域組織成完整的居民地目標。具體過程如下:

        (1) 獲取居民地樣本的小波特征。本文采用自動化的方式來獲得居民地樣本:首先計算影像中角點分布的密度,然后以具有極大密度的角點為中心,定義大小為s·s的矩形區(qū)域作為居民地樣本,并根據(jù)式(8)—式(9)計算其小波紋理特征參數(shù),分別記為S_F1和S_F2。

        (2) 對影像進行規(guī)則分塊并計算每個子塊的小波特征描述參數(shù)。將原始影像(包含m·n個像素)進行規(guī)則網格分塊,劃分成M·N個邊長為L的影像子塊,則M=floor(m/L),N=floor(m/L),這里floor為向下取整函數(shù)。當m和n都能是L的整數(shù)倍時,獲得的每個矩形子塊的邊長都為L,否則會在影像的邊界處得到一邊長為L另一邊長小于L或者兩邊長都小于L的矩形子塊。對每個影像子塊按式(8)—式(9)計算其小波紋理特征參數(shù)。對于第i個子塊Bi,其LOG和SHAN特征值分別記為Bi_F1和Bi_F2。

        (3) 基于紋理特征一致性對居民地進行知覺組織。根據(jù)各影像子塊與居民地樣本紋理特征的一致性,將滿足規(guī)則式(10)的子塊標記為居民地,否則標記為非居民地(即背景)

        (10)

        式中,i=1,2,…;M×N為影像塊的編號;k=1或2,k=1為LOG特征,k=2為SHAN特征;T(≥0)為一致性閾值參數(shù),T越小則影像子塊與居民地樣本的紋理特征越一致。

        3 居民地精提取

        高分影像中的居民地不僅具有視覺顯著性,還符合知覺組織規(guī)律,并且這兩者是相互關聯(lián)的,即符合知覺組織規(guī)律的目標會具有更強的視覺顯著性。鑒于此,本文進一步提取同時滿足這兩種視覺機制的居民地,使得居民地的邊界范圍更加準確。假設基于這兩種視覺機制提取的居民地分別為R1和R2,同時符合這種機制的居民地為R,則

        R=R1∩R2

        (11)

        在前面的視覺顯著性模型和知覺組織模型中,筆者分別利用了居民地角點結構特征和紋理特征,此時按式(11)提取的居民地也就同時利用了這兩種特征,增加了居民地提取的可靠性。圖2為該過程的一組試驗,其中圖2(a)為原始Quickbird影像數(shù)據(jù),圖2(b)和圖2(c)為分別利用視覺顯著性和知覺組織獲得的候選居民地,而圖2(d)為同時滿足這兩種視覺機制的提取結果。可以看出,通過取交運算,居民地的邊界更為準確,周邊的噪聲區(qū)域大大減少。

        圖2 居民地精提取過程Fig.2 The refinement process of residential area extraction

        4 試驗分析

        為驗證該方法的有效性,筆者將其應用于高分影像居民地的提取。試驗中試驗了包括資源三號(ZY-3)和Quickbird兩種不同傳感器的全色影像,其空間分辨率分辨為2.1 m和0.61 m。試驗結果采用查準率(precision,P)、查全率(recall,R)和F1-score 3個指標進行評估,其定義分別為

        (12)

        (13)

        (14)

        式中,TP(true positive)為真正類,表示提取的居民地是真實居民地的像元數(shù)目;FP(false positive)為假正類,表示提取的居民地是非居民地的像元數(shù)目;FN(false negative)為假負類,表示提取的非居民地是居民地的像元數(shù)目。

        試驗中涉及的主要參數(shù)包括數(shù)據(jù)場模型的帶寬σ、知覺組織中影像規(guī)則分塊的尺寸L、相似性閾值T。以圖2(a)中的影像數(shù)據(jù)為例,圖3展示了這3個參數(shù)的不同取值對提取結果的影響,這里采用固定兩個參數(shù)(L=40,T=0.5;σ=8,T=0.5;σ=8,L=40)來看F1-score隨第3個參數(shù)的變化情況。通過對多幅影像數(shù)據(jù)進行多次試驗,帶寬σ合理取值在7附近,L的合理取值在40附近,T的合理取值在0.4~0.6,對于σ=7,L=40,T=0.5,大部分數(shù)據(jù)都可以達到較好的結果,其提取的精度已達到或接近最優(yōu)。

        在基于視覺顯著性和知覺組織獲得居民地后,在其周圍有時還會存在離散分布的噪聲區(qū)域或者在其內部存在小的空洞,這破壞了居民地的形狀完整性,為此筆者增加了另外兩個參數(shù)以進一步優(yōu)化居民地的提取,一個是描述噪聲區(qū)域面積的閾值T1,一個是描述空洞面積大小的閾值T2,即居民地外部面積小于T1的噪聲區(qū)域被去除,而居民地內部面積小于T2的噪聲區(qū)域被填充,通過試驗,這兩個參數(shù)設置為T1=L·L=1600,T2=3·T1=4800,可保證提取的大部分居民地獲得較完整的拓撲形態(tài)。

        圖3 參數(shù)試驗Fig.3 Parameter tests

        在知覺組織過程中,本文基于小波變換定義了LOG和SHAN兩個紋理特征描述參數(shù),其各自的性能分別進行了試驗,在該數(shù)據(jù)集上使用這兩種特征的精度評估結果如表1所示。表1中第1列為數(shù)據(jù)集編號,其中編號1—6為6幅河南登封地區(qū)不同場景的ZY-3全色影像,編號7—12為6幅武漢地區(qū)不同場景的Quickbird全色影像。由該表中的具體數(shù)值可以看出,對于該試驗數(shù)據(jù),本文的方法能夠獲得較高的精度,大部分的居民地場景,其F1-score值可以達到85%以上,對于簡單的場景,其F1-score值可以達到90%左右。另外,通過比較LOG和SHAN兩種小波特征的居民地提取結果,可以看出使用這兩種特征獲得的精度是不一樣的,整體上LOG特征略好于SHAN特征的結果。

        表1 居民地提取精度評估結果

        在該數(shù)據(jù)集上,本文方法提取結果如圖4和圖5所示,其中圖4為ZY-3數(shù)據(jù)集提取結果,圖5為Quickbird數(shù)據(jù)集提取結果。在圖4和圖5中,第1列為原始影像數(shù)據(jù),第2列為居民地實況數(shù)據(jù),第3和第4列為分別使用LOG特征和SHAN特征的居民地提取結果。通過圖4和圖5可以看出,使用本文的方法能夠較好地實現(xiàn)高分影像居民地的提取,其提取的結果已非常接近居民地實況數(shù)據(jù),并且保持了良好的拓撲形態(tài),這將有利于對其進行矢量化處理,從而便于地理信息系統(tǒng)(GIS)的進一步應用。

        為進一步評估該方法的性能,筆者將其與經典的基于空間投票(spatial voting,SV)的方法[7]和基于視覺注意機制構建的BASI指數(shù)法[16-17]進行了比較。圖6為在該數(shù)據(jù)集上本文方法與SV方法F1-score的柱狀圖比較,每組的前2列為本文方法分別使用LOG特征和SHAN特征的結果,而第3列為SV方法的結果??傮w上看,本文方法獲得了更高的精度。另外,本文方法在獲得較高精度的同時,對不同傳感器的影像數(shù)據(jù)表現(xiàn)出了更好的穩(wěn)定性,而SV方法對Quickbird數(shù)據(jù)(序號7—12)效果較好,但對ZY-3數(shù)據(jù)(序號1—6)性能相對較差而且波動性較大,這可能是由于SV方法中的Gabor濾波器主要根據(jù)地物濾波響應的幅度差異來獲得局部特征點,影像中居民地域和非居民地域中常常發(fā)生相似的濾波響應特性,這時獲得的特征點就比較容易混淆。而本文的方法模擬人類視覺機制,同時利用了居民地的局部角結構特征和高頻的紋理特征,因而在提高精度同時也保證了性能的穩(wěn)定性。

        圖4 ZY-3影像數(shù)據(jù)提取結果Fig.4 Residential area extraction results of ZY-3 image data set

        圖7為本文方法與BASI指數(shù)法的F1-score值比較結果,從該圖可以看出,在ZY-3影像(序號1—6)上,本文方法與BASI性能接近,但在Quickbird影像(序號7—12)上,本文的方法表現(xiàn)出更優(yōu)越的性能。這是由于BASI指數(shù)僅利用紋理特征來描述居民地顯著性,在影像分辨率較高時,居民地的幾何結構特征以及知覺組織機制在視覺認知中會發(fā)揮越來越重要的作用,本文的方法正是利用了這一特性,因而會獲得相對更好的結果。

        圖5 Quickbird影像數(shù)據(jù)提取結果Fig.5 Residential area extraction results of Quickbird image data set

        5 結 論

        本文受人類視覺系統(tǒng)的視覺顯著性與知覺組織機理啟發(fā),提出了一種高分影像居民地提取方法。該方法認為高分影像中的居民地由于其特殊的紋理和結構特征,使其表現(xiàn)出視覺顯著性,而對于這種顯著性的認知是建立在知覺組織機制上的,符合知覺組織規(guī)律的局部特征才會具有更大的視覺顯著性。為此,本文分別提出了基于數(shù)據(jù)場的視覺顯著性模型和基于多尺度小波變換特征的居民地知覺組織方法,并提取了同時滿足這兩種視覺機制的居民地域。ZY-3和Quickbird兩種不同傳感器的多種場景高分影像數(shù)據(jù)集的居民地提取試驗表明,本文的方法能夠獲得較高的精度,并且提取的居民地域能夠保持良好的拓撲形態(tài),進一步的比較試驗也表明本文方法的優(yōu)越性。

        圖6 本文方法與SV方法的比較Fig.6 Comparison between the proposed method and SV

        圖7 本文方法與BASI方法的比較Fig.7 Comparison between the proposed method and BASI

        本文提出的方法雖然具有較多的參數(shù),但這些參數(shù)的設置相對容易,本文對兩種傳感器、不同場景的多幅試驗數(shù)據(jù)設置了統(tǒng)一的試驗參數(shù),整體上仍獲得了較好的試驗效果??紤]到不同數(shù)據(jù)本身的特點,這些參數(shù)若有針對性的進行適當調整,還可以獲得更好的試驗結果。如何自適應地獲得適合于數(shù)據(jù)自身特點的最佳參數(shù),從而實現(xiàn)居民地的更好提取是未來進一步要研究的問題。

        致謝:特別感謝田英潔博士提供的BASI算法的試驗結果,協(xié)助本文完成與BASI算法的比較。

        [1] 秦昆,陳一祥,甘順子,等.高分辨率遙感影像空間結構特征建模方法綜述[J].中國圖象圖形學報,2013,18(9):1055-1064.

        QIN Kun,CHEN Yixiang,GAN Shunzi,et al.Review on Methods of Spatial Structural Feature Modeling of High Resolution Remote Sensing Images[J].Journal of Image and Graphics,2013,18(9):1055-1064.

        [2] BHATTI S S,TRIPATHI N K.Built-up Area Extraction Using Landsat 8 OLI Imagery[J].GIScience & Remote Sensing,2014,51(4):445-467.

        [3] DU Bo,ZHANG Yuxiang,ZHANG Liangpei,et al.Beyond the Sparsity-based Target Detector:A Hybrid Sparsity and Statistics-based Detector for Hyperspectral Images[J].IEEE Transactions on Image Processing,2016,25(11):5345-5357.

        [4] PESARESI M,GERHARDINGER A,KAYITAKIRE F.A Robust Built-up Area Presence Index by Anisotropic Rotation:Invariant Textural Measure[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2008,1(3):180-192.

        [5] 陳洪,陶超,鄒崢嶸,等.一種新的高分辨率遙感影像城區(qū)提取方法[J].武漢大學學報(信息科學版),2013,38(9):1063-1067.

        CHEN Hong,TAO Chao,ZOU Zhengrong,et al.Automatic Urban Area Extraction Using a Gabor Filter and High-resolution Remote Sensing Imagery[J].Geomatics and Information Science of Wuhan University,2013,38(9):1063-1067.

        [6] 林晨曦,周藝,王世新,等.基于變差函數(shù)的中高分辨率SAR影像農村建筑區(qū)提取[J].中國圖象圖形學報,2016,21(5):674-682.

        LIN Chenxi,ZHOU Yi,WANG Shixin,et al.Variogram-based Rural Build-up Area Extraction from Middle and High Resolution SAR Images[J].Journal of Image and Graphics,2016,21(5):674-682.

        [7] SIRMACEK B,UNSALAN C.Urban Area Detection Using Local Feature Points and Spatial Voting[J].IEEE Geoscience and Remote Sensing Letters,2010,7(1):146-150.

        [8] HU Xiangyun,SHEN Jiajie,SHAN Jie,et al.Local Edge Distributions for Detection of Salient Structure Textures and Objects[J].IEEE Geoscience and Remote Sensing Letters,2013,10(3):466-470.

        [9] 陶超,鄒崢嶸,丁曉利.利用角點進行高分辨率遙感影像居民地檢測方法[J].測繪學報,2014,43(2):164-169,192.DOI:10.13485/j.cnki.11-2089.2014.0024.

        TAO Chao,ZOU Zhengrong,DING Xiaoli.Residential Area Detection from High-resolution Remote Sensing Imagery Using Corner Distribution[J].Acta Geodaetica et Cartographica Sinica,2014,43(2):164-169,192.DOI:10.13485/j.cnki.11-2089.2014.0024.

        [10] TAO Chao,TAN Yihua,ZOU Zhengrong,et al.Unsupervised Detection of Built-up Areas from Multiple High-resolution Remote Sensing Images[J].IEEE Geoscience and Remote Sensing Letters,2013,10(6):1300-1304.

        [11] 林祥國,寧曉剛.融合直角點和直角邊特征的高分辨率遙感影像居民點提取方法[J].測繪學報,2017,46(1):83-89.DOI:10.11947/j.AGCS.2017.20160389.

        LIN Xiangguo,NING Xiaogang.Extraction of Human Settlements from High Resolution Remote Sensing Imagery by Fusing Features of Right Angle Corners and Right Angle Sides[J].Acta Geodaetica et Cartographica Sinica,2017,46(1):83-89.DOI:10.11947/j.AGCS.2017.20160389.

        [12] 溫奇,李苓苓,劉慶杰,等.基于視覺顯著性和圖分割的高分辨率遙感影像中人工目標區(qū)域提取[J].測繪學報,2013,42(6):831-837.

        WEN Qi,LI Lingling,LIU Qingjie,et al.A Man-made Object Area Extraction Method Based on Visual Saliency Detection and Graph-cut Segmentation for High Resolution Remote Sensing Imagery[J].Acta Geodaetica et Cartographica Sinica,2013,42(6):831-837.

        [13] 許妙忠,叢銘,萬麗娟,等.視覺感受與Markov隨機場相結合的高分辨率遙感影像分割法[J].測繪學報,2015,44(2):198-205,213.DOI:10.11947/j.AGCS.2015.20130453.

        XU Miaozhong,CONG Ming,WAN Lijuan,et al.A Methodology of Image Segmentation for High Resolution Remote Sensing Image Based on Visual System and Markov Random Field[J].Acta Geodaetica et Cartographica Sinica,2015,44(2):198-205,213.DOI:10.11947/j.AGCS.2015.20130453.

        [14] ITTI L,KOCH C,NIEBUR E.A Model of Saliency-based Visual Attention for Rapid Scene Analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.

        [15] ZHANG Fan,DU Bo,ZHANG Liangpei.Saliency-guided Unsupervised Feature Learning for Scene Classification[J].IEEE Transactions on Geoscience and Remote Sensing,2015,53(4):2175-2184.

        [16] 沈小樂,邵振峰,田英潔.紋理特征與視覺注意相結合的建筑區(qū)提取[J].測繪學報,2014,43(8):842-847.DOI:j.cnki.11-2089.2014.0131.

        SHEN Xiaole,SHAO Zhenfeng,TIAN Yingjie.Built-up Areas Extraction by Textural Feature and Visual Attention Mechanism[J].Acta Geodaetica et Cartographica Sinica,2014,43(8):842-847.DOI:j.cnki.11-2089.2014.0131.

        [17] SHAO Zhenfeng,TIAN Yingjie,SHEN Xiaole.BASI:A New Index to Extract Built-up Areas from High-resolution Remote Sensing Images by Visual Attention Model[J].Remote Sensing Letters,2014,5(4):305-314.

        [18] ZHANG Libao,LI Aoxue,ZHANG Zhongjun,et al.Global and Local Saliency Analysis for the Extraction of Residential Areas in High-spatial-resolution Remote Sensing Image[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(7):3750-3763.

        [19] 羅四維.視覺信息認知計算理論[M].北京:科學出版社,2010.

        LUO Siwei.Perception Computing of Visual Information[M].Beijing:Science Press,2010.

        [20] SARKAR S,BOYER K L.Perceptual Organization in Computer Vision:A Review and a Proposal for a Classificatory Structure[J].IEEE Transactions on Systems,Man,and Cybernetics,1993,23(2):382-399.

        [21] LI Deyi,DU Yi.Artificial Intelligence with Uncertainty[M].Boca Raton:Chapman and Hall/CRC,2007.

        [22] MARTINEZ-FONTE L,GAUTAMA S,PHILIPS W,et al.Evaluating Corner Detectors for the Extraction of Man-made Structures in Urban Areas[C]∥Proceedings of 2005 IEEE International Geoscience and Remote Sensing Symposium.Seoul,South Korea:IEEE,2005:237-240.

        [23] WU Tao,QIN Kun.Data Field-based Transition Region Extraction and Thresholding[J].Optics and Lasers in Engineering,2012,50(2):131-139.

        [24] 王永明,王貴錦.圖像局部不變性特征與描述[M].北京:國防工業(yè)出版社,2010.

        WANG Yongming,WANG Guijin.Image Local Invariant Features and Descriptors[M].Beijing:National Defense Industry Press,2010.

        [25] HARRIS C,STEPHENS M.A Combined Corner and Edge Detector[C]∥Proceedings of Fourth Alvey Vision Conference.Manchester:University of Manchester,1988:147-152.

        [26] ROSIN P L.Unimodal Thresholding[J].Pattern Recognition,2001,34(11):2083-2096.

        [27] OTSU N.A Threshold Selection Method from Gray-level Histograms[J].IEEE Transactions on Systems,Man,and Cybernetics,1979,9(1):62-66.

        [28] HU Xiangyun,TAO V.Automatic Extraction of Main Road Centerlines from High Resolution Satellite Imagery Using Hierarchical Grouping[J].Photogrammetric Engineering and Remote Sensing,2007,73(9):1049-1056.

        [29] WANG Jun,YANG Xiucheng,QIN Xuebin,et al.An Efficient Approach for Automatic Rectangular Building Extraction from Very High Resolution Optical Satellite Imagery[J].IEEE Geoscience and Remote Sensing Letters,2015,12(3):487-491.

        [30] MYINT S W,LAM N S N,TYLER J M.Wavelets for Urban Spatial Feature Discrimination:Comparisons with Fractal,Spatial Autocorrelation,and Spatial Co-occurrence Approaches[J].Photogrammetric Engineering and Remote Sensing,2004,70(7):803-812.

        A Residential Area Extraction Method for High Resolution Remote Sensing Imagery by Using Visual Saliency and Perceptual Organization

        CHEN Yixiang1,2,QIN Kun3,ZHANG Ye3,YUAN Yuan1

        1. School of Geographic and Biologic Information,Nanjing University of Posts and Telecommunications,Nanjing 210023,China; 2. Anhui Key Laboratory of Smart City and Geographical Condition Monitoring,Hefei 230031,China; 3. School of Remote Sensing and Information Engineering,Wuhan University,Wuhan 430079,China

        Inspired by human visual cognitive mechanism,a method of residential area extraction from high-resolution remote sensing images was proposed based on visual saliency and perceptual organization. Firstly,the data field theory of cognitive physics was introduced to model the visual saliency and the candidate residential areas were produced by adaptive thresholding. Then,the exact residential areas were obtained and refined by perceptual organization based on the high-frequency features of multi-scale wavelet transform. Finally,the validity of the proposed method was verified by experiments conducted on ZY-3 and Quickbird image data sets.

        high-resolution remote sensing image;visual saliency;data field;perceptual organization;wavelet transform;residential area extraction

        The National Natural Science Foundation of China (No. 41501378);The Natural Science Foundation of Jiangsu Province of China (No. BK20150835);The Open Fund of Anhui Key Laboratory of Smart City and Geographical Condition Monitoring (No. 2016-K-03Z);The sScientific Research Foundation of Nanjing University of Posts and Telecommunications(No. NY214196)

        CHEN Yixiang(1984—),male,PhD,lecturer,majors in remote sensing image processing and information extraction.

        QIN Kun

        E-mail: qink@whu.edu.cn

        陳一祥,秦昆,張曄,等.視覺顯著性與知覺組織相結合的高分影像居民地提取方法[J].測繪學報,2017,46(12):1959-1968.

        10.11947/j.AGCS.2017.20170176.

        CHEN Yixiang,QIN Kun,ZHANG Ye,et al.A Residential Area Extraction Method for High Resolution Remote Sensing Imagery by Using Visual Saliency and Perceptual Organization[J]. Acta Geodaetica et Cartographica Sinica,2017,46(12):1959-1968. DOI:10.11947/j.AGCS.2017.20170176.

        P237

        A

        1001-1595(2017)12-1959-10

        國家自然科學基金(41501378);江蘇省自然科學基金(BK20150835);安徽省智慧城市與地理國情監(jiān)測重點實驗室開放性課題基金資助課題(2016-K-03Z);南京郵電大學引進人才科研啟動基金(NY214196)

        張艷玲)

        2017-04-17

        2017-10-26

        陳一祥(1984—),男,博士,講師,研究方向為遙感圖像處理與信息提取。

        E-mail: chenyixiang@njupt.edu.cn

        秦昆

        猜你喜歡
        紋理顯著性居民
        拜訪鳥居民
        石器時代的居民
        基于BM3D的復雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        基于顯著性權重融合的圖像拼接算法
        電子制作(2019年24期)2019-02-23 13:22:26
        使用紋理疊加添加藝術畫特效
        基于視覺顯著性的視頻差錯掩蓋算法
        TEXTURE ON TEXTURE質地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        一種基于顯著性邊緣的運動模糊圖像復原方法
        論商標固有顯著性的認定
        知識產權(2016年8期)2016-12-01 07:01:32
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        欧美精品久久久久久三级| 国产成版人性视频免费版| 性感熟妇被我玩弄到高潮| 国产小视频在线看不卡| 丝袜美腿亚洲一区二区| 国产乱人伦av在线a麻豆| 日韩精品久久久肉伦网站| 亚洲av第一页国产精品| 漂亮人妻被中出中文字幕久久| 国产午夜福利在线播放| 极品 在线 视频 大陆 国产| 无码啪啪熟妇人妻区| 久久想要爱蜜臀av一区二区三区| 久久精品人搡人妻人少妇| 国产精品国产三级国产av品爱网| 亚洲啪啪综合av一区| 久久青草伊人精品| 九一成人AV无码一区二区三区| 久久精品天堂一区二区| 精品国产日韩一区2区3区| 少妇高潮流白浆在线观看| 亚洲欧洲中文日韩久久av乱码| 成人精品国产亚洲欧洲| 亚洲av乱码国产精品观| 中文字幕日韩三级片| 国产呦系列呦交| 国产精品天天看大片特色视频 | 欧美日本亚洲国产一区二区| 精品国产一区二区三区亚洲人| 中文字幕亚洲综合久久久| 日本不卡在线视频二区三区| 18禁黄污吃奶免费看网站| 丰满少妇被猛烈进入无码| 精品丝袜一区二区三区性色| 亚洲黄色一级在线观看| 久久久久亚洲av片无码下载蜜桃 | 久草视频在线这里只有精品| 精品一区二区三区牛牛| 狠狠躁18三区二区一区| 熟妇人妻中文字幕无码老熟妇| 久久精品国产亚洲av热九九热|