汪權(quán)方,張夢茹,張 雨*,汪倩倩,陳龍躍,楊宇琪
(1. 湖北大學(xué)資源環(huán)境學(xué)院,武漢430062; 2. 湖北省農(nóng)業(yè)遙感應(yīng)用工程技術(shù)研究中心(湖北大學(xué)),武漢430062)
(?通信作者電子郵箱864711182@qq.com)
近年來,隨著天地一體化對地觀測網(wǎng)絡(luò)的形成和智能計算技術(shù)的快速發(fā)展,遙感信息技術(shù)正逐漸進入一個以數(shù)據(jù)模型驅(qū)動、大數(shù)據(jù)智能分析為特征的遙感大數(shù)據(jù)時代,信息智能提取已成為遙感大數(shù)據(jù)時代的必然趨勢[1],特別是機器視覺識別技術(shù)的巨大成功,更是為遙感信息智能提取提供了重要機遇。不過,當(dāng)前以基于深度學(xué)習(xí)為代表的人工智能算法主要是針對真彩色的RGB 三波段自然圖像來研制的,而遙感圖像由于在數(shù)據(jù)產(chǎn)生方式、獲取條件、數(shù)據(jù)信息和應(yīng)用等諸多方面都相對常規(guī)自然圖像具有非常明顯的獨特性,特別是中高分辨率的遙感圖像觀測尺度大、場景復(fù)雜、所含波段數(shù)較多(通常超過三個波段)等特點,使得現(xiàn)有的機器學(xué)習(xí)模型和人工智能算法對遙感圖像的理解和特征提取還存在明顯不足[1-2]。因此,要實現(xiàn)包括水體在內(nèi)的大范圍地表信息高精度遙感智能采集,關(guān)鍵在于需要結(jié)合對地觀測信息的理解和應(yīng)用需求,研究契合遙感數(shù)據(jù)內(nèi)在特征的智能信息提取模型、方法與系統(tǒng)工具,這也是解決遙感大數(shù)據(jù)時代信息智能提取與知識挖掘的必由之路[1]。
水是人類賴以生存和發(fā)展不可缺少的基礎(chǔ)資源之一,廣域分散式大范圍分布的水體高精度智能檢測與定位是遙感信息智能提取研究的重要內(nèi)容[3]。目前用于水體信息遙感提取的方法主要有單波段閾值法、譜間關(guān)系法、比值指數(shù)法、圖像分類法和基于多特征多分類器組合的水體信息提取方法等[4-6]。其中,基于多特征多分類器組合的水體信息提取法主要針對僅以單一特征構(gòu)造的分類器往往只能利用水體局部特征信息,從而導(dǎo)致水體提取效果不理想的現(xiàn)象而提出的,該方法首先利用水體的光譜、指數(shù)等多個基本特征構(gòu)造弱分類器,然后將各弱分類器加權(quán)組合生成一個強分類器,據(jù)此再基于AdaBoost 算法進行水體識別[7-8],因此,與其他幾種水體遙感識別方法相比,基于多特征多分類器組合的水體信息提取法不僅能在一定程度上實現(xiàn)水體信息的遙感智能采集,而且也往往具有較高的水體信息提取精度。例如李長春等[7]在三種水體比值指數(shù)(歸一化差異水體指數(shù)(Normalized Difference Water Index,NDWI)、改 進 的NDWI(Modified NDWI,MNDWI)和水體比值指數(shù)(Water Ratio Index,WRI))所形成的特征空間上,應(yīng)用AdaBoost算法進行山區(qū)水體信息提取,所得結(jié)果的錯誤率較NDWI 閾值法減小了20%~27%;宋英強等[8]將譜間關(guān)系以及NDVI、NDWI 和K-T 變換的wetness 分量等特征相結(jié)合,利用AdaBoost 算法實現(xiàn)了地勢平緩地區(qū)的水體快速精確提取,與使用單個指數(shù)提取的結(jié)果相比,平均分類精度提高了5.15%。由此可見,采用多特征多分類器“帶權(quán)投票式”組合的AdaBoost 算法,能夠提高水體信息的提取精度。不過,傳統(tǒng)的水體信息AdaBoost 提取方法存在兩個明顯的缺陷:一是分類器的構(gòu)建對于樣本的依賴性較高;二是在像素層次上直接進行圖像閾值分割,容易產(chǎn)生椒鹽噪聲現(xiàn)象[9-10],由此限制了AdaBoost 算法對于水體信息遙感智能提取的性能發(fā)揮。
為解決算法上述問題,本文將人類的視覺注意機制引入到遙感影像中水體信息的智能檢測。視覺注意機制是人類視覺系統(tǒng)的一個重要特征,已有研究表明,在面對復(fù)雜場景時,人類視覺系統(tǒng)能夠快速地將注意力集中在圖像中的顯著區(qū)域,并對其進行優(yōu)先處理[11-13]。另外,人類視覺選擇性注意機制包括由底向上(bottom-up)和由頂向下(top-down)兩種類型。其中:bottom-up 視覺注意機制是原始快速機制,也稱數(shù)據(jù)驅(qū)動方式,是一種不帶主觀目的、僅從顏色亮度等圖像底層特征去觀察的視覺注意機制;而top-down 視覺注意機制則屬于高級認(rèn)知機制,也稱任務(wù)驅(qū)動方式,是從先驗知識的角度看待圖像。由此可見這兩種視覺選擇性注意機制各有自己的優(yōu)點和適用范圍[12-13]。不過,在大范圍地表信息遙感提取實踐中,往往面臨著水體等目標(biāo)對象通常呈廣域分散式分布且空間異質(zhì)性較為突出等問題[1-3],因此,與依賴于高層特定任務(wù)驅(qū)動的top-down 視覺注意機制相比,只受輸入圖像底層特征影響的bottom-up 視覺注意機制更適合于大范圍分散式分布的水域遙感圖像智能檢測。
基于以上分析,本文提出一種將bottom-up 視覺選擇性注意機制與AdaBoost算法相結(jié)合的通用型水體信息遙感智能采集方法。該方法首先從顏色擁有更高視覺注意優(yōu)先級的角度出發(fā),通過遙感多特征指數(shù)的RGB 配色方案優(yōu)化設(shè)計,進行圖像上水體表現(xiàn)特征的增強和可視化,使得具有相同或相近顏色特征的水體像元在空間上集聚,形成能被計算機視覺注意系統(tǒng)快速準(zhǔn)確識別的顯著區(qū)域;然后,在HSV 顏色空間中基于色差圖像直方圖和AdaBoost算法構(gòu)建水體智能識別分類器,并據(jù)此從HSV 圖像色彩聚類結(jié)果中進行水體分布區(qū)域的自動檢測與定位。
本文選取了分別成像于2016 年7 月23 日(洪水期)和2018 年4 月8 日(枯水期)的兩景Landsat8/OLI 影像(Path/Row編號均為123/039)作為實驗數(shù)據(jù)(見圖1),覆蓋范圍主要包括武漢市、孝感市、鄂州市、天門市、仙桃市、荊州市等縣市的部分區(qū)域,地表覆被以植被(含作物)為主。從實驗圖像的質(zhì)量來看,主要存在少量的云污染。為避免這些云覆蓋對于后續(xù)的水體遙感識別過程產(chǎn)生影響,主要采用人工勾繪的方式將其從影像中進行剔除。另外,部分河流與湖泊在洪水期圖像(見圖1(a))上的表現(xiàn)特征明顯區(qū)別其他水域,這主要是由于2016 年夏季長江洪災(zāi)的影響,該年7 月研究區(qū)內(nèi)發(fā)生了嚴(yán)重澇災(zāi),從而使得部分地區(qū)的水體泥沙含量等普遍較高。
圖1 實驗影像及其覆蓋區(qū)域示例Fig.1 Experimental images and their coverage areas
1.2.1 水體遙感多特征表達(dá)可視化
根據(jù)人類視覺特性,所有顏色都可看作是由紅、綠、藍(lán)三原色組合而成,且三個分量比例不同,組合后的圖像顏色也不同。本文根據(jù)水體在綠光波段上的高反射,此后隨著波長的增加,其反射率不斷減弱的波譜特征,以及水體與易混淆的建設(shè)用地等地類之間的差異性,構(gòu)建了NDVI、MNDWI 和MNWI三種水體增強指數(shù)[5-6],然后將NDVI 嵌入紅色通道、將MNWI嵌入綠色通道、將MNDWI 嵌入藍(lán)色通道,生成能夠突出水體信息的RGB 假彩色影像,結(jié)果如圖2 所示。對比河流和湖泊兩類典型水體在圖1中差異明顯的表現(xiàn)特征來看,二者在圖2中具有較好的色彩一致性,由此可見,利用上述方法所生成的RGB假彩色專題圖像,能穩(wěn)定地凸顯水體的“類別”色彩特征,這為本研究建立普適性的水體信息遙感智能提取方法提供了較高的可行性。上述各指數(shù)的計算公式如下:
其中:ρgreen、ρred、ρnir分別為圖像中的綠光波段(0.525 μm~0.600 μm)、紅光波段(0.630 μm~0.680 μm)和近紅外波段(0.845 μm~0.885 μm),ρswir1和ρswir2則都指圖像中的中紅外波段(波長分別是1.560 μm~1.660 μm、2.100 μm~2.300 μm),它們依次對應(yīng)于陸地成像儀(Operational Land Imager,OLI)影像中的第3、第4、第5、第6和第7波段。
圖2 基于RGB色彩模式的研究區(qū)(局部)水體信息遙感多特征表達(dá)可視化效果演示Fig.2 RGB color mode based visualization demonstration of remote sensing multi-feature representation for research area(local)water information
1.2.2 圖像顏色空間轉(zhuǎn)換
與形狀紋理等圖像幾何特征及空間關(guān)系相比,顏色擁有更高視覺注意優(yōu)先級,是人類識別圖像中目標(biāo)對象的主要感知特征[13-14],再加上顏色特征對圖像本身的尺寸、方向、視角的依賴性較小,從而具有較高的魯棒性,因此,將圖像顏色引入機器視覺識別過程中可以簡化目標(biāo)物的提取過程,圖像顏色已成為基于視覺注意機制的感興趣區(qū)域機器檢測的重要依據(jù)[12,15-18]。
不過,RGB顏色空間中紅、綠、藍(lán)三個分量之間高度相關(guān),從而導(dǎo)致該顏色系統(tǒng)具有不穩(wěn)定性的缺陷;同時,在RGB 顏色空間中采用歐氏距離進行色差計算,難以有效地進行顏色分離[19]。與RGB 顏色空間相比,HSV 顏色模型能較好地反映人類視覺對顏色的感知和判別能力,其色調(diào)(Hue)、飽和度(Saturation)和亮度(Value)3 個分量之間相互獨立,并且色調(diào)分量(H)和飽和度分量(S)與人眼感知顏色的方式接近,亮度分量(V)則與圖像的彩色信息無關(guān),因此,HSV 顏色空間更有利于采用計算機視覺顏色檢測技術(shù)進行感興趣目標(biāo)的圖像自動識別[20]。
本文采用文獻[20]中的方法將上述彩色專題圖像(見圖2)從RGB色彩空間轉(zhuǎn)換到HSV色彩空間,具體公式如下:
設(shè) Colormax= max(R,G,B),Colormin= min(R,G,B)。 當(dāng)Colormax≠Colormin時,定義
其中:R,G,B ∈[0,255],H ∈[0°,360°],S ∈[0,1],V ∈[0,1]。
1.2.3 色差專題圖像生成及其物理屬性分析
將已有水體樣本作為訓(xùn)練樣本,依據(jù)式(8)在HSV 顏色空間中進行色差距離計算[20],生成水體遙感色差專題圖像,以使得具有相同或相近顏色特征的像元在空間上集聚,形成能被計算機視覺注意系統(tǒng)快速準(zhǔn)確識別的顯著區(qū)域。
其中:D 表示色差距離系數(shù);(Hi,Si,Vi)是圖像上第i 個像元的HSV 坐標(biāo)值;(Hj,Sj,Vj)是第j 個訓(xùn)練樣本點的HSV 坐標(biāo)值;(H0,S0,V0)是所有訓(xùn)練樣本點的HSV均值坐標(biāo)。
由于在上述水體遙感色差專題圖像中,各像元灰度值(D)是基于水注記點中的訓(xùn)練樣本計算得到的,因此其大小能反映像元尺度上的“水隸屬度”:D 值越小,屬于水的可能性越高;反之則屬于非水的背景地物。因此,在水體遙感色差專題圖像上,水體像元的D 值都普遍低于非水的背景地物。同時,由圖3 可以看出,易與水混淆的建設(shè)用地和裸地等普遍具有較高的D 值,而植被的像元灰度值介于兩者之間,即D水<D植被<D建設(shè)用地。再加上實驗區(qū)內(nèi)的植被覆蓋較高,從而導(dǎo)致該色差圖像的直方圖(見圖3)具有一系列獨特但又有著明確物理含義的形態(tài)特征:在水體分布的低值區(qū)和背景地物分布的高值區(qū)之間存在險峻的“峭壁”;在鄰近峭壁的左側(cè)低值區(qū),因為具有較大色差距離值(D)但像元個數(shù)較少的水體像元集聚而形成了“谷底”和“洼地”;在鄰近峭壁的右側(cè)高值區(qū),則因為植被像元個數(shù)較多而集聚形成了“險峰”。
1.2.4 分類特征集的構(gòu)建
利用色差圖像直方圖上的峭壁、險峰、波谷、洼地等關(guān)鍵形態(tài)節(jié)點信息,構(gòu)造分類特征集。具體方法如下:
1)利用極差法對色差距離圖像(D)進行拉伸,得到值域介于1~255的圖像SD:
2)計算SD圖像中每個灰度級的頻坡比系數(shù)(Dslope):
Dslope(i)=( )ni+1- nini× 100;i = 1,2,…,255 (10)其中:ni+1、ni分別為SD 圖像中灰度值等于i+1 和i 時的像元個數(shù)。
3)計算各關(guān)鍵形態(tài)節(jié)點對應(yīng)的灰度值:
其中:k1、k2、k3、k4分別為峭壁(Dcliff)、險峰(Dpeak)、波谷(Dvalley)、洼地(Dlowland)所在位置處的灰度值;Dslope(b)為SD 圖像中灰度值等于b 時的頻坡比系數(shù),并且b≠1,aw<b <ap;aw和ap分別為水體訓(xùn)練樣本和植被訓(xùn)練樣本在SD 圖像中的像元灰度值均值;nm、nm-1、nm+1分別為SD 圖像中灰度值等于m、m - 1 或m + 1 的像素個數(shù),并且m >k1,nm>nm-1,nm>nm+1;nu為SD 圖像中灰度值等于u 的像素個數(shù),并且1 <u <k2;nv為SD圖像中灰度值等于v的像素個數(shù),并且1 <v <k2,Dslope(v)>0。
4)利用上述結(jié)果,生成AdaBoost 算法所需的關(guān)鍵特征分類集:
AdaBoost 算法是1995 年由Freund 等[21]提出的一種投票式分類算法。其基本原理是通過將不同的弱分類器組合成強分類器來提高分類精度。該算法的基本思路是:首先,給訓(xùn)練樣本賦予相同的初始權(quán)重。然后,進行弱分類器訓(xùn)練,若樣本點被錯誤地分類,那么在下一輪訓(xùn)練中,該樣本點的權(quán)重被提高;反之,正確分類的樣本點的權(quán)重被降低。最后,對所有弱分類器的判決結(jié)果進行加權(quán)求和,生成強分類器[8,10,22-23]。算法實現(xiàn)的過程如下:
1)對每個樣本的歸屬類別進行賦值:類別屬于水的樣本賦值為1,類別屬于非水的樣本賦值為-1,據(jù)此構(gòu)造訓(xùn)練樣本集S:
其中:n 為樣本編號;xn表示第n 個樣本的像元灰度值;Cn∈{1,- 1}表示第n個樣本的類別歸屬。
2)初始化n個樣本的權(quán)重wi0= 1/n,則訓(xùn)練樣本集的初始權(quán)值分布函數(shù)為:
圖3 研究區(qū)域色差圖像直方圖及典型地物的訓(xùn)練樣本色差灰度值分布情況Fig.3 Histogram of chromatic aberration image in research area and distribution of chromatic aberration grayscale values of training samples of typical ground objects
3)進行多次循環(huán)迭代,訓(xùn)練弱分類器。
a)假設(shè)總迭代次數(shù)為T,在每一次迭代循環(huán)t(t =1,2,…,T)時,對于分類特征集U 中的每個特征,都使用具有權(quán)值分布Dt的訓(xùn)練數(shù)據(jù)集進行學(xué)習(xí),得到弱分類器函數(shù):
計算ft(x)在訓(xùn)練數(shù)據(jù)集上的分類誤差率εt(x):
其中:Ci為第i個訓(xùn)練樣本的類別歸屬;Wi,t-1為訓(xùn)練樣本x在經(jīng)過t - 1 次迭代后的權(quán)重;I( ft(xi)≠Ci)為指示函數(shù),當(dāng)ft(xi)≠Ci時輸出1,否則輸出0。
b)選擇訓(xùn)練錯誤率最小的弱分類器作為本輪訓(xùn)練的基本分類器Gt(x),并計算其權(quán)重系數(shù)at(x),該系數(shù)表示基本分類器Gt(x)在最終的強分類器中的重要程度。
c)更新訓(xùn)練樣本的權(quán)值分布函數(shù),得到Dt+1,用于下一輪迭代。
若為錯誤分類樣本,則權(quán)重更新為:
若為正確分類樣本,則權(quán)重更新為:
4)組合各弱分類器,構(gòu)建強分類器。
將經(jīng)過T 次迭代而得到的各個弱分類器,先根據(jù)其權(quán)重進行組合:
考慮到在像素層次上直接應(yīng)用AdaBoost強分類器進行大范圍廣域分散式分布的地面目標(biāo)遙感識別時,容易出現(xiàn)嚴(yán)重的椒鹽噪聲[9-10],以及研究區(qū)內(nèi)的水體信息在經(jīng)過遙感多特征可視化表達(dá)后呈現(xiàn)獨特且較為均一的圖像色彩特征(見圖2)等,本文先在HSV 顏色空間上進行圖像色彩聚類,使得具有相同或相近顏色的像元在空間中聚集,形成同質(zhì)圖斑;然后在類別圖斑色差度量的基礎(chǔ)上,應(yīng)用AdaBoost強分類器,自動識別出水體所屬的類別。從提取結(jié)果(見圖4)的目視效果看,各類水體沒有產(chǎn)生明顯的椒鹽噪聲現(xiàn)象。
另外,將隨機生成的309 個評價樣點(其中,水體和非水體各有182 個和127 個),依據(jù)亞米級的google earth 影像分別賦予真實的水體標(biāo)簽或非水體標(biāo)簽,并構(gòu)建本次識別結(jié)果的精度評價混淆矩陣,由此獲得了漏分誤差(Leak Rate,LR)和復(fù)合分類精度系數(shù)(Composite Classification Accuracy,CCA)兩個量化評價指標(biāo)。其中:漏分誤差主要用來反映目標(biāo)類別(水)的漏分概率[22],復(fù)合分類精度系數(shù)則是目標(biāo)類別分類準(zhǔn)確性的綜合評價指標(biāo),等于生產(chǎn)者精度(Producer's Accuracy,PA)與用戶精度(User's Accuracy,UA)的乘積,因此CCA 系數(shù)實際上同時包含有錯分和漏分信息。評價結(jié)果(如表1)顯示,本次實驗的漏分誤差為4.4%,CCA 系數(shù)約95.1%,這表明本研究對于大范圍水體的提取結(jié)果具有較高精度。
圖4 基于視覺注意機制的研究區(qū)水體的遙感信息智能識別提取結(jié)果(局部)Fig.4 Sensing information intelligent recognition and extraction results of water in research area(local)based on visual attention mechanism
表1 不同方法提取結(jié)果的精度對比 單位:%Tab. 1 Precision comparison of different methods in extraction results unit:%
為了驗證本文方法的可靠性和高效性,本文與兩種方法進行了對比實驗:
1)指數(shù)分類器法。這是目前應(yīng)用較為廣泛的一種水體AdaBoost 遙 感 識 別 方 法[7-8],它 利 用 水 體 訓(xùn) 練 樣 本 集,在NDVI、MNWI 和MNDWI 構(gòu)成的特征空間上,通過自適應(yīng)閾值算法分別確定各自的分割閾值,并以此構(gòu)造AdaBoost 算法所需的關(guān)鍵特征分類集;然后再通過多次迭代進行弱分類器訓(xùn)練和強分類器的生成,據(jù)此實現(xiàn)水體信息的識別提取,而在此過程中存在對訓(xùn)練樣本的高度依賴性現(xiàn)象。
2)色差自適應(yīng)閾值法。該方法與本文方法的共同之處在于它也是利用NDVI、MNWI、MNDWI 數(shù)據(jù)集構(gòu)建基于RGB 色彩模式的水體信息增強圖像,并在HSV 顏色空間下通過色差距離系數(shù)的計算,生成水體遙感色差專題圖像;不同之處在于該方法直接在像元尺度上將自適應(yīng)閾值算法應(yīng)用于色差專題圖像,以此提取出水體信息,而本文方法是在經(jīng)過上述三指數(shù)圖像色彩聚類而形成的同質(zhì)斑塊尺度上,應(yīng)用基于色差圖像直方圖多個關(guān)鍵節(jié)點而建立的AdaBoost 分類器,進行目標(biāo)區(qū)域(水體)的自動檢測與定位。因此,通過與色差自適應(yīng)閾值法的對比,可以反映出本文方法能否在有效提高水體的智能識別精度的同時克服椒鹽現(xiàn)象。
對于上述兩種方法所提取的水體信息也采用相同的隨機樣點進行了精度評價,結(jié)果如表1 所示。與指數(shù)分類器法和色差自適應(yīng)閾值法相比,本文方法在漏分誤差上分別降低了4.4 個百分點和1.6 個百分點,CCA 系數(shù)則分別提高了3.9 個百分點和1.7 個百分點,由此可見,應(yīng)用本文方法能有效提高水體的分類精度。
此外,還對不同方法的提取結(jié)果(見圖4)進行了實地對比,發(fā)現(xiàn)基于另外兩種方案所獲取的洪水期水體信息提取結(jié)果有較多的錯分現(xiàn)象,對此,從中選出三個代表性區(qū)域(A、B、C)進行定點比較分析,其詳細(xì)對比情況如圖5~7所示,由此可以看出,采用指數(shù)分類器法未能完整地提取A、C 區(qū)域的水體(見圖5(c)、圖7(c)),色差自適應(yīng)閾值法是對B區(qū)域的水體有較多的漏分(見圖6(d))。究其原因主要在于2016 年洪災(zāi)期間,研究區(qū)內(nèi)多次強降雨,使得部分區(qū)域的水體泥沙含量有所增加(見圖7(a)),有的地方還因為洪災(zāi)[24]而產(chǎn)生了一些淹沒區(qū)等臨時性的水域(見圖5(a)、圖6(a)),它們的波譜特性及其在影像上的表現(xiàn)也因而有別于常見的水體特征。不過,應(yīng)用本文方法,則較好地克服了上述漏分情況。
圖5 不同方法的水體提取效果對比(一)Fig.5 Extraction effects of water in the 1st experimental area by different methods
圖6 不同方法的水體提取效果對比(二)Fig.6 Extraction effects of water in the 2nd experimental area by different methods
圖7 不同方法的水體提取效果對比(三)Fig.7 Extraction effects of water in the 3rd experimental area by different methods
契合遙感數(shù)據(jù)內(nèi)在特征的智能信息分析模型與方法,是大數(shù)據(jù)時代遙感信息智能提取技術(shù)能否得到廣泛應(yīng)用的關(guān)鍵所在。本文從普適性的大范圍水體信息遙感智能采集的需求出發(fā),建立了一種基于人類視覺選擇性注意機制與AdaBoost算法相結(jié)合的水體信息遙感高精度提取方法。本文方法主要依據(jù)顏色擁有較高視覺注意優(yōu)先級的特性,通過遙感多特征指數(shù)的色彩配色方案優(yōu)化設(shè)計,不僅有效抑制了背景信息,而且實現(xiàn)了水體的影像特征增強和可視化,形成能被計算機視覺注意系統(tǒng)快速準(zhǔn)確識別的顯著區(qū)域。同時,為了減少現(xiàn)有的水體信息AdaBoost 提取方法對訓(xùn)練樣本的較高依賴性,且避免在像素層次上直接進行圖像閾值分割時椒鹽現(xiàn)象的產(chǎn)生,本文方法首先通過色差圖像直方圖上多個關(guān)鍵節(jié)點的檢測,建立AdaBoost水體智能識別分類器,然后在圖像色彩聚類的同質(zhì)斑塊尺度上,應(yīng)用上述分類器進行目標(biāo)區(qū)域的自動檢測與定位,從而使得水體的提取結(jié)果更完整、準(zhǔn)確,較好地克服了水中泥沙含量較大等所導(dǎo)致的漏分、誤分情況。
不過,目前本研究僅針對地表覆被以植被為主的區(qū)域展開了實驗,當(dāng)覆被以建筑物或裸地等為主時,需對本研究所提出的水體智能識別方法作進一步的適應(yīng)性分析。