王松倫,馬曉楠,潘子軒
(河南省水利勘測(cè)有限公司,河南 鄭州 450000)
生產(chǎn)建設(shè)活動(dòng)會(huì)使原狀地貌或土壤結(jié)構(gòu)遭到干擾或破壞,從而加劇區(qū)域內(nèi)的水土流失,存在較大的安全隱患,如洪澇災(zāi)害、土地資源匱乏、生態(tài)環(huán)境失調(diào)等[1]。遙感信息技術(shù)的進(jìn)步和高分辨率衛(wèi)星影像的普及為水土保持遙感監(jiān)管提供了豐富的數(shù)據(jù),但目前仍主要采用目視解譯的方法從遙感影像中獲取生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑信息,存在耗時(shí)費(fèi)力、經(jīng)濟(jì)成本高及具有一定的人為主觀性等問題[2],無(wú)法適應(yīng)現(xiàn)階段生產(chǎn)建設(shè)項(xiàng)目水土保持遙感監(jiān)管任務(wù)中監(jiān)測(cè)對(duì)象變化快、監(jiān)測(cè)范圍廣、監(jiān)測(cè)頻次高的需求[3]。因此,如何在大范圍內(nèi)實(shí)現(xiàn)生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑的高效自動(dòng)化、精準(zhǔn)化識(shí)別和提取成為研究的熱點(diǎn)問題。
近年來(lái),深度學(xué)習(xí)已經(jīng)被證明是一種強(qiáng)大的遙感圖像處理技術(shù),在土地覆蓋分類、目標(biāo)提取、變化檢測(cè)等方面均有廣泛應(yīng)用[4-6]。部分學(xué)者也在此基礎(chǔ)上開展了生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑自動(dòng)識(shí)別技術(shù)的探索性研究,文獻(xiàn)[7]基于深度學(xué)習(xí)原理,參照VGG16網(wǎng)絡(luò)架構(gòu)構(gòu)建生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑自動(dòng)識(shí)別分類模型,區(qū)分給定區(qū)域的影像數(shù)據(jù)為擾動(dòng)還是非擾動(dòng),但并未實(shí)現(xiàn)對(duì)擾動(dòng)圖斑范圍的識(shí)別;文獻(xiàn)[8]將深度學(xué)習(xí)理論應(yīng)用到不同時(shí)期影像的變化檢測(cè)分析中,分別采用基于語(yǔ)義信息和端到端的變化圖斑提取方法,對(duì)重慶市水土保持?jǐn)_動(dòng)變化圖斑實(shí)現(xiàn)自動(dòng)識(shí)別。深度學(xué)習(xí)為基于大范圍高分遙感影像的擾動(dòng)圖斑提取提供了新的技術(shù)思路,但相關(guān)研究較少且精度無(wú)法滿足現(xiàn)階段水土保持遙感監(jiān)管的應(yīng)用要求。
針對(duì)上述生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑提取的局限性,本文從人類和人工智能深度相結(jié)合的角度出發(fā),提出 “智能提取模型+遙感監(jiān)管協(xié)同解譯平臺(tái)”的生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑人機(jī)協(xié)同智能提取框架。
本文以河南省生產(chǎn)建設(shè)項(xiàng)目水土保持遙感監(jiān)管為依托開展相關(guān)研究。河南省位于我國(guó)中東部,全省總面積為16.7萬(wàn)km2。河南地處亞熱帶向暖溫帶和山區(qū)向平原雙重過渡帶,地跨長(zhǎng)江、黃河、淮河、海河4大流域。地貌自西向東突變,山區(qū)到平原過渡帶短,特殊的氣候條件和復(fù)雜的地貌類型,造成自然災(zāi)害頻發(fā),而且人口分布密集,生產(chǎn)活動(dòng)頻繁,加劇了水土流失。嚴(yán)重的水土流失導(dǎo)致水土資源破壞、生態(tài)環(huán)境惡化、自然災(zāi)害加劇,成為制約河南省經(jīng)濟(jì)和社會(huì)可持續(xù)發(fā)展的突出因素。
總體技術(shù)路線如圖1所示。首先,對(duì)雙時(shí)相高分遙感影像數(shù)據(jù)進(jìn)行預(yù)處理,并依托河南省2022年第三季度生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑目視解譯成果制作標(biāo)簽,通過數(shù)據(jù)增強(qiáng)的手段創(chuàng)建生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)專題數(shù)據(jù)集;然后,基于專題數(shù)據(jù)集對(duì)改進(jìn)的U-Net++模型進(jìn)行訓(xùn)練,訓(xùn)練后的模型可對(duì)指定區(qū)域高分遙感影像中的生產(chǎn)建設(shè)項(xiàng)目變化擾動(dòng)圖斑進(jìn)行自動(dòng)提取;最后,構(gòu)建遙感監(jiān)管分布式并行協(xié)同解譯平臺(tái),可實(shí)現(xiàn)圖斑后處理、協(xié)同編輯、統(tǒng)計(jì)分析及用戶管理等功能,解譯人員基于該平臺(tái)利用先驗(yàn)知識(shí)對(duì)自動(dòng)提取的圖斑進(jìn)行綜合判定與驗(yàn)證,得到滿足生產(chǎn)要求的規(guī)范性解譯成果?;趨f(xié)同解譯平臺(tái)產(chǎn)生的最終成果可作為新樣本反饋給模型進(jìn)行自主學(xué)習(xí),進(jìn)一步提升模型精度和自動(dòng)化程度,形成良好的循環(huán)機(jī)制。
圖1 總體技術(shù)路線
2.1.1 高分辨率遙感影像預(yù)處理
遙感影像數(shù)據(jù)源主要選取高分六號(hào)、資源三號(hào)等衛(wèi)星數(shù)據(jù),前時(shí)相為2022年4—6月,后時(shí)相為2022年7—9月。雙時(shí)相遙感影像數(shù)據(jù)對(duì)于變化擾動(dòng)地塊提取任務(wù)而言,存在的主要問題包括:①原始數(shù)據(jù)存在幾何和輻射變形、缺失值等;②因季節(jié)原因?qū)е虑昂髢蓵r(shí)相影像風(fēng)格不統(tǒng)一,存在較大的地物地貌差異。
對(duì)于上述問題,本文通過輻射定標(biāo)、正射校正、幾何配準(zhǔn)、插值填充、傅里葉變換和逆變換等操作對(duì)影像進(jìn)行預(yù)處理,以滿足任務(wù)需要??焖俑道锶~變換和逆變換可消除不同時(shí)期影像之間的風(fēng)格差異,其主要包括:①通過傅里葉變換(FFT)將圖像空間域轉(zhuǎn)換為頻率域;②將其中一幅圖像的低頻域部分替換為另外圖像的低頻域部分;③再通過傅里葉逆變換(iFFT)將頻率域轉(zhuǎn)換為空間域,實(shí)現(xiàn)圖像間的風(fēng)格遷移。經(jīng)過預(yù)處理后的影像包含紅、綠、藍(lán)3波段,空間分辨率約為2 m。
2.1.2 數(shù)據(jù)集標(biāo)注
有監(jiān)督的深度學(xué)習(xí)模型需要大量的標(biāo)簽數(shù)據(jù)輔助其學(xué)習(xí)訓(xùn)練。本文以河南省2022年第三季度生產(chǎn)建設(shè)項(xiàng)目遙感監(jiān)管解譯成果作為標(biāo)注數(shù)據(jù),制作生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑標(biāo)簽。
為保證兩期影像及對(duì)應(yīng)變化標(biāo)簽的尺寸統(tǒng)一,首先構(gòu)建研究區(qū)漁網(wǎng)數(shù)據(jù)(網(wǎng)格大小為256×256像素),篩選出與矢量圖斑相交的網(wǎng)格作為裁剪樣本的矢量數(shù)據(jù)A;然后利用ArcGIS對(duì)已有的遙感監(jiān)管解譯圖斑數(shù)據(jù)進(jìn)行矢柵轉(zhuǎn)換和重分類(變化擾動(dòng)區(qū)域柵格值為1,非擾動(dòng)變化區(qū)域柵格值為0);最后利用矢量數(shù)據(jù)A對(duì)兩時(shí)相的遙感影像數(shù)據(jù)及變化擾動(dòng)圖斑柵格數(shù)據(jù)進(jìn)行批量裁剪,最終得到前時(shí)相影像、后時(shí)相影像及標(biāo)簽數(shù)據(jù),且位置一一對(duì)應(yīng),共得到2071組標(biāo)注樣本。
2.1.3 數(shù)據(jù)增強(qiáng)
在卷積神經(jīng)網(wǎng)絡(luò)的算法中,算法的最終效果很大程度上依賴于數(shù)據(jù)的質(zhì)量,鑒于目前樣本數(shù)據(jù)量有限,本文通過數(shù)據(jù)增強(qiáng)的手段擴(kuò)充樣本量,從而提高模型的泛化能力。充分利用已有樣本,分別采用單樣本和多樣本數(shù)據(jù)增強(qiáng)的方法對(duì)樣本數(shù)據(jù)集進(jìn)行擴(kuò)增,擴(kuò)增后總樣本量約為10 768組。將處理好的樣本數(shù)據(jù)集隨機(jī)劃分,訓(xùn)練集和驗(yàn)證集的比例為8∶2。
單樣本數(shù)據(jù)增強(qiáng)即在增強(qiáng)一個(gè)樣本時(shí)全部圍繞著該樣本本身進(jìn)行操作,本文主要進(jìn)行水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、旋轉(zhuǎn)、平移縮放等幾何變換,如圖2所示。
圖2 單樣本數(shù)據(jù)增強(qiáng)
多樣本數(shù)據(jù)增強(qiáng)則是利用多個(gè)樣本產(chǎn)生新的樣本。為了增加正樣本的比例,采用混合粘貼增強(qiáng)[9]的方法提升樣本多樣性,該方法是通過隨機(jī)抽取另一樣本數(shù)據(jù),利用掩膜提取將其變化區(qū)域以對(duì)象的方式分別粘貼到當(dāng)前樣本中,從而得到一個(gè)新的混合樣本,如圖3所示。
圖3 多樣本混合粘貼增強(qiáng)
2.2.1 U-Net++網(wǎng)絡(luò)架構(gòu)
U-Net++是一種基于深度監(jiān)督的編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu),具有較強(qiáng)的特征提取和細(xì)節(jié)保留能力[10]。原始U-Net網(wǎng)絡(luò)首先利用4次下采樣獲得高維信息,然后利用4次上采樣將特征圖恢復(fù)到原始大小,并通過4個(gè)跳躍連接合并特征圖?;赨-Net的改進(jìn)方法并不總使用4層結(jié)構(gòu),但下采樣、上采樣和跳躍連接的組合保持不變,它可以從不同深度的結(jié)構(gòu)中提取不同特征。無(wú)論低層次還是高層次的語(yǔ)義特征對(duì)于目標(biāo)識(shí)別任務(wù)而言均很重要,U-Net++[11]通過稠密連接的方式將每層的細(xì)節(jié)信息和全局信息都盡可能多的保留,且每層之間架起橋梁實(shí)現(xiàn)多尺度特征融合,最終共享給最后一層,減少由于卷積層增加而導(dǎo)致的信息丟失。
2.2.2 模型構(gòu)建及參數(shù)優(yōu)化
選用高效的輕量型網(wǎng)絡(luò)Effici-entNetb0作為編碼器骨干網(wǎng)絡(luò)。此外,為了獲取更加有用的重點(diǎn)信息并抑制非重點(diǎn)區(qū)域的特征,在解碼器網(wǎng)絡(luò)中加入了注意力機(jī)制模塊scSE(spatial-channel sequeeze & excitation),模型結(jié)構(gòu)如圖4所示。
圖4 U-Net++(scSE)模型結(jié)構(gòu)
在訓(xùn)練網(wǎng)絡(luò)模型學(xué)習(xí)參數(shù)的過程中,使用基于ImageNet數(shù)據(jù)集的預(yù)訓(xùn)練模型進(jìn)行參數(shù)初始化,選取AdamW優(yōu)化算法,學(xué)習(xí)率為1E-3,權(quán)重衰退系數(shù)為1E-3,最低學(xué)習(xí)率為1E-5。由于部分樣本數(shù)據(jù)中非變化擾動(dòng)區(qū)域和變化擾動(dòng)區(qū)域的比例差距較大,存在樣本不均衡影響,因此模型訓(xùn)練的損失函數(shù)采用Dice損失函數(shù)和二值交叉熵?fù)p失函數(shù)(BCE Loss)的組合。Dice損失函數(shù)訓(xùn)練更關(guān)注前景區(qū)域的挖掘,即保證模型有較低的目標(biāo)值識(shí)錯(cuò)率,但會(huì)存在損失飽和的問題,而BCE Loss平等地計(jì)算每個(gè)類別的損失,當(dāng)背景區(qū)域大于目標(biāo)區(qū)域時(shí),訓(xùn)練時(shí)會(huì)使模型嚴(yán)重偏向背景,導(dǎo)致預(yù)測(cè)效果較差。兩者單獨(dú)使用往往無(wú)法取得較好的效果,因此本文選擇組合使用,從而提高模型預(yù)測(cè)精度。
2.2.3 變化檢測(cè)評(píng)價(jià)指標(biāo)
變化檢測(cè)的評(píng)價(jià)指標(biāo)多種多樣,本文選擇準(zhǔn)確率(Precision,P)、召回率(Recall,R)、F1得分和交并比(IoU)4個(gè)指標(biāo)對(duì)模型提取效果進(jìn)行評(píng)定。通過變化檢測(cè)得到的預(yù)測(cè)值和真實(shí)值的組合見表1。
表1 變化檢測(cè)任務(wù)混淆矩陣
(1)準(zhǔn)確率(P)表示預(yù)測(cè)值和真實(shí)值均為正的樣本在預(yù)測(cè)為正樣本中的占比,其表達(dá)式為
(1)
(2)召回率(R)表示在已知的正樣本中有多少被正確預(yù)測(cè),其表達(dá)式為
(2)
(3)F1得分是綜合了準(zhǔn)確率和召回率的綜合評(píng)價(jià)指標(biāo),提出該指標(biāo)的原因是P和R會(huì)出現(xiàn)矛盾的現(xiàn)象,導(dǎo)致無(wú)法判斷模型好壞,因此通過計(jì)算兩個(gè)指標(biāo)的調(diào)和平均值進(jìn)行綜合性評(píng)價(jià)。其取值范圍為0~1,值越接近1表示模型訓(xùn)練效果越出色,公式為
(3)
(4)交并比(IoU)是指模型預(yù)測(cè)變化擾動(dòng)區(qū)域與真實(shí)變化擾動(dòng)區(qū)域的交疊率或重疊度,即兩者交集與并集的面積比,取值范圍為0~1,值越接近于1表示預(yù)測(cè)圖與真實(shí)圖的重合程度越高,即模型預(yù)測(cè)效果越好,其計(jì)算公式為
(4)
深度學(xué)習(xí)技術(shù)使生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑解譯工作效率得到了大幅提升,但由于多時(shí)相的衛(wèi)星遙感影像不可避免地會(huì)存在偽變化、云霧遮擋等問題,使得模型對(duì)于遙感影像的變化檢測(cè)存在一定局限性,尤其在兼顧檢測(cè)速率的基礎(chǔ)上,精確獲取變化地物的輪廓信息仍具有較大難度,單一利用模型自動(dòng)化手段難以滿足生產(chǎn)應(yīng)用需要?;诖?本文通過構(gòu)建遙感監(jiān)管分布式并行協(xié)同解譯平臺(tái),充分發(fā)揮人機(jī)協(xié)同技術(shù)在遙感信息提取領(lǐng)域的重要性,將深度學(xué)習(xí)與專家知識(shí)、模型自動(dòng)提取與目視判讀相結(jié)合,實(shí)現(xiàn)人與算法之間的優(yōu)勢(shì)互補(bǔ),全面提升擾動(dòng)圖斑要素提取的精度及自動(dòng)化程度。
協(xié)同解譯平臺(tái)的技術(shù)流程如圖5所示。搭建的深度學(xué)習(xí)模型可對(duì)大范圍內(nèi)的生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑進(jìn)行快速提取,智能提取結(jié)果經(jīng)過矢柵轉(zhuǎn)換、定義投影、屬性賦值等前期處理后,發(fā)布標(biāo)準(zhǔn)化數(shù)據(jù)服務(wù)供平臺(tái)調(diào)用。協(xié)同解譯平臺(tái)能夠?qū)崿F(xiàn)對(duì)自動(dòng)提取圖斑的可視化展示、批量后處理、協(xié)同編輯及統(tǒng)計(jì)分析等操作,可由專業(yè)解譯人員通過多人在線協(xié)作的工作模式,憑借視覺感知及綜合認(rèn)知決策能力對(duì)模型自動(dòng)化提取的圖斑進(jìn)行判定與驗(yàn)證,判斷其邊界和屬性信息是否與實(shí)際擾動(dòng)相符,若不相符則選擇相應(yīng)的人機(jī)交互工具進(jìn)行要素協(xié)同編輯,最終將符合實(shí)際生產(chǎn)需要的圖斑存入解譯成果庫(kù)。通過驗(yàn)證的解譯成果將會(huì)作為新樣本反饋給模型樣本庫(kù),使模型再次進(jìn)行自主學(xué)習(xí),不斷迭代優(yōu)化模型參數(shù)進(jìn)而提升模型性能。
圖5 協(xié)同解譯平臺(tái)技術(shù)流程
協(xié)同解譯平臺(tái)主要包括圖斑智能提取、后處理、協(xié)同編輯、統(tǒng)計(jì)分析及用戶管理等模塊。圖斑智能提取模塊的主要功能是基于本文構(gòu)建的模型實(shí)現(xiàn)大范圍遙感影像的變化擾動(dòng)圖斑自動(dòng)化提取;后處理模塊主要是對(duì)模型自動(dòng)提取的圖斑進(jìn)行孔洞填充、輪廓規(guī)則化、碎化圖斑剔除等批處理操作,可對(duì)模型輸出結(jié)果進(jìn)行初步調(diào)整和優(yōu)化;協(xié)同編輯模塊則由解譯人員對(duì)經(jīng)過后處理的大量圖斑數(shù)據(jù)進(jìn)行邊界修正、屬性賦值、合并拆分、采集新面等增、刪、改操作,并同步完成對(duì)現(xiàn)有擾動(dòng)圖斑的質(zhì)量檢查;統(tǒng)計(jì)分析模塊包括工作進(jìn)度統(tǒng)計(jì)、圖斑分類統(tǒng)計(jì)、解譯人員工作量統(tǒng)計(jì)等功能;用戶管理模塊可實(shí)現(xiàn)賬號(hào)注冊(cè)、人員管理、任務(wù)分配;此外,本平臺(tái)可以實(shí)現(xiàn)對(duì)多期遙感影像數(shù)據(jù)、歷史擾動(dòng)圖斑及最新解譯成果的可視化管理及展示。
將本文搭建的U-Net++網(wǎng)絡(luò)模型在制作好的數(shù)據(jù)集上進(jìn)行訓(xùn)練,通過調(diào)節(jié)超參數(shù)獲得最優(yōu)變化檢測(cè)模型,并對(duì)在驗(yàn)證集上的提取結(jié)果進(jìn)行精度評(píng)價(jià)。采用五折交叉驗(yàn)證進(jìn)行模型評(píng)估:將所有的樣本數(shù)據(jù)集隨機(jī)分為數(shù)量近似相等的5份,輪流選取其中1份為測(cè)試集,其余為訓(xùn)練集依次訓(xùn)練模型,使數(shù)據(jù)集中的所有數(shù)據(jù)都得到了充分的利用,五折交叉驗(yàn)證的損失-精度隨迭代次數(shù)的變化曲線如圖6所示。模型的總體提取精度見表2。
表2 模型驗(yàn)證精度評(píng)價(jià)結(jié)果
圖6 五折交叉驗(yàn)證損失-精度
本文構(gòu)建的生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑智能提取模型可基于深度學(xué)習(xí)算法自動(dòng)提取高分辨率遙感影像中的擾動(dòng)圖斑要素,相較于人工目視解譯而言,智能提取模型在解譯效率方面具備明顯優(yōu)勢(shì),對(duì)比結(jié)果見表3。根據(jù)項(xiàng)目經(jīng)驗(yàn)可知,采用目視判別的方法初步實(shí)現(xiàn)河南省全域16.7萬(wàn)km2的生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑遙感解譯,至少需要10名解譯人員花費(fèi)約20 d(8 h/d)的時(shí)間完成,其特點(diǎn)是操作簡(jiǎn)單且對(duì)設(shè)備性能要求較低;而利用本文構(gòu)建的智能提取模型,完成相同工作量的解譯任務(wù)只需2臺(tái)較高性能計(jì)算機(jī)(NVIDIA GeForce GTX 1070 8 GB顯存)同時(shí)運(yùn)行8 h即可完成,極大地縮減了擾動(dòng)圖斑遙感解譯任務(wù)的時(shí)間成本。
表3 解譯效率統(tǒng)計(jì)
為保證模型能夠?qū)⑦b感影像中的疑似生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑盡可能地都提取出來(lái),在模型訓(xùn)練過程中通過調(diào)整閾值提高了模型的查全率。整體而言,模型對(duì)于由耕地(或裸地)變?yōu)榻ㄖ?或施工動(dòng)土)的區(qū)域具有較強(qiáng)的識(shí)別和提取能力,漏提少、邊界相對(duì)規(guī)則。圖7為利用本文模型對(duì)驗(yàn)證集中疑似生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑提取的部分結(jié)果??梢园l(fā)現(xiàn),模型能夠較為準(zhǔn)確地定位到影像變化擾動(dòng)區(qū)域,提取到的變化圖斑與實(shí)際變化范圍基本一致,尤其對(duì)引調(diào)水工程、工業(yè)園區(qū)、公路工程等規(guī)模性的生產(chǎn)建設(shè)活動(dòng)有良好的提取效果,如圖7(a)—(c)所示。
圖7 生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑提取結(jié)果
智能提取模型很好地解決了人工目視解譯不客觀、效率低等問題,但同時(shí)也會(huì)存在“誤提取”的情況。如圖7(d)將鄰近的不同生產(chǎn)建設(shè)項(xiàng)目合并解譯為同一圖斑,而圖7(e)則將因農(nóng)事耕作等非生產(chǎn)建設(shè)活動(dòng)引起的地表變化區(qū)域誤判為擾動(dòng)圖斑。以上情況只需后期由解譯人員充分結(jié)合項(xiàng)目及解譯經(jīng)驗(yàn)進(jìn)行綜合判定,并做出簡(jiǎn)單的編輯修改即可。
針對(duì)擾動(dòng)圖斑智能提取模型存在的少量“誤提、漏提”等情況,通過搭建遙感監(jiān)管協(xié)作解譯平臺(tái)對(duì)自動(dòng)化提取圖斑進(jìn)行人機(jī)交互修正,在保證解譯效率的同時(shí)全面提高解譯精確性,為水土保持監(jiān)管后續(xù)的核查和查處提供可靠的作業(yè)依據(jù)。遙感監(jiān)管協(xié)作解譯平臺(tái)部分子模塊的圖斑編輯如圖8(a)—(d)所示,孔洞消除和輪廓規(guī)則化子模塊可對(duì)自動(dòng)提取的圖斑結(jié)果進(jìn)行快速批處理,分別實(shí)現(xiàn)矢量面數(shù)據(jù)的微小孔洞填補(bǔ)和復(fù)雜線段簡(jiǎn)化。協(xié)同編輯模塊可將經(jīng)過后處理的矢量圖斑數(shù)據(jù)進(jìn)一步精確化,由解譯人員通過多人在線協(xié)作的方式逐個(gè)對(duì)圖斑進(jìn)行綜合判定,對(duì)不滿足要求的圖斑進(jìn)行合并拆分、邊界修整、錯(cuò)提圖斑剔除等操作。圖8(b)所示模塊是將位置鄰近但明顯不屬于同一生產(chǎn)建設(shè)項(xiàng)目的圖斑進(jìn)行切分,并修改其對(duì)應(yīng)的屬性值。圖8(c)所示的邊界修整子模塊是通過編輯折點(diǎn)調(diào)整矢量范圍,使解譯圖斑邊界更加清晰準(zhǔn)確。圖斑剔除子模塊則可刪除如圖8(d)所示的農(nóng)業(yè)大棚搭建等模型誤提取的非生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑。
圖8 遙感監(jiān)管協(xié)作解譯平臺(tái)圖斑編輯
本文利用高分遙感影像和河南省生產(chǎn)建設(shè)項(xiàng)目水土保持遙感監(jiān)管成果構(gòu)建專題數(shù)據(jù)集,并從人與機(jī)器深度相結(jié)合的角度出發(fā),基于深度學(xué)習(xí)理論提出一個(gè)生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑人機(jī)協(xié)同智能提取框架,主要實(shí)現(xiàn)了以下內(nèi)容:①針對(duì)擾動(dòng)圖斑變化檢測(cè)任務(wù)特點(diǎn)對(duì)雙時(shí)相的遙感影像進(jìn)行預(yù)處理,消除其誤差及風(fēng)格差異,并通過多種數(shù)據(jù)增強(qiáng)方法進(jìn)行擴(kuò)充,構(gòu)建豐富的數(shù)據(jù)集。②通過融合注意力機(jī)制的U-Net++網(wǎng)絡(luò)模型深度挖掘生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑的影像特征,實(shí)現(xiàn)變化擾動(dòng)范圍的自動(dòng)化提取,模型準(zhǔn)確率和召回率分別為79.59%和80.90%,IoU為0.752 0。表明模型對(duì)于目標(biāo)要素具有良好的提取效果,但同時(shí)也存在少量“誤提、漏提”的情況。③通過搭建遙感監(jiān)管分布式并行協(xié)同解譯平臺(tái)實(shí)現(xiàn)對(duì)自動(dòng)化解譯圖斑的批量后處理、協(xié)同編輯、統(tǒng)計(jì)分析等操作,在保證解譯自動(dòng)化、高效化的基礎(chǔ)上,充分發(fā)揮專業(yè)解譯人員的綜合知識(shí)決策能力,對(duì)“誤提、漏提”圖斑進(jìn)行修改。最終將規(guī)范化解譯成果作為新樣本存入樣本庫(kù),并反饋給模型進(jìn)行自主學(xué)習(xí),進(jìn)一步提高模型精度,實(shí)現(xiàn)人機(jī)協(xié)同感知、交互和決策。
本文提出的人機(jī)協(xié)同智能提取技術(shù)框架實(shí)現(xiàn)了生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)圖斑的高效精準(zhǔn)提取,但仍存在不足。首先由于樣本數(shù)據(jù)集制作時(shí),非生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)的負(fù)樣本數(shù)量有限,雖然模型最終收斂但同時(shí)增加了過擬合的風(fēng)險(xiǎn),使其容易對(duì)非生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)進(jìn)行錯(cuò)分。因而在下一步工作中應(yīng)充分考慮非生產(chǎn)建設(shè)項(xiàng)目擾動(dòng)的干擾,豐富數(shù)據(jù)集,增強(qiáng)模型的穩(wěn)健性。其次耦合深度學(xué)習(xí)算法和綜合知識(shí)圖譜的遙感影像解譯方法有待進(jìn)一步探究和完善,以自主學(xué)習(xí)為核心、領(lǐng)域先驗(yàn)知識(shí)為引導(dǎo),全面提升遙感解譯的效率和質(zhì)量。