亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的衛(wèi)星影像自動數(shù)字化技術(shù)

        2023-03-05 05:02:54梁碧儀黃梓煌聶佩林
        現(xiàn)代測繪 2023年6期
        關(guān)鍵詞:分類檢測

        梁碧儀,陳 穎,黃梓煌,聶佩林

        (1.華南師范大學(xué)地理科學(xué)學(xué)院,廣東 廣州 510631;2.佛山科學(xué)技術(shù)學(xué)院環(huán)境與化學(xué)工程學(xué)院,廣東 佛山 528000)

        0 引 言

        隨著遙感數(shù)據(jù)的空間分辨率、時間分辨率、光譜分辨率和輻射分辨率的提高以及數(shù)據(jù)類型的不斷增加[1],傳統(tǒng)的遙感圖像分類(非監(jiān)督分類和監(jiān)督分類)在復(fù)雜的地表環(huán)境下難以滿足分類精度的需求,需要花費(fèi)大量的時間與人力,已不適合當(dāng)前的遙感識別需要。而基于智能算法的非參數(shù)分類器成了遙感影像分類與識別研究的熱點(diǎn),尤其是基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)。大量研究表明,深度學(xué)習(xí)與遙感影像技術(shù)結(jié)合在數(shù)據(jù)降維方面尤為突出,可高精度提取遙感影像的特征,改善遙感影像工作分類難、精度低的現(xiàn)狀。

        當(dāng)前主流的圖像自動識別算法采用Faster R-CNN技術(shù)選取候選方框,并對候選方框的目標(biāo)進(jìn)行分類,從而達(dá)到目標(biāo)的檢測識別[2]。但Faster R-CNN只能實(shí)現(xiàn)分類和回歸,分割還要另外處理。

        Mask R-CNN是可以實(shí)現(xiàn)“分類、回歸和分割”并行的目標(biāo)檢測方法。2017年HE K M等人提出了基于區(qū)域的掩膜卷積網(wǎng)絡(luò)(Mask R-CNN)實(shí)例目標(biāo)分割[3]。Mask R-CNN是一個小巧、靈活的通用對象實(shí)例分割框架,其技術(shù)延伸了Fast R-CNN技術(shù),不僅可對圖像中的目標(biāo)進(jìn)行檢測,還可以對每一個目標(biāo)給出一個高質(zhì)量的分割結(jié)果。目前Mask R-CNN技術(shù)在人臉檢測、車輛檢測、行人檢測等領(lǐng)域應(yīng)用較為廣泛,但在遙感圖像識別領(lǐng)域的應(yīng)用尚未成熟。本文主要簡述了深度學(xué)習(xí)模型結(jié)構(gòu)在遙感圖像分類識別中的應(yīng)用。

        1 研究內(nèi)容

        本實(shí)驗(yàn)基于深度卷積神經(jīng)網(wǎng)絡(luò),運(yùn)用Mask R-CNN算法技術(shù),對衛(wèi)星影像進(jìn)行自動識別。獲取衛(wèi)星影像數(shù)據(jù)后,把衛(wèi)星影像分成水系、綠地、一般道路、高速公路、工業(yè)區(qū)、居住區(qū)、其他地區(qū)這7類進(jìn)行標(biāo)注,完成數(shù)據(jù)預(yù)處理;接著通過Mask R-CNN技術(shù)對衛(wèi)星影像進(jìn)行目標(biāo)檢測,同時把每個類別的目標(biāo)像素分割出來,實(shí)現(xiàn)“分類、回歸和分割”并行。數(shù)據(jù)處理后,導(dǎo)出圖片,用700張經(jīng)過標(biāo)注的圖片進(jìn)行大量的訓(xùn)練學(xué)習(xí),從而生成深度學(xué)習(xí)網(wǎng)絡(luò)。最后用300張沒有經(jīng)過標(biāo)注的圖片進(jìn)行測試,以檢測該訓(xùn)練網(wǎng)絡(luò)的準(zhǔn)確性。具體流程如圖1所示。

        圖1 流程圖

        2 技術(shù)方法

        (1)地圖下載器中獲取衛(wèi)星影像數(shù)據(jù),用標(biāo)注軟件對衛(wèi)星影像的地物進(jìn)行7個類別的分類標(biāo)注,完成數(shù)據(jù)預(yù)處理。

        (2)通過Mask R-CNN技術(shù),對衛(wèi)星影像進(jìn)行目標(biāo)檢測,同時把每個類別的目標(biāo)像素分割出來,實(shí)現(xiàn)“分類、回歸和分割”并行。具體來說,利用該技術(shù)中的ROI分類來進(jìn)行類別預(yù)測;再分別對衛(wèi)星影像中的每個類別設(shè)置二進(jìn)制掩膜。分離掩膜的好處就是不需要在類別間進(jìn)行競爭,用FCN對每個像素分類,以像素到像素的方式預(yù)測遙感圖像[4]。

        Mask R-CNN算法技術(shù)的基本構(gòu)成如下:

        A. Faster R-CNN部分:輸入預(yù)處理過的衛(wèi)星影像到神經(jīng)網(wǎng)絡(luò)中,獲得對應(yīng)的特征圖Feature Map,對特征圖中的點(diǎn)設(shè)定ROI,將這些ROI輸入到RPN網(wǎng)絡(luò)進(jìn)行分類,過濾篩選出一部分ROI。

        B. ROIAlign部分:對上一步處理完的ROI進(jìn)行ROIAlign,基于雙線性插值方法,利用Feature Map上距離采樣點(diǎn)最近的四個像素得到像素值。

        C. FCN部分:對每一個ROI進(jìn)行FCN操作,生成Mask掩膜[5]。

        Mask R-CNN算法技術(shù)的基本構(gòu)成如圖2所示。

        圖2 Mask R-CNN算法技術(shù)構(gòu)成圖

        (3)完成數(shù)據(jù)處理后導(dǎo)出圖片,對700張圖片進(jìn)行訓(xùn)練學(xué)習(xí),進(jìn)而生成人工智能訓(xùn)練網(wǎng)絡(luò),再對300張圖片進(jìn)行測試,以檢驗(yàn)訓(xùn)練網(wǎng)絡(luò)的準(zhǔn)確性。

        3 實(shí)驗(yàn)設(shè)計(jì)

        3.1 實(shí)驗(yàn)環(huán)境

        本實(shí)驗(yàn)在具備Windows10(64bit)操作系統(tǒng)、Intel(R)Corel(TM)i7CPU、GTX1660TiGPU和16GRAM的計(jì)算機(jī)進(jìn)行,使用Microsoft Visual Studio Code搭建 Python3.7開發(fā)環(huán)境,程序后端為Tensorflow,編碼框架為Keras,IDE為Pycharm[6]。

        3.2 實(shí)驗(yàn)數(shù)據(jù)

        數(shù)據(jù)范圍包括禪城區(qū)、南海區(qū)和順德區(qū)。以禪城區(qū)地圖為主,外加順德區(qū)和南海區(qū)中毗鄰禪城區(qū)的一部分區(qū)域。下載的地圖數(shù)據(jù)為天地圖,級別19級,采用WGS 84坐標(biāo)系,最大分辨率高達(dá)0.6 m。地圖數(shù)據(jù)由10 165個瓦片組成,導(dǎo)出時每張圖片格式為3×3瓦片,即9個瓦片,故折算起來總共下載了1 152張地圖。圖片每36張分為一組,每組前35張分辨率為768×768,第36張分辨率為768×512。本次實(shí)驗(yàn)訓(xùn)練圖片的數(shù)量為1 000張,測試圖片數(shù)量約為300張。

        3.3 實(shí)驗(yàn)過程

        3.3.1 數(shù)據(jù)預(yù)處理

        導(dǎo)入1 152張衛(wèi)星遙感影像到標(biāo)注軟件Via-1.0.4中,對各地物的輪廓進(jìn)行描繪并添加標(biāo)注,這一步驟需要人工判斷,且命名規(guī)范要一致。對描繪形成的區(qū)域分為7類:水系(River System)、綠地(Green Space)、一般道路(Ordinary Road)、高速公路(Highway)、工業(yè)區(qū)(Industrial Zone)、居住區(qū)(Residence Zone)、其他功能區(qū)(Other Regions)。標(biāo)注后將結(jié)果導(dǎo)出為JSON格式,便于后續(xù)導(dǎo)入生成人工智能訓(xùn)練網(wǎng)絡(luò)。標(biāo)注過程如圖3所示。

        圖3 標(biāo)注過程

        3.3.2 訓(xùn)練網(wǎng)絡(luò)

        本實(shí)驗(yàn)采用的Mask R-CNN技術(shù)是Faster R-CNN技術(shù)的擴(kuò)展形式,在有效檢測圖像目標(biāo)的同時,能夠輸出高質(zhì)量的實(shí)例分割掩碼。在預(yù)處理過的衛(wèi)星遙感影像中,選1 000張放到卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,獲得對應(yīng)的特征圖(Feature Map)?;谙惹暗臉?biāo)注,卷積神經(jīng)網(wǎng)絡(luò)對1 000張地圖提取感興趣的區(qū)域(ROI)。在每個感興趣區(qū)域(ROI)上添加用于預(yù)測分割編碼的分支,與用于分類和邊界框回歸的現(xiàn)有分支并行,使其訓(xùn)練更加簡單且更容易推廣到其他任務(wù)中。

        本技術(shù)采用交叉驗(yàn)證的方式。隨著訓(xùn)練樣本的增加,誤差變低。將1 000張樣本分為訓(xùn)練集和驗(yàn)證集。其中,訓(xùn)練集占700張。經(jīng)過大量的訓(xùn)練、學(xué)習(xí),最終生成人工智能訓(xùn)練網(wǎng)絡(luò),訓(xùn)練過程中如表1所示,總誤差L= 0.002 6+0.002 5+0.044 2+0.012 8+0.056 5=0.118 6,以此創(chuàng)建訓(xùn)練模型。用訓(xùn)練模型對300張圖片進(jìn)行檢測,并創(chuàng)建檢測模型(表2),檢測結(jié)果的參數(shù)如表3所示。

        表1 訓(xùn)練誤差

        表2 創(chuàng)建驗(yàn)證模型

        表3 檢測結(jié)果

        3.3.3 基于ENVI的遙感圖像分類

        采用傳統(tǒng)監(jiān)督分類方法中的“最大似然法”,在ENVI上對相同數(shù)據(jù)集中的50張圖片進(jìn)行遙感圖像分類。目前的遙感影像自動分類方法主要是利用地物(或?qū)ο?在遙感影像上反映出來的光譜特征來進(jìn)行識別與分類[7]。最大似然分類方法對于光譜特性呈正態(tài)分布的遙感影像能提供較高的分類精度;而對于光譜特性呈非正態(tài)分布或偏離正態(tài)分布總體的遙感影像,實(shí)際分類效果并不理想[8]??傮w上看,因?yàn)樗蚝途G地的光譜特性最接近正態(tài)分布,所以分類誤差低,精度較高,分類效果較好,但也有小部分區(qū)域劃分為其他類別的用地,類別之間沒有完全區(qū)分開。而其他類別,如道路、工業(yè)區(qū)等分類精度低,主要原因是光譜特征非常相近,分類過程中容易出現(xiàn)噪點(diǎn)較多、相互錯分等問題。

        3.3.4 網(wǎng)絡(luò)測試與結(jié)果分析

        生成人工智能訓(xùn)練網(wǎng)絡(luò)后,對未經(jīng)訓(xùn)練的近300張衛(wèi)星遙感影像進(jìn)行測試。利用Mask R-CNN對不同類別的地塊進(jìn)行分類,不同的顏色即RPN經(jīng)過訓(xùn)練學(xué)習(xí)之后得到的分類結(jié)果。以兩張訓(xùn)練原圖為例(圖4-圖5),圖6和圖7分別是圖4和圖5基于ENVI最大似然法的遙感圖像分類,圖8和圖9分別是圖4和圖5基于Mask R-CNN的遙感圖像分類??傮w來說,基于Mask R-CNN的圖像分類結(jié)果準(zhǔn)確率能達(dá)到80%以上,如圖10所示。其中,識別率最高的是道路、水系、綠地,準(zhǔn)確率達(dá)到85%,原因在于這些地塊的輪廓清晰、特征明顯、面積較大。識別率較低的是居住區(qū)、商業(yè)區(qū)和部分工業(yè)區(qū),只達(dá)到65%的準(zhǔn)確率。其原因?yàn)?① 這些場景的相似度較高;② 數(shù)據(jù)集的數(shù)量較少;③ 尺寸過大的目標(biāo)在候選框選取過程中,容易將小目標(biāo)包括進(jìn)去,造成在特征提取和目標(biāo)識別結(jié)果分析中,出現(xiàn)小目標(biāo)漏檢的情況;④ 缺乏對目標(biāo)的輪廓描述和像素描述,導(dǎo)致很多具有局部特征的非目標(biāo)地物被檢測為目標(biāo),為精細(xì)化識別帶來困難。

        圖4 訓(xùn)練原圖A

        圖5 訓(xùn)練原圖B

        圖6 ENVI遙感分類圖A

        圖7 ENVI遙感分類圖B

        圖8 Mask R-CNN分類圖A

        圖9 Mask R-CNN分類圖B

        基于ENVI最大似然法的遙感圖像分類,雖計(jì)算的時間較短,但需要手動選取特征,且由于遙感圖像本身的空間分辨率的限制以及同物異譜、異物同譜現(xiàn)象的存在,往往出現(xiàn)較多的錯分、漏分現(xiàn)象,噪點(diǎn)較多,導(dǎo)致分類精度不高,這種分類方法更適合中低分辨率、數(shù)據(jù)量較少的遙感圖像分類工作;而基于Mask R-CNN的遙感圖像分類,對衛(wèi)星影像進(jìn)行目標(biāo)檢測的同時,把每個類別的目標(biāo)像素分割出來,實(shí)現(xiàn)“分類、回歸和分割”并行,雖計(jì)算時間較長,但只要標(biāo)注樣本,就無須對所有圖像手工選取特征,通過網(wǎng)絡(luò)模型自主訓(xùn)練,精度較高、不存在噪點(diǎn),類別之間劃分清晰,更適合分辨率高、數(shù)據(jù)量大的遙感圖像分類工作。

        4 結(jié) 語

        針對傳統(tǒng)的地物識別方法效率低、檢測速度慢、誤檢率和漏檢率高的問題[9],本文提出了一種基于Mask R-CNN技術(shù)的衛(wèi)星影像自動數(shù)字化技術(shù)。通過利用Mask R-CNN算法技術(shù)對遙感圖像進(jìn)行識別,對經(jīng)過數(shù)據(jù)處理后的衛(wèi)星影像進(jìn)行訓(xùn)練,并提取其幾何特征。最后能夠?qū)τ跋竦闹匾獙ο筇卣鬟M(jìn)行識別。總體上,全部圖像分類的結(jié)果準(zhǔn)確率達(dá)到80%以上,可實(shí)現(xiàn)衛(wèi)星影像的自動數(shù)字化。不足的是,訓(xùn)練數(shù)據(jù)的分辨率較低,導(dǎo)致個別類別識別不全。該項(xiàng)技術(shù)的目標(biāo)識別準(zhǔn)確率還有待提高,需加強(qiáng)對目標(biāo)的輪廓描述和像素描述。同時還需加強(qiáng)樣本多樣化,提高樣本庫的數(shù)量和質(zhì)量,引入數(shù)據(jù)增廣算法,從數(shù)據(jù)方面增強(qiáng)學(xué)習(xí)的準(zhǔn)確性和泛化性;網(wǎng)絡(luò)結(jié)構(gòu)需針對大場景、多尺度的密集目標(biāo)進(jìn)行改進(jìn),提出更加符合遙感目標(biāo)特性的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[10]。

        隨著未來商業(yè)衛(wèi)星的數(shù)量增多,該項(xiàng)技術(shù)有利于商用衛(wèi)星進(jìn)行數(shù)據(jù)分析?;谏疃葘W(xué)習(xí)的衛(wèi)星影像自動數(shù)字化技術(shù)在未來市場應(yīng)用中具有非常好的前景。

        猜你喜歡
        分類檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        “幾何圖形”檢測題
        “角”檢測題
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        精品国产福利久久久| 亚洲av无码国产综合专区| 最近中文字幕完整版免费 | 狠色人妻丝袜中文字幕| 精品无码国产自产拍在线观看 | 人妻少妇激情久久综合| 在线观看亚洲第一黄片| 50岁退休熟女露脸高潮| 欧美三级免费网站| 亚洲av永久综合网站美女| 日本男人精品一区二区| 2018国产精华国产精品| 国产精品第1页在线观看| 俺来也三区四区高清视频在线观看| 日本不卡在线视频二区三区| 亚洲免费网站观看视频| 久久综合亚洲色社区| 国产精品久久国产精麻豆| 色噜噜亚洲男人的天堂| 中文字幕av一区中文字幕天堂| 一区二区三区国产在线网站视频| 在线亚洲精品中文字幕美乳色| 护士的小嫩嫩好紧好爽| 三上悠亚av影院在线看| 中文字幕无码免费久久9| 久久一区二区国产精品| 蜜臀av午夜一区二区三区| 中文字幕在线亚洲一区二区三区| 色青青女同性恋视频日本熟女| 中文字幕国产精品一二三四五区| 午夜精品一区二区三区的区别| 亚洲 欧美 激情 小说 另类| 中文字幕久久精品一区二区| 少妇做爰免费视频了| 国产精品厕所| 国产女主播视频一区二区三区| 青春草在线视频观看| 最好看的最新高清中文视频| 日韩AV无码乱伦丝袜一区| 最新日本人妻中文字幕| 97人妻碰碰视频免费上线|