亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于生成式對抗網絡的遙感影像云檢測方法

        2018-06-05 12:12:27侯恩兵
        地理空間信息 2018年5期
        關鍵詞:檢測方法

        朱 清,侯恩兵

        (1.安徽省基礎測繪信息中心,安徽 合肥 230031;2.安徽省智慧城市與地理國情監(jiān)測重點實驗室,安徽 合肥230031)

        星載衛(wèi)星拍攝的原始遙感影像中,大約有50%以上被云層覆蓋,而云層的存在遮擋了地表的地理信息,同時也影響了影像的融合、配準等后續(xù)處理,因此,對原始衛(wèi)星遙感影像進行云檢測是有必要的[1-2]。一般的,遙感影像包含紅、綠、藍以及紅外4個波段,而云在這4個波段中的像素值均為最小值,尤其在藍色與紅外波段中。很多遙感影像云檢測方法就是根據(jù)該特點分離云層與其他地物[3-4],如將最大類間自適應閾值(Otsu)應用在遙感影像云檢測中[5]。該方法能取得較好的結果,但存在誤檢、漏檢的情況,如地表一些高亮反光物體(廠房屋頂、雪山、積雪等)會被誤檢為云,而一些薄云、小云塊則會被漏檢。同時,檢測閾值也需人為干預,適應能力有一定局限性。

        近年來,隨著科學技術的發(fā)展,人們獲得的遙感影像數(shù)據(jù)分辨率不斷提高,深度學習的發(fā)展也為人們在遙感影像云檢測中的探索提供了一種新的方向。深度學習有著強大的非線性映射能力,能很好地學習到復雜數(shù)據(jù)中的復雜關系。許多研究者使用支持向量機(SVM)、人工神經網絡(ANN)等簡單網絡結構來進行云檢測,隨著硬件條件和數(shù)據(jù)質量的提升,更復雜的模型得以應用。2012年提出的AlexNet卷積神經網絡在ILSVRC 2012中大放異彩,獲得冠軍[6]。2015年,全卷積神經網絡在Pascal VOC-2012數(shù)據(jù)集圖像分割上取得了較好的分類結果[7]。卷積神經網絡是一種較為常用的深度學習算法,其參數(shù)通過梯度下降、反向傳播的方式進行調整。經過訓練的全卷積神經網絡可充分挖掘遙感影像中的特征,完成遙感影像中不同目標的分類[8]。2014年,Goodfellow I[9]等提出生成式對抗網絡,其在結構上受零和博弈的影響,由一個生成器和一個判別器組成。生成器和判別器均由不同的深度神經網絡構成[10]。

        針對傳統(tǒng)方法在遙感影像云檢測中出現(xiàn)的漏檢、誤檢問題,本文提出了一種基于生成式對抗網絡的遙感影像云檢測方法。首先,使用原始遙感影像數(shù)據(jù)與人工分割好的云檢測圖訓練生成器網絡,同時使用人工分割好的云檢測圖訓練判別器網絡;再將生成器生成的結果交由判別器判斷,并將判斷結果反饋給生成器網絡,使之調整參數(shù)直至判別器認為生成器生成結果與人工分割好的云圖相差無異,訓練結束;最后使用訓練好的生成器進行遙感影像的云檢測,獲得檢測結果。

        1 研究原理與方法

        1.1 生成式對抗網絡(GANs)

        GANs的靈感來源于博弈論中的納什均衡,由一個生成器和一個判別器構成。生成器的目的是盡量學習數(shù)據(jù)的真實分布,而判別器的目的則是盡量正確地判斷輸入數(shù)據(jù)是真實數(shù)據(jù)還是來自生成器。為了達到平衡,二者需要不斷地對自己進行優(yōu)化,以提高生成能力和判別能力,其過程就是一個尋找納什均衡的過程。

        GANs的運行方式如圖1所示。任意可微分函數(shù)均可由GANs的生成器和判別器表示。用可微分函數(shù)F和G分別表示判別器和生成器,它們的輸入分別是任意真實數(shù)據(jù)x和隨機變量y。G(y)為由G生成的盡量擬合真實數(shù)據(jù)分布pdata的樣本。若判別器的輸入來自真實數(shù)據(jù),則被標注為1;反之,為0。F的目標是實現(xiàn)對輸入數(shù)據(jù)的二分判別,即數(shù)據(jù)是否來自真實數(shù)據(jù);G的目標是使自己生成的數(shù)據(jù)與真實數(shù)據(jù)的分布盡可能保持一致,使得判別器無法判別生成數(shù)據(jù)的真?zhèn)巍_@個過程使得F和G不斷自我優(yōu)化,直至雙方達到一種平衡[11]。

        圖1 GANs計算流程圖

        1.2 GANs學習原理

        在給定生成器G的情況下,考慮最優(yōu)化判別器F。與基于Sigmoid的判別模型一樣,訓練判別器F也是最小化損失函數(shù)的過程。具體的,此處損失函數(shù)為交叉熵,其表達式為:

        式中,x來自于真實數(shù)據(jù)分布pdata(x);y來自于先驗分布py(y);E(*)為計算的期望值。特別的,此處來源于真實數(shù)據(jù)集的數(shù)據(jù)被標注為1,來自生成器的數(shù)據(jù)被標注為0。

        給定生成器G,需要通過最小化式(1)得到最優(yōu)解,在連續(xù)空間中,式(1)可寫為:

        對任意的非零實數(shù)m和n,且有a∈[0,1],表達式-mlog(a)-nlog(1-a)在m處得到最小值,因此給m+n定生成器G時,式(2)在處得到最小值,即為判別器最優(yōu)解。

        F(x)代表的是x來源于真實數(shù)據(jù)而非生成數(shù)據(jù),當輸入數(shù)據(jù)來自于真實數(shù)據(jù)時,F(xiàn)的目標就是使輸出概率值F(x)趨近于1,而當輸入數(shù)據(jù)來自于生成數(shù)據(jù)G(y)時,F(xiàn)的目標就是正確判斷數(shù)據(jù)出處,使得F(G(y))趨近于0,同時G的目標是使其趨近于1。如此,GANs的目標函數(shù)可描述為:

        在訓練時,同一輪參數(shù)更新中,一般先對F的參數(shù)更新k次再對G的參數(shù)更新一次。

        1.3 生成器模型

        全卷積神經網絡(FCNN)和卷積神經網絡(CNN)都是含有多層網絡的神經網絡模型,由感知器、BP神經網絡發(fā)展而來。與CNN的卷積層之后使用全連接層獲得固定長度向量進行分類不同,F(xiàn)CNN將全連接層替換為卷積層,利用反卷積的方式對前一層的輸出進行上采樣操作,恢復至與原圖同樣的大小,再對每個像素進行分類,得到最后的檢測結果。對圖像的卷積過程可描述為:

        式中,l為卷積層所在的層數(shù);w為卷積核的權重參數(shù);b為偏置;f為激活函數(shù),此處為Relu函數(shù),在保持與Sigmoid相同作用的情況下做到較快收斂,同時減小梯度消失的問題。

        本文使用AlexNet作為生成器模型,將其最后的全連接層改為卷積層。具體的AlexNet網絡結構如圖2所示[12-13]。

        圖2 AlexNet網絡結構圖

        1.4 判別器模型

        為了得到更優(yōu)性能的判別器,本文采用VGG作為判別器。相對于AlexNet,VGG采用了更深的網絡結構,能采集到更多的圖像特征,在性能上也優(yōu)于AlexNet,可作為一個“更強大”的判別器來對抗生成器。VGG- 19網絡結構如圖3所示[12-13]。

        2 實驗與結果分析

        為了驗證基于生成式對抗網絡的遙感影像云檢測方法的有效性,將實驗結果與參考文獻[5]提出的Otsu云檢測方法和參考文獻[7]提出的FCNN作對比。以GF-1號原始遙感影像作為實驗對象,影像1如圖4a所示,空間分辨率為2 m,大小為8 856像素 ×8 976像素,云類型為薄云和厚云,地物類型主要為山體;影像2如圖4b所示,無云覆蓋,主要地物為城市、農田、湖泊,空間分辨率為2 m,大小為8 856像素×8 976像素。

        圖3 VGG-19網絡結構圖

        圖4 GF-1號原始影像

        在數(shù)據(jù)準備階段,將檢測類別分為云和背景,使用GF-1號原始影像數(shù)據(jù)進行人工標注,并將圖片進行切分處理,共得到訓練樣本2 500片,主要用于模型的訓練和檢驗。實驗采用Linux下的Tensorflow機器學習框架,硬件環(huán)境為CPU i7處理器、GPU Nvidia 1080 8G內存;使用修改后的AlexNet作為生成器,修改后的VGG作為判別器。將生成器生成結果交由判別器判別,直至判別器認為生成數(shù)據(jù)來源于人工標志數(shù)據(jù)而非生成器生成數(shù)據(jù)為止。本文方法云檢測結果如圖5a、5d所示,Otsu的云檢測結果如圖5b、5e所示,F(xiàn)CNN云檢測結果如圖5c、5f所示。

        圖5 3種方法云檢測效果對比

        由圖5a、5b可知,本文檢測方法和Otsu方法獲取結果的云邊界清晰,能較好地識別出薄云和厚云;由圖5c可知,F(xiàn)CNN方法檢測厚云和薄云的效果最好,但邊界較模糊,也存在一些漏檢現(xiàn)象;由圖5e中可知,Otsu方法的檢測結果存在誤檢現(xiàn)象,將高反光物體誤檢測為云;由圖5d、5f可知,本文方法和FCNN方法不存在誤檢現(xiàn)象,具體對比如表1所示。

        表1 3種方法云檢測效果對比

        由表1可知,相對于Otsu方法和FCNN方法,本文所設計云檢測算法在識別率、識別精度上有一定優(yōu)勢,且誤檢率和漏檢率較低。Otsu方法雖能有效檢測厚云和薄云,但也存在誤檢現(xiàn)象,未考慮云本身的形態(tài)學特征,因而對一些高亮物體無法進行排除判斷。FCNN方法能有效檢測厚云和薄云,也避免了誤檢現(xiàn)象,但存在一定的漏檢現(xiàn)象,同時檢測的云邊緣也不是特別清晰。

        通過以上對比分析可知,本文提出的云檢測方法效果較好,能較好地學習到云的復雜特征,進而獲取較好的檢測結果。

        3 結 語

        本文將GANs應用到遙感影像云檢測中,在一定程度上彌補了傳統(tǒng)方法未考慮云形態(tài)學特征的不足。該方法可用于云區(qū)域提取、遙感影像質量控制等方面,其主要優(yōu)勢包括檢測精度高、邊緣清晰、誤檢漏檢率低,適用于有云和無云圖像。下一步工作將探索檢測更多的面目標(如水域、農田、礦區(qū)等),以擴大本文方法的適用范圍,同時進一步優(yōu)化該方法,獲取更高的檢測精度。

        [1] ZHU Z, Woodcock C E. Object-based Cloud and Cloud Shadow Detection in Landsat Imagery[J]. Remote Sensing of Environment,2012,118(6):83-94

        [2] ZHU Z, Woodcock C E. Automated Cloud, Cloud Shadow,and Snow Detection in Multi-temporal Landsat Data: an Algorithm Designed Specifically for Monitoring Land Cover Change [J]. Remote Sensing of Environment,2014(152):217-234

        [3] 劉大偉,韓玲,韓曉勇.基于深度學習的高分辨率遙感影像分類研究[J].光學學報,2016,36(4):306-314

        [4] 陳洋,范榮雙,王競雪,等.結合相位一致和分水嶺變換的高分辨率遙感影像分割方法[J].激光與光電子學進展,2017,54(9):381-386

        [5] 高賢君,萬幼川,鄭順義,等.航空攝影過程中云的實時自動檢測[J].光譜學與光譜分析,2014,34(7):1 909-1 913

        [6] Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[J].International Conference on Neural Information Processing Systems,2012,60(2):1 097-1 105

        [7] LONG J, Shelhamer E, Darrell T. Fully Convolutional Networks for Semantic Segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,39(4):640

        [8] YU Q, GONG P, Clinton N, et al. Object-based Detailed Vegetation Classification with Airborne High Spatial Resolution Remote Sensing Imagery[J]. Photogrammetric Engineering and Remote Sensing,2006,72(7):799-811

        [9] Goodfellow I, Pougetabadie J, Mirza M, et al. Generative Adversarial Nets[C]. Advances in Neural Information Processing Systems,2014:2 672-2 680

        [10] Heaton J. Ian Goodfellow, Yoshua Bengio, and Aaron Courville:Deep Learning[C]. Genetic Programming and Evolvable Machines,2017:1-3

        [11] Bengio Y, Courville A, Vincent P. Representation Learning: a Review and New Perspectives[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,35(8):1 798-1 828

        [12] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-scale Image Recognition[M]. Computer Science,2014

        [13] Deep Learning 回 顧 之 LeNet、AlexNet、GoogLeNet、VGG、ResNet[EB/OL].[2016-08-30].http://www.cnblogs.com/52machinelearning/p/5821591.html

        猜你喜歡
        檢測方法
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        學習方法
        可能是方法不對
        小波變換在PCB缺陷檢測中的應用
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        一边摸一边抽搐一进一出视频| 亚洲啊啊啊一区二区三区| 男的和女的打扑克的视频| 亚洲人不卡另类日韩精品| 免费国产黄网站在线观看可以下载| 国产精品嫩草影院AV| 女同成片av免费观看| 久草视频这里只有精品| 国产肉体xxxx裸体137大胆| 日韩精品成人一区二区三区| 国产免费一区二区av| 久久国产在线精品观看| 国产精品∧v在线观看| 久久久精品3d动漫一区二区三区| 天堂视频一区二区免费在线观看 | 国产白浆一区二区三区佳柔| 狠狠色噜噜狠狠狠777米奇| 天天综合亚洲色在线精品| 久9热免费精品视频在线观看| 久久精品国产自产对白一区| 成人试看120秒体验区| av无码久久久久久不卡网站| 国产免费午夜福利蜜芽无码| 嫩呦国产一区二区三区av| 久久无码av一区二区三区| 欧美黑人性色黄在线视频| 亚洲男人在线天堂av| av区无码字幕中文色| 国产在线无码制服丝袜无码| 国产午夜精品久久久久九九| 中文字幕在线乱码亚洲| 999国内精品永久免费观看| 囯产精品无码va一区二区| 亚洲天堂线上免费av| 国产丝袜美女| 大地资源中文第三页| 精品国产一区二区三区男人吃奶| 日本亚洲国产精品久久| 亚洲av中文无码乱人伦在线r▽| 亚洲VR永久无码一区| 国产精品亚洲一区二区麻豆|