亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于可控多樣性生成對(duì)抗網(wǎng)絡(luò)的水環(huán)境遙感影像場(chǎng)景分類(lèi)方法

        2023-09-21 01:01:56周發(fā)超高明亞
        西北水電 2023年4期
        關(guān)鍵詞:張量精度分類(lèi)

        趙 濤,彭 峰,周發(fā)超,高明亞,劉 超,羅 楠

        (1. 水工程智慧建造與管理湖北省重點(diǎn)實(shí)驗(yàn)室,湖北 宜昌 443002;2. 湖北省河湖長(zhǎng)制辦公室,武漢 430064)

        0 前 言

        遙感影像場(chǎng)景分類(lèi)技術(shù)可以將遙感影像塊自動(dòng)劃分為不同的類(lèi)目,在城市規(guī)劃、環(huán)境監(jiān)測(cè)、土地資源管理等方面均有著較大的應(yīng)用價(jià)值[1],在水庫(kù)水位庫(kù)容的應(yīng)用越來(lái)越成熟,并取得了良好的效果[2]。隨著人工智能技術(shù)的進(jìn)步,以卷積神經(jīng)網(wǎng)(Convolutional Neural Network,CNN)為代表的深度模型的分類(lèi)技術(shù)已經(jīng)成為遙感場(chǎng)景分類(lèi)方法的標(biāo)準(zhǔn)方法[3-4]。利用CNN可以提取出遙感場(chǎng)景中更高層次的屬性信息,并獲得遠(yuǎn)超傳統(tǒng)淺層模型的分類(lèi)精度[5];同時(shí)基于CNN結(jié)構(gòu)在場(chǎng)景分類(lèi)中還可以加入注意力機(jī)制、記憶機(jī)制來(lái)不斷提高場(chǎng)景分類(lèi)精度[6-8]。

        CNN等深度模型需要大量的樣本來(lái)進(jìn)行訓(xùn)練,然而在實(shí)際工作中往往會(huì)遇到研究區(qū)范圍較小或待分類(lèi)對(duì)象數(shù)量本身就較少的情況,此時(shí)會(huì)遇到困難:要么提供極少的樣本,分類(lèi)模型無(wú)法得到充分訓(xùn)練,進(jìn)而無(wú)法有效分類(lèi);要么將幾乎所有需區(qū)分的對(duì)象加入到樣本集,此時(shí)已經(jīng)不需要進(jìn)行自動(dòng)分類(lèi)了[9]。因此,在實(shí)際場(chǎng)景分類(lèi)應(yīng)用中CNN需要應(yīng)對(duì)小樣本的問(wèn)題[10]。

        不同于傳統(tǒng)模型,CNN參數(shù)量較大,可記住所有的少量樣本中所有細(xì)節(jié),所以在樣本量較少的情況下CNN易于擬合與場(chǎng)景中的特異差異[11-12]。為了提高CNN小樣本情況下的表現(xiàn),目前在遙感和圖像識(shí)別領(lǐng)域主要采取的手段是利用幾何變換方式對(duì)樣本影像進(jìn)行一定方向和尺度上的變換來(lái)提高樣本數(shù)量[13],這種方式在有較大的通用數(shù)據(jù)集上表現(xiàn)較好;基于小波變換的匹配算法較好地解決了在空間分辨率不高的條件下高光譜影像的分類(lèi)問(wèn)題[14],但是在樣本較少的情況下可能會(huì)引發(fā)類(lèi)目混淆的特征被放大的情況[15]。

        生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)為解決小樣本的問(wèn)題提供了新的思路。生成對(duì)抗網(wǎng)絡(luò)包含生成器G和辨別器D,通過(guò)兩個(gè)模型的對(duì)抗訓(xùn)練,GAN可以識(shí)別出樣本中的關(guān)鍵特征[16],可以有效的克服過(guò)度擬合、噪聲和樣本交疊等問(wèn)題的影響,并生成可用于放大(Gugmentation)樣本集的影像數(shù)據(jù)[17-18]。在水環(huán)境遙感場(chǎng)景分類(lèi)領(lǐng)域,GAN得到了較多的關(guān)注,在識(shí)別關(guān)鍵特征方面,GAN可以有效的處理高維度(如使用高光譜影像)和低樣本量之間的關(guān)系并發(fā)現(xiàn)類(lèi)目的關(guān)鍵特征[19-20]。在樣本集放大方面,Xu等構(gòu)造了線(xiàn)性指數(shù)結(jié)構(gòu)來(lái)增強(qiáng)傳統(tǒng)的GAN生成高分辨場(chǎng)景影像的能力[21];Ma等實(shí)現(xiàn)了基于GAN在線(xiàn)高多樣場(chǎng)景樣本生成,獲得的分類(lèi)模型精度高于傳統(tǒng)幾何變換增強(qiáng)的模型[22]。利用GAN進(jìn)行遙感影像生成,并提高分類(lèi)精度的關(guān)鍵是提高空間信息的多樣性。通過(guò)GAN可以提高空間形成更多的空間內(nèi)容組合,從而避免出現(xiàn)幾何變換中常出現(xiàn)的混淆屬性被放大的情況[23]。采用逐層放大的近似高斯濾波器對(duì)輸入影像的積分圖像進(jìn)行卷積操作,獲取金字塔影像[24]。

        生成對(duì)抗網(wǎng)絡(luò)制造的遙感樣本的空間多樣性來(lái)自于輸入的隨機(jī)串z,此時(shí)對(duì)于z可能會(huì)遇到兩個(gè)問(wèn)題:① 隨機(jī)性降低,部分隨機(jī)性可能在G神經(jīng)網(wǎng)前幾層別看做噪聲處理掉從而喪失一部分隨機(jī)內(nèi)容[25];② 不可控性,從隨機(jī)串到隨機(jī)空間結(jié)構(gòu)完全由權(quán)重來(lái)控制,而權(quán)重的訓(xùn)練具有隨機(jī)性,難以確定串的特定位置控制了哪些結(jié)構(gòu)[26]。這此問(wèn)題直接導(dǎo)致了在利用GAN生成遙感樣本的時(shí)候陷入兩難境地。為保證單個(gè)樣本質(zhì)量許引入更多層次結(jié)構(gòu),這會(huì)顯著降低空間多樣性;為提高空間多樣性減少網(wǎng)絡(luò)層數(shù),反而會(huì)降低單個(gè)樣本質(zhì)量,使得基于GAN的場(chǎng)景分類(lèi)方法生成的樣本空間多樣性有限,且非常難于控制與實(shí)驗(yàn)。

        隨著水利遙感定量應(yīng)用的深入,利用衛(wèi)星遙感影像提取水體面積、幾何形態(tài)、水質(zhì)狀況和水體生態(tài)環(huán)境等信息已在水資源調(diào)查、水資源宏觀監(jiān)測(cè)、環(huán)境保護(hù)、自然災(zāi)害預(yù)報(bào)、土地分類(lèi)等領(lǐng)域得到了應(yīng)用。水體信息提取對(duì)于水資源調(diào)查、洪水災(zāi)害預(yù)測(cè)評(píng)估、水利規(guī)劃、環(huán)境監(jiān)測(cè)等起著十分重要的作用[27]。隨著社會(huì)對(duì)環(huán)境和水利的日益重視,人們對(duì)水體信息提取的要求越來(lái)越嚴(yán)格。雖然傳統(tǒng)的野外測(cè)量能夠獲得高精度的水體信息,但由于地表干涸枯澤、瞬息多變,水資源季節(jié)性變化很強(qiáng),年際變化也很大,且野外測(cè)量周期長(zhǎng)、費(fèi)時(shí)費(fèi)力,不適合水資源信息的及時(shí)獲取和適時(shí)監(jiān)測(cè);而遙感影像成像周期較短,適時(shí)性強(qiáng),并且成像精度日益提高,如果能利用高分辨率影像提取高精度的水體信息,則可以快速、準(zhǔn)確、及時(shí)地獲得水體資源信息,以彌補(bǔ)野外測(cè)量的不足[28]。

        為了解決上述問(wèn)題,本文通過(guò)引入張量生成器T,構(gòu)建在空間結(jié)構(gòu)與細(xì)節(jié)上具有多樣性的二維描述張量,實(shí)現(xiàn)空間多樣性的可控性,然后再通過(guò)生成器G將二維描述張量轉(zhuǎn)換為遙感場(chǎng)景影像,并引入U(xiǎn)C-Merced和AID兩個(gè)遙感場(chǎng)景分類(lèi)數(shù)據(jù)集來(lái)進(jìn)行對(duì)比實(shí)驗(yàn)?;谏蓪?duì)抗網(wǎng)絡(luò)模型,提出一種可控多樣性生成對(duì)抗網(wǎng)絡(luò)的水環(huán)境遙感影像場(chǎng)景分類(lèi)方法(A Controlled Diversity Generative Adversarial Network for Scene Classification of Remote Sensing Images of Water Environment,CD-GAN),以適用于小樣本遙感分類(lèi)場(chǎng)景,為水環(huán)境識(shí)別與監(jiān)測(cè)提供技術(shù)支撐。

        1 方法描述

        1.1 方法總體過(guò)程

        針對(duì)現(xiàn)有研究中存在的問(wèn)題,CD-GAN的主要目標(biāo)就是要生成具備足夠空間多樣性的樣本來(lái)促進(jìn)CNN的訓(xùn)練過(guò)程,CD-GAN方法的總體流程如圖1所示。

        圖1 CD-GAN方法的總體流程

        如圖1所示:對(duì)于一個(gè)水環(huán)境遙感場(chǎng)景分類(lèi)任務(wù),輸入為包含Ncategory個(gè)類(lèi)別的真實(shí)訓(xùn)練樣本集TR= {tr1,tr2...,trNcategory},其中tri為類(lèi)目i遙感影像樣本的集合。CD-GAN包含3個(gè)組成部分:空間張量生成器(Spatial Tensor generator,T)、生成器(Generator,G)和分辨器(Discriminator,D)。T用于隨機(jī)生成一個(gè)空間描述z,G接收一個(gè)z來(lái)生成偽場(chǎng)景圖像G(z)。對(duì)于輸入圖像x,D的決策結(jié)果為D(x)(圖像x是真實(shí)的來(lái)自于tri或偽造的G(z)),D和G具有對(duì)抗性關(guān)系。CD-GAN的目標(biāo)公式是:

        +Ez~p(z)[log(1-D(G(z)))]

        (1)

        其中E是期望算子,真實(shí)影像的分布是p(x),生成器產(chǎn)生的z對(duì)應(yīng)分布為p(z)。通過(guò)逐漸優(yōu)化式(1),G生成的圖像越來(lái)越逼近真實(shí)圖像。此時(shí)對(duì)于一個(gè)場(chǎng)景影像類(lèi)目i對(duì)抗模型CD-GAN可以表示為一個(gè)生成過(guò)程:

        CD-GAN(tri)→tgi

        (2)

        此時(shí)CD-GAN具備了發(fā)現(xiàn)tri中的關(guān)鍵空間特征,并以隨機(jī)方式生成一系列影像tdi的能力。迭代應(yīng)用CD-GAN的訓(xùn)練和生成過(guò)程就可以實(shí)現(xiàn)對(duì)原始樣本集TR在空間信息上的增強(qiáng)。本文描述的方法的總體流程如下:

        CD-GAN Overall Process Algorithm CG-GAN總體流程(GAN-OP)

        Input:TR

        Output:Mcnn

        Begin

        TD=?;

        MCD-GAN=初始化一個(gè)CD-GAN模型;

        fori=1:Ncategory

        利用公式1并使用樣本集tri訓(xùn)練MCD-GAN;

        利用MCD-GAN的T和G來(lái)生成樣本tgi;

        tdi={tri,tgi};

        TD←tdi;

        Mcnn=構(gòu)建一個(gè)CNN模型M,使用TD訓(xùn)練M;

        returnMcnn;

        End

        GAN-OP的輸入為訓(xùn)練遙感場(chǎng)景樣本集TD;對(duì)于每一個(gè)類(lèi)目tri,CD-GAN訓(xùn)練并發(fā)現(xiàn)樣本中的高層次空間特征的組合。T生成的隨機(jī)張量并利用G將這些張量轉(zhuǎn)換為對(duì)應(yīng)生成樣本tgi,此時(shí)可以構(gòu)建構(gòu)成了一組對(duì)應(yīng)于類(lèi)別i的增強(qiáng)樣本tdi={tri,tgi}。在處理完所有類(lèi)目之后可以獲得多樣性增強(qiáng)的訓(xùn)練樣本集TD= {td1,td2,…,tdNcategory};利用TD可以訓(xùn)練一個(gè)CNN分類(lèi)模型Mcnn;此時(shí)Mcnn具有更加穩(wěn)定的空間特征識(shí)別能力。

        1.2 CD-GAN的模型結(jié)構(gòu)

        與傳統(tǒng)的CD-GAN的模型結(jié)構(gòu)包含3個(gè)組成部分:張量生成器T, 生成器G和分辨器D。張量生成器T的結(jié)構(gòu)如圖2所示。

        圖2 張量生成器的結(jié)構(gòu)

        由圖2可知,張量生成器主要負(fù)責(zé)生成二維的張量z。張量生成器首先構(gòu)建一組“原子張量”形成原子張量池Tatom。其過(guò)程如下:

        Atorm Tensor Pool Construction Algorithm 原子張量池構(gòu)建方法(ATPCA)

        Input:Sizeatom,RandMax,RandMax-atom

        Output:Tatom

        Begin

        Tatom= ?;

        fori=1:RandMax-Tatom

        Matom=生成Sizeatom×Sizeatom的最大值為RandMax隨機(jī)數(shù)矩陣;

        Tatom←Matom;

        returnTatom;

        End

        在獲得了Tatom之后,T構(gòu)建張量輸出網(wǎng)絡(luò)隨機(jī)選取Tatom中的元素加入到輸出網(wǎng)絡(luò)之中,最終對(duì)整個(gè)輸出網(wǎng)絡(luò)歸一化獲得輸出張量z;這一過(guò)程的算法描述如下:

        Tensor Generator Output Algorithm 張量生成器輸出算法(TGOA)

        Input:Sizegrid,RandMax-atom

        Output:z

        Begin

        Grid=建立Sizegrid×Sizegrid的2維數(shù)組;

        foriin 1:Sizegrid

        forjin 1:Sizegrid

        Grid[i,j]=在Tatom隨機(jī)選擇1至RandMax-atom之間的一個(gè)元素;

        z=連接Grid中的所有元素,構(gòu)建一個(gè)二維矩陣;

        z=對(duì)于z中的所有元素,歸一化到0~1;

        returnz;

        End

        每次T調(diào)用TGOA將生成一個(gè)二維的隨機(jī)張量z,這個(gè)張量將驅(qū)動(dòng)生成器G生成對(duì)應(yīng)的水環(huán)境遙感場(chǎng)景影像。在CD-GAN中采用張量生成器T的價(jià)值主要體現(xiàn)在兩個(gè)方面:

        (1) 引入足夠的空間結(jié)構(gòu)隨機(jī)性

        在已有的基于GAN的水環(huán)境場(chǎng)景分類(lèi)研究中通常可以看到,如果采用傳統(tǒng)的基于隨機(jī)串的方式驅(qū)動(dòng)G生成影像,那么這種隨機(jī)性可能在G神經(jīng)網(wǎng)的最初幾層被吸收,從而使得G生成的影像集中于有限的幾種甚至一種空間結(jié)構(gòu);而CD-GAN的z相當(dāng)于直接將結(jié)構(gòu)的隨機(jī)性引入到G之中,進(jìn)而直接驅(qū)動(dòng)其生成多樣空間結(jié)構(gòu)。

        (2) 降低元素內(nèi)容的隨機(jī)性與輸出噪聲

        對(duì)于一個(gè)特定類(lèi)目的遙感影像場(chǎng)景雖然空間信息多樣,但是組成其內(nèi)容元素通常是有限的幾種;如果引入過(guò)多的隨機(jī)內(nèi)容,一方面過(guò)高輸入的數(shù)據(jù)變化范圍過(guò)多會(huì)使得G難于訓(xùn)練;另一方面,G在生成過(guò)程中可能會(huì)遇到訓(xùn)練中未遇到的隨機(jī)內(nèi)容,這些隨機(jī)內(nèi)容穿過(guò)神經(jīng)網(wǎng)會(huì)產(chǎn)生明顯不合理的顏色/紋理組合或者噪聲。而CD-GAN的z是由固定范圍的原子組成的,這使得它可以在一定程度上規(guī)避掉過(guò)度的隨機(jī)元素與噪聲元素。

        CD-GAN的G負(fù)責(zé)生成遙感場(chǎng)景影像,其結(jié)構(gòu)如圖3所示。生成器G在接收T輸出的張量z之后生成對(duì)應(yīng)的場(chǎng)景遙感影像如圖3所示。G的結(jié)構(gòu)采用接近U-Net神經(jīng)網(wǎng)的先編碼再反編碼兩個(gè)階段:

        圖3 生成器G的結(jié)構(gòu)

        (1) 編碼階段

        在編碼階段G采用4組圖層,每組包含一個(gè)卷積層(卷積核大小為5×5,stride為2×2)和一個(gè)Batch normalization層;在組和組之間使用LReLU層進(jìn)行處理。由于引入了帶Stride的卷積層,所以每經(jīng)過(guò)組Feature map大小均會(huì)降為原來(lái)的一半;通過(guò)這種么偶是G負(fù)逐層的抽取表達(dá)z中的空間關(guān)系。

        (2) 反編碼階段

        反編碼階段也采用4組圖層,每組圖層包含ReLU、Transposed卷積層和Batch normalization層,最終通過(guò)Tanh層輸出生成結(jié)果。編碼階段的各組還會(huì)將輸出直接連接到對(duì)應(yīng)的反編碼階段,使得在生成過(guò)程中可以兼顧空間關(guān)系信息和具體細(xì)節(jié)信息。

        CD-GAN的D負(fù)責(zé)檢驗(yàn)遙感場(chǎng)景影像輸出結(jié)果是否為真,分辨器D負(fù)責(zé)區(qū)分輸入的影像來(lái)自于真實(shí)數(shù)據(jù)(真)還是模型G的生成數(shù)據(jù)。通過(guò)式(1)描述T、G和D的對(duì)抗過(guò)程,使得G生成的影像逐步接近于真實(shí)的遙感場(chǎng)景。利用G就可以獲得所需的遙感影像樣本。CD-GAN從訓(xùn)練到輸出的方法如下:

        CD-GAN Generate samples algorithm CD-GAN生成樣本算法(GSA)

        Input:tri,Ninitsamples

        Output:tgi

        Begin

        初始化T,G和D模型

        //1.預(yù)訓(xùn)練階段

        使用ATPCA算法建立原子張量池;

        trainx=使用TGOA算法建立Ninitsamples張量;

        trainy=隨機(jī)從tri中選擇Ninitsamples個(gè)不相同的影像;

        將trainx和trainy作為G的輸入和輸出進(jìn)行訓(xùn)練;

        //2.訓(xùn)練階段

        foriin 4:1

        temp=對(duì)tri進(jìn)行1/i的重采樣;

        將T的輸出作為G的輸入并以temp真實(shí)影像對(duì)CD-GAN進(jìn)行訓(xùn)練;

        //3.輸出階段

        testx=使用TGOA算法建立與tri樣本數(shù)量一樣的張量;

        tgi=將testx作為G的輸入生成遙感影像;

        returntgi;

        End

        GSA算法分為3個(gè)階段:

        (1) 預(yù)訓(xùn)練階段

        在CD-GAN中,由于G的層數(shù)較多且遙感場(chǎng)景數(shù)據(jù)通常較為復(fù)雜,在神經(jīng)網(wǎng)初始化的情況下遠(yuǎn)遠(yuǎn)達(dá)不到能夠生成影像的地步。該階段的目標(biāo)是通過(guò)使用一定數(shù)量的張量z到輸出影像的樣本使得G可以初步的達(dá)到生成影像的功能,能夠與D持續(xù)對(duì)抗進(jìn)行整體訓(xùn)練。

        (2) 訓(xùn)練階段

        在訓(xùn)練階段并不是一開(kāi)始就使用完整的tri的內(nèi)容,而是使用tri的重采樣的樣本進(jìn)行訓(xùn)練,使得整個(gè)訓(xùn)練過(guò)程可以開(kāi)始專(zhuān)注于整體的空間結(jié)構(gòu)(更易于訓(xùn)練),隨后在上一輪基礎(chǔ)上逐步關(guān)注細(xì)節(jié)訓(xùn)練,直到CD-GAN能夠適應(yīng)完整分辨率的tri內(nèi)容為止。

        (3) 輸出階段

        利用TGOA算法生成張量,并利用G轉(zhuǎn)換為對(duì)應(yīng)的生成影像集合tgi。利用GSA算法可以實(shí)現(xiàn)基于CD-GAN的樣本生成,此時(shí)由于引入了T可以達(dá)到更加豐富的空間多樣性。

        2 實(shí) 驗(yàn)

        2.1 算法實(shí)現(xiàn)和實(shí)驗(yàn)數(shù)據(jù)集

        本研究使用Python 3.8實(shí)現(xiàn)了CD-GAN所有算法;深度學(xué)習(xí)部分使用Keras實(shí)現(xiàn),圖像訪(fǎng)問(wèn)與處理使用Scikit-image開(kāi)發(fā)包。為了深度的對(duì)比算法的遙感場(chǎng)景分類(lèi)能力,對(duì)如下方法進(jìn)行比對(duì):

        (1) CNN

        單純使用CNN進(jìn)行樣本的學(xué)習(xí)并進(jìn)行分類(lèi);

        (2) CNN+GT

        對(duì)于樣本使用幾何變換(Geometric transformation,GT)進(jìn)行 90°、180°、270°旋轉(zhuǎn),左右和上下翻轉(zhuǎn)共5種變換來(lái)增加樣本數(shù)量,并使用CNN來(lái)進(jìn)行學(xué)習(xí)和分類(lèi);

        (3) Diversity-GAN

        多樣性生成對(duì)抗網(wǎng)絡(luò)(Diversity Generative Adversarial Networks , Diversity-GAN)使用自增長(zhǎng)的GAN神經(jīng)網(wǎng)進(jìn)行遙感分類(lèi),該GAN的特點(diǎn)是利用一個(gè)隨機(jī)串來(lái)驅(qū)動(dòng)GAN生成遙感影像進(jìn)而增強(qiáng)CNN的分類(lèi)能力;

        (4) MARTA-GAN

        多層特征匹配的生成對(duì)抗網(wǎng)絡(luò)(Multiple-layer feature-matching generative adversarial networks)使用GAN抽取遙感影像的關(guān)鍵特征,并基于該特征來(lái)訓(xùn)練淺層模型達(dá)到分類(lèi)的目標(biāo);

        (5) CD-GAN

        此方法為本文提出的方法對(duì)于測(cè)試數(shù)據(jù)集,本文分別使用UC-Merced和AID兩個(gè)著名的數(shù)據(jù)集來(lái)進(jìn)行訓(xùn)練。所有算法均在一臺(tái)i7-10700F 32G/GTX 1070 8G的計(jì)算機(jī)運(yùn)行并測(cè)試,由于顯存的空間所限兩個(gè)數(shù)據(jù)集的影像均縮放到256×256大小進(jìn)行測(cè)試。為了測(cè)試在樣本不足情況下各個(gè)模型的分類(lèi)能力,兩個(gè)數(shù)據(jù)集分別選取10、20、30、40和50的樣本作為訓(xùn)練樣本,剩余的樣本作為測(cè)試樣本進(jìn)行5次精度評(píng)價(jià),并使用總體精度(Overall accuracy, OA)作為評(píng)價(jià)指標(biāo)。

        2.2 CD-GAN方法生成的遙感場(chǎng)景內(nèi)容

        在輸入40個(gè)樣本的情況下,CD-GAN的GSA方法生成的典型水環(huán)境遙感影像樣本如圖4所示。

        從圖4可以看出,CD-GAN生成的水環(huán)境場(chǎng)景影像存在明顯的空間結(jié)構(gòu)差異與整體的內(nèi)容差異。CD-GAN生成的場(chǎng)景影像中一些人工建筑物的邊界并不直(CD-GAN沒(méi)有引入衡量建筑物邊界是否直的評(píng)價(jià)函數(shù)),但是CD-GAN的最主要目標(biāo)是生產(chǎn)出可以提升分類(lèi)精度的樣本,這些樣本具備以下特征:

        (1) 明顯的空間結(jié)構(gòu)差異

        無(wú)論是UC-Merced和AID數(shù)據(jù)集,生成樣本的方向、關(guān)鍵對(duì)象的位置均可以在較大范圍內(nèi)變化。

        (2) 整體內(nèi)容的差異

        一些生成的水環(huán)境樣本在整體內(nèi)容上,如顏色、組成物方面也可以體現(xiàn)出明顯的變化。

        (3) 細(xì)節(jié)上的變化

        即便是一些樣本在空間結(jié)構(gòu)和方向上近似,但是其細(xì)節(jié),如水環(huán)境周?chē)缆穼捳?、水環(huán)境組成內(nèi)容有所不同。

        得益于T的引入可以大范圍的變化輸入到G,以上的結(jié)果展示了CD-GAN一個(gè)關(guān)鍵的特性:空間結(jié)構(gòu)、空間內(nèi)容上的多樣性,這些多樣性可以進(jìn)一步豐富樣本集的內(nèi)容,達(dá)到提高CNN分類(lèi)精度的目的。

        2.3 5種方法精度的對(duì)比

        5種方法精度的對(duì)比如表1所示。從表1可以看出,無(wú)論較少的10個(gè)樣本還是較多的50個(gè)樣本,CD-GAN均取得了5種方法中最高的分類(lèi)精度。對(duì)于UC-Merced數(shù)據(jù)集在50個(gè)樣本時(shí)達(dá)到了95.0±0.4的分類(lèi)精度,對(duì)于AID數(shù)據(jù)集達(dá)到了92.1±0.6的分類(lèi)精度?;跇颖緮?shù)量和精度,5種方法的對(duì)比如圖5所示。

        表1 5種方法的精度對(duì)比

        圖5 5種方法的精度對(duì)比

        從圖5可以看出,對(duì)于兩種數(shù)據(jù)集5種方法的趨勢(shì)基本比較一致;對(duì)于CNN水環(huán)境在樣本量較少的情況下分類(lèi)精度較低,隨著樣本數(shù)量的提升精度快速提高;由于AID數(shù)據(jù)集的數(shù)量比UC-Merced的大得多(空間多樣性也更高,更難進(jìn)行分類(lèi)),所以在40個(gè)水環(huán)境樣本的時(shí)候AID的數(shù)據(jù)集的分類(lèi)精度要高于UC-Merced數(shù)據(jù)集的精度。對(duì)于CNN+GT,雖然幾何變換可以提高樣本數(shù)量,但是這種模式與GAN系列方法區(qū)別是單純的幾何變換可能會(huì)導(dǎo)致存在混淆的樣本經(jīng)過(guò)一模一樣的變化混淆仍然存在,甚至加大,所以CNN+GT相較CNN精度提升并不明顯;對(duì)于Diversity-GAN,其引入了隨機(jī)串來(lái)驅(qū)動(dòng)樣本的多樣性,精度提升較為明顯;而MARTA-GAN側(cè)重于發(fā)現(xiàn)樣本的空間特征信息,所以精度反而會(huì)比普通CNN低。CD-GAN同Diversity-GAN的目標(biāo)是一致的,也就是生成更具空間多樣性的樣本,CD-GAN引入了張量生成器T,可控的輸出多樣的空間結(jié)構(gòu),這使得CD-GAN在空間多樣性上明顯優(yōu)于Diversity-GAN,尤其是在水環(huán)境樣本量較小的情況下,這種優(yōu)勢(shì)更加明顯。

        3 結(jié) 論

        利用CNN等深度模型進(jìn)行水環(huán)境遙感場(chǎng)景分類(lèi)可以獲得較高分類(lèi)質(zhì)量,但是海量而高質(zhì)量的樣本集是訓(xùn)練深度模型的關(guān)鍵,相對(duì)單一和低質(zhì)量的樣本并不能滿(mǎn)足訓(xùn)練CNN的需要。在實(shí)際中往往會(huì)遇到難于收集足夠的樣本的應(yīng)用場(chǎng)景,因此利用小樣本訓(xùn)練CNN模型非常重要。本文提出了一種基于可控多樣性生成對(duì)抗網(wǎng)絡(luò)的水環(huán)境遙感影像場(chǎng)景分類(lèi)方法,該方法具有以下特點(diǎn):

        (1) 利用生成樣本來(lái)提高空間信息的多樣性。CD-GAN通過(guò)G生成的樣本加入到原始樣本集中,從實(shí)驗(yàn)中可以看出在空間信息的結(jié)構(gòu)、內(nèi)容和細(xì)節(jié)上,生成的樣本均可以出現(xiàn)隨機(jī)的多種內(nèi)容組合,可以豐富原始樣本集的空間內(nèi)容,從而使得分類(lèi)模型更容易的總結(jié)特定類(lèi)目的空間特征,提高CNN分類(lèi)能力。

        (2) 結(jié)構(gòu)可控的多樣性。與傳統(tǒng)GAN方法引入隨機(jī)串來(lái)驅(qū)動(dòng)G的生成行為不同,CD-GAN利用張量生成器T生成二維的張量通過(guò)一個(gè)神經(jīng)網(wǎng)將二維的張量轉(zhuǎn)換為影像,可直接將多樣性引入到空間結(jié)構(gòu)上,而不是寄希望于復(fù)雜的訓(xùn)練過(guò)程識(shí)別串中的空間隨機(jī)性;這使得CD-GAN生成的樣本更加直接的產(chǎn)生空間上的多樣性,實(shí)驗(yàn)結(jié)果驗(yàn)證這一模式比直接使用隨機(jī)串的Diversity-GAN更具優(yōu)勢(shì)。

        在水環(huán)境樣本量本身較少、樣本收集成本巨大、研究區(qū)域較小等典型的應(yīng)用場(chǎng)景下,CD-GAN可以明顯增強(qiáng)水環(huán)境原始樣本集中的空間信息內(nèi)容,獲得較高的分類(lèi)精度。CD-GAN能夠利用高分辨率影像提取高精度的水體信息,可以快速、準(zhǔn)確、及時(shí)地獲得水體資源信息,以彌補(bǔ)野外測(cè)量的不足,在水環(huán)境樣本量較少的應(yīng)用環(huán)境中具有較高應(yīng)用價(jià)值。

        猜你喜歡
        張量精度分類(lèi)
        分類(lèi)算一算
        偶數(shù)階張量core逆的性質(zhì)和應(yīng)用
        四元數(shù)張量方程A*NX=B 的通解
        分類(lèi)討論求坐標(biāo)
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        數(shù)據(jù)分析中的分類(lèi)討論
        教你一招:數(shù)的分類(lèi)
        擴(kuò)散張量成像MRI 在CO中毒后遲發(fā)腦病中的應(yīng)用
        GPS/GLONASS/BDS組合PPP精度分析
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        十四以下岁毛片带血a级| 亚洲日韩精品久久久久久| 亚洲肥婆一区二区三区| 国产欧美va欧美va香蕉在线| 国产69精品久久久久久久| 色先锋资源久久综合5566| 久久久AV无码精品免费| 国产精品久久夜伦鲁鲁| 国产综合开心激情五月| 亚洲精品天天影视综合网| 在线亚洲欧美日韩精品专区| 亚洲成人电影在线观看精品国产 | 国产suv精品一区二人妻| 麻豆国产巨作AV剧情老师| 国产一区二区三区视频了| av网站免费在线浏览| 在线播放免费人成毛片乱码| 国产乱人伦av在线无码| 白白色发布在线播放国产| 天堂影院久久精品国产午夜18禁| 国产成人久久精品一区二区三区| 中出人妻中文字幕无码| 99在线精品国产不卡在线观看 | 粉嫩极品国产在线观看免费一区 | 色噜噜亚洲男人的天堂| 国产精品国产三级国av在线观看| 毛片大全真人在线| 人妻丰满av∨中文久久不卡| 元码人妻精品一区二区三区9| 国产精品国产av一区二区三区| 亚洲国产午夜精品理论片在线播放| 国产精品久久久久久2021| 中文字幕亚洲视频三区| 精品国产一区二区三区2021| 亚洲国产精品特色大片观看完整版| 99热在线播放精品6| 中文字幕亚洲精品在线免费| 在线观看精品视频网站| 99久久久精品免费香蕉| 亚洲不卡高清av在线| 久久久久人妻精品一区三寸|