亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合SENet的密集卷積生成對抗網(wǎng)絡(luò)圖像修復(fù)方法

        2022-05-10 08:45:40張道暢
        小型微型計算機系統(tǒng) 2022年5期
        關(guān)鍵詞:特征區(qū)域

        劉 強,張道暢

        (東北電力大學(xué) 理學(xué)院,吉林 吉林 132012)

        1 引 言

        數(shù)字圖像修復(fù)[1]的過程是以一種數(shù)學(xué)表達式的形式傳遞給計算機,使得計算機能夠自動實現(xiàn)圖像修復(fù).早期的圖像修復(fù)技術(shù)通過圖像已知區(qū)域信息對缺失區(qū)域進行填充,主要分為以下幾類:基于偏微分(Partial Differential Equation,PDE)和變分(Total Variation,TV)的圖像修復(fù)方法[1,2]、基于樣本的圖像修復(fù)方法[3,4]、基于變換域的圖像修復(fù)方法[5-7].傳統(tǒng)的圖像修復(fù)方法僅利用缺失區(qū)域周邊的已知信息進行修復(fù),當出現(xiàn)大區(qū)域缺失或已知區(qū)域與缺失區(qū)域相似信息較少時,結(jié)果會出現(xiàn)較大的偏差;還有一些方法使用人工交互的方式進行修復(fù),這類方法在文物字畫等修復(fù)問題上應(yīng)用較為廣泛,但面對較大面積的缺失問題時,模型過于依賴草圖骨架,修復(fù)結(jié)果具有局限性,效果不理想.

        為了能夠更好的利用缺失圖像的已知信息,研究學(xué)者將自編碼器[8](Autoencoder,AE)和生成對抗網(wǎng)絡(luò)[9](Generative Adversarial Networks,GAN)結(jié)合,在一定程度上解決了傳統(tǒng)圖像修復(fù)算法存在的問題.Pathak等人[10]提出了一種命名為Context Encoder的網(wǎng)絡(luò)用于圖像修復(fù),CE算法將自編碼器與生成對抗網(wǎng)絡(luò)進行結(jié)合,能夠?qū)Υ髤^(qū)域缺失的圖像進行修復(fù),但修復(fù)的結(jié)果常常出現(xiàn)偽影等現(xiàn)象.Yeh等人[11]設(shè)計了一種利用先驗誤差來進行圖像修復(fù)的方法,該方法將圖像語義分割技術(shù)與生成對抗網(wǎng)絡(luò)相結(jié)合,通過引入l2損失和先驗損失生成修復(fù)圖像,但對于結(jié)構(gòu)比較復(fù)雜的小數(shù)據(jù)集仍有語義不連貫的現(xiàn)象.Iizuka等人[12]首次提出雙判別網(wǎng)絡(luò)的算法,利用局部判別網(wǎng)絡(luò)增強局部紋理清晰度,利用全局判別網(wǎng)絡(luò)保證全局修復(fù)效果的語義連貫.Yu等人[13]提出由粗到細的二級生成網(wǎng)絡(luò)結(jié)構(gòu),其中第1個網(wǎng)絡(luò)進行初始粗略預(yù)測,第2個網(wǎng)絡(luò)引入注意力機制,然后將粗略預(yù)測作為輸入并對粗略結(jié)果精細化.Liu等人[14]提出了部分卷積,即用一個二值化的掩碼將經(jīng)典卷積分為有效卷積和無效卷積,旨在處理圖像修復(fù)結(jié)果顏色不一、模糊等問題.Yu等人[15]針對部分卷積在更新掩碼的過程中的缺陷提出門控卷積,該方法通過手繪待修復(fù)區(qū)間的草圖骨架信息來引導(dǎo)修復(fù),但受邊界草圖的限制,導(dǎo)致修復(fù)結(jié)果具有局限性.Meng等人[16]利用密集卷積網(wǎng)絡(luò)(DenseNet)中密集卷積塊緊密連接的特性,在降低參數(shù)量的同時提取更多的特征信息,但對于紋理結(jié)構(gòu)復(fù)雜的圖像,修復(fù)結(jié)果仍有上下文不一致問題.

        盡管生成對抗網(wǎng)絡(luò)在圖像修復(fù)領(lǐng)域得到了廣泛的應(yīng)用,但該類算法過于依賴生成網(wǎng)絡(luò)的自生成能力,仍存在許多問題亟待解決.例如當數(shù)據(jù)集較小時,網(wǎng)絡(luò)訓(xùn)練容易出現(xiàn)局部過擬合現(xiàn)象;使用人工交互式修復(fù)方法時,草圖骨架的優(yōu)劣極大的限制了修復(fù)結(jié)果,模型泛化能力較差;對于圖像紋理結(jié)構(gòu)較為復(fù)雜的圖像,容易出現(xiàn)模糊、語義不連貫等現(xiàn)象.

        針對上述問題,本文基于密集卷積網(wǎng)絡(luò)[17]中密集卷積塊能夠加強特征傳播、鼓勵特征復(fù)用的特性,與注意力機制對圖像細節(jié)修復(fù)的指導(dǎo)作用結(jié)合,提出一種結(jié)合SENet的密集卷積生成對抗網(wǎng)絡(luò)圖像修復(fù)方法.生成網(wǎng)絡(luò)通過密集卷積塊進行特征重用,加強特征傳遞,獲取更深層的特征信息;使用池化層代替原有的過渡層,保留更多的有效特征信息;同時,引入SENet[18]中的SE(Squeeze-and-Excitation)模塊注意力機制,增強重要特征在修復(fù)過程中的指導(dǎo)作用;此外,在編碼器和解碼器之間引入U-Net的跳躍連接[19](Skip connection),減少由于下采樣造成的信息損失,并優(yōu)化紋理一致性問題;使用MSE損失作為衡量生成圖像質(zhì)量的重要因素,聯(lián)合MSE損失、對抗損失和總變分損失作為優(yōu)化生成網(wǎng)絡(luò)的總損失,進行模型訓(xùn)練.

        2 相關(guān)理論

        2.1 生成對抗網(wǎng)絡(luò)

        生成對抗網(wǎng)絡(luò)[9](GAN)是Goodfellow等人在2014年提出的.近年來,生成對抗網(wǎng)絡(luò)(GAN)作為一個熱門課題人們已經(jīng)進行了廣泛的研究,并且在一些特定應(yīng)用上與其它機器學(xué)習(xí)算法相結(jié)合,如半監(jiān)督學(xué)習(xí)、遷移學(xué)習(xí)和強化學(xué)習(xí),在圖像修復(fù)問題上得到了廣泛的應(yīng)用[10-16].

        GAN的核心思想來自于博弈論,網(wǎng)絡(luò)通過生成器和判別器之間的互相欺騙進行優(yōu)化,最終形成一個納什平衡的狀態(tài).生成對抗網(wǎng)絡(luò)由生成網(wǎng)絡(luò)G和判別網(wǎng)絡(luò)D構(gòu)成,其結(jié)構(gòu)如圖1所示.生成網(wǎng)絡(luò)G通過學(xué)習(xí)真實數(shù)據(jù)的概率分布Pdata映射生成類似真實數(shù)據(jù)的內(nèi)容G(z).判別網(wǎng)絡(luò)D需要盡可能的辨別出輸入數(shù)據(jù)的來源,即對x和G(z)進行分類.當判別網(wǎng)絡(luò)D無法區(qū)分數(shù)據(jù)來源時,網(wǎng)絡(luò)達到最優(yōu),其目標函數(shù)見公式(1):

        圖1 GAN模型

        (1)

        其中,G表示生成網(wǎng)絡(luò),D表示判別網(wǎng)絡(luò),E(·)表示數(shù)學(xué)期望,V表示目標函數(shù),x表示樣本,z表示隨機噪聲,表示真實樣本的概率分布,表示生成樣本的概率分布.

        2.2 DenseNet模型

        DenseNet[17]是一種具有密集連接結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò).該網(wǎng)絡(luò)由多個密集卷積塊和過渡層構(gòu)成,并且具有讓網(wǎng)絡(luò)更窄,參數(shù)更少的特性,這一優(yōu)點很大一部分原因得益于密集卷積塊的設(shè)計.在密集卷積塊中,之前所有層的輸出都是后面該層的輸入,通過這種密集連接的形式能夠提取更多的特征信息,其結(jié)構(gòu)如圖2所示.單個密集卷積塊內(nèi),層與層之間使用正則化函數(shù)BN、激活函數(shù)ReLU和卷積函數(shù)Conv進行連接,增強結(jié)構(gòu)的泛化能力.

        圖2 密集卷積塊結(jié)構(gòu)

        2.3 Squeeze-and-Excitation模塊

        Squeeze-and-Excitation(SE)模塊[18]能夠獲取特征信息的重要程度,以此來加強特征信息在圖像修復(fù)法過程中的指導(dǎo)作用,其結(jié)構(gòu)如圖3所示.SE模塊包括Squeeze和Excitation兩個部分.Squeeze操作旨在用一個具有全局感受野的值來表示各個通道特征的重要程度,對每個通道做全局均值池化,得到一個具有全局感受野的特征圖;Excitation操作使用全連接層作用于特征圖,對每個通道的重要性進行預(yù)測,得到的重要程度權(quán)重再作用到相應(yīng)的通道上,構(gòu)建通道之間的相關(guān)性.

        圖3 SE模塊結(jié)構(gòu)

        3 本文方法

        現(xiàn)有的圖像修復(fù)方法對于有較大面積缺失的情況,尤其是在數(shù)據(jù)集較小或者圖像結(jié)構(gòu)相對復(fù)雜的圖像修復(fù)問題上,常出現(xiàn)模糊、偽影、圖像語義不連貫等現(xiàn)象.為了更好的處理上述問題,縮短訓(xùn)練周期,提高模型的自生成能力,加強面部紋理細節(jié)的修復(fù),本文利用DenseNet優(yōu)秀的特征提取能力,并結(jié)合SE模塊增強重要特征在修復(fù)過程中的指導(dǎo)作用,優(yōu)化生成對抗網(wǎng)絡(luò)的生成器,判別網(wǎng)絡(luò)使用DCGAN框架進行改進,算法如圖4所示.本文算法首先利用帶有跳躍連接的編碼—解碼器對掩碼圖像提取特征和下采樣,再根據(jù)重要特征生成與原始圖像數(shù)據(jù)分布類似的輸出結(jié)果;其次判別網(wǎng)絡(luò)對結(jié)果進行二分類判別,通過不斷對抗博弈進而優(yōu)化網(wǎng)絡(luò)參數(shù);最后當模型達到穩(wěn)定后,將對應(yīng)缺失區(qū)域的生成圖像填充到待修復(fù)的圖像中獲得修復(fù)結(jié)果.

        圖4 本文算法框架圖

        3.1 生成網(wǎng)絡(luò)

        生成網(wǎng)絡(luò)G是模型的重要組成部分,該結(jié)構(gòu)使用編碼—解碼器結(jié)構(gòu)作為基本框架.編碼器中使用4個密集卷積塊對圖像特征進行提取,塊與塊之間使用帶有SE模塊的池化層進行連接,SE模塊獲取各個通道特征的重要程度后,賦予通道權(quán)重系數(shù);解碼器同樣包含4個密集卷積塊,密集卷積塊對特征進一步篩選,塊與塊之間使用帶有SE模塊的反卷積層進行連接,SE模塊將篩選后的特征賦予通道權(quán)重系數(shù)后,傳遞給反卷積層用來恢復(fù)圖像數(shù)據(jù),解碼器的最后一層使用一個1×1的卷積層對圖像通道進行限制,最終獲得與原始圖像尺寸相同的修復(fù)結(jié)果.

        此外,本文方法參考文獻[16]在取消傳統(tǒng)編碼器和解碼器之間全連接層的基礎(chǔ)上進行改進,刪除了密集卷積網(wǎng)絡(luò)中的過渡層,塊與塊之間引入注意力機制加強重要特征的指導(dǎo)作用,同時在編碼—解碼器之間相同尺寸的位置引入U-Net的跳躍連接,減少由于下采樣造成的特征丟失,增強網(wǎng)絡(luò)的生成能力,其結(jié)構(gòu)如圖5所示.

        圖5 生成網(wǎng)絡(luò)結(jié)構(gòu)

        3.2 判別網(wǎng)絡(luò)

        判別網(wǎng)絡(luò)D是將輸入圖像進行分類的二分類器.其輸入是64×64的真實圖像和生成圖像,經(jīng)過4個步長為2,5×5的卷積核進行特征提取,卷積層之間都使用正則化函數(shù)BN和激活函數(shù)LReLU進行連接,最后一層使用一個線性全連接層進行二分類.判別網(wǎng)絡(luò)旨在盡可能正確的判別輸入圖像來自真實圖像或者生成圖像,最終達到納什平衡.

        3.3 損失函數(shù)

        損失函數(shù)設(shè)計是優(yōu)化網(wǎng)絡(luò)的關(guān)鍵.本文參考文獻[10]的損失函數(shù)并在其基礎(chǔ)上進行改進.

        3.3.1 訓(xùn)練集損失函數(shù)

        在訓(xùn)練過程中聯(lián)合MSE損失、對抗損失和TV損失作為訓(xùn)練網(wǎng)絡(luò)的總損失,提高網(wǎng)絡(luò)穩(wěn)定性和修復(fù)效果.總損失函數(shù)的定義如公式(2)所示:

        Losstrain=λMSELMSE+λadvLadv+λTVLTV

        (2)

        其中,λMSE,λadv和λTV分別表示對應(yīng)損失項的權(quán)重.

        MSE損失通過提取的全局特征用來分析推斷缺失區(qū)域的數(shù)據(jù)分布,保證整體結(jié)構(gòu)的上下文語義連貫.MSE損失作為損失函數(shù)中最重要的組成部分,有效的反映了生成圖像和真實圖像的差距,其定義如公式(3)所示:

        LMSE=(x-G(M⊙x))2

        (3)

        其中,G表示生成網(wǎng)絡(luò);x表示輸入的真實圖像;M是二進制掩碼,值為0的部分表示缺失區(qū)域,值為1的部分代表保留區(qū)域;⊙代表對應(yīng)元素相乘.

        對抗損失用于加強生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)的博弈過程,旨在讓生成圖像的數(shù)據(jù)分布更接近真實圖像,使得結(jié)果真實性更高.這里對抗損失采用判別網(wǎng)絡(luò)的目標函數(shù),其定義如公式(4)所示:

        Ladv=log(D(x))+log(1-D(G(M⊙x)))

        (4)

        其中,D表示判別網(wǎng)絡(luò).

        TV損失在圖像修復(fù)過程中對圖像的平滑度進行約束,改善缺失區(qū)域和已知區(qū)域疊加時出現(xiàn)的偽影問題,加強邊界像素的視覺一致性,其定義如公式(5)所示:

        LTV=∑i,j|Gi+1,j(M⊙x)-Gi,j(M⊙x)|
        +|Gi,j+1(M⊙x)-Gi,j(M⊙x)|

        (5)

        其中,i和j表示像素點的坐標.

        3.3.2 測試集損失函數(shù)

        模型測試過程中,使用文本損失和先驗損失的聯(lián)合損失作為總損失,如公式(6)所示:

        上博楚簡是“上海博物館藏戰(zhàn)國楚竹書”的簡稱,記載內(nèi)容主要以儒家類為主,在文字學(xué)方面有很大的研究價值。[1]本文主要參考李零先生所著《上博楚簡三篇校讀記》[2]展開相關(guān)討論?!渡喜┏喨Wx記》是以《上海博物館藏戰(zhàn)國楚竹書》第一冊為研究對象(內(nèi)含《子羔》篇“孔子詩論”、《緇衣》及《性情》三部分),李零先生對簡文進行辨識分析,有助于我們更好地了解竹簡原貌,并能夠從中考察漢語史上語氣詞的使用及發(fā)展演變情況。

        Lval=λcontextLcontext+λpriorLprior

        (6)

        其中,λcontext和λprior分別表示對應(yīng)損失項的權(quán)重.

        文本損失來自于真實圖像和生成圖像已知區(qū)域的不同,通過已知信息中的數(shù)據(jù)分布選擇更真實的修復(fù)結(jié)果,其定義如公式(7)所示:

        Lcontext=|M⊙G(M⊙x)-M⊙x|

        (7)

        先驗損失是指基于高級圖像特征表示的一類懲罰,而不是基于像素的差異,先驗損失鼓勵修復(fù)的圖像與從訓(xùn)練集中提取的樣本數(shù)據(jù)分布相似,其定義如公式(8)所示:

        Lprior=log(1-D(G(M⊙x)))

        (8)

        4 實驗結(jié)果與分析

        4.1 數(shù)據(jù)集與運行環(huán)境

        本文方法在CelebA數(shù)據(jù)集上進行模型驗證.在CelebA數(shù)據(jù)集202599張名人人臉圖像中隨機選取20000張圖像作為訓(xùn)練集;隨機選取不同于訓(xùn)練集的1000張圖像作為測試集.

        實驗計算平臺為AMD R7 4800H CPU 8核16線程和NVIDIA GeForce RTX 2060 6G顯存.軟件環(huán)境為Windows 10,python3.7和TensorFlow v 1.14.

        數(shù)據(jù)集選取中心感興趣區(qū)域的五官部分,經(jīng)過預(yù)處理后形成64×64的有25%中心缺失區(qū)域掩碼和有約80%隨機缺失區(qū)域掩碼的訓(xùn)練集.實驗在兩個不同的訓(xùn)練集上迭代40個周期,時間各約10小時.由于設(shè)備內(nèi)存限制,將batchsize大小設(shè)置為8.實驗中參考文獻[11]和文獻[16]的建議,參數(shù)經(jīng)過對比實驗后選定λMSE=0.999,λadv=0.001,λTV=1×10-6,λcontext=1,λprior=0.003,網(wǎng)絡(luò)使用Adam迭代器進行訓(xùn)練,學(xué)習(xí)率設(shè)置為2×10-4.

        4.2 定性分析

        由圖6可知,CE算法修復(fù)結(jié)果圖6(c)對于中心缺失區(qū)域圖像,修復(fù)結(jié)果模糊,邊界有輕微偽影現(xiàn)象,且有少量噪聲點分布;對于隨機缺失區(qū)域圖像,眼睛和胡須位置無法保證較好的語義連貫.SI算法修復(fù)結(jié)果圖6(d)對于中心缺失區(qū)域圖像,雖然利用泊松分布技術(shù)解決了修復(fù)區(qū)域邊界的偽影問題,但對于面部細節(jié)和眼鏡遮擋問題未能得到很好的改善;對于隨機缺失區(qū)域圖像,修復(fù)結(jié)果模糊不清,且全局上下文一致性較差.DN算法修復(fù)結(jié)果圖6(e)中心缺失和隨機缺失雖能夠基本恢復(fù)圖像語義,但全局一致性不高,在眼球和鼻梁等語義細節(jié)問題上內(nèi)容不夠準確,缺乏真實性.本文方法修復(fù)結(jié)果圖6(f)無明顯模糊,基本沒有偽影問題的出現(xiàn),能夠較好的保持圖像的上下文語義連貫,而且對于第2、4行有物體遮擋面部的圖像,模型仍然可以很好的恢復(fù)完整的語義信息.

        圖6 CelebA數(shù)據(jù)集上不同方法的修復(fù)結(jié)果

        對比幾類算法與本文方法的區(qū)別,SI算法過度依賴生成對抗網(wǎng)絡(luò)的自生成能力,模型訓(xùn)練周期長,且對于面部的鼻梁、胡須等細節(jié)位置未能生成語義連貫的修復(fù)結(jié)果,當使用小數(shù)據(jù)集時問題更加明顯.CE算法、DN算法和本文方法利用圖像的已知信息學(xué)習(xí)真實圖像的數(shù)據(jù)分布規(guī)律,但CE算法未能解決缺失區(qū)域邊界的偽影問題和圖像語義的噪聲點問題;DN算法基本解決了偽影問題,并在修復(fù)效果上有所提升,但對于眼睛的寬窄、眼球的方向、鼻梁的高低等細節(jié)問題仍需改進,特別是對于有眼鏡和帽子等類似的遮擋物時,修復(fù)結(jié)果一致性有待提升.本文方法引入密集卷積網(wǎng)絡(luò)提取全局特征,并結(jié)合SENet的SE模塊,更好的學(xué)習(xí)面部紋理細節(jié)的數(shù)據(jù)分布,可以看出本文方法在圖像上下文一致、模糊和偽影等問題的處理上優(yōu)于其他3種方法,修復(fù)結(jié)果視覺真實性較高.模型訓(xùn)練約40個周期達到穩(wěn)定,相比較其他3類算法模型訓(xùn)練用時更短.

        4.3 定量分析

        除視覺定性分析外,實驗還對模型修復(fù)結(jié)果使用峰值信噪比(Peak Signal to Noise Ratio,PSNR)和結(jié)構(gòu)相似性(Structural Similarity Index,SSIM)兩個指標進行定量分析.PSNR能夠?qū)D像的高頻細節(jié)進行評價,值越大表示修復(fù)結(jié)果失真越??;SSIM能夠反映兩者的相似程度,取值在0~1之間,值越大說明修復(fù)后的結(jié)果與真實圖像的相似度越高,即修復(fù)的效果越好.

        由表1結(jié)果可知,將不同算法與本文方法在CelebA數(shù)據(jù)集上的修復(fù)結(jié)果分別在25%中心區(qū)域缺失和80%隨機區(qū)域缺失實驗中進行比較,所得結(jié)果的PSNR和SSIM均具有優(yōu)勢,與定性分析中修復(fù)結(jié)果的視覺對比一致.

        表1 不同修復(fù)方法的PSNR和SSIM

        4.4 密集卷積塊與SE模塊的影響

        為了證明密集卷積塊與SE模塊對圖像修復(fù)的重要作用,在CelebA數(shù)據(jù)集上進行對比實驗,結(jié)果如圖7所示.圖7(a)為原始圖像;圖7(b)為待修復(fù)圖像;圖7(c)為未使用密集卷積塊和SE模塊模型結(jié)構(gòu)的修復(fù)結(jié)果,第1、2行修復(fù)區(qū)域邊緣偽影問題嚴重,第3、4行生成的圖像模糊不清,無法保持良好的上下文一致性;圖7(d)為使用密集卷積塊模型但未使用SE模塊結(jié)構(gòu)的修復(fù)結(jié)果,第1、2行修復(fù)后的圖像基本能夠恢復(fù)圖像語義信息,但仍有模糊問題的出現(xiàn),且對于第2行戴墨鏡人臉問題上有語義缺失問題,圖像上下文不連貫,第3、4行眉毛、眼眶和牙齒等細節(jié)仍有噪聲點的出現(xiàn);圖7(e)為本文方法修復(fù)結(jié)果,SE模塊對密集卷積塊提取的淺層特征進行重要程度的劃分,賦予特征通道權(quán)重指導(dǎo)圖像修復(fù)過程,修復(fù)后的圖像能夠很好的保持全局一致性,且模糊、偽影問題基本得到解決,對于墨鏡和側(cè)臉結(jié)構(gòu)性較強的圖像細節(jié)也能很好的進行修復(fù).

        圖7 不同結(jié)構(gòu)的修復(fù)結(jié)果

        表2列出了是否使用密集卷積塊與SE模塊模型的PSNR和SSIM在25%中心區(qū)域缺失與80%隨機區(qū)域缺失的定量分析結(jié)果,可以看出本文方法充分利用了密集卷積塊特征提取能力以及SE模塊的指導(dǎo)作用,既能在定性分析中取得較大的優(yōu)勢,同時在PSNR和SSIM的數(shù)值對比上也取得了良好的分析結(jié)果.

        表2 不同結(jié)構(gòu)的PSNR和SSIM

        對比不同結(jié)構(gòu)的修復(fù)結(jié)果發(fā)現(xiàn),密集卷積塊能夠很好的學(xué)習(xí)圖像全局語義信息,但對于部分細節(jié)修復(fù)上仍有不足.引入SE模塊注意力機制后,修復(fù)結(jié)果在眉毛、眼睛、牙齒等細節(jié)得到改善,與PSNR和SSIM的數(shù)據(jù)分析結(jié)果一致.

        5 結(jié) 語

        本文提出了一個結(jié)合SENet的密集卷積生成對抗網(wǎng)絡(luò)圖像修復(fù)方法.該方法結(jié)合DenseNet中密集卷積塊的特征提取能力與SENet中SE模塊注意力機制,獲取更全面的特征信息;在編碼—解碼器之間引入跳躍連接,彌補由于下采樣造成的特征丟失問題;使用池化層代替密集卷積網(wǎng)絡(luò)的過渡層,保證更多的特征信息進行傳遞;聯(lián)合MSE損失、對抗損失和TV損失構(gòu)建網(wǎng)絡(luò)模型,提高網(wǎng)絡(luò)的修復(fù)能力.本文方法通過在CelebA數(shù)據(jù)集上進行對比實驗,在定性分析和定量分析中均優(yōu)于CE、SI和DN這3種方法.但生成網(wǎng)絡(luò)過強可能加劇梯度消失問題的產(chǎn)生,因此下一步工作需要對判別網(wǎng)絡(luò)進行改進,以此應(yīng)用于高分辨率圖像的修復(fù),維系生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)的動態(tài)博弈過程.

        猜你喜歡
        特征區(qū)域
        抓住特征巧觀察
        永久基本農(nóng)田集中區(qū)域“禁廢”
        分割區(qū)域
        新型冠狀病毒及其流行病學(xué)特征認識
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        關(guān)于四色猜想
        分區(qū)域
        基于嚴重區(qū)域的多PCC點暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        女同在线视频一区二区| 日韩乱码人妻无码中文字幕视频| 亚洲男人天堂2019| 亚洲熟妇中文字幕日产无码| 亚洲国产91精品一区二区| 亚洲av无码偷拍在线观看| 免费人成再在线观看视频| 亚洲精品国产字幕久久vr| 亚洲区一区二区中文字幕| 黄色国产一区二区99| 乱码丰满人妻一二三区| 国产麻无矿码直接观看| 91精品国产高清久久久久| av在线播放免费观看| 国产va免费精品观看精品| 国产欧美日韩a片免费软件| 欧美日韩国产乱了伦| 亚洲禁区一区二区三区天美| 久久人人爽爽爽人久久久| 亚洲av有码在线天堂| 免费人人av看| 国产精品综合一区久久| 久久久久亚洲av成人无码| 精品国产自产久久久| 91青青草免费在线视频| 日韩精品在线视频一二三| 亚洲av无码专区在线播放中文| 免费看国产成年无码av| 亚洲福利网站在线一区不卡| 国产乱码人妻一区二区三区| 免费无码又爽又刺激聊天app| 久久久久久久尹人综合网亚洲| 日本高清视频一区二区| 色综合久久中文娱乐网| 国产精品内射后入合集| 中文字幕一区二区三区在线视频| 白白色发布会在线观看免费| 国产真实强被迫伦姧女在线观看| 精品国产一区二区三区AV小说| 午夜亚洲精品一区二区| 亚洲av综合一区二区在线观看|