亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式對抗網(wǎng)絡在超分辨率圖像重建中的應用*

        2020-04-15 09:45:44汪鑫耘
        計算機與生活 2020年4期
        關鍵詞:實驗

        汪鑫耘,李 丹

        安徽工業(yè)大學 電氣與信息工程學院,安徽 馬鞍山 243032

        1 引言

        超分辨率技術可以重建低分辨率的圖像以獲得更多細節(jié)信息,也可以應用于低分辨率視頻重建以獲得更好的視覺效果,在實際應用中不可或缺,如高分辨率的醫(yī)學圖像有利于配合醫(yī)生做出正確的判斷,高分辨率可以更好協(xié)助警方破案等,此外高分辨率的圖像還可以做數(shù)據(jù)增強來提高智能算法的性能。目前主要有重建、插值、學習三種方法被用于圖像超分辨率研究,基于重建方法是建立觀測模型之后再逆向求解,最終實現(xiàn)重組,該方法的問題在于它是一個不可逆問題且重組結果不唯一[1]。插值是直接利用圖像的先驗信息,再通過建立數(shù)學模型輸出高分辨率圖像。經(jīng)典的方法有最近鄰插值、雙線性插值、雙三次插值等[2-4],但只對少部分圖像重建效果明顯。隨著所需圖像放大倍率的增加,重建和插值的方法效果都不理想。近年來隨著深度學習的迅猛發(fā)展,深度學習中的各類智能算法及卷積神經(jīng)網(wǎng)絡模型被廣泛應用到了圖像超分辨率重組中。Dong 等人[5]提出SRCNN(super-resolution using convolutional neural network)的方法,將卷積神經(jīng)網(wǎng)絡引入到超分辨率重建問題中,但是研究人員發(fā)現(xiàn)SRCNN 很難訓練,它對超參數(shù)的變化非常敏感。Yang 等人[6]提出DEGREE(deep edge guided recurrent residual)來指導反饋殘差網(wǎng)絡,初步解決了SRCNN 沒有完全開發(fā)圖像的先驗信息和SRCNN 存在丟失細節(jié)信息的現(xiàn)象等問題。他們大都以均方誤差(mean squared error,MSE)為最小化的目標函數(shù),這樣雖然可以取得較高的PSNR(peak signal to noise ratio),但是當超分辨率重建倍數(shù)較高,如四倍、八倍時,重建得到的圖像會非常模糊,丟失大量細節(jié)。2016 年,Ledig 等人[7]提出了SRGAN(super-resolution using a generative adversarial network),利用對抗式生成網(wǎng)絡[8]來進行超分辨率重建的方法,但使用SRGAN 生成的高分辨率圖像相對原圖比較模糊。2018 年,Wang 等人[9]提出了ESRGAN(enhanced super-resolution generative adversarial networks),使用殘差密集塊RDB(residual dense block)作為生成網(wǎng)絡的主體,超分辨率重建雖然獲得了較明顯的效果,但其生成的圖像存在過多的偽細節(jié)。

        為了獲取更好的超分辨率重建效果,本文設計了PESRGAN(permeability enhanced super-resolution generative adversarial networks)超分辨率重建方法,可以重建四倍下采樣圖像,PESRGAN 基于SRGAN算法框架,在ESRGAN 的基礎上,對激活函數(shù)、基礎網(wǎng)絡結構和損失函數(shù)進行優(yōu)化,以改進超分辨率重建算法。

        2 方法與理論

        2.1 模型建立

        設計的PESRGAN 算法采用對抗式生成網(wǎng)絡,包含生成網(wǎng)絡和判別網(wǎng)絡,其整體結構如圖1 所示。生成網(wǎng)絡的輸入是低分辨率圖像,經(jīng)過卷積后,輸入殘差密集塊,再通過采樣層和若干卷積層,最后輸出高分辨率圖像;同時將生成的圖像作為負樣本輸入判別網(wǎng)絡,判別網(wǎng)絡的正樣本是非生成的高分辨率圖像,判別網(wǎng)絡使用經(jīng)典的VGG19 網(wǎng)絡[10],輸出為判別高分辨率圖像的真假結果。

        2.2 激活函數(shù)

        在深度學習中常使用ReLU 作為激活函數(shù)可以加速卷積的計算[11],但是當一個非常大的梯度流過ReLU 神經(jīng)元時,可能會打亂數(shù)據(jù)分布,導致某些神經(jīng)元不激活任何數(shù)據(jù)而發(fā)生關閉現(xiàn)象,改進的LeakyReLU 可以避免這種情況,LeakyReLU 函數(shù)公式如式(1),其中x是輸入,y是輸出,leaky 為(0,1)的系數(shù)。

        Fig.1 Generator network and discriminator network architecture圖1 生成器網(wǎng)絡和判別器網(wǎng)絡結構

        此外本文還使用了Swish 激活函數(shù)[12],Swish 是Google 在2017 年提出的一種新的激活函數(shù),其原始公式如式(2),其中x是輸入,y是輸出。

        Swish 激活函數(shù)擁有不飽和、非單調性等特點,Google 在論文中的多項測試表明Swish 激活函數(shù)的性能非常好,在不同的數(shù)據(jù)集上都表現(xiàn)出了優(yōu)于當前其他激活函數(shù)的性能。

        2.3 生成器模型

        PESRGAN 在ESRGAN 的生成器模型結構基礎上進行修改,使用殘差密集塊RDB 中的殘差作為基本的網(wǎng)絡構建單元,每3 個RDB 構成1 個RRDB(residual in residual dense block),RDB 和RRDB 基本結構如圖2 所示。圖像經(jīng)過兩層卷積并使用Swish 函數(shù),后經(jīng)過26 個RRDB 結構,在RDB 結構中使用1×1和3×3 的卷積層,減少參數(shù)量的同時加深了網(wǎng)絡。此外RDB 中使用Leaky ReLU 激活函數(shù),加速收斂,這樣更有利于深度網(wǎng)絡的訓練,有效地避免了梯度消失,然后圖像通過殘差密集塊后連續(xù)兩次使用Upsample 方法進行上采樣,最后經(jīng)過兩個卷積層并使用Swish 激活函數(shù)后將圖像還原。

        Fig.2 Basic structure of RDB and RRDB圖2 RDB 和RRDB 基本結構

        2.4 判別器模型

        PESRGAN 使用典型網(wǎng)絡VGG19 對判別器進行訓練,將高分辨率圖像輸入VGG19 網(wǎng)絡之前,對圖像進行隨機旋轉、裁剪以增強判別器模型的穩(wěn)定性。最后輸出結果為二分類,即判別輸入的高分辨率圖像是原始圖像還是生成器生成的圖像。

        生成器盡力生成看似真實的圖像,判別器盡力區(qū)分生成和真實的圖像,經(jīng)過訓練,生成網(wǎng)絡和判別網(wǎng)絡形成一個對抗的過程,最后生成網(wǎng)絡會生成非常近似真實的高分辨率圖像。

        2.5 損失函數(shù)

        2.5.1 判別器損失函數(shù)

        2018 年Jolicoeur-Martineau[13]提出訓練生成器時,不僅應該提高偽數(shù)據(jù)是真實數(shù)據(jù)的概率,還應該降低實際數(shù)據(jù)是真實數(shù)據(jù)的概率。判別器的損失函數(shù)如式(3):

        2.5.2 生成器模型損失函數(shù)

        基于Bruna 等人[14]和Gatys 等人[15]感知特征相似性的想法,Johnson等人[16]提出感知損失,并在SRGAN中進行擴展。知覺的損失先前是在預先訓練的深網(wǎng)絡的激活層上定義的,即兩個激活功能之間的距離最小化。特征提取同樣使用VGG19 網(wǎng)絡,提取con3-4、conv5-4 雙層特征損失進行計算。

        此外,PESRGAN 引入滲透指數(shù)PI(permeability index),即原圖與生成圖像的拉普拉斯算子的方差之比,滲透指數(shù)越大,代表圖像清晰度越高,細節(jié)越多,采用滲透指數(shù)作為權值,有利于生成器模型生成更加清晰的圖像。但如果PI 值太大會產(chǎn)生過多的偽細節(jié)。PI公式如式(4):

        PESRGAN 結合相對判別器理論對損失函數(shù)重新定義,使用激活層前的特征原因在于:被激活的特征是非常稀疏的,如baboon 的激活神經(jīng)元的百分率在VGG19-54 層后僅為11.17%[9],表示高級特征稀疏激活提供的弱監(jiān)督會使得性能變差,且使用激活后的特征也會使得圖像的亮度和真實圖像不一樣;融合兩層特征優(yōu)點在于雙層特征可以更好地明確損失收斂的方向。生成器模型損失函數(shù)定義如式(5):

        其中,LG為生成器總生成損失,L1是評估圖像G(xi)和真實圖像y之間的1-范數(shù)距離內(nèi)容損失,λ和η是平衡不同損失項的系數(shù),為相對生成器的損失,PI為滲透指數(shù)參數(shù)。

        2.6 評價函數(shù)

        為驗證所提算法的效果,采用峰值信噪比PSNR、結構相似性SSIM(structural similarity index)和滲透指數(shù)PI 來評估改進的網(wǎng)絡。PSNR 是對已處理圖像與原始圖像之間的誤差進行定量計算,PSNR 的數(shù)值越大,說明失真越小。SSIM 的數(shù)值越逼近于1,說明處理后的圖像結構與原始圖結構極為近似,表明生成的結果圖像越好。

        PSNR 公式如式(6):

        其中,I(i,j)和K(i,j)分別表示原始高分辨率圖像和生成高分辨率圖像。

        SSIM 公式如式(7):

        其中,μx是x的平均值,μy是y的平均值,是x的方差,是y的方差,σxy是x和y的協(xié)方差,c1=(k1L)2,c2=(k2L)2用來維持穩(wěn)定的常數(shù)。L是像素的動態(tài)范圍,k1和k2是常數(shù),分別為0.01 和0.03。

        3 實驗結果與分析

        PESRGAN 的實驗在CPU 為Intel CoreTMi7-6800K@3.400 GHz,GPU 為NVIDIA GTX1080Ti,內(nèi)存為16 GB 的主機上進行。實驗平臺搭載的操作系統(tǒng)為Ubuntu16.04,深度學習框架為pytorch 0.4.0、CUDA9.0。實驗使用DIV2K 訓練集和Flickr2K 數(shù)據(jù)集一共1 800幅圖像進行訓練,其中800 張為DIV2K 數(shù)據(jù)集的訓練集圖像,1 000 張為Flickr2K 數(shù)據(jù)集圖像。為了梯度下降的快速與穩(wěn)定,實驗中使用Adam 優(yōu)化器,批大小為16,即一次梯度下降使用16 張圖像訓練。由于實驗所使用的GPU 顯存限制,訓練過程中生成器網(wǎng)絡輸入大小為48×48×3 的圖像,經(jīng)過兩個上采樣層輸出大小為192×192×3 高分辨率圖像,判別器網(wǎng)絡輸入大小為192×192×3 高分辨率圖像,輸入為二分類,最后測試過程中輸入大小為M×N×3,輸出大小為(4M)×(4N)×3,即四倍上采樣的高分辨率圖像。

        經(jīng)過實驗,發(fā)現(xiàn)直接使用生成器的總損失函數(shù)很難訓練且沒有較好的結果。因此先使用像素損失對網(wǎng)絡進行預訓練,后融合相對GAN 損失、多層特征損失和像素損失來進行二次訓練。這樣先使用像素損失預訓練可以減少相對GAN 損失對像素損失產(chǎn)生的影響,以加速模型整體的收斂,更重要的是經(jīng)過預訓練,判別器最先接收的是較好內(nèi)容的高分辨率圖像,繼續(xù)訓練會更加關注真實高分辨率圖像的紋理特征。Set14 數(shù)據(jù)集中的baboon 圖像實驗對比結果如圖3 所示。

        Fig.3 Comparison results of baboon image experiment圖3 baboon 圖像實驗對比結果

        實驗結合了LeakyReLU 和Swish 激活函數(shù),并修改ESRGAN 算法中生成器基本網(wǎng)絡結構,將本實驗的生成器損失和ESRGAN 生成器特征損失進行對比,如圖4 所示(使用預訓練模型)。

        由圖4 可知,PESRGAN 的生成器損失收斂速度略快于ESRGAN,雖然Swish 函數(shù)比LeakyReLU 復雜,但由于對生成器基本網(wǎng)絡RRDB 的改進,減小了大量參數(shù),從而提高了算法的速度,且引入了Swish激活函數(shù),使模型具有非線性、平滑和非單調性的特點,最終改進算法的損失略低于ESRGAN,說明對激活函數(shù)和網(wǎng)絡結構的改進是有效的。在Set5 數(shù)據(jù)集上進行實驗,平均PSNR、SSIM和PI值結果如表1所示。

        Fig.4 Feature loss comparison of ESRGAN and PESRGAN generators圖4 ESRGAN 和PESRGAN 生成器特征損失對比圖

        Table 1 Comparison of average PSNR,SSIM and PI value表1 平均PSNR、SSIM 和PI 值對比

        由表1 可知,雖然PESRGAN 相對ESRGAN 的PSNR、SSIM和PI值有所改進,但對PSNR、SSIM和PI指標的提升不是很明顯,尤其是兩種算法的PI值均較大,說明都產(chǎn)生了過多的偽細節(jié)。

        為了產(chǎn)生較少的偽細節(jié),在以上實驗的基礎上引入PI值作為損失權重來進一步優(yōu)化算法;同時生成器網(wǎng)絡使用融合兩層特征損失,明確模型收斂方向。最后使用Set5、Set14、BSDS100、Urban100、DIV2K測試集(100 張)和部分Flickr2K 數(shù)據(jù)集(100 張)進行測試,發(fā)現(xiàn)實驗取得優(yōu)秀的重建結果。同時使用Bicubic、SRGAN 和ESRGAN 算法進行比較,將各測試數(shù)據(jù)集的平均PSNR值、平均SSIM值和平均PI值列成表2、表3 和表4。

        由表2~表4 可知,PESRGAN 與Bicubic 相比,雖然PSNR和SSIM指標差別不大,但Bicubic 的PI值過大,說明重建的細節(jié)太少,生成的圖像非常模糊;PESRGAN 與SRGAN 相比,PSNR和SSIM指標均有明顯優(yōu)勢,且SRGAN 的PI值不穩(wěn)定,說明重建效果不好;PESRGAN 與ESRGAN 相 比,PESRGAN 的PSNR和SSIM指標均高于ESRGAN,說明圖像經(jīng)過PESRGAN 重建后可以獲得更接近原圖的高清圖像,ESRGAN 的PI值遠低于1,說明ESRGAN 在超分辨率重建過程中會產(chǎn)生很多偽細節(jié),而PESRGAN 的值比較接近于1,說明重建后產(chǎn)生的圖像具有與原圖差不多的細節(jié)量,且經(jīng)過PESRGAN 重建的圖像PSNR和SSIM指標均比較好,說明PESRGAN 在超分辨率重建過程中復現(xiàn)出更多的真實細節(jié)。

        Table 2 Comparison of average PSNR values of each algorithm in different data sets表2 各算法在不同數(shù)據(jù)集的平均PSNR 值對比 dB

        Table 3 Comparison of average SSIM values of each algorithm in different data sets表3 各算法在不同數(shù)據(jù)集的平均SSIM 值對比

        Table 4 Comparison of average PI values of each algorithm in different data sets表4 各算法在不同數(shù)據(jù)集的平均PI 值對比

        Bicubic、SRGAN、ESRGAN 和PESRGAN 算法在Set5、Set14、BSDS100、Urban100、DIV2K、Flickr2K 數(shù)據(jù)集上的平均運行時間如表5 所示。由于各數(shù)據(jù)集圖像大小不同,故超分辨率重建的時間也有所不同。

        由表5 可知,Bicubic 算法最快,因為Bicubic 只有插值操作,而SRGAN、ESRGAN、PESRGAN 均含大量卷積層,導致超分辨率重建速度較慢。其中SRGAN最慢,而PESRGAN 在ESRGAN 的基礎上引入更深的網(wǎng)絡,故速度略慢于ESRGAN。綜合以上實驗,PESRGAN 算法在沒有損失過多速度的同時,明顯提高了超分辨率圖像重建的PSNR、SSIM和PI指標,驗證了PESRGAN 算法的有效性。

        使用Bicubic、SRGAN、ESRGAN、PESRGAN 算法對經(jīng)典圖像Set5-baby、Set14-comic、DIV2K-0801進行測試,如圖5 所示,其中HR 為高分辨率原圖,LR為HR 通過區(qū)域插值得到的低分辨率圖像。

        Table 5 Average running time of algorithms in different data sets表5 各算法在不同數(shù)據(jù)集的平均運行時間 s

        Fig.5 Comparison of HR,LR,Bicubic,SRGAN,ESRGAN and PESRGAN algorithms for super-resolution reconstruction圖5 HR、LR、Bicubic、SRGAN、ESRGAN、PESRGAN 算法超分辨率重建對比

        實驗發(fā)現(xiàn)經(jīng)過Bicubic 插值重建的方法得到的圖像過于模糊,SRGAN 得到的圖像相對Bicubic 較清晰,ESRGAN 算法雖然可以得到非常清晰的圖像,但偽細節(jié)較多,而PESRGAN 產(chǎn)生的圖像不僅清晰,偽細節(jié)也較少,更符合人眼的舒適度,說明PESRGAN算法在超分辨率重建方面取得優(yōu)秀效果。

        4 結論

        本文提出了PESRGAN 算法,用于實現(xiàn)超分辨率重建四倍下采樣圖像,該方法通過理論分析對抗式生成網(wǎng)絡的學習和訓練過程,并在SRGAN 和ESRGAN算法的基礎上對其使用的激活函數(shù)、基礎網(wǎng)絡和特征損失進行改進:使用LeakyReLU 和Swish 激活函數(shù),引入1×1 的卷積層并加深RRDB 結構以改進生成器網(wǎng)絡的基礎網(wǎng)絡,在生成器網(wǎng)絡使用雙層特征損失,并引入滲透指數(shù)PI作為損失權重的改進算法。最終實驗在經(jīng)典數(shù)據(jù)集Set5、Set14、BSDS100、Urban100、DIV2K 和Flickr2K 上進行驗證,PESRGAN的平均PSNR達到25.4 dB,平均SSIM達到0.73,平均PI達到1.15。結果表明了相對于Bicubic、SRGAN和ESRGAN 算法,重建四倍下采樣圖像后的高分辨率圖像在客觀評價參數(shù)上均有優(yōu)勢,且在清晰度、人眼舒適度等主觀視覺評價有很大提升,證明了所設計的PESRGAN 算法具有更好的超分辨率重建效果。

        猜你喜歡
        實驗
        我做了一項小實驗
        記住“三個字”,寫好小實驗
        我做了一項小實驗
        我做了一項小實驗
        記一次有趣的實驗
        有趣的實驗
        小主人報(2022年4期)2022-08-09 08:52:06
        微型實驗里看“燃燒”
        做個怪怪長實驗
        NO與NO2相互轉化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        久久精品国产99精品九九| 亚洲情综合五月天| 伊人久久大香线蕉av网禁呦| 国产一级特黄无码免费视频| 国产成人精品蜜芽视频| 亚洲成人av一区二区| 中文字幕免费在线观看动作大片| 久久精品国产第一区二区三区| 亚洲第一无码精品久久| 少妇一级内射精品免费| 精品一区三区视频在线观看| 性色av浪潮av色欲av| 国产香蕉尹人综合在线观| 青青草手机成人自拍视频| 人妻中文字幕在线中文字幕| 成人欧美一区二区三区| 欧美aⅴ在线| 免费的黄网站精品久久| 国产乱码一区二区三区精品| 国产深夜男女无套内射| 久久精品国产亚洲AV成人公司 | 国产主播一区二区三区在线观看 | 亚洲av片不卡无码久久| 国产亚洲精品hd网站| 久久黄色精品内射胖女人| 无码人妻久久一区二区三区蜜桃| 亚洲va中文字幕无码久久不卡 | 久久国产精品男人的天堂av| 少妇太爽了在线观看免费| 成年女人免费视频播放体验区| 九九视频免费| 亚洲一区二区三区视频免费| 性色av一二三天美传媒| 无码人妻丰满熟妇片毛片| 欧洲国产精品无码专区影院| 漂亮人妻出轨中文字幕| 亚洲av片在线观看| 国产白丝在线| 精品色老头老太国产精品| 久久婷婷国产综合精品| 最新亚洲精品国偷自产在线|