亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進的生成對抗網(wǎng)絡(luò)圖像去噪算法

        2021-03-09 16:41:26陳人和賴振意錢育蓉
        計算機工程與應(yīng)用 2021年5期
        關(guān)鍵詞:殘差梯度損失

        陳人和,賴振意,錢育蓉

        新疆大學(xué) 軟件學(xué)院,烏魯木齊830046

        數(shù)字圖像在采集和網(wǎng)絡(luò)傳輸?shù)倪^程中,往往會受到一些隨機信號的干擾而產(chǎn)生圖像噪聲,導(dǎo)致圖像質(zhì)量降低,從而影響人對圖像的理解,所以有效地降低圖像的噪聲,提高圖像的質(zhì)量仍是圖像處理領(lǐng)域的熱點之一[1-2]。

        圖像去噪已經(jīng)有很長的一段歷史了,傳統(tǒng)的圖像去噪方法有空域濾波[3]和變換域濾波[4],空域濾波直接對圖像的像素用濾波模板進行卷積,包括領(lǐng)域中值濾波[5]、均值濾波[6]等。變換域濾波利用噪聲圖像和無噪圖像在頻域的分布差異,將圖像轉(zhuǎn)換到頻域進行處理后再將結(jié)果變換回空間域,從而獲得去噪后的圖像,常見的變換域有小波變換域[7]、傅里葉變換域[8]等。這些方法在一定程度上可以抑制圖像的噪聲,但修復(fù)結(jié)果往往會使圖像紋理信息缺失,導(dǎo)致圖像模糊。BM3D[9](Block-Matching and 3D filtering)利用自然圖像中存在的自相似性,通過對相似塊轉(zhuǎn)換并進行加權(quán)處理得到目標(biāo)塊,取得了不錯的去噪效果。CBM3D[10]是BM3D改進的彩色圖像去噪方法,該方法利用了亮度-色度顏色空間的每個通道中高度稀疏的局部3D變換域中的濾波,這種去噪效果依賴相似塊的選取,在圖像去噪過程中常常存在一些復(fù)雜的優(yōu)化問題。

        近年來,深度學(xué)習(xí)在目標(biāo)識別及檢測等圖像處理領(lǐng)域大放異彩,使得很多學(xué)者將深度學(xué)習(xí)模型應(yīng)用于圖像去噪。深度卷積神經(jīng)網(wǎng)絡(luò)擁有很好的學(xué)習(xí)能力,通過對噪聲樣本的學(xué)習(xí),能夠?qū)崿F(xiàn)圖像去噪的自動化與智能化。Burger等[11]提出多層感知器MLP(Multi-Layer Perceptron)將噪聲圖像映射到去噪后的圖像成功實現(xiàn)圖像去噪,Mao等[12]利用深度卷積編碼器在對圖像進行編碼和解碼的過程中學(xué)習(xí)噪聲圖像到去噪圖像的分布來實現(xiàn)圖像去噪,Zhang等[13]提出DnCNN網(wǎng)絡(luò)來對圖像去噪,通過殘差學(xué)習(xí)并加入批量歸一化將去噪任務(wù)擴展到通用性的圖像去噪。為了應(yīng)對更復(fù)雜的真實噪聲,Zhang等[14]提出FFDNet去噪網(wǎng)絡(luò),F(xiàn)FDNet使用噪聲估計圖作為輸入,權(quán)衡對均勻噪聲的抑制和細(xì)節(jié)的保持,從而應(yīng)對更加復(fù)雜的真實場景。生成對抗網(wǎng)絡(luò)[15]相比于卷積神經(jīng)網(wǎng)絡(luò)多了一個判別網(wǎng)絡(luò),其采用博弈論的思想用判別網(wǎng)絡(luò)來指導(dǎo)生成網(wǎng)絡(luò)學(xué)習(xí)樣本的分布。由于其有較強的樣本模擬能力,在圖像去噪領(lǐng)域取得了成功應(yīng)用。張元祺[16]針對現(xiàn)有圖像去噪方法存在的紋理細(xì)節(jié)丟失等問題,提出一種新的生成對抗網(wǎng)絡(luò)作為去噪網(wǎng)絡(luò),通過采用大小不同的卷積核提取圖像的多尺度特征進行去噪與篩選,采用跳躍連接以便更好地修復(fù)圖像的紋理細(xì)節(jié)并加速網(wǎng)絡(luò)收斂。謝川等[17]針對現(xiàn)有的蒙特卡羅圖像去噪方法存在的高頻細(xì)節(jié)丟失問題,設(shè)計了全卷積網(wǎng)絡(luò)的生成對抗網(wǎng)絡(luò),網(wǎng)絡(luò)的輸入除了圖像像素以外還包括多維輔助特征。損失函數(shù)采用包含平滑損失函數(shù),并采用基于法向量方差和梯度大小相似度偏差的局部重要性采樣技術(shù)用于網(wǎng)絡(luò)訓(xùn)練。Chen等[18]提出一個新的兩步去噪網(wǎng)絡(luò)框架,首先利用生成網(wǎng)絡(luò)生成輸入噪聲圖像上的噪聲樣本,將得到的噪聲樣本與干凈的圖像構(gòu)建成訓(xùn)練數(shù)據(jù)集,然后再用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練該數(shù)據(jù)集得到去噪模型。

        本文提出一種基于生成對抗網(wǎng)絡(luò)的圖像去噪算法,該方法可以很好地保存圖像紋理細(xì)節(jié),生成網(wǎng)絡(luò)采用雙層網(wǎng)絡(luò)來增加網(wǎng)絡(luò)的寬度,并引入一個全局殘差,很好地保留圖像的原始信息,避免訓(xùn)練過程中梯度消失,使訓(xùn)練更加穩(wěn)定。對抗損失采用WGAN-GP損失(Wasserstein GAN losses),并在生成網(wǎng)絡(luò)中加入重構(gòu)損失提高生成圖像的質(zhì)量。采用CelebA作為訓(xùn)練數(shù)據(jù)集。相比于其他算法,本文提出了一種新的生成網(wǎng)絡(luò)結(jié)構(gòu),可以直接從噪聲圖像中生成干凈的圖像,通過加寬網(wǎng)絡(luò)而不增加網(wǎng)絡(luò)深度的同時獲取到更多的圖像特征,降低計算成本。利用Wasserstein距離和Lipschitz連續(xù)性條件來改進對抗損失函數(shù),有效地提高模型訓(xùn)練的穩(wěn)定性,同時改進網(wǎng)絡(luò)的輸入模式,使其輸入并不限制輸入圖像的大小,增加網(wǎng)絡(luò)的靈活性。實驗結(jié)果表明,本文提出的算法在去除圖像噪聲的時候能夠很好地重建出圖像的細(xì)節(jié)。

        1 相關(guān)工作

        1.1 生成對抗網(wǎng)絡(luò)

        生成對抗網(wǎng)絡(luò)(GANs)最先是由蒙特利爾大學(xué)的Ian Goodfellow提出,被廣泛地應(yīng)用于圖像處理的各個領(lǐng)域。其靈感主要來源于零和博弈的思想,即參與博弈的各方,一方的收益必然導(dǎo)致另一方的損失。GANs的強大之處在于它可以模擬任何數(shù)據(jù)的分布,它由兩個網(wǎng)絡(luò)組成,生成網(wǎng)絡(luò)G(Generator)和判別網(wǎng)絡(luò)D(Discriminator)。生成網(wǎng)絡(luò)G用來模擬數(shù)據(jù)的分布,判別網(wǎng)絡(luò)D用來分辨生成網(wǎng)絡(luò)G模擬數(shù)據(jù)分布質(zhì)量的好壞。GANs的優(yōu)化目標(biāo)函數(shù)為:

        式中,pz是生成網(wǎng)絡(luò)的輸入,pdata是真實數(shù)據(jù)的分布。整個函數(shù)的目標(biāo)就是讓pz盡可能地去模擬pdata數(shù)據(jù)的分布。生成網(wǎng)絡(luò)G的目標(biāo)就是生成的圖像盡可能地真實。判別網(wǎng)絡(luò)D的目標(biāo)就是將生成網(wǎng)絡(luò)G生成的圖像與真實的圖像區(qū)分開。當(dāng)判別網(wǎng)絡(luò)無法區(qū)分生成網(wǎng)絡(luò)G生成的圖像與真的圖像的時候,說明生成網(wǎng)絡(luò)G生成的圖像已經(jīng)達(dá)到最優(yōu)。

        1.2 殘差模塊

        隨著卷積網(wǎng)絡(luò)層數(shù)的加深,網(wǎng)絡(luò)能夠提取到的特征也更加豐富,但是,過深的網(wǎng)絡(luò)在進行帶步長卷積或者池化操作的時候會導(dǎo)致圖像信息的丟失。殘差網(wǎng)絡(luò)的引入很好地解決了這個問題,殘差網(wǎng)絡(luò)通過跳躍連接將淺層特征直接傳遞到深層特征,從而只需要學(xué)習(xí)淺層特征與深層特征之間的差異。典型的殘差模塊[19]如圖1所示。

        圖1 殘差模塊

        x為這個殘差模塊的輸入,F(xiàn)(x)+x是殘差模塊的輸出,通過跳躍連接將信息傳遞到神經(jīng)網(wǎng)絡(luò)的更深層,即使網(wǎng)絡(luò)再深,圖像的特征也不會丟失,有效地解決梯度消失和梯度爆炸問題,穩(wěn)定了網(wǎng)絡(luò)的性能。

        2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計及去噪模型

        2.1 生成網(wǎng)絡(luò)結(jié)構(gòu)

        圖像去噪的本質(zhì)實際上是一個圖像翻譯過程,即將含噪圖像通過非線性映射到去噪圖像。本文設(shè)計的生成網(wǎng)絡(luò)由上下兩層卷積神經(jīng)網(wǎng)絡(luò)組成以便提升網(wǎng)絡(luò)的寬度,不同層的網(wǎng)絡(luò)提取出更豐富的特征可以更好地映射到去噪圖像。圖2是本文構(gòu)建的生成網(wǎng)絡(luò),上下兩層為一樣的結(jié)構(gòu),用來獲取更多的圖像特征。輸入圖像經(jīng)過一個卷積層和Relu激活層,然后經(jīng)過6個卷積塊,每個卷積塊由卷積層、歸一化層、Relu層組成。其中通過一個全局殘差,直接將輸入傳到最后一層特征前面并進行融合,最后再次卷積后輸出去噪圖像。

        圖2 生成網(wǎng)絡(luò)模型

        本文設(shè)計的網(wǎng)絡(luò)具有輸入靈活性,網(wǎng)絡(luò)的深度為22層,除了最后一個卷積層,其余卷積層的卷積核大小均為64×3×3×64,最后一層卷積層的卷積核大小為64×3×3×3,該網(wǎng)絡(luò)并不限制輸入圖像的大小,采用雙層網(wǎng)絡(luò)可以獲取更多的圖像特征,并引入一個全局殘差將噪聲圖像的特征直接傳遞到輸出,使生成網(wǎng)絡(luò)能夠保留更多的圖像特征。

        2.2 判別網(wǎng)絡(luò)結(jié)構(gòu)

        判別器網(wǎng)絡(luò)用來判別生成的圖像與原圖像是否相似,本文設(shè)計的判別網(wǎng)絡(luò)為全卷積網(wǎng)絡(luò),對輸入的噪聲圖像和清晰圖像進行特征提取,如圖3所示。

        圖3 判別網(wǎng)絡(luò)模型

        該判別網(wǎng)絡(luò)共有6層卷積層,每一層都使用Relu激活函數(shù),其中第二層和第四層卷積核使用步長為2的卷積核,最后一層激活函數(shù)為Sigmoid函數(shù),前5層卷積核大小均為64×3×3×64,最后一層卷積核大小為64×3×3×1。判別網(wǎng)絡(luò)輸出的為一個N×N的矩陣,這個矩陣中的每一個元素代表原圖中的一個區(qū)域塊。元素的值表示生成圖像區(qū)域塊與原圖像區(qū)域塊相似度,然后求這個矩陣的平均值得到判別網(wǎng)絡(luò)的輸出,也就是整個生成圖像與原圖像的相似度。

        2.3 損失函數(shù)

        本文采用對抗損失和重構(gòu)損失的加權(quán)和:

        式中,LossWGAN代表對抗損失,LossR代表重構(gòu)損失,對抗損失是WGAN的改進版本,WGAN使用EM(Earth-Mover)距離來比較原始數(shù)據(jù)與生成數(shù)據(jù)的分布,WGAN的優(yōu)化公式為:

        式中,判別網(wǎng)絡(luò)D要符合1-Lipschitz條件,Pdata表示原始數(shù)據(jù)分布,PG表示生成數(shù)據(jù)分布。判別網(wǎng)絡(luò)D為了滿足1-Lipschitz條件,對參數(shù)weight做了一個weightclipping操作,即將weight限制在某個常數(shù)(-c,c)之間,這樣就間接滿足了1-Lipschitz條件,然而這樣會導(dǎo)致weight幾乎都集中在最大值和最小值上。WGAN-GP是一個帶有梯度懲罰的WGAN改進版本。它增加一個額外的損失來限制判別網(wǎng)絡(luò)D的梯度:

        式中Px?是對Pdata、PG之間的空間采樣,||?x?D(x?)2||是判別網(wǎng)絡(luò)的梯度。在判別網(wǎng)絡(luò)充分訓(xùn)練之后,其梯度會穩(wěn)定在1附近,通過加梯度懲罰可以穩(wěn)定住梯度。

        重構(gòu)損失采用均方誤差l2loss,均方誤差通過計算去噪后的圖像與原圖像像素之間的平方差距,均方誤差越小,說明去噪后的圖像與原圖越接近,去噪的效果也就越好。

        3 實驗驗證

        3.1 實驗平臺及數(shù)據(jù)集

        為了對本文所設(shè)計的算法進行驗證,實驗的硬件配置為CPU為Intel Core i7,GPU為NVIDIA GeForce1060,內(nèi)存為16 GB,軟件配置為Window10 64 bit,CUDA9.0,python3.6,神經(jīng)網(wǎng)絡(luò)的搭建采用Google的深度學(xué)習(xí)框架Tensorflow1.14.0。

        本文的訓(xùn)練數(shù)據(jù)集采用香港中文大學(xué)的開放數(shù)據(jù)集CelebA,隨機地從中選取1 000作為本實驗的訓(xùn)練集,并在訓(xùn)練集圖像中添加高斯白噪聲。測試集采用經(jīng)典的Kodak24數(shù)據(jù)集,Kodak24由24張自然圖像組成,大小為500×500。

        3.2 評價指標(biāo)

        圖像的質(zhì)量包含圖像的可讀懂性和圖像的逼真度,可讀性往往與人類視覺的主觀感受有關(guān),圖像的逼真度是指被評價圖像與標(biāo)準(zhǔn)圖像的偏離程度,偏差越小說明逼真度越高。本文采用PSNR(峰值信噪比)和SSIM(結(jié)構(gòu)相似性)作為定量評價指標(biāo),PSNR是基于對應(yīng)像素點間的誤差,它通過均方差(MSE)進行定義:

        式中,MAXI表示像素點的最大值,由公式可知MSE越小,PSNR越大,說明修復(fù)的圖像與原來越接近。SSIM分別從亮度、對比度和結(jié)構(gòu)三個方面來度量圖像的相似性,它的取值范圍為[0,1],值越大,表明圖像失真越小。

        3.3 實驗結(jié)果

        本文采用的對比算法CBM3D、DnCNN和FFDNet都是當(dāng)前具有一定代表性的算法。在Kodak24測試集上分別添加標(biāo)準(zhǔn)差σ為15、25、50的高斯白噪聲。圖像去噪后的PSNR和SSIM對應(yīng)的實驗結(jié)果如表1和表2所示。

        表1 不同方法的PSNR值

        表2 不同方法的SSIM值

        從表中的實驗數(shù)據(jù)可以看出,在不同的噪聲環(huán)境下,本文算法的去噪效果均要優(yōu)于其他經(jīng)典的算法,不管是PSNR值還是SSIM值相比其他算法都有一定的提高,說明本文算法對不同的噪聲環(huán)境具有更強的魯棒性。

        一個好的去噪網(wǎng)絡(luò)不僅需要能夠很好地去除噪聲,去噪的時間復(fù)雜度也是影響去噪網(wǎng)絡(luò)能不能得到實際應(yīng)用的一個重要指標(biāo)。因此本文對比了CBM3D、DnCNN和FFDNet算法運行所用的時間。測試的圖像大小為500×500,添加的高斯白噪聲標(biāo)準(zhǔn)差為σ=25,所使用的GPU為GeForce1060,CPU為Intel Core i7-7700HQ。

        從表3中的數(shù)據(jù)可以看出傳統(tǒng)的圖像去噪方法CBM3D在CPU上處理時間要低于深度學(xué)習(xí)算法,但不能在GPU上加速。得益于GPU的加持,深度學(xué)習(xí)算法在GPU上的速度要遠(yuǎn)遠(yuǎn)高于傳統(tǒng)圖像去噪方法。本文算法的處理速度相比于DnCNN與FFDNet不管是在CPU上還是GPU上均有一定的優(yōu)勢,這是因為本文算法通過增加網(wǎng)絡(luò)的寬度而不是深度在減少網(wǎng)絡(luò)參數(shù)量的同時,降低了計算量,提升了運行速度,并取得了不錯的效果。這說明本文算法在實際應(yīng)用中更具有優(yōu)勢。

        表3 不同方法運行時間對比 s

        對去噪效果的評價中,人的主觀感受也是非常重要的,為了對比本文算法與其他算法在主觀視覺上的差異,從測試集中選取部分樣本圖并添加標(biāo)準(zhǔn)差σ=25的高斯白噪聲進行測試,測試結(jié)果如圖4和圖5所示。

        圖4 不同算法去噪效果對比

        圖5 不同算法去噪局部效果對比

        圖4 (a)為原始不含噪聲圖像,(b)為添加高斯白噪聲的圖像,(c)為CBM3D算法去噪后圖像,(d)為DnCNN算法去噪后圖像,(e)為FFDNet去噪后圖像,(f)為本文算法去噪后圖像。圖5為不同算法去噪后局部效果圖,其中局部放大倍數(shù)為原圖的三倍。從圖中可以看出CBM3D算法在圖像去除噪聲后,部分圖像紋理丟失,圖像出現(xiàn)部分模糊狀態(tài)。DnCNN算法和FFDNet在去除噪聲的同時能保留圖像的紋理信息,但是在圖像的某些部分邊緣會產(chǎn)生模糊的光滑部分,相比之下本文算法在去除噪聲的同時能夠得到更清晰的邊緣,并且能夠恢復(fù)出接近原圖的紋理細(xì)節(jié)。

        4 結(jié)束語

        本文提出了一種基于生成對抗網(wǎng)絡(luò)的圖像去噪算法,該算法通過加寬生成網(wǎng)絡(luò)來提取圖像特征,并引入全局殘差,有效地去除噪聲的同時又很好地保留住了圖像的細(xì)節(jié)信息。采用對抗損失與重建損失的加權(quán)和來對網(wǎng)絡(luò)進行訓(xùn)練,不僅避免了網(wǎng)絡(luò)訓(xùn)練中的梯度消失問題,還可以更好地恢復(fù)圖像的紋理細(xì)節(jié),使圖像紋理恢復(fù)得更加自然。實驗結(jié)果表明,本文提出的算法與其他去噪算法不論從視覺上的觀察效果還是定量的客觀評價,本文所提出的算法都取得了不錯的效果。

        猜你喜歡
        殘差梯度損失
        基于雙向GRU與殘差擬合的車輛跟馳建模
        少問一句,損失千金
        一個改進的WYL型三項共軛梯度法
        胖胖損失了多少元
        基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
        一種自適應(yīng)Dai-Liao共軛梯度法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        一類扭積形式的梯度近Ricci孤立子
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        一般自由碰撞的最大動能損失
        性色av浪潮av色欲av| 日产精品毛片av一区二区三区| 国产精品一二三区亚洲 | 一区二区三区高清在线观看视频 | 天天综合网在线观看视频| 久久ri精品高清一区二区三区| 国产V亚洲V天堂A无码| 日产分东风日产还有什么日产| 蜜臀av在线播放一区二区三区| 国产人在线成免费视频| 国产精品福利久久香蕉中文| 亚洲一区二区自偷自拍另类| 成人国产一区二区三区| 99热久久精里都是精品6| 日韩一二三四精品免费| 日日噜噜噜夜夜狠狠久久蜜桃| 国产av国片精品jk制服| 女人被做到高潮免费视频 | 国产办公室秘书无码精品99| 人成午夜免费大片| 国产不卡视频一区二区在线观看| 国产精品亚洲综合久久| 麻豆婷婷狠狠色18禁久久| chinesefreexxxx国产麻豆| 国产一区二区三区视频了 | 日本高清视频wwww色| 中文字幕 人妻熟女| 一区二区三区中文字幕有码| 麻豆精品一区二区综合av| 99精品欧美一区二区三区| 色综合久久加勒比高清88| 国产丝袜一区丝袜高跟美腿| 国产av一区二区三区天堂综合网| 97精品伊人久久大香线蕉app| 日韩在线精品视频观看| 免费国产自拍在线观看| 99精品国产高清一区二区麻豆| 69国产成人综合久久精| 成人自拍一二在线观看| 日本精品αv中文字幕| 国产欧美曰韩一区二区三区 |