亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于GAN的自適應殘差密集網(wǎng)絡(luò)圖像去模糊方法

        2022-12-24 06:59:20李尋尋李旭健
        計算機仿真 2022年11期
        關(guān)鍵詞:方法

        李尋尋,李旭健

        (山東科技大學計算機科學與工程學院,山東 青島 266590)

        1 引言

        圖像去模糊按照模糊核分類一般可分為非盲去模糊和盲去模糊。非盲去模糊領(lǐng)域已有很多優(yōu)秀的方法得到非常不錯的清晰圖像,本文研究的是模糊核未知的盲去模糊。圖像運動模糊在生活中經(jīng)常遇到,是指在拍攝的過程當中,拍攝目標和成像設(shè)備之間存在相對運動,這導致獲得的圖像模糊。另外如果鏡頭焦距不準確或成像區(qū)域內(nèi)有不同深度的目標會導致散焦進而使圖像模糊。模糊圖像通常被建模為銳化圖像和模糊核的卷積, 去模糊是指從模糊圖像中恢復出潛在清晰的圖像。由于場景變化往往是復雜多樣的,消除圖像中相機抖動引起的模糊一直是計算機視覺領(lǐng)域的一個難題,因為很難準確預測模糊核。因此盲去模糊的研究具有重大意義。

        現(xiàn)有的圖像去模糊方法包括傳統(tǒng)方法和基于深度學習的方法。傳統(tǒng)方法包括基于貝葉斯框架去模糊算法,變分方法和基于稀疏表示的方法?;谪惾~斯框架的去模糊算法提供了后驗概率分布對未觀測到的變量進行統(tǒng)計并分析屬性。變分法主要是可以很好的恢復圖像的邊緣信息,但可能會增加圖像噪聲?;谙∈璞硎镜姆椒ㄊ菑哪:龍D像和清晰圖像中獲得相同的稀疏系數(shù),找到二者之間的聯(lián)系,從而恢復出清晰圖像。這種方法可以很好地抑制振鈴現(xiàn)象。盡管這些方法在去模糊方面取得了很大的進展,在圖像盲去模糊的情況下,由于應用場景的復雜性,模糊核往往很難獲得,并且在空域中不斷變化,因此,很難對模糊過程進行參數(shù)化。

        基于深度學習的圖像去模糊方法也有很多。如SUN[1]和SCHULER[2]使用CNN估計空間不變模糊核,SUN不僅通過CNN學習預測運動模糊內(nèi)核,還利用MRF模型預測運動模糊場,從而獲得比較好的結(jié)果。NAH[3]和KUPYN[4]等人提出了無核端到端的方法,NAH采用多尺度網(wǎng)絡(luò)模擬傳統(tǒng)的由粗到細的優(yōu)化方法進行訓練,但仍然存在圖像運動模糊的問題。KUPYN等人的工作是基于生成對抗網(wǎng)絡(luò)(GAN)的方法,通過對抗訓練模糊圖像,獲得比NAH等人更高的峰值信噪比(PSNR)。ZHANG等人[5]提出了一種以暗通道差分為損失函數(shù)的圖像去模糊網(wǎng)絡(luò),這個網(wǎng)絡(luò)和普通的GAN網(wǎng)絡(luò)相比,具有更少的層和權(quán)值,減少了訓練和測試時間,但是訓練結(jié)果不理想。LIU等人[6]提出的網(wǎng)絡(luò)能夠在不依賴于銳利圖像的情況下,從真實的模糊圖像序列中學習,產(chǎn)生了令人信服的結(jié)果。但是這種方法受到物體瞬時速度的影響,當物體運動瞬時速度過快時,無法清晰判斷相鄰幀之間的相關(guān)性,從而導致運動模糊核估計產(chǎn)生偏差,去模糊結(jié)果不準確。SHAO等人[7]研究的是單幅圖像的動態(tài)場景去模糊,同樣是基于GAN的去模糊方法,只是用魯棒性更強的自動編碼器結(jié)構(gòu)代替GAN網(wǎng)絡(luò)中的生成器,在模糊恢復和細節(jié)恢復方面比KUPYN等人的去模糊方法更有效,但圖像清晰度仍有待改進?;谝陨系膯栴},本文提出了基于GAN的自適應殘差密集網(wǎng)絡(luò)的方法,使得圖像恢復的更清晰,視覺效果更好邊緣特征更加明顯,減少了細節(jié)信息的損失。

        2 相關(guān)工作

        2.1 圖像去模糊

        早期的去模糊方法集中于研究非盲去模糊,這類去模糊根據(jù)模糊核復原出清晰圖像。但通常情況下,模糊核是未知的,所以這就需要盲去模糊。其模型如式(1)

        IB=k(M)*IS+N

        (1)

        式中IB是輸出的模糊圖像,IS是輸入的清晰圖像,k(M)是運動模糊核,N是加性噪聲,*代表卷積操作。模糊圖像可看成IS和k(M)進行卷積的結(jié)果,模糊類型不同,k也有不同的形式。若k已知,則是非盲去模糊,否則是盲去模糊。

        2.2 生成對抗網(wǎng)絡(luò)

        GAN由兩個網(wǎng)絡(luò)組成,一個是生成網(wǎng)絡(luò)G,一個是判別網(wǎng)絡(luò)D。在訓練過程中,生成器的目標是縮小生成的圖像與真實圖像的差距,使判別器無法區(qū)分生成圖片與真實圖片。對抗建模框架在G和D兩個模型都是多層感知器時最容易應用,框架如圖1所示。

        圖1 盲去模糊基本網(wǎng)絡(luò)框架

        2.3 自適應卷積

        傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)是通過構(gòu)造IB與IS之間的映射關(guān)系,從而獲得更佳的去模糊效果。但是其中大部分圖像是用CNN恢復的,未考慮到恢復IB的細節(jié)信息,導致處理后的圖像丟失紋理。因此,本文引入了自適應卷積[8],自適應卷積結(jié)構(gòu)圖如圖2所示。

        圖2 自適應卷積結(jié)構(gòu)圖

        自適應卷積將標準卷積輸入變量v通過修改空間不變?yōu)V波器W與構(gòu)造調(diào)整內(nèi)核k來實現(xiàn)。調(diào)整內(nèi)核使用預定義或?qū)W習到的特性f。?表示element-wise矩陣的乘法求和。圖2中只顯示了一個輸出通道。自適應卷積盡管是對標準卷積的一個簡單修改,但它是高度靈活的,可以看作是幾個廣泛使用的過濾器的一般化。具體來說,自適應卷積是空間卷積、雙邊濾波和池化操作(平均池化和細節(jié)保留池化)的泛化。

        3 基于GAN的自適應殘差密集網(wǎng)絡(luò)

        3.1 生成器網(wǎng)絡(luò)

        生成器即利用迭代器,根據(jù)特定的模式在每次迭代中生成數(shù)據(jù)并記錄當前迭代到的狀態(tài),以便根據(jù)當前狀態(tài)生成下一個數(shù)據(jù)。本文中的生成器是一個帶有自適應殘差密集塊全卷積網(wǎng)絡(luò)。生成器的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

        圖3 生成器網(wǎng)絡(luò)結(jié)構(gòu)

        圖中⊕表示特征圖以逐像素點方式相加。 與普通生成器不同的是,在卷積后面加入n個自適應殘差密集塊,本文n取9。每個殘差模塊由自適應卷積層、實例歸一化層和ReLU非線性激活函數(shù)組成。而密集塊被用作主干中的基本單元,可以最大化特征流并實現(xiàn)快速收斂。此外,先前的具有稀疏跳躍連接的剩余結(jié)構(gòu)具有有限的恢復能力,尤其是對于多尺度空間細節(jié)。所以為了改進這一點,本文在所有空間尺度上推廣了具有跳躍連接的密集剩余結(jié)構(gòu)。生成器通過卷積下采樣計算和卷積上采樣計算實現(xiàn)模糊圖像到清晰圖像的轉(zhuǎn)換,并利用自適應殘差密集塊和跳躍連接進行差分學習,解決了梯度消失的問題,加快網(wǎng)絡(luò)訓練速度,模型收斂更好,生成的圖像更清晰。

        3.2 自適應殘差密集網(wǎng)絡(luò)

        自適應殘差密集網(wǎng)絡(luò)由自適應卷積層、密集塊和殘差學習組成,如圖4所示。

        圖4 自適應殘差密集網(wǎng)絡(luò)

        與網(wǎng)絡(luò)中常用的殘差密集塊不同,本文將自適應卷積[9]與殘差密集網(wǎng)絡(luò)結(jié)合構(gòu)成自適應殘差密集網(wǎng)絡(luò)(ARDB)。這樣設(shè)計是因為ARDB具有自適應地縮放特征尺寸和改變通道數(shù)量的能力,以捕獲空間特征和通道方向特征。此外ARDB還可以根據(jù)輸入特征屬性動態(tài)切換步數(shù)和信道數(shù)。對于普通網(wǎng)絡(luò),當網(wǎng)絡(luò)層數(shù)逐漸增多時,效果不一定更好,甚至會退化。一般來說,網(wǎng)絡(luò)層次越深,圖像中提取到的特征信息越多,但簡單地增加網(wǎng)絡(luò)層次會導致梯度離散或梯度爆炸。GOODFELLOW發(fā)現(xiàn)僅僅對殘差進行縮放更為可靠,即使在沒有嚴格要求縮放的地方,它似乎也不會損害最終的準確性,且有助于模型訓練更加穩(wěn)定[10]。

        3.3 判別器結(jié)構(gòu)

        判別器包含一系列步長為2、核大小為7的卷積層。網(wǎng)絡(luò)結(jié)構(gòu)主要由卷積,實例歸一化和ReLU非線性激活函數(shù)組成。其中ReLU激活函數(shù)不僅會增加網(wǎng)絡(luò)的稀疏性,還減少參數(shù)之間的相互依賴關(guān)系,從而緩和了過擬合問題。判別器的輸出是一個標量,使用Sigmoid函數(shù)將得到的標量映射到[-1,1]。判別網(wǎng)路結(jié)構(gòu)如圖5所示。

        圖5 判別器網(wǎng)絡(luò)結(jié)構(gòu)

        4 損失函數(shù)

        本文的損失函數(shù)由生成對抗損失和內(nèi)容損失組成,如式(2):

        L=λLGAN+βLcontent

        (2)

        其中λ、β為權(quán)重系數(shù),本文所有實驗中λ=0.7,β=0.3。本文沒有使用條件判別器,因為不需要懲罰不匹配的輸入和輸出。

        4.1 生成對抗損失

        在有關(guān)條件GAN的文獻中,大多采用vanilla GAN目標函數(shù)作為損失函數(shù)[3][11],也有使用更穩(wěn)定、質(zhì)量更高的最小二乘GAN方法[12][13]。WGAN(Wasserstein generative adversarial network) 算法[14]可以解決生成器梯度消失問題, 從而使網(wǎng)絡(luò)訓練達到穩(wěn)定.但WGAN 不能收斂到一個局部均衡點, 并且梯度更新不穩(wěn)定[15],本文使用改進的WGAN-GP[9]作為臨界函數(shù),因為該函數(shù)對生成器結(jié)構(gòu)的選擇是有魯棒性的[9],更符合本文需求。生成對抗目標函數(shù)如下生成對抗損失LGAN計算如式(3)

        =EIS~pdata(IS)[logD(IS)]+

        EIB~pIB(IB)[log(1-D(G(IB)))]

        (3)

        其中,其中E(*)表示函數(shù)的期望值,D(*)表示判別器,G(*)表示生成器,IB表示隨機噪聲,Pdata(IS)表示真實樣本的分布,PIB(IB)表示生成模糊圖片的分布。

        4.2 內(nèi)容損失

        內(nèi)容損失是為了鼓勵G生成與真實圖像具有相似內(nèi)容的清晰圖像,其中內(nèi)容損失計算公式如式(4)

        (4)

        本文計算用的是VGG19網(wǎng)絡(luò)中預先訓練好的第三個池化層前的第三個卷積層的特征。φi,j是VGG19網(wǎng)絡(luò)中第i個最大池化層之前通過第j次卷積后獲得的特征圖,函數(shù)GθG(*)代表生成器G生成圖像,IS代表清晰圖像,IB代表生成器生成的圖片。在ImageNet上進行預訓練,Wi,j和Hi,j分別是特征圖的寬和高。在本文的工作中,本文使用來自VGG3,3卷積層激活。深層的激活代表了更高抽象的特征[11],[16]。內(nèi)容損失側(cè)重于恢復內(nèi)容,而對抗性損失側(cè)重于恢復圖片的紋理細節(jié)。

        5 實驗

        5.1 數(shù)據(jù)集

        本文使用GOPRO數(shù)據(jù)集[3]進行網(wǎng)絡(luò)訓練及驗證。它包含了2103個模糊和地面真實圖像對,1111對測試數(shù)據(jù)集。模糊圖像是通過平均不同數(shù)目的連續(xù)潛在幀產(chǎn)生不同的模糊。為了公平比較,本文遵循[3]中的協(xié)議,使用2103個圖像對進行訓練,剩余的1111個圖像對進行測試,分辨率為1280×720。

        5.2 實驗運行平臺

        本實驗在Windows10操作系統(tǒng)下,基于Pytorch深度學習框架實現(xiàn)。計算機的配置為Intel(R) Core(TM) i5-6300HQ CPU@2.30GHz,8GBRAM,使用GPU并行加速,GPU為GTX 1050,顯存為4GB,CUDA9.0和Cudnn6.1。

        5.3 訓練參數(shù)設(shè)置

        為了訓練模型,將圖片像素大小隨機裁剪成256×256。本文使用了Adam優(yōu)化函數(shù)來代替隨機梯度下降(SGD),初始學習率設(shè)置為0.0001,衰減速率設(shè)置為0.1。在本文的實驗中,批量大小為4,共迭代了52k次。本文在測試期間使用實例歸一化,而不是訓練批統(tǒng)計信息。

        5.4 評價指標

        為了更好地從主觀方面評價圖像去模糊方法的優(yōu)越性,本文采用的三種評價指標峰值信噪比PSNR、結(jié)構(gòu)相似度SSIM以及運行時間。

        PSNR 計算如式

        (6)

        其中均方誤差MSE代表生成圖像x與真實值y的均方誤差,xi,j代表x的像素點和yi,j代表y的像素點[12]。

        SSIM計算如式

        (7)

        5.5 實驗結(jié)果與分析

        5.5.1 實驗結(jié)果

        訓練過程中,記錄每次迭代過程中生成對抗損失與內(nèi)容損失函數(shù)值,并將其繪制成曲線如圖6所示。

        圖6 損失函數(shù)折線圖

        從圖6可以看出,隨著迭代次數(shù)的增加,生成對抗損失、內(nèi)容損失逐漸下降,在Step∈[0,10000]時下降明顯,之后下降緩慢并且逐漸趨于平穩(wěn)。

        5.5.2 對比實驗

        為了驗證本文自適應殘差密集網(wǎng)絡(luò)的有效性,在實驗環(huán)境相同的情況下,使用GOPRO數(shù)據(jù)集,將本文提出的方法與SUN等人,NAH等人,KUPYN等人,SHAO等人的圖像去模糊方法作對比。為了更好的看到去模糊效果,從對比結(jié)果中選取差異較為明顯的兩處作為參考,并將其放大展示,結(jié)果如圖7所示。

        圖7 在GOPRO數(shù)據(jù)集上的去模糊結(jié)果對比

        由圖7可知,與以前的工作相比,本文的方法顯示出更好的輸出,更清晰的結(jié)構(gòu)和紋理細節(jié)。SUN等人的結(jié)果中注意到,在模糊呈非線性形狀或位于運動邊界的區(qū)域,去模糊是不成功的。NAH等人的方法處理的圖像總體比較清晰,但細節(jié)模糊,而且很難通過許多級聯(lián)的局部卷積運算來訓練長期依賴模型。KUPYN等人的方法是通過GAN網(wǎng)絡(luò)和原始殘留塊的深度堆疊來進行去模糊,在去除自然運動模糊方面取得了有競爭力的結(jié)果。然而,由于剩余塊的感受野有限,該方法不能產(chǎn)生清晰的結(jié)果。SHAO等人同樣采用基于GAN的方法,引入自動編碼器結(jié)構(gòu)代替生成器,雖然處理效果比KUPYN更好,但在恢復清晰圖像方面仍待改進。

        在數(shù)據(jù)集與實驗環(huán)境相同的環(huán)境下,本文的網(wǎng)絡(luò)仍然可以產(chǎn)生令人滿意的結(jié)果,建筑物、樹葉、樹杈以及車子輪框比其它的具有更少的偽影,很明顯,本文的方法也具有更好的視覺效果。

        定量評價使用PSNR、SSIM以及運行時間作為評價指標,評價結(jié)果如表1所示。

        表1 關(guān)于圖像去模糊的PSNR、SSIM、運行時間結(jié)果

        根據(jù)表中數(shù)據(jù)可知,本文方法獲得的PSNR和SSIM均高于對比方法,這是得益于本文方法將自適應卷積網(wǎng)絡(luò)引入到GAN網(wǎng)絡(luò)中,由圖7和表1 可知,本文的去模糊方法在視覺上取得了更好的效果。

        6 結(jié)論

        本文提出了基于GAN的自適應殘差密集網(wǎng)絡(luò)的去模糊方法,將自適應卷積和殘差密集網(wǎng)絡(luò)結(jié)合在一起,大大提高了網(wǎng)絡(luò)的訓練速度,同時生成的圖像也更清晰。對比結(jié)果表明,在細節(jié)恢復和模糊恢復方面,本文方法更有效。同時大量的實驗評估表明,該網(wǎng)絡(luò)比現(xiàn)有的自然運動圖像去模糊方法具有更好的性能,本文的方法在定性和定量兩個方面也都優(yōu)于現(xiàn)有方法,且速度要快得多。

        猜你喜歡
        方法
        中醫(yī)特有的急救方法
        中老年保健(2021年9期)2021-08-24 03:52:04
        高中數(shù)學教學改革的方法
        河北畫報(2021年2期)2021-05-25 02:07:46
        化學反應多變幻 “虛擬”方法幫大忙
        變快的方法
        兒童繪本(2020年5期)2020-04-07 17:46:30
        學習方法
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        最有效的簡單方法
        山東青年(2016年1期)2016-02-28 14:25:23
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        双乳被一左一右吃着动态图| 一本色道久久亚洲加勒比| 少妇裸体性生交| 亚洲va视频一区二区三区| 吃奶呻吟打开双腿做受视频| 色av综合av综合无码网站| 国产亚洲日韩AV在线播放不卡| 一本色道精品亚洲国产一区| 国产a在亚洲线播放| 久久99精品国产99久久6男男| 国产高潮流白浆免费观看不卡| 一二三四在线观看韩国视频| 国产精品国产三级国产专区不| 人妻少妇精品视频三区二区一区| 激情亚洲一区国产精品| 蜜芽尤物原创AV在线播放| 国产国语一级免费黄片| 国产高清成人在线观看视频| 中文字幕一区二区人妻性色| 国产亚洲AV无码一区二区二三区| 国产黄色一级到三级视频| 国产成人精品免费久久久久| 老色鬼永久精品网站| 国产精品福利久久香蕉中文| 日本精品一级二区三级| 成人区人妻精品一区二区三区| 欧美野外疯狂做受xxxx高潮| 国产一区二区三区4区| 在线观看日韩精品视频网站| 最新中文字幕一区二区| 久久综合国产乱子伦精品免费 | 四虎成人免费| 爱v天堂在线观看| 国产熟女自拍av网站| 成人午夜福利视频后入| 免费人成年小说在线观看| 亚洲一区二区三区中文视频| 一本到亚洲av日韩av在线天堂| 免费人成小说在线观看网站| 乱子伦视频在线看| 秋霞日韩一区二区三区在线观看 |