亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合降噪卷積神經(jīng)網(wǎng)絡(luò)和條件生成對抗網(wǎng)絡(luò)的圖像雙重盲降噪算法

        2021-07-02 08:55:00井貝貝王麗清丁洪偉
        計算機應(yīng)用 2021年6期
        關(guān)鍵詞:損失噪聲矩陣

        井貝貝,郭 嘉,王麗清,陳 靜,丁洪偉*

        (1.云南大學(xué)信息學(xué)院,昆明 650500;2.云南省廣播電視局科技處,昆明 650000)

        (?通信作者電子郵箱dhw1964@163.com)

        0 引言

        圖像去噪一直是計算機視覺領(lǐng)域的研究熱點,在不斷被提出的新算法的推進下該領(lǐng)域的研究得到了穩(wěn)步發(fā)展。一般而言,大多數(shù)的圖像降噪模型都在降噪效果和計算效率之間取舍,如:文獻[1-2]中的犧牲計算效率的馬爾可夫隨機場(Markov Random Field,MRF)模型,文獻[3-4]中的非局部自相似(Non-local Self-Similarity,NSS)模型。為克服傳統(tǒng)模型的弊端,文獻[5]提出了一種收縮場級聯(lián)(Cascade of Shrinkage Fields,CSF)方法,使用的模型框架能夠利用許多線性濾波器影響非線性函數(shù),并且具有很高的并行性,該方法極大地提高了模型的計算效率。此外,文獻[6]針對核范數(shù)極小化平均正則化所導(dǎo)致的自身受局限而提出的加權(quán)核范數(shù)最小化(Weighted Nuclear Norm Minimization,WNNM)算法要優(yōu)于文獻[7]的三維塊匹配(Block Matching 3D,BM3D)算法。文獻[8]中提出的去噪卷積神經(jīng)網(wǎng)絡(luò)(Denoising Convolutional Neural Network,DnCNN)模型,使用深度卷積的殘差學(xué)習(xí)對圖片進行盲降噪,克服了文獻[5,9-10]中TNRD(Trainable Nonlinear Reaction Diffusion)單一噪聲水平下對應(yīng)單一模型的缺點。

        為了進一步提高圖像降噪的性能,文獻[11]中提出了多降噪器最優(yōu)組合(Optimal Combination of Image Denoisers,OCID)模型,將兩個或者三個經(jīng)典降噪模型相組合來提升降噪效果,最終BM3D 和DNCNN 組合的降噪效果最為明顯,但模型計算效率并不理想。文獻[12]中則是結(jié)合平穩(wěn)小波變換和卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢,將圖像進行尺度為1 的平穩(wěn)小波分解后把高、低頻分量送入不同的殘差網(wǎng)絡(luò)中訓(xùn)練,測試階段使用逆變換獲得預(yù)測圖像,且計算效率相較于文獻[11]算法有所提高。文獻[8]算法和文獻[13]算法一樣都是采用殘差學(xué)習(xí)策略,不同的是文獻[13]算法使用空洞卷結(jié)構(gòu)提取全局信息,并結(jié)合多尺度特征以恢復(fù)圖像細(xì)節(jié)。文獻[14-15]提出了一種較為新穎的降噪方法,均對圖片進行分區(qū)處理,其中:文獻[14]提出了一種新型降噪超分辨的插值結(jié)構(gòu),將基于紋理特征的超分辨算法和基于差異曲率的降噪算法相結(jié)合,能夠?qū)⒑雸D像分為平滑點區(qū)域、噪點區(qū)域及邊緣點區(qū)域,然后實現(xiàn)對含噪圖片的超分辨;文獻[15]中首先通過反向傳播(Back Propagation,BP)神經(jīng)網(wǎng)絡(luò)預(yù)測并區(qū)分超聲圖像中的噪聲區(qū)域和組織區(qū)域,然后與雙邊濾波器結(jié)合實現(xiàn)對超聲圖像的自適應(yīng)濾波,不可避免的是文獻[14-15]算法均存在計算效率低的缺點。文獻[16]中提出了FFDNet(Fast and Flexible Network based on image Denoising)模型,雖能在少量無重復(fù)性結(jié)構(gòu)上獲得良好的降噪效果,但卻要求降噪圖像和訓(xùn)練所用的圖像存在相似結(jié)構(gòu)。文獻[17]中則利用凸優(yōu)化和神經(jīng)網(wǎng)絡(luò)技術(shù)將多個降噪器的降噪圖像進行加權(quán)以提升降噪效果,但計算效率仍有待提高。

        文獻[11-17]方法雖然相較傳統(tǒng)方法性能有一定程度的提高,但在計算效率和降噪效果權(quán)衡上仍有很大的提升空間,本文中將改進的DnCNN 模型作為條件生成對抗網(wǎng)絡(luò)(Conditional Generative Adversarial Net,CGAN)的生成器,DnCNN 中包括 由卷積 層(Conv)、批標(biāo)準(zhǔn) 化(Batch Normalization,BN)和線性整流單元(Rectified Linear Unit,ReLU)組成的殘差塊,能夠很好地捕獲圖像噪聲分布。將加噪圖片剔除生成器輸出的噪聲分布后與未加噪的干凈圖片通過判別器形成博弈,在博弈過程中隱層參數(shù)不斷調(diào)整使得最終模型達到博弈平衡。實驗結(jié)果表明,本文所提出的算法在DnCNN現(xiàn)有的優(yōu)勢上進一步提升了模型的降噪效果。

        本文算法的特點有:1)將殘差學(xué)習(xí)的DnCNN 模型改進后和CGAN 相結(jié)合,殘差提取能力更強;2)采用將三個單一水平降噪模型并聯(lián)組成盲降噪模型,泛化能力更強;3)具有較淺的模型深度(19層)并適用于GPU并行計算,計算效率更高。

        1 相關(guān)工作

        1.1 DnCNN模型

        深度學(xué)習(xí)被大量應(yīng)用于圖像降噪算法[18-21]。DnCNN 模型是在修改VGG19(Visual Geometry Group network 19)的基礎(chǔ)上通過調(diào)整卷積核為3×3 并去掉所有的池化層獲取的。該模型不再是簡單地從加噪圖像c=m+u中學(xué)習(xí)映射函數(shù)F(c)=m,而是通過將卷積、ReLU 和BN 層相結(jié)合不斷對隱層參數(shù)訓(xùn)練得到R(c)=u的映射,即從加噪的圖片中學(xué)習(xí)噪聲的分布,然后將學(xué)習(xí)到的噪聲分布與真實噪聲分布的均方誤差(Mean Square Error,MSE)作為損失函數(shù),類似于文獻[18]提出的EPLL(Expected Patch Log Likelihood)和文獻[6]中提出的WNNM 噪聲消除策略。DnCNN 的模型架構(gòu)如圖1 所示,損失函數(shù)如式(1)。

        圖1 DnCNN模型架構(gòu)Fig.1 DnCNN model architecture

        式中:xi和yi分別表示樣本和加噪樣本;R(yi;θ)表示學(xué)習(xí)到的噪聲分布;N表示樣本數(shù);θ表示需要訓(xùn)練的參數(shù),后續(xù)使用自適應(yīng)矩估計(Adaptive moment estimation,Adam)優(yōu)化器進行優(yōu)化。

        1.2 CGAN

        文獻[22]中提出的生成對抗網(wǎng)絡(luò)(Generative Adversarial Net,GAN)是由生成器和判別器兩部分組成,生成器(Generator,G)利用噪聲生成和樣本盡可能相似的圖像以騙過判別器(Discriminator,D)。D通過對樣本和生成圖片的判別來不斷提高判別的準(zhǔn)確度,從而生成器和判別器形成博弈,如式(2)。文獻[23]中所提的CGAN 是在GAN 的基礎(chǔ)上改進而來,針對GAN 不可控的缺點加入了監(jiān)控條件s,CGAN 模型結(jié)構(gòu)如圖2所示,損失函數(shù)由式(2)變?yōu)槭剑?)。

        圖2 CGAN模型架構(gòu)Fig.2 CGAN model architecture

        式中:x表示來自數(shù)據(jù)集的樣本矩陣,z表示噪聲矩陣;G(z)表示生成器生成的圖片,D(x)和D(G(z))分別表示對樣本和生成圖片判別后的真實概率;s表示監(jiān)控條件。對于判別器而言,D(x)和D(G(z))的期望值分別是1 和0,然后把這個結(jié)果反饋給生成器和判別器,生成器通過調(diào)節(jié)隱藏層的參數(shù)使得D(G(z))趨于1 以騙過判別器,判別器則通過對隱層參數(shù)的調(diào)節(jié)來提高判別的準(zhǔn)確率。在不斷的博弈當(dāng)中,生成器和判別器趨于平衡狀態(tài),最終判別器對于真實數(shù)據(jù)和生成數(shù)據(jù)的判別結(jié)果都接近0.5,此時目標(biāo)函數(shù)式(4)得到最優(yōu)解,式(3)在此基礎(chǔ)上增加了監(jiān)控條件s。

        1.3 Dropout層抑制過擬合

        過擬合問題是深度學(xué)習(xí)中經(jīng)常遇到的問題。用于解決過擬合問題的Dropout 層與傳統(tǒng)的受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)使用權(quán)重衰減策略不同,Dropout層是對每個隱含節(jié)點的權(quán)值設(shè)置一個服從Bernoulli分布的約束條件。如果約束條件被激活,則該節(jié)點以p概率被舍棄,以此使得模型權(quán)重稀疏化從而達到解決過擬合的目的。標(biāo)準(zhǔn)網(wǎng)絡(luò)如圖3 所示,Dropout 層的使用如圖4 所示,式(5)~(6)是增加Dropout層前后神經(jīng)層傳遞數(shù)據(jù)方式的變化。

        圖3 標(biāo)準(zhǔn)網(wǎng)絡(luò)Fig.3 Standard network

        圖4 Dropout層的使用Fig.4 Use of Dropout layer

        式中:k(l)、rl、l分別代表神經(jīng)元的傳遞數(shù)據(jù)、Dropout的概率、層序數(shù)、β分別代表權(quán)值矩陣、偏置矩陣和激活函數(shù)。

        2 本文圖像雙重盲降噪算法

        2.1 模型架構(gòu)及損失函數(shù)設(shè)計

        生成器依據(jù)DnCNN 的特點,本文在VGG19 的基礎(chǔ)上移除了所有的池化層,并且將各層的卷積核設(shè)定為3×3。在第d層的感受野是(2d+1)×(2d+1),仍采用0 填充的方式處理邊界偽影。圖像降噪中,隨著模型深度的增加會出現(xiàn)計算效率低、過擬合、模型退化等問題。計算效率低可以通過并行GPU 運算來解決;過擬合可以通過適當(dāng)正則化、添加Dropout層解決;模型深度增加導(dǎo)致的模型退化的問題,也可以通過改變模型結(jié)構(gòu)使用ResNet 網(wǎng)絡(luò)來解決。對于模型中單一層的輸出并不能充分捕獲圖像特征的分布規(guī)律,本文改進并使用了文獻[24]提出的改進殘差密集塊(Improved Residual Dense Block,IRDB),其作用是將淺層與深層的輸出相疊加繼續(xù)傳遞,這樣就防止了淺層特征在傳遞過程中消失,進而提高了生成器捕獲噪聲分布的能力,生成器中IRDB 結(jié)構(gòu)如圖5 所示。判別器的設(shè)計相對比較簡單,由兩組連續(xù)的Conv 層、BN 層、LeakyReLU(Leaky ReLU)層、概率為0.5 的Dropout 層,外加Flatten、Dense 層組成。對于貼片尺寸,本文模型在參考了文獻[8]中根據(jù)不同的噪聲水平和感受野設(shè)置樣本貼片的大小,文獻[8]通過實驗給出了固定噪聲水平(δ=25)下幾種降噪模型樣本貼片的有效尺寸,并根據(jù)噪聲水平和感受野設(shè)置輸入模型貼片為40×40,δ=25 時不同模型的有效貼片尺寸如表1 所示。EPLL 與文獻[8]模型感受野相近,其有效樣本貼片為36×36,文獻[8]模型的感受野為35×35,有效樣本貼片為40×40。本文模型的噪聲和文獻[8]模型同為15、25、50三個水平,但本文模型的感受野略大于文獻[8]模型的35×35,為39×39,故將樣本貼片的有效尺寸設(shè)置為43×43。整個模型的結(jié)構(gòu)如圖6所示,圖中DP表示Dropout層。

        表1 δ=25時不同模型的有效貼片尺寸Tab.1 Effective patch sizes of different models when δ=25

        圖5 生成器中IRDB結(jié)構(gòu)Fig.5 IRDB structure in generator

        由圖6 模型架構(gòu)所示,首先將加噪樣本y喂入生成器,生成器捕獲噪聲分布R(y),然后以真實樣本和y-R(y)的MSE作為DnCNN 損失,即生成器損失,計算式如式(7),值得注意的是本文并不是捕獲圖像分布R(y)=x,而是捕獲噪聲分布R(y)=v。模型損失是在經(jīng)典GAN 損失函數(shù)基礎(chǔ)上改進而來的,生成器求出生成器損失和生成器可訓(xùn)練參數(shù)之間的梯度,然后由生成器的優(yōu)化器進行優(yōu)化。判別器則根據(jù)對標(biāo)簽和生成輸入的判別結(jié)果求出判別損失,優(yōu)化過程和生成器類似,后將判別結(jié)果反饋給整個模型,使得模型參數(shù)得到優(yōu)化,計算式如式(8),最終模型在博弈當(dāng)中不斷優(yōu)化。

        圖6 整個模型的架構(gòu)Fig.6 Architecture of whole model

        式中:xi、x分別表示樣本和樣本矩陣;yi、y分別表示加噪樣本和加噪樣本矩陣;R(yi)、R(y)分別表示捕獲的噪聲分布和捕獲的噪聲分布矩陣;s、v分別表示監(jiān)控條件和噪聲矩陣。通過式(7)~(8)的不斷優(yōu)化,生成器對噪聲的捕獲能力不斷增強。

        2.2 IRDB有效性的論述

        在生成器中最重要的結(jié)構(gòu)是IRDB,這里對其起作用的原因進行解釋。為方便討論,假設(shè)不使用任何激活函數(shù),且輸入輸出維度一致。從前向傳播來看,第l2層殘差塊的輸出由式(9)表示,不難看出,任意低層的特征可以直接映射到高層,使得高層對于圖像特征分布的捕獲更加充分,從而抑制了特征在傳播的過程中退化。從反向傳播來看,最終的損失對某底層的梯度如式(10)所示,表明反向傳播的錯誤信號可以避開中間權(quán)重直接傳播到低層,這樣就避免了梯度消失。

        式中:li表示層序數(shù);f表示殘差函數(shù)(學(xué)習(xí)直接沿網(wǎng)絡(luò)傳播的映射)表示第l殘差塊的輸出矩陣;ε表示損失矩陣。

        2.3 批量大小和學(xué)習(xí)率的選擇

        批量隨機梯度下降(Stochastic Gradient Descent,SGD)的權(quán)重更新如式(11)~(12)所示,從中不難看出權(quán)重的更新由學(xué)習(xí)率η、批量大小n、梯度?loss(x,wt)共同決定。

        式中:?loss(x,wt)表示某個樣本的損失矩陣對于權(quán)重矩陣的梯度,由該樣本對權(quán)重求導(dǎo)而得;wt表示權(quán)重矩陣;x表示樣本矩陣;η表示學(xué)習(xí)率;n表示批量大小。

        學(xué)習(xí)率直接決定著權(quán)重更新的步長,它對模型的影響體現(xiàn)在初始學(xué)習(xí)率和學(xué)習(xí)率變換方案兩個方面。初始學(xué)習(xí)率過大則會導(dǎo)致模型不收斂,過小則會導(dǎo)致模型收斂慢甚至不收斂,為此只有通過搜索法來確定最佳的學(xué)習(xí)率。針對學(xué)習(xí)率變換方案,雖然文獻[25-26]中證明經(jīng)過調(diào)優(yōu)的隨機梯度下降(SGD)算法可能會取得更好的訓(xùn)練效果,但學(xué)習(xí)率是一個特別敏感的參數(shù),保守起見本文采用的是Adam 調(diào)優(yōu)策略,給定初始學(xué)習(xí)率η為10-3,迭代步長為5 200,迭代率為0.5,即每迭代5 200 步學(xué)習(xí)率降為原來的1/2。文獻[27]表明,批量大小n對模型影響如圖7 所示,在一定范圍內(nèi)增加n值會有助于提高模型的穩(wěn)定性,但是隨著n值的繼續(xù)增加模型性能會下降;文獻[28]表明,小的n值攜帶的噪聲有助于逃離sharp minimum 從而達到flat minimum,后者具有更好的泛化能力,批量大小n對極值的影響如圖8 所示;文獻[29]表明,隨著訓(xùn)練時間的增加,大的n值仍會收斂到flat minimum 點。由此可見,在訓(xùn)練時間足夠長的情況下增加n值會給模型性能帶來良性影響,基于顯卡運算能力本文選用的n值為128。具體參數(shù)設(shè)定如表2所示。

        表2 部分超參數(shù)設(shè)定Tab.2 Partial hyperparameter setting

        圖7 批量大小n對模型影響Fig.7 Impact of batch size n on model

        圖8 批量大小n對極值的影響Fig.8 Influence of batch size n on extremums

        2.4 Dropout層對模型的影響

        DnCNN 模型的降噪原理和文獻[5]的觀點不同,文獻[5]是基于F(y)=x的映射,而DnCNN 則是基于R(y)=v的映射。為了控制變量,實驗均是基于F(y)=x的映射,在分別使用SGD 和Adam 優(yōu)化器情況下,觀察模型損失。為驗證Dropout 層具有解決過擬合問題的能力,本文搭建了一個由一個Flatten 層加一個Dense 層,外加一個概率為0.4 的Dropout層,最后再加一個Dense 層組成的模型來驗證。該模型除最后一層的激活函數(shù)為Softmax 外其他激活函數(shù)均為ReLU,輸入圖片大小為28×28。

        Adam 優(yōu)化器和SGD 優(yōu)化器下的模型損失分別如圖9~10所示。由圖9~10 可以看出,隨著迭代次數(shù)的增加,帶Dropout層的損失在不斷下降,而無Dropout 層的損失在第7 次迭代時趨于分離,即訓(xùn)練損失在下降,真實損失卻在上升,模型的泛化能力不再提升,出現(xiàn)過擬合,在Adam 優(yōu)化器下更加明顯,從而表明Dropout層能夠有效解決過擬合問題的能力。

        圖9 Adam優(yōu)化器下的模型損失Fig.9 Model loss under Adam optimizer

        圖10 SGD優(yōu)化器下的模型損失Fig.10 Model loss under SGD optimizer

        3 實驗與結(jié)果分析

        本文訓(xùn)練模型所采用的兩個優(yōu)化器均是Adam,初始學(xué)習(xí)效率為10-3,迭代周期為1 200。本文訓(xùn)練的模型采用的噪聲水平分別是15、25、50,改進后的DnCNN模型作為生成器輸入的圖片采用43×43 的樣本貼片,模型深度降為19 層,其中:0層采用Conv 加ReLU 結(jié)構(gòu);1~11 層為IRDB 結(jié)構(gòu);12~18 層均是由Conv、BN 和激活函數(shù)ReLU 所組成,為防止模型過擬合,第16、17 層的激活函數(shù)后添加了概率為0.5 的Dropout 層(一般加在深卷積層后,因為此時參數(shù)較多更容易產(chǎn)生過擬合),均采用3×3的卷積核,卷積核數(shù)均為64,采用殘差學(xué)習(xí)策略。判別器的設(shè)計和模型架構(gòu)中的描述一致。

        實驗所用到的操作系統(tǒng)為Windows 10,CPU 為intel 酷睿i7-9700k,GPU 為 RTX2080TI。訓(xùn)練模 型環(huán)境 為tensorflow2.0,python3.7。本文中所使用的激活函數(shù)(ReLU和LeakyReLU)均為默認(rèn)參數(shù)。在訓(xùn)練單一模型階段采用的圖像質(zhì)量評價指標(biāo)和DnCNN 一樣都是峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)(單位為dB),PSNR 是基于像素誤差對圖像進行評估,其值越高表示去噪質(zhì)量越好。PSNR計算式如下:

        式中:H、W表示圖片長寬;X(i,j)、Y(i,j)表示兩張圖片的像素點;其余均為常數(shù)。

        3.1 δ=15、δ=25、δ=50下不同算法降噪效果

        為了驗證本文算法的降噪效果,分別選用BM3D、CSF、DnCNN-B、DnCNN-S、EPLL、TNRD、WNNM 等七種算法進行對比實驗,使用的數(shù)據(jù)集是Set12。通過視覺效果和評價指標(biāo)PSNR 兩個方面來比較各個算法的降噪效果。在噪聲水平δ分別為15、25、50 時,數(shù)據(jù)集中各圖片通過降噪后的PSNR 值如表3 所示,最優(yōu)的PSNR 值已作加粗處理。通過表3 對比可知,在δ=15,25,50 下,本文算法的PSNR 相較原來的DnCNN算法平均提高了1.388 dB、1.725 dB、1.639 dB。文獻[30-31]研究表明,降噪水平優(yōu)于BM3D 達到0.3 dB 的算法是很難實現(xiàn)的,然而本文算法在三個降噪水平上不僅優(yōu)于BM3D 算法,也優(yōu)于DnCNN。雖然本文算法在Peppers、Parrot、Starfish三張圖片上PSNR值小于DnCNN算法,但就整個數(shù)據(jù)集而言,本文算法的降噪水平還是優(yōu)于DnCNN。δ=15時不同算法降噪效果如圖11所示。

        表3 δ=15,25,50時不同算法的PSNR 單位:dBTab.3 PSNR of different algorithms when δ=15,25,50 unit:dB

        圖11 δ=15時不同算法降噪效果Fig.11 Denoising effects of different algorithms when δ=15

        由圖11 可以明顯看出,BM3D 和DnCNN 算法在第一幅和第二幅圖像上出現(xiàn)明顯的模糊;WNNM 在邊緣區(qū)域會出現(xiàn)明顯的塊狀,這一點在第二幅圖片上較為明顯。綜上,用于對比的四種算法在邊緣細(xì)節(jié)處理上都有明顯的模糊,而本文算法在邊緣特征和紋理上相較對比算法都有所改善。本文對比的數(shù)據(jù)參考了文獻[8]中的實驗結(jié)果。

        3.2 盲降噪模型的構(gòu)成和評估

        為得到盲降噪模型,本文訓(xùn)練了δ=15,25,50 等三個模型。不同模型下的降噪效果如圖12 所示,隨著噪聲水平的增加,模型的降噪效果遞減,在較低噪聲水平下模型的降噪效果明顯,且在δ=50 時PSNR 值穩(wěn)定在30 dB 左右?;谏鲜鰧嶒灲Y(jié)果,本文將三個單一水平降噪模型并連成一個盲降噪模型,加噪圖片輸入模型后由三個子模型并行處理,然后比較各個子模型輸出的圖像衡量指標(biāo)EAV 值[32],最終取其最大值所對應(yīng)的降噪圖像為模型輸出,盲降噪模型結(jié)構(gòu)如圖13 所示,圖中為邊緣法向的灰度變化率,M×N表示圖片大小。為進一步驗證本文模型的降噪效果,引入了結(jié)構(gòu)相似性(Structural SIMilarity index,SSIM),計算式如式(15):

        圖12 不同模型下的降噪效果Fig.12 Denoising effect under different models

        圖13 盲降噪模型結(jié)構(gòu)Fig.13 Blind denoising model structure

        式中:μX、μY,φX、φY及φXY分別表示X、Y的均值、方差及X、Y的協(xié)方差;其余均為常數(shù)。

        SSIM 是一種從亮度、對比度和結(jié)構(gòu)上進行對比的全參考圖像質(zhì)量評價指標(biāo),能夠準(zhǔn)確評估兩幅圖片紋理和邊緣的相似度。在噪聲水平分別 為20、30、40、50 下比 較BM3D、WNNM、DnCNN、FFDNET、一致性神經(jīng)網(wǎng)絡(luò)(ConSensus neural NETwork,CSNET)這五種算法與本文算法的PSNR 和SSIM值,具體結(jié)果如表4 所示。從表4 中不難看出,本文算法在降噪效果上更優(yōu),表明本文算法的性能優(yōu)于目前的其他主流降噪算法,雖然在噪聲水平為40 時,本文算法性能略差于FFDNET,但是總體而言本文算法在結(jié)構(gòu)(紋理和邊緣)上的降噪效果更明顯。

        表4 不同算法在Lena圖像上的PSNR和SSIM值Tab.4 PSNR and SSIM values of different algorithms on Lena image

        不同算法處理圖像的用時比較如表5 表示。從表5 中可看出,本文算法的執(zhí)行時間與文獻[8]算法相當(dāng)。

        表5 不同算法的執(zhí)行時間對比 單位:sTab.5 Comparison of execution time of different algorithms unit:s

        本文算法對遙感圖片的降噪結(jié)果如圖14 所示,是盲降噪模型對遙感圖片在一定噪聲水平下的降噪結(jié)果。從圖14 可以看出,三幅圖片的邊緣,特別是第一幅河道邊緣和第三幅的建筑邊緣出現(xiàn)不同程度的模糊,表明本文算法在一些需要超分辨率技術(shù)恢復(fù)的圖像上降噪性能仍有所不足。

        圖14 本文算法對遙感圖片的降噪結(jié)果Fig.14 Denoising results of proposed algorithm on remote sensing images

        4 結(jié)語

        本文將DnCNN、IRBD、GAN 相結(jié)合提出了一種新的降噪算法。該算法克服了傳統(tǒng)算法計算效率低、單一水平降噪等缺點,改善了圖像降噪質(zhì)量。實驗結(jié)果表明,本文所提算法的降噪效果相較于DnCNN 模型無論在圖片紋理的處理效果還是PSNR 值上都有了較高的提升。此外,本文算法還具有盲降噪和降噪速度快等特點。針對高噪聲水平下的圖片降噪,本文算法的降噪效果雖然有所提升,但仍有降噪性能不足的問題。下一步研究將繼續(xù)對本文算法進行改進,將超分辨率技術(shù)用于一般圖像的降噪,使之在高水平噪聲降噪的研究上能取得進一步突破。

        猜你喜歡
        損失噪聲矩陣
        少問一句,損失千金
        胖胖損失了多少元
        噪聲可退化且依賴于狀態(tài)和分布的平均場博弈
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        控制噪聲有妙法
        初等行變換與初等列變換并用求逆矩陣
        一般自由碰撞的最大動能損失
        矩陣
        南都周刊(2015年4期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年3期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年1期)2015-09-10 07:22:44
        亚洲AV日韩Av无码久久| 国产精品亚洲国产| 丝袜美腿久久亚洲一区| 91偷自国产一区二区三区| 永久天堂网av手机版| 国产亚洲av无码专区a∨麻豆| 精品国产免费Av无码久久久| 日韩亚洲午夜精品一区二区三区| 亚洲中文字幕久久精品一区| 欧美性xxxx极品高清| 亚洲色在线v中文字幕| 欧美a视频在线观看| 中文字幕这里都是精品| 亚洲精品中文字幕免费专区| 精品国产乱码久久久久久影片| 无码日韩人妻AV一区免费 | 国产成人自拍高清在线| 天码人妻一区二区三区| 巨爆乳中文字幕爆乳区| 加勒比一区二区三区av| 欧美性猛交aaaa片黑人 | 精品国产一品二品三品| 日本二一三区免费在线| 真人作爱免费视频| 亚洲最大无码AV网站观看| 亚洲一区二区三区精品久久av| 少妇伦子伦情品无吗| 激情欧美日韩一区二区| aⅴ色综合久久天堂av色综合| 国产亚洲91精品色在线| 中文字幕亚洲无线码在线一区| 国产av精国产传媒| 亚洲成人中文| 亚洲av影片一区二区三区| 国产精品高潮呻吟av久久黄| 亚洲人成网站色www| 揄拍成人国产精品视频| 亚洲中文字幕精品一区二区| 国产精品亚洲精品国产| 成人毛片一区二区| 秋霞日韩一区二区三区在线观看|