程 龍,蔡光程
(昆明理工大學(xué) 理學(xué)院,云南 昆明 650500)
圖像是人們獲取信息的主要途徑之一。然而,由于外部環(huán)境的不穩(wěn)定性,在獲取、壓縮與傳輸過程中,圖片難免受到噪聲干擾,從而導(dǎo)致質(zhì)量降低。含噪圖像給人們帶來糟糕的視覺體驗(yàn),不利于計(jì)算機(jī)分析、理解圖像,給圖像分割、對象識別、基于內(nèi)容的圖像檢索、邊緣提取等后續(xù)圖像處理工作帶來不便。因此,降噪是圖像處理技術(shù)中的首要步驟。在空間域上,降噪方法從傳統(tǒng)的維納濾波發(fā)展到全變分模型、非局部均值降噪、馬爾可夫隨機(jī)場模型降噪等方法[1-5];在頻率域上,通過小波變換、離散余弦變換、K-L變換(Karhunen-Loeve Transform)壓縮或賦零噪聲變換域系數(shù)可達(dá)到降噪目的。研究者們提出了多種算法,在保留圖像邊緣的同時(shí),取得了較好的降噪效果,其中表現(xiàn)較為突出的是由Dabov 等[6]于2007 年提出的圖像塊匹配3D 濾波方法(Block-Matching and 3D Filtering,BM3D)。其結(jié)合了變換域中小波萎縮法與空間域中非局部均值降噪算法的優(yōu)點(diǎn),充分利用圖像塊之間的自相似性進(jìn)行圖像復(fù)原。BM3D 無論在客觀評價(jià)指標(biāo)峰值信噪比,還是主觀肉眼感受上,均有較為理想的降噪結(jié)果。然而,對于高強(qiáng)度噪聲,圖像中可利用的信息非常少,降噪變得比較困難。
目前,卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)被應(yīng)用于圖像降噪中?;贑NN 的圖像降噪技術(shù)避免了現(xiàn)有降噪模型在測試階段需要復(fù)雜優(yōu)化方法以及手動(dòng)設(shè)置參數(shù)的弊端[7]。CNN 由神經(jīng)網(wǎng)絡(luò)發(fā)展而來,其特有的稀疏連接與權(quán)值共享特性使得網(wǎng)絡(luò)所需參數(shù)量劇減,使神經(jīng)網(wǎng)絡(luò)方法用于圖像處理成為現(xiàn)實(shí)。1987 年,Zhou 等[8]開創(chuàng)性地將神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像降噪中,但該方法的巨額參數(shù)量使得計(jì)算成本較高。1993 年,細(xì)胞神經(jīng)網(wǎng)絡(luò)使用帶模板的節(jié)點(diǎn)獲得平滑函數(shù),在降噪計(jì)算速度上得到提升,但需要人工設(shè)置模板參數(shù),且不能靈活添加新的插件單元,限制了其實(shí)際應(yīng)用[9]。2016 年,Zhang 等[10]提出前饋降噪卷積神經(jīng)網(wǎng)絡(luò)(Feed-forward Denoising Convolutional Neural Networks,DnCNNs),該網(wǎng)絡(luò)由VGG16 發(fā)展而來,使原本用于圖像識別與分類的模型適用于圖像降噪工作。該模型吸收了殘差學(xué)習(xí)思想,建立的網(wǎng)絡(luò)并不直接學(xué)習(xí)含噪圖像到干凈圖像的端到端映射,而是先得到噪聲圖像,繼而通過跳躍連接,從含噪圖像中分離出所需潛在干凈圖像,同時(shí)結(jié)合批量規(guī)范化操作,在GPU 加速計(jì)算下能快速獲得較好降噪效果。
以上研究在尋求一種性能優(yōu)越的降噪算法方面進(jìn)行了探索。為進(jìn)一步改善圖像降噪技術(shù),本文在非對稱卷積與多尺度結(jié)構(gòu)[11-12]的啟發(fā)下,進(jìn)行用于圖像降噪的卷積網(wǎng)絡(luò)架構(gòu)研究。結(jié)合二者優(yōu)勢,本文改進(jìn)了DnCNN 降噪模型,提出一種新型降噪CNN,稱為非對稱復(fù)合感受野卷積網(wǎng)絡(luò)(Asymmetric Complex Receptive Field Convolution Net?work,ACCNet)。
采用加入高斯噪聲的方法進(jìn)行測試,相比于其他人工噪聲,高斯噪聲下進(jìn)行的仿真更接近于真實(shí)噪聲。加入高斯噪聲的圖像v(x,y)可以表示為:
式中,u(x,y)為未被污染的原始圖像,n(x,y)為所加高斯噪聲。由于受梯度消失、網(wǎng)絡(luò)退化與復(fù)雜度問題影響,架構(gòu)設(shè)計(jì)中的一個(gè)重要問題是為模型設(shè)置合適的深度。網(wǎng)絡(luò)中大多數(shù)卷積核采用文獻(xiàn)[10]中使用的3×3 卷積,在非對稱復(fù)合感受野卷積塊(后文用ACCB 表示)中對輸入數(shù)據(jù)做并行處理,各路分別使用64 個(gè)64 通道數(shù)的3×3、5×5、7×7、9×9 卷積操作,并采用Relu 激活形成對尺度結(jié)構(gòu)。為減少參數(shù)量并提升模型精度,正方形卷積核使用3×1、5×1、7×1、9×1 與1×9 的非對稱卷積核替代,其中9×1 與1×9 卷積核的串聯(lián)在感受野上等同于4 層3×3的卷積核,因此ACCB 的感受野大小可由2d+1 計(jì)算得到。將網(wǎng)絡(luò)深度設(shè)置為18,得到一個(gè)感受野大小為37×37 的網(wǎng)絡(luò)。原始輸入跳躍連接到最后一個(gè)卷積層作為殘差結(jié)構(gòu),這種殘差映射出的降噪圖像比直接映射更容易優(yōu)化。
深度學(xué)習(xí)中的CNN 非常適宜于圖像降噪,網(wǎng)絡(luò)層中的卷積核通過數(shù)據(jù)學(xué)習(xí)到合適的濾波器參數(shù),激活函數(shù)賦予了模型非線性表達(dá)能力。與多層感知器相比,CNN 的稀疏連接與權(quán)值共享極大減少了模型訓(xùn)練參數(shù)量,從而使基于深度學(xué)習(xí)的圖像處理工作在工程上得以實(shí)現(xiàn)[13]。本文在較短時(shí)間和較低空間復(fù)雜度的要求下,架構(gòu)結(jié)合非對稱卷積與復(fù)合感受野結(jié)構(gòu)的圖像降噪網(wǎng)絡(luò)。模型第1 層為64個(gè)尺度為3 的正方形卷積核,用于初步平滑圖像和擴(kuò)展特征圖,第2 層為ACCB,第3-14 層每層均為3×3 卷積操作、批量規(guī)范化(Batch Normalization,BN)、修正線性單元(Rec?tified Linear Unit,ReLU)的交替連接,第15 層將特征圖降維到單通道,最后通過跳躍連接從含噪圖像中提取干凈圖像。實(shí)驗(yàn)結(jié)果表明,本文模型在標(biāo)準(zhǔn)測試圖像集Set12 中的降噪性能優(yōu)于目前許多優(yōu)秀的降噪方法[5-7,10]。
以往CNN 通常使用尺度為3、5、7 的正方形卷積核,且為了提高模型解容量,卷積層堆疊得越來越多,給計(jì)算機(jī)帶來了極大負(fù)擔(dān)。目前,研究者們正在尋找一種不增加額外卷積層而提高網(wǎng)絡(luò)性能的方法,例如SENet 通過注意力機(jī)制重新標(biāo)定特征圖通道的權(quán)值,從而抑制無用特征,增強(qiáng)對結(jié)果有積極影響的特征[14]。如圖1 所示,本文設(shè)計(jì)的非對稱卷積塊同樣不需要考慮網(wǎng)絡(luò)整體結(jié)構(gòu),直接采用非對稱的n×1 或1×n的卷積核替換其中n×n的正方形卷積核,減少了模型需要訓(xùn)練的參數(shù)量,并且結(jié)合Inception 網(wǎng)絡(luò)中的多尺度卷積提取特征,將單一輸入在不同感受野上進(jìn)行加權(quán)與激活,最終堆疊成為通道數(shù)增加的四維張量作為整個(gè)結(jié)構(gòu)塊輸出。這樣不僅能提取到圖像局部特征,還能提取到較為整體的特征,并且在參數(shù)學(xué)習(xí)過程中決定了不同感受野上特征的使用。
Fig.1 Diagram of ACCB structure圖1 ACCB 結(jié)構(gòu)示意圖
深度網(wǎng)絡(luò)存在的兩個(gè)問題值得注意:一是神經(jīng)元飽和問題,另一個(gè)是梯度消失與爆炸問題。
那么,網(wǎng)絡(luò)逐層前向傳播用矩陣的形式可表示為:
利用式(4)從輸入層逐層計(jì)算網(wǎng)絡(luò)激活值。若網(wǎng)絡(luò)共有n層,損失函數(shù)為網(wǎng)絡(luò)輸出與期望輸出之間的距離,因此損失函數(shù)可表達(dá)為網(wǎng)絡(luò)輸出的函數(shù)單個(gè)數(shù)據(jù)的損失記為Lh(x,y)nj(w,b),其中w和b分別為所有需要訓(xùn)練的權(quán)值和偏置。n個(gè)樣本的整體損失可定義為:
1.2.1 神經(jīng)元飽和問題
將式(7)擴(kuò)展為矩陣形式,則有:
則該神經(jīng)元誤差將趨近于零,即有:
激活函數(shù)梯度過小,導(dǎo)致神經(jīng)元無法進(jìn)行有效的參數(shù)更新,神經(jīng)元在還未找到解決問題的最優(yōu)參數(shù)時(shí)便停止了學(xué)習(xí),激活函數(shù)的飽和導(dǎo)致了神經(jīng)元飽和問題。
1.2.2 梯度消失與梯度爆炸問題
根據(jù)鏈?zhǔn)椒▌t,得到式(11),通過式(11)、式(12)、式(13)可求得神經(jīng)元誤差反向傳播方程式(14)。表示為:
式(15)表明可以通過第l+1 層的神經(jīng)元誤差δl+1計(jì)算第l層的誤差δl。結(jié)合式(6)與式(14),可以計(jì)算網(wǎng)絡(luò)中任意一層神經(jīng)元的誤差??疾鞊p失函數(shù)對權(quán)值的改變率對偏置可以同樣方式說明。假設(shè)每個(gè)網(wǎng)絡(luò)層只有一個(gè)神經(jīng)元,根據(jù)鏈?zhǔn)椒▌t有:
在原始感知機(jī)中,隱藏層只進(jìn)行線性操作,這樣由卷積層堆疊的深度網(wǎng)絡(luò)輸出相當(dāng)于輸入的線性組合,網(wǎng)絡(luò)的逼近能力有限,相當(dāng)于僅采用濾波器處理含噪圖像。加入激活函數(shù)后,網(wǎng)絡(luò)的非線性能力提升,深層網(wǎng)絡(luò)幾乎可以逼近任意函數(shù)。早期配置的激活函數(shù)為Sigmoid 函數(shù)、雙曲正切函數(shù),其網(wǎng)絡(luò)學(xué)習(xí)更新參數(shù)的梯度區(qū)間過窄,容易使神經(jīng)元達(dá)到飽和,且整體梯度偏小。近年來,受到視覺皮層信號處理的啟發(fā),修正線性單元(Rectified Linear Unit,ReLU)被提出并成為最有效的激活函數(shù)之一,可表示為式(17)。其在眾多激活函數(shù)中脫穎而出主要基于以下三點(diǎn):①其只用判斷輸入實(shí)值是否大于零,而不需要像前文提及的激活函數(shù)那樣計(jì)算指數(shù)項(xiàng),因此運(yùn)算速度極快;②其在正區(qū)間上的導(dǎo)數(shù)始終為1,避免了梯度消失與飽和問題;③當(dāng)輸入值為負(fù)值時(shí),激活值為零,即該神經(jīng)元不激活。該模型中的神經(jīng)元根據(jù)輸入的不同選擇性地被激活,非完全激活的模型引入了稀疏性[15]。稀疏性的引入一方面強(qiáng)化了模型的泛化能力,另一方面減少了一些多余特征。本文還嘗試了許多ReLU 的改進(jìn)版本,如增加光滑性的Swish[16],其表達(dá)式為式(18);可到達(dá)嚴(yán)格梯度下降無法取得的最優(yōu)值的帶噪聲的ReLU,表達(dá)式為式(19);加速梯度移動(dòng)的非飽和ReLU,例如Prelu[17],其表達(dá)式為式(20)。為了在工程上快速實(shí)現(xiàn),最終選擇Relu 作為網(wǎng)絡(luò)結(jié)構(gòu)中的激活函數(shù)。圖2 給出了ReLU 與Swish 激活函數(shù)的示意圖。
Fig.2 ReLU and Swish activation functions圖2 ReLU 與Swish 激 活 函 數(shù)
內(nèi)部協(xié)變量轉(zhuǎn)移(Internal Covariate Shift,ICS)現(xiàn)象影響了模型的非線性表達(dá)能力,因此引入批量規(guī)范化(Batch Normalization,BN)進(jìn)行抑制。該方法將小批次數(shù)據(jù)標(biāo)定為擬正態(tài)分布,并通過具有學(xué)習(xí)性的重構(gòu)參數(shù)γ和β恢復(fù)學(xué)習(xí)到的特征。加入BN 后,優(yōu)化器不必再小心調(diào)節(jié)學(xué)習(xí)率和初始化參數(shù),在很多情況下,也不再需要正則項(xiàng)[18]。本文在設(shè)計(jì)網(wǎng)絡(luò)架構(gòu)時(shí)將BN 層加入到卷積層與激活層之間,在下一層卷積運(yùn)算前進(jìn)行BN 處理,更有利于保留訓(xùn)練圖像中的先驗(yàn)信息,使不具備稀疏分布特征的映射規(guī)范化后,每一層的輸入輸出分布更加穩(wěn)定??蓪N 的規(guī)范化操作表示為以下公式:
式中,i為數(shù)據(jù)中每個(gè)樣本的序號,t(x,y)i為每個(gè)BN 層的輸入圖像數(shù)據(jù)分別為輸入圖像矩陣對應(yīng)點(diǎn)的均值與方差。為防止分母為零,引入極小量ε,γ和β在反向傳播中得到更新。
深度CNN 通過神經(jīng)層的堆疊將圖像的低級與高級特征串聯(lián)起來。深層網(wǎng)絡(luò)提取的抽象特征更具備語義信息,增大了假設(shè)空間,故而越深的網(wǎng)絡(luò)往往表現(xiàn)出越優(yōu)的性能,但是深層網(wǎng)絡(luò)帶來的梯度消失與爆炸問題妨礙了模型的收斂及更優(yōu)性能的體現(xiàn)。如果直接使用正則化層解決這個(gè)問題,深度網(wǎng)絡(luò)在訓(xùn)練過程中很容易出現(xiàn)損失值先減小后反彈的現(xiàn)象,即出現(xiàn)退化問題[19]。因此,本文將淺層特征通過跳躍連接與深層特征融合,以改善深度網(wǎng)絡(luò)參數(shù)難以優(yōu)化這一問題。殘差結(jié)構(gòu)如圖3 所示,用數(shù)學(xué)式可表示為:
Fig.3 Residual structure圖3 殘差結(jié)構(gòu)
式中,v(x,y)經(jīng)過k個(gè)卷積層與激活層映射為負(fù)的預(yù)測噪聲圖像與之和即為殘差塊的輸出。
結(jié)合非對稱多尺度卷積的降噪CNN 模型整體結(jié)構(gòu)如圖4 所示。
Fig.4 ACCNet overall architecture圖4 ACCNet 整體架構(gòu)
(1)第1 層為卷積操作,意在對輸入圖像進(jìn)行初步濾波處理,平滑了明顯的噪聲點(diǎn)。
(2)第2 層為ACCB,其內(nèi)部為5 個(gè)不同尺度的卷積操作和Relu 激活,然后經(jīng)過Concat 連接,輸出為一個(gè)有256 個(gè)通道的特征圖,使第1 層輸出的64 通道特征圖變換為特征更豐富的256通道特征圖,同時(shí)增加了不同感受野上的輸出。
(3)第3 層為Conv+BN+ReLU,該層對上一層256 通道的張量進(jìn)行特征融合,回歸到64 通道的特征圖。
(4)第4-14 層的每層均為Conv+BN+ReLU 的組合,通過卷積操作與ReLU 激活的交替堆疊,組成了復(fù)雜的非線性模型,以便學(xué)習(xí)到良好的降噪映射。
(5)第15 層為卷積層,其輸出與模型的輸入進(jìn)行跳躍連接,形成殘差結(jié)構(gòu),從噪聲圖像中抽離干凈圖像作為模型最終降噪結(jié)果。
上述模型除了ACCB 中使用了非對稱多尺度卷積核,以及第1、3 和15 層分別使用了64 個(gè)單通道、64 個(gè)256 通道以及1 個(gè)64 通道3×3 的卷積核外,其余卷積層均為64 個(gè)64 通道3×3 的卷積核。
選取隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)與自適應(yīng)矩估計(jì)法(Adaptive Moment Estimation,Ad?am)優(yōu)化網(wǎng)絡(luò)。SGD 是經(jīng)典有效的優(yōu)化算法,但選擇合適的學(xué)習(xí)率較為不易。Adam 優(yōu)化器是一種基于適應(yīng)性低階矩估計(jì)的對隨機(jī)目標(biāo)函數(shù)執(zhí)行一階梯度優(yōu)化的算法,其結(jié)合了AdaGrad 優(yōu)化器與RMSProp 優(yōu)化器的優(yōu)勢,使得模型收斂速度更快、對內(nèi)存要求更低,也不需要困難地調(diào)節(jié)超參數(shù)[20-21]。在初步架構(gòu)模型階段,先使用Adam 優(yōu)化器快速確認(rèn)最優(yōu)模型的大致結(jié)構(gòu),然后使用SGD 訓(xùn)練確定模型的最優(yōu)權(quán)值和最優(yōu)偏置值。本文建立的損失函數(shù)為均方誤差,符合峰值信噪比的計(jì)算思想,其中損失函數(shù)可表示為:
式中,n為每個(gè)小批次設(shè)置的訓(xùn)練樣本數(shù)量,i為小批次樣本中每個(gè)圖像數(shù)據(jù)的序號,J(v(x,y)i;w,b)表示模型輸出,u(x,y)i為相應(yīng)標(biāo)記的干凈圖像。
將每個(gè)批次樣本數(shù)量n設(shè)置為128,計(jì)算樣本的整體損失,然后使用梯度下降法優(yōu)化參數(shù),其中權(quán)重更新可表示為:
式中,l為當(dāng)前降噪網(wǎng)絡(luò)的層數(shù)編號,i為權(quán)值的迭代次數(shù),α為學(xué)習(xí)率。設(shè)置初始學(xué)習(xí)率為0.01,經(jīng)過100 個(gè)Epoch指數(shù)后下降到0.000 01。
參照文獻(xiàn)[10],使用CBSD400 訓(xùn)練降噪模型,其包含400 張尺寸為180×180 的灰度圖像。通過數(shù)據(jù)增強(qiáng)將400張圖像旋轉(zhuǎn)剪裁成128×2 109 張分辨率為40×40 的子圖像。為了訓(xùn)練模型并測試其降噪性能,對圖像加入均值為零,標(biāo)準(zhǔn)差分別為15、25 和50 的高斯噪聲,以便訓(xùn)練出能夠應(yīng)對不同噪聲水平下降噪任務(wù)的參數(shù)。
模型的訓(xùn)練與測試在Keras 深度學(xué)習(xí)框架下由GPU 加速實(shí)現(xiàn)。該框架以TensorFlow 與Theano 為后端,能夠在不失靈活性的前提下快速實(shí)現(xiàn)。計(jì)算硬件配置為Intel(R)Xeon(R)CPU X5670 @ 2.93GHz,NVIDIA GeForce GTX 1070 8G,RAM 為16G,系統(tǒng)驅(qū)動(dòng)為Windows 10 64 位下的cuda9、cudnn7。超參數(shù)Batch Size 設(shè)置為128,訓(xùn)練100 個(gè)Epoch,每個(gè)Epoch 訓(xùn)練2 109 個(gè)Batch 樣本數(shù)據(jù)。
為探究ACCB 與其他常見結(jié)構(gòu)降噪性能的差異,將ACCB 替換到不同尺度正方形卷積核中進(jìn)行對比實(shí)驗(yàn)。如圖5 所示,共進(jìn)行3 組實(shí)驗(yàn),分別為ACCNet、尺度為7 和9 的正方形卷積核替換ACCB 結(jié)構(gòu)的網(wǎng)絡(luò)模型,測試降噪圖像與干凈圖像的峰值信噪比。結(jié)果表明,ACCB 結(jié)構(gòu)優(yōu)于對稱的大尺度卷積核。
Fig.5 Comparison of ACCB and symmetric convolution圖5 ACCB 與對稱卷積對比
不同的非對稱多尺度結(jié)構(gòu)對模型降噪性能有一定影響。為找到適合本文架構(gòu)的非對稱多尺度結(jié)構(gòu),以下考察幾種不同的非對稱多尺度塊。如圖6 所示,從左到右依次記為ACCB、B、C、D,其中B 使用了尺度為3、5、7 和9 的對稱卷積核進(jìn)行并行處理,C 為非對稱卷積核替換B 的正方形卷積核,D 為橫向與縱向的非對稱卷積串聯(lián)替換B 的正方形卷積核。如圖7 所示,平衡了感受野大小與參數(shù)量的ACCB 使得模型具有良好的降噪能力,在客觀評價(jià)標(biāo)準(zhǔn)PSNR 上表現(xiàn)最佳。
Fig.6 Several different asymmetrical multiscale structures(ACCB,B,C,D from left to right)圖6 幾種不同的非對稱多尺度結(jié)構(gòu)(從左到右依次為ACCB、B、C、D)
Fig.7 Comparison of different ACCB performance圖7 不同ACCB 性能對比
如圖8 所示,通過對比殘差學(xué)習(xí)RL、批量規(guī)范化BN 與ACCB+BN+RL 的降噪網(wǎng)絡(luò)可知,ACCB 與殘差學(xué)習(xí)RL、批量規(guī)范化BN 有著相輔相成的作用,三者的聯(lián)合作用使得降噪網(wǎng)絡(luò)能快速收斂且降噪表現(xiàn)最佳。
Fig.8 The impact of RL and BN on model performance圖8 RL 和BN 對模型性能的影響
為進(jìn)一步體現(xiàn)ACCNet 的有效性,采用常用測試集Set12,在噪聲強(qiáng)度分別為15、25、50dB 的情況下將其與幾種算法進(jìn)行標(biāo)準(zhǔn)峰值信噪比的比較。從表1 可以看出,ACCNet 在強(qiáng)弱噪聲下均能很好地對含噪圖像進(jìn)行降噪。與經(jīng)典算法BM3D 相比,ACCNet 在3 種噪聲強(qiáng)度下的峰值信噪比均值分別高出了0.736、0.675、0.698dB。與最新的深度前饋降噪網(wǎng)絡(luò)DnCNN 相比,ACCNet 的峰值信噪比均值也分別提高了0.249、0.208、0.242dB,并且對大部分圖像均有較好的降噪效果。圖9 給出了干凈圖像、含噪圖像與噪聲水平為25dB 的圖像經(jīng)過ACCNet 模型降噪后的拼接圖像。從視覺感受上來說,原始圖像與降噪圖像相差無幾,該模型在降噪的同時(shí)較好地保留了圖像的邊緣細(xì)節(jié),沒有過多模糊。
Table 1 Comparison of PSNR results of different algorithms under three noise cevels表1 3 種噪聲水平下不同算法峰值信噪比的比較結(jié)果 單位:dB
Fig.9 Noise reduction effect at 25dB level of ACCNet圖9 噪聲水平25dB 時(shí)ACCNet 的降噪效果
研究結(jié)果表明,圖像噪聲在復(fù)合感受野結(jié)構(gòu)中能良好地被抽離出來,非對稱卷積在降低網(wǎng)絡(luò)復(fù)雜度的同時(shí)也不會影響降噪網(wǎng)絡(luò)的精度。ACCNet 對圖像邊緣細(xì)節(jié)具有良好的識別能力,可以預(yù)測該網(wǎng)絡(luò)模型也適用于圖像識別、邊緣檢測、圖像分類、圖像去模糊等任務(wù)。ACCNet 的網(wǎng)絡(luò)復(fù)雜度與DnCNNs 網(wǎng)絡(luò)相當(dāng),但在峰值信噪比均值上優(yōu)于DnCNNs。不足之處在于,ACCNet 對個(gè)別圖像的降噪效果不佳,即泛化能力有待提高。在后續(xù)研究中,將會采用更大的訓(xùn)練集,并展開對特定含噪圖像的降噪研究,以便在一定條件下對降噪效果不佳的圖像進(jìn)行修正,解決ACCNet泛化能力不強(qiáng)的問題。