黎浩民,李光平
(廣東工業(yè)大學(xué)信息工程學(xué)院,廣州 510000)
單幀圖像超分辨率(Single Image Super-Resolution,SISR)重建是指通過特定的算法模型對丟失高頻特征信息的低分辨率圖像重建出一張清晰的高分辨率圖像。近年來,SISR 技術(shù)被廣泛應(yīng)用于移動端設(shè)備的視覺成像、監(jiān)控成像、遙感衛(wèi)星成像、醫(yī)學(xué)成像等多個領(lǐng)域。
現(xiàn)有SISR 重建算法主要分為基于插值和基于深度學(xué)習(xí)兩類?;诓逯档闹亟ㄋ惴ㄓ嬎銖?fù)雜度較低,重建速度較快,其依據(jù)低分辨率圖像的已知特征信息和空間的維度相關(guān)性在合適的位置插入若干像素點(diǎn)來提高低分辨率圖像的分辨率。由于此類算法主要是通過簡單地評估相鄰像素點(diǎn)之間的相關(guān)性來擴(kuò)充低分辨率圖像的特征信息,因此在重建的過程中難以獲取真實(shí)圖像的高頻信息,導(dǎo)致高分辨率圖像丟失細(xì)節(jié)特征,并且成像視覺效果較差。基于深度學(xué)習(xí)的重建算法主要通過神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)低分辨率圖像與對應(yīng)高分辨率圖像之間的映射關(guān)系,利用這個映射關(guān)系的先驗(yàn)知識將低分辨率圖像映射為高質(zhì)量的高分辨率圖像。文獻(xiàn)[1-3]研究表明,基于深度學(xué)習(xí)的算法比基于插值的算法具有更強(qiáng)大的重建性能,能夠顯著提高重建圖像的質(zhì)量。
在基于深度學(xué)習(xí)的重建算法中,特征表達(dá)能力強(qiáng)的網(wǎng)絡(luò)層能夠更有效地學(xué)習(xí)圖像的特征表示,捕獲更細(xì)粒度和豐富的細(xì)節(jié)特征。部分基于深度學(xué)習(xí)的SISR 重建算法[3-4]通過使用更深的網(wǎng)絡(luò)層和更復(fù)雜的連接方式來提高網(wǎng)絡(luò)模型的整體特征表達(dá)能力,進(jìn)而提升重建性能。雖然在一定程度上通過擴(kuò)大網(wǎng)絡(luò)層的深度和復(fù)雜的連接方式能夠增強(qiáng)網(wǎng)絡(luò)層的整體特征表達(dá)能力,但是過度依賴于這種方式會導(dǎo)致網(wǎng)絡(luò)模型中的參數(shù)量和計算復(fù)雜度急劇上升。在神經(jīng)網(wǎng)絡(luò)中,參數(shù)量代表了網(wǎng)絡(luò)模型的規(guī)模,而計算復(fù)雜度代表了網(wǎng)絡(luò)模型前向推理的效率。從實(shí)際應(yīng)用的意義上來說,網(wǎng)絡(luò)模型的規(guī)模和超分辨率圖像的重建速度會限制SISR 網(wǎng)絡(luò)模型在現(xiàn)實(shí)場景中的應(yīng)用。文獻(xiàn)[5]指出,舍棄深度網(wǎng)絡(luò)層中冗余的參數(shù)不僅能夠減小網(wǎng)絡(luò)模型過參數(shù)化所帶來的消極影響,而且還能提高特征表達(dá)的穩(wěn)定性。
神經(jīng)網(wǎng)絡(luò)的剪枝算法通過舍棄部分參數(shù)的方式來減少網(wǎng)絡(luò)模型的參數(shù)量?,F(xiàn)有剪枝算法主要可分為結(jié)構(gòu)化剪枝算法和非結(jié)構(gòu)化剪枝算法兩大類。結(jié)構(gòu)化剪枝算法通過舍棄網(wǎng)絡(luò)層中部分的通道達(dá)到減少參數(shù)量的效果。由于這種方式是在網(wǎng)絡(luò)結(jié)構(gòu)上做出的調(diào)整,因此原來的網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生改變。非結(jié)構(gòu)化剪枝算法通過將網(wǎng)絡(luò)層中部分參數(shù)歸零的方式來舍棄部分參數(shù),因此,不會改變原來的網(wǎng)絡(luò)結(jié)構(gòu)。文獻(xiàn)[6-7]將結(jié)構(gòu)化剪枝算法應(yīng)用到圖像超分辨率網(wǎng)絡(luò)模型中,在確保重建性能的情況下,最大化地輕量化網(wǎng)絡(luò)模型的規(guī)模,以部署到實(shí)際應(yīng)用場景中。
文獻(xiàn)[8]提出神經(jīng)網(wǎng)絡(luò)的非結(jié)構(gòu)化剪枝算法LTH。算法的設(shè)計思想是將一個復(fù)雜的神經(jīng)網(wǎng)絡(luò)視作一個獎池,而中獎彩票則是一組權(quán)重參數(shù)所對應(yīng)的稀疏子網(wǎng)絡(luò)。實(shí)驗(yàn)結(jié)果表明,LTH 算法通過搜索最優(yōu)的稀疏子網(wǎng)絡(luò),在圖像分類任務(wù)上取得了顯著的效果,但應(yīng)用在圖像超分辨率任務(wù)上卻效果較差。
LTH 算法采用非均衡的特征學(xué)習(xí)策略,只注重于網(wǎng)絡(luò)模型的稀疏程度,而忽視了特征表達(dá)的多樣性。為進(jìn)一步提高圖像重建性能,本文結(jié)合圖像超分辨率重建任務(wù)的特點(diǎn),在LTH 算法的基礎(chǔ)上提出一種基于均衡學(xué)習(xí)策略的動態(tài)非結(jié)構(gòu)化剪枝算法RLTH。該算法在保證網(wǎng)絡(luò)模型稀疏性的同時還注重權(quán)重參數(shù)學(xué)習(xí)的多樣性,能夠解決圖像超分辨率重建任務(wù)中網(wǎng)絡(luò)模型過參數(shù)化導(dǎo)致重建性能下降的問題,并在不改變網(wǎng)絡(luò)結(jié)構(gòu)和不增加計算復(fù)雜度的前提下提高重建超分辨率圖像的質(zhì)量。
文獻(xiàn)[9]提出SRCNN 模型,通過三層CNN 分別實(shí)現(xiàn)低分辨率圖像的特征提取、特征的非線性映射和高分辨率圖像的重建過程。相對于傳統(tǒng)基于插值的圖像超分辨率重建算法,SRCNN 重建的高分辨率圖像具有更豐富的細(xì)節(jié)特征,且圖像的輪廓清晰可見。文獻(xiàn)[10]提出DRN 網(wǎng)絡(luò)模型,通過訓(xùn)練低分辨率圖像與高分辨率圖像之間的對偶映射關(guān)系,并利用閉環(huán)的映射關(guān)系來降低低分辨率圖像對高分辨率圖像的依賴性,進(jìn)而解決真實(shí)樣本的超分辨率問題。文獻(xiàn)[11]提出RFANet 網(wǎng)絡(luò)模型,利用殘差模塊和增強(qiáng)空間注意力模塊的有效特征提取能力,將它們整合為殘差特征聚合框架,從而提高超分辨率圖像的質(zhì)量。文獻(xiàn)[12]提出的TTSR 網(wǎng)絡(luò)模型是一種可學(xué)習(xí)的紋理提取器,其通過訓(xùn)練來獲取最適合超分辨率重建的紋理信息,為紋理遷移和紋理合成提供豐富的紋理基礎(chǔ)信息,最終生成高質(zhì)量的超分辨率圖像。
現(xiàn)有的SISR 重建算法中大部分通過設(shè)計較深的網(wǎng)絡(luò)結(jié)構(gòu)和使用復(fù)雜的網(wǎng)絡(luò)連接策略來增強(qiáng)特征提取能力,以利用有效的特征提取能力從低分辨率圖像中學(xué)習(xí)和捕獲豐富的紋理特征,進(jìn)而獲得高質(zhì)量的超分辨率圖像。但是,這種過量擴(kuò)大網(wǎng)絡(luò)深度和使用復(fù)雜的連接方式會導(dǎo)致網(wǎng)絡(luò)模型的大小和計算復(fù)雜度急劇上升。
神經(jīng)網(wǎng)絡(luò)的非結(jié)構(gòu)化剪枝算法[13-15]通過將某些參數(shù)歸零的方式來獲得稀疏子網(wǎng)絡(luò),一般地,神經(jīng)網(wǎng)絡(luò)的稀疏性可以提高特征選擇和泛化的能力。一方面,一些研究者通過探索有效的非結(jié)構(gòu)剪枝方式去獲得稀疏子網(wǎng)絡(luò),如利用不同的正則化技術(shù)或設(shè)計可行的剪枝策略。文獻(xiàn)[13-14,16]所提出的方法是通過利用L2 正則化技術(shù)優(yōu)化基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的模型來獲得稀疏子網(wǎng)絡(luò)。文獻(xiàn)[15]通過L0 正則化技術(shù)來獲得稀疏子網(wǎng)絡(luò)。文獻(xiàn)[17]通過聯(lián)合正則化技術(shù)和參數(shù)的敏感度評估來實(shí)現(xiàn)剪枝的過程。不同于上述利用正則化技術(shù)的方法,文獻(xiàn)[8]通過迭代的動態(tài)剪枝過程將不重要的參數(shù)歸零來搜索最優(yōu)的稀疏子網(wǎng)絡(luò)。另一方面,一些研究者把注意力放在了非結(jié)構(gòu)化剪枝方法所帶來的效率問題上,并探索如何將這種效率落實(shí)到硬件設(shè)備上。文獻(xiàn)[18]探索了在CNN 模型中找到平衡的稀疏度并在硬件設(shè)備上加速神經(jīng)網(wǎng)絡(luò)的推理過程。文獻(xiàn)[19]通過對網(wǎng)絡(luò)參數(shù)的評估來實(shí)現(xiàn)參數(shù)的剪枝和復(fù)原過程,并嘗試最大化地壓縮基于密集神經(jīng)網(wǎng)絡(luò)(Dense Neural Network,DNN)或CNN 的模型來加速訓(xùn)練的過程。此外,文獻(xiàn)[13]將稀疏網(wǎng)絡(luò)部署到單獨(dú)設(shè)計的硬件設(shè)備上,獲得了非常高的加速效率。
神經(jīng)網(wǎng)絡(luò)的非結(jié)構(gòu)化剪枝算法處理的對象是網(wǎng)絡(luò)層中的權(quán)重參數(shù),其目的是剪掉網(wǎng)絡(luò)層中冗余的或者對網(wǎng)絡(luò)模型最終輸出結(jié)果幾乎不產(chǎn)生影響的權(quán)重參數(shù)。因此,這種剪枝算法只是在網(wǎng)絡(luò)層的權(quán)重參數(shù)層面進(jìn)行處理,而不會影響整個網(wǎng)絡(luò)模型的具體結(jié)構(gòu)。LTH 算法通過迭代訓(xùn)練的方式在每輪迭代中將無意義的權(quán)重參數(shù)歸零來實(shí)現(xiàn)剪枝的過程,從而進(jìn)一步搜索最優(yōu)的稀疏子網(wǎng)絡(luò)。具體地,LTH 算法是通過比較權(quán)重參數(shù)和閾值的大小關(guān)系來判斷網(wǎng)絡(luò)層中的一個權(quán)重參數(shù)是否是具有意義的。當(dāng)權(quán)重參數(shù)的值小于閾值,則認(rèn)為該權(quán)重參數(shù)是無意義或者冗余的,否則認(rèn)為該權(quán)重參數(shù)是具有學(xué)習(xí)潛力和有意義的。閾值λ是一個動態(tài)的值,其計算公式為:
其中:Wt表示經(jīng)過t次迭代后任意一層網(wǎng)絡(luò)層中的權(quán)重參數(shù);frank是一個將Wt進(jìn)行遞增排序的函數(shù);F是一個計算有序權(quán)重參數(shù)的第p百分位數(shù)的函數(shù)。對于將權(quán)重參數(shù)歸零的剪枝過程,LTH 算法通過使用掩碼m與相應(yīng)的Wt對應(yīng)位置上的元素相乘來實(shí)現(xiàn)。掩碼m的定義可以表示為:
其中:i、j和k表示一個張量中的元素索引。從式(2)中可以看出,當(dāng)?shù)陀趧討B(tài)閾值λ時,在掩碼m對應(yīng)的索引位置上將元素的值設(shè)置為0,否則將元素的值設(shè)置為1。通過這種方式,在每輪的迭代剪枝中舍棄無意義的權(quán)重參數(shù),而保留具有潛力的權(quán)重參數(shù)去學(xué)習(xí)數(shù)據(jù)的特征表示。網(wǎng)絡(luò)層中權(quán)重參數(shù)的歸零處理可以被表示為:
其中:W0是網(wǎng)絡(luò)層進(jìn)行隨機(jī)初始化時的權(quán)重參數(shù);⊙運(yùn)算符表示2 個張量之間相同位置上的元素相乘。通過式(3),在每輪迭代剪枝中使用網(wǎng)絡(luò)層初始化時的權(quán)重參數(shù)W0來初始化本次迭代的權(quán)重參數(shù),并將其作為模型微調(diào)的初始狀態(tài)。雖然LTH 算法在圖像分類任務(wù)上通過搜索最優(yōu)的稀疏子網(wǎng)絡(luò)獲得了突出的性能表現(xiàn),但是在圖像超分辨率重建任務(wù)上卻不能獲得較好的效果。
本文在LTH 算法的基礎(chǔ)上改變權(quán)重參數(shù)的非均衡學(xué)習(xí)策略,提出一個基于均衡學(xué)習(xí)策略的非結(jié)構(gòu)化剪枝算法RLTH。通過在訓(xùn)練的過程中監(jiān)聽網(wǎng)絡(luò)層權(quán)重參數(shù)的變化過程,將參數(shù)值落入局部小范圍內(nèi)的權(quán)重參數(shù)加入到凍結(jié)隊(duì)列中。權(quán)重參數(shù)一旦加入到凍結(jié)隊(duì)列,將在本次迭代中保持當(dāng)前的值,不再對參數(shù)進(jìn)行更新。換言之,當(dāng)權(quán)重參數(shù)在訓(xùn)練的過程中變成一個極小的值,則其對輸出特征圖所產(chǎn)生的影響是微乎其微的。因此,對于這類權(quán)重參數(shù),可以選擇不再對其進(jìn)行參數(shù)的更新,而將特征學(xué)習(xí)的側(cè)重點(diǎn)放在有潛力的權(quán)重參數(shù)上。在具體實(shí)現(xiàn)時,本文通過控制權(quán)重參數(shù)在訓(xùn)練過程中所產(chǎn)生的梯度來實(shí)現(xiàn),其中梯度的控制可以表示為:
其中:Lloss是損失函數(shù)是網(wǎng)絡(luò)層中相應(yīng)索引位置上權(quán)重參數(shù)的梯度值;EPS 是一個固定的正數(shù)閾值。在訓(xùn)練的過程中,本文將絕對值大小在閾值范圍內(nèi)的權(quán)重參數(shù)的梯度歸零,限制它們在微調(diào)訓(xùn)練的過程中學(xué)習(xí)特征的表達(dá)。最終,Wt的參數(shù)優(yōu)化過程可以表示為:
其中:α是參數(shù)優(yōu)化的學(xué)習(xí)率。通過這種均衡的學(xué)習(xí)方式,本文所提出的RLTH 算法在滿足特征多樣性的前提下使網(wǎng)絡(luò)層的權(quán)重參數(shù)能夠最大化地學(xué)習(xí)到圖像的特征信息。相對而言,雖然LTH 算法通過非均衡的學(xué)習(xí)策略能夠?qū)崿F(xiàn)網(wǎng)絡(luò)層最大化的稀疏程度,但其忽略了負(fù)數(shù)階的權(quán)重參數(shù)在特征多樣性的學(xué)習(xí)中所占的比重。對于圖像超分辨率重建任務(wù)而言,特征多樣性的學(xué)習(xí)扮演了最重要的角色。算法1描述了RLTH 算法的過程,其中:T表示迭代剪枝的次數(shù);E表示訓(xùn)練的迭代次數(shù);D表示訓(xùn)練數(shù)據(jù)集。
算法1RLTH 算法
本文所使用的網(wǎng)絡(luò)模型MSRResNet[6]整體框架如圖1 所示。
圖1 MSRResNet 網(wǎng)絡(luò)模型框架Fig.1 Framework of MSRResNet network model
低分辨率圖像ILR作為該端到端網(wǎng)絡(luò)模型的輸入,首先經(jīng)過卷積層的特征提取過程,可以表示為:
其中:Cextract是實(shí)現(xiàn)特征提取的卷積神經(jīng)網(wǎng)絡(luò);Ifea是卷積神經(jīng)網(wǎng)絡(luò)對低分辨率圖像ILR所提取到的特征圖。然后,特征圖Ifea經(jīng)過深度網(wǎng)絡(luò)模塊的非線性映射過程,可以表示為:
其中:Cdeep是實(shí)現(xiàn)特征的非線性映射的卷積神經(jīng)網(wǎng)絡(luò);Ideep是特征圖Ifea經(jīng)過深度網(wǎng)絡(luò)模塊的非線性映射后得到的深度特征圖。最后,Ideep在經(jīng)過上采樣和特征融合過程后重建為超分辨率圖像,該過程可以表示為:
其中:Cup是實(shí)現(xiàn)上采樣的卷積神經(jīng)網(wǎng)絡(luò);Cmerge是實(shí)現(xiàn)特征融合的卷積神經(jīng)網(wǎng)絡(luò);IHR是最終重建的超分辨率圖像。
圖1 所示的網(wǎng)絡(luò)層可以分為兩類,一類是由獨(dú)立的卷積層作為特征學(xué)習(xí)的模塊,另一類是由多層深度的卷積層通過復(fù)雜的連接策略所構(gòu)成的Basic Block 網(wǎng)絡(luò)模塊。其中,Basic Block 網(wǎng)絡(luò)模塊是一個可擴(kuò)展和替換的特征學(xué)習(xí)網(wǎng)絡(luò)模塊。值得注意的是,本文只是對網(wǎng)絡(luò)模型中參數(shù)量占主導(dǎo)地位的Basic Block 網(wǎng)絡(luò)模塊應(yīng)用RLTH 算法,利用該算法的迭代剪枝方式和均衡的學(xué)習(xí)策略去搜索最優(yōu)的稀疏子網(wǎng)絡(luò),具體流程如圖2 所示。通過這種方式,可以舍棄Basic Block 網(wǎng)絡(luò)模塊中冗余的參數(shù),把特征學(xué)習(xí)的側(cè)重點(diǎn)放在有潛力的權(quán)重參數(shù)上,避免冗余的參數(shù)所帶來的消極影響。
圖2 RLTH 算法搜索稀疏子網(wǎng)絡(luò)的過程Fig.2 The process of RLTH algorithm searching for sparse sub-networks
為了與之前的SISR 研究工作保持一致,本文采用DIV2K[20]的800 幅訓(xùn)練圖像進(jìn)行訓(xùn)練。在開始訓(xùn)練之前,對訓(xùn)練數(shù)據(jù)集進(jìn)行旋轉(zhuǎn)和翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)預(yù)處理。值得注意的是,輸入模型的訓(xùn)練圖像是從一張高分辨率圖像上隨機(jī)裁剪得到的96×96×3 大小的子圖像。為保證測試的可靠性,本文選擇Set5[21]、Set14[22]和BSD100[23]測試數(shù)據(jù)集進(jìn)行實(shí) 驗(yàn)。同 時,使用MSRA[24]對網(wǎng)絡(luò)的參數(shù)進(jìn)行初始化,采用Adam[25]優(yōu)化器進(jìn)行優(yōu)化,初始學(xué)習(xí)率設(shè)置為10-4。Adam 優(yōu)化器的初始參數(shù)為:β1=0.9,β2=0.999,ε=10-9。此外,用于優(yōu)化網(wǎng)絡(luò)模型采用的是均方誤差(Mean Square Error,MSE)損失函數(shù)。
本文在不同的測試集上對分別應(yīng)用LTH 算法和RLTH算法的MSRResNet[6]網(wǎng)絡(luò)模型進(jìn)行 性能比較。為了保證比較的公平性,對比模型采用作者提供的官網(wǎng)代碼,并在實(shí)驗(yàn)中使用作者設(shè)定的默認(rèn)參數(shù)。對于圖像質(zhì)量的客觀評估標(biāo)準(zhǔn),本文采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)和結(jié)構(gòu)相似度指數(shù)(Structural Similarity,SSIM)評估重建的超分辨率圖像質(zhì)量。在實(shí)驗(yàn)中,分析通過LTH 算法和RLTH 算法的剪枝過程后網(wǎng)絡(luò)模型在不同稀疏百分比情況下的重建性能,并進(jìn)一步分析RLTH 算法在不同的剪枝率條件下的重建性能。除此之外,還比較重建超分辨率圖像的運(yùn)行時間和模型的大小,以及超分辨率圖像的視覺效果。
3.2.1 客觀評價標(biāo)準(zhǔn)分析
對比各個模型在Set5、Set14 和BSD100 測試集上的平均PSNR 和SSIM,如表1 和表2 所示,其中最優(yōu)結(jié)果通過字體加粗的方式表示。表1 列出了不同的網(wǎng)絡(luò)模型所重建的4 倍超分辨率圖像在RGB 通道上的平均PSNR 和SSIM。可以看出:應(yīng)用本文所提出的RLTH 算法在不同的測試集上的平均PSNR 和SSIM 都是最高的;與應(yīng)用LTH 算法相比,應(yīng)用RLTH算法在Set5 測試集上平均PSNR 和SSIM 分別提高0.65 dB 和0.009 7,在Set14 測試集上分別提高0.48 dB 和0.011 5,而在BSD100 測試集上分別提高0.37 dB 和0.011 6;與原始模型相比,應(yīng)用RLTH 算法在Set5、Set14 和BSD100 測試集上分別提高0.1 dB和0.002 1、0.07 dB 和0.000 7、0.08 dB 和0.001。表2列出了重建的4 倍超分辨率圖像在Y通道上的平均PSNR 和SSIM??梢钥闯觯簯?yīng)用RLTH 算法的網(wǎng)絡(luò)模型在不同的測試集上表現(xiàn)最好。
表1 在Set5、Set14和BSD100測試集上的性能評估(RGB通道)Table 1 Performance evaluation on the Set5,Set14 and BSD100 test set(sRGB channel)
表2 在Set5、Set14 和BSD100 測試集上的性能評估(Y 通道)Table 2 Performance evaluation on Set5,Set14 and BSD100 test set(sY channel)
本文在Set5 測試集上對比通過LTH 算法和RLTH 算法的剪枝過程后,網(wǎng)絡(luò)模型在不同的稀疏百分比情況下的重建性能,如圖3 所示。可以看出,應(yīng)用RLTH 算法的網(wǎng)絡(luò)模型總體上是先逐漸上升而隨后逐漸下降的,并在稀疏百分比為7.95%時獲得了最優(yōu)的平均PSNR。雖然應(yīng)用LTH 算法的網(wǎng)絡(luò)模型總體上與應(yīng)用RLTH 算法的趨勢相似,但是由于該算法采用不平衡的學(xué)習(xí)策略而忽視了權(quán)重參數(shù)學(xué)習(xí)的多樣性,導(dǎo)致在圖像超分辨率任務(wù)上效果較差。相對而言,本文所提出的RLTH 算法在保證網(wǎng)絡(luò)模型的稀疏性的前提下,同時能夠確保權(quán)重參數(shù)學(xué)習(xí)的多樣性。因此,網(wǎng)絡(luò)模型在應(yīng)用RLTH 算法之后,重建的性能得到了明顯的提高。
圖3 不同稀疏百分比下的PSNR 比較Fig.3 Comparison of PSNR under different sparsity percent
在Set5 測試集上進(jìn)一步分析剪枝率對應(yīng)用RLTH 算法的網(wǎng)絡(luò)模型所產(chǎn)生的影響,如圖4 所示??梢钥闯?,網(wǎng)絡(luò)模型在采用較小剪枝率的條件下獲得了較高的平均PSNR,而采用較大的剪枝率反而效果較差。實(shí)驗(yàn)結(jié)果表明,網(wǎng)絡(luò)模型搜索最優(yōu)的稀疏子網(wǎng)絡(luò)是一個漸進(jìn)搜索和微調(diào)的過程,不能采用大范圍的搜索方式。
圖4 不同剪枝率下的PSNR 比較Fig.4 Comparison of PSNR under different pruning percent
3.2.2 主觀評價標(biāo)準(zhǔn)分析
對重建的4 倍超分辨率圖像進(jìn)行視覺效果比較,如 圖5和圖6所示,相 關(guān)PSNR 和SSIM 指標(biāo)如表3 所示??梢钥闯?,應(yīng)用RLTH 算法的網(wǎng)絡(luò)模型所重建的超分辨率圖像擁有更豐富的細(xì)節(jié)特征,并且內(nèi)容的輪廓更清晰。在圖5 中,應(yīng)用RLTH 算法的模型所重建的Butterfly 圖像在翅膀上的斑點(diǎn)更清晰,并且擁有更多的細(xì)節(jié)特征。在圖6 中,應(yīng)用RLTH 算法的模型所重建的Woman 圖像在整體和局部的輪廓上更清晰,而原始模型所重建的圖像在局部細(xì)節(jié)上相對比較模糊。
圖5 Butterfly 重建圖像的視覺效果比較Fig.5 Comparison of visual quality of the reconstructed Butterfly image
圖6 Woman 重建圖像的視覺效果比較Fig.6 Comparison of visual quality of the reconstructed Woman image
表3 Butterfly 與Woman 重建圖像性能指標(biāo)Table 3 Performance index for reconstructed Butterfly and Woman images
3.2.3 運(yùn)行效率分析
在Set5 測試集上比較重建4 倍超分辨率圖像所消耗的時間,如表4 所示。為了保證比較的公平性,本文在同一個平臺環(huán)境(Inter Core i5 10600+NVIDIA GTX2060 Super)中對網(wǎng)絡(luò)模型進(jìn)行測試??梢钥闯?,應(yīng)用RLTH 算法的網(wǎng)絡(luò)模型與原始模型在重建超分辨率圖像時所消耗的時間基本一致。同時,網(wǎng)絡(luò)模型的大小也是保持一致的。由于RLTH算法的剪枝過程只是在訓(xùn)練階段通過剪枝評估策略對權(quán)重參數(shù)進(jìn)行評估,并將被評估為冗余的權(quán)重參數(shù)置為零,因此這種非結(jié)構(gòu)化的剪枝方式僅僅改變的是網(wǎng)絡(luò)層中權(quán)重參數(shù)的大小,并不會改變網(wǎng)絡(luò)模型的整體結(jié)構(gòu)。此外,RLTH 算法在訓(xùn)練階段實(shí)則是起到一個指導(dǎo)訓(xùn)練的作用,而并非是一個具體的網(wǎng)絡(luò)層模塊。因此,應(yīng)用RLTH 算法的模型與原始模型的大小是一致的,并不會增加網(wǎng)絡(luò)模型的參數(shù)量,模型大小均為5.8 MB。
表4 重建高分辨率圖像所消耗的時間Table 4 Time consuming for high-resolution images reconstruction ms
本文基于LTH 算法提出適用于圖像超分辨率重建任務(wù)的動態(tài)非結(jié)構(gòu)化剪枝算法RLTH,在保證網(wǎng)絡(luò)模型稀疏性的同時,通過均衡的學(xué)習(xí)策略來確保權(quán)重參數(shù)學(xué)習(xí)特征的多樣性。實(shí)驗(yàn)結(jié)果表明,在不改變網(wǎng)絡(luò)結(jié)構(gòu)和不增加計算復(fù)雜度的前提下,RLTH 剪枝算法應(yīng)用在SISR 網(wǎng)絡(luò)模型上能夠明顯提高重建的超分辨率圖像質(zhì)量。后續(xù)將在圖像超分辨率重建任務(wù)中應(yīng)用神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)化剪枝算法,使圖像質(zhì)量和效率得到進(jìn)一步提升。