摘 要:針對目前基于非迭代式網絡的圖像壓縮感知重建方法存在著細節(jié)處理能力不足以及測量值利用不充分的問題,提出了一種雙U型門控網絡(dual U-shaped gated network,DUGN)用于圖像壓縮感知重建。該方法在原有的U型結構網絡的基礎上進行了改進,提升了U型結構網絡在壓縮感知任務中的學習能力。在測量值的利用上,結合交叉注意力機制,提出了一種測量值非局部融合模塊(measurements non-local fusion,MNLF),用于將測量值中的非局部信息融合到深層網絡中,指導網絡進行重建,提升模型性能。此外,在基本模塊的設計上,提出了窗口門控網絡模塊(window gated network,WGN),增強了網絡的細節(jié)處理能力。實驗結果表明,與已有的壓縮感知重建方法相比,DUGN在Set11數(shù)據(jù)集上有著更高的PSNR和SSIM,且在圖像重建的真實性上有著更好的表現(xiàn)。
關鍵詞:圖像壓縮感知重建; 非局部先驗; U型網絡; 門控網絡
中圖分類號:TP391.41 文獻標志碼:A
文章編號:1001-3695(2024)11-045-3509-06
doi:10.19734/j.issn.1001-3695.2023.12.0635
Dual U-shaped network with non-local prior fusion for image compressed sensing
Lin Lepinga,b, Hu Shangjunb, Ouyang Ninga,b?
(a.Key Laboratory of Cognitive Radio amp; Information Processing Ministry of Education, b.School of Information amp; Communication, Guilin University of Electronic Technology, Guilin Guangxi 541004, China)
Abstract:Aiming at the problem that insufficient detail processing ability and inadequate use of measurement values in current non-iterative network-based image compressed sensing methods, this paper proposed a novel dual U-shaped gated network(DUGN) for image compressed sensing. This network improved upon the existing U-shaped network structure and enhanced the learning ability in compressed sensing tasks. This paper proposed a measurements non-local fusion(MNLF) module based on cross-attention mechanism, MNLF integrated non-local prior information from measurements into the deep network and guided the network reconstruction. Furthermore, this paper proposed a window gated network(WGN) module as the basic blocks to enable the network to learn larger ranges of image information and enhance the ability to process details. Experimental results demonstrate that compared with existing compressed sensing reconstruction methods, DUGN has higher PSNR and SSIM on Set11 and better performance in the authenticity of image reconstruction.
Key words:image compressed sensing; non-local prior; U-shaped network; gated network
0 引言
在傳統(tǒng)的采樣理論中,為了不失真地還原信號,就必須保證采樣率不低于信號帶寬的2倍,這個采樣定理被稱為香農采樣定理,也被稱為奈奎斯特采樣定理。而壓縮感知[1]提供了一種在采樣率小于2倍信號帶寬的情況下恢復信號的方法。假設一個長度為N的原始信號x∈?N,由一個采樣矩陣Φ∈?P2×P2R將信號進行壓縮采樣得到長度為M的測量向量y=Φx,y∈?M,Mlt;lt;N。如果想要從y中提取信息恢復原始信號x,那么就是在試圖求解一個欠定問題。人們在研究中發(fā)現(xiàn),信號是普遍存在稀疏性的,利用信號自身的稀疏特性,就有可能將一個欠定問題轉換為適定的問題。如果信號可以在低采樣率下被恢復,就意味著可以以較低的成本完成信號的傳輸。如今,壓縮感知已經在雷達、醫(yī)學成像和通信等信號處理領域引起了廣泛的關注。
采樣與重建方法是壓縮感知研究的兩個主要方向。在采樣方法上,傳統(tǒng)做法是利用一個隨機矩陣,將信號映射到一個較低緯度,在圖像壓縮感知的采樣上,基于塊的壓縮感知(BCS)[2]是其中的一種常用方法,旨在降低重建過程的計算復雜性。在BCS中,信號被劃分為多個不重疊的塊,并且每個塊使用高斯隨機矩陣單獨壓縮,這使得分塊可以進行并行處理,能夠顯著減少重建時間。如今,隨著深度學習的發(fā)展,一些方法[3]利用卷積網絡也可以對信號進行壓縮,配合隨后的重建網絡一起進行梯度下降,往往能得到一個在指標上超越隨機采樣方法的結果。
傳統(tǒng)的壓縮感知重建方法[4~6]存在著計算復雜度高、重建質量相對較低且容易出現(xiàn)重建失敗的問題。深度神經網絡的出現(xiàn)為圖像壓縮感知重建提供了新的解決方案。早期的基于BP神經網絡的圖像壓縮感知重建方法,如Mousavi等人[7]提出的SDA有著相較于傳統(tǒng)方法更好的重建效果,但是其存在著計算消耗高以及參數(shù)量龐大的問題。隨著卷積神經網絡的提出,Kulkarni等人[8]提出的ReconNet首次將卷積神經網絡用于圖像壓縮感知重建。由于卷積神經網絡推理速度快、重建質量高的優(yōu)勢,越來越多的工作開始基于卷積神經網絡展開。經典的基于卷積神經網絡的圖像壓縮感知算法,如Yao等人[9]提出的DR2-Net,通過殘差學習提升了網絡性能。Zhang等人[10]提出的ISTA-Net結合傳統(tǒng)的迭代閾值算法,增加了神經網絡的可解釋性,并提高了重建質量。隨著深度學習的不斷發(fā)展,目前基于深度學習的圖像壓縮感知可以分為兩個流派,即基于迭代式網絡的重建方法以及基于非迭代式網絡的重建方法?;诘骄W絡的重建方法[11~13]通過設計多個迭代分塊來完成圖像的壓縮感知重建,然而,這些方法存在著推理時間長、訓練消耗大等問題。非迭代式網絡如Sun等人[14]提出的DPA-Net,以及Zhong等人[15]提出的方法,采用結構紋理分離、雙支路的網絡結構,分別學習圖像的結構特征與紋理特征,最后融合得到重建結果。一些工作[16,17]采用小波分解將圖像分解為高頻部分與低頻部分分別進行學習。這些方法雖然實現(xiàn)了較快的重建速度,但是缺少對測量值自身先驗的考慮。
非局部相似性先驗是圖像處理中使用的一種先驗知識,非局部相似性先驗的基本思想是利用圖像中的非局部相似性信息來增強圖像處理的有效性。Transformer[18]的問世,提供了一種自注意力機制用以進行全局的信息交互。一些圖像重建方法將自注意力機制引入到圖像處理中[19,20]。Sun等人[21]提出的NLR-CSNet利用圖像之間的自相似性來引導網絡捕獲遠程依賴關系,并使網絡具有噪聲感知能力。在測量值的利用上,Cui等人[22]提出的NL-CSNet,通過建立不同圖像塊的測量值之間的長距離依賴關系進行初始重建。Fan等人[23]提出的GSM設計了一個全局感知模塊用于壓縮采樣,并在多個尺度上對測量值進行復用。
近幾年,一種非迭代式的重建網絡結構,U型網絡結構開始流行。U型網絡采用自編碼器實現(xiàn)圖像的端到端重建。由于在編碼器與解碼器中有著對圖像的下采樣與上采樣的操作,使得網絡具有學習圖像多尺度特征信息的優(yōu)勢。諸多方法[24~26]已經證明了該網絡結構所帶來的優(yōu)越性能。對圖像而言,多尺度信息在重建過程中能夠帶來很大的收益,但是,由于U型結構對輸入數(shù)據(jù)有著很大的依賴,當輸入數(shù)據(jù)與輸出數(shù)據(jù)之間差距較大時,則很難實現(xiàn)較好的重建結果。而圖像壓縮感知重建通常采用初始重建與深度重建結合的網絡框架,初始重建的圖像與原始圖像之間存在著較大的差距,因此,單一的U型結構對于圖像壓縮感知任務而言存在著以上不足。
為了解決這些問題,本文提出了一種雙U型門控網絡(dual U-shaped gated network,DUGN)用于圖像壓縮感知重建。傳統(tǒng)的U型網絡已經被證明在底層視覺領域具有強大的性能。然而,考慮到圖像壓縮感知深度重建網絡輸入和輸出圖像之間的巨大差異,單個U型網絡很難完全恢復原始圖像的細節(jié)。本文將兩個U型網絡連接成一個雙U型網絡(dual U-Net,DU-Net),以緩解每一個結構的重建壓力,同時提升網絡對細節(jié)信息的處理能力。在基本塊的設計中引入了門控機制,并提出了一種窗口門控網絡(window gated network,WGN)。該模塊可以完成圖像大范圍的信息交互。隨著網絡的下采樣,窗口的大小將近似于整個特征圖的大小,在小尺度的特征圖上能夠完成接近全局的信息的交互。此外,還特別設計了一個模塊,測量值非局部融合(measurements non-local fusion,MNLF)模塊,可以融合測量值的非局部信息。這個模塊可以從測量值中提取非局部相似度信息,然后將其融合到深度網絡的重建中,以提高網絡性能。
本文主要貢獻如下:
a)提出了雙U型網絡,使用更多信息路徑來提高深度網絡的性能。
b)提出了窗口門控網絡,可以在圖像上進行大規(guī)模信息交互,門控機制可以有效過濾信息,提高網絡的擬合能力。
c)提出了測量值非局部融合模塊,從測量值中挖掘非局部信息,并將其融合到深度重建網絡中,指導網絡進行重建。
1 本文方法
完整的圖像壓縮感知重建包括以下采樣、初始重建和深度重建三個步驟,如圖1所示。
在深度重建部分,使用雙U型網絡作為框架,基本塊包括特征融合操作和窗口門控網絡。在每個U型結構的最后一層添加了一個測量值非局部融合模塊,以復用測量值并深度挖掘原始信息中的非局部相似性信息。
1.1 雙U型網絡
U型網絡結構主要由對稱的編碼器和解碼器組成,其中編碼器部分用于提取圖像特征,而解碼器部分則用于將特征映射恢復到原始圖像尺寸。但是,在圖像壓縮感知重建任務中,輸入網絡的初始重建圖像與原始圖像之間有著極大的差異,單一的U型結構在面對這種復雜情況時無法進行充分的處理。一些用于視覺底層的網絡模型[27,28],通過連接多個U型結構網絡進行重建。受到這些工作的啟發(fā),本文提出了一種雙U型網絡,以增強重建圖像的質量。該方法在保留U型結構的基礎上,連接了兩個U型網絡,形成雙U型網絡,如圖2所示。在雙U型網絡中,第一個U型網絡用于重建粗略圖像,而另一個則專注于圖像的細節(jié)部分,并且,在兩個U型網絡之間形成了額外的信息路徑,這使得網絡能夠在同一尺度層面上更全面地學習特征信息。雙U型網絡能夠捕捉圖像中更多的信息,最終提高重建圖像的質量。
1,1,1,2,1,3,1,4,1,5=Enc1(z)(1)
其中:Enc1(·)表示編碼器函數(shù),包含窗口門控網絡(WGN)與下采樣操作,下采樣方式采用卷積下采樣方法。5個尺度分別為1,1/2,1/4,1/8,1/16對應1,1,1,2,1,3,1,4,1,5。最后一層的尺度對應了變形測量值的尺度大小,使用測量值非局部融合模塊(MNLF)將測量值與深度特征1,5進行交叉融合,得到F1,5。再將1,1,1,2,1,3,1,4,F1,5輸入第一個解碼器,前4個特征分別與解碼器的對應層進行融合作為下一層的輸入,融合方式通過將兩個特征進行通道拼接,再采用卷積核大小為1×1的卷積操作進行融合,最終得到第一個U型結構的輸出,過程表示如下:
2,5,2,4,2,3,2,2,2,1=Dec1(F1,5,1,4,1,3,1,2,1,1)(2)
其中:Dec1(·)表示解碼器函數(shù),包含窗口門控網絡(WGN)與上采樣操作,上采樣方式采用反卷積上采樣方法。以同樣的特征融合方法,將2,5,2,4,2,3,2,2,2,1輸入第二個U型網絡的編碼器中,得到5個輸出,過程表示如下:
3,1,3,2,3,3,3,4,3,5=Enc2(2,1,2,2,2,3,2,4,2,5)(3)
將最后一層特征3,5使用MNLF與變形測量值進行交叉融合得到F3,5。最后與第一個U型結構同樣的方法,將3,1,3,2,3,3,3,4,F3,5輸入第二個解碼器得到輸出4,1,過程表示如下:
4,1=Dec2(F3,5,3,4,3,3,3,2,3,1)(4)
最后將特征4,1通過一個卷積核大小為3×3的卷積操作進行通道降維,并與初始重建結果進行殘差連接作為最終輸出。
1.2 窗口門控網絡
通常,傳統(tǒng)的卷積神經網絡具有良好的局部信息交互能力。然而,由于卷積核的大小限制,它們在執(zhí)行大規(guī)模信息交互方面存在局限性。一些工作利用門控機制來處理大范圍的空間信息[26]。在本文中,基于門控機制,本文提出了一種窗口門控網絡(WGN),如圖3所示。利用門控機制,將加窗后的特征圖進行線性映射、加權處理,以更好地捕捉輸入數(shù)據(jù)之間的依賴關系。在U-Net的下采樣過程中,窗口大小保持不變而圖像尺度下降,這使得窗口中的信息越來越接近于全局,配合卷積操作進行下采樣,這樣能夠使本文的門控機制可以更好地學習到重要的信息。
WGN不僅可以控制信息傳遞,減少冗余信息,而且對窗口內的所有元素進行了加權處理,增強了模型的局部信息處理能力。
1.3 測量值非局部融合模塊
通過隨機采樣獲取的測量值不再具有圖像的形式。然而,通過對測量值進行重新排列,其形式可以轉換為特征圖的形式。觀察這些測量值,發(fā)現(xiàn)它們仍然包含了原始圖像的結構信息,如圖4所示。
其中:Mj,i表示變形后測量值的第j個通道第i個值;Φ:, j為采樣矩陣的第j列;xi為第i個分塊的所有值。可以發(fā)現(xiàn),同一通道上的像素值都是由同一列數(shù)值映射得到。因此,依然可以在壓縮值中獲取到原始圖像中的非局部相似性信息。從變形后的測量值返回的圖像可以直觀地體現(xiàn)出其中保留的結構信息。為了能夠獲取這些非局部相似性信息并且融合到深度重建中,本文特別設計了一個測量值非局部信息融合模塊(MNLF),如圖5所示。
交叉注意力[29]通過對不同的特征圖計算注意力權重,可以更好地捕獲不同層次特征圖之間的信息,進而指導網絡進行重建,提高網絡性能。為了融合測量值的非局部相似度信息,本文基于交叉注意力機制,提出了測量值非局部融合模塊(MNLF)。通過計算變形后的測量值的注意力圖,對深度網絡中的特征圖進行矩陣相乘,這樣就將測量值中的非局部信息融合到了重建網絡中。由于測量值中的非局部相似性信息是直接對應原始圖像的,所以這些信息對于網絡有著指導重建的作用。
1.4 損失函數(shù)
雙U型門控網絡訓練所使用的損失函數(shù)表達式如下:
L=Lx+λLm(14)
其中:Lx為網絡的重建損失;Lm為測量值損失,使用的都是L2損失;λ為測量值損失的系數(shù)。Lx損失函數(shù)如下:
Lx=12N∑Ni=1‖-x‖22(15)
其中:x為輸入圖像;為網絡輸出圖像;N為輸入網絡的批量大小。Lm損失函數(shù)如下:
Lm=12N∑Ni=1‖Φ-y‖22(16)
其中:Φ為壓縮采樣矩陣;y為測量值。這里設置Lm損失函數(shù)的目的是為了使重建的圖像更加接近于真實圖像。
2 實驗分析
2.1 實驗細節(jié)
在訓練中使用BSD500數(shù)據(jù)集作為訓練集,將所有圖像隨機裁剪為256×256的尺寸,并采用YCbCr空間中的Y通道作為原始圖像。將圖像分成多個大小為16×16的圖像塊,對每一個圖像塊采用隨機高斯矩陣進行壓縮采樣,采樣后的值作為網絡輸入。輸入批量大小設置為4,深度重建部分設置通道維度固定為64,窗口門控網絡中窗口大小設置為16×16。訓練采用Adam優(yōu)化器,初始學習率設置為2×10-4,使用Reduce-LROnPlateau學習率優(yōu)化器動態(tài)調整學習率。PSNR在20輪迭代之后不再進行提升時將學習率下降1/2,直到學習率降低到1×10-6后不再改變??偟螖?shù)設置為800,取其中PSNR最高的模型作為最終結果。模型基于PyTorch框架實現(xiàn),并在NVIDIA RTX 2080Ti GPU上進行實驗。
2.2 對比實驗
實驗從重構圖像質量的角度評估了所提出的壓縮感知重建網絡的性能,并與其他基于隨機采樣矩陣的壓縮感知重建方法進行了比較。實驗在數(shù)據(jù)集Set11上將所提出的DUGN與ReconNet[8]、DR2-Net[9]、LDAMP[30]、ISTA-Net+[10]、DPA-Net[14]、NL-CSNet[22]、MAC-Net[31]和NL-CS Net[32]進行了比較,所采用的評價指標為峰值信噪比(PSNR)和結構相似度(SSIM)。實驗比較結果如表1所示。
從表中的數(shù)據(jù)可以看出,所提出的DUGN在PSNR和SSIM指標上幾乎達到了最佳水平。在采樣率為0.01時,DUGN方法取得了最佳結果,并且與第二優(yōu)秀的方法相比,PSNR提高了0.83 dB,SSIM提高了0.073 1。在采樣率為0.04時,雖然DUGN方法在PSNR上比最佳方法低0.05 dB,但在SSIM上仍然取得了最佳結果,比第二優(yōu)秀的方法高出0.044 8。在采樣率為0.10時,DUGN方法再次取得了最佳結果,與第二優(yōu)秀的方法相比,PSNR和SSIM分別提高了0.49 dB和0.029 9。在采樣率為0.25時,DUGN方法仍然保持領先地位,與第二優(yōu)秀的方法相比,PSNR提高了0.1 dB,SSIM提高了0.012 7。從這些實驗對比數(shù)據(jù)中可以發(fā)現(xiàn),當采樣率越低時,DUGN取得的領先優(yōu)勢越大,這也證明了所提出的方法相比于其他方法,在處理少量信息時具有更加強大的性能。PSNR通過計算恢復圖像與真實圖像之間的均方誤差進行評估,用于判斷圖像的失真程度,然而對于自然圖像而言,單一的PSNR評估并不符合人類的視覺感知,因此需要結合SSIM進行綜合考量。而SSIM更加注重圖像的結構性評價,在一些信息永久丟失的的情況下,對于壓縮感知任務,SSIM更能體現(xiàn)重建質量的高低。
圖6展示了ReconNet[8]、ISTA-Net+[10]、DPA-Net[14]、MAC-Net[31]、UGN和DUGN在0.1采樣率下的重建結果比較。實驗特意包含了不使用Dual U-Net結構的UGN模型以供參考。在barbara圖像的重建中,由于ReconNet和ISTA-Net+的結果都是通過逐塊重建方法組成的塊,所以塊效應尤為突出。對于紋理控制,ReconNet幾乎無法恢復,而其他方法可以在一定程度上恢復,不過仍然非常模糊。相較之下,無論UGN或者DUGN都可以將條紋表現(xiàn)出來,且DUGN能夠比UGN展現(xiàn)得更加清晰分明。這也體現(xiàn)了雙U型結構能夠更加使網絡增強細節(jié)學習的能力。在fingerprint圖像的重建中,其他方法的重建結果表現(xiàn)出顯著的平滑處理,失去了指紋的原始真實細節(jié),而DUGN方法可以保留這些細節(jié),并具有更生動、更逼真的恢復效果。
圖7展示了在0.25采樣率下,ReconNet[8]、DR2-Net[9]、ISTA-Net+[10]、DPA-Net[14]、MAC-Net[31]和DUGN的重建效果對比,在Barbara的重建上,對背景中具有網格紋理特征的部分,所提出的方法能夠重建出更多的內容,且對于頭巾邊緣細節(jié)的處理也優(yōu)于其余方法。在Lena256的重建上,對帽子褶皺細節(jié),本文的方法可以做到很好的重建,對頭發(fā)的處理上,相較于其他方法有著更加真實的還原效果,在人物眼睛部分的處理上,本文方法依然有著更真實的重建效果。
實驗還測試了DUGN與ReconNet[8]、ISTA-Net+[10]、NL-CSNet[22]和DPA-Net[14]在大小為256×256的圖像上的重建平均時間,如表2所示??梢钥闯?,DUGN在重建速度上有著很大的優(yōu)勢。
2.3 消融實驗
為了評估提出的模塊的有效性,設計了幾個網絡版本,其中一些功能模塊被選擇性地刪除或保留。表3分別顯示了在采樣率為0.01、0.04和0.25上,考慮兩種網絡架構和一個功能模塊(即單U型網絡(U)、雙U型網絡(dual U)和測量非局部融合模塊(MNLF))在Set11數(shù)據(jù)集上的實驗結果。實驗結果表明,在不使用MNLF的情況下,與單U型網絡相比,雙U形網絡分別在采樣率為0.01、0.04和0.25時將PSNR提高了0.05 dB、0.25 dB和0.4 dB。當使用MNLF時,分別提高了0.05 dB、0.36 dB和0.42 dB的PSNR。可以看出,當與MNLF模塊結合使用時,雙U型網絡可以帶來更高的效益。在單U型網絡中,使用MNLF相對于不使用MNLF,PSNR分別在采樣率為0.01、0.04和0.25時提高了0.04 dB、0.02 dB和0.13 dB。在雙U型網絡中,使用MNLF相對于不使用MNLF,PSNR分別在采樣率為0.01、0.04和0.25時提高了0.04 dB、0.13 dB和0.15 dB。
2.4 窗口大小的選擇
本文對WGN中窗口大小的選擇進行了一系列實驗。本文選擇了窗口大小為4、6、8、10、12、14、16、18、20、22和24進行實驗,采樣率分別為0.04、0.10和0.25,實驗結果如圖8所示。從圖中可以發(fā)現(xiàn),當窗口大小為16×16時,在各個采樣率下均取得了最好的PSNR指標,且比其他窗口大小的情況提升很大。隨著窗口大小的提升,網絡參數(shù)呈指數(shù)趨勢增長,因此窗口大小也需要限制在一定的范圍內。
3 結束語
本文提出了一種新穎的雙U型門控網絡,將U型網絡進行拓展,使網絡能夠進一步得到學習圖像更細節(jié)的內容。針對基于分塊壓縮感知的圖像重建問題,提出了窗口門控網絡以及測量值非局部融合模塊。固定窗口大小,使窗口信息隨著下采樣過程,能夠學習到近似于全局的信息,另外分析了窗口大小的選擇,發(fā)現(xiàn)對于分塊壓縮感知重建,將窗口大小設置為與壓縮分塊大小一致,可以達到較好的重建效果。在實驗中通過對測量值變形發(fā)現(xiàn),在測量值中依然保留了圖像的結構信息,設計了測量值非局部融合模塊,將測量值中的非局部相似性信息與深度網絡進行融合,提升重建效果。實驗結果表明,所提出的方法DUGN在目前的基于隨機采樣的壓縮感知重建方法中,有著更好的表現(xiàn)。
參考文獻:
[1]Donoho D L. Compressed sensing[J]. IEEE Trans on Information Theory, 2006, 52(4): 1289-1306.)
[2]Gan L. Block compressed sensing of natural images[C]//Proc of International Conference on Digital Signal Processing. Piscataway,NJ:IEEE Press, 2007.
[3]Shi Wuzhen, Jiang Feng, Liu Shaohui, et al. Image compressed sensing using convolutional neural network[J]. IEEE Trans on Circuits and Systems for Video Technology, 2019,29:375-388.
[4]Tropp J A, Gilbert A C. Signal recovery from random measurements via orthogonal matching pursuit[J]. IEEE Trans on Information Theory, 2007, 53(12): 4655-4666.
[5]Figueiredo M A T, Nowak R D, Wright S J. Gradient projection for sparse reconstruction: application to compressed sensing and other inverse problems[J]. IEEE Journal of Selected Topics in Signal Processing, 2008, 1(4): 586-597.
[6]Beck A, Teboulle M. A fast iterative shrinkage-thresholding algorithm for linear inverse problems[J]. SIAM Journal on Imaging Sciences, 2009, 2(1): 183-202.
[7]Mousavi A, Patel A B, Baraniuk R G. A deep learning approach to structured signal recovery[C]//Proc of the 53rd Annual Allerton Conference on Communication, Control, and Computing. 2015.
[8]Kulkarni K, Lohit S, Turaga P, et al. ReconNet: non-iterative reconstruction of images from compressively sensed measurements[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press, 2016.
[9]Yao Hantao, Dai Feng, Zhang Shiliang, et al. DR2-Net: deep resi-dual reconstruction network for image compressive sensing[J]. Neurocomputing, 2019,359: 483-493.
[10]Zhang Jian, Ghanem B. ISTA-Net: interpretable optimization-inspired deep network for image compressive sensing[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press, 2017.
[11]You Di, Xie Jingfen, Zhang Jian. ISTA-NET+: flexible deep unfolding network for compressive sensing[C]//Proc of IEEE International Conference on Multimedia and Expo. Piscataway,NJ:IEEE Press, 2021: 1-6.
[12]Zhang Zhonghao, Liu Yipeng, Liu Jiani, et al. AMP-Net: denoising based deep unfolding for compressive image sensing[J]. IEEE Trans on Image Processing, 2021,30:1487-1500.
[13]You Di, Zhang Jian, Xie Jingfen, et al. COAST: controllable arbitrary-sampling network for compressive sensing[J]. IEEE Trans on Image Processing, 2021,30: 6066-6080.
[14]Sun Yubao, Chen Jiwei, Liu Qingshan, et al. Dual-path attention network for compressed sensing image reconstruction[J]. IEEE Trans on Image Processing, 2020,29: 9482-9495.
[15]Zhong Yuanhong, Zhang Chenxu, Li Jin. Image compressed sensing reconstruction via deep image prior with structure-texture decomposition[J]. IEEE Signal Processing Letters, 2023,30: 85-89.
[16]Zhu Yin, Shi Wuzhen, Zhang Wu, et al. Multilevel wavelet-based hierarchical networks for image compressed sensing[J]. Pattern Recognition, 2022, 129: 108758.
[17]Zhu Yin, Zhang Wu, Zhang Jun. A deep network based on wavelet transform for image compressed sensing[J]. Circuits, Systems, and Signal Processing, 2022,41(11): 6031-6050.
[18]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in Neural Information Processing Systems. 2017.
[19]Wang Xiaolong, Girshick R, Gupta A, et al. Non-local neural networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2018.
[20]Zhang Yulun, Li Kunpeng, Li Kai, et al. Residual non-local attention networks for image restoration[C]//Proc of Computer Vision and Pattern Recognition. 2019.
[21]Sun Yubao, Yang Ying, Liu Qingshan, et al. Learning non-locally regularized compressed sensing network with half-quadratic splitting[J]. IEEE Trans on Multimedia, 2020,22(12): 3236-3248.
[22]Cui Wenxue, Liu Shaohui, Jiang Feng, et al. Image compressed sensing using non-local neural network[J]. IEEE Trans on Multimedia, 2021,25:816-830.
[23]Fan Zien, Lian Feng, Quan Jiani. Global sensing and measurements reuse for image compressed sensing[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. 2022: 8954-8963.
[24]Wang Zhendong, Cun Xiaodong, Bao Jianmin, et al. Uformer: a general U-shaped Transformer for image restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022.
[25]Zamir S W, Arora A, Khan S, et al. Restormer: efficient Transfor-mer for high-resolution image restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022.
[26]Tu Zhengzhong, Talebi H, Zhang Han, et al. MAXIM: multi-axis MLP for image processing[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022.
[27]Zamir S W, Arora A, Khan S, et al. Multi-stage progressive image restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021.
[28]Qiu Defu, Cheng Yuhu, Wang Xuesong. Dual U-Net residual networks for cardiac magnetic resonance images super-resolution[J]. Computer Methods and Programs in Biomedicine, 2022, 218: 106707.
[29]Song Jiechong, Mou Chong, Wang Shiqi, et al. Optimization-inspired cross-attention transformer for compressive sensing[EB/OL]. (2023). https://arxiv.org/abs/2304.13986.
[30]Metzler C, Mousavi A, Baraniuk R. Learned D-AMP: principled neural network based compressive image recovery[C]//Advances in Neural Information Processing Systems. 2017.
[31]Chen Jiwei, Sun Yubao, Liu Qingshan, et al. Learning memory augmented cascading network for compressed sensing of images[C]//Proc of European Conference on Computer Vision. 2020: 513-529.
[32]Bian Shuai, Qi Shouliang, Li Chen, et al. NL-CS net: deep learning with non-local prior for image compressive sensing[EB/OL]. (2023). https://arxiv.org/abs/2305.03899.