王廬華
摘 要:利用深度展開的方法來設計深度神經網絡在如今成為了一種經典的優(yōu)化方法。文章提出了一種新的基于深度學習和壓縮感知的重構算法用于序列信號重構。該模型設計理念是通過用近端梯度下降方法來對模型做迭代展開。在MNIST數據集上的實驗表明,該模型表現要優(yōu)于一些先進的基于壓縮感知的模型以及其他基于循環(huán)神經網絡的模型。
關鍵詞:稀疏信號重構;深度學習;循環(huán)神經網絡
0 引言
從小部分隨機測量值中重構一個稀疏信號是許多工程任務中的基礎問題,包括生物工程,模式識別,無線通信等?,F存的解決方案主要分為兩種:一種是傳統(tǒng)的基于壓縮感知的算法[1],它主要是利用信號的稀疏性和結構先驗來從無限的可能解中找到唯一的真實解。然而,這種方法的缺點是在重構算法中,信號的先驗的手寫設計受限于一些通用先驗,例如稀疏性和一些已知支撐,所以往往只能取得有限的重構效果。另一種方案則是利用大量數據集和深度神經網絡[2],對原信號和重構信號直接映射,利用深度神經網絡強大的學習能力來對信號進行重構。但這種方法存在以下弊端:第一,在許多實際問題上,可能并沒有足夠多的數據可以用來訓練。第二,深度神經網絡把信號重構問題視作一個“黑盒”,從而弱化了一些已知先驗信息的作用。本文提出了一種折中的方式,通過深度展開的方法將兩種方案的優(yōu)點結合起來,即同時利用信號先驗和神經網絡的學習能力,從而可以在有限的數據集上大幅度提高信號的重構效果。
1 方法詳述
本文所提的方案主要用于解決序列稀疏信號重構問題。問題的數學模型可以表述為:
其中,Ω表示已知的先驗信息,方便起見,本文考慮其中一類子問題:
其中,h是一個K維的稀疏向量,F代表兩個相鄰系數信號之間的映射關系。λ1和λ2代表著正則化參數,均為非負值。注意到表達式(2)是由一個二范數代表的光滑可微項和兩個一范數之和代表的非光滑項組合而成,因此本文利用近端梯度下降方法[3]和軟閾值方法[4]對(1)式進行求解。本文所使用的軟閾值方法如圖1所示。
利用上述方法推導之后,得到h的第k輪迭代過程的表達式可以表述成:
其中,C代表F與上一時刻的信號h的乘積,D是小波基字典,A是隨機生成的高斯測量矩陣。下面簡述所提算法的具體實現流程:
(1)輸入。高斯測量矩陣,原始信號y。
(2)輸出。重構信號的稀疏表示x。第一,遍歷所有時間序列。第二,在每個時間刻進行K輪迭代。第三,每一輪迭代過程中利用軟閾值算法得到該輪的重構信號值。第四,將上述得到的重構信號代入(2)式,重復迭代。第五,直到迭代次數達到K為止。
2 實驗結果
本文的實驗數據選擇的是MNIST數據集,首先需要對數據進行預處理,裁剪出中央部分,使得裁剪后的圖片大小尺寸為128*128像素點。處理后的圖片一共有40 000張,其中訓練集是從其中隨機挑選的32 000張圖片組成,剩余的數據則用作測試集。
為了證明本文模型的有效性,本文也選擇了幾種基于傳統(tǒng)壓縮感知的方法和基于深度學習的方法用作比較,包括BP, IRL1,MCS,LSTM等。其中,前三種屬于傳統(tǒng)算法,是利用信號的先驗信息來對信號進行恢復,因此模型并不需要數據來進行訓練。對于LSTM而言,它是隸屬于深度學習的模型方法,本質上是一個多層的RNN模型。在這次實驗中,筆者將K值均設置為3,即在每一個時刻的迭代次數均為3輪。選擇平均均方誤差作為訓練集的損失函數,其他參數使用的均為默認值。最后,使用PSNR值作為測試信號重構效果的最終指標:
不同采樣率下各種方法的PSNR值如表1所示,其展示了在采樣率分別為12.5%,25%,37.5%以及50%的情況下,各種方法的表現結果??梢院芮逦目闯觯诟鱾€采樣率之下,該模型都要明顯優(yōu)于其他方法,且隨著采樣率的提高,這種優(yōu)勢就越為明顯。
3?結語
本文提出了一種新的模型方法,結合了目前主流的兩類信號重構的優(yōu)勢,利用深度學習強大的學習能力,可以在模型中訓練所有參數。同時,需要指出的是,在該模型中,每個參數都具有可編譯性,這意味著與一般的深度模型相比,所需要的訓練數據量要遠遠低于正常標準。在MNIST數據集上與其他模型的實驗結果顯示,該模型取得了最優(yōu)的重構信號表現。
[參考文獻]
[1]石光明,劉丹華,高大化,等.壓縮感知理論及其研究進展[J].電子學報,2009(5):1070-1081.
[2]孫志軍,薛磊,許陽明,等.深度學習研究綜述[J].計算機應用研究,2012(8):2806-2810.
[3]李興怡,岳洋.梯度下降算法研究綜述[J].軟件工程,2020(2):1-4.
[4]方勇,戚飛虎.基于軟閾值的小波圖像增強方法[J].計算機工程與應用,2002(23):16-19.
(編輯 姚 鑫)