高希報 王莉麗 中國電子科技集團公司第二十八研究所
聯(lián)合了梯度保真項的總變差模型快速遙感圖像復原
高希報 王莉麗 中國電子科技集團公司第二十八研究所
最近,學者們將梯度保真項引入于總變差模型,取得了一定的進展。然而改進的模型使用梯度下降法求解,影響了模型的求解速度。為此,提出了一種基于耦合了梯度保真項的總變差模型的快速圖像復原算法,利用分裂算法以交替最小化技術(shù)求解改進模型,實現(xiàn)了圖像快速復原。
總變差模型 梯度保真項 交替最小化算法 快速圖像復原
遙感圖像在成像過程中不可避免,受到混疊、模糊以及噪聲等因素影響,圖像質(zhì)量嚴重退化。圖像復原是提高獲取圖像質(zhì)量的主要技術(shù)之一。經(jīng)過幾十年飛速發(fā)展,學者們提出了眾多復原方法,可粗略分為四類:逆濾波及改進方法、基于最大后驗估計的統(tǒng)計方法、最大熵方法以及正則化方法。鑒于正則化方法在能較好的處理保邊與去噪,且具有更好的數(shù)學特性,一直是學界關(guān)注的熱點方法之一。作為一種空域正則化方法,總變差模型得到了廣泛的關(guān)注與研究,主要圍繞3個方面:①數(shù)值算法。提出主流算法有最速下降法下降法,對偶算法,擴散算法,擬牛頓算法,非線性規(guī)劃算法等;②數(shù)據(jù)擬合項。數(shù)據(jù)擬合項又稱為保真項,可細分為范數(shù)研究和自適應正則參數(shù)研究;③改進模型。Diads等將梯度保真項引入傳統(tǒng)TV模型中,以克服階越效應,用于圖像去噪;朱等提出正則化的梯度保真項,用以增強圖像。需要指出的是,目前耦合了梯度保真項的TV模型其數(shù)值方法主要為梯度下降法,該算法時間消耗較大,無法實現(xiàn)圖像的快速復原。為此,本文利用分裂交替最小化技術(shù),提出了一種快速圖像復原算法。
梯度保真項的TV圖像復原模型寫為如下形式:
步驟5,推導W與U子問題(模型)對應的解:W模型可推出其分析解,U模型則可通過推導其對應的Euler-Lagrange方程,基于此通過迭代方式實現(xiàn)圖像的快速復原。
實驗中,本文舉例一組遙感圖像,大小為500×500,比較了所提算法與傳統(tǒng)總變差模型,耦合了梯度保真項的總變差模型圖像復原性能。如圖1所示為各種方法的遙感圖像復原效果比較。圖1(a)為退化的遙感圖像;圖1(b)為傳統(tǒng)的總變差模型復原效果;圖1(c)為原始的耦合了梯度保真項的總變差模型[2]復原結(jié)果;圖1(d)為本文所提方法的復原效果。對比上述復原效果,從圖1可以看出耦合了梯度保真項的總變差模型取得了較好的效果。本文利用峰值信噪比(PSNR)量化比較了各方法,從PSNR值可以看出,本文所提方法取得較好的效果。3種方法時間消耗分別為6.201s,7.260s以及3.248s。從時間消耗看,本文方法能較快的實現(xiàn)遙感圖像復原。
圖1 三種方法遙感圖像復原比較
總變差模型由于具備良好的性能,一直是計算機視覺領(lǐng)域研究的熱點。傳統(tǒng)的總變差模型在實際應用中不能得到較好的圖像復原效果。最近耦合了梯度保真項的總變差模型受到了學者們廣泛關(guān)注。為提高該模型遙感圖像復原速度,利用分裂交替最小化技術(shù),提出了一種快速算法,大大縮短了消耗時間,實現(xiàn)了遙感圖像的快速復原。
[1] L. Rudin, S. Osher, E. Fatemi. Nonlinear total variation based noise removal algorithms. Physica D. 1992, 60(1-4): 259-268
[2] S. Didas, S. Setzer, G. Steidl. Combined data and gradient fitting in conjunction with regularization. Advances in Computational Mathematics, 2009, 30(1): 79-99
[3] L. X. Zhu, D. S. Xia. Staircase effect alleviation by couping gradient fidelity term. Image and Vision Computing, 2008, 26(8):1163-1170
[4] W. Zuo, L. Zhang, C. Song, D. Zhang, and H. Gao. Gradient Histogram Estimation and Preservation for Texture Enhanced Image Denoising. IEEE Transactions on Image Processing, v2014, 23(6) :2459-2472