亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CCA空間的平滑稀疏超分辨率人臉重構*

        2018-04-09 07:25:08姚正元郭立君
        傳感器與微系統(tǒng) 2018年4期
        關鍵詞:排序方法

        姚正元, 郭立君,張 榮

        (寧波大學 信息科學與工程學院,浙江 寧波 315211)

        0 引 言

        對于監(jiān)控視頻中的人臉圖像,往往因為光線不足,人臉距離監(jiān)控設備過遠等原因而變得模糊不清,充滿噪聲。為此,有必要利用先驗信息,提升人臉圖像的分辨率。

        單幀圖像的超分辨率(super-resolution,SR)重構問題中,基于學習的SR重構方法成為近年來研究的重點。 Baker S和Kanade T[1]首次提出了“人臉幻構”概念。Liu C等人[2]提出了兩步法,將一個全局的參數(shù)高斯模型和一個局部的非參數(shù)的馬爾科夫隨機場(Markov random field,MRF)模型整合。此后,研究開始集中于利用包含高低分辨率圖像對的訓練集,從單個的低分辨率(low-resolution,LR)人臉圖像重構出高分辨率(high-resolution,HR)圖像。此類方法,包含基于全局的人臉圖像或者基于塊來重構HR圖像。

        基于塊的人臉SR方法是通過對訓練集中的塊線性組合,來重構測試的低分辨率塊。為了獲得更多的面部結構的先驗知識,Ma X[3]提出了一種基于塊位置重構人臉圖像的框架,方法基于最小二乘表示(least squares representation,LSR)用所有的訓練塊重構圖像塊。為了克服LSR的不穩(wěn)定性,Yang J等人[4]首次提出了基于稀疏表示的人臉圖像超分辨率方法,此后,Wang Z Y等人[5~9]提出了一種加權的稀疏表示人臉超分辨率方法。為了進一步探索局部圖像塊的關系,Shi J[10]提出了將全局重構模型,局部稀疏模型和像素相關模型組合成統(tǒng)一的正則化框架,展現(xiàn)了一種新的超分辨率重構方法。

        上述SR重構方法在人臉超分辨率問題上取得了很大的成功,但對于視頻監(jiān)控中的人臉圖像,往往充滿噪聲。為了解決這個問題,Jiang J等人[11~13]提出了一種基于塊的局部約束模型(local constraint model,LCR)。在此基礎上,Jiang J[14]提出了一種基于平滑的超分辨率重構方法(smooth SR,SSR),取得了一定的平滑與去噪效果。喬少華等人[15]提出了一種基于統(tǒng)計量的加權函數(shù)圖像重建方法,對含有多種噪聲的退化圖像能夠取得比較理想的結果。Jiang J等人提出的重構模型都是基于高低分辨率字典是高度相關,并且有相似的結構分布這一假設,但直接基于人臉圖像空間構建的高低分辨率字典無法滿足高度相關的條件,影響了重構的效果。

        本文提出了基于典型相關分析(canonical correlation analysis,CCA)空間的平滑稀疏超分辨率重構算法,利用先驗信息中人臉圖像存在相似性這一特點,將2組字典映射到CCA空間,增強2組字典之間的相關性,最大限度地利用圖像之間的關聯(lián)信息,增強了高低分辨率字典的相關性,進而利用高低分辨率字典的信息,剔除冗余和噪聲成分,增強對噪聲的魯棒性。同時,為了達到更好的CCA映射,獲得增強相似性的效果,進一步提出了基于排序和更新的字典優(yōu)化方法:在重構過程中,與輸入塊更相似的訓練塊應該被給予更大的重構權重,對字典按照和輸入圖像塊的相似性從高到低進行排序;為了去除噪聲和冗余,對于排序后的字典,對字典進行一次稀疏更新;對于優(yōu)化過的字典,再次進行CCA映射。實驗結果表明:所提算法重構效果更加清晰,對噪聲魯棒性更好。

        1 所提方法

        1.1 稀疏表示

        圖1 按位置劃分的人臉圖像

        對于一個LR觀測的人臉圖像的圖像塊xt,使用訓練集中在相同位置的所有的訓練塊表示

        (1)

        式中ε為重構誤差。最佳的重構系數(shù)能夠通過式(2)的約束最小二乘問題解決

        (2)

        式中w=[w1,w2,…,wN]T為對于LR觀測塊xt的N維重構權重向量。

        (3)

        式中 ‖·‖1為l1范數(shù);λ為正則化參數(shù),用于平衡重構誤差和重構系數(shù)的稀疏性。該稀疏約束不僅保證欠定方程具有確切的解,并且學習出的稀疏系數(shù)w對于輸入塊能夠有效捕捉塊最突出,最有效的信息。

        上述重構過程并未考慮在實際中高低分辨率字典并不是高度相關的問題,因此,在人臉稀疏重構中引入了CCA空間。

        1.2 CCA

        當數(shù)據(jù)集是多維數(shù)據(jù)集時,CCA采用線性變換,將數(shù)據(jù)集從多維降為一維,再用相關系數(shù)進行分析。對于CCA方法,選擇的投影標準是降到一維后,2組數(shù)據(jù)的相關系數(shù)最大。

        設X=[x1,x2,…,xN]和Y=[y1,y2,…,yN]分別為輸入塊xt對應的LR和HR字典。其中,N為字典的向量個數(shù),即原子個數(shù)。將2個字典轉換到CCA空間。

        CCA的目標是分別為低高分辨率字典LR和HR尋找2組基向量α和β,使得經(jīng)過基向量映射過的字典Xc=αX和Yc=βY之間的相關系數(shù)達到最大,即

        (4)

        取得最大值,其中,E[]表示數(shù)學期望。

        由于低高分辨率字典X和Y之間存在相似的內(nèi)在結構,通過其變換到CCA空間,將2個字典之間的線性相關性最大,進而使得2個字典內(nèi)部拓撲結構的一致性增強。圖2為CCA映射過程。

        圖2 CCA映射過程

        1.3 字典優(yōu)化

        在將高低分辨率字典映射到CCA空間之后,雖然字典中的所有字典對的相關性被增強,但是CCA基向量的獲取會被字典中的無效塊所影響。本文對映射到CCA空間的字典進行排序,對字典進行稀疏更新,再次映射到CCA空間,以進一步增加相關性,過濾掉干擾噪聲和冗余信息。

        1.3.1 字典排序

        對字典中的原子排序,對于和輸入圖像塊更相似的字典中的原子,被排到了前面,并且集中在一起,在重建中能夠獲得更大的權重。對于噪聲和冗余原子等則被集中排在了后面,會獲得更小的稀疏權重。根據(jù)字典中的圖像塊和xt的相似度,對字典中的圖像塊進行重新排序

        dist={|αxt-αxi‖1≤i≤N}

        (5)

        按照相似度從高到低重新標序為Xidx=[x[1],x[2],…,x[i],…,x[N]],其中,Xidx為原子重新排序的LR字典。[x[1],x[2],…,x[i],…,x[N]]為重新排完序的字典中的原子。X[i]為LR字典里面的第i個原子。

        1.3.2 字典稀疏更新

        對于排序后的字典,為了達到更優(yōu)的CCA映射,進一步增強在對輸入塊的稀疏表示中最重要的圖像塊對之間的聯(lián)系,得到優(yōu)化的CCA映射的基向量,進行一次稀疏更新,訓練出一個更加具有代表性,更加緊湊的字典。通過去掉冗余以及不相關的字典對,使重構系數(shù)免受干擾。從而對噪聲更加魯棒。

        對于輸入塊xi,可以通過式(6)用LR字典X稀疏表示

        (6)

        式中w為稀疏系數(shù)。 求出的稀疏系數(shù)w中的非零項表示的字典的原子組成了排序后的字典Xidx的子集Xs=[x1,x2,…,xi,…,xM],M為更新后的字典原子的個數(shù)。對于優(yōu)化更新完的Xs,重新計算基向量α。

        2 重構過程

        對于人臉圖像,重構圖像的平滑性很重要,但稀疏模型往往忽略圖像的平滑性。在CCA映射的基礎上,考慮在稀疏模型的基礎上加入局部平滑約束項。提出的目標函數(shù)為

        (7)

        第二個約束為平滑約束項,λ2控制稀疏差異約束。對字典中排序后的相鄰塊的稀疏重構系數(shù)加以差異約束,能夠達到稀疏系數(shù)的平滑性。

        重構過程具體步驟為:

        1)根據(jù)位置將所有的LR和HR的人臉訓練圖像分塊。

        2)然后對于輸入的每個LR塊xt,計算其優(yōu)化的重構權重。

        3)用得到的稀疏系數(shù)得到對應的HR圖像塊

        (8)

        式中 [y[1],y[2],…,y[M]]為排序后的HR訓練圖像塊。輸入的LR人臉圖像中全部的圖像塊按照從左到右,從上到下的順序讀取。

        4)對于相鄰塊的兼容性,對重疊區(qū)域的像素值取平均,重構框架如圖3所示。

        圖3 重構框架

        3 實驗結果與分析

        3.1 數(shù)據(jù)集

        人臉數(shù)據(jù)集FEI如圖4,包含200人,100名男士,100名女士。每人有2張圖像,正常表情和微笑的表情。裁剪圖像成大小為120×100的標準人臉圖像。隨機選取180人(360張圖像)作為訓練集,剩下的20人作為測試。在實驗中,HR圖像首先被下采樣到LR的30×25大小的圖像,并加上不同等級的高斯白噪聲(記作σ,σ=10,30,…)。LR塊大小為4×4,HR塊的大小為16×16。相鄰塊的重疊,在LR塊中為3像素,在HR塊中為12像素。

        圖4 FEI中的一些訓練圖像

        3.2 參數(shù)設置

        在不同的噪聲環(huán)境下選取不同的λ1和λ2值的峰值信噪比(peak signal to noise ratio,PSNR)和結構相似度(structural similarity,SSIM)表現(xiàn)。在實驗中,σ=10時,選取λ1=1×10-4和λ=1×10-2;σ=30時,λ1=1×10-2,λ2=0.1,以獲取最佳的表現(xiàn)。隨著噪聲的增加,λ2應該被設置為更大的值,表示稀疏差異約束在重構過程中對于平滑和去噪的重要性。

        3.3 實驗分析

        為了度量不同的重構方法的平滑性,比如SR,SSR,定義了一個對于平滑的評價指標平滑指數(shù)SI。w=[w1,w2,…,wM]表示一個輸入塊的稀疏系數(shù)。SI定義如下

        (9)

        圖5給出了不同噪聲環(huán)境下通過SR,SSR方法重構的HR圖像通過SR(第二列),SSR(第三列)和本文方法(第四列)重構的SR圖像以及峰值SNR。第一列和最后一列分別是LR人臉圖像以及原HR的圖像。表1給出了在不同噪聲環(huán)境下不同方法的平均SI值。由圖5可以看出:提出的方法在視覺效果以及重構質量評價均好于SR以及SSR方法;從表1的結果來看,本文方法比SR以及SSR方法更加平滑。

        圖5 不同噪聲下SR,SSR重構HR圖像

        噪聲SRSSR本文方法σ=100.00620.92060.9321σ=300.11840.96980.9744

        為了證實提出算法的有效性,對比了SSR方法和本文方法的PSNR和SSIM值。表2給出了測試的40張圖像在不同噪聲環(huán)境下( σ=10,30)的平均PSNR和SSIM。

        表2 在不同噪聲強度下不同方法分PSNR和SSIM值

        4 結束語

        提出了一個新的人臉超分辨率重構方法。利用人臉圖像之間在結構和內(nèi)容上都存在相似性這一特點,將人臉訓練集映射到CCA空間,以增強對于輸入塊的兩組字典之間的相關性,再通過對字典排序以及字典稀疏更新,訓練一個更加緊湊的字典,將字典重新映射到CCA空間,以獲取最佳的映射效果。最終,采用平滑稀疏的方法,在稀疏模型的基礎上加上平滑約束,完成重構。實驗結果表明:相比于現(xiàn)有的最優(yōu)的人臉超分辨率模型特別是在噪聲情況下能夠取得理想的提升。

        參考文獻:

        [1] Baker S,Kanade T.Limits on super-resolution and how to break them[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2002,24(9):1167-1183.

        [2] Liu C,Shum H Y,Zhang C S.A two-step approach to hallucinating faces: Global parametric model and local nonparametric model[C]∥2001 Proceedings of the 2001,IEEE Computer Society Conference on Computer Vision and Pattern Recognition,CVPR 2001.IEEE,2001:I-192-I-198.

        [3] Ma X,Zhang J,Qi C.Hallucinating face by position-patch[J].Pattern Recognition,2010,43(6):2224-2236.

        [4] Yang J,Wright J,Huang T S,et al.Image super-resolution via sparse representation.[J].IEEE Transactions on Image Processing,A Publication of the IEEE Signal Processing Society,2010,19(11):2861-2873.

        [5] Jung C,Jiao L,Liu B,et al.Position-patch based face hallucination using convex optimization[J].IEEE Signal Processing Letters,2011,18(6):367-370.

        [6] Ma X,Philips W,Song H,et al.Sparse representation and position prior based face hallucination upon classified over-complete dictionaries[J].Signal Processing,2012,92(9):2066-2074.

        [7] Wang Z,Hu R,Wang S,et al.Face hallucination via weighted adaptive sparse regularization[J].IEEE Transactions on Circuits & Systems for Video Technology,2014,24(5):802-813.

        [8] Wang Z Y,Han Z,Hu R M,et al.Letters: Noise robust face hallucination employing Gaussian-Laplacian mixture model[J].Neurocomputing,2014,133(8):153-160.

        [9] Qu S,Hu R,Chen S,et al.Face hallucination via Cauchy regula-rized sparse representation[C]∥IEEE International Conference on Acoustics,Speech and Signal Processing,IEEE,2015:1216-1220.

        [10] Shi J,Liu X,Qi C.Global consistency,local sparsity and pixel correlation: An unified framework for face hallucination[J].Pattern Recognition,2014,47(11):3520-3534.

        [11] Jiang J,Hu R,Wang Z,et al.Noise robust face hallucination via locality-constrained representation[J].IEEE Transactions on Multimedia,2014,16(5):1268-1281.

        [12] Jiang J,Hu R,Wang Z,et al.Face super-resolution via multilayer locality-constrained iterative neighbor embedding and interme-diate dictionary learning[J].IEEE Transactions on Image Processing:A Publication of the IEEE Signal Processing Society,2014,23(10):4220.

        [13] Jiang J,Chen C,Huang K,et al.Noise robust position-patch based face super-resolution via Tikhonov regularized neighbor representation[J].Information Sciences:An International Journal,2016,367(C):354-372.

        [14] Jiang J,Ma J,Chen C,et al.Noise robust face image super-resolution through smooth sparse representation[J].IEEE Transactions on Cybernetics,2016,(99):1-12.

        [15] 喬少華,李潤鑫,劉 輝,等.基于統(tǒng)計量的加權函數(shù)圖像重建方法[J].傳感器與微系統(tǒng),2017,36(9):53-56.

        猜你喜歡
        排序方法
        排排序
        排序不等式
        恐怖排序
        學習方法
        節(jié)日排序
        刻舟求劍
        兒童繪本(2018年5期)2018-04-12 16:45:32
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        欧美色资源| 欧美最猛黑人xxxx黑人猛交| 天美传媒一区二区| 国产曰批免费视频播放免费s| 久久无码高潮喷水| 亚洲一区二区三区av在线免费| 亚洲天堂无码AV一二三四区 | 色大全全免费网站久久| 亚洲va中文字幕| 熟女性饥渴一区二区三区| 看全色黄大色大片免费久久久| 九九久久精品一区二区三区av| 中文字幕一区在线直播| 国产福利永久在线视频无毒不卡| 免费国产黄网站在线观看| 亚洲第一无码精品久久| 日本人妻三级在线观看| 亚洲午夜精品一区二区| 国产自偷自偷免费一区| 精品视频无码一区二区三区| 曰本女人与公拘交酡免费视频| 国产精品丝袜在线不卡 | 国产成人无码区免费网站| 麻豆国产AV网站| 国产精品国产三级国产剧情| 日韩精品无码一本二本三本色| 老师脱了内裤让我进去| 自拍亚洲一区欧美另类| 国产精品后入内射日本在线观看| 激情亚洲一区国产精品| 午夜毛片不卡免费观看视频| 亚洲一区视频在线| 亚洲第一女人天堂av| 免费a级毛片18禁网站免费| 一本一道av无码中文字幕| 久久综合给合久久狠狠狠9| 亚洲国产精品自拍成人| 欧美一区二区三区视频在线观看 | 亚洲日韩精品欧美一区二区三区不卡| 亚洲24小时在线免费视频网站| 高清国产亚洲精品自在久久|