王亞楠等
摘 要: 模塊主成分分析是人臉重建中一種重要的子空間學(xué)習(xí)方法,魯棒性不足是傳統(tǒng)的基于L2范數(shù)的模塊主成分分析(BPCA-L2)的主要問題。為此,提出了一種新的基于L1范數(shù)的模塊主成分分析(BPCA-L1)方法。該方法使用了對奇異值不太敏感的L1范數(shù)。基于L1范數(shù)的模塊主成分分析方法簡單并易于實(shí)現(xiàn),在一些人臉數(shù)據(jù)集上的重建實(shí)驗(yàn)驗(yàn)證了其有效性。
關(guān)鍵詞: 模塊主成分分析; L1范數(shù); 主成分分析; 魯棒性
中圖分類號:TP393 文獻(xiàn)標(biāo)志碼:A 文章編號:1006-8228(2015)02-24-02
Application of block principal component analysis in face reconstruction
Wang Ya'nan, Lou Hanxiao, Chen Daben, Xu Shuhua
(School of Maths and Physics, Shaoxin College, Shaoxing 312000)
Abstract: The block principal component analysis is an important subspace learning method in face reconstruction. Lacking robustness is a main problem of the traditional L2-norm (L2-BPCA). In this paper, a method of block principal component analysis (BPCA) based on a new L1-norm is introduced. L1-norm is used, which is less sensitive to abnormal values. The proposed block principal component analysis based on L1-norm is simple and easy to be implemented. Experimental reconstruction on several face databases are conductive to verifying the validity of L1-BPCA.
Key words: BPCA; L1-norm; principal component analysis; robustness
0 引言
主成分分析(PCA)[1]是多元數(shù)據(jù)分析中廣泛使用的降維方法,其主要目的是尋求具有最大方差的一組正交基。楊等人[2]首先提出了二維主成分分析(2DPCA),是二維(2D)圖像分析中的一種有效的降維方法。它不同于PCA,2DPCA直接基于原始二維圖像的向量基礎(chǔ)進(jìn)行分析,避免了從矩陣到向量變化過程中的矢量化。2DPCA根據(jù)計(jì)算圖像的協(xié)方差矩陣的特征向量,得到個(gè)數(shù)比圖像矩陣的行數(shù)少的投影方向。近年來,2DPCA在圖像表示和識(shí)別的應(yīng)用引起了越來越多人的興趣。
然而,2DPCA僅提取像素排列中的行向量的圖像信息,而與特征提取具有同等地位的列向量空間排列是完全被忽略的。一般來說,模塊PCA(BPCA)[3]是將每個(gè)圖像分成若干個(gè)塊,然后在這些模塊中使用PCA進(jìn)行處理。如果模塊作為行向量,那BPCA就是2DPCA,那么BPCA在這個(gè)意義上泛化為2DPCA。
上述所有方法中,由于使用了L2范數(shù)[4],導(dǎo)致其對異常值十分敏感。為了解決魯棒建模問題, Ding等人[5]提出了基于L1范數(shù)PCA,該方法使用了簡單有效的迭代算法求解基向量。李等人[6]將2DPCA的適用范圍擴(kuò)展到L1范數(shù)并應(yīng)用于圖像重建,稱之為2DPCA-L1。此外,彭等人[7]考慮了基于L1范數(shù)的張量分析。
2DPCA-L1和PCA-L1之間的關(guān)系正像2DPCA和PCA之間的關(guān)系一樣,2DPCA-L1是PCA-L1的一個(gè)特例。當(dāng)PCA-L1應(yīng)用到圖像矩陣的行向量中,PCA-L1就變成了2DPCA-L1。受此啟發(fā),把PCA-L1應(yīng)用于圖像小塊中的這種方法可以稱為BPCA-L1。BPCA-L1具有三個(gè)特征。①它是2DPCA-L1的一般表示。由于它有效地結(jié)合了行和列的圖像信息,更多的空間信息被保存。不像2DPCA-L1那樣只在行向量上起作用,BPCA-L1是應(yīng)用在圖像的小塊中。其投影過程實(shí)際上是一個(gè)在原始圖像上進(jìn)行本地過濾操作。因此,需要尋求一個(gè)行和列的信息之間的權(quán)衡。②由于使用了L1范數(shù),BPCA-L1是魯棒的。③不需要構(gòu)建協(xié)方差矩陣和分解密集的特征,BPCA-L1使用一個(gè)簡單的迭代算法并且收斂很快。在本文中,BPCA不是使用基于L2-范數(shù)最大化方差,而是使用了一種更簡單快捷的L1-范數(shù)。實(shí)驗(yàn)表明,BPCA-L1算法具有更好的圖像重構(gòu)性能。
1 基于L1-范數(shù)的模塊PCA
1.1 理論分析
將每張圖像Xi(i=1,…,n)分成m個(gè)小模塊形成集合{,…,}。這些模塊必須包含h個(gè)像素點(diǎn)。用{,…,}表示這些模塊圖像的向量,也就是說,依字母順序排列每一個(gè)小模塊中的像素點(diǎn)。我們的目標(biāo)是找到一個(gè)h維單位長度向量ψ*使L1范數(shù)離差達(dá)到最大,ψ*由下式給出:
⑴
通過迭代算法求解ψ*。首先,構(gòu)建一個(gè)極性函數(shù):
⑵
更新第(t+1)次迭代的投影向量ψ(t+1)為:
⑶
在圖像重建中,圖像塊{,…,}不能重疊,并且要求覆蓋整個(gè)圖像。但通常情況下,圖像塊不一定有相同的矩形形狀或覆蓋整個(gè)圖像。例如,模塊可能是部分重疊的圓圈。
為了提取第(l+1)個(gè)基向量, 其中l(wèi)?1,根據(jù)如下公式更新訓(xùn)練數(shù)據(jù):
⑷
其中并且有ψ1=ψ*。
1.2 算法步驟
⑴ 初始化:圖像Xi(i=1,…,n)分成m塊,記為{,…,}。
⑵ 極性檢驗(yàn):對于所有的i∈(1,2,…,n),j∈(1,2,…,m),如果,pi(t)=1,否則pi(t)=-1。
⑶ 迭代和最大化:令t←t+1,。
⑷ 收斂性檢驗(yàn):
(a) 如果ψ(t)≠ψ(t-1),則執(zhí)行第二步;
(b) 否則如果存在i和j使得,令,繼續(xù)執(zhí)行第二步,其中Δψ是一個(gè)小的非零隨機(jī)向量;
(c) 否則,令ψ*=ψ(t),最后算法結(jié)束。
2 實(shí)驗(yàn)
2.1 實(shí)驗(yàn)數(shù)據(jù)
本文采用ORL人臉圖像集,由40人組成,每個(gè)人包括10張不同的圖像,共有400張圖像樣本。原始圖像的大小為112×92像素,灰度值為256。在我們的實(shí)驗(yàn)中,圖像采樣為64×64像素。
本實(shí)驗(yàn)的目的是評估當(dāng)訓(xùn)練數(shù)據(jù)被噪聲污染時(shí)的線性子空間方法的重建能力。隨機(jī)選擇80張圖像樣本,對每個(gè)選定的圖像在隨機(jī)的位置上添加矩形噪聲污染,如圖1所示。噪聲值為0或255,矩形的大小至少為15×15。
2.2 實(shí)驗(yàn)結(jié)果與分析
對于每個(gè)數(shù)據(jù)集,我們進(jìn)行了20次實(shí)驗(yàn)并計(jì)算平均重構(gòu)誤差。實(shí)驗(yàn)前,對每個(gè)輸入變量進(jìn)行標(biāo)準(zhǔn)化,它們具有零均值和單位方差。
不同特征數(shù)量下使用BPCA-L1和BPCA-L2子空間方法進(jìn)行圖像重構(gòu)時(shí)的平均重構(gòu)誤差如圖2所示。圖像塊的大小設(shè)置為8×8??梢钥闯觯卣鲾?shù)超過一定的閾值時(shí),基于L1范數(shù)的方法優(yōu)于相應(yīng)的基于L2范數(shù)的方法。當(dāng)特征數(shù)較少時(shí),基于L2范數(shù)的方法和基于L1范數(shù)的方法效果相當(dāng)(不相上下)。奇異圖像對L2范數(shù)的影響比L1范數(shù)更大,這表明引入L1范數(shù)到BPCA具有明顯的優(yōu)勢。
圖3顯示了一個(gè)原始的圖像和BPCA-L1、BPCA-L2方法下不同投影向量重構(gòu)的圖像。在圖3中可以看到,盡管基于L1的方法重建圖像和對應(yīng)的基于L2的方法的視覺效果差不多,但是兩者平均重建誤差有所不同。
圖3中,第一行使用BPCA-L2,第二行使用BPCA-L1。第一列是原始圖像,第二、三和四列是重構(gòu)的圖像,它們投影向量分別是5、10和30。
3 結(jié)束語
本文使用BPCA-L1方法對部分人臉受到遮蓋的圖像進(jìn)行重構(gòu),由于該方法使用了塊或整體-局部表示法,通過結(jié)合行信息和列信息有效地利用了圖像空間結(jié)構(gòu),并且L1范數(shù)的實(shí)現(xiàn)采用一種簡單的迭代算法,有較好的收斂性,該方法的平均重構(gòu)誤差低于BPCA-L2方法,BPCA-L1方法對異常值有魯棒性。
參考文獻(xiàn):
[1] I.T Jolliffe. Principal Component Analysis[M]. Springe-Ver1ag,
1986.
[2] Yang, J., Zhang, D., Frangi, A.F., Yang, J.-Y. Two-dimensional
PCA: A new approach to appearance-based face representation and recognition[J]. IEEE Trans, Pattern Anal, Machine Intell,2004.26(1):1-7
[3] Zuo, W., Zhang, D., Yang, J., Wang, K.. BDPCA plus LDA: A
novel fast feature extraction technique for face recognition[J]. IEEE Trans,Systems Man Cybernet. B,Cybernet,2006.36(4):946-953
[4] 王東霞,劉秋菊,劉書倫.一種l2,1范數(shù)最小化問題的算法研究[J].福
州大學(xué)學(xué)報(bào):自然科學(xué)版,2013.1:12-14
[5] Ding, C., Zhou, D., He, X., Zha, H.. R1-PCA: Rotational
invariant L1-norm principal component analysis for robust subspace factorization. In: Proc.Internat. Conf. Mach. Learn.,2006:281-288
[6] Li, X., Pang, Y., Yuan, Y.. L1-norm-based 2DPCA[J]. IEEE
Trans, Systems Man Cybernet. B, Cybernet, 2009.40(4): 1170-1175
[7] Pang, Y., Li, X., Yuan, Y.. Robust tensor analysis with L1-norm[J].
IEEE Trans, Circuits Systems Video Technol, 2010.20(2):172-178