亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Gabor特征的稀疏表示紋理分割研究

        2015-05-29 20:55:42蔣宏駿紀(jì)則軒孫權(quán)森
        現(xiàn)代電子技術(shù) 2015年10期
        關(guān)鍵詞:稀疏表示

        蔣宏駿+++紀(jì)則軒+++孫權(quán)森

        摘 要: 稀疏表示和字典學(xué)習(xí)在圖像去噪、圖像重建和模式識(shí)別等應(yīng)用上取得了良好的效果,其利用稀疏系數(shù)和重構(gòu)誤差來(lái)作為模式分類的判別準(zhǔn)則。稀疏表示紋理分割方法是將圖像分割問題轉(zhuǎn)換為像素點(diǎn)的分類問題。但通常稀疏表示分類方法是基于圖像塊特征,難以準(zhǔn)確表征圖像紋理信息。為了解決上述問題,提出基于Gabor特征的稀疏表示紋理分割方法。因?yàn)镚abor特征對(duì)圖像紋理信息的魯棒性,算法首先從每類紋理中選擇一些像素點(diǎn)作為訓(xùn)練樣本,計(jì)算其不同尺度和方向下的Gabor特征,將其作為初始化字典,通過判別性的字典學(xué)習(xí)算法(D?KSVD)更新字典,該字典學(xué)習(xí)算法在KSVD基礎(chǔ)上使得字典更具有類別判別能力,最后以待分割圖像的每個(gè)像素點(diǎn)作為測(cè)試樣本,計(jì)算其Gabor特征。利用OMP算法得到測(cè)試樣本在字典下的稀疏系數(shù),根據(jù)稀疏系數(shù)得到類標(biāo)簽,進(jìn)而對(duì)像素點(diǎn)進(jìn)行分類,完成分割。通過在Brodatz紋理庫(kù)上的實(shí)驗(yàn)結(jié)果表明,該方法有效提高了稀疏表示算法對(duì)紋理圖像分割的正確率。

        關(guān)鍵詞: 稀疏表示; 字典學(xué)習(xí); D?KSVD; Gabor

        中圖分類號(hào): TN919?34 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2015)10?0073?05

        圖像分割是由圖像處理進(jìn)到圖像分析的關(guān)鍵步驟,也是一種基本的計(jì)算機(jī)視覺技術(shù)。紋理作為物體表面的固有特征之一,是人們區(qū)分不同物體的重要因素,紋理可以提供圖像區(qū)域的平滑、稀疏、規(guī)則等特性。例如醫(yī)學(xué)圖像中包含大量的紋理信息,不同部位、相同部位不同病灶的圖像紋理存在一定差異。又如遙感圖像中不同地貌呈現(xiàn)的紋理差異也很明顯。

        稀疏表示問題源于Bruno A.Olshausen和David J.Field在《NATURE》上提出的自然圖像的稀疏編碼理論[1]。其理論表明自然圖像的稀疏編碼,類似于哺乳動(dòng)物初級(jí)視覺的簡(jiǎn)單細(xì)胞的工作原理。近年來(lái),稀疏表示在模式識(shí)別中也得到了很好的應(yīng)用。例如稀疏表示分類算法[2](SRC)方法,它直接將訓(xùn)練樣本作為字典,通過判斷測(cè)試樣本的相應(yīng)特征與訓(xùn)練字典中的各類系數(shù)重建結(jié)果的誤差來(lái)完成識(shí)別。SRC方法在人臉識(shí)別領(lǐng)域獲得了很好的應(yīng)用。在SRC方法的基礎(chǔ)上,國(guó)內(nèi)外一些學(xué)者通過增加不同類別子字典的約束條件,使其更好地進(jìn)行模式識(shí)別。文獻(xiàn)[3]和文獻(xiàn)[4]通過增加不同類子字典的不相關(guān)約束條件使每類的子字典盡可能相互獨(dú)立。文獻(xiàn)[5]提出的FDDL方法在字典學(xué)習(xí)中加入Fisher判別準(zhǔn)則,來(lái)提高字典的判別能力。文獻(xiàn)[6]提出的D?KSVD方法通過增加訓(xùn)練樣本預(yù)標(biāo)簽,與監(jiān)督學(xué)習(xí)相結(jié)合,使得字典學(xué)習(xí)具有類別判別能力。上述方法在人臉識(shí)別等模式識(shí)別應(yīng)用上取得了很好的識(shí)別性能,但其研究重心都是基于圖像塊的灰度特征。在人臉識(shí)別中,圖像塊特征可以較好地表示人臉的全局信息,但其在紋理分割應(yīng)用難以準(zhǔn)確表示紋理的局部信息。

        針對(duì)上述問題,本文提出一種基于Gabor特征的稀疏表示分割方法。該方法通過對(duì)訓(xùn)練樣本增加預(yù)標(biāo)簽,將稀疏表示過程與有監(jiān)督學(xué)習(xí)過程相結(jié)合,使得字典學(xué)習(xí)具有類別判別能力。同時(shí)考慮到Gabor特征較好地模擬了人類視覺系統(tǒng)的視覺感受,是一種強(qiáng)大的紋理特征提取方法,其很好地表示圖像的紋理信息。所以將Gabor特征引入稀疏表示分類方法中,以提高算法的識(shí)別率和魯棒性。本文對(duì)Brodatz紋理圖像進(jìn)行分割實(shí)驗(yàn),將圖像塊像素的灰度級(jí)聯(lián)為特征做對(duì)照實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明基于Gabor特征的稀疏表示分割方法進(jìn)一步提高了分割效果。

        1 相關(guān)工作與背景

        1.1 稀疏表示

        1996年Bruno A.Olshausen和David J.Field在《NATURE》上首次提出了自然圖像的稀疏編碼[2],其很好地解釋了哺乳動(dòng)物初級(jí)視覺的簡(jiǎn)單細(xì)胞工作原理。稀疏表示是指,對(duì)于一個(gè)給定信號(hào)或圖像Y,其在一組過完備基D上有一個(gè)稀疏的表示。它的形式如下:

        [Y=Dα, D∈Rm×n, m?n] (1)

        稀疏表示問題就是要求解向量x,使x的非零項(xiàng)盡可能少。問題定義如下:

        [minα0 s.t. Dα=Y] (2)

        該問題是0范數(shù)最優(yōu)化問題。1997年Gorodnitsky和Rao證明了在[σ(D)≥2α0]條件下,式(2)有惟一解[7],[σ(D)]為最小的線性相關(guān)的列向量所含的向量個(gè)數(shù),但上述問題仍是個(gè)NP問題。2006年Candes和Tao證明了當(dāng)滿足條件RIP,0范數(shù)最優(yōu)化問題與1范數(shù)問題的解一致:

        [minα1 s.t. Dα=Y] (3)

        而1范數(shù)優(yōu)化問題是凸優(yōu)化問題,故有惟一解。當(dāng)引入重建誤差[ε],式(2)可以寫成:

        [minY-Dα22+λα1 s.t.α

        1.2 稀疏表示分類

        稀疏表示分類方法是基于測(cè)試樣本可以表示為訓(xùn)練樣本的加權(quán)線性組合這一先驗(yàn)。假設(shè)有c個(gè)類別,字典為D=[D1,D2,…,DC],其中Di 為第i類子字典,其由第i類訓(xùn)練樣本組成。

        通過1范數(shù)對(duì)測(cè)試樣本y進(jìn)行稀疏表示:

        [α=argminxy-Dα22+λα1] (5)

        計(jì)算第i類的重構(gòu)誤差:

        [riy=y-Dδiα2] (6)

        [δiα]僅保留稀疏向量[α]中第i類的系數(shù)。最后通過公式(7)進(jìn)行分類。

        [identityy=argminiriy] (7)

        1.3 字典學(xué)習(xí)

        通過字典學(xué)習(xí),可以使得字典對(duì)信號(hào)或圖像具有更強(qiáng)的表示能力,減少重構(gòu)誤差。通常對(duì)于一個(gè)信號(hào)或圖像,需要通過字典學(xué)習(xí)算法來(lái)獲得其完備字典。常用的字典學(xué)習(xí)算法有MOD[8]、K?SVD[9]、online[10]算法。

        K?SVD算法是求解如下最優(yōu)化問題:

        [minD,αY-Dα2F s.t.?i,xi0≤T] (8)

        K?SVD算法步驟如下:

        輸入:數(shù)據(jù)樣本[Y=y1,y2,…,yN∈Rd×N]

        列規(guī)范化的初始字典[D=d1,d2,…,dk∈Rd×k]

        Step1:稀疏編碼,利用OMP算法求解以下優(yōu)化問題:

        [minαy-Dα22+λα1 s.t.α

        Step2:字典更新,對(duì)于字典中的每一個(gè)原子[dk]和相應(yīng)的稀疏表示系數(shù)[αk],求解以下優(yōu)化問題:

        [argmindk,αkEk-dkαk2]

        式中[Ek=Y-i≠kdiαi]為誤差矩陣。通過SVD求解這個(gè)一階近似問題,使得[UΔVT=SVDEk],更新[dk]成U的第1列,更新[αk],成V的第1行乘以[Δ1,1],即:

        [dk′=U:,1,αk′=Δ1,1V1,:]

        Step3:返回Step2,直到收斂。

        1.4 判別字典學(xué)習(xí)

        文獻(xiàn)[7]提出的D?KSVD方法,并將該方法應(yīng)用于人臉識(shí)別問題。但是K?SVD算法在字典學(xué)習(xí)過程中只考慮了重建誤差和稀疏度,如果僅根據(jù)其重建誤差和稀疏度來(lái)進(jìn)行分類,效果并不理想。D?KSVD在K?SVD算法基礎(chǔ)上加入了線性分類器[H=Wα+b],根據(jù)經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化理論,該分類器應(yīng)該滿足:

        [W,b=argminW,b=H-Wα-b2+βW2] (9)

        式中H中的每1列,hi=[0,0,…,1,…,0,0],只有一個(gè)項(xiàng)的系數(shù)為1,其位置表示分類結(jié)果。

        將判別項(xiàng)加入K?SVD算法中,構(gòu)成以下最優(yōu)化問題:

        [D,W,α=argminD,W,αY-Dα2+γH-Wα2+βW2 s.t.α0≤T] (10)

        式中:Y是輸入信號(hào);H是其對(duì)應(yīng)的標(biāo)簽;D是字典;W是分類器;[α]是稀疏系數(shù);[γ]和[β]是權(quán)重系數(shù)。參考K?SVD的字典學(xué)習(xí)算法,式(10)可以寫成如下形式:

        [D,W,α=argminD,W,α Yγ*H- Dγ*W*α2+βW2s.t. α0≤T] (11)

        由于在K?SVD算法中,字典[ Dγ*W]是規(guī)范化的,所以可以省略正則項(xiàng)[W2],從而最優(yōu)化問題可以簡(jiǎn)化為:

        [D,W,α=argminD,W,α Yγ*H- Dγ*W*αs.t. α0≤T] (12)

        在D?KSVD算法中,字典D和相應(yīng)的分類器W需要聯(lián)合歸一化,歸一化字典[D′]和相應(yīng)的分類器[W′]計(jì)算方式如下:

        [D′=d1′,d2′,...,dk′=d1d12,d2d22,...,dkdk2W′=w1′,w2′,…,wk′=w1w12,w2w22,…,wkwk2] (13)

        2 基于Gabor特征的稀疏表示紋理分割

        稀疏表示的分割算法把圖像分割問題轉(zhuǎn)換成對(duì)圖像像素點(diǎn)分類的問題,其關(guān)鍵就是提取合適的特征和構(gòu)建稀疏表示的分類方法。

        D?KSVD算法以大小[n×n]的圖像塊作為處理單元,圖像塊所有灰度值作為特征向量。在圖像重建和圖像去噪中,該特征能有效地表示圖像本身,有利于圖像的表示。但該圖像的灰度特征并沒有很強(qiáng)的判別信息,這就導(dǎo)致了在使用圖像塊的灰度特征進(jìn)行紋理分割時(shí)效果并不理想。而Gabor特征是一種重要的紋理特征提取方法。所以將Gabor特征引入D?KSVD算法進(jìn)行研究。

        基于Gabor特征的D?KSVD算法分可以為兩個(gè)部分,第一部分是從每類紋理圖像選擇一些像素點(diǎn)作為訓(xùn)練樣本,計(jì)算這些像素點(diǎn)的Gabor特征以及樣本的類別標(biāo)簽信息,通過D?KSVD算法訓(xùn)練得到Gabor字典G和分類器W。對(duì)字典G和分類器W進(jìn)行歸一化,得到[G′]和[W′];第二部分以待分割圖像的每個(gè)像素點(diǎn)作為測(cè)試樣本,計(jì)算其Gabor特征。利用OMP算法得到測(cè)試樣本在字典[G′]下的稀疏系數(shù)[α],根據(jù)[H=W′α]得到測(cè)試樣本的類別標(biāo)簽。根據(jù)類標(biāo)簽對(duì)像素點(diǎn)進(jìn)行分類,最后完成分割。

        2.1 Gabor特征提取

        2?D Gabor小波變換是一種重要的基于頻譜的紋理特征提取方法。Gabor小波變換實(shí)現(xiàn)了對(duì)紋理圖像不同方向和尺度下的特征提取[2]。

        假設(shè)[fx,y]表示為[M×N]的圖像,則該圖像的2維離散Gabor小波變換可以定義為:

        [I(x,y)=fx,y?hx,y] (14)

        式中[Ix,y]是其濾波輸出。

        [hx,y]是2維Gabor函數(shù),其是一個(gè)被復(fù)正弦函數(shù)調(diào)制的高斯函數(shù),可表示為:

        [hx,y=gx,yexpj2πUx+Vy] (15)

        式中:(U,V)表示特定的空間頻率;g(x,y)為高斯函數(shù),可表示為:

        [gx,y=12πλσ2exp-xλ2+y22σ2] (16)

        式中:[σ]是空間放縮系數(shù),控制濾波器脈沖響應(yīng)的寬度;[λ]確定了濾波器的長(zhǎng)寬比,確定濾波器的朝向。

        p個(gè)方向和q個(gè)尺度的Gabor小波變換分別與圖像進(jìn)行卷積,得到p×q個(gè)Gabor圖像。Gabor圖像中,點(diǎn)(m,n)所對(duì)應(yīng)的值可以反應(yīng)該位置的能量信息, 但是采用能量信息容易造成分類誤差。所以本文采用以(m,n)為中心,大小w×w塊的均值和標(biāo)準(zhǔn)差作為紋理特征。尺度為p方向?yàn)閝的均值和標(biāo)準(zhǔn)差表示如下:

        [μp,qm,n=xyIp,qm,nw×wσp,qm,n=xyIp,qm,n-μp,qm,nw×w2] (17)

        在稀疏表示框架下,假設(shè)用T表示像素點(diǎn)(m,n)的Gabor特征向量,則T可以表示為:

        [T=μ0,0,σ0,0,…,μP-1,Q-1,σP-1,Q-1] (18)

        Gabor特征向量T的構(gòu)造流程如圖1所示。

        2.2 稀疏表示分割

        本文將訓(xùn)練樣本提取的Gabor特征作為初始化字典。Gabor特征字典G=[G1,G2,…,GC],Gi表示第i類訓(xùn)練樣本的Gabor子字典,分割的算法步驟如下所示:

        輸入:待分割圖像I。

        (1) 分別對(duì)每類紋理隨機(jī)提取m個(gè)像素點(diǎn)作為訓(xùn)練樣本X,以圖像中每個(gè)像素點(diǎn)為測(cè)試樣本。訓(xùn)練樣本的類別標(biāo)簽為H。

        圖1 提取Gabor特征的流程圖

        (2) 計(jì)算每塊的p個(gè)尺度,q個(gè)方向的Gabor特征。

        (3) 用KSVD算法對(duì)訓(xùn)練樣本X作字典學(xué)習(xí),得到字典G和稀疏系數(shù)α。

        (4) 根據(jù)類別標(biāo)簽Ls和系數(shù)α、初始化:

        [W=αTα+β*E-1*α*H]

        (5) 構(gòu)造[ Xγ*H]和[ Gγ*W]進(jìn)行D-KSVD字典學(xué)習(xí);

        (6) 對(duì)字典和權(quán)值矩陣歸一化得到[G′]和[W′],利用OMP算法得到測(cè)試樣本在字典[G′]的稀疏表示系數(shù)[α′];

        (7) 根據(jù)求得的[α′]計(jì)算[l=W′*α′],得到測(cè)試樣本的類別標(biāo)簽。

        3 實(shí)驗(yàn)結(jié)果與分析

        為了證明將Gabor特征引入D?KSVD分類框架方法的有效性,本文對(duì)50幅雙紋理和三紋理圖像進(jìn)行分割實(shí)驗(yàn)。其中圖像尺寸為300×300像素,紋理圖像由Brodatz紋理圖像隨機(jī)混合而成。Brodatz紋理庫(kù)包含17類紋理,29張紋理圖像,其中12類紋理包含2種光照下的圖像。隨機(jī)選取紋理進(jìn)行合成。程序運(yùn)行環(huán)境Matlab 2012b, 硬件配置是Intel(R) Core(TM) i5?3230M CPU@2.6 GHz和4 GB內(nèi)存。實(shí)驗(yàn)選擇4個(gè)尺度、4個(gè)方向分別對(duì)Brodatz圖像進(jìn)行Gabor變換。每類紋理的訓(xùn)練樣本數(shù)為100。實(shí)驗(yàn)首先對(duì)雙紋理圖像進(jìn)行分割,圖2為其中兩組實(shí)驗(yàn)的分割結(jié)果。圖2(a)為Brodatz紋理圖像。圖2(b)為本文方法的分割結(jié)果,圖2(c)為基于Gabor特征的SRC算法,圖2(d)為SRC算法,圖2(e)~(g)分別是圖像塊大小為3×3,5×5,7×7時(shí)的D?KSVD算法。可以看出,不管是SRC方法還是D?KSVD方法,傳統(tǒng)的基于圖像塊特征稀疏表示方法的分割正確率很低,存在明顯的錯(cuò)分。引入Gabor特征,極大改善了紋理圖像的分割效果。而GD?KSVD與GSRC相比,進(jìn)一步提高了分割正確率。說明了通過D?KSVD字典學(xué)習(xí),字典的判別能力得到了增強(qiáng)。

        圖2 雙紋理圖像分割結(jié)果比較

        此外,還對(duì)三紋理圖像進(jìn)行了分割,見圖3。從兩組分割結(jié)果可以看出,本文方法與GSRC算法相比,邊緣分割效果更好。

        圖3 三紋理圖像分割結(jié)果比較

        圖3(a)為原始圖像,(b)為本文方法,(c)為GSRC算法,(d)為SRC算法,(e)為圖像塊大小為3×3的D?KSVD算法,(f)為圖像塊大小為5×5的D?KSVD算法,(g)為圖像塊大小為7×7的D?KSVD算法。

        圖4(a)、圖4(b)分別為50組雙紋理圖像和三紋理圖像實(shí)驗(yàn)分割正確率的結(jié)果對(duì)比。表3列出了各算法分割正確率的均值及標(biāo)準(zhǔn)差。從中不難看出,基于Gabor特征的稀疏表示紋理分割方法對(duì)雙紋理圖像的平均正確率高達(dá)98.49%,三紋理圖像的平均正確率為96.65%。比單純采用圖像塊特征的D?KSVD方法提高了近20%,而從實(shí)驗(yàn)標(biāo)準(zhǔn)差看出,與GSRC算法相比,本文方法穩(wěn)定性和魯棒性更好。

        圖4 雙紋理和三紋理圖像分割實(shí)驗(yàn)

        表1 分割正確率比較

        4 結(jié) 語(yǔ)

        稀疏表示和字典學(xué)習(xí)是近些年來(lái)圖像領(lǐng)域內(nèi)研究的熱點(diǎn)。多數(shù)應(yīng)用以圖像塊作為分類的特征。本文提出一種基于Gabor特征的稀疏表示分割方法。在判別字典學(xué)習(xí)的基礎(chǔ)上,引入圖像的Gabor特征,在降低字典規(guī)模的同時(shí),保證算法的識(shí)別率和魯棒性。本文對(duì)雙Brodatz紋理和三Brodatz紋理圖像的進(jìn)行分割實(shí)驗(yàn),并與圖像塊為特征的D?KSVD方法作對(duì)照實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明基于Gabor特征的稀疏表示分割效果明顯提高。實(shí)驗(yàn)結(jié)果中以Gabor特征進(jìn)行紋理分割的邊緣存在一定的錯(cuò)分。同時(shí)隨著類別數(shù)的增加,紋理邊緣區(qū)域的錯(cuò)分概率增加。在不增加字典規(guī)模的同時(shí),如何提高字典各類子字典之間的奇異性以及改善算法對(duì)紋理邊緣的判別能力,將基于Gabor特征的稀疏表示分割方法推廣到更多紋理的情況,將是未來(lái)工作的重點(diǎn)。

        參考文獻(xiàn)

        [1] OLSHAUSEN B A, FIELD D J. Emergence of simple?cell receptive field properties by learning aspase code for natural images [J]. Nature, 1996, 381: 607?609.

        [2] WRIGHT J, YANG A Y, GANESH A, et al, Robust face recognition via sparse representation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210?227.

        [3] RAMIREZ I, Sprechmann P, SAPIRO G. Classification and clustering via dictionary learning with structured incoherence and shared features [C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, CA, USA: IEEE, 2010: 3501?3508.

        [4] MAIRAL J, BACH F, PONCE J, at al. Discriminative learned dictionaries for local image analysis [C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, Alaska, USA: IEEE, 2008: 1?8.

        [5] YANG M, ZHANG L, FENG X C. Fisher discrimination dictionary learning for sparse representation [C]// Proceedings of IEEE International Conference on Computer Vision. Barcelona, Spain: ICCV, 2011: 6?13.

        [6] ZHANG Qiang, LI Bao?xin. Discriminative K?SVD for dictionary learning in face recognition [C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, CA, USA: IEEE, 2010: 2691?2698.

        [7] IRINA F G, BHASKAR D R. Sparse signal reconstruction from limited data using focus: a re?weighted minimum norm algorithm [J]. IEEE Transactions on Signal Processing, 1997, 45(3): 600?616.

        [8] ENGAN K, AASE S O, HUSOY J H. Multi?frame compression: theory and design [J]. EURASIP Signal Processing, 2000, 80(10): 2121?2140.

        [9] AHARON M, ELAD M, BRUCKSTEIN A. KSVD: An algorithm for designing overcomplete dictionaries for sparse representation [J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311?4322.

        [10] MAIRAL J, BACH F, PONCE J, at al. Online dictionary learning for sparse coding [C]// Proceedings of the 26th International Conference on Machine Learning. Montreal, QC, Canada: ICML, 2009: 689?696.

        [11] 胡正平,徐波,白洋.Gabor特征集結(jié)合判別式字典學(xué)習(xí)的稀疏表示圖像識(shí)別[J].中國(guó)圖象圖形學(xué)報(bào),2013,18(2):189?194.

        [12] 宋長(zhǎng)新,馬克,秦川,等.結(jié)合稀疏編碼和空間約束的紅外圖像聚類分割研究[J].物理學(xué)報(bào),2013,62(4):1?10.

        [13] 徐建,常志國(guó),趙小強(qiáng).以圖像分類為目標(biāo)的字典學(xué)習(xí)算法[J].現(xiàn)代電子技術(shù),2013,36(2):22?25.endprint

        猜你喜歡
        稀疏表示
        耦合了聚類中心約束項(xiàng)的稀疏表示圖像去噪
        CSRimpute算法填補(bǔ)效果的正則化參數(shù)靈敏度分析
        Grouplet變換原理及技術(shù)綜述
        基于稀疏表示的圖像去噪和超分辨率重建
        基于字典學(xué)習(xí)和結(jié)構(gòu)聚類的圖像去噪算法研究
        分塊子空間追蹤算法
        基于稀疏表示的人臉識(shí)別方法研究
        基于稀疏表示的人臉表情識(shí)別系統(tǒng)研究
        基于壓縮感知的圖像融合方法
        電子技術(shù)與軟件工程(2015年6期)2015-04-20 16:58:03
        国产精品成人无码久久久久久| 一区二区三区在线视频免费观看| 成人国产自拍在线播放| 国产精品后入内射日本在线观看| 免费的小黄片在线观看视频| 国产精品videossex久久发布 | 日韩av一区二区网址| 97久久精品人妻人人搡人人玩 | 日本一区二区在线免费视频| 精品一区二区三区免费视频| 欧美日韩亚洲tv不卡久久| 亚洲精品6久久久久中文字幕| 精品一区二区三区长筒靴| 中文字幕34一区二区| 亚洲精品一区二区三区麻豆| 国产真人性做爰久久网站| 国产午夜亚洲精品理论片不卡| 亚洲嫩模一区二区三区视频| 中文字幕人妻互换激情 | 国产成人免费一区二区三区| 欧美日韩亚洲一区二区精品| 国产精品一级黄色大片| 日韩一区二区三区久久精品| 久久精品aⅴ无码中文字字幕| 国产suv精品一区二人妻| 69天堂国产在线精品观看| 亚洲天堂一二三四区在线| 日本中文一区二区在线| 九九久久99综合一区二区| 久久久久亚洲av无码观看| 日本精品久久久久中文字幕1| 日韩一区三区av在线| 成 人色 网 站 欧美大片在线观看| 强行无套内谢大学生初次| 亚洲欧美日韩中文字幕网址| 69精品人妻一区二区| 免费在线观看播放黄片视频| 激情综合丁香五月| 无码日韩人妻AV一区免费 | 国产偷国产偷亚洲高清| 亚洲综合色区一区二区三区|