亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于核稀疏表示和AdaBoost算法的自然場(chǎng)景識(shí)別

        2016-09-14 09:17:44陸迎曙賈林虎
        電子設(shè)計(jì)工程 2016年2期
        關(guān)鍵詞:特征模型

        陸迎曙,賈林虎

        (河海大學(xué) 計(jì)算機(jī)與信息學(xué)院,江蘇 南京 211100)

        基于核稀疏表示和AdaBoost算法的自然場(chǎng)景識(shí)別

        陸迎曙,賈林虎

        (河海大學(xué) 計(jì)算機(jī)與信息學(xué)院,江蘇 南京211100)

        為了提升自然場(chǎng)景圖像的識(shí)別精度,結(jié)合bag-of-visual word模型,提出了一種基于核稀疏表示的圖像識(shí)別方法。該方法的圖像描述部分主要利用核稀疏表示在高維度空間進(jìn)行圖像特征的匹配表示,識(shí)別部分采用AdaBoost分類(lèi)器,對(duì)各個(gè)類(lèi)別編碼并在對(duì)應(yīng)的核矩陣上進(jìn)行劃分,從而實(shí)現(xiàn)多類(lèi)場(chǎng)景圖像的識(shí)別能力。實(shí)驗(yàn)結(jié)果表明,該方法有效的提升了圖像描述的準(zhǔn)確度與對(duì)自然場(chǎng)景圖像識(shí)別的精度。

        bag-of-visual words模型;核稀疏表示;AdaBoost分類(lèi)器;自然場(chǎng)景識(shí)別

        圖像描述模型bag-of-visual words(BOVW)在圖像分類(lèi)與識(shí)別中有著廣泛的應(yīng)用。該模型通過(guò)提取圖像的SIFT特征[1]利用聚類(lèi)算法生成字典,進(jìn)而使得圖像形成統(tǒng)一的字典表示。然而,這種方法未能考慮圖像特征的空間信息和有效匹配的方式,在應(yīng)對(duì)于較多類(lèi)圖像時(shí)其識(shí)別性能低下。因此,如果能充分挖掘SIFT特征的空間位置信息與匹配信息,能夠有效地提升模型的分類(lèi)識(shí)別能力。

        目前針對(duì)提升圖像分類(lèi)識(shí)別性能的研究主要集中在圖像描述模型和分類(lèi)器算法這兩個(gè)方面。文獻(xiàn)[2]提出了空間金字塔匹配模型(SPM)來(lái)增加SIFT特征的空間位置信息,該模型在BOVW的基礎(chǔ)上對(duì)圖像遞增式劃分成若干子塊從而形成具備空間信息的圖像空間金字塔描述。文獻(xiàn)[3]指出BOVW模型中的聚類(lèi)算法不能有效的抓取圖像的差異特征,所以提出了稀疏表示的方法來(lái)增強(qiáng)圖像的字典表達(dá)能力。與此同時(shí),核函數(shù)的方法在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了優(yōu)異成績(jī),它通過(guò)將特征向量映射到高維度的特征空間進(jìn)行相似度匹配,從而獲得在低維度空間不能取得的特征重構(gòu)表示。性能較為優(yōu)異的分類(lèi)器算法,主要有線性的支持向量機(jī)(SVM)和AdaBoost算法,其中AdaBoost算法利用若干弱分類(lèi)器的級(jí)聯(lián)實(shí)現(xiàn)與SVM較為接近的分類(lèi)識(shí)別性能,有著顯著的優(yōu)越性。

        1 空間金字塔模型

        空間金字塔模型是基于BOVW發(fā)展而來(lái)的具備空間位置描述能力的圖像描述模型。在本文所提出的模型中(如圖1所示),首先提取所有圖像的SIFT特征,通過(guò)聚類(lèi)算法生成一個(gè)長(zhǎng)度為K的字典,然后將每個(gè)圖像按照1×1,2×2,4×4劃分成3層圖像子塊如圖2,并為各層賦權(quán)值,根據(jù)文獻(xiàn)[2]本文中的空間金字塔1-3層的權(quán)重依次為1/4,1/4,1/2。對(duì)每個(gè)子塊的特征進(jìn)行字典表達(dá)后,采用最大匯聚方法并串聯(lián)成21K長(zhǎng)度的字典表示。假定一個(gè)圖像有M個(gè)SIFT特征,該圖像可以表示為則字典系數(shù)矩陣則最大匯聚方法可表示為

        其中r∈R1×(21K)為該圖像的空間金字塔向量表示。

        2 核稀疏表示

        傳統(tǒng)的BOVW模型中,K-MEANS算法被應(yīng)用于圖像特征的聚類(lèi)從而生成長(zhǎng)度為K的字典,相應(yīng)字典表達(dá)同樣采用向量量化(VQ)的方法,即求得圖像特征與字典詞匯間的最小歐氏距離,并計(jì)算字典的統(tǒng)計(jì)直方圖得到圖像的字典表達(dá)。然而這種方法,一方面未考慮到歐式距離并不適合作為統(tǒng)計(jì)特征SIFT的相識(shí)度準(zhǔn)則,另一方面,VQ不能充分表達(dá)圖像的差異化特征。為了減少特征編碼過(guò)程中的信息損失,稀疏表示(SC)被提出來(lái)學(xué)習(xí)更加稀疏且更具鑒別性的特征編碼。

        圖1 模型總體結(jié)構(gòu)圖Fig.1 Structure diagram of the proposed model

        圖2 空間金字塔映射示意圖Fig.2 Schematic diagram of spatial pyramid mapping

        其中λ≥0是常量稀疏性系數(shù),‖·‖2,‖·‖1分別是L1,L2約束。值得注意的是這里的稀疏字典是過(guò)完備的,即K>D。生成稀疏字典后,稀疏編碼可重寫(xiě)為:

        然而文獻(xiàn)[4]指出學(xué)習(xí)一個(gè)高維度、過(guò)完備的稀疏字典是極其耗費(fèi)計(jì)算資源與時(shí)間的,同時(shí)文獻(xiàn)[5]經(jīng)實(shí)驗(yàn)得出通過(guò)某種聚類(lèi)算法得到固定字典作為稀疏字典同樣能取得不錯(cuò)的效果。因此,文中提出應(yīng)用K-MEANS++聚類(lèi)[6]算法來(lái)替代等式(2)學(xué)習(xí)稀釋字典。

        與此同時(shí),由于核函數(shù)的非線性生成性能與其在計(jì)算機(jī)視覺(jué)領(lǐng)域的成功應(yīng)用,文獻(xiàn)[7]引入了核作為特征的相識(shí)度匹配方法,提出了核稀疏表示。核稀疏表示的方法是通過(guò)將輸入特征與字典基同時(shí)映射到高維或無(wú)限維的特征空間F中進(jìn)行相似度匹配從而得到更具鑒別性的稀疏系數(shù)。假定φ(·)是映射函數(shù),則,φ(U)∈RN×H,φ(x)∈RN×H(H?D)分別作為映射后的特征集與稀疏字典。這樣等式(3)可重寫(xiě)為:

        同時(shí),可改寫(xiě)為:

        等式(5)似乎可以通過(guò)正交匹配追蹤算法(OMP)來(lái)得到稀疏系數(shù)v,但是正如文獻(xiàn)[8]所指出的,直接優(yōu)化解決等式(5)是不現(xiàn)實(shí)的。一方面,如果特征空間F已知,由于映射后的特征維度H?D,等式(5)計(jì)算復(fù)雜度將遠(yuǎn)超與于等式(4);另一方面,如果特征空間F未知,φ(U)和φ(X)并不能顯性地得到。所幸的是,通過(guò)核函數(shù)的方法可以間接地在特征空間F進(jìn)行特征的相似度匹配,所以等式(5)可改寫(xiě)為:

        其中ξ為重構(gòu)殘差,上式等價(jià)于

        其中Y=(K(x,U))1×K=φ(x)φ(U)T,Q=(K(ui,uj))K×K=φ(U)φ(U)T,K(·,·)為mercer核函數(shù)。由于文獻(xiàn)[9]指出對(duì)于SIFT這樣的統(tǒng)計(jì)特征,直方圖相交核(HIK)相比于其他基于歐式距離的核函數(shù)更加有效,所以本文選取HIK作為核稀疏表示的核函數(shù)。最后對(duì)等式(6)通過(guò)OMP算法即可得到稀疏系數(shù)V。

        3 AdaBoost分類(lèi)算法

        AdaBoost是自適應(yīng)的boosting算法,該分類(lèi)器通過(guò)訓(xùn)練若干弱分類(lèi)器,并將弱分類(lèi)器結(jié)果進(jìn)行有權(quán)重的統(tǒng)計(jì)得到最終分類(lèi)結(jié)果。在訓(xùn)練過(guò)程中,先將樣本分為正負(fù)兩類(lèi),并等值化樣本權(quán)重,然后根據(jù)若分類(lèi)器的錯(cuò)誤率來(lái)賦予各自的權(quán)重(錯(cuò)誤率越大,對(duì)應(yīng)的分類(lèi)器權(quán)重越?。M瑫r(shí)更新訓(xùn)練樣本權(quán)重,使得正確分類(lèi)的樣本權(quán)重降低而錯(cuò)分樣本的權(quán)重升高,這樣經(jīng)過(guò)若干次迭代,直到訓(xùn)練錯(cuò)誤率為0或弱分類(lèi)器的數(shù)量達(dá)到預(yù)設(shè)值為止。

        為了使上述二元分類(lèi)器應(yīng)用于多類(lèi)樣本的識(shí)別問(wèn)題,本文采用類(lèi)別編碼的方式,引入L個(gè)二元Adaboost分類(lèi)器,則H類(lèi)類(lèi)別編碼長(zhǎng)度為L(zhǎng)(L≥H)且需各不相同。若有4類(lèi)待識(shí)別樣本C1,C2,C3,C4,通過(guò)6個(gè)二元AdaBoost分類(lèi)器,編碼可為:

        該矩陣的每行對(duì)應(yīng)類(lèi)的類(lèi)標(biāo)編碼,其中0表示負(fù)樣本,1為正樣本,需要注意的是每類(lèi)編碼必須同時(shí)包含正負(fù)碼。當(dāng)未知樣本輸入該多類(lèi)分類(lèi)器后,分別計(jì)算輸出碼字與上述編碼的漢明距離,這個(gè)樣本就被分為距離最小的類(lèi)別中。

        AdaBoost分類(lèi)器的傳統(tǒng)應(yīng)用是在圖像經(jīng)過(guò)本文圖像描述模型生成空間金字塔向量上直接訓(xùn)練并劃分類(lèi)別。然而由于核函數(shù)方法的優(yōu)異性能與廣泛應(yīng)用,本文再次采用核向量來(lái)代替空間金字塔向量表示。假定訓(xùn)練圖像的空間金字塔向量表示為,測(cè)試圖像為,經(jīng)過(guò)核函數(shù)匹配后的訓(xùn)練圖像表示為T(mén)a=K(Ra, Ra)∈RNa×Na

        測(cè)試圖像為T(mén)e=K(Re,Re)∈RNe×Ne。這樣,將Ta,Te分別替代原先的訓(xùn)練與測(cè)試圖像向量集輸入AdaBoost分類(lèi)器中,使之能夠在核空間完成分類(lèi)識(shí)別任務(wù)。

        4 實(shí)驗(yàn)結(jié)果與分析

        文中的實(shí)驗(yàn)數(shù)據(jù)集采取文獻(xiàn)[2]所提供的15類(lèi)場(chǎng)景圖像集(如圖 3所示)。訓(xùn)練圖像每類(lèi)為50張,并在剩余的每類(lèi)圖像中各選取100張作為測(cè)試圖像集。設(shè)定OMP算法中的重構(gòu)殘差ξ=0.001,核稀疏表示中的核函數(shù)為HIK,分類(lèi)器中的核函數(shù)為高斯核函數(shù)(GK),二元分類(lèi)器的個(gè)數(shù)為L(zhǎng)=30,隨機(jī)選取15個(gè)符合條件的編碼作為類(lèi)標(biāo)編碼。

        圖3 15類(lèi)場(chǎng)景圖像集Fig.3 Examples of 15 scene categories

        在圖像描述階段,分別采用傳統(tǒng)的BOVW,SPM和文中提出的核稀疏表示的SPM完成圖像的向量表示;在圖像分類(lèi)識(shí)別階段,前兩種模型分別采用線性核(LK)與HIK的SVM分類(lèi)器。字典長(zhǎng)度分別為100,200,300,400,500。將訓(xùn)練圖像集帶入模型完成訓(xùn)練,然后將測(cè)試圖像集輸入已訓(xùn)練好的模型中。采取平均識(shí)別率(AP)作為衡量性能的標(biāo)準(zhǔn),實(shí)驗(yàn)結(jié)果如表1所示。

        其中wt表示識(shí)別正確的樣本總數(shù),W為實(shí)驗(yàn)樣本總數(shù)。

        表1 傳統(tǒng)模型與文中模型的識(shí)別率結(jié)果Tab.1 Recognition accuracy results of the traditional models and the proposed model

        當(dāng)稀疏字典長(zhǎng)度L固定為200時(shí),計(jì)算實(shí)驗(yàn)圖像集中各類(lèi)的正確識(shí)別率,實(shí)驗(yàn)結(jié)果表2所示。

        從表1中可以看出文中在相同字典長(zhǎng)度的條件下,所提出的識(shí)別模型的正確識(shí)別率遠(yuǎn)超傳統(tǒng)圖像識(shí)別模型,其最高識(shí)別率達(dá)到了89.4%。由此可見(jiàn),文中提出的圖像識(shí)別模型能夠?qū)ψ匀粓?chǎng)景圖像得到較好的識(shí)別效果。同時(shí),表2給出了L=200時(shí)每類(lèi)的正確識(shí)別率,看以從中得出采用本文模型的識(shí)別率,15類(lèi)實(shí)驗(yàn)圖像中有12類(lèi)的大于采用傳統(tǒng)模型的識(shí)別率,占到整個(gè)實(shí)驗(yàn)圖像集的80%,進(jìn)一步驗(yàn)證了本文所提出模型的突出性能。

        5 結(jié) 論

        文中針對(duì)自然場(chǎng)景圖像識(shí)別問(wèn)題,提出了一種基于核稀疏表示和AdaBoost分類(lèi)算法的圖像分類(lèi)識(shí)別模型。相較于其他模型,文中提出的圖像描述模型能夠通過(guò)核函數(shù)的方法在高維度特征空間完成特征的相似度匹配重構(gòu),減少了特征重構(gòu)過(guò)程中的信息損失,提升了圖像向量表示的鑒別性。通過(guò)對(duì)不同類(lèi)別的編碼與圖像向量表示的再次映射匹配,文中的AdaBoost分類(lèi)器能夠在核矩陣中進(jìn)行多類(lèi)別目標(biāo)的劃分。實(shí)驗(yàn)結(jié)果表明,本文所提出的圖像識(shí)別模型取得了較高的識(shí)別率,適合應(yīng)用于自然圖像的分類(lèi)識(shí)別。

        表2 傳統(tǒng)模型與文中模型的每類(lèi)正確識(shí)別率Tab.2 Recognition accuracy results of each category using traditional models and the proposed model

        [1]LOWE D G.Distinctive image features from scale-invariant keypoints[J].International journal of computer vision,2004,60(2):91-110.

        [2]Lazebnik S,Schmid C,Ponce J.Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories[J].Computer Vision and Pattern Recognition,2006:2169-2178.

        [3]YANG J C,YU K,GONG Y H,et al.Linear spatial pyramid matching using sparse coding for image classification[J].Computer Vision and Pattern Recognition,2009:1794-1801.

        [4]Lee H,Battle A,Raina R,et al.Efficient sparse coding algorithms[J].Advances in Neural Information Processing Systems,2006:801-808.

        [5]WANG J,YANG J,YU K,et al.Locality-constrained linear coding for image classification[J].Computer Vision and Pattern Recognition,2010:3360-3367.

        [6]Arthur D,Vassilvilskii S.k-means++:The advantages of careful seeding[J].Society for Industrial and Applied Mathematics,2007:1027-1035.

        [7]GAO S H,TANG I W,CHIA L T.Sparse representation with kernels[J].Image Processing,2013,22(2):423-434.

        [8]ZHANG L,ZHOU W D,CHANG P C,et al.Kernel sparse representation-based classifier[J].Signal Process,2012,60 (4):1684-1695.

        [9]Wu J X,REHG J M.Beyond the Euclidean distance:Creating effective visual codebooks using the histogram intersection kernel[J].Computer Vision,2009:630-637.

        Natural scene recognition based on kernel sparse representation and AdaBoost algorithm

        LU Ying-shu,JIA Lin-hu
        (College of Computer and Information,Hohai University,Nanjing 211100,China)

        In order to improve the accuracy of natural scene recognition,this paper combining with the model of bag-of-visual words proposes the method for image recognition based on the kernel sparse representation.The section of image description in the method mainly uses the kernel sparse representation to match the features of the images in the high-dimensionality feature space,and for the recognition section,AdaBoost classifier is adopted in which the categories are encoded for the ability of multi-categories recognition.Finally,the experimental results show the increasing effectiveness of the image description and the improvement of the recognition accuracy.

        bag-of-visual words;kernel sparse representation;AdaBoost classifier;natural scene recognition

        TN919.82

        A

        1674-6236(2016)02-0172-04

        2015-03-12稿件編號(hào):201503169

        陸迎曙(1992—),男,江蘇濱海人,碩士研究生。研究方向:信號(hào)與信息處理,數(shù)字圖像處理。

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀察
        重要模型『一線三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        精品国产亚洲av高清大片| 韩国一级成a人片在线观看| 无码国产精品一区二区免费式芒果 | 黑人巨大跨种族video| 97成人精品| av免费看网站在线观看| 蜜桃传媒网站在线观看| av无码av天天av天天爽| 国产精品无码日韩欧| 99在线无码精品秘 人口| 成人久久精品人妻一区二区三区| 女同性恋一区二区三区四区| 亚洲香蕉av一区二区三区| 国产高清在线精品一区app| 亚洲精品午睡沙发系列| 日韩a毛片免费观看| 青草青草伊人精品视频| 日本不卡不二三区在线看| 国产又黄又硬又粗| 精品国产三级在线观看| 亚洲AV秘 片一区二区三区| 国产亚洲精品精品综合伦理| 久久久精品一区aaa片| 久久免费视频国产| 999久久66久6只有精品| 国产特黄a三级三级三中国| 摸丰满大乳奶水www免费| 99久久国产综合精品麻豆| 完整在线视频免费黄片| 日韩精品视频在线观看无| 亚瑟国产精品久久| 午夜亚洲国产理论片亚洲2020| 97激情在线视频五月天视频| 亚洲精品久久国产精品| 国产成人综合在线视频| 国产不卡视频一区二区在线观看| 日本美女在线一区二区| 亚洲国产精品ⅴa在线观看| 日本韩国一区二区三区| 日韩精品午夜视频在线| 医院人妻闷声隔着帘子被中出 |