亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        詞袋模型中梯度方向離散精度閾值經(jīng)驗(yàn)分析

        2014-12-23 01:15:28生海迪段會川
        關(guān)鍵詞:分類實(shí)驗(yàn)模型

        生海迪,段會川,孔 超

        (1.山東師范大學(xué) 信息科學(xué)與工程學(xué)院,山東 濟(jì)南250014;2.山東師范大學(xué) 山東省分布式計(jì)算機(jī)軟件新技術(shù)重點(diǎn)實(shí)驗(yàn)室,山東 濟(jì)南250014)

        0 引 言

        目前,詞袋 (bag-of-words,BOW)模型應(yīng)用于圖像分類中仍存在分類精度不高的問題,優(yōu)化工作主要側(cè)重于其實(shí)現(xiàn)過程的各個(gè)階段。常規(guī)詞袋模型一般采用SIFT (scaleinvariant feature transform)特征作為描述子,但常規(guī)SIFT特征的提取需要構(gòu)造高斯差分空間并且需要進(jìn)一步檢測極值點(diǎn)[1-6],考慮到常規(guī)提取方法比較耗時(shí)并且忽略全局信息,本文采用面向稠密特征提取的可快速計(jì)算的局部圖像特征DAISY 描述子[7]。在特征提取過程中,梯度方向直方圖的維數(shù)即梯度方向離散精度的選取非常重要,常規(guī)詞袋模型中梯度方向離散精度一般選取為8[8-10],但是此精度構(gòu)造的詞袋模型分類效果并非最佳,若能確定一個(gè)最合適的精度不僅可以避免選擇時(shí)的盲目性,而且還可以構(gòu)造出最佳的詞袋模型,提高應(yīng)用詞袋模型分類的效果。

        本文通過大量基于不同分塊下選取不同離散精度進(jìn)行實(shí)驗(yàn)分析研究,找到了在構(gòu)造詞袋模型過程中梯度方向離散精度閾值,利用該閾值構(gòu)造的詞袋模型在進(jìn)行分類時(shí)能得到最佳的分類效果,同時(shí)還能避免選擇時(shí)的盲目性。

        1 基于DAISY特征描述的詞袋模型

        常規(guī)詞袋模型是通過構(gòu)建多尺度差分空間生成SIFT 描述子,將這些描述子進(jìn)行聚類來構(gòu)造的,但是構(gòu)造多尺度計(jì)算復(fù)雜容易造成運(yùn)算速度過慢,同時(shí)還會得到過多的極值點(diǎn),有些極值點(diǎn)并無太多的視覺信息進(jìn)而會影響最后的分類正確性。DAISY 是面向稠密特征提取的可快速計(jì)算的局部圖像特征描述子,它的本質(zhì)思想和SIFT 是一樣的,通過分塊來統(tǒng)計(jì)梯度方向直方圖,但DAISY 相較于SIFT 在分塊策略上進(jìn)行了改進(jìn),利用高斯卷積的可快速計(jì)算性來進(jìn)行梯度方向直方圖的分塊匯聚。DAISY 的這種特性使其不僅在運(yùn)算速度上高于SIFT 而且還能在一定程度上兼顧圖像的全局信息。

        本文在基于DAISY 特征描述的基礎(chǔ)上構(gòu)造詞袋模型,大致分為以下4步:

        步驟1 將圖像利用網(wǎng)格劃分得到相同大小的特征塊(block),并且塊與塊之間采用重疊方式,每個(gè)特征塊的中心位置作為一個(gè)特征點(diǎn),通過同一個(gè)特征塊里的所有像素點(diǎn)來形成該特征點(diǎn)的DAISY 描述子。

        步驟2 將步驟1中得到的每幅圖像特征點(diǎn)的DAISY描述子利用K-means進(jìn)行聚類,聚類后形成詞典,每個(gè)聚類中心對應(yīng)詞典中的一個(gè)單詞。

        步驟3 詞典生成后,統(tǒng)計(jì)每幅圖像對應(yīng)詞典中的單詞出現(xiàn)的頻率,將每幅圖像映射成一個(gè)K 維的圖像描述向量,其中K 為聚類數(shù)目,即詞袋模型中單詞總數(shù)[11]。

        步驟4 SVM (support vector machine)分類,本文采用其提供的徑向基函數(shù)作為核函數(shù)[12]

        2 詞袋模型中梯度方向離散精度閾值分析

        2.1 梯度方向的計(jì)算

        一階微分處理對灰度梯度有較強(qiáng)的響應(yīng),一階微分

        對于灰度值函數(shù)f(x),采用梯度模板 [-1,0,1]計(jì)算像素點(diǎn)坐標(biāo)為 (x,y)的水平方向和垂直方向上的梯度分別如下

        則該像素點(diǎn)的梯度幅值和梯度方向分別表示為

        梯度對于噪點(diǎn)相當(dāng)敏感,對于灰度圖像,一般需要先利用離散高斯平滑模板對圖像進(jìn)行平滑以便去除噪點(diǎn)。本文直接利用高斯模板卷積近似梯度,相當(dāng)于在梯度運(yùn)算之前先進(jìn)行一次平滑濾波處理。梯度幅值可以在一定程度上反映出像素上一定的邊緣信息,因此本文選取像素點(diǎn)的梯度幅值對梯度方向進(jìn)行投影加權(quán)。

        2.2 梯度方向離散精度閾值分析

        構(gòu)建詞袋模型的過程中,梯度方向直方圖維數(shù)即梯度方向離散精度的選取對于構(gòu)造的詞袋模型性能有很大影響,是否存在一個(gè)明顯的閾值,在選擇該閾值時(shí)構(gòu)造出的詞袋模型應(yīng)用到分類上能有最佳的分類效果,低于或高于該閾值時(shí)構(gòu)造出的詞袋模型分類性能均有所下降。若有并能找到該閾值不僅能避免在選擇梯度方向離散精度時(shí)的盲目性,還能構(gòu)建出最佳的詞袋模型,獲到最佳圖像分類效果。

        本文采用DAISY 描述子,將圖像劃分成均等間隔大小的特征塊區(qū)域,每個(gè)特征塊區(qū)域都由若干個(gè)單元 (cell)構(gòu)成,每個(gè)單元又由若干個(gè)像素點(diǎn)組成。在每個(gè)單元中獨(dú)立將梯度方向進(jìn)行離散化,做以梯度方向?yàn)闄M軸的直方圖統(tǒng)計(jì),梯度方向可選取0-2π,然后將此梯度方向分布離散化為W 個(gè)離散區(qū),每個(gè)離散區(qū)范圍對應(yīng)一個(gè)直方柱。W 如何選取才能得到最佳的詞袋模型,本文通過大量實(shí)驗(yàn)進(jìn)行探究驗(yàn)證,將角度0-2π分別離散化為8、12、16、20、24、28、32、36個(gè)離散區(qū),不同離散區(qū)個(gè)數(shù)對應(yīng)的離散區(qū)大小分別為π/4、π/6、π/8、π/10、π/12、π/14、π/16、π/18。特征塊大小選取16*16,單元大小設(shè)定為4*4時(shí),離散區(qū)個(gè)數(shù)為8和24的具體區(qū)別如圖1所示。

        圖1 不同梯度方向離散精度對比

        由圖1可以看出,不同的離散精度對應(yīng)不同的分區(qū)大小,精度越低角度劃分地越粗糙,對應(yīng)的每個(gè)離散區(qū)越大,精度越高角度劃分地越細(xì)致,對應(yīng)的每個(gè)離散區(qū)越小。精度越低即離散區(qū)越大,具有不同梯度方向的像素點(diǎn)可能會被映射到同一個(gè)離散區(qū)內(nèi),降低了不同像素點(diǎn)之間的差異性;精度越高即離散塊越小,能夠使得每個(gè)像素點(diǎn)的梯度方向得到精確定位,對以梯度方向?yàn)樘卣鞯南袼攸c(diǎn)刻畫地越準(zhǔn)確,圍繞像素點(diǎn)區(qū)域提取出的DAISY 特征也能準(zhǔn)確、高效地代表圖像特征。但是,離散精度越高,提取的特征維數(shù)也就越高,運(yùn)算復(fù)雜度也會隨之增加,造成運(yùn)算時(shí)間過長,同時(shí)還會出現(xiàn)過擬合現(xiàn)象,精度越高提取出的特征通過聚類形成的詞典,雖能夠很好地?cái)M合訓(xùn)練數(shù)據(jù),但若待分類圖像數(shù)據(jù)與訓(xùn)練數(shù)據(jù)稍有不同就會認(rèn)為該分類圖像不屬于該訓(xùn)練類別,使得分類率降低。通過大量實(shí)驗(yàn)探究表明,梯度方向離散精度并非越高越好,離散精度存在一個(gè)明顯、統(tǒng)一的閾值,當(dāng)選擇離散精度為24時(shí)構(gòu)造的詞袋模型性能最佳,此時(shí)應(yīng)用該BOW 模型進(jìn)行分類得到的分類率最高。分類率在精度選擇為24之前呈大致上升趨勢,24之后呈大致下降趨勢,24即為探究出的梯度方向離散精度閾值。

        3 實(shí)驗(yàn)結(jié)果及結(jié)論

        3.1 實(shí)驗(yàn)方法

        本實(shí)驗(yàn)使用在Windows XP 系統(tǒng)下利用MATLAB 2012A 作為開發(fā)環(huán)境,為保證研究結(jié)果的可靠性,本文選取了3個(gè)數(shù)據(jù)集分別進(jìn)行實(shí)驗(yàn),其中包括在圖像分類和識別領(lǐng)域中較為常用的Caltech 101 數(shù)據(jù)集和Corel數(shù)據(jù)集,以及自己做實(shí)驗(yàn)采集的圖像集 (Original數(shù)據(jù)集)。

        Caltech101數(shù)據(jù)集具有圖像種類多、對象類內(nèi)變化多樣的特點(diǎn),本文從中隨機(jī)選取6 類,分別為:Airplane、Bonsai、Brain、Buddha、Butterfly、Chair。

        Corel數(shù)據(jù)集中包含一些常見的圖像類別,具有很好的實(shí)用性,本文從中隨機(jī)選取6 類,分別為:Beach、Bus、Face、Flower、Food、Mountain。

        Original數(shù)據(jù)集有6 類物體,分別為:Phoning、Running、Shooting、Playingguitar、Ridingbike、Ridinghorse。

        對于每一個(gè)數(shù)據(jù)集,分別隨機(jī)選取其中6類圖像,每類60幅,其中40幅作為訓(xùn)練集,20幅作為測試集,即每一數(shù)據(jù)集形成240幅訓(xùn)練集,120幅測試集,共360幅圖像。

        本文重點(diǎn)探究構(gòu)建詞袋模型過程中梯度方向離散精度的最佳取值問題,由于分塊大小影響特征區(qū)域的大小和個(gè)數(shù),對于每一個(gè)數(shù)據(jù)集,分別選取分塊大小12*12、16*16、20*20、24*24,塊與塊之間的重疊度均為50%,在此基礎(chǔ)上選取梯度方向離散精度,分別為8、12、16、20、24、28、32、36進(jìn)行實(shí)驗(yàn)。對于每一種分塊大小對應(yīng)的每一個(gè)梯度方向離散精度進(jìn)行3次重復(fù)實(shí)驗(yàn),記錄每一次實(shí)驗(yàn)的分類結(jié)果,計(jì)算出每個(gè)離散精度對應(yīng)實(shí)驗(yàn)結(jié)果的平均分類率。在使用K-means進(jìn)行聚類時(shí),設(shè)定聚類中心K為300。

        3.2 實(shí)驗(yàn)結(jié)果及分析

        根據(jù)4種不同分塊大小分別對應(yīng)的8個(gè)不同梯度方向離散精度的實(shí)驗(yàn)結(jié)果,擬合出4組平均分類率曲線,如圖2所示。

        圖2中,曲線橫軸表示梯度方向離散精度,縱軸表示應(yīng)用不同離散精度形成的BOW 模型所獲得的圖像平均分類率,每個(gè)離散精度對應(yīng)的平均分類率均是由3次重復(fù)實(shí)驗(yàn)得來。圖2 (a)~圖2 (d)分別表示選取分塊大小為12*12、16*16、20*20、24*24像素,塊與塊重疊度均為50%所獲得的平均分類率曲線圖。從這4組實(shí)驗(yàn)曲線圖均可看出,梯度方向離散精度在8到24范圍內(nèi),BOW 平均分類率曲線呈大致上升趨勢,在24到36范圍內(nèi),BOW 平均分類率曲線呈大致下降趨勢,精度為24時(shí)獲得的圖像分類率最高。

        圖2 不同分塊下8個(gè)梯度方向離散精度分類率曲線

        圖像中包含大量的像素,每個(gè)像素都有其對應(yīng)的梯度方向并且不同像素點(diǎn)的梯度方向均有不同程度上的差別,若梯度方向離散精度過低,那么就會降低具有不同梯度方向和梯度模值像素點(diǎn)間的差異性,進(jìn)而影響了詞袋模型的性能,降低了應(yīng)用詞袋模型進(jìn)行分類的效果。梯度方向離散精度越高,雖然對像素點(diǎn)刻畫的越準(zhǔn)確,但在一定程度上也增加了運(yùn)算時(shí)間,降低詞袋模型的性能。不同梯度方向離散精度對應(yīng)的平均運(yùn)行時(shí)間見表1,離散精度在大于24 之后,運(yùn)行時(shí)間過長顯然會影響詞袋模型的性能。

        表1 不同梯度方向離散精度下的平均運(yùn)行時(shí)間/min

        3.3 實(shí)驗(yàn)結(jié)論

        通過實(shí)驗(yàn)結(jié)果可知,梯度方向離散精度為24時(shí),形成的詞袋模型運(yùn)用到圖像分類中得到的分類率最高,此時(shí)詞袋模型的性能最佳。梯度方向離散精度低于24或者高于24分類效果均有所下降,故在構(gòu)建詞袋模型的過程中,梯度方向離散精度存在一個(gè)明顯、統(tǒng)一的閾值,此閾值為24。

        4 結(jié)束語

        本文通過采用面向稠密特征提取的可快速計(jì)算的局部圖像特征DAISY 描述子來進(jìn)行特征描述,不僅降低了運(yùn)算量,而且在一定程度上兼顧了全局信息,同時(shí)重點(diǎn)探究出構(gòu)造詞袋模型的過程中梯度方向離散精度的選取問題,選擇精度閾值來構(gòu)造詞袋模型能夠構(gòu)造出最佳的詞袋模型,并且還可以提高圖像的分類正確率。但是,本文從實(shí)驗(yàn)結(jié)果分析可知,對于背景信息較多的物體,使用構(gòu)造出的詞袋模型進(jìn)行分類仍存在較高的錯(cuò)誤分類率,因此進(jìn)一步提高詞袋模型應(yīng)用在背景、干擾較多的物體上進(jìn)行分類的性能,將是筆者下一步研究的重點(diǎn)。

        [1]Vigo D A R,Khanfs,Van D W J,et al.The impact of color on bag-of-words based object recognition [C]//International Conference on Pattern Recognition,2010:1549-1553.

        [2]Deselaers T,Pimenidis L,Nry H.Bag-of-visual-words models for adult image classif-ication and filtering [C]//19th International Conference on Pattern Recognition.Washington,DC:IEEE Computer Society,2008:1-4.

        [3]WU LEI,HOI S C H,YU Nenghai.Semantics preserving bag-of-words models and applications [J].IEEE Transactions on Image Proces-sing,2010,19 (7):1908-1920.

        [4]Manuele B,Andrea L,Enrico G.On the use of SIFT features for face authentication [C]//Proceeding of the Conference on Computer Vision and Pattern Recognition Workshop,2006.

        [5]Matthew Brown,David G Lowe.Automatic panoramic image stitching using invariant features[J].International Journal of Computer Vision,2007,74 (1):59-73.

        [6]WU Jian,MA Yue.Improved SIFT algorithm [J].Computer Science,2013,40(7):270-272(in Chinese). [吳建,馬躍.一種改進(jìn)的SIFT算法[J].計(jì)算機(jī)科學(xué),2013,40(7):270-272.]

        [7]Chao Zhu,Bichot Charles-Edmond,Liming C-h(huán)en.Visual object recognition using DAISY descriptor[C]//IEEE International Conference on Multimedia and Expo,2011:1-6.

        [8]HU Min,QI Mei,WANG Xiaohua,et al.Object recognition method based on salient regions and BOW model[J].Journal of Electronic Measurement and Instrument,2013,27 (7):647-652 (in Chinese).[胡敏,齊梅,王曉華,等.基于顯著區(qū)域詞袋模型的物體識別方法 [J].電子測量與儀器學(xué)報(bào),2013,27 (7):647-652.]

        [9]ZHAO Chunhui,WANG Ying,Masahide Kaneko.An optimized method for image classification based on bag of words model[J].Journal of Electronics and Information Technology,2012,34 (9):2064-2070 (in Chinese). [趙春暉,王瑩,Masahide Kaneko.一種基于詞袋模型的圖像優(yōu)化分類方法[J].電子與信息學(xué)報(bào),2012,34 (9):2064-2070.]

        [10]CHEN Kai,XIAO Guoqiang,PAN Zhen,et al.Single scale image classification employing bag of words model[J].Application Research of Computers,2011,28 (20):3986-3988 (in Chinese).[陳凱,肖國強(qiáng),潘珍,等.單尺度詞袋模型圖像分類方法[J].計(jì)算機(jī)應(yīng)用研究,2011,28 (20):3986-3988.]

        [11]XU Ming,HAN Junwei,GUO Lei,et al.Determine word number of visual Bag-of-words model by model selection method [J].Computer Engineering and Applications,2011,47(31):148-150 (in Chinese).[許明,韓軍偉,郭雷,等.利用模型選擇確定視覺詞袋模型中詞匯數(shù)目 [J].計(jì)算機(jī)工程與應(yīng)用,2011,47 (31):148-150.]

        [12]Zaidi N A,Squire D M.Local adaptive SVMfor object recognition [C]//International Conference on Digital Image Computing:Techniques and Applications,2010:196-201.

        猜你喜歡
        分類實(shí)驗(yàn)模型
        一半模型
        記一次有趣的實(shí)驗(yàn)
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        做個(gè)怪怪長實(shí)驗(yàn)
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        3D打印中的模型分割與打包
        窝窝午夜看片| 亚洲精品456在线播放狼人| 亚洲一区二区日韩专区| 大地资源在线观看官网第三页| 无码夜色一区二区三区| 亚洲日韩AV无码美腿丝袜| 大陆成人精品自拍视频在线观看| 中文字幕精品一区二区精品 | 久久午夜av一区二区三区| 久久久久香蕉国产线看观看伊| 国产免费AV片在线看| 国产精品亚洲在钱视频| 成午夜福利人试看120秒| 黑人大荫道bbwbbb高潮潮喷| 亚洲AV无码成人精品区天堂| 亚洲熟女少妇精品久久| 极品粉嫩嫩模大尺度无码视频 | 无码成人aaaaa毛片| 丝袜欧美视频首页在线| 亚州中文字幕乱码中文字幕| 久久中文骚妇内射| 亚洲中文无码永久免| 被暴雨淋湿爆乳少妇正在播放| 蜜桃传媒免费在线观看| 娇妻在交换中哭喊着高潮| 中文亚洲日韩欧美| 一本久久a久久精品综合| 蜜桃视频在线免费观看| 三级特黄60分钟在线观看| 青青草视频华人绿色在线| 亚洲中文字幕视频第一二区| 久久伊人精品一区二区三区| 中文在线√天堂| 国产精品毛片大尺度激情| 亚洲国产精品美女久久| 国产性生交xxxxx免费| 亚洲国产精品无码久久九九大片健 | 麻豆国产精品va在线观看不卡| 亚洲人成人77777网站| 青青草针对华人超碰在线| 亚洲成人中文字幕在线视频|