亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SIFT特征視覺(jué)詞匯算法的局部遮擋目標(biāo)識(shí)別

        2016-11-09 07:32:05閆鈞華姜惠華孫思佳艾淑芳李大雷
        電子設(shè)計(jì)工程 2016年19期
        關(guān)鍵詞:詞匯特征

        閆鈞華,姜惠華,孫思佳,艾淑芳,李大雷

        (1.南京航空航天大學(xué) 航天學(xué)院,江蘇 南京210016;2.光電控制技術(shù)重點(diǎn)實(shí)驗(yàn)室 河南 洛陽(yáng)471009)

        基于SIFT特征視覺(jué)詞匯算法的局部遮擋目標(biāo)識(shí)別

        閆鈞華1,2,姜惠華1,孫思佳1,艾淑芳2,李大雷2

        (1.南京航空航天大學(xué) 航天學(xué)院,江蘇 南京210016;2.光電控制技術(shù)重點(diǎn)實(shí)驗(yàn)室 河南 洛陽(yáng)471009)

        針對(duì)被局部遮擋目標(biāo)的識(shí)別困難的問(wèn)題,將目標(biāo)圖像的SIFT(Scale Invariant Feature Transform)特征矢量作為視覺(jué)單詞,應(yīng)用視覺(jué)詞匯算法,提出了基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法。結(jié)合在無(wú)遮擋與被局部遮擋的交通工具全方位姿態(tài)模型庫(kù)上進(jìn)行的目標(biāo)識(shí)別試驗(yàn),得出結(jié)果:算法對(duì)無(wú)遮擋目標(biāo)的平均識(shí)別率能到達(dá)83%以上,具有良好的識(shí)別性能;對(duì)被局部遮擋目標(biāo)的平均識(shí)別率也能保持在80%左右,只有很小的降低。實(shí)驗(yàn)結(jié)果顯示算法具有優(yōu)良的識(shí)別被局部遮擋目標(biāo)的性能。

        目標(biāo)識(shí)別;SIFT特征;視覺(jué)詞匯;局部遮擋;全方位姿態(tài)模型庫(kù)

        目標(biāo)識(shí)別所面對(duì)的目標(biāo)種類規(guī)模越來(lái)越大,甚而需要在被局部遮擋偽裝的情況下識(shí)別目標(biāo),因此需要研究目標(biāo)圖像的特征及其描述方法,同時(shí)需要研究能夠有效組織目標(biāo)圖像特征描述子用于識(shí)別的目標(biāo)識(shí)別算法。SIFT[1]特征能夠定量化數(shù)據(jù)描述圖像多尺度下的局部結(jié)構(gòu)特征[2],是一種基于尺度空間[3]的特征,對(duì)圖像縮放、旋轉(zhuǎn)以及仿射變換具有不變性,在目標(biāo)被局部遮擋情況下具有好的適用性。在一幅目標(biāo)圖像中可以提取數(shù)量眾多的SIFT特征,為了能夠有效組織這些SIFT特征用于目標(biāo)識(shí)別,本文將目標(biāo)圖像的SIFT特征矢量作為視覺(jué)單詞,應(yīng)用視覺(jué)詞匯[4]算法,提出了基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法。建立了交通工具的全方位姿態(tài)模型庫(kù)和被局部遮擋的交通工具全方位姿態(tài)模型庫(kù),對(duì)無(wú)遮擋和被局部遮擋的目標(biāo)進(jìn)行識(shí)別,驗(yàn)證了算法具有優(yōu)良的識(shí)別被局部遮擋目標(biāo)的性能。

        1 SIFT特征提取

        SIFT特征提取分為特征點(diǎn)檢測(cè)和特征矢量構(gòu)造兩部分,SIFT特征提取流程如圖1所示:

        SIFT特征點(diǎn)是在DOG(Difference of Gaussians)尺度空間提取尺度不變的特征點(diǎn)。首先利用不同尺度的高斯核與原圖像卷積生成不同尺度的高斯圖像金字塔,由高斯金字塔生成DOG金字塔。接著在DOG尺度空間進(jìn)行斑點(diǎn)檢測(cè),在同一組的相鄰層圖像之間比較來(lái)尋找尺度空間局部極值點(diǎn),每個(gè)采樣點(diǎn)在空間域、尺度域與相鄰26個(gè)點(diǎn)比較,如果最大或最小,則將該點(diǎn)設(shè)為關(guān)鍵點(diǎn)。然后進(jìn)一步通過(guò)擬合三維二次函數(shù)確定關(guān)鍵點(diǎn)的位置和尺度以達(dá)到亞像素精度,去除低對(duì)比度關(guān)鍵點(diǎn)以及不穩(wěn)定邊緣響應(yīng)點(diǎn)。最后將穩(wěn)定的關(guān)鍵點(diǎn)作為特征點(diǎn)。構(gòu)造SIFT特征點(diǎn)特征矢量。首先確定特征點(diǎn)的主方向,并將坐標(biāo)軸旋轉(zhuǎn)至特征點(diǎn)的主方向,保證特征矢量的旋轉(zhuǎn)不變性。接著取特征點(diǎn)16×16鄰域像素的窗口,計(jì)算每一個(gè)像素的梯度方向和幅值,進(jìn)行高斯加權(quán)。然后將16×16窗口劃分為4×4個(gè)小窗口,在每個(gè)小窗口中計(jì)算8個(gè)方向的梯度方向直方圖,并累加每個(gè)梯度方向的模值,形成一個(gè)種子點(diǎn)。一個(gè)特征點(diǎn)由l6個(gè)種子點(diǎn)組成,每個(gè)種子點(diǎn)有8個(gè)方向的矢量,一個(gè)特征點(diǎn)構(gòu)造出128維的SIFT特征矢量。

        圖1 SIFT特征提取流程圖

        2 基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法

        2.1基于SIFT特征的視覺(jué)詞匯算法

        一幅圖像中可以提取大量的SIFT特征量,目標(biāo)識(shí)別圖像庫(kù)中提取出的SIFT特征量數(shù)目龐大,直接用特征量描述目標(biāo),造成通過(guò)遍歷搜索匹配目標(biāo)耗時(shí)過(guò)多。為了有效組織SIFT特征量對(duì)目標(biāo)分類以提高目標(biāo)識(shí)別的速度,本文提出基于SIFT特征的視覺(jué)詞匯算法。

        視覺(jué)詞匯算法是將目標(biāo)圖像用若干視覺(jué)的“詞匯”表示。舉例說(shuō)明視覺(jué)詞匯算法[5]的概念,設(shè)有兩個(gè)文檔:文檔1,“我在看電視,他在吃飯”;文檔2,“我在看電視,他也在看電視”。根據(jù)文檔1和文檔2構(gòu)造9個(gè)單詞的詞典:

        詞典={1.“我”,2.“在”,3.“看”,4.“電”,5.“視”,6.“他”,7.“吃”,8.“飯”,9.“也”}

        根據(jù)詞典索引號(hào),兩個(gè)文檔分別用9維矢量描述,矢量中元素代表相應(yīng)索引位置單詞的出現(xiàn)次數(shù):文檔1:[1,2,1,1,1,1,1,1,0],文檔2:[1,2,2,2,2,1,0,0,1]。

        3個(gè)因素影響視覺(jué)詞匯算法的效果:?jiǎn)畏鶊D像中提取的特征點(diǎn)數(shù)、特征矢量維數(shù)、視覺(jué)詞典大小。本文采用SIFT特征矢量構(gòu)造高效的視覺(jué)詞匯,將示例的概念推廣至圖像領(lǐng)域即為視覺(jué)詞匯算法框架,應(yīng)用視覺(jué)詞匯算法將圖像表示成類似的數(shù)值向量。視覺(jué)詞匯算法可分3步:

        1)從目標(biāo)模型庫(kù)的每個(gè)類別的模型中提取出大量的SIFT特征量,這些SIFT特征量相當(dāng)于文檔中的單詞。

        2)SIFT特征量數(shù)目龐大,無(wú)法將所有SIFT特征量作為單詞構(gòu)成詞典。首先用K-means聚類算法將所有模型圖像提取的SIFT特征矢量聚類[6],本文聚類中心數(shù)取為M=200,將這200個(gè)聚類中心構(gòu)成詞典,這樣既能保持識(shí)別的準(zhǔn)確度,又能避免計(jì)算量過(guò)大[7]。

        3)每幅目標(biāo)類圖像中的SIFT特征量歸入距離最近的聚類中心,距離度量采用歐氏距離,統(tǒng)計(jì)詞典中每個(gè)單詞在圖像中的出現(xiàn)次數(shù),將每幅目標(biāo)圖像用一個(gè)M維數(shù)值矢量(直方圖特征矢量)表示。

        基于SIFT特征的視覺(jué)詞匯算法流程示意如圖2所示:

        圖2 基于SIFT特征的視覺(jué)詞匯算法流程示意圖

        2.2基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法

        通過(guò)視覺(jué)詞匯算法獲得目標(biāo)圖像的200維直方圖特征矢量后,利用目標(biāo)識(shí)別算法將這些特征組織起來(lái)用于目標(biāo)圖像的識(shí)別和分類。文中建立了目標(biāo)全方位姿態(tài)模型庫(kù),利用改進(jìn)的加權(quán)k-近鄰算法實(shí)現(xiàn)目標(biāo)識(shí)別分類。k-近鄰算法將待測(cè)試樣本分類為與它最相近的k個(gè)近鄰中數(shù)目最多的那一類別,距離待測(cè)試樣本點(diǎn)近的訓(xùn)練樣本比遠(yuǎn)的樣本對(duì)分類的影響大,文中據(jù)此對(duì)算法改進(jìn),利用距離的倒數(shù)作為每個(gè)近鄰點(diǎn)的加權(quán)值,離待測(cè)樣本越近的訓(xùn)練樣本加權(quán)值越大。每個(gè)樣本點(diǎn)都是表征目標(biāo)的200維直方圖特征矢量,基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法流程如圖3所示。

        3 目標(biāo)識(shí)別實(shí)驗(yàn)及結(jié)果分析

        基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法的優(yōu)點(diǎn)是能夠識(shí)別被局部遮擋的目標(biāo),為了驗(yàn)證此性能,文中建立了交通工具的全方位姿態(tài)模型庫(kù);為每幅模型圖像加上一定大小的矩形遮擋,又建立了被局部遮擋的交通工具全方位姿態(tài)模型庫(kù)。基于這兩個(gè)模型庫(kù),文中分別進(jìn)行無(wú)遮擋和被局部遮擋的目標(biāo)識(shí)別實(shí)驗(yàn),比較遮擋前后的目標(biāo)識(shí)別率,驗(yàn)證算法具有優(yōu)良的識(shí)別被局部遮擋目標(biāo)的性能。

        圖3 基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法流程圖

        3.1無(wú)遮擋的目標(biāo)識(shí)別實(shí)驗(yàn)

        在全方位姿態(tài)模型庫(kù)中選擇了7種交通工具進(jìn)行目標(biāo)識(shí)別實(shí)驗(yàn),分別是自行車、直升機(jī)、運(yùn)輸車、坦克、火車頭、飛機(jī)、船。每種交通工具在180度視角中以5度為間隔構(gòu)造全方位姿態(tài)模型,因此每種交通工具包含36幅相應(yīng)的姿態(tài)圖,將每種交通工具的姿態(tài)圖隨機(jī)抽取20幅作為訓(xùn)練樣本,剩余16幅作為待測(cè)試樣本用于測(cè)試正確識(shí)別率。所選擇交通工具如圖4所示,文中只列出飛機(jī)的部分全方位姿態(tài)模型圖如圖5所示。

        圖4 7種交通工具圖

        圖5 飛機(jī)部分姿態(tài)模型圖

        總共有140幅圖像作為訓(xùn)練樣本,實(shí)驗(yàn)步驟如下:

        1)先對(duì)這140幅圖像提取SIFT特征點(diǎn)特征矢量,共提取出41 362個(gè)SIFT特征矢量,然后對(duì)這些特征矢量使用K-means聚類[8]算法生成200個(gè)SIFT特征矢量的聚類中心,每個(gè)聚類中心也是128維的矢量,這些聚類中心組成了200維視覺(jué)詞典。

        2)計(jì)算每種交通工具中的每個(gè)訓(xùn)練樣本上的SIFT特征矢量在視覺(jué)詞典中的分布,從而為每個(gè)訓(xùn)練樣本計(jì)算出表征它的200維直方圖特征矢量。所有140個(gè)訓(xùn)練樣本的直方圖特征矢量組成-近鄰算法中的訓(xùn)練樣本點(diǎn)集合。

        3)計(jì)算每種交通工具中的每個(gè)待測(cè)試樣本上的SIFT特征矢量在視覺(jué)詞典中的分布,從而為每個(gè)待測(cè)試樣本計(jì)算出表征它的200維直方圖特征矢量。

        4)根據(jù)16幅待測(cè)試樣本的200維直方圖特征矢量,分別在訓(xùn)練樣本點(diǎn)集合中求出5個(gè)距離最近的近鄰點(diǎn),由于訓(xùn)練樣本點(diǎn)都是類別已知的,根據(jù)改進(jìn)的基于距離加權(quán)的-近鄰算法確定每個(gè)待測(cè)試樣本的類別。根據(jù)每個(gè)待測(cè)試樣本求出的類別結(jié)果是否與實(shí)際類別一致進(jìn)行判別,如果一致則判定為一次正確的識(shí)別,如果不一致則判定為一次誤識(shí)別,統(tǒng)計(jì)每種交通工具16幅待測(cè)試圖像的正確識(shí)別與錯(cuò)誤識(shí)別次數(shù)得到目標(biāo)的識(shí)別率。

        由于生成的視覺(jué)詞典為維,即200個(gè)128維的矢量,由于數(shù)據(jù)量龐大不便一一列舉。根據(jù)視覺(jué)詞典生成的表征目標(biāo)的直方圖特征矢量為200維的矢量,在此列出兩個(gè)訓(xùn)練樣本的直方圖特征矢量,分別是飛機(jī)側(cè)面60度和自行車側(cè)面20度,以及作為待測(cè)試樣本的飛機(jī)側(cè)面20度,如下所示:

        飛機(jī)側(cè)面60度:(1,0,4,2,1,11,1,5,0,2,0,0,0,5,0,8,5,1,1,0,6,2,0,1,1,0,0,1,1,0,4,0,0,1,0,12,0,0,1,0,2,6,0,1,1,1,0,0,0,0,5,3,3,0,5,15,0,1,4,0,0,0,0,8,0,3,0,1,0,0,20,0,1,0,1,0,0,3,0,0,1,0,0,0,0,12,0,1,1,0,0,1,1,0,0,0,0,0,0,2,0,0,0,0,5,6,14,0,0,1,4,1,1,1,0,2,0,1,11,1,0,1,3,0,1,0,0,8,0,0,12,0,4,1,3,7,0,0,0,1,9,3,0,1,1,8,1,3,1,0,4,0,6,4,0,6,1,0,0,0,0,1,0,1,0,0,1,0,1,4,1,1,1,0,3,0,1,3,0,0,0,0,8,0,0,0,0,0,0,11,1,0,3,0,1,0,0,0,1,1)

        自行車側(cè)面20度:(0,0,14,7,6,2,1,1,0,0,2,0,1,0,0,

        0,2,0,0,2,3,11,6,0,1,1,1,3,5,0,0,0,0,7,0,10,2,0,0,0,0,1,0,0,32,0,0,2,0,0,0,0,2,1,0,1,0,0,5,0,0,0,0,1 5,1,5,0,0,8,0,3,0,7,0,1,23,0,1,0,1,0,2,0,0,0,5,16,0,0,0,2,1,1,0,0,0,1,0,0,1,16,0,0,13,0,0,0,2,0,1,0,0,0,0,0,2,0,0,0,0,0,2,0,9,0,0,1,7,1,0,0,0,0,1,8,2,0,0,1 5,0,1,0,0,0,2,3,0,1,0,11,0,0,0,6,0,0,3,0,1,0,0,1,10,1,0,0,0,0,0,0,0,6,0,0,0,2,0,0,0,0,0,0,0,5,0,0,0,0,0,1,4,4,0,0,1,0,0,0,0,2)

        飛機(jī)側(cè)面 20度:(1,1,2,0,1,11,3,6,0,0,1,1,0,2,0,10,7,2,1,0,8,0,1,0,1,1,0,1,0,0,0,0,0,0,0,9,0,0,0,0,2,1,0,2,0,0,0,1,0,0,1,0,2,0,0,12,1,1,0,0,1,0,0,14,0,1,0,0,0,0,16,0,0,1,1,0,0,1,0,0,1,0,0,0,0,9,0,0,1,0,0,0,0,0,0,2,0,0,0,0,0,0,0,0,1,11,9,0,0,0,1,0,4,0,0,2,0,0,9,1,0,2,1,0,0,0,0,6,1,0,7,0,8,1,0,8,0,0,0,0,8,1,0,4,1,14,0,1,0,0,5,0,6,1,0,5,3,0,1,0,0,0,0,1,2,0,3,0,0,8,0,0,0,0,0,2,0,1,0,0,0,0,2,5,0,1,0,0,0,0,10,0,0,1,2,0,0,0,2,1)

        計(jì)算可得飛機(jī)側(cè)面60度與飛機(jī)側(cè)面20度的直方圖特征矢量間的歐氏距離為25.2,自行車側(cè)面20度與飛機(jī)側(cè)面20度的直方圖特征矢量間的歐氏距離為70.6,自行車的直方圖特征矢量與飛機(jī)的直方圖特征矢量之間的距離明顯大于飛機(jī)不同姿態(tài)之間的距離。因此直方圖特征矢量可用于不同目標(biāo)的識(shí)別分類,為了便于說(shuō)明問(wèn)題,上述這些直方圖特征矢量是未歸一化的向量,實(shí)現(xiàn)程序中是經(jīng)過(guò)歸一化處理的。進(jìn)行3次隨機(jī)抽取的實(shí)驗(yàn),目標(biāo)的識(shí)別率統(tǒng)計(jì)如表1所示:

        表1 無(wú)遮擋的目標(biāo)識(shí)別隨機(jī)實(shí)驗(yàn)識(shí)別率統(tǒng)計(jì)表

        實(shí)驗(yàn)結(jié)果表明交通工具的識(shí)別率都在83.3%及以上,識(shí)別結(jié)果較為可靠。對(duì)比七種交通工具的平均識(shí)別率,彼此之間存在一定的差別,例如自行車的識(shí)別率是95.8%,運(yùn)輸車的識(shí)別率是83.3%。主要原因是:運(yùn)輸車的特征與其它交通工具的特征差別相對(duì)較小,彼此間存在一定的干擾使識(shí)別受到影響;自行車的特征與其它交通工具的特征差別相對(duì)較大,識(shí)別不易受其它交通工具的影響。

        3.2被局部遮擋的目標(biāo)識(shí)別實(shí)驗(yàn)

        SIFT特征能夠定量化數(shù)據(jù)描述圖像的局部結(jié)構(gòu)特征,在目標(biāo)被局部遮擋情況下具有好的適用性,使得基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法具有優(yōu)良的識(shí)別被局部遮擋目標(biāo)的性能。按照“無(wú)遮擋的目標(biāo)識(shí)別實(shí)驗(yàn)”步驟進(jìn)行同樣的隨機(jī)實(shí)驗(yàn),此處不再贅述,與實(shí)驗(yàn)3.1不同的是在隨機(jī)抽取的140幅訓(xùn)練樣本圖像中總共提取的SIFT特征矢量數(shù)目是30 354個(gè),少于無(wú)遮擋時(shí)提取的數(shù)量,這是由于部分特征點(diǎn)被遮擋而導(dǎo)致的特征點(diǎn)提取數(shù)量減少。被局部遮擋的全方位姿態(tài)模型庫(kù)的七種交通工具如圖6所示,本文同樣只列出被局部遮擋的飛機(jī)部分全方位姿態(tài)模型圖如圖7所示。

        圖6 被局部遮擋的七種交通工具圖

        圖7 被局部遮擋的飛機(jī)部分姿態(tài)模型圖

        進(jìn)行3次隨機(jī)抽取的實(shí)驗(yàn),被局部遮擋的目標(biāo)的識(shí)別率統(tǒng)計(jì)如表2所示:

        實(shí)驗(yàn)中對(duì)目標(biāo)所用的局部遮擋是人工隨機(jī)添加的較小面積的遮擋,因此算法對(duì)目標(biāo)的平均識(shí)別率會(huì)受到一定的隨機(jī)因素影響有小的波動(dòng),但總體上識(shí)別率還是比較穩(wěn)定的。與表1中無(wú)遮擋下的識(shí)別率相比,被局部遮擋下的識(shí)別率有小范圍的下降,但是總的識(shí)別率還是維持在80%左右,依然具有較高的識(shí)別率。實(shí)驗(yàn)結(jié)果表明,基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法具有優(yōu)良的識(shí)別被局部遮擋目標(biāo)的性能。交通工具無(wú)遮擋和被局部遮擋下的平均識(shí)別率對(duì)比如圖8所示。

        表2 被局部遮擋的目標(biāo)識(shí)別隨機(jī)實(shí)驗(yàn)識(shí)別率統(tǒng)計(jì)表

        圖8 無(wú)遮擋和被局部遮擋目標(biāo)識(shí)別實(shí)驗(yàn)的平均識(shí)別率對(duì)比圖

        4 結(jié)束語(yǔ)

        本文將圖像的SIFT特征矢量作為視覺(jué)單詞,應(yīng)用視覺(jué)詞匯算法,基于交通工具的全方位姿態(tài)模型庫(kù)和被局部遮擋的交通工具全方位姿態(tài)模型庫(kù)對(duì)無(wú)遮擋和被局部遮擋的目標(biāo)進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明,基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法對(duì)無(wú)遮擋目標(biāo)的平均識(shí)別率能到達(dá)80%以上,具有良好的識(shí)別性能;對(duì)被局部遮擋目標(biāo)的平均識(shí)別率也能保持在80%左右,只有很小的降低,算法具有優(yōu)良的識(shí)別被局部遮擋目標(biāo)的性能。基于SIFT特征視覺(jué)詞匯算法的目標(biāo)識(shí)別算法具有較高的識(shí)別率,但本文所建立的模型庫(kù)背景較簡(jiǎn)單,目標(biāo)種類較少,局部遮擋也是人工添加的,因此算法還有待在更復(fù)雜的模型庫(kù)中進(jìn)一步完善和進(jìn)行更加全面的性能驗(yàn)證實(shí)驗(yàn),局部遮擋也有待采用自然遮擋以更貼近實(shí)際情況。

        [1]Lowe,David G.Object recognition fromlocal scale-invariant features[C]//Proceedings of the International Conference on Computer Vision,1999:1150-1157.

        [2]Lowe D G.Distinctive image features from Scale-Invariant Keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

        [3]Lindeberg T.Scale-space theory:A basic tool for analyzing structures at different scales[J].Journal of Applied Statistics. 1994.21:224-270.

        [4]Cao L,L Fei-Fei.Spatially coherent latent topic model for concurrent segmentation and classification of objects and scenes[J].Computer Vision,2007,27(10):127-134.

        [5]ZHANG Yin,JIN Rong,ZHOU Zhi-Hua.Understanding bag-of-wordsmodel:a statistical framework[J].International Journal of Machine Learning and Cybernetics,2010,1(4): 43-52.

        [6]Bolovinou A,Pratikakis I,Perantonis S.Bag of spatiovisual words for context inference in scene classification[J]. Pattern Recognition,2013,46:1039-1053.

        [7]Sujatha K S,Keerthana P,Suga Priya S,et al.Fuzzy based multiple dictionary bag of words for image classification[J]. Procedia Engineering,2012,38:2196-2206.

        [8]CAOJie, WUZhiang, WUJunjie, et al.Towards information-theoretic K-means clustering for image indexing[J].Signal Processing,2013,93:2026-2037.

        Object recognition w ith partial occlusion based on SIFT feature visual vocabulary algorithm

        YAN Jun-hua1,2,JIANG Hui-hua1,SUN Si-jia1,AIShu-fang2,LIDa-lei2
        (1.College of Astronautics,Nanjing University of Aeronautics and Astronautics,Nanjing 210016,China;2.Science and Technology on Electro-optic Control Laboratory,Luoyang 471009,China)

        To solve the problem ofobject recognitionwith partialocclusion,we use SIFT(Scale Invariant Feature Transform)feature vectors of the object image as the visualwords,apply visual vocabulary algorithm,and propose an object recognition algorithm based on SIFT feature visualvocabulary algorithm.Experimentshave been done based on a full-range gesturemodel library of transports for object recognition without occlusion and a full-range gesturemodel library of transportswith partial occlusion for object recognition with partial occlusion.Experimental results show that the average recognition rate of object without occlusion can reach 83%ormore,with good recognition performance;for objectwith partial occlusion,the average recognition rate can bemaintained at about 80%,with only a small reduction.Experimental results show the algorithm has excellentperformance forobject recognitionwith partialocclusion.

        object recognition;SIFT feature;visual vocabulary;partial occlusion;full-range gesturemodel library

        TN919.82

        A

        1674-6236(2016)19-0159-04

        2015-09-15稿件編號(hào):201509099

        國(guó)家自然科學(xué)基金資助(61471194);光電控制技術(shù)重點(diǎn)實(shí)驗(yàn)室和航空科學(xué)基金聯(lián)合資助(20135152049);中國(guó)航天科技集團(tuán)公司航天科技創(chuàng)新基金資助

        閆鈞華 (1972—),女,陜西隴縣人,博士,副教授。研究方向:多源信息融合、目標(biāo)檢測(cè)跟蹤與識(shí)別。

        猜你喜歡
        詞匯特征
        抓住特征巧觀察
        本刊可直接用縮寫(xiě)的常用詞匯
        一些常用詞匯可直接用縮寫(xiě)
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        本刊可直接用縮寫(xiě)的常用詞匯
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        一些常用詞匯可直接用縮寫(xiě)
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        美女射精视频在线观看| 亚洲第一成人网站| 国产欧美另类精品久久久| 区二区三区亚洲精品无| 老熟女富婆激情刺激对白| 少妇激情一区二区三区视频| 欧美aa大片免费观看视频| 精品国产福利片在线观看| 免费人成网在线观看品观网| 亚洲一区二区三区日本久久九| 又粗又大又硬毛片免费看| 亚洲成a人片在线观看天堂无码| 禁止免费无码网站| 一本色道久久综合亚洲精品不| 日本熟妇美熟bbw| 真人二十三式性视频(动)| 日韩在线视频不卡一区二区三区| 国产精品一区二区久久蜜桃| 欧洲多毛裸体xxxxx| 亚洲av无码一区二区三区在线| 成激情人妻视频| 美艳善良的丝袜高跟美腿| 亚洲人成网站色www| 91亚洲无码在线观看| 手机在线看片在线日韩av| 欧美老妇牲交videos| 中文字幕亚洲欧美日韩2019| 中文字幕天天躁日日躁狠狠| 日本免费视频一区二区三区| 人妻仑乱a级毛片免费看| 亚洲国产AV无码男人的天堂| 国产一区二区三区资源在线观看| 日本人妻伦理在线播放| 无码人妻一区二区三区在线视频| 国产小屁孩cao大人免费视频| 免费观看日本一区二区三区| 99久久免费只有精品国产| 国产精品公开免费视频| 亚洲国产综合久久精品| 蜜臀av在线观看| 亚洲欧美国产双大乳头|