陳娟娟 劉財(cái)興 高月芳 梁云
摘要:針對(duì)特征袋(BOF)模型中存在特征計(jì)算耗時(shí)、識(shí)別精度低的不足,提出一種新的改進(jìn)BOF模型以提高其目標(biāo)識(shí)別的精度和效率,并將其應(yīng)用于奶牛個(gè)體識(shí)別。該算法首先引入優(yōu)化方向梯度直方圖(HOG)特征對(duì)圖像進(jìn)行特征提取和描述,然后利用空間金字塔匹配原理(SPM)生成圖像基于視覺(jué)詞典的直方圖表示,最后自定義直方圖交叉核作為分類(lèi)器核函數(shù)。該算法在項(xiàng)目組自行拍攝的數(shù)據(jù)集(包含15類(lèi)奶牛、共7500張奶牛頭部圖像)上的實(shí)驗(yàn)結(jié)果表明,使用基于SPM的BOF模型將算法的識(shí)別率平均提高2個(gè)百分點(diǎn);使用直方圖交叉核相比使用高斯核將算法的識(shí)別率平均提高2.5個(gè)百分點(diǎn);使用優(yōu)化HOG特征,相比使用傳統(tǒng)HOG特征將算法識(shí)別率平均提高21.3個(gè)百分點(diǎn),運(yùn)算效率為其1.68倍;相比使用尺度不變特征變換(SIFT)特征,在保證平均識(shí)別精度達(dá)95.3%的基礎(chǔ)上,運(yùn)算效率為其7.10倍。分析結(jié)果可知,該算法在奶牛個(gè)體識(shí)別領(lǐng)域具有較好的魯棒性和實(shí)用性。
關(guān)鍵詞:特征袋模型;圖像識(shí)別;梯度直方圖特征;空間金字塔匹配;尺度不變特征變換特征
中圖分類(lèi)號(hào):TP391.41
文獻(xiàn)標(biāo)志碼:A
0引言
互聯(lián)網(wǎng)的興起使得現(xiàn)今各行業(yè)逐漸朝著工業(yè)化、智能化方向發(fā)展,其中奶業(yè)發(fā)展是農(nóng)業(yè)發(fā)展中國(guó)家十分關(guān)注的問(wèn)題。隨著信息技術(shù)和多媒體技術(shù)的飛速發(fā)展與廣泛應(yīng)用,圖像數(shù)量日益增多,圖像識(shí)別和分類(lèi)的研究與應(yīng)用成為計(jì)算機(jī)視覺(jué)領(lǐng)域中越來(lái)越重要的課題[1]?;谟?jì)算機(jī)視覺(jué)技術(shù),利用奶牛圖像進(jìn)行奶牛個(gè)體識(shí)別和分類(lèi)是實(shí)現(xiàn)奶牛信息化管理的有 效手段,對(duì)奶業(yè)的飛速發(fā)展起著至關(guān)重要的作用。
傳統(tǒng)的圖像識(shí)別與分類(lèi)算法有很多,特征袋(Bag of Features, BOF)[2]是最具代表性的一類(lèi)。該算法由文本領(lǐng)域的詞袋(Bag of Word, BOW)算法發(fā)展而來(lái),其出現(xiàn)為基于內(nèi)容的圖像描述和處理以及對(duì)圖像的語(yǔ)義理解開(kāi)拓了新思路。該算法主要用于計(jì)算機(jī)視覺(jué)領(lǐng)域的圖像分類(lèi)、目標(biāo)識(shí)別和圖像檢索[3-4],近年來(lái),也開(kāi)始用于顯著性區(qū)域檢測(cè)[5]、行為識(shí)別[6]、糖尿病患者的食物識(shí)別系統(tǒng)[7]和人喉表皮樣癌細(xì)胞 (HEp-2)的識(shí)別分類(lèi)[8]。隨著該算法在各領(lǐng)域的廣泛應(yīng)用,其存在的計(jì)算效率低、識(shí)別精度有限等問(wèn)題成為研究者們?cè)絹?lái)越關(guān)注的內(nèi)容,為此,不斷有研究者嘗試新的方法以改善上述問(wèn)題。為提高算法計(jì)算效率,有學(xué)者提出較快速的局部特征描述子DAISY[9]和快速魯棒特征(Speeded Up Robust Features, SURF)[10]來(lái)替換尺度不變特征變換(Scale Invariant Feature Transform, SIFT)進(jìn)行圖像特征提取以縮短特征提取時(shí)間。為提高算法識(shí)別率,有學(xué)者嘗試提高BOF表示的判別力,例如,文獻(xiàn)[11]提出利用均值漂移方法對(duì)視覺(jué)單詞進(jìn)行聚類(lèi)以產(chǎn)生具有更高判別力的高序語(yǔ)義級(jí)視覺(jué)詞典;文獻(xiàn)[12]把視覺(jué)單詞的空間分布信息考慮在內(nèi)提出了一種更有判別力的視覺(jué)單詞空間合并方法;文獻(xiàn)[13]提出了一種新的基于直方圖向量的無(wú)監(jiān)督降維框架,以創(chuàng)建一個(gè)緊湊和有判別力的BOF表示;文獻(xiàn)[14]則提出了一種用于目標(biāo)跟蹤的軟分配BOF算法,試圖利用軟分配來(lái)提高BOF表示的判別能力;此外,文獻(xiàn)[15]提出采用多種特征描述符相結(jié)合的方式進(jìn)行圖像特征描述以提高算法的識(shí)別精度。
上述方法在一定程度上提高了BOF算法的識(shí)別精度和計(jì)算效率,但是這些方法僅適用于某種特定的情境。為進(jìn)一步提高BOF的計(jì)算性能和識(shí)別精度并將其應(yīng)用于奶牛個(gè)體識(shí)別,本文提出了一種新的改進(jìn)BOF模型。該模型將優(yōu)化后的方向梯度直方圖(Histogram of Oriented Gradient, HOG)特征[16]引入到基于空間金字塔匹配(Spatial Pyramid Matching, SPM)[17]的BOF模型中,并使用自定義的直方圖交叉核(Histogram Intersection Kernel)[18]作為分類(lèi)器的核函數(shù)。使用基于SPM的BOF模型和基于直方圖交叉核的分類(lèi)器可提高算法識(shí)別精度;使用本文優(yōu)化HOG特征相比使用傳統(tǒng)HOG特征既提高了算法計(jì)算性能,又改善了算法識(shí)別性能;相比使用SIFT特征在保證識(shí)別精度的基礎(chǔ)上大大改善了算法計(jì)算性能。將本文算法用于奶牛個(gè)體識(shí)別,奶牛個(gè)體的實(shí)驗(yàn)用數(shù)據(jù)集為該奶牛在不同姿態(tài)、不同背景、不同角度下拍攝得到的若干張具有判別力的圖像,因此可將奶牛個(gè)體視為目標(biāo)識(shí)別中的一個(gè)類(lèi)別來(lái)分析處理。實(shí)驗(yàn)中,用本文算法分別對(duì)5類(lèi)、8類(lèi)、10類(lèi)、12類(lèi)、15類(lèi)奶牛識(shí)別分類(lèi),在每類(lèi)奶牛有500張圖像(80%作訓(xùn)練集,20%作測(cè)試集)的情況下,識(shí)別精度平均可達(dá)95.3%,分析結(jié)果表明本文算法在奶牛個(gè)體識(shí)別領(lǐng)域。
1基于SPM的BOF模型
在自然語(yǔ)言處理和信息檢索領(lǐng)域中有一種比較常見(jiàn)的用于文本分類(lèi)的模型——詞袋(BOW)模型,該模型將文本看作是若干單詞的集合,忽略單詞之間的語(yǔ)法和語(yǔ)序關(guān)系。隨后,圖像研究領(lǐng)域的學(xué)者將這一思想引入到圖像檢測(cè)和圖像識(shí)別領(lǐng)域中,將圖像看作是局部特征的集合,BOF模型由此誕生。BOF模型應(yīng)用在圖像識(shí)別領(lǐng)域主要包括以下步驟:首先是特征提取和特征描述,BOF模型多采用SIFT特征對(duì)圖像進(jìn)行描述;然后是構(gòu)造視覺(jué)詞典,選擇一種聚類(lèi)算法對(duì)圖像的特征描述符進(jìn)行聚類(lèi),通常采用的聚類(lèi)算法是K-均值(K-means);最后是訓(xùn)練分類(lèi)器對(duì)結(jié)果識(shí)別分類(lèi),比較常用的分類(lèi)器是支持向量機(jī)(Support Vector Machine, SVM),常用的核函數(shù)有高斯核和線性核。
將場(chǎng)景分類(lèi)中常用的空間金字塔匹配原理引入到BOF模型中,即可得到基于SPM的BOF模型[16]。該模型的基本思想是利用空間金字塔對(duì)圖像進(jìn)行匹配、識(shí)別和分類(lèi),其工作原理如圖1,圖中的圓形、菱形和三角形分別表示三種不同的特征類(lèi)型,三種不同分層方法的權(quán)重分別是1/8,1/4,1/2。空間金字塔匹配方法將特征集映射到多分辨率的直方圖空間,在該空間中計(jì)算加權(quán)的直方圖交叉結(jié)果,以此尋找特征集的最佳匹配。因此,空間金字塔匹配的核心思想在于將圖像的特征集映射到高分辨率的空間內(nèi)進(jìn)行匹配,匹配的最終結(jié)果是不同分辨率下經(jīng)過(guò)不同加權(quán)后匹配結(jié)果的和。
2改進(jìn)的BOF模型
BOF模型存在計(jì)算性能差、識(shí)別精度低的不足,上述基于SPM的BOF模型雖然提高了該模型的識(shí)別精度,但其計(jì)算性能仍有待提高。BOF模型的運(yùn)算耗時(shí)主要集中在特征提取和描述階段,其中SIFT特征維數(shù)較高、計(jì)算復(fù)雜度較大、特征計(jì)算耗時(shí)、執(zhí)行效率低是導(dǎo)致算法計(jì)算性能差的一個(gè)很大因素。為此,本文將優(yōu)化后HOG特征引入基于SPM的BOF模型替換SIFT特征以改善算法計(jì)算性能。優(yōu)化HOG特征相比SIFT特征減少了特征維度,降低了特征復(fù)雜度,縮短了特征計(jì)算時(shí)間,從而提高了整個(gè)算法的計(jì)算性能。選擇適當(dāng)?shù)奶卣魈崛∷惴▽?duì)圖像進(jìn)行特征提取后,需要利用提取到的圖像特征完成識(shí)別分類(lèi)任務(wù),此時(shí)分類(lèi)器的選擇至關(guān)重要。為進(jìn)一步提高算法識(shí)別精度,本文分析對(duì)比了基于高斯核和直方圖交叉核的兩種SVM分類(lèi)器的識(shí)別性能,實(shí)驗(yàn)表明后者更適合于本文的奶牛識(shí)別算法,因此最終選擇后者作為本文算法的分類(lèi)器。
2.1優(yōu)化HOG特征
HOG是計(jì)算機(jī)視覺(jué)領(lǐng)域中常用于目標(biāo)檢測(cè)的描述符,傳統(tǒng)HOG特征實(shí)現(xiàn)步驟為:首先對(duì)圖像進(jìn)行歸一化處理,將檢測(cè)窗口內(nèi)的圖像劃分為若干個(gè)cell(細(xì)胞單元);然后統(tǒng)計(jì)每個(gè)cell中各像素點(diǎn)的梯度或邊緣的方向?yàn)槊總€(gè)cell建立直方圖,將相鄰的若干個(gè)cell組成block(塊),統(tǒng)計(jì)整個(gè)塊的直方圖并對(duì)其進(jìn)行歸一化;最后,把所有block的直方圖組合得到HOG特征描述符,即36維的HOG特征。
為進(jìn)一步降低特征復(fù)雜度,提高算法計(jì)算性能,本文采用與文獻(xiàn)[19]相似的思想,在不引起性能損失的前提下對(duì)傳統(tǒng)36維HOG特征解析降維,得到31維的優(yōu)化HOG特征并將其作為本文特征描述符。優(yōu)化HOG特征相比傳統(tǒng)HOG特征省去了計(jì)算稠密特征映射時(shí)的投影過(guò)程,減少了特征維度,降低了特征復(fù)雜度,節(jié)省了特征計(jì)算時(shí)間,縮短了整個(gè)算法的運(yùn)行時(shí)間,從而提高了算法計(jì)算效率,但是識(shí)別性能并未因此受到影響。優(yōu)化31維HOG特征的具體實(shí)現(xiàn)如下:
在實(shí)際使用中發(fā)現(xiàn),有些目標(biāo)類(lèi)別適合使用對(duì)比度敏感特征,有些則適合使用對(duì)比度不敏感特征。為了使本文的優(yōu)化HOG特征能適用于盡可能多的目標(biāo)類(lèi)別,文本既使用了對(duì)比度敏感特征又使用了對(duì)比度不敏感特征。假設(shè)C是聚合有9個(gè)對(duì)比度不敏感方向基于cell的像素級(jí)特征映射,D是聚合有18個(gè)對(duì)比度敏感方向基于cell的像素級(jí)特征映射。使用式(8)定義C和D的4種歸一化因子,從而得到4×(9+18)=108維的特征向量F(i, j)。本文沒(méi)有直接使用這個(gè)108維的特征向量,而是對(duì)其解析投影降維:27個(gè)在不同歸一化因子上的累加和,F(xiàn)中的每個(gè)方向通道對(duì)應(yīng)一個(gè);4個(gè)在不同方向上的累加和,每個(gè)歸一化因子對(duì)應(yīng)一個(gè)。這樣最終得到的特征映射是31維:27維對(duì)應(yīng)不同的方向通道,其中包括9個(gè)對(duì)比度不敏感方向和18個(gè)對(duì)比度敏感方向;另外4維捕獲(x,y)周?chē)?個(gè)cell組成的block的梯度能量信息。
2.2直方圖交叉核
若要實(shí)現(xiàn)圖像的識(shí)別分類(lèi),在提取得到圖像的優(yōu)化HOG特征后,要選擇適當(dāng)?shù)姆诸?lèi)器利用提取到的特征完成識(shí)別分類(lèi)任務(wù),BOF算法多采用SVM作為分類(lèi)器,因此本文也選用SVM作為分類(lèi)器。SVM作為分類(lèi)器時(shí),一個(gè)很關(guān)鍵的步驟是核函數(shù)的選取[20-21],選擇適當(dāng)?shù)暮撕瘮?shù)可在一定程度上提高算法的識(shí)別性能,本文在3.3.1節(jié)中為對(duì)比分析高斯核與直方圖交叉核的識(shí)別性能進(jìn)行了大量實(shí)驗(yàn),最終確定選用后者作為本文SVM分類(lèi)器核函數(shù)。直方圖交叉核是圖像分類(lèi)領(lǐng)域常使用的核函數(shù),常適用于圖像的直方圖特征分類(lèi)。直方圖交叉核的形式可表示為:
2.3算法描述
本文算法在BOF模型基礎(chǔ)上,通過(guò)引入優(yōu)化HOG特征等對(duì)其進(jìn)行了一系列優(yōu)化改進(jìn)。算法具體流程如圖2,圖中SVM分類(lèi)過(guò)程使用LIBSVM軟件包實(shí)現(xiàn),選擇的SVM類(lèi)型為C-SVC,松弛變量為200,所用核函數(shù)為自定義的直方圖交叉核。
將從牛場(chǎng)拍攝得到的奶牛頭部圖像規(guī)格化,統(tǒng)一命名,初始化算法的一系列路徑變量,為所有圖像分配指定標(biāo)簽(用數(shù)字表示),如第一類(lèi)奶牛的標(biāo)簽為1。將圖像名稱(chēng)、存儲(chǔ)位置、標(biāo)簽等相關(guān)信息以mat文件保存。
提取優(yōu)化HOG特征
利用優(yōu)化HOG特征提取算法對(duì)預(yù)處理后的奶牛頭部圖像進(jìn)行特征提取和描述,獲取每張奶牛頭部圖像的特征信息。在local文件夾中為每張圖像建立一個(gè)文件夾,將每張圖像的HOG特征以mat文件的格式保存在相應(yīng)的文件夾中。
K-Means聚類(lèi)
用K-Means聚類(lèi)算法構(gòu)造視覺(jué)詞典,本文初始聚類(lèi)質(zhì)心隨機(jī)選取,通過(guò)限定迭代次數(shù)收斂出最終的聚類(lèi)中心,構(gòu)造出視覺(jué)詞典。構(gòu)造的視覺(jué)詞典以mat文件的形式保存在global文件夾中。
引入SPM對(duì)圖像進(jìn)行基于視覺(jué)詞典的直方圖表示
利用第1章介紹的方法生成所有奶牛頭部圖像的直方圖表示,結(jié)果以mat文件的格式保存在global文件夾內(nèi)。
SVM分類(lèi)器識(shí)別分類(lèi)
該過(guò)程直接使用由林智仁等開(kāi)發(fā)出來(lái)的LIBSVM軟件包[17]實(shí)現(xiàn),核函數(shù)選用本文自定義的直方圖交叉核。
3實(shí)驗(yàn)結(jié)果與分析
3.1實(shí)驗(yàn)環(huán)境
本文實(shí)驗(yàn)是在64位的Windows 7操作系統(tǒng)下完成,Matlab版本為2014a;主機(jī)內(nèi)存為4.0GB,CPU為4核的i5-3470,主頻為3.2GHz。
3.2實(shí)驗(yàn)數(shù)據(jù)集
本文實(shí)驗(yàn)用奶牛頭部圖像是項(xiàng)目組從牛場(chǎng)中實(shí)地拍攝而來(lái),包含15類(lèi)奶牛,共7500張奶牛頭部圖像。每類(lèi)奶牛有500張圖像,將該類(lèi)奶牛所有頭部圖像統(tǒng)一命名后按照名稱(chēng)排序,取前400張作為訓(xùn)練集,其余100張作為測(cè)試集。本文將奶牛頭部圖像規(guī)格化為400×400像素大小,選擇cellsize=8,p=9,因此每張圖像的優(yōu)化HOG特征為(400/8)×(400/8)×31維。字典大小為200,金字塔層數(shù)為3。該數(shù)據(jù)集取自現(xiàn)實(shí)自然場(chǎng)景,奶牛姿態(tài)比較多,圖像背景比較復(fù)雜,部分圖像光照條件不好,比較模糊。數(shù)據(jù)集中部分圖像截圖如圖3所示。
3.3實(shí)驗(yàn)結(jié)果與分析
本節(jié)在收集得到的數(shù)據(jù)集上對(duì)基于直方圖交叉核和高斯核的分類(lèi)器的識(shí)別性能進(jìn)行比較分析,并分析研究空間金字塔匹配原理對(duì)識(shí)別性能的影響,最后對(duì)基于傳統(tǒng)HOG特征算法、基于SIFT特征算法和本文算法的識(shí)別性能和計(jì)算性能比較分析,以驗(yàn)證本文算法的有效性和合理性。實(shí)驗(yàn)中算法計(jì)算性能用運(yùn)算時(shí)間衡量,識(shí)別精度用平均正確率衡量。
3.3.1識(shí)別性能分析
1)直方圖交叉核提高識(shí)別精度。
為了驗(yàn)證選用直方圖交叉核的合理性,本文分析對(duì)比了兩種核函數(shù):高斯核和直方圖交叉核。實(shí)驗(yàn)分為5組,將15類(lèi)奶牛按照名稱(chēng)排序后分別對(duì)其中的前5類(lèi)、8類(lèi)、10類(lèi)、12類(lèi)和15類(lèi)奶牛識(shí)別分類(lèi)。表1給出的是BOF模型中選用優(yōu)化HOG作為特征描述符,使用高斯核和直方圖交叉核作為分類(lèi)器核函數(shù)時(shí)的識(shí)別精度情況。選擇的SVM類(lèi)型為C-SVC,松弛變量為200,其中高斯核參數(shù)gamma=2,直方圖交叉核為本文自定義核,N表示類(lèi)別數(shù)目。
由表1可知,在實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置相同的條件下,選用直方圖交叉核和高斯核作為分類(lèi)器核函數(shù)時(shí),算法的平均識(shí)別精度分別可達(dá)93.3%、90.8%,選用直方圖交叉核作為核函數(shù)比選用高斯核作為核函數(shù)能將算法的識(shí)別性能平均提高將近2.5個(gè)百分點(diǎn),并且隨著奶牛類(lèi)別數(shù)目的增多,其提高的識(shí)別率整體上呈現(xiàn)增大的趨勢(shì)。因此,本文算法選用直方圖交叉核作為分類(lèi)器核函數(shù)以提高識(shí)別性能。
2)空間金字塔提高識(shí)別精度。
為了驗(yàn)證金字塔匹配原理的有效性,本文同樣是進(jìn)行了5組對(duì)比實(shí)驗(yàn),將15類(lèi)奶牛按照名稱(chēng)排序后分別對(duì)前5類(lèi)、8類(lèi)、10類(lèi)、12類(lèi)和15類(lèi)奶牛識(shí)別分類(lèi)。表2給出了將優(yōu)化HOG特征分別引入BOF模型和基于空間金字塔匹配的BOF模型時(shí)的識(shí)別精度情況,分類(lèi)器核函數(shù)為本文自定義直方圖交叉核。將優(yōu)化HOG特征引入到基于SPM的BOF模型即為本文算法,N表示類(lèi)別數(shù)目。
由表2可知,本文算法和BOF模型的平均識(shí)別精度分別可達(dá)95.3%、93.3%。本文算法能夠?qū)⑺惴ǖ淖R(shí)別精度平均提高將近2個(gè)百分點(diǎn),驗(yàn)證了本文算法使用基于金字塔匹配的BOF模型的有效性。
3.3.2與基于其他特征的算法對(duì)比分析
本文算法,選用直方圖交叉核作為分類(lèi)器核函數(shù),對(duì)BOF模型的識(shí)別性能作出優(yōu)化。為驗(yàn)證本文優(yōu)化HOG作為特征描述符相比傳統(tǒng)HOG作為特征描述符在不引起性能損失的前提下提高了算法的計(jì)算效率、相比SIFT作為特征描述符在保證識(shí)別精度的基礎(chǔ)上提高了算法的計(jì)算性能,同樣是進(jìn)行了上述5組對(duì)比實(shí)驗(yàn)。表3將本文算法與其他算法對(duì)比分析,給出了本文算法,分別使用傳統(tǒng)HOG、優(yōu)化HOG、SIFT作為圖像特征描述符時(shí)算法的運(yùn)行時(shí)間和識(shí)別精度。為使實(shí)驗(yàn)數(shù)據(jù)具有可比性,實(shí)驗(yàn)中基于傳統(tǒng)HOG、SIFT特征的算法其圖像大小、金字塔層數(shù)、字典大小等參數(shù)設(shè)置與本文算法完全一致,分類(lèi)器核函數(shù)均為本文自定義直方圖交叉核。
從表3的結(jié)果可知,在實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置完全相同的條件下,本文算法和基于傳統(tǒng)HOG特征算法的平均識(shí)別精度分別可達(dá)95.3%、74.0%。使用本文優(yōu)化HOG特征相比使用傳統(tǒng)HOG特征,算法識(shí)別性能平均提高21.3個(gè)百分點(diǎn),運(yùn)算效率為其1.68倍,證明本文優(yōu)化HOG特征的優(yōu)越性。
另一方面,在實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置相同的條件下,文本算法和基于SIFT特征算法的平均識(shí)別精度分別可達(dá)95.3%、95.6%。導(dǎo)致本文算法平均識(shí)別精度較低的主要原因在于第2組實(shí)驗(yàn)中二者的識(shí)別精度相差較大,這與本文算法中K-Means的初始聚類(lèi)質(zhì)心是隨機(jī)選擇的有關(guān)。與使用SIFT作為特征描述符的算法相比,使用優(yōu)化HOG作為特征描述符的本文算法在保證識(shí)別精度平均達(dá)到95.3%的基礎(chǔ)上,計(jì)算性能為其7.10倍,并且隨著奶牛類(lèi)別數(shù)目的增多,優(yōu)化HOG作為特征描述符時(shí)的識(shí)別精度逐漸超過(guò)SIFT作為特征描述符時(shí)的識(shí)別精度,其提高的計(jì)算性能也出現(xiàn)增多的趨勢(shì)。
綜合分析表3的結(jié)果可知,本文算法具有較好的魯棒性和實(shí)用性,在實(shí)驗(yàn)數(shù)據(jù)集部分圖像噪聲較多、干擾較大的情況下依然能夠取得好的實(shí)驗(yàn)結(jié)果。
4結(jié)語(yǔ)
本文算法在BOF模型的基礎(chǔ)上,引入空間金字塔匹配原理對(duì)其加以改進(jìn),并引入優(yōu)化31維HOG特征作為圖像特征描述符,在此基礎(chǔ)上選用圖像處理領(lǐng)域中常用于直方圖特征分類(lèi)的直方圖交叉核作為分類(lèi)器的核函數(shù)。將該算法用于奶牛個(gè)體識(shí)別,在本文數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文算法具有較好的魯棒性和實(shí)用性,使用基于空間金字塔匹配的BOF模型和基于直方圖交叉核的分類(lèi)器提高了算法的識(shí)別性能,優(yōu)化HOG作為特征描述符在保證識(shí)別精度的基礎(chǔ)上改善了算法的計(jì)算性能,縮短了計(jì)算時(shí)間。本文接下來(lái)的研究方向?yàn)獒槍?duì)具體的奶牛個(gè)體識(shí)別問(wèn)題,在K-Means聚類(lèi)階段制定更好的初始質(zhì)心選取規(guī)則,以降低識(shí)別精度的隨機(jī)性。
參考文獻(xiàn):
[1]王澍,呂學(xué)強(qiáng),張凱,等.基于快速魯棒特征集合統(tǒng)計(jì)特征的圖像分類(lèi)方法[J].計(jì)算機(jī)應(yīng)用,2015,35(1):224-230. (WANG S, LYU X Q, ZHANG K, et al. Image classification approach based on statistical features of speed up robust feature set [J]. Journal of Computer Applications, 2015, 35(1): 224-230.)
[2]CSURKA G, DANCE C R, FAN L, et al. Visual categorization with bags of keypoints [EB/OL]. [2015-11-06]. http://www.cs.haifa.ac.il/~rita/vision_lab_course/2007/Project3_files/csurka_dance_bags_keypoints.pdf.
Proceedings of the 2004 Workshop on Statistical Learning in Computer Cision. 2004: 1-2.原稿這個(gè)查不到完整要素,ECCV 04與這個(gè)會(huì)議全稱(chēng)完全不一樣
[3]WU L, HOI S C H, YU N. Semantics-preserving bag-of-words models and applications [J]. IEEE Transactions on Image Processing, 2010, 19(7): 1908-1920.
[4]UIJLINGS J R R, SMEULDERS A W M, SCHA R J H. Real-time visual concept classification [J]. IEEE Transactions on Multimedia, 2010, 12(7): 665-681.
[5]ZHENG Z, ZHANG Y, YAN L. Global and local exploitation for saliency using bag-of-words [J]. IET Computer Vision, 2014, 8(4): 299-304.
[6]YU J, JEON M, PEDRYCZ W. Weighted feature trajectories and concatenated bag-of-features for action recognition [J]. Neurocomputing, 2014, 131: 200-207.
[7]ANTHIMOPOULOS M M, GIANOLA L, SCARNATO L, et al. A food recognition system for diabetic patients based on an optimized bag-of-features model [J]. IEEE Journal of Biomedical and Health Informatics, 2014, 18(4): 1261-1271.
[8]SHEN L, LIN J, WU S, et al. HEp-2 image classification using intensity order pooling based features and bag of words [J]. Pattern Recognition, 2014, 47(7): 2419-2427.
[9]ZHU C, BICHOT C-E, CHEN L. Visual object recognition using daisy descriptor [C]// ICME 11: Proceedings of the 2011 IEEE International Conference on Multimedia and Expo. Washington, DC: IEEE Computer Society, 2011: 1-6.
[10]BAY H, TUYTELAARS T, VAN GOOL L. SURF: speeded up robust features [C]// ECCV 06: Proceedings of the 9th European Conference on Computer Vision — Volume Part Ⅰ. Berlin: Springer-Verlag, 2006: 404-417.
[11]WANG M, ZHANG C, SONG Y. Extraction of image semantic features with spatial-range mean shift clustering algorithm [C]// Proceedings of the 2010 IEEE 10th International Conference on Signal Processing. Piscataway, NJ: IEEE, 2010: 906-909.
[12]MU G, LIU Y, WANG L. Considering the spatial layout information of Bag of Features (BoF) framework for image classification [J]. PloS One, 2015, 10(6): e0131164.
[13]CUI J, CUI M, XIAO B, et al. Compact and discriminative representation of bag-of-features [J]. Neurocomputing, 2015, 169: 55-67.
Learning for Visual Semantic Understanding in Big Data
ESANN 2014 — Selected papers from the 22nd European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning (ESANN 2014)
Industrial Data Processing and Analysis — Selected papers from the 11th World Congress on Intelligent Control and Automation (WCICA2014)
[14]REN T, QIU Z, LIU Y, et al. Soft-assigned bag of features for object tracking [J]. Multimedia Systems, 2014, 21(2): 189-205.
[15]ABDULLAH A, VELTKAMP R C, WIERING M A. Ensembles of novel visual keywords descriptors for image categorization [C]// Proceedings of the 2010 11th International Conference on Control Automation Robotics & Vision. Piscataway, NJ: IEEE, 2010: 1206-1211.
[16]DALAL N, TRIGGS B. Histograms of oriented gradients for human detection [C]// CVPR 2005: Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2005, 1: 886-893.
[17]LAZEBNIK S, SCHMID C, PONCE J. Beyond bags of features: Spatial pyramid matching for recognizing natural scene categories [C]// CVPR 06: Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2006, 2: 2169-2178.
[18]CHANG C-C, LIN C-J. LIBSVM: A library for support vector machines [J]. ACM Transactions on Intelligent Systems and Technology, 2011, 2(3): Article No. 27.
[19]FELZENSZWALB P F, GIRSHICK R B, MCALLESTER D, et al. Object detection with discriminatively trained part-based models [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627-1645.
[20]陳永健,汪西莉.FCM預(yù)選取樣本的半監(jiān)督SVM圖像分類(lèi)方法[J].計(jì)算機(jī)應(yīng)用,2014,34(1):260-264. (CHEN Y J, WANG X L. Semi-supervised SVM image classification method with pre-selected by fuzzy C-mean [J]. Journal of Computer Applications, 2014, 34(1): 260-264.)
[21]王朔琛,汪西莉.參數(shù)自適應(yīng)的半監(jiān)督復(fù)合核支持向量機(jī)圖像分類(lèi)[J].計(jì)算機(jī)應(yīng)用,2015,35(10):2974-2979. (WANG S S, WANG X L. Semi-supervised composite kernel SVM image classification with adaptive parameters [J]. Journal of Computer Applications, 2015, 35(10): 2974-2979.)