摘 要:在機器視覺智能導(dǎo)盲系統(tǒng)中,對2維圖像中物體標注與識別極為關(guān)鍵,這一步?jīng)Q定整個系統(tǒng)對障礙物判別的正確性和智能導(dǎo)盲的準確性、實用性。為了得到較好的識別,先進行閾值分割,再對圖像進行Gabor小波變換,考慮速度精度、適應(yīng)性再選擇多尺度和多方向的濾波器組成的小波濾波器,進行特征提取。識別需要建好的目標模型庫由Gabor網(wǎng)絡(luò)組成,識別出目標之后,為了不受訓(xùn)練時間和訓(xùn)練樣本的約束,采用數(shù)據(jù)驅(qū)動的的圖像標注方法。
關(guān)鍵詞:Gabor濾波變換;圖像標注;圖像檢索;標簽挖掘
中圖分類號:TP391.41
本文主要研究在基于機器視覺智能導(dǎo)盲系統(tǒng)中2維圖像中物體標注與辨識的部分。現(xiàn)下,機器視覺領(lǐng)域有很多的圖像識別和標注技術(shù)。在眾多的特征提取算法中選擇了Gabor濾波算法,因為此方法對空間分布和精度要求都比較滿足,利用閾值分割先對原圖進行處理,提高了對識別物的計算速度,對物體識別極為有利;對于數(shù)據(jù)驅(qū)動的圖像標注方法,文獻[1]和文獻[2]提出基于Search的圖像標注算法,屬于數(shù)據(jù)驅(qū)動的標注算法,AnnoSearch方法先將識別圖像視為查詢圖像,提供一個初始標注,在檢索基于文本的相關(guān)圖像集合和標注集合,這個依賴人為提供的標注,而文獻[1]優(yōu)化了該方法,實現(xiàn)了檢索與標注的自動化。
1 特征提取和識別
在真正的機器視覺智能導(dǎo)盲系統(tǒng)中,圖像目標和背景的灰度不是完全不同,是隨著可見光的強弱不同,目標亮度和背景亮度都在變化之中。閾值不應(yīng)該是固定不變的,最好是自適應(yīng)圖像像素的實際性質(zhì)。選擇自適應(yīng)閾值算法對圖像進行閾值分割后,采用Gabor濾波算法,它有著比較優(yōu)越的方向選擇和頻率選擇特點。本文所采用的二位Gabor函數(shù),它的脈沖響應(yīng)函數(shù)表達式是:
ωk與θl(k,?N)分別為調(diào)制頻率與調(diào)制方向,選擇k∈{0,--5}個頻率和l∈{0,--5}個方向來標記,Gabor濾波器可以比較好的描述識別物。這樣一來就有36個濾波器,有著不同的Gabor小波特征,對圖像進行Gabor小波變換,如圖1所示。
圖1 Gabor小波濾波
目標識別需要建好的目標模型庫由Gabor網(wǎng)絡(luò)組成。目標模型Gabor網(wǎng)格的形成過程為:物體圖像的Gabor小波分解結(jié)果是一個多分辨率的圖像模板,它可以通過物體圖像與復(fù)Gabor小波濾波器的卷積得到,利用像素之間的相關(guān)性,對這個物體圖像的模板進行亞抽樣就形成了一個Gabor網(wǎng)格。目標圖像Gabor小波分解與模型Gabor網(wǎng)格的相似性測度則采用彈性匹配算法。
2 圖像標注
現(xiàn)下,已經(jīng)出現(xiàn)的圖像標注方法很多,可是受標注詞典和訓(xùn)練樣本的約束較多,為了避免這些缺陷,采用數(shù)據(jù)驅(qū)動的圖像標注方法。這里要解決的最關(guān)鍵的是圖像檢索和標簽挖掘技術(shù)。
圖像檢索從大規(guī)模圖像數(shù)據(jù)庫中搜索一組與查詢圖像視覺上十分相似的圖像:
(1)利用加權(quán)搜索樹和共現(xiàn)信息的特征量化方法,首先要對不同特征的視覺判別能力進行區(qū)分,并依賴有效的特征量化精度構(gòu)建加權(quán)的搜索樹對局部特征進行有區(qū)別的量化,然后利用大規(guī)模訓(xùn)練集統(tǒng)計不同視覺特征之間的共現(xiàn)頻率。這個量化方法有著比較快的收斂性,和高效的圖像檢索效率。
(2)利用特征組合的圖像表示方法,先用局部特征間空間位置信息把互相包含的局部特征組合在一起來增強局部特征的表達和區(qū)分能力;其次進行圖像匹配時以相應(yīng)倒排索引機制實現(xiàn)特征的組合匹配,并引入特征組合間的空間約束關(guān)系進而提高圖像匹配的準確率。該特征組合有著較好的尺度、旋轉(zhuǎn)和平移不變性,因此非常適合用于大規(guī)模圖像檢索。
(3)采用基于概率混合模型的標簽挖掘方法用于圖像標注,本方法把數(shù)據(jù)驅(qū)動的圖像標注框架中標簽挖掘歸納成關(guān)鍵詞排序問題,先采用回歸模型利用文本的統(tǒng)計特征提取候選詞,然后將基于人工知識庫學(xué)習的主題空間作為橋梁來建立圖像和文本之間的聯(lián)系,最后通過建立概率混合模型對候選詞進行相關(guān)度排序從而得到最終的標注結(jié)果。這個方法支持標注字典,還能生成有效的語義明確的短語,大幅度提高圖像標注的性能。
(4)是高分辨率圖像的實時分享方案,將圖像分享與基于檢索的圖像重構(gòu)相結(jié)合,利用云平臺和大數(shù)據(jù)驅(qū)動圖像的實時分享應(yīng)用。首先采用縮略圖像和局部特征對圖像進行聯(lián)合表示、聯(lián)合壓縮,在保證重構(gòu)質(zhì)量的基礎(chǔ)上進一步減少移動傳輸?shù)呢撦d;然后通過局部特征建立部分復(fù)制圖像之間的聯(lián)系,進而通過區(qū)域匹配、區(qū)域校準、不相關(guān)區(qū)域剪切以及區(qū)域拼接實現(xiàn)高分辨率圖像的即時重構(gòu)分享。這個方案使得機器視覺智能導(dǎo)盲系統(tǒng)視覺體驗更加完善。
其次是標簽挖掘,從圖像檢索結(jié)果的文本描述中挖掘出有意義的文本關(guān)鍵詞作為圖像最終的標注結(jié)果。
為了保證圖像標注的準確率,在充滿噪聲的文本描述中進行快速有效的標簽挖掘,需具備幾個約束條件:
(1)具備一定程度的抗噪能力;
(2)支持實時在線的標注服務(wù);
(3)面向一個開放的標注字典;
(4)有效生成特定有意義的短語。
采用基于混合模型的標簽挖掘,將標簽挖掘歸納為一個關(guān)鍵詞排序問題,首先利用一個回歸模型提取語義明確的單詞或短語作為標注的候選詞,然后通過基于主題空間的概率混合模型對候選詞進行相關(guān)度排序,最終將排序靠前的單詞或短語作為圖像標注結(jié)果。
3 結(jié)束語
機器視覺智能導(dǎo)盲系統(tǒng)中的2維圖像中物體標注與辨識這部分課題研究意義深遠,隨著各類成像電子設(shè)備的飛速發(fā)展,對視頻圖像的更多處理需要越來越多,而機器視覺領(lǐng)域的研究極具挑戰(zhàn)性和可發(fā)展性,對它的學(xué)習希望能為從事該方向研究的人員提供一定的借鑒意義和參考價值。
參考文獻:
[1]孫君頂,趙珊.圖像低層特征提取與檢索技術(shù)[M].北京:電子工業(yè)出版社,2009.
[2]趙玉鳳.圖像檢索中自動標注技術(shù)的研究[D].北京:北京交通大學(xué),2009.
[3]姜弘道,陳和群.有限單元法的程序設(shè)計[M].北京:水利電力出版社,1992.
作者簡介:于寶功(1990.10-),男,陜西西安人,本科,研究方向:2維圖像中物體標注與辨識。
作者單位:西安文理學(xué)院 軟件學(xué)院,西安 710065
基金項目:2012年地方高校國家級大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計劃項目(基于機器視覺的智能導(dǎo)盲系統(tǒng) 201211080012)。