薛翠紅,齊立萍,孫 昊,楊 鵬
(1.天津理工大學 聾人工學院,天津 300384;2.河北工業(yè)大學 控制科學與工程學院,天津 300130;3. 河北農(nóng)業(yè)大學 理工學院,河北 滄州 061100)
基于顯著性和SURF的家居服務機器人物體識別算法
薛翠紅1,2,齊立萍2,3,孫 昊2,楊 鵬2
(1.天津理工大學 聾人工學院,天津 300384;2.河北工業(yè)大學 控制科學與工程學院,天津 300130;3. 河北農(nóng)業(yè)大學 理工學院,河北 滄州 061100)
物體識別是家居服務機器人的主要問題之一,考慮到家居非結(jié)構(gòu)化環(huán)境下物體識別的復雜性,將不依賴圖像分割的局部特征作為關鍵特征。針對傳統(tǒng)SURF算法運算量大的問題,模擬生物視覺功能,提出了一種基于顯著性區(qū)域指導的局部特征算法。首先采用視覺選擇性注意機制提取圖像顯著區(qū)域,然后提取顯性物體區(qū)域SURF特征,最后完成與目標圖像的特征點匹配,實現(xiàn)場景中目標物體的識別。實驗證明,和傳統(tǒng)SURF算法相比,改進算法速度得到有效提高,同時識別率提高了約10%。關鍵詞: 物體識別;家居服務機器人;SURF特征;視覺選擇性注意機制
隨著老齡化問題的日益嚴重,對家居服務機器人的需求也越來越迫切[1]。良好的物體識別能力是家居服務機器人實現(xiàn)智能作業(yè)的前提,也是機器視覺領域的研究熱點[2]。
在國內(nèi)外,許多科研工作者在物體識別方面做了大量研究。基于詞袋法(Bags of Words,BoW)[3-4]的目標識別主要包括構(gòu)建碼本、在線物體識別兩個步驟,其性能良好,受到了廣泛關注,但是該方法更側(cè)重于進行物體種類識別,而家居服務機器人主要完成對物體個體的識別。文獻[5]利用建模方式對物體進行識別,工作復雜度較高。文獻[6]采用基于局部SIFT特征[7]進行物體識別,由于SIFT特征向量維數(shù)很高,以致后續(xù)計算量極大,導致識別速度過慢。
目前,雖然已經(jīng)涌現(xiàn)出大量的物體識別方法,但是考慮到家居環(huán)境的非結(jié)構(gòu)化、物體種類的繁多、物體不同姿態(tài)的任意擺放、多個物體間的相互接觸與遮擋、機器人運動帶來的圖像模糊性,以及實時性要求等都為機器人的物體感知帶來了諸多困難[8]。傳統(tǒng)的特征提取方法一般都將目標作為一個整體,然后提取不變矩、傅里葉描繪子等整體特征。該方法受到圖像分割精度的嚴重制約,尤其對于家居條件下非結(jié)構(gòu)化環(huán)境,當不規(guī)則物體以任意位姿存在于背景中時,由于圖像結(jié)構(gòu)及其內(nèi)部特征的復雜性與多樣性,將物體完整地分割出來是一項非常具有挑戰(zhàn)性的工作,而局部特征不依賴圖像分割。另外,局部特征良好的尺度不變性、旋轉(zhuǎn)不變性、抗噪性能良好、受光照影響小等優(yōu)點[9],非常適用于家居環(huán)境下三維物體識別。SURF[10]算法是在SIFT算法的基礎上發(fā)展而來,它不僅繼承了SIFT算法的平移、縮放、亮度、旋轉(zhuǎn)不變性等優(yōu)點,而且克服了SIFT算法特征提取匹配速度較慢的缺點。由于SURF特征的以上優(yōu)點,非常適用于家居服務機器人物體識別領域。但是,SURF算法雖然在速度上比SIFT算法有很大提升,但是仍然無法滿足家居服務機器人的實時性要求。
本文為加快家居服務機器人物體識別速度,并提高其可靠性,結(jié)合視覺注意方法[11-12],首先,依據(jù)背景先驗得到顯著性物體區(qū)域,之后,對顯著性物體區(qū)域進行SURF特征檢測,在完成初匹配的基礎上通過RANSAC算法[13]提純匹配對,最終實現(xiàn)場景中目標物體的識別。本文家居服務機器人物體識別算法框圖如圖1所示。
圖1 家居服務機器人物體識別框圖
在實際的圖像中,待識別物體僅僅占據(jù)一小部分空間,大部分區(qū)域是背景。根據(jù)視覺注意機制可知,人類的視覺系統(tǒng)只會處理圖像中的一部分區(qū)域,也就是說圖像中只有部分區(qū)域是人類感興趣的區(qū)域,稱這部分區(qū)域為顯著性區(qū)域。為了提高模型性能,引入視覺注意模型,先提取顯著性區(qū)域,然后再在顯著性區(qū)域中提取特征。目前,顯著性提取中最常用的算法還是基于顯著性優(yōu)先,即直接計算像素或超像素的顯著值[14-16]。與之前的顯著性檢測方法不同,基于背景的顯著性檢測方法計算的是目標區(qū)域和背景的差異性。人眼在觀察物體時,只能良好感知視角前方的物體,通過脖子和眼球的轉(zhuǎn)動,使物體出現(xiàn)于視線正前方,同樣,對于家居服務機器人而言,也可以通過攝像機云臺的轉(zhuǎn)動,使物體出現(xiàn)在機器人視野中間。因此,本文基于背景優(yōu)先進行顯著性區(qū)域提取。
微軟的Wei[17]等幾位學者在2012年提出圖像的四周是背景的概率非常大并且通常是連通的。立足于這個假設,首先在圖像中提取背景區(qū)域,當?shù)玫奖尘皡^(qū)域后,通過計算目標區(qū)域和背景的相似性程度來判斷該圖像塊是屬于背景還是屬于物體,對比度大的就是前景目標,對比度小的就是相對背景。
對于輸入圖像,建立其帶權無向圖G={V,E}。其中V包含全部圖像塊和虛擬背景頂點,V={Pi}∪{B}。E中包含有兩種類型的邊,一種邊是相鄰圖像塊間的內(nèi)部邊,另外一種是用于連接邊界上圖像塊與背景頂點的邊界邊。
(1)
式中:Pi是圖像塊;B是虛擬的背景節(jié)點;wt(Pi,Pi+1)代表兩個像素塊之間的距離。
為了驗證顯著性區(qū)域提取的有效性,在家居環(huán)境下進行實驗。實驗結(jié)果如圖2所示。
圖2 顯著性區(qū)域檢測
圖2中第一行是原圖,第二行是顯著性檢測圖,由圖2a可知,在背景比較簡單的情況下,可以很好地檢測并高亮前景物體,抑制背景區(qū)域,從而直接確定物體位置,完成物體定位。由圖2b可知,在家居環(huán)境復雜紋理背景下,仍然可以高亮易拉罐,抑制了具有復雜紋理的花紋背景,可以完整地提取出物體區(qū)域,直接完成物體定位。由圖2c可知,當存在多個物體時,同時高亮水果筐與易拉罐,可以同時檢測出多個物體。由以上實驗結(jié)果可知,通過基于背景先驗的顯著性物體區(qū)域提取,可以很好地獲得物體區(qū)域。
根據(jù)傳統(tǒng)SURF算法運算量大的特點,采用上節(jié)算法提取出顯著性物體區(qū)域,然后針對此區(qū)域進行SURF特征提取和RANSAC提純匹配對完成物體識別,有效降低了特征提取面積區(qū)域,提高了運算速度。
3.1 SURF特征提取
3.1.1 特征點的檢測
SURF算法利用Hession矩陣來完成特征點檢測。對于圖像I上一點P(x,y),在尺度σ的Hessian矩陣H(P,σ),定義為
(2)
為了提升算法效率,選擇盒式濾波器代替高斯濾波器。盒式濾波器成塊狀結(jié)構(gòu),對于每一塊區(qū)域內(nèi)的權值都是相同的,因而,在計算圖像與濾波器在某一點處的卷積就可以轉(zhuǎn)化成計算原圖像在該點處的積分,利用積分圖像可以大大加快卷積計算,基于積分圖的快速計算,可以得到全新的Hessian矩陣,即
(3)
快速Hessian矩陣的行列式為
det(Happrox)=DxxDyy-(wDxy)2
(4)
式中:w為調(diào)節(jié)參數(shù),用來平衡近似值與準確值之間的誤差,其取值與尺度σ有關,計算方法為
(5)
為了保證尺度不變性,需要不斷擴大濾波模板的尺寸,得到Hessian矩陣行列式的響應函數(shù),通過非極大值抑制得到不同尺度的特征點。
3.1.2 特征點描述
特征點描述過程可分為兩步:第一步是確定主方向。在半徑為6s的圓形鄰域中,以特征點為中心,以π/3為張角,采用扇形滑動窗口累積計算Haar小波在x,y方向的響應值,最終得到矢量Fw=(mw,θw),有
(6)
(7)
式中:w代表滑動窗口;dx、dy分別為滑動窗口中任一點在x、y方向的響應值;mw,θw分別為響應矢量的幅值和幅角。不斷旋轉(zhuǎn)扇形窗口,得到的長度最大的矢量對應的方向為主方向。
第二步是形成特征矢量。需要在主方向上構(gòu)造邊長為20s的正方形區(qū)域,并將該正方形劃分為4×4個子區(qū)域,在每個子區(qū)域內(nèi)都通過Haar模板計算響應值,最后統(tǒng)計響應值得到特征矢量,即
(8)
把16矩形子區(qū)域的向量描述子連接起來,即得到SURF特征向量。SURF算法的特征點最終由一個64維的特征向量描述。
3.2 RANSAC匹配識別
在實際SURF特征匹配中會存在誤匹配。因此本文在完成初匹配的情況下要進一步對匹配對進行提純。
本文使用投影變換模型,主要實現(xiàn)步驟如下:
1)從預匹配點對中隨機選取4組建立方程組,估計變換矩陣M的參數(shù)。
2)計算剩余的匹配點經(jīng)過M變換后與相對應的匹配點間的距離,若距離小于某一閾值,則該點為內(nèi)點,否則為外點。
3)經(jīng)過多次迭代,找出內(nèi)點最多的變換矩陣,在該變換下,去除誤差較大的錯誤匹配對。完成物體的匹配識別。
3.3 算法分析
根據(jù)SURF算法可知,SURF特征提取階段計算量大,占據(jù)了大部分的系統(tǒng)資源。圖像面積越大,細節(jié)特征越豐富,局部特征的數(shù)量則越多,特征提取和特征匹配的計算量也就越大。要滿足家居服務機器人識別物體的實時性要求,可以通過減少局部特征的數(shù)量來提高SURF算法效率。
傳統(tǒng)的減少局部特征的思路是調(diào)整閾值,通過改變閾值大小來控制特征數(shù)量的多少。這種方法可以提高SURF算法速度,但是因為是全局性調(diào)整閾值,對于重要特征點和非重要特征點一起過濾,實際上,圖像不同區(qū)域?qū)ξ矬w識別的重要程度有很大差異,因此,傳統(tǒng)的閾值調(diào)整在去除非重要特征點的同時往往會過濾掉大量的重要特征點,從而影響算法的準確率。
與傳統(tǒng)閾值調(diào)整方法不同,顯著性檢測在去除大量非重要特征點的同時可以有效保留重要特征。因此可以依據(jù)顯著性區(qū)域提取算法去掉大部分背景,縮小檢測圖像面積,從而可以過濾掉大量不重要的特征點,則可以有效的減少SURF算法的運算量,同時提高物體識別準確率。
4.1 實驗平臺
家居服務機器人平臺如圖3所示,其主要結(jié)構(gòu)如下:底盤左右兩端各配置一個驅(qū)動輪,前端配置一個萬向輪;計算部件采用ARK-3500無風扇嵌入式
工控機,其處理器為Intel Core i7-3610QE 2.3 GHz,內(nèi)存可達16 Gbyte。視覺傳感器采用FMVU-03MTC-CS,基于Visual Studio 2010進行開發(fā)。
圖3 機器人平臺
4.2 物體識別實驗
設置對比試驗,將本文改進算法與傳統(tǒng)算法進行對比。在室內(nèi)場景下,基于家居服務機器人進行場景視頻的采集,在復雜程度不同的背景下進行對比試驗。圖像分辨率為640×480。實驗分別選取了家居環(huán)境下常見物體易拉罐、洗潔精作為測試物體,實驗結(jié)果分別如圖4所示。
圖4 家居服務機器人識別效果圖
圖4中,第一行組圖像為顯著性區(qū)域提取效果圖,從圖中可以看出,該方法可以很好地抑制背景圖像,高亮顯著性區(qū)域,得到圖像的感興趣部分,符合人類視覺認知模型。第二行圖像為識別效果圖,可知無論在簡單背景還是復雜背景下,該算法都可以很好地識別物體,證明該算法具有良好的適用性。
表1對圖4中圖片的特征數(shù)量、有效匹配點數(shù)量、正確匹配點數(shù)量等指標進行統(tǒng)計。
有效匹配點是指場景圖片特征點中,可以成功與模板圖片特征點進行匹配的部分。正確匹配點指場景圖片特征點中,與模板圖片特征點成功匹配并且正確匹配的部分。采用文獻[18]中的評價標準來判斷匹配點是否正確,對于兩個正確匹配的特征點,應該滿足以下條件:1)二者鄰域交疊誤差小于0.4;2)通過映射后的特征點之間的Euclidean距離小于6。 定義圖片特征數(shù)量為n,有效匹配點數(shù)量為ne,正確匹配點數(shù)量為nc。
有效匹配點比率為
(9)
表1 實驗結(jié)果列表
方法特征檢測面積特征點數(shù)量有效匹配點數(shù)量正確匹配點數(shù)量特征提取匹配耗時/ms有效匹配點比率/%正確匹配點比率/%時間縮減比率/%SURF算法a640×48081252463.5030.8696—本文改進算法a99×17854222215.2840.7410068.49SURF算法b640×4807532016160.712.6680—本文改進算法b172×290118211929.4317.8090.4877.74SURF算法c640×480116242279.3220.6991.67—本文改進算法c84×32972262517.9836.1196.1570.98SURF算法d640×4807112725237.743.8092.59—本文改進算法d323×355303323259.1610.5610072.18SURF算法e640×480284151281.365.2880—本文改進算法e274×14983161519.3419.2893.7571.15SURF算法f640×4808311413275.651.6892.86—本文改進算法f415×199326161664.554.9110073.99
正確匹配點比率為
(10)
其中:有效匹配點比率可用來表示在進行特征點匹配時,從圖片所有特征點中找到有效匹配點的概率。找到匹配點的概率越高,則說明對無效特征點操作相對越少。正確匹配比率用來反映在有效匹配點中正確的比例,用來表示誤檢的概率,比例越高,誤檢的概率越低。
定義原始圖片特征提取匹配用時為td,顯著性處理用時為ts,顯著性處理后特征提取匹配用時為tsd。
則時間縮減比率為
(11)
通過表1可以看出,基于顯著性指導的SURF算法相比于直接使用SURF算法,不僅使需要進行SURF特征檢測的面積大幅度減少,而且特征點數(shù)量也大幅度降低,從而使特征提取匹配時間明顯縮短,而顯著性檢測算法本身耗時僅為幾毫秒,圖4a、圖4b、圖4c、圖4d、圖4e、圖4f這6幅圖片顯著性提取耗時分別為:4.73 ms,6.34 ms,5.04 ms,6.97 ms,4.13 ms,7.15 ms。通過式(11)計算,最后得到了良好的時間縮減比率。經(jīng)過顯著性處理后,有效匹配點數(shù)量不但不會明顯減少,甚至出現(xiàn)了增多的情況,證明顯著性提取效果較好。在顯著性處理后,有效匹配點比率有較大提升,正確匹配比率也有所提高,說明經(jīng)過顯著性處理后可以去除非顯著性區(qū)域特征點的干擾,并且所提取特征點對待識別物體具有較高的表征能力,可以與目標模板中特征點進行良好匹配,從而可以提高SURF算法識別的準確率。
為驗證算法的適用性,選取家居環(huán)境中5種常見物體進行大量測試實驗,其中毛絨玩具的紋理相對比較簡單,如圖5所示。
圖5 測試物體
本文從識別率和算法耗時兩個方面,比較SIFT算法、SURF算法、基于顯著性指導的SIFT算法、基于顯著性指導SURF方法的識別性能。
1)識別率比較
由于并不存在適用于本論文研究內(nèi)容的數(shù)據(jù)庫。所以基于家居服務機器人在不同場景下進行場景視頻的采集,視頻分辨率大小為640×480。在光照變化、物體遮擋、運動模糊、視角變化、尺度變化等各種場景下拍攝了多組視頻序列進行測試。為了進行定量分析,記錄了200幅簡單背景下易拉罐圖像、200幅復雜背景下易拉罐圖像、200幅簡單背景下水杯圖像、200幅復雜背景下水杯圖像、200幅簡單背景下毛絨玩具圖像、200幅復雜背景下毛絨玩具圖像、200幅簡單背景下洗潔精圖像、200幅復雜背景下洗潔精圖像、200幅簡單背景下食品袋圖像、200幅復雜背景下食品袋圖像的識別情況與耗時情況,其中每一幅圖像的背景均不同,經(jīng)統(tǒng)計得到的識別率見表2。
表2 識別率對比
樣本識別率/%傳統(tǒng)SIFT方法傳統(tǒng)SURF方法基于顯著性指導的SIFT方法基于顯著性指導的SURF方法簡單背景易拉罐87.58292.590復雜背景易拉罐68.56783.579易拉罐總樣本7874.58884.5簡單背景水杯918394.588復雜背景水杯73.5678486水杯總樣本82.257589.2587簡單背景毛絨玩具8478.58784.5復雜背景毛絨玩具61.5598179.5毛絨玩具總樣本72.7568.758482簡單背景洗潔精8490.589.594.5復雜背景洗潔精6366.582.584洗潔精總樣本73.578.58689.25簡單背景食品袋87849489復雜背景食品袋6869.58882.5食品袋總樣本77.576.759185.75
由表2可知,無論在復雜背景下還是簡單背景下,基于顯著性指導的SIFT和SURF算法比直接使用SIFT和SURF具有更高的識別率,尤其對于復雜背景圖片提升效果更明顯。此外,相對于傳統(tǒng)的SIFT和SURF算法,背景復雜程度對本文改進算法識別率的影響更小,證明了基于顯著性指導的SIFT和SURF物體識別比直接使用SIFT和SURF具有更好的穩(wěn)定性。
圖6更直觀地顯示了SIFT算法、SURF算法、基于顯著性指導的SIFT算法、基于顯著性指導的SURF算法的平均識別率對比情況。由圖6可直觀地看出,基于顯著區(qū)域指導的物體識別算法是有效的。在顯著圖上提取特征點,極大地消除了復雜背景對特征提取的干擾,減少了錯誤匹配對,在進行顯著性區(qū)域提取后,無論是基于SIFT特征還是SURF特征,5種物體的識別率均有了顯著性提高。統(tǒng)計全部物體的平均識別率,基于顯著性指導的SIFT算法的平均識別率最高,為87.45%,基于顯著性指導的SURF算法的平均識別率為85.5%,與基于顯著性指導的SIFT算法相比相差不大,傳統(tǒng)SURF算法的平均識別率為74.7%,可知,本文改進的SURF算法相比傳統(tǒng)SURF算法提高了約10%。
圖6 物體識別率比較
2)算法耗時比較
本文從最大耗時、最小耗時、平均耗時3個方面對4種算法進行比較,結(jié)果如表3所示。由表3可知,經(jīng)過顯著性指導的SIFT算法和基于顯著性指導的SURF算法相比傳統(tǒng)SIFT算法和SURF算法,最大耗時、最小耗時和平均耗時均明顯減少。其中,基于顯著性指導的SURF算法平均耗時最小,這是由于經(jīng)過顯著性處理以后特征點檢測面積和特征點數(shù)目同時減少,特征提取和匹配的時間極大縮短,而顯著性提取過程耗時僅為幾毫秒,因此,本節(jié)改進算法可以有效提高識別速度,提高算法效率。
表3 不同算法耗時比較
方法最大耗時/ms最小耗時/ms平均耗時/msSIFT算法1175.94197.82579.43SURF算法373.0550.34151.34基于顯著性指導的SIFT算法235.0752.39139.75基于顯著性指導的SURF算法83.7114.1537.25
從識別率角度考慮,雖然基于顯著性指導的SURF算法要略低于基于顯著性指導的SIFT算法,但是時間效率要比基于顯著性指導的SIFT算法高很多,綜合考慮家居服務機器人對識別率實時性的要求,基于顯著性指導的SURF算法具有更好的適用性。
本文提出了基于顯著性區(qū)域指導的機器人物體識別算法。對含有目標物體的圖像,通過視覺注意機制選擇圖像中顯著區(qū)域,然后提取顯著性區(qū)域SURF特征,經(jīng)過圖像匹配完成物體識別?;诩揖臃諜C器人平臺從識別率和算法耗時兩個方面對本文改進算法進行測試。實驗證明,與傳統(tǒng)SURF算法相比,基于顯著性區(qū)域指導的識別算法在識別率和實時性方面均有一定提高。
[1] XU Q, NG J S L, TAN O Y, et al. Needs and attitudes of Singaporeans towards home service robots: a multi-generational perspective[J]. Universal access in the information society, 2015,14(4): 477-486.
[2] KEHOE B, MATSUKAWA A, CANDIDO S, et al. Cloud-based robot grasping with the google object recognition engine[C]//Proc. 2013 IEEE International Conference on Robotics and Automation. Karlsruhe: IEEE, 2013: 4263-4270.
[3] CSURKA C, DANCE C R, FAN L X, et al. Visual categorization with bags of keypoints [C]// Proc. 8th ECCV Workshop on Statistical Learning in Computer Vision. Czech Republic: Springer, 2004: 1-22.
[4] LAZEBNIK S, SCHMID C, PONCE J. Beyond bags of features: spatial pyramid matching for recognizing natural scene categories [C]//Proc. 19th IEEE Conference on Computer Vision and Pattern Recognition, New York :IEEE, 2006: 2169-2178.
[5] CHEN Y, JI Z C, HUA C J. 3-D model matching based on distributed estimation algorithm[C]//Proc. 2009 Chinese Control and Decision Conference. Guilin: IEEE, 2009: 5036-5067.
[6] COLLET A, MARTINEZ M, SRINIVASA S S. The MOPED framework: object recognition and pose estimation for manipulation[J]. International journal of robotics research, 2011, 30(10): 1284-1306.
[7] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2):91-110.
[8] 楊揚. 基于機器視覺的服務機器人智能抓取研究[D].上海:上海交通大學, 2014.
[9] 吳月鳳, 何小海, 張峰,等. SURF算法和RANSAC算法相結(jié)合的臺標檢測與識別[J]. 電視技術, 2014, 38(13):191-195.
[10] BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF)[J]. Computer vision and image understanding, 2008, 110(3):346-359.
[11] Liu G H, Yang J Y, Li Z Y. Content-based image retrieval using computational visual attention model[J]. Pattern recognition, 2015, 48(8): 2554-2566.
[12] DESIMONE R, DUNCAN J. Neural mechanisms of selective visual attention[J].Annual reviews of neuro science, 1995(18):193-222.
[13] FISCHLER M A, BOLLES R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981, 24(6): 381-395.
[14] HOU X, ZHANG L. Saliency detection: a spectral residual approach[C]//Proc. IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis: IEEE, 2007: 1-8.
[15] KIM J S, SIM J Y, KIM C S. Multiscale saliency detection using random walk with restart[J]. IEEE transactions on circuits and systems for video technology, 2014, 24(2): 198-210.
[16] PERAZZI F, KRAHENBüHL P, PRITCH Y, et al. Saliency filters: contrast based filtering for salient region detection[C]//Proc. 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence. RI: IEEE, 2012: 733-740.
[17] WEI Y C, WEN F, ZHU W J. Geodesic saliency using back ground priors[C]//Proc. 12th European Conference on Computer Vision 2012. Berlin Heidelberg: Springer, 2012: 29-42.
[18] HUANG C R, CHEN C S, CHUNG P C. Contrast context histogram——an efficient discriminating local descriptor for object recognition and image matching[J]. Pattern recognition, 2008, 41(10):3071-3077.
薛翠紅(1980— ),女,博士,講師,主研圖像處理、模式識別、機器人視覺;
齊立萍(1991— ),女,碩士生,主研智能機器人控制、模式識別;
孫 昊(1984— ),博士,副教授,主研機器人智能控制;
楊 鵬(1960— ),教授,博士生導師,主研智能機器人、模式識別、康復輔具。
責任編輯:薛 京
Object recognition algorithm based on saliency and SURF for home service robot
XUE Cuihong1,2, QI Liping2,3, SUN Hao2, YANG Peng2
(1.TechnicalCollegefortheDeaf,TianjinUniversityofTechnology,Tianjin300384,China2.SchoolofControlScienceandEngineering,HebeiUniversityofTechnology,Tianjin300130,China;3.CollegeofScienceandTechnology,AgriculturalUniversityofHebei,HebeiCangzhou061100,China)
Object recognition is one of the main problems of the home service robot. In view of the complexity of the object recognition in the indoor non-structural environment,local feature is selected as key features,which doesn’t dependent on image segmentation. To reduce the computation of the SURF algorithm, a local feature algorithm based on saliency region guidance is proposed. First of all, salient region is extracted from the image based on visual selective attention mechanism. Then, invariant SURF feature is extracted from the salient region. Finally, by matching the feature points, the recognition of target object in the scene is realized. Experimental results show that the speed is effectively improved compared with the traditional SURF algorithm, and the recognition rate is improved about 10 percent.
object recognition; home service robot; SURF features; visual selective attention mechanism
薛翠紅,齊立萍,孫昊,等.基于顯著性和SURF的家居服務機器人物體識別算法[J]. 電視技術,2017,41(2):54-60. XUE C H, QI L P, SUN H, et al.Object recognition algorithm based on saliency and SURF for home service robot[J]. Video engineering,2017,41(2):54-60.
TN911.73
A
10.16280/j.videoe.2017.02.012
國家自然科學基金項目(61305101;61503118);河北省自然科學基金項目(F2014202121;F2015202239);天津科技計劃項目(14RCGFGX00846)
2016-05-18