朱耀麟,穆婉婉,武 桐
(1.西安工程大學 電子信息學院,陜西 西安 710048; 2.西北工業(yè)大學 電子信息學院,陜西 西安 710072)
我國是羊絨制品生產(chǎn)、加工和出口大國,國際市場上大部分羊絨制品都來自我國[1]。由于羊絨與羊毛纖維外觀形態(tài)、化學結構和物理性質等都非常相似,市場上存在使用羊毛摻混在羊絨中進行銷售的現(xiàn)象。但二者價格和服用性能都相差巨大[2],因此,建立客觀、準確的羊絨羊毛纖維自動識別模型具有重要的現(xiàn)實意義?;趫D像處理技術的方式效率高且成本低廉,是纖維鑒別領域最常用的方法。
傳統(tǒng)的基于圖像處理技術的羊絨與羊毛鑒別方法,是通過提取纖維直徑、鱗片高度、鱗片厚度等纖維表面形態(tài)特征參數(shù)進行區(qū)分。石先軍等[3]采集了羊絨羊毛纖維的9個形狀參數(shù),并對其差異的顯著性進行了排序,遴選出最優(yōu)組合。但這種方法對數(shù)據(jù)的敏感程度高,特征的測量工作難度較大,且近年來羊絨“羊毛化”現(xiàn)象嚴重,這種方法很難再滿足要求,一些學者開始使用紋理特征、形態(tài)及紋理特征的融合特征來識別羊絨和羊毛纖維。焦明艷[4]使用灰度共生矩陣(gray-level co-occurrence matrix,GLCM)來描述圖像紋理,并從中提取了5個二次統(tǒng)計量作為特征參數(shù)進行了分析。劉偉麗[5]提出一種基于局部二值模式(local binary pattern,LBP)識別方法,將纖維的光學顯微鏡圖像轉變?yōu)榫植慷M制編碼,使用支持向量機(support vector machines,SVM)進行分類,并比較了經(jīng)典LBP、旋轉不變LBP、dis LBP等幾種特征下的識別率。邢文宇等[6]使用纖維形態(tài)和紋理2種特征表征圖像內容,且每種特征采用不同類型的預處理操作,取得了不錯的效果。但這些方法都是基于圖像的低級特征,中級特征通常比低級特征具有更強的描述能力,比較著名的方法之一就是詞袋模型[7]。近年來,計算機視覺技術發(fā)展迅速,詞袋模型在圖像檢索、圖像分類中表現(xiàn)出良好的性能,但因缺乏空間信息限制了其性能。Lazebnik S等[8]提出了空間金字塔詞袋模型,通過將不同層次圖像劃分成一系列子區(qū)域,統(tǒng)計每個子區(qū)域的直方圖獲得特征點絕對位置信息。Tang等[9]度量了視覺單詞間的同義性,構建上下文近義詞典,以此來加入特征點相對位置信息。陸凱等[10]將空間金字塔(spatial pyramid matching,SPM)詞袋模型引入纖維鑒別領域,實現(xiàn)了羊絨羊毛纖維快速自動分類,但羊絨羊毛纖維在圖像中的位置是變化的,所以該方法存在一定的缺陷。根據(jù)以上分析,本文提出一種融合空間信息的詞袋模型用于羊絨羊毛纖維識別。
詞袋模型(bag of words,BOW)將圖像看作是一組無序的視覺單詞組成的向量,使用單詞出現(xiàn)的頻率來表征圖像內容。圖1給出了詞袋模型的基本流程圖,首先提取所有輸入圖像的局部特征點,形成特征點集;然后使用K均值聚類算法對集合進行聚類,將聚類中心看作視覺單詞,所有視覺單詞組成視覺詞典;統(tǒng)計每幅圖像中單詞出現(xiàn)的頻率,生成視覺詞匯直方圖作為圖像的表征;最后送入分類器中進行訓練。從詞袋模型的構造過程可以看出,詞袋模型完全忽略了特征之間的關聯(lián)和位置信息,造成了信息的丟失。
圖1 詞袋模型的基本流程圖
本文從2方面入手來改善詞袋模型缺乏空間信息的缺點。一方面從詞袋模型自身出發(fā),在視覺詞典的基礎上生成空間上下文近義詞表,采用軟分配的方式構建視覺詞匯直方圖,融入特征點間的相對位置信息;另一方面借助含有空間幾何信息的灰度梯度共生矩陣(gray-gradient co-occurrence matrix,GGCM)特征與詞袋特征共同表征圖像紋理,彌補詞袋模型的不足。具體流程圖如圖2所示。
詞袋模型融入空間信息的方法分為2種:一種是融入絕對位置信息;另一種是融入相對位置信息[11]。纖維在圖像中位置是變化的,局部特征相對位置信息相比于絕對位置信息能更好的表征圖像內容,所以本文使用結合空間上下文近義詞表和軟分配詞袋模型(similar words soft assignment-bag of words,SWSA-BOW),給詞袋模型中融入特征點相對位置信息對羊絨羊毛纖維圖像進行分類識別。另外融合含空間幾何信息的特征進一步改善詞袋模型缺乏空間信息的問題。該方法主要包含3部分:特征提?。痪垲惿梢曈X詞典,在此基礎上檢測單詞同義性生成近義詞表;結合軟分配構建視覺詞匯直方圖。
圖2 融合空間信息的詞袋模型羊絨羊毛識別算法流程圖
詞袋模型底層特征提取方式有2種,一種是基于興趣點檢測,另一種是采用密集提取的方式[12]。為避免背景的干擾,使得提取的特征都能集中在纖維主體部分,圖像在預處理時采用感興趣區(qū)域提取的方式,將除纖維以外的其他部分全部去除,因此本文選擇尺度不變特征變換(scale-invariant feature transform,SIFT)關鍵點檢測法。SIFT是Lowe提出的一種基于尺度空間,對圖像旋轉、縮放、平移、仿射變換保持不變性的局部特征描述子[13],是詞袋模型最常用的底層特征。SIFT特征提取的實現(xiàn)步驟包括4部分:①構造尺度空間,候選特征點檢測;②特征點精確定位;③特征點主方向確定;④特征點描述。SIFT特征點最后由128維描述向量表述。本文需要用到特征點的位置信息,SIFT特征點pi由4部分構成,分別為:128維特征向量ri,位置坐標ui,尺度σi,主方向θi,即pi={ri,ui,σi,θi}。
傳統(tǒng)詞袋模型在生成視覺詞典后,采用硬分配的方式,將特征點映射為歐式距離最近的視覺單詞,這種方式只用到了距離最近的單詞,忽略了其他距離較遠而相似性較高的單詞。通過構造近義詞表,結合軟分配的方式,可以有效改善這種問題。本文在視覺詞典的基礎上生成空間上下文近義詞表,在計算特征點上下文信息時,賦予上下文區(qū)域內距離pi點遠的特征點較小的權重,距離pi點近的特征點較大的權重,將特征點相對位置信息融入詞袋模型。
將SIFT特征點pi周圍以ui為中心,以4σi為半徑的圓形區(qū)域定義為pi的空間上下文區(qū)域,認為該圓內所有特征點語義相似,則生成近義詞表的步驟如下:
步驟1: 統(tǒng)計pi點的上下文區(qū)域內的視覺詞匯直方圖:
H(pi)=[cw1(pi),cw2(pi),Lcwk(pi),LcwK(pi)]
作為pi點的空間上下文信息,其中,cwk(pi)為圓內所有映射為視覺單詞wk的pj點的權重之和。pj點的權重由pi與pj之間的位置決定,計算公式為:
其中dij為pi與pj間的相對位置。
步驟2:計算所有映射到視覺單詞wk的特征點pi的空間上下文信息的均值,作為單詞wk的空間上下文信息H(wk)。
步驟3:度量視覺詞典中所有視覺單詞兩兩之間的同義性,生成詞典對應的空間上下文近義詞表。度量公式為:
sim(wm,wn)=cos(H(wm),H(wn))=
近義詞表共K行,K為詞典的大小。每個視覺單詞對應其中一行,第k行為視覺單詞wk與詞典中其他視覺單詞間的同義性大小,并按照從大到小的順序排列。實際應用中只需用到與視覺單詞含義最近的視覺單詞,故表中只記錄與單詞同義性最大的N個視覺單詞的信息。
其中,sim為視覺單詞間的同義性大小。
由以上步驟得到了詞袋特征,雖然融入了特征點的相對位置信息,但與圖像空間關系關聯(lián)度較弱,因此本文選擇含空間幾何信息的GGCM特征進行特征融合。詞袋特征維度較高,GGCM相對很小,為避免高維特征淹沒低維特征,需要將詞袋特征和GGCM特征分別進行歸一化。
實驗樣本由榆林科技局提供,圖像采集按照GB/T 14593—2008《山羊絨、綿羊毛及其混合纖維定量分析方法 掃描電鏡法》中的制樣方法,采集羊絨羊毛纖維圖像各200張。拍攝儀器為美國FEI公司生產(chǎn)的Quanta 450FEG場發(fā)射掃描電子顯微鏡,放大倍數(shù)為1 000倍,圖像大小為500×700像素。
首先需要確定詞典的大小也就是聚類中心K的個數(shù),K值過小會造成差異較大的特征被分配到同一個視覺單詞,K值過大會造成相似的特征被分配到不同的視覺單詞,從而影響圖像的表述。但目前還沒有理論依據(jù)確定K的取值,本文采用先大后小的方式選擇K值。使用BOW模型先大范圍內每次增加100,再小范圍內每次增加50進行測試。結果如圖4所示,說明合適的K值通常可以取得更好的效果。
圖3 詞袋模型在不同詞典大小下的識別率
為了比較不同詞袋模型對分類性能的影響,實驗分別測試了BOW、SPM、SWSA-BOW模型作為羊絨羊毛纖維分類模型的分類準確率。每次從數(shù)據(jù)集中選擇不同混合比的纖維圖像作為訓練集和測試集,訓練集和測試集比例為7∶3,詞典大小設置為400,SVM核函數(shù)選擇徑向基核函數(shù)。表1數(shù)據(jù)顯示,對于不同比例的羊絨羊毛纖維圖像,融入空間位置信息的詞袋模型比傳統(tǒng)詞袋模型的識別更高,而融入了特征點相對位置信息的詞袋模型比融入局部特征絕對位置信息的詞袋模型更適合纖維掃描電子顯微鏡(SEM)圖像紋理的表述。
表1 不同詞袋模型分類準確率比較
為了分析對于羊絨羊毛纖維圖像,融合含有空間信息的特征是否比單一詞袋特征具有更好的分類效果,本文使用SWSA-BOW模型,分別提取纖維圖像SIFT、GLCM、GGCM和加速穩(wěn)健特征(speeded up robust features,SURF)進行實驗。訓練集和測試集圖像比例依然設置為7∶3,詞典大小設置為400,SVM核函數(shù)選擇徑向基核函數(shù)。測試結果如表2所示,可以看出詞袋特征融合GLCM或GGCM特征共同作為紋理特征比使用單一特征的SWSA-BOW模型識別精度要高,融合GGCM的分類正確率比GLCM的準確率更高,說明融合具備空間信息的特征在一定程度上可以彌補詞袋模型的缺點,對于羊絨羊毛纖維SEM圖像,表征紋理的能力更強,且GGCM比GLCM更適合纖維圖像紋理的表述。文獻[15]中使用SURF特征對羊絨羊毛進行分類,所以本文也對比了該算法下由SURF特征構成的詞袋模型的分類結果。分類結果顯示SIFT特征識別率更高。
表2 融合特征及單一詞袋特征分類準確率比較 %
本文提出一種融合空間信息的詞袋模型,對羊絨羊毛纖維電子顯微鏡圖像進行分類來達到纖維鑒別的目的。該方法在傳統(tǒng)詞袋模型的基礎上,融入了特征間的相對位置信息,并采用特征融合的方式,更好的描述圖像紋理,以達到更高的識別率。從實驗結果可以看出,該方法在一定程度上改善了傳統(tǒng)詞袋模型的不足,分類準確率有較大提升,平均識別率可達93.3%,適合羊絨羊毛纖維的識別。同時,該方法還可用于其他紋理圖像的分類。