楊飛 羅建橋 李柏林
摘 要:針對監(jiān)督潛在狄利克雷分布(sLDA)模型中測試圖像缺乏標注,導致測試主題分布忽略目標結(jié)構(gòu)的問題,提出一種結(jié)合全局和局部約束的sLDA(glc-sLDA)扣件圖像分類模型。首先,人工標注訓練圖像,并在sLDA模型中學習得到含有結(jié)構(gòu)信息的訓練主題分布;然后,計算測試主題分布,將測試圖像的類別概率作為全局約束,將測試圖像子塊與訓練圖像子塊的主題相似程度作為局部約束;最后,以全局和局部約束的乘積為更新權(quán)值,對訓練主題分布加權(quán)求和得到新的測試主題分布,并在Softmax分類器中得到測試圖像的分類結(jié)果。實驗結(jié)果表明,glc-sLDA模型能表達扣件結(jié)構(gòu)信息,與sLDA相比,各類別的扣件圖像區(qū)分性增強,分類誤檢率減小了55%。
關(guān)鍵詞:鐵路扣件分類;監(jiān)督潛在狄利克雷分布;主題模型;單詞標注;目標結(jié)構(gòu);更新主題分布
中圖分類號: TP391.41
文獻標志碼:A
文章編號:1001-9081(2019)03-0888-06
Abstract: Aiming at the ignorance of target structure in test topic distribution due to the lack of annotation in supervised Latent Dirichlet Allocation (sLDA) model, a sLDA fastener image classification model combined with global and local constraints (glc-LDA) was proposed. Firstly, the training images were manually labeled, and the training topic distribution with structural information was learned in sLDA model. Then, the test topic distribution was calculated to obtain the image category probabilities as global constraints, the topic similarities of training sub-blocks and test sub-blocks as local constraints. Finally, updated test topic distribution was obtained by weighted summation of training topic distribution with the product of global and local constraints as updated weights. The image category labels were obtained in Softmax classifier by the updated topics. The experimental results show that the proposed algorithm can express the structural information of fastener and compared with sLDA model, the distinction of each category of fastener images is enhanced, and the false detection rate is reduced by 55%.
Key words: railway fastener classification; supervised Latent Dirichlet Allocation (sLDA); topic model; annotation of word; target structure; update topic distribution
0 引言
將鐵路鋼軌固定在軌枕上的部件稱為鐵路扣件,通過機器視覺技術(shù)檢測扣件狀態(tài),及時發(fā)現(xiàn)失效扣件具有十分重要工程價值??奂z測任務屬于圖像分類問題,獲取扣件圖像后,根據(jù)圖像特征將扣件分類為正常類別和失效類別。國內(nèi)外學者曾研究采用主成分分析(Principal Component Analysis, PCA)[1]、方向場(Directional Field, DF)[2]、尺度不變描述子(Scale Invariant Feature Transform, SIFT)[3]、局部二值模式(Local Binary Pattern, LBP)[4]等底層特征分類扣件圖像,出現(xiàn)了大量分類錯誤。由于扣件姿態(tài)不一、道砟遮擋、光照變化、失效形式多樣等因素,底層特征無法穩(wěn)定描述圖像內(nèi)容,導致分類結(jié)果和圖像真實語義不同。不同類型的扣件圖像如圖1所示。
潛在狄利克雷分布(Latent Dirichlet Allocation, LDA)主題模型[5]在各種復雜場景圖像分類任務中表現(xiàn)出良好性能[6-8],并且能夠有效分類扣件圖像[9-11]。LDA主題模型通過對圖像底層特征進行統(tǒng)計學習,增強了圖像描述能力。首先,通過K均值聚類底層特征得到碼本;然后,用詞包模型[12]將特征編碼為視覺單詞;最后,利用多項分布和狄利克雷分布從單詞詞頻中提取主題分布。LDA主題分布不僅維度遠小于底層特征,而且魯棒性更強[10];但是,LDA模型忽略了圖像的空間結(jié)構(gòu)信息,無法描述扣件結(jié)構(gòu)變化。單詞詞頻僅統(tǒng)計視覺單詞出現(xiàn)的次數(shù),忽略了單詞的空間位置,所以,LDA主題分布無法體現(xiàn)扣件的結(jié)構(gòu)信息和位置狀態(tài)[11]??奂У暮暧^表現(xiàn)為結(jié)構(gòu)或位置改變,扣件的結(jié)構(gòu)信息和位置狀態(tài)對于最終的扣件分類結(jié)果尤其重要。文獻[9]專門定義了一種結(jié)構(gòu)主題模型(Structure Topic Model, STM),STM定義了三個扣件模板,根據(jù)單詞在模板中的位置推導主題分布,能夠有效區(qū)分各種扣件類別。文獻[10]利用水平方向紋理特征表達扣件結(jié)構(gòu),增強了正常和失效扣件在圖像表達上的區(qū)別。監(jiān)督潛在狄利克雷分布(supervised LDA, sLDA)模型[13]對訓練集圖像內(nèi)容進行了人工標注,引入了目標結(jié)構(gòu)信息。sLDA聯(lián)合單詞和標注共同訓練模型參數(shù),主題分布通過模型參數(shù)間接考慮了圖像結(jié)構(gòu)信息。異質(zhì)人臉圖像合成方法[14-16]中,訓練集由真實人臉圖像及其手工素描圖像組成的圖像對構(gòu)成,對于一張原始的人臉圖像,可通過訓練集的手工素描圖自動生成新圖像的素描圖像。類似地,sLDA模型的訓練集圖像的主題分布包含結(jié)構(gòu)信息,采用sLDA模型的訓練集主題分布合成測試圖像主題分布,可以準確表達扣件結(jié)構(gòu)。此外,隨機局部約束(Random Sampling with Locality Constraint Reconstruction, RSLCR)方法[16]對圖像子塊進行局部約束,根據(jù)圖像子塊坐標,在訓練集中選擇相應位置的素描圖像子塊,結(jié)合圖像子塊上下文關(guān)系,合成新的素描圖像,快速引入圖像的空間結(jié)構(gòu)信息,在考慮人臉空間結(jié)構(gòu)的同時,又避免了隨機場方法(Random Field, RF)[14-15]巨大的計算量。
綜上所述,結(jié)合sLDA模型和RSLCR方法,并新增一種全局約束,提出結(jié)合全局和局部約束的sLDA(sLDA wth global and local constraints, glc-sLDA)扣件圖像分類模型。在glc-sLDA模型中,通過對包含結(jié)構(gòu)信息的訓練集子塊主題分布加權(quán)求和,更新測試圖像子塊主題分布,從而準確表達扣件結(jié)構(gòu)。更新主題分布的權(quán)值由全局約束和局部約束兩部分構(gòu)成:全局約束用于描述測試圖像的類別,測試圖像屬于某一類別的概率越高,該類訓練集圖像中的子塊權(quán)值就越大;局部約束用于描述測試圖像子塊與訓練集子塊的主題相似程度,相似程度越高,對應子塊的權(quán)值越大。全局約束和局部約束的乘積作為最終主題更新權(quán)值,子塊主題分布的加權(quán)和就是測試圖像子塊的主題分布。更新完測試圖像的全體子塊后,獲得整幅圖像新的主題分布。將更新后的主題分布放入Softmax分類器,得到測試圖像的分類結(jié)果。本文算法流程如圖2所示。
1 sLDA主題模型
采用sLDA模型對扣件圖像及其標注圖像進行建模,估計模型參數(shù),推導圖像主題分布。
由此可知,測試圖像的主題分布缺乏結(jié)構(gòu)信息。
3 實驗設(shè)計及結(jié)果分析
3.1 實驗數(shù)據(jù)及配置
實驗數(shù)據(jù)來自滬昆線云南至大理路段,采用定位分割算法[4]得到的扣件圖像。圖像類別包括扣件正常、扣件丟失、扣件斷裂、疑似扣件、鐵路道砟、其他類別,共計6類。疑似扣件類別包括鐵路道岔區(qū)域的扣件,定位誤差較大的扣件等各種形態(tài)各異的圖像。對于測試圖像,預測類別若為正常,則扣件有效;若為丟失、斷裂、道砟、其他類別,則扣件故障;若為疑似類別,則需要人工復檢。正??奂活A測為失效或疑似類別稱為誤檢,誤檢率=誤檢圖像數(shù)量/正??奂倲?shù)×100%;扣件故障被預測為有效稱為漏檢,漏檢率=漏檢圖像數(shù)量/失效扣件總數(shù)×100%。
本文采用1200張扣件圖像作為數(shù)據(jù)集,其中正常、丟失、斷裂、道砟、其他、疑似六類,每類200張。另外,再采用5000張圖像作為擴大的測試集。每張扣件圖像分辨率為120×180。計算機處理器為Intel Core i5-6400 CPU @2.70GHz 2.71GHz,內(nèi)存8.00GB,在Matlab 2014a環(huán)境下進行實驗。
3.2 主題更新權(quán)值可視化
設(shè)計一種可視化實驗,表達主題更新權(quán)值ωm的物理意義。由于測試圖像缺乏人工標注,可根據(jù)主題更新權(quán)值ωm,生成測試圖像的標注圖像。所生成的標注圖像與扣件真實形態(tài)的相似程度,作為ωm表達扣件結(jié)構(gòu)信息的可視化結(jié)果。定義測試圖像子塊生成的標注圖像為:
其中:ltrainm,n是訓練集子塊的標注圖像。另外,為驗證全局約束對圖像結(jié)構(gòu)信息的影響,設(shè)置一組僅采用局部約束生成標注圖像的對比實驗。
實驗過程如下:在1200張圖像數(shù)據(jù)集中隨機選取600張作為訓練集,每類100張;余下600張為測試集,分別生成測試圖像的標注圖像。實驗參數(shù)設(shè)置:參考文獻[10],圖像子塊尺寸20×20,兩個子塊之間重疊15個像素,底層特征采用LBP特征,鄰域半徑取2;單詞容量V=200,主題數(shù)量K=10,先驗常數(shù)αk=0.1;子塊過大,會忽略掉圖像細節(jié)信息;子塊過小,無法體現(xiàn)圖像的形狀結(jié)構(gòu)。重疊像素過少,獲取的圖像信息不完整;重疊像素過多,則會信息冗余,計算速度慢。單詞容量和主題數(shù)量過少則會導致圖像的表達不充分,過多則會導致信息的冗余。因此,根據(jù)已有實驗驗證,選取了最佳參數(shù)值。標注閾值ε0=0.2,扣件彈條在子塊中所占最小像素比在0.2左右,若標注閾值小于0.2則會將背景噪聲當作扣件紋理;若標注閾值大于0.2,則會忽略掉部分扣件紋理。參考文獻[16],經(jīng)過多次實驗優(yōu)化后,在訓練集中隨機選取圖像的數(shù)量Ms=100,在100個更新權(quán)值中選擇5個最大的權(quán)值,即Ms′=5,以提高實驗速度。隨機選取的次數(shù)T=3。
可視化實驗結(jié)果如圖4所示。
對比分析生成的扣件標注圖像,可得出以下兩點結(jié)論:1)單獨使用局部約束無法準確描述扣件形態(tài)。如圖4(b)所示,僅使用局部約束生成的標注圖像比較模糊,且無論原圖中扣件是否正常,生成的標注圖像均和正常扣件較為相似,無法準確描繪扣件的真實形態(tài)。這是因為單獨采用局部約束時,ωlm只能度量圖像子塊之間的相似性,忽略了整幅圖像的類別信息,生成的標注圖像可能由訓練集中正常類別的圖像子塊產(chǎn)生。2)結(jié)合局部約束和全局約束的標注圖像與圖像內(nèi)容一致。如圖4(c)所示,添加全局約束后,生成的標注圖像基本能描繪扣件的真實形態(tài)。這是因為全局約束ωom描述了圖像類別狀態(tài),局部約束ωlm保證了子塊相似性,生成的標注圖像由和測試圖像同類別的訓練集圖像子塊產(chǎn)生,能反映出扣件的真實形態(tài)。
由實驗結(jié)果分析可知,結(jié)合全局和局部約束的主題更新權(quán)值的方法能夠刻畫扣件結(jié)構(gòu),主題更新權(quán)值計算的主題分布考慮了扣件結(jié)構(gòu)信息。
3.3 本文算法與sLDA對比
本文算法修改了sLDA模型的測試步驟,為驗證本文方法對測試圖像的描述性能,分別采用本文模型和sLDA模型表達扣件圖像,分析不同類別圖像之間的類間距離以及同類別圖像的類內(nèi)散度。類間距離是不同類別間均值的差值,類間距離越大,模型對不同類別圖像的區(qū)分能力越強。類內(nèi)散度是某類中所有數(shù)據(jù)與該類別均值求差的平方和,類內(nèi)散度越小,模型描述圖像的性能越穩(wěn)定。實驗參數(shù)設(shè)置與3.2節(jié)相同,實驗數(shù)據(jù)采用1200張圖像的數(shù)據(jù)集,其中訓練圖像600張,600張測試圖像,每類各100張。類間距離實驗結(jié)果如表1所示,類內(nèi)散度實驗結(jié)果如表2所示。
分析表1和表2的實驗結(jié)果,可得出以下三點結(jié)論:1)本文算法與sLDA相比,各類的類內(nèi)散度均減小。其中,正常、疑似、斷裂類別圖像減小比例較大,原因是在這三類的每一類中,圖像內(nèi)容都比較相似。而對于另外丟失、道砟、其他三類,每類中圖像內(nèi)容差異較大,類內(nèi)故散度減小比例較低。2)正常類別和丟失、斷裂、道砟、其他四個失效類別的類間距離增大。這說明本文算法能夠更加明顯區(qū)分正常和失效扣件圖像,可以降低失效扣件的漏檢率。另外,疑似和失效類別的類間距離增大,可以降低人工復檢比例。3)正常和疑似類別的類間距離減小。如圖5所示,由于正常和疑似類別中的圖像內(nèi)容具有較高的相似性,而本文算法和sLDA算法都是無監(jiān)督方法,表2中正常和疑似的類間距離大幅降低,說明本文算法使得這兩類的圖像表達更加一致,對圖像內(nèi)容的描述更加真實。
本文算法和sLDA模型描述600張測試圖像的主題分布如圖6所示,圖中橫坐標為主題值,圖縱坐標為圖像編號。編號1~100為其他類別,101~200為丟失,201~300為斷裂,301~400為疑似,401~500為正常,501~600是道砟。圖中每一行表示一張扣件圖像的主題分布向量γ,方格灰度值是γ中一個元素γk的取值,方格灰度值越大,γk的值也越大。由圖6可知,本文算法與sLDA算法相比,每個類別內(nèi)的數(shù)據(jù)更加穩(wěn)定、集中,不同類別之間的區(qū)分性更強。
綜上所述,本文算法通過對sLDA模型的主題分布進行更新,引入了圖像的扣件結(jié)構(gòu)信息,圖像描述的穩(wěn)定性和區(qū)分性增強。
3.4 扣件圖像分類實驗
為評估本文算法的扣件圖像分類性能,設(shè)置兩組對比實驗進行驗證。在1200張數(shù)據(jù)集中,每類隨機取100張作為訓練集,剩余600張放入測試集,然后,再將5000張數(shù)據(jù)集放入測試集,擴大測試圖像集至5600張。分類器采用Softmax,以后驗概率最大的類別作為分類結(jié)果,統(tǒng)計測試圖像分類結(jié)果的漏檢率、誤檢率、疑似扣件數(shù)量。
3.4.1 與其他主題模型對比
將本文算法與sLDA模型、LDA模型對比。LDA是用于描述復雜場景的經(jīng)典主題模型。sLDA通過訓練集標注,一定程度引入了圖像空間結(jié)構(gòu)信息。實驗參數(shù)設(shè)置如下:本文算法和sLDA模型參數(shù)配置與3.2節(jié)相同,LDA模型參數(shù)設(shè)置參考文獻[10]:單詞容量V=200,主題數(shù)量K=10,先驗常數(shù)αk=0.1。底層特征除采用LBP外,另外采用SIFT特征,以驗證本文算法對不同底層特征的學習能力。SIFT特征子塊尺寸為20×20,兩個子塊之間重疊15個像素,統(tǒng)計128維SIFT特征。本文算法與sLDA、LDA的扣件分類結(jié)果如表3所示,其中,1~3號實驗采用LBP特征,4~6號實驗采用SIFT特征。
對比分析表3的扣件分類結(jié)果,可以得出以下四點結(jié)論:1)本文算法在扣件誤檢方面優(yōu)勢明顯。3、6號實驗中的LDA模型誤檢率最高,2、5號實驗的sLDA模型次之,1、2號實驗的本文算法則大幅降低了誤檢率。LDA模型忽略了扣件空間結(jié)構(gòu)信息,模型描述性能不穩(wěn)定,當正??奂奈恢谩⒆藨B(tài)稍微變動時,就被認為是疑似或失效扣件。LDA模型中誤檢,而sLDA和本文方法正確分類的部分圖像如圖7(a)所示。sLDA模型在訓練集中標注了扣件結(jié)構(gòu),模型穩(wěn)定性有所提高,因此降低了正常扣件的誤檢率。本文方法進一步擴展了sLDA模型,通過全局和局部約束的方法更新測試圖像主題分布,引入了扣件結(jié)構(gòu)信息,正??奂念悆?nèi)散度減小,圖像描述的穩(wěn)定性增強,所以大幅降低了誤檢率。LDA和sLDA模型中誤檢,而本文方法正確分類的部分圖像如圖7(b)所示。2)本文算法大幅減少了疑似扣件數(shù)量。疑似類別中圖像內(nèi)容復雜,LDA模型穩(wěn)定性較弱,故實驗3、6中LDA模型檢出的疑似扣件最多。sLDA一定程度上提高了圖像描述性能,所以實驗2、5中sLDA模型檢出的疑似數(shù)量有所下降。實驗1、4中本文方法檢出的疑似扣件數(shù)量最少,反映了最佳圖像描述性能。3)本文算法漏檢率與sLDA基本相同。本文算法和sLDA正確檢出,而LDA模型漏檢的失效扣件全部為斷裂扣件。這是因為斷裂扣件與正??奂浅O嗨?,僅在彈條處存在區(qū)別,若忽略圖像結(jié)構(gòu)形狀信息,則無法準確分類斷裂扣件。4)本文算法的時間花費較高。計算每個子塊的局部約束權(quán)值ωlm時,需要與大量訓練圖像子塊對比,導致主題更新需要花費較多的時間。
3.4.2 與其他扣件檢測方法對比。
將本文算法與其他的扣件檢測算法對比,實驗參數(shù)設(shè)置與原文獻一致:文獻[1]PCA方法,特征值占比閾值取97%,特征向量長度為165;文獻[2]方向場方法,DF特征塊尺寸為10×10,塊重疊率50%;文獻[11]局部特征和語義信息方法,模型參數(shù)與文獻相同;文獻[10]融合文理結(jié)構(gòu)信息的LDA(Texture Structure LDA, TS_LDA)方法,采用LBP特征,其他參數(shù)與文獻相同;單獨采用LBP特征或SIFT特征的方法,直接將所有子塊特征串聯(lián)作為圖像特征。本文算法與其他方法的檢測結(jié)果如表4所示。
分析表4的扣件分類結(jié)果,可以得出以下兩點結(jié)論:1)與其他扣件主題模型相比,本文分類性能最佳。對比實驗1~3,局部特征方法[11]和TS_LDA方法[10]同樣存在誤檢率高、疑似數(shù)量大的問題,本文在降低誤檢和疑似扣件的同時,保證了較低的漏檢率。2)與其他直接采用底層特征分類的方法相比,本文方法具有明顯優(yōu)勢。無論是文獻[1]的PCA特征、文獻[2]的DF特征,還是LBP特征[4]或SIFT特征[3],直接采用這些底層特征分類扣件圖像都會出現(xiàn)大量分類錯誤。
4 結(jié)語
由于測試圖像缺乏人工標注,sLDA主題分布不能充分描述扣件圖像的結(jié)構(gòu)狀態(tài)。本文提出一種結(jié)合全局和局部約束的主題分布更新方法,用訓練集主題分布合成新測試圖像主題分布。采用sLDA模型獲得新圖像主題分布后,全局約束整幅圖像的類別狀態(tài),局部約束計算測試圖像子塊與已有訓練集子塊主題分布的相似程度。將全局和局部約束乘積作為更新權(quán)值對訓練集子塊加權(quán)求和,獲得新的主題分布。新的主題分布包含了圖像中扣件結(jié)構(gòu)信息,扣件分類性能提高。具體表現(xiàn)為以下三個方面:1)用更新權(quán)值生成新圖像的標注,標注能夠刻畫出正常和失效扣件的形態(tài)結(jié)構(gòu);2)相比sLDA,在新的主題分布下,正常和失效類別間區(qū)別更加明顯,同一類圖像則更加相似;3)相比其他扣件分類模型,新模型在減少漏檢失效扣件的同時,大幅降低了正常扣件的誤檢率。
本文算法的不足之處是,更新后的主題分布是訓練集子塊實例的組合,這就要求訓練集覆蓋所有扣件圖像類型,模型泛化能力有待加強。后續(xù)可以借鑒可變部件模型(Deformable Part Model, DPM)采用混合高斯模型產(chǎn)生扣件模板的方法,改進局部約束方式。
參考文獻 (References)
[1] 王凌,張冰,陳錫愛.基于計算機視覺的鋼軌扣件螺母缺失檢測系統(tǒng)[J].計算機工程與設(shè)計,2011,32(12):4147-4150.(WANG L, ZHANG B, CHEN X A. Inspection system for loss of rail fastening nut based on computer vision [J]. Computer Engineering and Design, 2011, 32(12): 4147-4150.)
[2] DOU Y, HUANG Y, LI Q, et al. A fast template matching-based algorithm for railway bolts detection [J]. International Journal of Machine Learning and Cybernetics, 2014, 5(6): 835-844.
[3] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[4] 劉甲甲,李柏林,羅建橋,等.融合PHOG和MSLBP特征的鐵路扣件檢測算法[J].西南交通大學學報,2015,50(2):256-263.(LIU J J, LI B L, LUO J Q, et al. Railway fastener detection algorithm integrating PHOG and MSLBP features [J]. Journal of Southwest Jiaotong University, 2015, 50(2): 256-263.)
[5] BLEI D M, NG A Y, JORDAN M I. Latent dirichlet allocation [J]. Journal of Machine Learning Research, 2012, 3: 993-1022.
[6] 楊賽,趙春霞.基于隱含狄利克雷分配模型的圖像分類算法[J].計算機工程,2012,38(14):181-183.(YANG S, ZHAO C X. Image classification algorithm based on latent Dirichlet allocation model [J]. Computer Engineering, 2012, 38(14): 181-183.)
[7] 李斌,程丹,李星.基于Direct LDA的相關(guān)向量機遙感圖像分類[J].信息技術(shù),2017(4):17-20.(LI B, CHENG D, LI X. Relevant vector machine classification of hyperspectral image based on direct linear discriminant analysis [J]. Information Technology, 2017(4): 17-20.)
[8] 曾康林,劉漢文.基于LDA和SVM的圖像場景分類[J].中國新通信,2018,20(10):125-127.(ZENG K L, LIU H W. Image scene classification based on LDA and SVM [J]. China New Telecommunications, 2018, 20(10): 125-127.)
[9] FENG H, JIANG Z, XIE F, et al. Automatic fastener classification and defect detection in vision-based railway inspection systems [J]. IEEE Transactions on Instrumentation and Measurement, 2014, 63(4): 877-888.
[10] 羅建橋,劉甲甲,李柏林,等.融合紋理結(jié)構(gòu)的潛在狄利克雷分布鐵路扣件檢測模型[J].計算機應用,2016,36(2):574-579.(LUO J Q, LIU J J, LI B L, et al. Latent dirichlet allocation model integrated with texture structure for railway fastener detection [J]. Journal of Computer Applications, 2016, 36(2): 574-579.)
[11] 羅建橋,劉甲甲,李柏林,等.基于局部特征和語義信息的扣件圖像檢測[J].計算機應用研究,2016,33(8):2514-2518.(LUO J Q, LIU J J, LI B L, et al. Detection for railway fasteners based on local features and semantic information [J]. Application Research of Computers, 2016, 33(8): 2514-2518.)
[12] 趙理君,唐娉,霍連志,等.圖像場景分類中視覺詞包模型方法綜述[J].中國圖象圖形學報,2014,19(3):333-343.(ZHAO L J, TANG P, HUO L Z, et al. Review of the bag-of-visual-words models in image scene classification [J]. Journal of Image and Graphics, 2014, 19(3): 333-343.)
[13] GUO Q, LI N, YANG Y, et al. Supervised LDA for image annotation [C]// SMC 2011: Proceedings of the 2011 IEEE International Conference on Systems, Man, and Cybernetics. Piscataway, NJ: IEEE, 2011: 471-476.
[14] ZHOU H. Markov weight fields for face sketch synthesis [C]// CVPR '12: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 1091-1097.
[15] PENG C, GAO X, WANG N, et al. Graphical representation for heterogeneous face recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(2): 301-312.
[16] WANG N, GAO X, LI J. Random sampling for fast face sketch synthesis [J]. Pattern Recognition, 2018, 76: 215-227.
[17] ZHANG C, ZHU X, LI L, et al. Joint image representation and classification in random semantic spaces [J]. Neurocomputing, 2015, 156(C): 79-85.
[18] OJALA T, PIETIKAINEN M, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971-987.
[19] 李永波,李柏林,熊鷹.基于HOG特征的鐵路扣件狀態(tài)檢測[J].傳感器與微系統(tǒng),2013,32(10):110-113.(LI Y B, LI B L, XIONG Y. Railway fastener state detection based on HOG feature [J]. Transducer and Microsystem Technologies, 2013, 32(10): 110-113.)
[20] WANG Y, LIN X, WU L, et al. Effective multi-query expansions: collaborative deep networks based feature learning for robust landmark retrieval [J]. IEEE Transactions on Image Processing, 2017, 26(3):1393-1404.
[21] HUANG C, LUO W, XIE Y. Local-class-shared-topic latent Dirichlet allocation based scene classification [J]. Multimedia Tools and Applications, 2017, 76(14): 15661-15679.