亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于信息熵加權(quán)詞包模型的扣件圖像檢測

        2017-11-28 09:51:10李柏林狄仕磊羅建橋
        中成藥 2017年11期
        關(guān)鍵詞:詞頻信息熵扣件

        李 爽,李柏林,狄仕磊,羅建橋

        西南交通大學(xué) 機械工程學(xué)院,成都 610031

        基于信息熵加權(quán)詞包模型的扣件圖像檢測

        李 爽,李柏林,狄仕磊,羅建橋

        西南交通大學(xué) 機械工程學(xué)院,成都 610031

        針對傳統(tǒng)“視覺詞包模型”在進行鐵路扣件檢測時忽略圖像結(jié)構(gòu)而導(dǎo)致的區(qū)分能力不強的問題,提出一種基于信息熵加權(quán)詞包模型的扣件檢測模型EW_BOW。在傳統(tǒng)“視覺詞包模型”的基礎(chǔ)上,引入信息熵對扣件圖像局部區(qū)域的詞包模型的詞頻進行加權(quán)處理,加強詞包模型對不同類別扣件的區(qū)分性,并利用潛在狄利克雷分布學(xué)習(xí)扣件圖像的主題分布。最后,采用支持向量機對扣件進行分類識別。對四類扣件圖像的分類實驗證明該模型能夠有效提高扣件分類精確度。

        鐵路扣件檢測;詞包模型;視覺單詞;信息熵;潛在狄利克雷分布模型

        1 引言

        軌道設(shè)施的正常工作是維系鐵路運營安全的重要保障。傳統(tǒng)的軌道檢測是人工巡檢,這種檢測方法缺乏實時性和準(zhǔn)確性,無法滿足鐵路高速發(fā)展運行密度大的情況下對軌道檢測提出的新需求。近年來,在車載軌道自動巡檢方面的研究取得了豐碩的成果[1-4],但一直未能很好地解決鐵路扣件的檢測問題。扣件的損壞可能釀成列車脫軌等重大事故,已經(jīng)引起了鐵路部門的高度重視[5]。隨著計算機技術(shù)的發(fā)展,計算機視覺技術(shù)逐漸應(yīng)用到鐵路扣件自動檢測中[6-7]。

        目前,扣件自動檢測方法主要分為三類:(1)基于扣件圖像全局特征的檢測方法。如文獻[8]利用主成分分析(Principle Component Analysis,PCA)檢測扣件狀態(tài)。此類方法忽略了局部信息,僅能描述扣件整體狀態(tài),因此分類效果不理想;(2)基于扣件圖像局部目標(biāo)區(qū)域的檢測方法。如文獻[9-10]將扣件圖像劃分為子塊,并串聯(lián)了圖像子塊特征,能夠檢測大部分失效扣件。但利用這類方法檢測扣件時,子塊特征串聯(lián)后的維度較高,噪聲和冗余嚴重,造成大量正??奂徽`檢。前兩類方法都是因為底層特征與圖像內(nèi)容之間存在語義鴻溝[11]制約了扣件狀態(tài)檢測算法的準(zhǔn)確性。(3)基于“視覺詞包模型”(Bag-Of-Words,BOW)的檢測方法。此類方法首先利用局部特征向量定義圖像塊的不同語義概念(如軌枕,扣件等),稱其為視覺單詞,再統(tǒng)計這些視覺單詞的出現(xiàn)頻率,生成圖像-單詞詞頻矩陣,將其作為圖像內(nèi)容的表示,最后,使用機器學(xué)習(xí)算法來實現(xiàn)扣件圖像分類。文獻[12]在“視覺詞包模型”的基礎(chǔ)上,利用潛在狄利克雷分布模型(Latent Dirichlet Allocation,LDA)學(xué)習(xí)得到扣件圖像的潛在主題分布,進一步提高了扣件檢測性能。這類方法在將圖像表示成視覺單詞集合時,將每個局部特征映射為與其歐氏距離最近視覺單詞。然而,這樣的映射方法僅僅將圖像看成若干視覺單詞的集合,忽略了單詞的位置信息,導(dǎo)致單詞存在多義性。比如,當(dāng)一幅圖像出現(xiàn)表示“扣件”的單詞時,該單詞既可能表示扣件頂部某區(qū)域,也可能表示扣件端部某區(qū)域,而不同類別扣件間的差異僅存在于圖像的某一局部區(qū)域內(nèi),這就導(dǎo)致模型對不同類別扣件的區(qū)分性不強。

        針對傳統(tǒng)“視覺詞包模型”忽略扣件圖像結(jié)構(gòu)的缺點,本文提出一種基于信息熵加權(quán)詞包模型(entropyweighted BOW,EW_BOW)的扣件檢測模型。在傳統(tǒng)“視覺詞包模型”的基礎(chǔ)上,引入信息熵來分析扣件局部區(qū)域所含的信息量,并將其作為權(quán)值系數(shù),對各局部區(qū)域的圖像-單詞詞頻矩陣進行加權(quán)處理,以提高不同狀態(tài)扣件在模型下的區(qū)分度。實驗結(jié)果表明,信息熵加權(quán)后的“視覺詞包模型”具有更高的分類性能。

        2 基于EW_BOW的扣件檢測模型

        傳統(tǒng)“視覺詞包模型”通過對圖像的底層特征向量進行聚類,生成“視覺詞典”,利用生成的“視覺詞典”將同一簇內(nèi)的特征向量映射為同一視覺單詞,從而將圖像表示成無序的視覺單詞集合——即“圖像-單詞詞頻矩陣”。但這樣的詞頻矩陣的生成方式忽略了扣件的空間結(jié)構(gòu)信息。

        針對這一問題,本文首先根據(jù)扣件的對稱結(jié)構(gòu)劃分局部區(qū)域,以克服視覺單詞的多義性。在此基礎(chǔ)上引入信息熵,對各局部區(qū)域的圖像-單詞詞頻矩陣進行加權(quán),將圖像量化為一個更具區(qū)分性的圖像-單詞詞頻矩陣。本文的模型框架如圖1所示。圖1中,實線部分表示訓(xùn)練過程,虛線部分表示測試過程。

        圖1 本文模型檢測框架

        2.1 生成局部區(qū)域的詞頻矩陣

        從底層特征中得到圖像-單詞詞頻矩陣可以通過構(gòu)造視覺單詞來實現(xiàn),但扣件圖像左右區(qū)域?qū)ΨQ,上下區(qū)域相似,導(dǎo)致了單詞的多義性問題,造成語義表達的混亂。因此,將扣件圖像均分為2×2的局部區(qū)域,分別用Z1,Z2,Z3,Z4表示。每個局部區(qū)域的特征向量僅對應(yīng)本區(qū)域內(nèi)的單詞,其他局部區(qū)域的特征向量不能映射到本區(qū)域內(nèi)的單詞。扣件局部區(qū)域的構(gòu)建方式如圖2所示。

        圖2 扣件局部區(qū)域示例

        在將扣件劃分到四個獨立的局部區(qū)域后,每個局部區(qū)域內(nèi)沒有相似的扣件結(jié)構(gòu),從而克服了單詞的多義性問題。本文采用上述基于扣件局部區(qū)域的方法從底層特征生成圖像-單詞的詞頻矩陣。首先需要訓(xùn)練視覺詞典,具體訓(xùn)練步驟如下:

        (1)根據(jù)底層特征向量所在局部區(qū)域的位置,將訓(xùn)練集圖像中全體特征向量S劃分為4個部分S1,S2,S3,S4。

        (2)使用K-means算法對Sn進行無監(jiān)督聚類,每一個聚類中心向量wn,i就是一個視覺單詞,從而得到4個容量為K的局部區(qū)域視覺詞典Wn=[wn,1,…,wn,i,…,wn,K],n=1,2,…,4,i=1,2,…,K 。

        局部區(qū)域詞典訓(xùn)練流程如圖3所示。

        圖3 局部區(qū)域詞典的訓(xùn)練

        根據(jù)局部區(qū)域詞典與扣件底層特征向量的映射關(guān)系,將單詞下標(biāo)作為其對應(yīng)特征向量的編碼,并統(tǒng)計圖像各局部區(qū)域不同單詞出現(xiàn)次數(shù),生成單詞圖像-單詞的詞頻矩陣Dn(n=1,2,3,4),將其作為扣件圖像局部區(qū)域的內(nèi)容表示。編碼底層特征生成局部區(qū)域的圖像-單詞詞頻矩陣的步驟如下:

        (1)初始化詞頻矩陣 Dn(i)=0,n=1,2,…,4,i=1,2,…,K。

        (2)根據(jù)圖像中某一特征向量s所在局部區(qū)域位置Zn選擇一個詞典Wn。

        (3)在Wn中檢索與s歐氏距離最近的單詞wn,i,將wn,i的下標(biāo)作為s的編碼,將詞頻矩陣中該編碼值出現(xiàn)的次數(shù)加1。

        (4)重復(fù)步驟(2)~(3),直到編碼一幅圖像中所有特征向量。

        2.2 信息熵加權(quán)詞頻矩陣

        信息熵[13]可以定量表達圖像灰度分布的稀疏度和信息量。本文引入信息熵用于表示扣件圖像局部區(qū)域的圖像-單詞的詞頻矩陣中所含的信息量。在一幅扣件圖像中,Dn(n=1,2,…,4)是Zn區(qū)域?qū)?yīng)的局部區(qū)域詞頻矩陣,其中單詞wn,i(i=1,2,…,K)出現(xiàn)的概率為 pn,i,則該局部區(qū)域詞頻矩陣的熵值如式(1)所示:

        實際工況下的扣件可分為正常、斷裂、丟失以及被遮擋四種狀態(tài),不同狀態(tài)的扣件圖像如圖4所示。抽取四種狀態(tài)的扣件圖像各100幅,并在每幅圖像中選取最能表征當(dāng)前狀態(tài)的局部區(qū)域,比如,圖4(b)中的Z2區(qū)域反映了當(dāng)前斷裂扣件的狀態(tài)。以SIFT(Scale Invariant Feature Transform)特征為例,根據(jù)式(1)計算每幅圖像中被選中局部區(qū)域的詞頻矩陣的熵值,得到四種狀態(tài)扣件的平均熵值分別為5.138、4.993、4.124、4.692。可知不同狀態(tài)扣件的局部區(qū)域的詞頻矩陣所含信息量存在明顯差異,即信息熵對不同狀態(tài)扣件具有區(qū)分性。

        圖4 不同狀態(tài)的扣件圖像

        再根據(jù)式(2)、(3)計算各區(qū)域詞頻矩陣的權(quán)重系數(shù)τn,來對各局部區(qū)域詞頻矩陣進行加權(quán),從而得到一幅扣件圖像的EW_BOW表示。

        本文采用上述基于信息熵加權(quán)“詞包模型”的方法完成一幅扣件圖像的EW_BOW表示,具體步驟如下:

        (1)根據(jù)式(1)得到各區(qū)域詞頻矩陣的信息熵Hn。

        (2)根據(jù)式(2)(3)得到各區(qū)域詞頻矩陣的權(quán)重系數(shù) τn。

        (3)對各局部區(qū)域的詞頻矩陣進行加權(quán)處理,得到局部區(qū)域的EW_BOW表示 D′n=[τn?Dn](n=1,2,3,4)。

        (4)將 D′1~D′4首尾相接,構(gòu)成一幅扣件圖像的EW_BOW表示:

        通過信息熵對扣件圖像各局部區(qū)域的詞頻矩陣進行加權(quán)處理,可增加信息量較多的詞頻矩陣中視覺單詞出現(xiàn)的次數(shù),降低信息量較少的詞頻矩陣中視覺單詞出現(xiàn)的次數(shù),從而增加不同狀態(tài)扣件的詞頻矩陣之間的差異,提高“視覺詞包模型”對不同狀態(tài)扣件的區(qū)分度。

        2.3 學(xué)習(xí)扣件圖像的主題分布

        潛在狄利克雷分布(LDA)模型將一幅圖像作為一篇文檔,將文檔描述成主題的集合,而主題通過視覺詞匯的分布來表達,在自然語言處理、場景分類等領(lǐng)域已被廣泛應(yīng)用[14-15]。當(dāng)局部特征向量聚類生成視覺詞典時,若某特征向量處于多個視覺單詞的邊界附近,特征點的單詞語義可能存在歧義,造成語義信息丟失,而單詞背后的主題語義能夠解決這個問題。此外,由于LDA對“視覺詞包模型”進行總結(jié),進一步整合了語義信息,所以主題分布是一種高層語義特征,對圖像中扣件輕微的傾斜或歪曲具有較強的魯棒性。LDA中一幅圖像的生成步驟如下:

        (1)選擇 θ~Dirichlet(α),其中 θ 是一個C×T 的矩陣,行向量θi是第i幅圖像的主題分布向量。

        (2)對于每個圖像塊xi,從多項式分布θ抽樣主題tk,tk~Multi(θ),以概率 p(ωm|tk,β)選擇一個視覺單詞ωm,β是一個K×V 的矩陣,其元素βi,j=p(ωi=1|tj=1)表示視覺單詞ωi和主題tj同時出現(xiàn)的概率。

        (3)重復(fù)步驟(1)(2),反復(fù)進行圖像主題的選擇,通過主題產(chǎn)生對應(yīng)的單詞,直到生成一幅完整的圖像。

        LDA模型的學(xué)習(xí)過程是其生成模型的逆過程,采用吉布斯采樣可求解出模型中參數(shù)的近似值,從而獲得每幅圖像的主題分布。

        2.4 算法描述

        綜上所述,基于EW_BOW的扣件檢測算法的具體步驟如下:

        (1)提取全體圖像的底層特征向量S。

        (2)利用K-means聚類方法對全體底層特征向量進行聚類,根據(jù)特征向量所在位置,生成4個局部區(qū)域的視覺詞典Wn(n=1,2,3,4)。

        (3)根據(jù)特征向量所在位置,將每個底層特征映射到相應(yīng)視覺詞典中的視覺單詞,生成圖像-單詞詞頻矩陣Dn(n=1,2,3,4)。

        (4)根據(jù)式(1)計算每個局部區(qū)域的詞頻矩陣的信息熵。

        (5)對于每個局部區(qū)域的詞頻矩陣,根據(jù)式(2)、(3)進行加權(quán)處理,并利用式(4)進行連接。

        (6)利用LDA模型學(xué)習(xí)扣件圖像的潛在主題分布。

        (7)構(gòu)建SVM分類器,對新的扣件圖像進行分類。

        3 實驗及結(jié)果分析

        3.1 實驗數(shù)據(jù)與配置

        本文從采集的扣件圖像中選取共800幅作為實驗數(shù)據(jù),其中正常、斷裂、丟失以及被遮擋的4類扣件圖像(如圖4)各200幅,均為120像素×180像素的灰度圖像。

        實驗PC處理器為AMD Sempron X2 190 Processor 2.5 GHz,內(nèi)存4.0 GB,在Matlab2014a環(huán)境下進行實驗。

        3.2 實驗及結(jié)果分析

        (1)實驗1

        為了分析視覺詞典容量對于分類性能的影響,本文改變視覺詞典容量的設(shè)置進行多次重復(fù)的實驗。圖5展示了在 SIFT、LBP(Local Binary Pattern)以及 HOG(Histogram of Oriented Gradient)三種不同的底層特征下,詞典容量的變化對正確率的影響。觀察可知,隨著詞典容量的增加,不同底層特征下的測試結(jié)果正確率也在穩(wěn)步提升。但當(dāng)詞典容量大于一定的值后,繼續(xù)增加視覺單詞數(shù)量,正確率不會繼續(xù)提高。這是因為過小的詞典容量造成了語義的丟失,而過大的詞典容量則會導(dǎo)致語義的冗余,進而影響測試結(jié)果的正確率。因此在后續(xù)實驗中選擇測試結(jié)果正確率相對較高的視覺單詞數(shù)目—80。

        圖5 詞典容量對扣件分類性能的影響

        (2)實驗2

        通過不同狀態(tài)扣件在模型下的類間距離大小來評估當(dāng)前模型對扣件的圖像的描述能力。類間距離越大,表明模型對不同狀態(tài)扣件的區(qū)分能力越強,對扣件狀態(tài)的描述越精確。分別采用傳統(tǒng)“視覺詞包模型”和EW_BOW模型,度量正??奂c各種失效扣件之間的類間距離。表1和表2分別為在SIFT特征和HOG特征的基礎(chǔ)上,不同狀態(tài)扣件在傳統(tǒng)“視覺詞包模型”和EW_BOW下的類間距離對比。

        表1 不同模型下的類間距離對比(SIFT)

        表2 不同模型下的類間距離對比(HOG)

        從表1可以看出,在SIFT特征下,利用EW_BOW描述扣件圖像時,正??奂c各類失效扣件間的距離相對于采用傳統(tǒng)“視覺詞包模型”描述扣件時均有所提高。其中增長最多的為正常-丟失扣件的類間距。分析其原因為:不同類別扣件圖像所屬的圖像-單詞詞頻矩陣具有差異性較明顯的信息熵,信息熵加權(quán)后的詞頻矩陣對于正??奂透黝愂Э奂哂懈鼜姷姆直婺芰ΑS杀?可知,在HOG特征下,EW_BOW同樣能夠提高正??奂c各類失效扣件間的距離。

        實驗結(jié)果表明,相比與傳統(tǒng)“視覺詞包模型”,EW_BOW模型能夠更加準(zhǔn)確地描述各種扣件的狀態(tài)。

        (3)實驗3

        一方面,分別采用SIFT特征、LBP特征和HOG特征作為底層特征,采用傳統(tǒng)“視覺詞包模型”方法[16]與本文方法進行比較,以評估本文方法的語義有效性;另一方面,通過將本文方法與文獻[8]中的主成分分析方法、文獻[9]中的方向場(Directional Field,DF)方法以及文獻[10]中的LBP+SVM方法這幾種主要的扣件檢測方法對比,以綜合評估本文方法的扣件檢測性能。

        各種方法的實驗設(shè)置為:傳統(tǒng)“視覺詞包模型”與本文方法中,參數(shù)均已優(yōu)化。文獻[8-10]中各方法的參數(shù)設(shè)置均與原文獻保持一致。實驗樣本采用本文創(chuàng)建的樣本庫。訓(xùn)練集為每種狀態(tài)的扣件圖像各100幅,共400幅圖像,余下的作為測試集。訓(xùn)練集與測試集的大小均為400。選擇LIBSVM[17]對扣件數(shù)據(jù)進行分類,實驗結(jié)果為3折交叉驗證(cross-validation)的平均值,并統(tǒng)計實驗結(jié)果的誤檢率和漏檢率。誤檢率=誤檢扣件數(shù)量/正常扣件總數(shù)量×100%,漏檢率=漏檢扣件數(shù)量/失效扣件總數(shù)量×100%,其中,丟失、斷裂、被遮擋的扣件均被視為失效扣件。檢測結(jié)果首先要求準(zhǔn)確判斷出失效扣件,降低漏檢率;其次是降低誤檢率,減小浪費。各方法的檢測結(jié)果如表3所示。

        表3 本文方法與其他方法的比較

        實驗1、2表明,在SIFT特征下,本文方法顯著提高了傳統(tǒng)“視覺詞包模型”的扣件檢測性能。一方面,根據(jù)扣件的結(jié)構(gòu)劃分局部區(qū)域的方法克服了視覺單詞多義性的問題;另一方面,通過信息熵加權(quán)后,各種類別扣件的視覺特征在模型下呈現(xiàn)了更大的差異性,使扣件檢測結(jié)果更加準(zhǔn)確。實驗3、4和5、6這兩組實驗表明,在LBP特征和HOG特征下,本文方法同樣能夠降低“視覺詞包模型”的漏檢率和誤檢率。

        從實驗4、7、8、9中可以看到,文獻[8]的主成分方法和文獻[10]的LBP+SVM方法雖耗時較短,但誤檢率和漏檢率均較高。文獻[9]的方向場方法雖對失效扣件檢測效果較好,但誤檢率過高,且耗時較長。與現(xiàn)有方法相比,本文方法能更加有效地檢測扣件狀態(tài)。

        4 結(jié)語

        通過引入信息熵,利用信息熵加權(quán)后的“視覺詞包模型”對扣件狀態(tài)進行檢測,在一定程度上減小了底層特征與高層語義之間的“鴻溝”,提高了扣件檢測精度。在四類扣件數(shù)據(jù)集上實驗獲得比傳統(tǒng)“視覺詞包模型”更低的漏檢率和誤檢率,證明了本文模型的有效性和可行性。下一步的研究重點是如何更準(zhǔn)確地定義視覺單詞,以進一步增強扣件語義準(zhǔn)確性。

        [1]Singh M,Singh S,Jaiswal J,et al.Autonomous rail track inspection using vision based system[C]//IEEE International Conference on Computational Intelligence for Homeland Security and Personal Safety,2006:56-59.

        [2]Marino F,Distante A,Mazzeo P L,et al.A real-time visual inspection system for railway maintenance:Automatic hexagonal-headed bolts detection[J].IEEE Transactions on Systems Manamp;Cybernetics Part C Applicationsamp;Reviews,2007,37(3):418-428.

        [3]Yella S,Dougherty M,Gupta N K.Fuzzy logic approach for automating visual condition monitoring of railway sleepers[C]//Indian International Conference on Artificial Intelligence,2007:941-956.

        [4]許貴陽,史天運,任盛偉,等.基于計算機視覺的車載軌道巡檢系統(tǒng)研制[J].中國鐵道科學(xué),2013(1):139-144.

        [5]肖新標(biāo),金學(xué)松,溫澤峰.鋼軌扣件失效對列車動態(tài)脫軌的影響[J].交通運輸工程學(xué)報,2006,6(1):10-15.

        [6]Xia Yiqi,Xie Fengying,Jiang Zhiguo.Broken railway fastener detection based on adaboost algorithm[C]//International Conference on Optoelectronics and Image Processing.IEEE Xplore,2010:313-316.

        [7]Li Ying,Otto C,Haas N,et al.Component-based track inspection using machine-vision technology[C]//International Conference on Multimedia Retrieval(ICMR 2011),Trento,Italy,April,2011:60.

        [8]王凌,張冰,陳錫愛.基于計算機視覺的鋼軌扣件螺母缺失檢測系統(tǒng)[J].計算機工程與設(shè)計,2011,32(12):4147-4150.

        [9]Yang Jinfeng,Tao Wei,Liu Manhua,et al.An efficient direction field-based method for the detection of fasteners on high-speed railways[J].Sensors,2011,11(8):7364-7381.

        [10]Dou Yunguang,Huang Yaping,Li Qingyong,et al.A fast template matching-based algorithm for railway bolts detection[J].International Journal of Machine Learning and Cybernetics,2014,5(6):835-844.

        [11]Tang Jinhui,Zha Zhengjun,Tao Dacheng,et al.Semanticgap-oriented active learning for multilabel image annotation[J].IEEE Transactions on Image Processing,2012,21(4):2354-2360.

        [12]羅建橋,劉甲甲,李柏林,等.基于局部特征和語義信息的扣件圖像檢測[J].計算機應(yīng)用研究,2016,33(8):2514-2518.

        [13]唐立力.基于信息熵與動態(tài)聚類的文本特征選擇方法[J].計算機工程與應(yīng)用,2015,51(19):152-157.

        [14]Wang Ying,Li Jie,Gao Xinbo.Latent feature mining of spatial and marginal characteristics for mammographic mass classification[J].Neurocomputing,2014,144(1):107-118.

        [15]Zhou Wengang,Li Houqiang,Lu Yijuan,et al.BSIFT:toward data-independent codebook for large scale image search[J].IEEE Transactions on Image Process,2015,24(3):967-979.

        [16]董健.基于加權(quán)特征空間信息視覺詞典的圖像檢索模型[J].計算機應(yīng)用,2014,34(4):1172-1176.

        [17]Chang C,Lin C.LIBSVM:a library for support vector machine[J].ACM Transactionson IntelligentSystems and Technology,2011,2(3):27.

        LI Shuang,LI Bailin,DI Shilei,LUO Jianqiao

        School of Mechanical Engineering,Southwest Jiaotong University,Chengdu 610031,China

        Inspection for railway fasteners based on entropy-weighted BOW model.Computer Engineering and Applications,2017,53(21):185-189.

        The traditional Bag Of Words(BOW)model ignores the structure of the image while conducting the inspection of railway fasteners.To overcome this defect,this paper proposes an Entropy-Weighted BOW(EW_BOW)model for identification of the image of fasteners.On the basis of the traditional BOW model,the entropy is introduced to weight word frequency of BOW model in the sub-image of fasteners,thus making the BOW model more distinguishable for different categories of fasteners.And then the Latent Dirichlet Allocation(LDA)is used to learn the topic distribution of the images.Finally,the Support Vector Machine(SVM)is applied to classify a new image.The experiment on four types of fasteners shows that the EW_BOW model can inspect fastener states more precisely.

        railway fastener inspection;Bag Of Words(BOW)model;visual word;entropy;Latent Dirichlet Allocation(LDA)model

        A

        TP391.41

        10.3778/j.issn.1002-8331.1703-0454

        四川省科技支撐計劃項目(No.2016GZ0194)。

        李爽(1992—),男,碩士研究生,研究領(lǐng)域為:圖像處理、機器視覺,E-mail:263725027@qq.com;李柏林(1962—),男,教授,博士生導(dǎo)師,博士,研究領(lǐng)域為:圖像處理、優(yōu)化技術(shù);狄仕磊(1992—),男,碩士研究生,研究領(lǐng)域為:圖像處理、目標(biāo)檢測;羅建橋(1991—),男,博士研究生,研究領(lǐng)域為:圖像處理、優(yōu)化技術(shù)。

        2017-03-27

        2017-06-20

        1002-8331(2017)21-0185-05

        猜你喜歡
        詞頻信息熵扣件
        基于信息熵可信度的測試點選擇方法研究
        基于詞頻分析法的社區(qū)公園歸屬感營建要素研究
        園林科技(2021年3期)2022-01-19 03:17:48
        科隆蛋扣件力學(xué)特性分析
        一種改進的LBP特征實現(xiàn)鐵路扣件識別
        基于信息熵的實驗教學(xué)量化研究
        電子測試(2017年12期)2017-12-18 06:35:48
        一種基于信息熵的雷達動態(tài)自適應(yīng)選擇跟蹤方法
        非均布荷載下扣件式腳手架的隨機缺陷穩(wěn)定分析
        基于信息熵的IITFN多屬性決策方法
        詞頻,一部隱秘的歷史
        云存儲中支持詞頻和用戶喜好的密文模糊檢索
        亚洲电影久久久久久久9999| 国产无吗一区二区三区在线欢| 又湿又黄裸乳漫画无遮挡网站| 国产农村三片免费网站| 国产精品日本中文在线| 久久久久久久久无码精品亚洲日韩| 久久久国产精品黄毛片| 另类欧美亚洲| 久久无人码人妻一区二区三区| 日韩一区在线精品视频| 熟女体下毛毛黑森林| 亚洲欧洲精品成人久久曰不卡| 日本岛国视频在线观看一区二区| 97人妻精品一区二区三区男同| 无码精品久久久久久人妻中字| 国产精品女视频一区二区| 日本女优中文字幕有码| 强奸乱伦影音先锋| 日韩a无v码在线播放| 久久久亚洲精品午夜福利| 国产午夜精品视频观看| 免费a级毛片无码a∨中文字幕下载 | 亚洲成年网站在线777| 日本女优中文字幕四季视频网站| 成人女同av在线观看网站| 日韩制服国产精品一区| 亚洲中文欧美日韩在线| 国产成人精品久久二区二区91| 国产精品无码久久综合网| 亚洲欧洲高潮| 亚洲国产成人av第一二三区| 色翁荡熄又大又硬又粗又动态图| 午夜不卡av免费| 国产亚洲精品国看不卡| 在线播放国产自拍av| 少妇私密会所按摩到高潮呻吟| 四虎成人在线| 亚洲乱码中文字幕第一页| 精品伊人久久大线蕉色首页| 久久AV老司机精品网站导航| 天堂av在线播放观看|