亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合目標(biāo)檢測的室內(nèi)場景識別方法

        2021-09-18 06:22:34徐江浪李林燕萬新軍胡伏原
        計算機(jī)應(yīng)用 2021年9期
        關(guān)鍵詞:特征信息方法

        徐江浪,李林燕,萬新軍,胡伏原*

        (1.蘇州科技大學(xué)電子與信息工程學(xué)院,江蘇蘇州 215009;2.蘇州經(jīng)貿(mào)職業(yè)技術(shù)學(xué)院信息技術(shù)學(xué)院,江蘇蘇州 215009)

        (*通信作者電子郵箱fuyuanhu@mail.usts.edu.cn)

        0 引言

        近些年來,隨著互聯(lián)網(wǎng)的普及以及人們生活水平的不斷提高,場景識別技術(shù)的發(fā)展為人們帶來越來越多的服務(wù)和便利。室內(nèi)場景識別是場景識別的關(guān)鍵部分,室內(nèi)場景識別技術(shù)的發(fā)展在智能家居、服務(wù)機(jī)器人、安防監(jiān)控等領(lǐng)域都有著廣闊的應(yīng)用前景[1-2]。

        在早期,室內(nèi)場景識別一般都是利用顏色、紋理、形狀等特征進(jìn)行識別,隨著諸如尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)、加速健壯特征(Speeded-Up Robust Features,SURF)、方向梯度直方圖(Histogram of Oriented Gradients,HOG)等算子的廣泛應(yīng)用,比較流行的分類方法是利用各種算子提取場景特征,以此訓(xùn)練出較好的模型實現(xiàn)場景識別,其中應(yīng)用較廣的是詞袋(Bag-Of-Words,BOW)模型,產(chǎn)生了基于BoW 模型的一系列場景識別方法。Lazebnik 等[3]提出的一種基于空間金字塔(Spatial Pyramid)的BOW 模型場景識別方法為后來的研究學(xué)者提供了思路,不少學(xué)者在此基礎(chǔ)上作出了改進(jìn)和創(chuàng)新;但是這類方法很大程度上依賴人工算子進(jìn)行特征提取,導(dǎo)致泛化能力不足,而深度學(xué)習(xí)方法在這一方面有了很大的改善。

        在基于深度學(xué)習(xí)的方法中,出現(xiàn)了多種以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)為基礎(chǔ)的方法[4-7]。由于復(fù)雜的室內(nèi)場景包含多種目標(biāo),全局特征難以表達(dá)這些目標(biāo)特征,基于此,Quattoni等[8]提出結(jié)合全局特征(Global Feature)和局部特征(Local Feature)來識別室內(nèi)場景,利用局部特征表示目標(biāo)特征,提高了識別準(zhǔn)確率。Cheng等[9]提出一種用于場景識別的具有對象性的語義描述符方法,利用不同場景中對象配置的相關(guān)性,通過場景中所有對象的共現(xiàn)模式來選擇有代表性的和有區(qū)別的對象,增強(qiáng)了類間的可區(qū)分性。Herranz 等[10]提出了一種基于多尺度特征的方法,將不同尺寸的圖像分別送入適合它們的目標(biāo)網(wǎng)絡(luò)和場景網(wǎng)絡(luò)來分別提取特征,解決了圖像尺寸和識別網(wǎng)絡(luò)的匹配問題,但是尺寸的不斷增加導(dǎo)致了方法復(fù)雜度的增加。Wang 等[11]提出了一種知識指導(dǎo)消歧(Knowledge Guided Disambiguation)策略,利用知識網(wǎng)絡(luò)提取的目標(biāo)特征生成場景圖像的軟標(biāo)簽,指導(dǎo)場景網(wǎng)絡(luò)最小化損失函數(shù),有效地解決了類間差異小和類內(nèi)差異大的問題,但是目標(biāo)特征的利用率仍較低。為了使網(wǎng)絡(luò)更加關(guān)注場景圖像的顯著區(qū)域,Rezanejad 等[12]提出一種基于場景輪廓的場景分類方法,利用場景輪廓傳達(dá)的形狀和表面的幾何形狀作為信息輸入進(jìn)行場景識別,這種基于中軸的顯著性度量方法增加了場景特征中有用的信息。Sun 等[13]也提出一種場景識別的綜合表示方法,該方法融合了從物體語義、全局外觀和上下文外觀這三個區(qū)別視圖中提取的深層特征,利用特征的多樣性和互補(bǔ)性,以及場景圖像的上下文信息,提升了識別準(zhǔn)確率。盡管上述方法已經(jīng)取得了顯著的效果,但是對于結(jié)合目標(biāo)檢測的室內(nèi)場景識別方法而言,場景圖像中目標(biāo)特征的利用效率極大地影響了室內(nèi)場景識別效果,而這是當(dāng)前亟待解決的問題[14-17]。

        由于場景圖像中包含多種目標(biāo)信息,但并非所有的目標(biāo)都對場景識別產(chǎn)生積極作用,甚至有些會產(chǎn)生反作用影響最終的識別效果(如臥室中出現(xiàn)的電腦、餐廳中入鏡的沙發(fā)等);而且,在進(jìn)行場景特征和目標(biāo)特征之間的融合時,由于兩種特征的維度不一致,在特征融合時會造成信息丟失等問題。因此,本文提出了一種結(jié)合目標(biāo)檢測的室內(nèi)場景識別方法,主要思想是:1)為了解決特征維度不一致的問題,本文利用類轉(zhuǎn)換矩陣(Class Conversion Matrix,CCM)對目標(biāo)特征的維度進(jìn)行轉(zhuǎn)換,使目標(biāo)特征在與場景特征融合時能夠減少信息丟失;2)針對冗余信息的問題,本文采用了上下文門控(Context Gating,CG)機(jī)制對目標(biāo)特征中所包含的冗余信息進(jìn)行抑制,降低不相關(guān)信息的權(quán)重,提高室內(nèi)場景識別中目標(biāo)特征的利用效率,使網(wǎng)絡(luò)更加關(guān)注圖像的相關(guān)目標(biāo)區(qū)域,提高室內(nèi)場景識別的準(zhǔn)確度。

        1 結(jié)合目標(biāo)檢測的室內(nèi)場景識別方法

        1.1 網(wǎng)絡(luò)結(jié)構(gòu)

        本文以Inception 為基礎(chǔ)網(wǎng)絡(luò)架構(gòu),網(wǎng)絡(luò)框架由場景識別網(wǎng)絡(luò)PlacesNet(本文圖示以MR-CNNs(Multi-Resolutions CNNs)為例)、目標(biāo)檢測網(wǎng)絡(luò)(Object detection Network,ObjectNet)兩個部分組成,如圖1 所示。PlacesNet 是用來提取場景特征的CNN 模型;ObjectNet 用來提取目標(biāo)特征,為了獲得更精確的目標(biāo)特征,本文采用了在ImageNet 上預(yù)訓(xùn)練過的CNN 模型。然后,提取的特征進(jìn)入特征融合模塊(Feature Fusion Module),該模塊通過卷積層+ReLU(Rectified Linear Unit)和哈達(dá)瑪積的組合將兩個網(wǎng)絡(luò)的輸出特征進(jìn)行融合;最后,經(jīng)過softmax 層進(jìn)行分類,輸出最終結(jié)果。作為改進(jìn),本文將CCM 置于ObjectNet 提取的目標(biāo)特征之后,對它進(jìn)行轉(zhuǎn)化,使它的特征維度和場景網(wǎng)絡(luò)提取的特征維度一致;在融合目標(biāo)特征和場景特征之前,采用CG對目標(biāo)特征中可能存在的冗余信息進(jìn)行了抑制,以此提高目標(biāo)特征的利用效率。

        圖1 網(wǎng)絡(luò)框架Fig.1 Network framework

        1.2 特征轉(zhuǎn)換

        為了將ObjectNet 提取的目標(biāo)特征轉(zhuǎn)化為場景特征,避免目標(biāo)特征與場景特征兩種不同特性的特征直接進(jìn)行融合,提升特征融合模塊的融合效果,本文在目標(biāo)檢測和場景識別相結(jié)合的方法中引入CCM,如圖2 所示,將CCM 置于ObjectNet的特征之后,將目標(biāo)特征進(jìn)行加權(quán)和,最終轉(zhuǎn)換成和場景特征相同維度。輸入目標(biāo)特征xobject是從ObjectNet 中提取的,輸出特征為yobject→scene,CCM的計算如下:

        圖2 特征轉(zhuǎn)換示意圖Fig.2 Schematic diagram of feature conversion

        其中 :xobject∈Rn;權(quán) 重W∈Rm×n,偏 差b∈Rm,yobject→scene∈Rm是與xobject相關(guān)的輸出。n是輸入向量的維數(shù),m是輸出向量的維數(shù)。如果將ImageNet數(shù)據(jù)集用于訓(xùn)練對象模塊,則n=1 000。如果將Places 2數(shù)據(jù)集用于訓(xùn)練場景模塊,則m=365。CCM 不僅可以應(yīng)用于不同的數(shù)據(jù)集,而且可以應(yīng)用于相同的數(shù)據(jù)集,即m=n,如具有Places 2 數(shù)據(jù)集格式的CCM 的參數(shù)W∈Rm×m和b∈Rm,則具有相同數(shù)據(jù)集格式的輸入xobject∈Rm和輸出yobject→scene∈Rm。而且,從CCM 的權(quán)重中可以分析目標(biāo)和場景之間的關(guān)系,即目標(biāo)和場景之間的相關(guān)程度,如果一個目標(biāo)頻繁出現(xiàn)在場景中,權(quán)重則越高;相反則越低。這意味著場景識別性能可以獲得進(jìn)一步的提高。

        1.3 冗余信息抑制

        每一幅場景圖像中都可能包含各種各樣的目標(biāo),而當(dāng)一幅場景圖像中出現(xiàn)某一特別的對象時,這個場景就很有可能屬于某一特別的類,如一張床對于臥室,或浴缸對于浴室的重要性,但是其他不相關(guān)特征可能會影響網(wǎng)絡(luò)的判斷。為了降低不相關(guān)特征的權(quán)重,本文引入了CG,它的計算公式為:

        其中:xscene表示由場景網(wǎng)絡(luò)提取的場景特征;?表示一種矩陣相乘法;σ(x)=1/(1+exp(-x))是值為(0,1)的sigmoid 激活函數(shù)。如圖3(a),由于sigmoid 激活函數(shù)的特性,左端無限趨于0,右端無限趨于1,構(gòu)成一個限制信息的“門”,當(dāng)不相關(guān)信息通過門控時,函數(shù)取值趨向0,可以抑制不相關(guān)的信息。在目標(biāo)特征中不相關(guān)信息有可能占據(jù)較高的視覺激活,CG 模塊可以通過上述門控方法抑制這些不相關(guān)信息的傳遞,降低不相關(guān)特征對識別效果的影響,使網(wǎng)絡(luò)更加關(guān)注圖像的相關(guān)目標(biāo)區(qū)域。如圖3(b)所示,一個場景中可能存在一個或多個關(guān)鍵特征,圖中用key feature1 和key feature2 代表這類特征,不相關(guān)特征會被門控大量抑制,關(guān)鍵特征得以保留。

        圖3 CG輸入門及原理Fig.3 Input gate and working principle of CG

        1.4 特征融合模塊

        本文采取特征融合模塊用于融合來自兩個網(wǎng)絡(luò)的特征,獲得最終用于分類結(jié)果預(yù)測的特征,本文采用了卷積層+ReLU 和哈達(dá)瑪積的組合結(jié)構(gòu),具體如圖1 所示。場景網(wǎng)絡(luò)獲得的特征表示為:

        同樣,目標(biāo)網(wǎng)絡(luò)獲得的特征表示為:

        最終融合之后的特征表示為:

        其中:⊙表示哈達(dá)瑪積,即矩陣對應(yīng)位置相乘;yscene為經(jīng)過特征融合模塊的最終特征表示,其經(jīng)過softmax 層進(jìn)行分類,獲得最終的預(yù)測結(jié)果。

        1.5 損失函數(shù)

        ObjectNet 能夠檢測出場景圖像中存在的目標(biāo)對象,本文利用目標(biāo)檢測網(wǎng)絡(luò)的這種優(yōu)點與場景網(wǎng)絡(luò)進(jìn)行聯(lián)合訓(xùn)練。在本文的實驗中,當(dāng)兩個網(wǎng)絡(luò)聯(lián)合訓(xùn)練時,如果其中一個網(wǎng)絡(luò)的判別性較強(qiáng),整體損失較小,則會阻礙判別性較差的網(wǎng)絡(luò)的優(yōu)化。為了避免其中一個網(wǎng)絡(luò)控制訓(xùn)練過程,首先,ObjectNet和PlacesNet 分別針對給定的場景進(jìn)行訓(xùn)練;然后,將訓(xùn)練好的兩個網(wǎng)絡(luò)從頭開始完全訓(xùn)練特征融合模塊和分類器。在訓(xùn)練過程中,通過最小化以下目標(biāo)函數(shù)來同時預(yù)測結(jié)果:

        其中:D表示訓(xùn)練數(shù)據(jù)集;Ii表示第i張圖像;yi表示第i張圖像的真實標(biāo)簽;pi表示預(yù)測的場景標(biāo)簽;fi表示目標(biāo)網(wǎng)絡(luò)產(chǎn)生的標(biāo)簽;λ是平衡兩項的參數(shù);n和m分別對應(yīng)兩個網(wǎng)絡(luò)的特征維度。這種聯(lián)合學(xué)習(xí)方法能夠通過利用包含在目標(biāo)網(wǎng)絡(luò)中的額外知識作為歸納偏差來提高泛化能力,并減少過度擬合對訓(xùn)練數(shù)據(jù)集的影響。圖4 為本文方法的準(zhǔn)確率收斂曲線,在迭代1 500次時準(zhǔn)確率逐漸趨于穩(wěn)定。

        圖4 準(zhǔn)確率收斂曲線Fig.4 Accuracy convergence curve

        2 實驗與結(jié)果分析

        2.1 實驗平臺及數(shù)據(jù)集

        本文方法的具體實現(xiàn)使用的是深度學(xué)習(xí)框架Tensorflow,實驗環(huán)境為Ubuntu 16.04 操作系統(tǒng),使用4 塊NVIDIA 1080Ti圖形處理器(GPU)加速運(yùn)算。本文采用數(shù)據(jù)集包括:MIT Indoor67數(shù)據(jù)集,該數(shù)據(jù)集包含67個室內(nèi)類別,總共15 620張圖像,每個類別至少有100 張圖像;SUN397 數(shù)據(jù)集,它由108 754 張圖像組成,包含了397 個圖像類別;ImageNet 數(shù)據(jù)集,它是ObjectNet 訓(xùn)練用來提取場景圖像中的目標(biāo)的,包含了1 000 個對象類別;Scene-15 數(shù)據(jù)集,該數(shù)據(jù)集包含15 個不同類別的4 485個室內(nèi)外場景圖像,其中室內(nèi)場景類別分別是臥室、工廠、廚房、客廳、辦公室和商店。MIT Indoor67 數(shù)據(jù)集部分場景示例如圖5所示。

        圖5 MIT Indoor67數(shù)據(jù)集部分場景示例Fig.5 Some scene examples of MIT Indoor67 datasets

        2.2 實驗參數(shù)及結(jié)果分析

        實驗使用梯度下降法進(jìn)行訓(xùn)練,設(shè)置權(quán)重衰減(weight dacay)系數(shù)為0.000 1,動量(momentum)系數(shù)為0.9,batch size設(shè)置為64,初始學(xué)習(xí)率設(shè)置為0.001。實驗中要學(xué)習(xí)的參數(shù)是權(quán)重W∈Rm×n,偏差b∈Rm,m和n表示維度,與訓(xùn)練數(shù)據(jù)集的類別數(shù)有關(guān),因此不會增加參數(shù)的規(guī)模,對模型的學(xué)習(xí)速度不會產(chǎn)生大的影響。λ是需要人為給定的參數(shù),經(jīng)過多次實驗驗證,當(dāng)λ=0.5時,訓(xùn)練的效果最好。

        本文使用的評價指標(biāo)分別為:召回率Rec(Recall)、精準(zhǔn)率Pre(Precision)和識別準(zhǔn)確率Acc(Accuracy),其公式定義如下:

        其中:TP(True Positive)表示預(yù)測為正例,實際為正例;TN(True Negative)表示預(yù)測為負(fù)例,實際為負(fù)例;FP(False Positive)表示預(yù)測為正例,實際為負(fù)例;FN(False Negative)表示預(yù)測為負(fù)例,實際為正例。TP、TN、FP和FN分別表示預(yù)測的真假性與實際場景的關(guān)系。本文繪制了精準(zhǔn)率-召回率PR(Precision-Recall)曲線來分析模型,圖6 中展示了SOSF(Spatial-layout-maintained Object Semantics Features)[13]、HoAS(Hierarchy of Alternating Specialists)[18]、SDO(Semantic Descriptor with Objectness)[9]、VSAD(Vector of Semantically Aggregated Descriptors)[19]四種方法和本文方法的PR曲線。PR曲線表現(xiàn)了召回率和精準(zhǔn)率之間的關(guān)系,曲線越靠近右上角,表明模型的性能越好。從圖6 中可以看出本文方法在這方面優(yōu)于其他幾種方法。

        圖6 不同方法的PR曲線Fig.6 PR curves of different algorithms

        表1 為本文方法在Scene-15 數(shù)據(jù)集上得到的混淆矩陣以及相應(yīng)的召回率和識別精度,矩陣第i行第j列的值表示第i類場景被預(yù)測為第j類場景的樣本數(shù)。表1 中序號分別對應(yīng)Scene-15 數(shù)據(jù)集中的類別,分別為:1)Living;2)MITmountain;3)MITopencountry;4)MITforest;5)store;6)MIThighway;7)CALsuburb;8)MITstreet;9)industrial;10)kitchen;11)PARoffice;12)MITinsidecity;13)MITcoast;14)bedroom 和15)MITtallbuilding。從表1中可以看出,辦公室的類別召回率為100.0%,精準(zhǔn)率為95.7%;廚房的召回率也達(dá)到100.0%,臥室和客廳兩個室內(nèi)場景類別容易被相互誤分類,分類錯誤的原因是客廳中的目標(biāo)(如沙發(fā))與臥室場景中的目標(biāo)相似。本文方法在室外場景上也有不錯的效果。

        表1 Scene-15數(shù)據(jù)集的混淆矩陣Tab.1 Confusion matrix of Scene-15 dataset

        2.2.1 多種方法在數(shù)據(jù)集MIT Indoor67和SUN397上的比較

        目前,已有多種方法對場景識別進(jìn)行了研究。本文將多種方法分別在數(shù)據(jù)集MIT Indoor67 和SUN397 上進(jìn)行了對比實驗,主要與以下幾種方法作為對比實驗:Object-Scale[10]、VSAD[19]、MR-CNNs(Multi-Resolution CNNs)[11]、SDO[9]、Semantic-Aware[1]、HoAS[18]、SOSF[13],結(jié)果如表2所示。在MITIndoor67數(shù)據(jù)集上進(jìn)行的實驗,VSAD[19]雖然利用了PatchNet來指導(dǎo)特征提取,但是該網(wǎng)絡(luò)對Local patch的提取能力并不強(qiáng),準(zhǔn)確率只有86.20%;MR-CNNs[11]的準(zhǔn)確率為86.70%,它在網(wǎng)絡(luò)結(jié)構(gòu)上進(jìn)行了創(chuàng)新,結(jié)合了多分辨率網(wǎng)絡(luò),但沒有利用局部特征,導(dǎo)致在準(zhǔn)確率上并沒有提升很多;Semantic-Aware[1]在場景的語義信息方面有所改善,但是面對復(fù)雜場景時受語義分割的影響,場景識別效果也受到限制,準(zhǔn)確率為87.10%;另外,HoAS[18]解決了場景的類內(nèi)差異性和類間相似性的問題,SOSF[13]的結(jié)果是對比方法中效果最高的為89.51%,但還是缺乏對場景的目標(biāo)特征足夠的關(guān)注。因此,本文在利用目標(biāo)特征進(jìn)行分析的同時,抑制了不相關(guān)特征的權(quán)重,識別準(zhǔn)確率達(dá)到了90.28%,相比上述方法最好的結(jié)果,仍有0.77個百分點的提升。同樣,在SUN397數(shù)據(jù)集上,本文方法識別準(zhǔn)確率達(dá)到了81.15%,相較于另外幾種方法中準(zhǔn)確率最高的方法HoAS(為79.66%),準(zhǔn)確率提高了1.49 個百分點。實驗結(jié)果表明,通過對目標(biāo)特征進(jìn)行轉(zhuǎn)換并對冗余信息進(jìn)行抑制,增強(qiáng)了特征的表達(dá)能力和特征融合的效果,顯著提高了識別準(zhǔn)確率。

        表2 多種方法在MIT Indoor67和SUN 397數(shù)據(jù)集上的準(zhǔn)確率 單位:%Tab.2 Accuracy of various methods on MIT Indoor67 and SUN 397 datasets unit:%

        2.2.2 目標(biāo)和場景之間的關(guān)系分析

        CCM 的權(quán)重體現(xiàn)了目標(biāo)以及場景之間的關(guān)系緊密程度,本文對CCM 的權(quán)重進(jìn)行了分析,結(jié)果顯示權(quán)重值越高,表明該目標(biāo)越經(jīng)常出現(xiàn)在該場景中;反之亦然。本文在MIT Indoor67數(shù)據(jù)集上進(jìn)行實驗,通過表3~4數(shù)據(jù)對它們的關(guān)系展開分析。表3 和表4 分別顯示了CCM 權(quán)重的前3 名和后3名。

        表3 CCM權(quán)重的前3名Tab.3 Top-3 of CCM weights

        表3 數(shù)據(jù)顯示的是某場景類中可能存在的合理對象,權(quán)重最高的是bedroom 中的bed,達(dá)到了0.097 21,表明這種搭配合理度最高;另外兩個kitchen 和stove 以及bathroom 和toilet的權(quán)重也分別達(dá)到了0.094 80、0.093 16,這表明它們的搭配合理性也很高。這個數(shù)據(jù)驗證了CCM 正確反映了目標(biāo)對于場景的積極影響。

        同理,根據(jù)表4 的數(shù)據(jù)顯示,權(quán)重值越小的值所對應(yīng)的場景類別和對象類別的組合其合理性也越小,權(quán)重為負(fù)值時,表明該目標(biāo)對場景識別起到了負(fù)面影響,需要對其權(quán)重進(jìn)行抑制。比如表4 中所列的bathroom 和stove、office 和slipper 等組合。從實驗數(shù)據(jù)可以看出,該實驗結(jié)果表明了CCM 權(quán)重對室內(nèi)場景識別是有效的。本文方法合理體現(xiàn)了對于目標(biāo)和場景之間的關(guān)系程度。

        表4 CCM權(quán)重的后3名Tab.4 Bottom-3 of CCM weights

        2.2.3 冗余信息抑制效果

        為了測試本文方法對于冗余信息的抑制效果,在MIT Indoor67 數(shù)據(jù)集上分別利用了目標(biāo)檢測網(wǎng)絡(luò)和本文方法進(jìn)行了效果對比。首先,利用目標(biāo)檢測網(wǎng)絡(luò)檢測室內(nèi)場景圖像中包含的目標(biāo);然后,本文以類激活圖(Class Activation Map,CAM)[20]的形式分析CG 模塊對識別效果的影響,該方法以直觀的視覺形式表現(xiàn)出了網(wǎng)絡(luò)對于圖像的關(guān)注區(qū)域。

        目標(biāo)特征中的冗余信息抑制結(jié)果如圖7 所示:圖7(a)為原圖;圖7(b)為經(jīng)過目標(biāo)檢測網(wǎng)絡(luò)的輸出圖像,可以看出場景中一些明顯的物體被檢測出來,如床、桌子、椅子以及電腦等;圖7(c)為經(jīng)過本文方法的CAM 可視化效果。從圖7 可看出,相對于圖7(b)中目標(biāo)檢測網(wǎng)絡(luò)的效果,本文方法將關(guān)注點集中在圖中主要的物體上,對目標(biāo)檢測網(wǎng)絡(luò)提取的特征中包含的冗余信息有明顯的抑制效果。

        圖7 冗余信息的抑制效果Fig.7 Suppression effect of redundant information

        2.3 消融實驗

        CCM 模塊和CG 模塊可分別作為網(wǎng)絡(luò)的一部分來改善網(wǎng)絡(luò)性能。為了測試本文方法分別在CCM、CG以及它們的組合情況下的性能,本文通過它們的多種組合來分析模型在MIT Indoor67和SUN397兩個數(shù)據(jù)集上的識別準(zhǔn)確率,如表5所示。

        根據(jù)表5 的數(shù)據(jù)顯示,在MIT Indoor67 數(shù)據(jù)集上,網(wǎng)絡(luò)在分別只有CCM 和CG 的情況下,準(zhǔn)確率為88.35%和87.91%,相較于二者都沒有的情況下的86.40%,識別準(zhǔn)確率分別提高了1.95 個百分點和1.51 個百分點;而在同時具備CCM 和CG時,即本文方法識別準(zhǔn)確率達(dá)到了90.28%。在SUN397 數(shù)據(jù)集上,本文方法也取得了不錯的效果,在只采用CCM 或CG 情況下,準(zhǔn)確率分別提高了1.55 個百分點和2.39 個百分點;而同時采用CCM 和CG 時,最終識別準(zhǔn)確率達(dá)到了81.15%。以上實驗表明,CCM 和CG 模塊對室內(nèi)場景識別產(chǎn)生了積極的影響,提高了識別的準(zhǔn)確率。

        表5 CCM和CG的不同組合效果對比Tab.5 Effect comparison of different combination of CCM and CG

        3 結(jié)語

        本文針對室內(nèi)場景識別中目標(biāo)特征與場景特征性質(zhì)和維度不一致、特征信息冗余等問題,在結(jié)合目標(biāo)檢測和場景識別的基礎(chǔ)上,提出一種改進(jìn)的室內(nèi)場景識別方法。通過CCM 將場景圖像中的目標(biāo)特征轉(zhuǎn)換為場景特征,使得二者具有相同的特征維度,減少特征融合時的特征信息丟失;然后,利用CG抑制特征中的冗余信息,降低了不相關(guān)信息對場景識別的影響,提高了目標(biāo)特征在室內(nèi)場景識別中的作用。最后,本文分別在Scene-15、MIT Indoor67 和SUN397 三個場景數(shù)據(jù)集上進(jìn)行了實驗,并通過和其他方法對比,驗證了本文方法有效提高了室內(nèi)場景識別的準(zhǔn)確率。

        猜你喜歡
        特征信息方法
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        免费黄色影片| 蜜桃成人精品一区二区三区| 国产av一卡二卡日韩av| 免费人成在线观看网站| 色综合中文综合网| www.久久av.com| 手机在线播放成人av| 男人的天堂中文字幕熟女人妻| 男女啪啪免费体验区| 亚色中文字幕| 国产一区资源在线播放| 国产极品女主播国产区| 最近中文字幕视频高清| 国语憿情少妇无码av| 少妇下面好紧好多水真爽| 国产亚洲精品久久久闺蜜| 国产一起色一起爱| 亚洲精品国产熟女久久| 国产成人亚洲一区二区| 一本色道无码道dvd在线观看| 最新国产三级| 久久国产精品av在线观看| 国产自拍av在线观看视频| 亚洲男人的天堂在线aⅴ视频| 亚洲另在线日韩综合色| 精品国产乱码久久久久久口爆网站| 欧美日韩a级a| 麻豆成人久久精品一区| 亚洲男同gay在线观看| 亚洲图区欧美| 午夜日本理论片最新片| 久久综合噜噜激激的五月天| 亚洲av电影天堂男人的天堂| av无码一区二区三| 亚洲精品岛国av一区二区| 午夜福利av无码一区二区| 久久久久久久98亚洲精品| 在线观看日本一区二区三区| 日本a片大尺度高潮无码| 国产偷国产偷亚洲清高| 久久伊人精品只有这里有|