亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN級(jí)聯(lián)特征增強(qiáng)的通用目標(biāo)檢測(cè)方法

        2022-05-23 07:25:10張業(yè)星潘秋羽
        關(guān)鍵詞:語(yǔ)義特征融合

        張業(yè)星,陳 敏,潘秋羽

        (中國(guó)電建集團(tuán)華東勘測(cè)設(shè)計(jì)研究院有限公司 浙江華東工程數(shù)字技術(shù)有限公司,浙江 杭州 310000)

        0 引 言

        圖1 一階段與二階段方法對(duì)比

        隨著深度學(xué)習(xí)應(yīng)用研究的井噴式發(fā)展,與計(jì)算機(jī)視覺(jué)相關(guān)的任務(wù)需求也在日益增多。通用目標(biāo)檢測(cè)作為一項(xiàng)結(jié)合了目標(biāo)分類(lèi)與定位的基礎(chǔ)視覺(jué)任務(wù),其目的在于區(qū)分圖像中的復(fù)雜背景與潛在目標(biāo),并對(duì)每一個(gè)潛在目標(biāo)預(yù)測(cè)其所屬的類(lèi)別(Label)與位置(Bounding Box)。作為目標(biāo)跟蹤、目標(biāo)重識(shí)別等高級(jí)視覺(jué)任務(wù)的理論研究基礎(chǔ),目標(biāo)檢測(cè)任務(wù)對(duì)圖像內(nèi)容表達(dá)、圖像信息理解等應(yīng)用領(lǐng)域也有著深遠(yuǎn)影響,越來(lái)越受到國(guó)內(nèi)外研究學(xué)者的重視。隨著近些年機(jī)器視覺(jué)理論與特征建模技術(shù)的蓬勃發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的通用目標(biāo)檢測(cè)方法逐漸取代了傳統(tǒng)的檢測(cè)方法,在精度和速度上都實(shí)現(xiàn)了巨大的突破?,F(xiàn)階段依賴CNN的檢測(cè)方法主要可以分為兩類(lèi),第一類(lèi)是利用回歸的方式直接在特征圖上預(yù)測(cè)出目標(biāo)類(lèi)別與位置信息的一階段方法,其中代表性算法有YOLO系列[1-3]、SSD系列[4-6]等;第二類(lèi)是先在特征圖上進(jìn)行候選區(qū)域(region proposal,RP)生成,然后再利用RP有針對(duì)性地進(jìn)行類(lèi)別和位置信息預(yù)測(cè)的二階段方法,代表性算法有RCNN系列[7-9]等。如圖1所示,通過(guò)對(duì)比兩類(lèi)方法發(fā)現(xiàn),無(wú)論是一階段還是二階段的檢測(cè)方法,其首要步驟都是對(duì)輸入的圖像進(jìn)行特征提取,進(jìn)而得到含有豐富語(yǔ)義的抽象特征集合。因此,本文做出了基于統(tǒng)計(jì)的預(yù)測(cè),CNN生成特征的好壞對(duì)于分類(lèi)器和回歸器的學(xué)習(xí)過(guò)程尤為關(guān)鍵,這將直接決定模型表現(xiàn)的上限,而檢測(cè)的算法只是在盡可能逼近這個(gè)上限。

        1 研究現(xiàn)狀

        近些年,有越來(lái)越多的學(xué)者開(kāi)始針對(duì)CNN的級(jí)聯(lián)特征進(jìn)行探索,以期獲得更具計(jì)算機(jī)視角下的語(yǔ)義特征來(lái)增強(qiáng)模型的表達(dá)力和泛化力。其中FPN[10]針對(duì)Faster RCNN[8]中單一尺度特征圖預(yù)測(cè)缺少底層細(xì)節(jié)信息的問(wèn)題,設(shè)計(jì)了自頂向下的融合鏈接,彌補(bǔ)了底層特征圖缺少的強(qiáng)語(yǔ)義信息,提升了對(duì)小目標(biāo)的檢測(cè)效果;RSSD[11]算法針對(duì)原SSD算法中同一目標(biāo)易被多個(gè)邊框檢測(cè)到的現(xiàn)象,提出了Rainbow Concat結(jié)構(gòu),增加了分類(lèi)網(wǎng)絡(luò)中不同特征層級(jí)之間的關(guān)聯(lián)性;PoolNet[12]針對(duì)FPN[10]中融合鏈接帶來(lái)的高層抽象語(yǔ)義被稀釋問(wèn)題,設(shè)計(jì)了GGM和FAM減少抽象語(yǔ)義流失,改進(jìn)傳統(tǒng)特征金字塔在顯著性檢測(cè)方面的應(yīng)用。

        綜上這些方法[10-12]都對(duì)圖像的特征空間進(jìn)行了建模,并利用多尺度特征融合對(duì)頂層強(qiáng)語(yǔ)義特征或底層弱語(yǔ)義特征進(jìn)行彌補(bǔ),提高模型表達(dá)力,這無(wú)疑表明CNN級(jí)聯(lián)特征的增強(qiáng)對(duì)于目標(biāo)檢測(cè)任務(wù)而言是至關(guān)重要的。雖然這些方法一定程度上改善了之前僅使用單一尺度特征圖進(jìn)行預(yù)測(cè)帶來(lái)的精度低、魯棒性差等問(wèn)題,但由于其方法在建模過(guò)程中忽略了信息的逐層衰減,致使模型難以有效適應(yīng)復(fù)雜場(chǎng)景下的多尺度檢測(cè)任務(wù)。因此,本文在此基礎(chǔ)上構(gòu)建了全新的特征增強(qiáng)模塊(feature enhancement module,F(xiàn)EM),在彌補(bǔ)圖像全局信息的同時(shí),增強(qiáng)了網(wǎng)絡(luò)級(jí)聯(lián)特征的表達(dá)力。本文所提出特征網(wǎng)絡(luò)的結(jié)構(gòu)如圖2所示。

        圖2 特征提取網(wǎng)絡(luò)

        網(wǎng)絡(luò)首先通過(guò)CNN級(jí)聯(lián)對(duì)輸入圖像進(jìn)行高維度特征提取,然后利用自頂向下鏈接將Backbone每階段的輸出進(jìn)行融合建模,構(gòu)建特征金字塔,最后再通過(guò)對(duì)其進(jìn)行特征增強(qiáng)處理,生成含有豐富語(yǔ)義的最終特征用于后續(xù)的目標(biāo)檢測(cè)和邊框回歸。

        2 相關(guān)工作

        多維特征信息的融合互補(bǔ)可以增強(qiáng)圖像特征空間的表達(dá)能力。底層特征圖的分辨率偏大,但感受野過(guò)小,每個(gè)像元關(guān)注的多為潛在對(duì)象的微觀特征如紋理、線條;頂層特征圖的分辨率很小,但感受野較大,每個(gè)像元通過(guò)網(wǎng)絡(luò)級(jí)聯(lián)可以將細(xì)節(jié)信息抽象為更具機(jī)器視角的宏觀特征如輪廓、形狀。傳統(tǒng)的FPN和FSSD[6]等鏈?zhǔn)教卣魅诤戏椒ㄖ会槍?duì)單一方向缺失的語(yǔ)義信息進(jìn)行了彌補(bǔ),忽略了語(yǔ)義信息來(lái)源的多方向性,如圖3(a)所示,F(xiàn)PN模型中自頂向下鏈接的設(shè)計(jì)雖然彌補(bǔ)了特征金字塔中各個(gè)層級(jí)的頂層宏觀信息,但由于鏈接的單向性,使得頂層特征圖并未得到較低層微觀信息的補(bǔ)充;又比如圖3(b)中的FSSD模型,雖然先融合各個(gè)層級(jí)的信息去構(gòu)建底層的基礎(chǔ)特征層,并依靠自底向上鏈接去級(jí)聯(lián)生成新的特征金字塔,但因?yàn)榧?jí)聯(lián)路徑也是單向的,使得底層的特征圖無(wú)法獲得較高層宏觀信息的彌補(bǔ)。

        圖3 FPN與FSSD融合模塊

        本文針對(duì)上述問(wèn)題,對(duì)傳統(tǒng)的鏈?zhǔn)饺诤辖Y(jié)構(gòu)進(jìn)行了改進(jìn),通過(guò)在特征融合階段引入FEM來(lái)加強(qiáng)CNN級(jí)聯(lián)所得特征圖的表達(dá)力;除此之外,還利用特征金字塔各層級(jí)特征圖間的二次融合,減少了特征圖語(yǔ)義間的噪聲,構(gòu)建具有更強(qiáng)表達(dá)力的特征空間,從而更好地表達(dá)原圖像的全局信息;最后,本文設(shè)計(jì)了消融實(shí)驗(yàn)將未使用FEM和使用FEM的模型進(jìn)行對(duì)比,印證了改進(jìn)后方法的有效性。

        2.1 特征增強(qiáng)模塊(FEM)

        高層語(yǔ)義特征有助于學(xué)習(xí)目標(biāo)的類(lèi)別信息,但是過(guò)于粗糙,不利于宏觀定位;底層特征有助于學(xué)習(xí)目標(biāo)的位置信息,但語(yǔ)義太弱,不利于模型分類(lèi),這兩種特征對(duì)于目標(biāo)檢測(cè)任務(wù)都尤為重要。傳統(tǒng)的多尺度融合檢測(cè)方法在建模時(shí)引入了縱向融合鏈接來(lái)構(gòu)造特征金字塔,但由于融合鏈接的單向性,使得金字塔中的各層級(jí)特征只能獲得單方向的語(yǔ)義信息彌補(bǔ),影響后續(xù)目標(biāo)分類(lèi)和邊框回歸任務(wù)的性能。基于此,本文方法對(duì)CNN的級(jí)聯(lián)特征進(jìn)行了增強(qiáng),構(gòu)建FEM實(shí)現(xiàn)多方向語(yǔ)義信息的彌補(bǔ),補(bǔ)充融合路徑中被不斷稀釋的宏觀信息和微觀信息。FEM的詳細(xì)結(jié)構(gòu)如圖4所示。

        圖4 特征增強(qiáng)模塊

        FEM建模的樣本空間中共計(jì)有5個(gè)尺度的特征圖,即 {752,382,192,102,52} 分別對(duì)應(yīng)特征金字塔 {P3,P4,P5,P6,P7} 中的每個(gè)層級(jí),其通道維度都為256。該模塊的建模嚴(yán)格遵循了按通道拼接(Channel Concat)的融合方式,涉及到的計(jì)算方式一共有3種,其中方向向下的黑色曲線代表雙線性插值上采樣,方向向上的灰色曲線代表卷積核尺寸為3,寬高方向步長(zhǎng)為2的卷積操作,虛線代表f(x)=x的網(wǎng)絡(luò)恒等映射。

        模塊首先將 {P3,P4,P5,P6,P7} 中的每個(gè)樣本按照通道維度進(jìn)行分割,得到4個(gè)尺度為W×H×64的特征圖;然后將這4個(gè)分割后的特征圖分別進(jìn)行上采樣或下采樣變換,生成除自身尺度以外的其它4個(gè)特征層級(jí)的尺度,最后通過(guò)Concat操作,將變換后的4個(gè)W×H×64的特征圖與經(jīng)過(guò)恒等映射(identity mapping,IM)得到的原始特征 {P3,P4,P5,P6,P7} 按通道進(jìn)行拼接,重構(gòu)富含各個(gè)層級(jí)信息的增強(qiáng)特征 {F3,F4,F5,F6,F7}。 FEM最終輸出的特征圖尺度為W×H×512, 其中W與H屬于集合 {752,382,192,102,52}, 整個(gè)過(guò)層涉及到的計(jì)算公式如下所示

        Pi_a,Pi_b,Pi_c,Pi_d=Split{Pi},i∈{3,4,5,6,7}F3=Concat{P3,B*1(P4_a),B*2(P5_b),B*3(P6_c),B*4(P7_d)}F4=Concat{P4,B*1(P5_a),B*2(P6_b),B*3(P7_c),C*1(P3_d)}F5=Concat{P5,B*1(P6_a),B*2(P7_b),C*2(P3_c),C*1(P4_d)}F6=Concat{P6,B*1(P7_a),C*3(P3_b),C*2(P4_c),B*1(P5_d)}F7=Concat{P7,C*4(P3_a),C*3(P4_b),C*2(P5_c),C*1(P6_d)}

        上述公式中的Split操作代表對(duì)所選特征圖進(jìn)行通道分割;Concat操作代表對(duì)所選特征圖進(jìn)行通道拼接;B*i(X) 代表對(duì)特征圖X進(jìn)行i次寬高方向步長(zhǎng)為2的雙線性插值上采樣;C*i(Y) 代表對(duì)特征圖Y進(jìn)行j次卷積核尺寸為3,寬高方向步長(zhǎng)為2的卷積下采樣,且保持特征深度為64不變。如此一來(lái),F(xiàn)EM能夠?qū)NN級(jí)聯(lián)金字塔的各尺度特征進(jìn)行建模,利用頂層宏觀特征和底層微觀特征的互補(bǔ)來(lái)構(gòu)建融合特征,使得增強(qiáng)后的特征圖對(duì)原圖像的全局信息更敏感。

        2.2 消融實(shí)驗(yàn)

        為了衡量FEM的設(shè)計(jì)對(duì)最終預(yù)測(cè)的影響,本小節(jié)設(shè)計(jì)了消融實(shí)驗(yàn)進(jìn)行驗(yàn)證。實(shí)驗(yàn)Backbone為殘差網(wǎng)絡(luò)ResNet-50[13],訓(xùn)練、測(cè)試數(shù)據(jù)集為PASCAL VOC[14],訓(xùn)練采用的損失函數(shù)為Multibox Loss,測(cè)試時(shí)IoU閾值為0.5。實(shí)驗(yàn)結(jié)果見(jiàn)表1,其中baseline算法為未使用FEM的融合建模方法。

        表1 消融實(shí)驗(yàn)結(jié)果對(duì)比

        由表1可知,本文方法所提出的FEM是一個(gè)正向積極的改進(jìn),該模塊在mAP為82.7%的baseline方法上取得了最高2.3%的提升。除此之外,本文實(shí)驗(yàn)還對(duì)FEM中IM恒等映射帶來(lái)的mAP提示進(jìn)行了單獨(dú)評(píng)估,IM的設(shè)計(jì)借鑒了Shortcut Connection的思想,其作用在于增加神經(jīng)網(wǎng)絡(luò)中信息間的流動(dòng)并保留盡可能多的初始信息用于后續(xù)的目標(biāo)分類(lèi)和邊框回歸??偟膩?lái)說(shuō),本文方法利用FEM對(duì)傳統(tǒng)CNN的級(jí)聯(lián)過(guò)程進(jìn)行特征建模,促使特征空間中各個(gè)層級(jí)的語(yǔ)義信息得到彌補(bǔ),達(dá)到增強(qiáng)特征表達(dá)力的目的,最終使模型對(duì)于復(fù)雜場(chǎng)景進(jìn)行預(yù)測(cè)時(shí)更魯棒。

        表2 不同IoU閾值下的方法對(duì)比

        可以發(fā)現(xiàn),在各個(gè)IoU閾值情況下本文方法都帶來(lái)了可觀的mAP提升,最高情況是當(dāng)IoU=0.7時(shí),提升幅度為3.6個(gè)百分點(diǎn),如圖5所示,這在一定程度上反映了FEM對(duì)于模型精準(zhǔn)定位起到了不錯(cuò)的效果。

        圖5 實(shí)驗(yàn)結(jié)果對(duì)比

        3 實(shí)驗(yàn)分析

        3.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)所使用的軟硬件環(huán)境為L(zhǎng)INUX 64-bit Ubuntu 16.04操作系統(tǒng),Intel?Xeon?Platinum 8163 CPU 2.5 GHz處理器,NVIDIA Tesla V100 32 GB GPU。實(shí)驗(yàn)程序基于了Pytorch[15]深度學(xué)習(xí)框架。

        3.2 模型調(diào)優(yōu)

        3.2.1 參數(shù)共享

        本文算法采用了one stage的檢測(cè)流程,選取了ResNet-50作為特征提取網(wǎng)絡(luò)。通過(guò)在FEM建模完成的增強(qiáng)特征后添加cls-branch與reg-branch兩個(gè)平行分支來(lái)進(jìn)行目標(biāo)類(lèi)別置信度和坐標(biāo)偏移量的預(yù)測(cè)。兩個(gè)分支都由4個(gè)卷積核尺寸等于3,輸出維度等于512,且經(jīng)過(guò)ReLu非線性激活的卷積層組成子網(wǎng)頭部。本文實(shí)驗(yàn)為了加快訓(xùn)練時(shí)模型的收斂速度和降低過(guò)擬合風(fēng)險(xiǎn),所以對(duì)網(wǎng)絡(luò)的參數(shù)數(shù)量進(jìn)行了控制,通過(guò)讓各個(gè)預(yù)測(cè)模塊中的cls-branch與reg-branch頭部共享網(wǎng)絡(luò)參數(shù),使其除了最后一層輸出維度之外的其它部分完全相同。預(yù)測(cè)網(wǎng)絡(luò)的結(jié)構(gòu)如圖6所示,其中W、H屬于集合 {752,382,192,102,52}, 代表當(dāng)前層級(jí)中特征圖的寬度和高度,K代表待檢測(cè)的類(lèi)別總數(shù)(前景類(lèi)別數(shù)加背景),A代表了錨點(diǎn)框的數(shù)量。

        圖6 預(yù)測(cè)網(wǎng)絡(luò)結(jié)構(gòu)

        3.2.2 錨點(diǎn)框聚類(lèi)

        傳統(tǒng)的目標(biāo)檢測(cè)算法為了將模型預(yù)測(cè)的精度最大化,通常在訓(xùn)練階段會(huì)使用人為設(shè)計(jì)的多尺度、多橫縱比錨點(diǎn)框,使得回歸后的邊框能盡可能包含各個(gè)大小的目標(biāo)尺寸,但這樣卻會(huì)帶來(lái)兩個(gè)問(wèn)題:

        (1)人為設(shè)計(jì)的錨點(diǎn)框尺寸沒(méi)有對(duì)當(dāng)前數(shù)據(jù)的分布進(jìn)行分析,難以利用到大數(shù)據(jù)的優(yōu)勢(shì);

        (2)大量針對(duì)錨點(diǎn)框的計(jì)算會(huì)使模型在訓(xùn)練階段難以收斂,且在推理階段速度變慢。

        針對(duì)上述問(wèn)題,本文實(shí)驗(yàn)基于CNN級(jí)聯(lián)網(wǎng)絡(luò)具有輕易捕捉尺度空間信息的優(yōu)勢(shì),為了壓縮模型的計(jì)算時(shí)長(zhǎng),僅設(shè)計(jì)了單一尺度的錨點(diǎn)框,對(duì)于縱橫比的選取,則采用k=3的kmeans算法對(duì)數(shù)據(jù)集的真實(shí)坐標(biāo)進(jìn)行聚類(lèi),如此一來(lái)在避免主觀設(shè)定的同時(shí),還減少了模型計(jì)算量。

        3.2.3 正負(fù)樣本平衡

        正負(fù)樣本間的失衡是通用目標(biāo)檢測(cè)算法(尤其是one stage檢測(cè)算法)中普遍存在的問(wèn)題。由于待檢測(cè)的圖像中經(jīng)常是背景負(fù)樣本數(shù)量遠(yuǎn)多于前景正樣本數(shù)量,這將使得以總體分類(lèi)準(zhǔn)確率為學(xué)習(xí)目標(biāo)的分類(lèi)子網(wǎng)過(guò)多的去關(guān)注多數(shù)類(lèi)樣本,降低少數(shù)類(lèi)樣本的分類(lèi)性能,導(dǎo)致模型在訓(xùn)練階段被大量背景樣本主導(dǎo),從而難以收斂到優(yōu)質(zhì)解,給分類(lèi)器造成性能瓶頸。針對(duì)此問(wèn)題,本文方法引入了OHEM機(jī)制,首先將全部的負(fù)樣本按照損失大小進(jìn)行遍歷,然后選取正樣本3倍數(shù)量的負(fù)樣本進(jìn)行損失統(tǒng)計(jì),最后僅針對(duì)這些統(tǒng)計(jì)好的部分損失進(jìn)行反向傳播并更新網(wǎng)絡(luò)權(quán)重。

        3.3 參數(shù)設(shè)置

        本文實(shí)驗(yàn)訓(xùn)練時(shí)的參數(shù)設(shè)置如下:

        (1)初始學(xué)習(xí)率lr=0.0005;

        (2)最大迭代次數(shù)maxiter=50 000;

        (3)學(xué)習(xí)率衰減尺度deciter=40 000;

        (4)批處理數(shù)量batchsize=24;

        (5)非極大值抑制閾值[16]nmsthresh=0.45;

        (6)優(yōu)化動(dòng)量參數(shù)momentum=0.9。

        3.4 訓(xùn)練過(guò)程

        本文實(shí)驗(yàn)采用了端到端的訓(xùn)練方法,訓(xùn)練過(guò)程如下所述:

        (1)骨干網(wǎng)ResNet-50使用了Image Net[17]的預(yù)訓(xùn)練參數(shù)進(jìn)行初始化,其它網(wǎng)絡(luò)參數(shù)則使用了N(0,0.1) 的正態(tài)分布函數(shù)進(jìn)行初始化;

        (2)將網(wǎng)絡(luò)隨機(jī)獲取的每個(gè)批次的輸入圖像以二分之一的概率進(jìn)行水平翻轉(zhuǎn),以增強(qiáng)模型泛化能力;

        (3)將輸入圖像轉(zhuǎn)換成像素矩陣,并按照均值參數(shù)means=[0.485,0.456,0.406], 標(biāo)準(zhǔn)差參數(shù)stds=[0.229,0.224,0.225] 進(jìn)行歸一化預(yù)處理;

        (4)將預(yù)處理完的圖像張量的分辨率進(jìn)行標(biāo)準(zhǔn)化,固定為Backbone的輸入大小,即寬高皆為600;

        (5)當(dāng)模型訓(xùn)練迭代到40 000次后,對(duì)學(xué)習(xí)率大小進(jìn)行衰減控制,系數(shù)取值為0.1;

        (6)采用momentum=0.9的隨機(jī)梯度下降算法對(duì)損失函數(shù)進(jìn)行優(yōu)化,直至達(dá)到最大迭代次數(shù)或損失收斂。

        3.5 實(shí)驗(yàn)結(jié)果

        為了將本文方法與其它SOTA檢測(cè)算法的mAP進(jìn)行量化對(duì)比,現(xiàn)將實(shí)驗(yàn)結(jié)果與傳統(tǒng)特征融合建模方法FPN[10]、DSSD[5]、FSSD[6]、RSSD[11]進(jìn)行比較,實(shí)驗(yàn)中IoU閾值設(shè)定為0.5。由表3可知,本文方法在使用較淺Backbone的同時(shí)仍然取得了最高的mAP值,這主要得力于FEM的設(shè)計(jì)能夠有效緩解傳統(tǒng)鏈?zhǔn)饺诤蠋?lái)的長(zhǎng)路徑語(yǔ)義稀釋問(wèn)題,并通過(guò)對(duì)特征金字塔進(jìn)行通道建模,增強(qiáng)CNN級(jí)聯(lián)特征的表達(dá)力,使模型在復(fù)雜場(chǎng)景下的檢測(cè)效果得到提升。

        圖7展現(xiàn)了本文方法在PASCAL VOC 2007測(cè)試數(shù)據(jù)集中的部分檢測(cè)樣例,可以發(fā)現(xiàn)在使用了FEM后,檢測(cè)模型能夠?qū)財(cái)?、重疊、陰影、遮擋等復(fù)雜場(chǎng)景更加魯棒。

        表3 算法mAP值對(duì)比

        圖7 VOC 2007目標(biāo)檢測(cè)樣例

        4 結(jié)束語(yǔ)

        傳統(tǒng)依賴CNN的目標(biāo)檢測(cè)算法[5,6,10,11]大都利用了融合建模方法對(duì)不同層級(jí)的語(yǔ)義特征進(jìn)行補(bǔ)充,但由于網(wǎng)絡(luò)的級(jí)聯(lián)太長(zhǎng),信息在融合路徑中的傳遞被逐漸地稀釋?zhuān)沟媚P驮卺槍?duì)復(fù)雜場(chǎng)景進(jìn)行檢測(cè)時(shí)不夠魯棒?;诖?,本文設(shè)計(jì)了FEM對(duì)CNN級(jí)聯(lián)特征進(jìn)行增強(qiáng)。首先對(duì)底層特征圖進(jìn)行復(fù)用,利用自頂向下鏈接構(gòu)建過(guò)度特征;然后對(duì)過(guò)度特征進(jìn)行通道建模,生成適用于多尺度檢測(cè)的全局特征;最后通過(guò)兩個(gè)平行的CNN結(jié)構(gòu)分別計(jì)算得到目標(biāo)的類(lèi)別和坐標(biāo)。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,并在公共數(shù)據(jù)集PASCAL VOC 2007上進(jìn)行測(cè)試,本文方法取得了85.0%的mAP值,在baseline的基礎(chǔ)上取得了最高2.3%的提升。實(shí)驗(yàn)結(jié)果表明,F(xiàn)EM能夠在保留圖像原始語(yǔ)義信息不被破壞的同時(shí)去重構(gòu)富含全局描述的多尺度特征空間,這對(duì)于后續(xù)分類(lèi)器與回歸器的學(xué)習(xí)是十分有利的。但是,由于本文方法對(duì)各層級(jí)特征圖進(jìn)行了嚴(yán)格建模,計(jì)算量頗大,導(dǎo)致模型的推理速度有所降低,使得本文方法并不適用于實(shí)時(shí)性要求很高的場(chǎng)合。因此,下一步的研究工作主要集中在保留現(xiàn)有預(yù)測(cè)精度的同時(shí),對(duì)算法的時(shí)間復(fù)雜度進(jìn)行優(yōu)化,取得預(yù)測(cè)速度和預(yù)測(cè)精度之間的平衡。

        猜你喜歡
        語(yǔ)義特征融合
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        語(yǔ)言與語(yǔ)義
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        “上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
        認(rèn)知范疇模糊與語(yǔ)義模糊
        日本阿v片在线播放免费| 日本久久一区二区三区高清| 中文字幕视频一区懂色| 久久国产精品一区二区三区| 无码va在线观看| 99精品久久这里只有精品| 蜜桃一区二区免费视频观看 | 国产精品成人一区二区不卡| 亚洲成av人在线观看网址| 日本xxxx色视频在线播放| 中文人妻无码一区二区三区| 日韩美女人妻一区二区三区| 久久精品国产亚洲av天| 亚洲男人av天堂午夜在| 国产欧美一区二区成人影院| 免费一区二区三区av| 中文字幕一区二区三区视频| 麻豆精品久久久久久久99蜜桃| 正在播放国产对白孕妇作爱| 日韩毛片久久91| 日韩在线一区二区三区中文字幕| 在线播放亚洲丝袜美腿| 久久精品国产亚洲av高清热| 亚洲红怡院| 北岛玲亚洲一区二区三区| 白嫩丰满少妇av一区二区| 国产精品久久久久久久久免费| 免费在线亚洲视频| 亚洲一区二区三区一站| 免费的日本一区二区三区视频| 人人妻人人狠人人爽天天综合网| 日韩精品无码一区二区中文字幕 | 久久午夜一区二区三区| 国产精品一区二区av麻豆| 小12箩利洗澡无码视频网站| 亚洲无码图| 日本视频一中文有码中文| 亚洲人成色7777在线观看| 免费AV一区二区三区无码| 日韩产的人妻av在线网| 夹得好湿真拔不出来了动态图|