亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多粒度特征分割的車輛重識(shí)別算法

        2022-10-09 00:42:44藍(lán)章禮楊晴晴
        關(guān)鍵詞:三元組粒度注意力

        藍(lán)章禮,王 超,楊晴晴,金 豪

        (重慶交通大學(xué) 信息科學(xué)與工程學(xué)院,重慶 400074)

        0 引 言

        車輛重識(shí)別(Re-ID)旨在從多個(gè)非重疊攝像機(jī)拍攝的圖像中識(shí)別出同一車輛,可將其看作圖像檢索的子問(wèn)題[1]。通過(guò)車輛重識(shí)別技術(shù)可對(duì)目標(biāo)車輛進(jìn)行快速查找、定位及追蹤。因攝像頭視角變化帶來(lái)的類內(nèi)差異性和類間相似性問(wèn)題,使得車輛重識(shí)別成為一個(gè)極具挑戰(zhàn)性的任務(wù),如圖1。

        早期研究者主要基于車輛全局外觀特征進(jìn)行車輛重識(shí)別。X.LIU等[2]提出將紋理特征和顏色特征進(jìn)行融合作為車輛特征表示,以實(shí)現(xiàn)車輛重識(shí)別;D.ZAPLETAL等[3]提出了一種結(jié)合顏色直方圖、HOG特征并使用SVM作為分類器的車輛重識(shí)別方法;H.LIU等[4]提出了一種深度相關(guān)距離學(xué)習(xí)方法,能較好縮小類內(nèi)差異并擴(kuò)大類間差異,但存在需消耗大量計(jì)算資源的問(wèn)題;Y.BAI[5]等提出了一種組內(nèi)敏感的三元組嵌入方法來(lái)處理類內(nèi)方差,并給出了均值三元組損失,以緩解訓(xùn)練階段三元組采樣不當(dāng)帶來(lái)的負(fù)面影響。

        全局特征在識(shí)別外觀相似的車輛時(shí)存在一定局限性,一些研究學(xué)者開(kāi)始利用局部特征來(lái)實(shí)現(xiàn)車輛重識(shí)別。J.PENG等[6]提出利用空間變換網(wǎng)絡(luò)對(duì)局部區(qū)域進(jìn)行定位以學(xué)習(xí)到判別性特征;H.CHEN等[7]提出將特征圖在不同維度上均等分割成4塊以提取局部特征;J.QIAN等[8]提出將特征圖沿縱向分割成8塊以提取細(xì)粒度的局部特征;H.WANG等[9]提出將特征圖沿縱向和橫向均等分割成6塊以得到車輛局部細(xì)節(jié)特征。但上述方法忽視了顯著性特征對(duì)潛在顯著性特征的掩蓋問(wèn)題,并且缺乏對(duì)通道維度的關(guān)注,導(dǎo)致提取的局部特征不夠充分。

        為了使提取的特征更具代表性,常在網(wǎng)絡(luò)中嵌入注意力模塊。A.SUPREM等[10]提出聯(lián)合全局和局部注意模塊的車輛重識(shí)別方法,全局注意模塊用來(lái)降低輸入層的稀疏性,局部注意模塊用來(lái)自動(dòng)提取局部零件的特征;J.YANG等[11]為解決視角變化引起局部特征丟失的問(wèn)題,利用空間注意力模塊學(xué)習(xí)全局特征,并從粗到細(xì)構(gòu)建金字塔以學(xué)習(xí)不同尺度上的局部特征;D.MENG等[12]針對(duì)不同視角導(dǎo)致的類內(nèi)差異大、類間差異小的問(wèn)題,提出基于解析的視點(diǎn)感知嵌入網(wǎng)絡(luò),以實(shí)現(xiàn)視點(diǎn)感知特征對(duì)齊和增強(qiáng),該算法能捕捉到不同視角下車輛的穩(wěn)定性判別信息。

        綜上,筆者提出一種基于多粒度特征分割的車輛重識(shí)別算法,以ResNeSt-50[13]為骨干網(wǎng)絡(luò)提取初級(jí)特征,并將骨干網(wǎng)絡(luò)復(fù)制成三個(gè)獨(dú)立的分支,分別在縱向、橫向、通道三個(gè)維度上進(jìn)行多粒度特征分割。又在ResNeSt-50的每個(gè)split-attention block中嵌入了空間注意力模塊(spatial attention module,SAM)以挖掘更豐富、更具判別性的特征信息,增強(qiáng)了車輛表征的魯棒性。

        1 多粒度特征學(xué)習(xí)算法

        1.1 算法網(wǎng)絡(luò)結(jié)構(gòu)

        筆者所提出的算法網(wǎng)絡(luò)結(jié)構(gòu)如圖2。首先,通過(guò)骨干網(wǎng)絡(luò)提取圖像初級(jí)特征,骨干網(wǎng)絡(luò)采用三分支結(jié)構(gòu),當(dāng)一張車輛圖像輸入到骨干網(wǎng)絡(luò)后會(huì)生成三個(gè)獨(dú)立特征圖;然后,特征圖將沿縱向、橫向、通道方向被分割成不同粒度的分塊,不同分塊可提取到不同的局部信息;接下來(lái),對(duì)所有特征圖執(zhí)行池化操作,其中,整體特征圖采用全局平均池化以保留豐富的車身整體外觀信息,分塊特征圖采用全局最大池化以提取區(qū)分性局部特征信息;最后,為統(tǒng)一特征向量的維度和防止過(guò)擬合,對(duì)池化層輸出的所有特征圖執(zhí)行核大小為1×1的卷積操作及批歸一化處理,并使用全連接層作為分類器。

        1.2 網(wǎng)絡(luò)中的關(guān)鍵組件

        1.2.1 骨干網(wǎng)絡(luò)

        ResNet-50[14]在圖像分類、語(yǔ)義分割上廣泛使用,目前重識(shí)別工作大都采用ResNet-50作為骨干網(wǎng)絡(luò)提取圖像的初級(jí)特征。但其會(huì)受到感受野的限制,同時(shí)缺乏跨通道間的相互作用。而ResNeSt結(jié)合通道注意力(channel attention module, CAM)和特征圖注意力可實(shí)現(xiàn)不同特征圖跨通道間的關(guān)聯(lián),在圖像分類、對(duì)象檢測(cè)、語(yǔ)義分割等方面都達(dá)到了更先進(jìn)的水平。

        鑒于車輛圖像本身的復(fù)雜性及各部件之間存在相關(guān)性,采用去除掉最后的全局平均池化層和全連接層的ResNeSt-50作為骨干網(wǎng)絡(luò),在Conv4_1層之后復(fù)制卷積層以便將ResNeSt-50分成三個(gè)獨(dú)立的分支,將三個(gè)分支分別命名為縱向分支、橫向分支、通道分支。為得到更深、更豐富的車輛整體外觀信息,將Conv5_x卷積層的池化操作的步長(zhǎng)設(shè)置為1。并在ResNeSt-50的每個(gè)split-attention block中嵌入了空間注意力模塊,以挖掘更關(guān)鍵的特征信息并抑制無(wú)關(guān)噪聲。

        1.2.2 三分支結(jié)構(gòu)

        筆者主要研究如何充分提取車輛局部細(xì)節(jié)信息來(lái)提高車輛識(shí)別準(zhǔn)確率,為得到車輛不同空間維度的細(xì)節(jié)特征,將特征圖沿縱向和橫向進(jìn)行分割,如圖3。

        圖3 縱向分割與橫向分割示意

        具體的說(shuō),將骨干網(wǎng)絡(luò)輸出的兩個(gè)獨(dú)立特征圖分別命名為Fh和Fw,即圖2的縱向分支和橫向分支。然后將獨(dú)立特征圖分別在縱向和橫向上分割成若干個(gè)分塊特征圖,具體表示如式(1):

        (1)

        由于過(guò)多分割會(huì)降低最終外觀特征中的全局特征權(quán)重,過(guò)少分割會(huì)使得局部特征接近全局特征。且神經(jīng)網(wǎng)絡(luò)提取的總是某個(gè)區(qū)域內(nèi)的顯著性特征,即在某個(gè)區(qū)域內(nèi)權(quán)值較大的特征信息。那么在對(duì)特征圖進(jìn)行分割以提取局部特征時(shí),局部區(qū)域的大小不同,顯著性特征對(duì)潛在顯著性的局部細(xì)節(jié)特征的掩蓋程度就不同。因此,采用多粒度的分割方式,結(jié)合粗、中、細(xì)三種不同級(jí)別的分區(qū)粒度可以提取到不同的內(nèi)容粒度信息,盡量避免潛在顯著性局部特征被掩蓋的問(wèn)題。其中,將未分割的特征圖定義為“粗粒度”,將分割為兩塊的特征圖定義為“中粒度”,將分割為四塊的特征圖定義為“細(xì)粒度”。因此,式(1)中的p1,p2={1,2,4}。

        此外,卷積層中的濾波器會(huì)生成通道信息,即使輸入相同,它們也獨(dú)立地學(xué)習(xí)和更新參數(shù),即每個(gè)單一通道學(xué)習(xí)到不同的特征。而每個(gè)卷積核進(jìn)行卷積操作時(shí)都會(huì)生成一個(gè)通道,特征圖的通道是由許多個(gè)單一通道組合而成,每個(gè)單一通道獨(dú)立表達(dá)信息,但當(dāng)它們組合成為一個(gè)整體之后即為平時(shí)所認(rèn)知的通道,這個(gè)特征信息為全局信息,那么在特征圖的通道維度上執(zhí)行池化操作時(shí)就會(huì)丟失通道上的局部細(xì)節(jié)信息。因此筆者還將特征圖沿通道方向進(jìn)行分割以提取到不同于全局特征的局部特征,將其作為橫向和縱向上的補(bǔ)充。在通道方向上同樣采用多粒度的分割方式,如圖4,具體的表示如式(2):

        圖4 通道分割示意

        (2)

        1.2.3 注意力機(jī)制

        注意力機(jī)制最早是用于圖像識(shí)別領(lǐng)域,之后廣泛用于自然語(yǔ)言處理領(lǐng)域[15]。研究發(fā)現(xiàn)聯(lián)合通道注意力和空間注意力能更好的提取區(qū)分性特征,因此在ResNeSt-50的每個(gè)split-attention block中嵌入了SAM以構(gòu)成注意力模塊SS-Net,從而達(dá)到同時(shí)對(duì)通道維度及空間維度上的特征圖進(jìn)行加權(quán)處理的目的。SAM采用的是卷積塊注意模型[16](convolutional block attention moudle, CBAM)中的空間注意力模塊。SS-Net的結(jié)構(gòu)如圖5。

        圖5 SS-Net結(jié)構(gòu)

        假設(shè)輸入的特征圖(也稱為特征矩陣)為FI∈RW×H×C(H、W、C分別為特征圖的高度、寬度、通道數(shù)目),在SS-Net內(nèi)部依次沿著通道維度和空間維度推斷出通道權(quán)重矩陣Mc∈R1×1×C和空間權(quán)重矩陣Ms∈RW×H×1。為了使特征矩陣可以自適應(yīng)調(diào)整,以重點(diǎn)關(guān)注更具區(qū)分性的前景信息,首先將通道權(quán)重矩陣Mc∈R1×1×C與輸入特征圖FI∈RW×H×C逐元素相乘,生成通道注意力特征圖F′c∈RW×H×C,然后將F′c∈RW×H×C與與空間權(quán)重矩陣Ms∈RW×H×1逐元素相乘,可得到同時(shí)經(jīng)通道維度及空間維度加權(quán)處理后的最終注意力特征圖FO∈RW×H×C,?表示特征矩陣的逐元素相乘,SS-Net的計(jì)算過(guò)程為:

        F′c=Mc(FI)?FI

        (3)

        FO=Ms(F′c)?F′c

        (4)

        圖6 空間注意力模型結(jié)構(gòu)

        Ms(Fc′)=σ{f7×7{[AP(F′c);MP(F′c)]}}=

        (5)

        式中:AP(·)及MP(·)分別為平均池化和最大池化操作;F′c為經(jīng)過(guò)CAM的通道注意力特征圖;σ(·)為sigmoid激活函數(shù);f7×7為核大小為7×7的卷積運(yùn)算。

        1.3 損失函數(shù)

        車輛重識(shí)別任務(wù)可以看作是分類任務(wù),并且可視為一次性學(xué)習(xí)任務(wù),這樣模型訓(xùn)練很可能過(guò)擬合,因此采用經(jīng)過(guò)標(biāo)簽平滑正則化處理的交叉熵?fù)p失函數(shù),它利用車輛圖像身份ID標(biāo)簽進(jìn)行有監(jiān)督地學(xué)習(xí),能使網(wǎng)絡(luò)學(xué)習(xí)到具有身份辨別性的特征。原始交叉熵?fù)p失函數(shù)計(jì)算如式(6):

        (6)

        式中:N為車輛的總類別數(shù);y為真實(shí)樣本標(biāo)簽;pi為對(duì)輸入的圖像預(yù)測(cè)為類別i的概率值。

        經(jīng)標(biāo)簽平滑正則化處理后的標(biāo)簽分布qi變?yōu)閝′i,如式(7):

        (7)

        經(jīng)過(guò)標(biāo)簽平滑正則化處理的交叉熵?fù)p失函數(shù)如式(8):

        (8)

        式中:ε為平滑因子,用來(lái)防止模型在訓(xùn)練過(guò)程中產(chǎn)生的過(guò)擬合問(wèn)題,ε=0.3。

        車輛重識(shí)別本質(zhì)上是個(gè)圖像檢索問(wèn)題,它通過(guò)計(jì)算查詢集(query)與圖庫(kù)集(gallery)之間的特征相似度進(jìn)行排序。采用硬三元組損失[17]作為相似性度量的損失函數(shù),在包含P個(gè)身份和每個(gè)身份K張圖像的小批次中,每張圖像(原樣本a)具有與其相同身份的K-1張圖像(正樣本p)和與其不同身份的(P-1)×K張圖像(負(fù)樣本n)。傳統(tǒng)三元組損失通過(guò)網(wǎng)絡(luò)訓(xùn)練拉近正樣本對(duì)(a,p)圖像的距離,同時(shí)拉開(kāi)負(fù)樣本對(duì)(a,n)圖像的距離實(shí)現(xiàn)正負(fù)樣本的分開(kāi),從而更好的進(jìn)行相似度度量學(xué)習(xí)。而硬三元組損失旨在將更多的權(quán)重放在最接近的負(fù)對(duì)和最遠(yuǎn)的正對(duì)上以更好的優(yōu)化模型。硬三元組損失的計(jì)算如式(9):

        (9)

        式中:ai,pi,nj分別為原樣本、正樣本和負(fù)樣本的特征向量;α為約束不同類別樣本距離的閾值。

        但若只采用硬三元組損失進(jìn)行模型訓(xùn)練,只進(jìn)行相似度的度量學(xué)習(xí),缺乏車輛ID標(biāo)簽的監(jiān)督,會(huì)導(dǎo)致學(xué)習(xí)到的具有身份辨別性的特征相對(duì)較少,且模型收斂速度緩慢,因此,結(jié)合交叉熵?fù)p失和硬三元組損失各自的優(yōu)勢(shì)對(duì)模型進(jìn)行訓(xùn)練優(yōu)化。網(wǎng)絡(luò)總體損失Ltotal的計(jì)算如式(10):

        (10)

        式中,Nc和Nt分別為交叉熵?fù)p失和硬三元組損失的數(shù)量;λ為平衡兩種不同損失的權(quán)重系數(shù)。

        計(jì)算中,網(wǎng)絡(luò)全連接層學(xué)習(xí)到的21個(gè)概率分布向量[g′h,g′w,g′c,fh1,…,fh6,fw1,…,fw6,fc1,…,fc6]用于計(jì)算交叉熵?fù)p失,批歸一化層學(xué)習(xí)到的三個(gè)全局特征向量[gh,gw,gc]用于計(jì)算硬三元組損失,因此Nc=21,Nt=3。

        2 實(shí)驗(yàn)設(shè)計(jì)及結(jié)果分析

        2.1 數(shù)據(jù)集和評(píng)估指標(biāo)

        網(wǎng)絡(luò)訓(xùn)練及評(píng)估采用的數(shù)據(jù)集是車輛重識(shí)別領(lǐng)域中使用最頻繁、關(guān)注度最高的VeRi-776[18]和VehicleID[19]數(shù)據(jù)集。

        VeRi-776數(shù)據(jù)集總共包含776輛汽車共近50 000 張圖片。由分布在不同位置的20個(gè)攝像機(jī)拍攝而成,該數(shù)據(jù)集將其中576輛汽車共37 778張圖片用于構(gòu)建訓(xùn)練集,其余的200輛汽車共11 579張圖片用于構(gòu)建為測(cè)試集。在測(cè)試期間,使用測(cè)試集中的1 678張圖片作為query,其余的圖像作為gallery。根據(jù)VeRi-776數(shù)據(jù)集的設(shè)置,使用平均精度均值(mean average precision, mAP)和Rank-1、 Rank-5匹配率作為算法在VeRi-776數(shù)據(jù)集上的性能評(píng)價(jià)指標(biāo)。

        VehicleID數(shù)據(jù)集中包含26 267輛汽車共221 763 張圖片,訓(xùn)練集包含13 164輛汽車共113 346張圖片。該數(shù)據(jù)集提供了3個(gè)不同大小的測(cè)試集,分別命名為small、medium、large,其中所具有的車輛ID數(shù)量分別為800、1 600、2 400。測(cè)試時(shí),在測(cè)試集中每個(gè)ID的幾張圖片中,隨機(jī)抽取一張圖片加在gallery中,其余的圖片加在query中。根據(jù)VehicleID數(shù)據(jù)集的設(shè)置,使用Rank-1、Rank-5匹配率作為算法在VehicleID數(shù)據(jù)集上的性能評(píng)價(jià)指標(biāo)。

        2.2 實(shí)施細(xì)節(jié)

        2.2.1 實(shí)驗(yàn)環(huán)境

        采用開(kāi)源的Pytorch作為深度學(xué)習(xí)的框架,版本為1.7.0;采用Python編程軟件,版本為3.6.4;主機(jī)的CPU為Intel?CoreTM i9-10900K,顯卡為GeForce RTX 3090,內(nèi)存為32GB,GPU配置為CUDA 11.0及cuDNN 8.0.5;操作系統(tǒng)采用Win10。

        2.2.2 訓(xùn)練階段

        三分支神經(jīng)網(wǎng)絡(luò)采用多任務(wù)聯(lián)合訓(xùn)練方式,共享骨干網(wǎng)絡(luò)權(quán)重,之后針對(duì)每個(gè)分支的全局特征和局部特征設(shè)計(jì)不同的損失函數(shù),以指導(dǎo)特征的生成。

        所有輸入圖像的大小都設(shè)為384×384,批次大小設(shè)為8×4,并通過(guò)概率為0.5的隨機(jī)水平翻轉(zhuǎn)、隨機(jī)擦除來(lái)增強(qiáng)數(shù)據(jù)集。所有實(shí)驗(yàn)中,使用Adam作為梯度優(yōu)化器,L2正則化的權(quán)重衰減因子設(shè)為5e-4,Ltriplet中的α設(shè)為1.2。訓(xùn)練輪數(shù)設(shè)為500輪,初始學(xué)習(xí)率設(shè)為2e-4,為了使網(wǎng)絡(luò)盡快尋找到全局最優(yōu)解,在第300和第400輪時(shí)將學(xué)習(xí)率分別設(shè)為2e-5、2e-6。

        2.2.3 評(píng)估階段

        在評(píng)估時(shí),將批歸一化層的所有特征向量進(jìn)行串聯(lián)作為車輛圖像的外觀特征向量,如式(11):

        f=concat{gh,gw,gc,lh1,…,lh6,lw1,…,lw6,lc1…lc6}

        (11)

        由于在訓(xùn)練階段采用了隨機(jī)水平翻轉(zhuǎn)以增強(qiáng)數(shù)據(jù)集,提升模型的泛化性。所以在評(píng)估階段將原圖和水平翻轉(zhuǎn)后的圖像分別輸入到網(wǎng)絡(luò)中得到相應(yīng)特征向量f1及f2,然后將兩個(gè)特征向量的平均值f′作為車輛圖像最終外觀特征向量,最后采用歐式距離對(duì)不同車輛外觀特征向量進(jìn)行相似度衡量,并按相似度從大到小進(jìn)行排序得到檢索結(jié)果。

        2.3 消融分析

        為驗(yàn)證所提出的網(wǎng)絡(luò)結(jié)構(gòu)中的關(guān)鍵組件的有效性,在VeRi-776數(shù)據(jù)集上做了大量的實(shí)驗(yàn),比較了不同網(wǎng)絡(luò)結(jié)構(gòu)、有無(wú)空間注意力模塊、不同損失函數(shù)時(shí)的性能,以找到最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)。

        2.3.1 網(wǎng)絡(luò)結(jié)構(gòu)

        表1 不同網(wǎng)絡(luò)結(jié)構(gòu)的性能對(duì)比

        結(jié)果表明分割通??梢蕴嵘窠?jīng)網(wǎng)絡(luò)的性能,在三種分割類型中,通道分割帶來(lái)的改善明顯優(yōu)于橫向和縱向分割。并且不同類型分割的組合比單個(gè)分割產(chǎn)生更好的性能,三種類型分割的并行組合能使網(wǎng)絡(luò)結(jié)構(gòu)性能最佳。

        2.3.2 空間注意力模塊

        主要比較在ResNeSt-50的每個(gè)split-attention block中是否嵌入SAM時(shí)網(wǎng)絡(luò)結(jié)構(gòu)的性能。實(shí)驗(yàn)結(jié)果如表2,結(jié)果表明嵌入SAM的網(wǎng)絡(luò)結(jié)構(gòu)能顯著提升車輛重識(shí)別的性能。這得益于空間注意力模塊可學(xué)習(xí)車身部件之間的空間位置相關(guān)性,增強(qiáng)局部特征的鑒別力。

        表2 空間注意力模塊的消融實(shí)驗(yàn)

        2.3.3 損失函數(shù)

        交叉熵?fù)p失主要應(yīng)用于正常樣本上,而硬三元組損失主要應(yīng)用在難樣本上。為平衡兩種損失對(duì)正常樣本和難樣本的貢獻(xiàn)度,需要確定一個(gè)權(quán)重參數(shù)λ。對(duì)Ltotal設(shè)置了幾種可能性,在表3中展示了λ取不同值時(shí)的性能,結(jié)果顯示硬三元組損失能略微改善模型的性能,將更多的權(quán)重放在交叉熵?fù)p失上的性能明顯更好。但是隨著λ增大,性能反而下降,并且收斂緩慢。因此,將λ設(shè)置為2。

        表3 λ取不同值時(shí)的性能比較

        2.4 現(xiàn)有算法對(duì)比

        為驗(yàn)證筆者算法的有效性與優(yōu)勢(shì),將提出的算法與現(xiàn)有先進(jìn)算法在VeRi-776和VehicleID數(shù)據(jù)集上進(jìn)行對(duì)比,選擇的對(duì)比算法包括GS-TRE[5]、MRM[6]、PRN[7]、SAN[8]、TCPM[9]、GLAMOR[10]、PSA[11]、PVEN[12]。算法對(duì)比結(jié)果如表4、表5。表中的RR代表再排序算法(re-ranking)[20],再排序是一種后處理算法,能提高最終結(jié)果的精確度。

        從表4可以看出,筆者算法在VeRi-776數(shù)據(jù)集上的mAP、Rank-1、Rank-5分別達(dá)到了85.92%、97.67%、98.53%,當(dāng)不使用再排序算法時(shí),mAP和Rank-1分別降低了1.71%、0.44%,而Rank-5反而增加了0.05%,幾乎保持不變。當(dāng)同時(shí)去除空間注意力模塊和再排序算法時(shí),mAP、Rank-1、Rank-5分別降低了2.69%、1.01%、0.15%。同樣都使用再排序算法,與性能最好的GLAMOR算法相比,筆者算法在mAP和Rank-1上分別提高了5.58%、1.14%,在Rank-5上也僅僅降低了0.09%。

        表4 在VeRi-776數(shù)據(jù)集上的性能比較

        鑒于VehicleID數(shù)據(jù)集的特殊性,在評(píng)估時(shí)一般不使用再排序算法。從表5可以看出,與其他算法相比,筆者算法在small、medium、large三個(gè)測(cè)試集上均取得了最好的識(shí)別效果。即使與性能最好的PVEN相比,所提算法在三個(gè)測(cè)試集上的Rank-1 及Rank-5分別平均提高了2.78%,2.01%。

        表5 在VehicleID數(shù)據(jù)集上的性能比較

        通過(guò)對(duì)兩個(gè)數(shù)據(jù)集的實(shí)驗(yàn),驗(yàn)證了筆者算法的有效性,這得益于所提算法采用多粒度的分割方式將特征圖沿縱向、橫向進(jìn)行分割以提取局部特征,并對(duì)通道維度進(jìn)行關(guān)注以作為縱向和橫向上的補(bǔ)充。采用多粒度的分割方式優(yōu)勢(shì)在于不只是關(guān)注具有固定語(yǔ)義(車窗、車燈等)的特定部分,而是覆蓋了所有可區(qū)分(排氣筒、裝飾物等)的信息,同時(shí)還可以盡量避免固定大小的局部區(qū)域?qū)撛陲@著性局部信息的掩蓋問(wèn)題,使得網(wǎng)絡(luò)提取到更充分的局部細(xì)節(jié)信息。除此之外,還在骨干網(wǎng)絡(luò)中嵌入了SS-Net模塊使得網(wǎng)絡(luò)提取到強(qiáng)判別性的特征,能更好的解決類內(nèi)差異和類間相似問(wèn)題。

        2.5 可視化分析

        筆者算法的檢索結(jié)果可視化如圖7。測(cè)試了8張查詢圖像,包含不同車輛類型、不同光照強(qiáng)度、不同遮擋程度、不同背景復(fù)雜度幾種情況。檢索結(jié)果根據(jù)相似度大小從左到右依次排序,正確檢索用灰色標(biāo)注,錯(cuò)誤檢索用黑色標(biāo)注。

        圖7 筆者算法檢索結(jié)果可視化

        從可視化結(jié)果可以發(fā)現(xiàn),在圖片清晰、沒(méi)有遮擋或有較少遮擋時(shí),筆者算法可精確檢索;在強(qiáng)遮擋、背景復(fù)雜、圖片分辨率低時(shí),筆者算法也能較準(zhǔn)確檢索。但在檢索相同車型及相同顏色的車輛時(shí)會(huì)存在較多錯(cuò)誤檢索,這在于外觀極其相似的車輛本身僅存在細(xì)微差異,并且受光照、分辨率、遮擋等因素的影響,這些細(xì)微差異很難提取出來(lái),即使人工檢測(cè)也會(huì)出現(xiàn)錯(cuò)誤。因此車輛重識(shí)別技術(shù)仍是一個(gè)極具挑戰(zhàn)性的任務(wù)。

        3 結(jié) 論

        筆者為解決以往算法提取局部特征不充分和潛在顯著性局部特征易被掩蓋的問(wèn)題,提出基于多粒度特征分割的車輛重識(shí)別算法。采用三分支網(wǎng)絡(luò)結(jié)構(gòu),將車輛圖像特征圖沿縱向、橫向、通道方向進(jìn)行分割以提取多粒度局部特征,并聯(lián)合通道注意力和空間注意力以挖掘更豐富、更具判別性的特征信息,增強(qiáng)了車輛表征的魯棒性。算法在VeRi-776數(shù)據(jù)集上的mAP、Rank-1、Rank-5指標(biāo)分別達(dá)到85.92%、97.67%、98.53%;在VehicleID數(shù)據(jù)集的三個(gè)測(cè)試集上,Rank-1指標(biāo)分別達(dá)到了88.36%、84.19%、78.89%,優(yōu)于現(xiàn)有大部分主流算法,研究結(jié)果表明該算法具有先進(jìn)性和有效性。

        猜你喜歡
        三元組粒度注意力
        基于語(yǔ)義增強(qiáng)雙編碼器的方面情感三元組提取
        軟件工程(2024年12期)2024-12-28 00:00:00
        基于帶噪聲數(shù)據(jù)集的強(qiáng)魯棒性隱含三元組質(zhì)檢算法*
        讓注意力“飛”回來(lái)
        粉末粒度對(duì)純Re坯顯微組織與力學(xué)性能的影響
        基于矩陣的多粒度粗糙集粒度約簡(jiǎn)方法
        關(guān)于余撓三元組的periodic-模
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        基于粒度矩陣的程度多粒度粗糙集粒度約簡(jiǎn)
        A Beautiful Way Of Looking At Things
        三元組輻射場(chǎng)的建模與仿真
        337p日本欧洲亚洲大胆| 在线亚洲免费精品视频| 亚洲天码一区二区三区| 欧美性猛交aaaa片黑人| 在线人成免费视频69国产| 亚洲制服中文字幕第一区| 国产香蕉一区二区三区| 日韩人妻免费视频一专区| 性饥渴的农村熟妇| 亚洲成色在线综合网站| 国产精品va在线观看一| 自拍偷拍韩国三级视频| 国产又猛又黄又爽| 国产看黄网站又黄又爽又色| 亚洲无码vr| 亚洲丰满熟女一区二亚洲亚洲 | 天天爽夜夜爽人人爽曰喷水| 国产在线精品亚洲视频在线| 91色老久久偷偷精品蜜臀懂色| 久久久久亚洲av无码麻豆| 国产最新网站| 亚洲综合久久久中文字幕| 亚洲日本国产精品久久| 亚洲精品成人网线在线播放va| 日中文字幕在线| 北岛玲亚洲一区二区三区| 少妇无码av无码专线区大牛影院| 久久婷婷成人综合色| 欧美成人精品福利在线视频| 毛片成人18毛片免费看| 天堂中文官网在线| 国产人成午夜免电影观看| 视频福利一区二区三区| 极品少妇被黑人白浆直流| 一本久久a久久精品亚洲| 91免费国产| 亚洲精品偷拍自综合网| 无码少妇一区二区性色av| 国产午夜精品一区二区三区不| 国产视频免费一区二区| 日本爽快片100色毛片|