亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視角一致性三元組損失的車輛重識(shí)別技術(shù)

        2021-08-30 05:36:34劉晗煜黃宏恩鄭世寶
        測控技術(shù) 2021年8期
        關(guān)鍵詞:三元組一致性損失

        劉晗煜,黃宏恩,鄭世寶

        (上海交通大學(xué),上海 201100)

        隨著計(jì)算機(jī)視覺技術(shù)的快速發(fā)展,車輛重識(shí)別作為其中一項(xiàng)基礎(chǔ)任務(wù),在智能交通及城市監(jiān)控系統(tǒng)等領(lǐng)域得到了廣泛應(yīng)用。這項(xiàng)任務(wù)旨在從圖庫(Gallery)中檢索出與查詢圖(Query)屬于同一輛車的圖片,流程如圖1所示。該任務(wù)首先提取圖片特征,然后計(jì)算特征間相似性度量,最后根據(jù)相似性排序,從圖庫中召回與查詢圖相似性高的圖片。需要注意的是,圖庫中的圖片往往取自放置在不同視角的多個(gè)攝像機(jī),這意味著圖庫中同一車輛在不同的圖片上會(huì)呈現(xiàn)較大的外觀差異,給這項(xiàng)任務(wù)帶來了巨大的挑戰(zhàn)。

        圖1 車輛重識(shí)別任務(wù)流程圖

        總體上,通過計(jì)算機(jī)視覺技術(shù)實(shí)現(xiàn)車輛重識(shí)別的主流方法可以大致分為基于手工特征的方法和基于深度特征的方法。

        基于手工特征的方法是早期這項(xiàng)任務(wù)中使用最廣泛的方法。手工特征是指人為設(shè)計(jì)的特征,它的每一維度都具有特定的含義,代表了圖像中的某一具體屬性。在這類方法中,外觀描述符常常被用于實(shí)現(xiàn)車輛重識(shí)別任務(wù)。例如,Woesler[1]利用了車頂?shù)念伾畔?;Watcharapinchai等[2]提出了基于車牌號(hào)的車輛重識(shí)別方法。然而,由于攝像頭分辨率、光照、視角和遮擋等因素,顏色和車牌號(hào)等特殊信息有時(shí)也難以準(zhǔn)確獲得。因此,基于手工特征的方法往往具有局限性。

        近年來,深度學(xué)習(xí)在計(jì)算機(jī)視覺中表現(xiàn)出明顯的優(yōu)異性,并成功應(yīng)用于人臉識(shí)別、行為識(shí)別和行人及車輛重識(shí)別等多項(xiàng)任務(wù)。因此,越來越多的研究采用深度特征實(shí)現(xiàn)車輛重識(shí)別。這類方法需要合理地設(shè)計(jì)深度網(wǎng)絡(luò)模型,將輸入特征(車輛圖片)映射到潛在的特征空間。在潛在特征空間中,相同車輛間的類內(nèi)間距應(yīng)盡可能小,不同車輛間的類間差異性應(yīng)盡可能大。在這些方法中,Li等[3]提出了一種基于CNN的方法,它能高效挖掘車輛具有辨別性的信息;Schroff等[4]為卷積神經(jīng)網(wǎng)絡(luò)提出了三元組的訓(xùn)練方式,通過充分學(xué)習(xí)三元組中正樣本對(duì)與負(fù)樣本對(duì)的相對(duì)相似性,提升了模型的表現(xiàn)性能。

        相比于基于手工特征的方法,基于深度特征的方法已經(jīng)取得較大的突破,但車輛重識(shí)別任務(wù)依然存在以下幾個(gè)挑戰(zhàn):首先是多視角挑戰(zhàn),即車輛外觀在不同視角下急劇變化導(dǎo)致了所提取特征的不穩(wěn)定性。如圖2所示,每一行是同一輛車不同視角的圖像,每一列是不同的車相似視角下的圖像,模型很容易認(rèn)為圖2(a)和圖2(d)比圖2(b)、圖2(c)更相似。其次是車型近似重復(fù)挑戰(zhàn),即市面上存在大量相似型號(hào)的車輛。這些車輛間的區(qū)分度嚴(yán)重依賴于局部細(xì)節(jié),圖2中方框標(biāo)出的部分都是可以區(qū)分兩輛車的局部信息。

        圖2 車輛圖像示例

        1 相關(guān)工作

        針對(duì)視角多樣性挑戰(zhàn),VANet[5]提出采用不同的策略來識(shí)別來自相同視角和不同視角的圖片。首先,對(duì)圖片中車輛的方向進(jìn)行分類預(yù)測,通過將輸入圖像映射到同向和反向兩個(gè)潛在特征空間中,提升了模型在視角多樣性場景下的表現(xiàn)性能。然而,該網(wǎng)絡(luò)僅預(yù)測了前后兩個(gè)角度,即圖2中第一列和第三列兩種視角,忽略了第二列的情況,而實(shí)際攝像頭中的視角更為多樣,且該網(wǎng)絡(luò)的擴(kuò)展代價(jià)較大。如果要提高角度預(yù)測的分類數(shù),網(wǎng)絡(luò)的分支數(shù)會(huì)隨角度分類數(shù)呈指數(shù)級(jí)增長,訓(xùn)練集標(biāo)注也會(huì)隨角度的細(xì)化而變得難以用肉眼判斷,因此該網(wǎng)絡(luò)難以覆蓋車輛重識(shí)別的復(fù)雜應(yīng)用場景。

        針對(duì)車型近似重復(fù)的挑戰(zhàn),He等[6]提出的局部正則化網(wǎng)絡(luò)(Part-Regularized Network,PRN)和Meng等[7]提出的基于解析的視角感知嵌入網(wǎng)絡(luò)(Parsing-Based View-Aware Embedding Network,PVEN)均從局部特征入手。PRN將目標(biāo)檢測中的感興趣區(qū)域(Region of Interest,ROI)引入車輛重識(shí)別任務(wù),單獨(dú)提取出車窗、車燈和品牌(Logo)3個(gè)區(qū)域的局部特征,然后與全局特征結(jié)合。然而,車輛的判別性信息可能出現(xiàn)在車輛的任何部位,僅用以上3個(gè)區(qū)域代表局部信息并不全面,如圖2中藍(lán)框標(biāo)出的車頂、車尾紅燈都是具有判別性但被PRN忽略的局部信息。PVEN認(rèn)為,兩張車輛圖片中均顯示的公共部分?jǐn)y帶著更為豐富的判別性局部信息,需要重點(diǎn)關(guān)注。為此,采用U-net將兩張圖片中的車輛分割為具有特定語義的四大區(qū)域(車頭、車尾、車頂和車側(cè)),并根據(jù)兩輛車對(duì)應(yīng)區(qū)域的占比情況,計(jì)算出各區(qū)域的可見性分?jǐn)?shù),使模型重點(diǎn)關(guān)注可見性分?jǐn)?shù)較高的局部區(qū)域。但是,PVEN在視角多樣性方面僅關(guān)注了單區(qū)域局部特征的對(duì)齊與增強(qiáng),這顯然是不夠全面的,車輛視角問題應(yīng)該從整張車輛圖片來考慮。

        受PVEN[7]中車輛四分割方法的啟發(fā),筆者認(rèn)為,車輛分割后各個(gè)區(qū)域面積占比在一定程度上反映了該圖的拍攝視角。兩張車輛圖片中對(duì)應(yīng)區(qū)域占比的情況越相似,則它們的視角越一致。因此,本文提出基于區(qū)域分割的車輛視角一致性算法,并由此設(shè)計(jì)了新的視角一致性三元組損失。該損失給予視角上挑戰(zhàn)性較大的樣本更高的權(quán)重,并過濾掉視角簡單樣本,使模型可以學(xué)習(xí)到更深層的距離度量。實(shí)驗(yàn)結(jié)果表明,本文的方法在mAP、rank-1、rank-5、rank-10這4項(xiàng)車輛重識(shí)別的主要指標(biāo)上均優(yōu)于PVEN方法。

        2 方法

        由于PVEN[7]中提供了較好的車輛分割網(wǎng)絡(luò)和全局特征與局部特征結(jié)合的架構(gòu),而局部特征的距離度量極易受到視角的影響,因此,本文選擇在PVEN的局部分支中驗(yàn)證視角一致性感知損失的效果。

        為了便于說明,引入以下標(biāo)記:對(duì)于數(shù)據(jù)集X來說,a,p,n是3張車輛圖片樣本且a,p,n∈X。其中,a代表錨點(diǎn)(anchor);p代表正樣本(positive),與a屬于同一車輛(id相同);n代表負(fù)樣本(negative),與a屬于不同車輛。(a,p,n)是一個(gè)三元組。

        2.1 訓(xùn)練網(wǎng)絡(luò)框架

        本文的網(wǎng)絡(luò)框架如圖3所示。該網(wǎng)絡(luò)框架基于PVEN[7]進(jìn)行改進(jìn),PVEN首先提取全局特征圖(Feature Map)和區(qū)域分割掩膜,然后采用雙分支結(jié)構(gòu),全局分支用于獲得全局特征距離和損失,局部分支用于獲得局部特征距離及局部三元組損失。在此基礎(chǔ)上加入了一個(gè)視角一致性分支,用于獲得視角一致性三元組系數(shù),并將該系數(shù)與局部分支的三元組損失計(jì)算結(jié)果相乘,形成局部視角一致性三元組損失,從而引導(dǎo)網(wǎng)絡(luò)去學(xué)習(xí)更具視角魯棒性的車輛圖像特征。

        (1)

        (2)

        (3)

        (4)

        (5)

        (6)

        (7)

        在訓(xùn)練階段,總損失的計(jì)算公式為

        (8)

        在測試階段,用于排序和推斷的相似性度量由全局特征距離和局部特征距離加權(quán)相加獲得,計(jì)算公式為

        (9)

        2.2 視角一致性

        PVEN提出,由于其剛體和類六面體性質(zhì),車輛可以較容易地被語義分割為車頭、車尾、車頂和車側(cè)4個(gè)區(qū)域。筆者認(rèn)為分割后車輛各區(qū)域的面積占比可以體現(xiàn)其拍攝視角,例如,若車頭占比最大,說明車輛極有可能是從前往后拍的;若車頂占比較高,說明攝像頭安裝位置較高。因此,本文用分割掩膜的面積分布估計(jì)車輛視角特征,又用兩個(gè)視角特征的點(diǎn)積估計(jì)其視角一致性。視角一致性的計(jì)算流程如圖4所示。

        圖4 視角一致性的計(jì)算流程

        (10)

        (11)

        2.3 視角一致性三元組損失

        為了引導(dǎo)模型學(xué)習(xí)到更具辨別性的特征,筆者將2.2節(jié)提出的視角一致性概念加入三元組篩選的考量中,進(jìn)而設(shè)計(jì)出新的視角一致性三元組損失函數(shù)。

        2.3.1 傳統(tǒng)的三元組損失函數(shù)

        傳統(tǒng)的三元組損失函數(shù)[4]是一種最常見的損失函數(shù),也是本文的度量學(xué)習(xí)基準(zhǔn)。三元組損失函數(shù)的目標(biāo)是引導(dǎo)模型學(xué)習(xí)到一種復(fù)雜的特征映射,使數(shù)據(jù)集樣本在潛在特征空間中,對(duì)于每個(gè)三元組(a,p,n),錨點(diǎn)a到負(fù)樣本n的特征距離Da,n應(yīng)該比到正樣本p的特征距離Da,p更大。這樣才能在重識(shí)別任務(wù)中順利地根據(jù)特征距離召回任何一個(gè)查詢圖的真值(Ground Truth)。為了更好地學(xué)習(xí)困難樣本之間的深度度量,Schroff等[9]根據(jù)距離范圍將三元組分成以下三類。

        ① 簡單三元組:Da,p

        ② 半難三元組:Da,n-α

        ③ 困難三元組:Da,p>Da,n,即會(huì)誤識(shí)別的三元組。

        其中,α表示簡單三元組的Da,n與Da,p之間應(yīng)該留有的距離余量。

        Schroff[4]等將單個(gè)三元組的損失計(jì)算函數(shù)定義為

        LTri(a,p,n)=max{Da,p-Da,n+α,0}

        (12)

        在式(12)中,簡單三元組的損失函數(shù)值為0,而困難三元組和半難三元組的損失函數(shù)值大于0,因此,神經(jīng)網(wǎng)絡(luò)重點(diǎn)學(xué)習(xí)后面兩類三元組的距離度量,實(shí)現(xiàn)了參數(shù)的有效優(yōu)化。

        在實(shí)際實(shí)驗(yàn)中,由于計(jì)算資源的限制,業(yè)界通常分批輸入數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練,從而三元組損失及其變體的計(jì)算均基于小批量數(shù)據(jù)。其中,批次困難三元組損失(Batch Hard Triplet Loss)和批次全三元組損失(Batch All Triplet Loss)是兩種最常用的方法。批次全三元組損失[4]對(duì)每個(gè)錨點(diǎn)計(jì)算其所有合法三元組的損失的平均值,而批次困難三元組損失[9]對(duì)每個(gè)錨點(diǎn)計(jì)算其所有合法三元組的損失的最大值。

        2.3.2 視角一致性三元組損失

        上述傳統(tǒng)的三元組損失選擇距離上較為接近的負(fù)樣本和距離較遠(yuǎn)的正樣本進(jìn)行優(yōu)化。然而,車輛圖像的特征距離極易受到視角的干擾。這種僅根據(jù)距離選擇三元組的方法難以適應(yīng)圖1所示的多視角情況。為了解決這個(gè)問題,本文希望將視角一致性因素引入模型的優(yōu)化過程,即重點(diǎn)選擇視角一致性高的負(fù)樣本與一致性低的正樣本進(jìn)行優(yōu)化。

        根據(jù)視角一致性將三元組劃分為以下三類。

        ① 視角簡單三元組:ca,n-ca,p<-β,即ca,n比ca,p小足夠多,視角上有助于區(qū)別正負(fù)樣本的三元組。

        ② 視角半難三元組:-β

        ③ 視角困難三元組:ca,n-ca,p>0,即負(fù)樣本的視角一致性較小,使正負(fù)樣本的區(qū)分非常困難。

        其中,ca,p和ca,n分別為錨點(diǎn)a與正樣本p和錨點(diǎn)a與負(fù)樣本p之間的視角一致性估計(jì),具體計(jì)算方式已在2.2節(jié)介紹。β是視角簡單三元組的ca,p和ca,n之間應(yīng)該留有的視角一致性余量。由式(10)和式(11)可知,視角一致性cp,q∈[0,1],因此三元組根據(jù)視角一致性來篩選的示意圖如圖5所示。

        圖5 視角三元組篩選示意圖

        最終,本文的視角一致性選擇系數(shù)的計(jì)算公式為

        CvcT(a,p,n)=max{ca,n-ca,p+β,0}

        (13)

        該系數(shù)過濾掉了視角簡單三元組,使網(wǎng)絡(luò)專注于學(xué)習(xí)視角半難三元組和視角困難三元組的距離度量。此外,視角上越困難,即ca,n-ca,p越大,CvcT(a,p,n)越高,網(wǎng)絡(luò)對(duì)其“重視”程度也就越高。

        最終,模型將視角一致性三元組系數(shù)與局部三元組損失相乘,得到局部視角一致性三元組損失:

        (14)

        該損失使網(wǎng)絡(luò)在度量學(xué)習(xí)的過程中加入對(duì)視角的考量,其加入系數(shù)前后的作用在表1中得到了體現(xiàn)。

        3 實(shí)驗(yàn)

        3.1 實(shí)驗(yàn)設(shè)置

        3.1.1 數(shù)據(jù)集

        在VeRi776數(shù)據(jù)集上驗(yàn)證本文的方法。VeRi776是車輛重識(shí)別任務(wù)的一個(gè)基準(zhǔn)數(shù)據(jù)集,包含776輛車的50000張圖像。該數(shù)據(jù)集由20個(gè)攝像頭在不同視角下拍攝,每一輛車都有多視角多攝像頭下的豐富圖像樣本。本文的實(shí)驗(yàn)中,訓(xùn)練集和測試集的劃分采用官方設(shè)置,訓(xùn)練集中有576輛車,測試集中有200輛車。

        3.1.2 評(píng)價(jià)指標(biāo)

        對(duì)于每張查詢圖,模型都能在圖庫中找到k個(gè)與之最相似的圖片,從而計(jì)算這些k近鄰樣本中是否有與查詢圖身份相同的車輛圖片。采用mAP(Mean Average Precision)準(zhǔn)確率和rank-k準(zhǔn)確率兩種指標(biāo)來評(píng)估方法的有效性。AP(Average Precision)表示單張查詢圖的平均精度,mAP表示查詢圖集中所有圖片的AP的平均值。rank-k表示k近鄰樣本中包含真值(Ground Truth)的命中率。本文的模型評(píng)估采用車輛重識(shí)別領(lǐng)域的通用評(píng)價(jià)指標(biāo),即mAP、rank-1、rank-5和rank-10。

        3.1.3 實(shí)驗(yàn)細(xì)節(jié)

        本實(shí)驗(yàn)的網(wǎng)絡(luò)框架參照?qǐng)D3,全局特征提取網(wǎng)絡(luò)采用resnet-50,參數(shù)采用其在ImageNet上預(yù)訓(xùn)練的結(jié)果。區(qū)域分割網(wǎng)絡(luò)采用Unet,參數(shù)與PVEN一致。

        3.2 超參數(shù)調(diào)整

        模型的視角一致性三元組損失需要調(diào)整兩個(gè)新的超參數(shù)——視角一致性余量β和局部特征距離的權(quán)重φ。

        3.2.1 視角一致性余量

        由圖5可知,β越大會(huì)保留越多有效三元組,越小會(huì)過濾掉越多三元組。當(dāng)β≤-1時(shí)所有三元組都被過濾掉,損失函數(shù)永遠(yuǎn)為0;當(dāng)β>1時(shí)所有三元組都被保留,視角一致性感知損失仍然給予視角困難三元組更高權(quán)重,但卻會(huì)浪費(fèi)部分算力在視角簡單三元組上。由此可知,β的恰當(dāng)值應(yīng)在(0,1)區(qū)間。實(shí)驗(yàn)中,本研究選擇了β∈[-0.3,0.8],每隔0.1試驗(yàn)一次,并在mAP出現(xiàn)峰值對(duì)應(yīng)β的±0.05處各增加一次實(shí)驗(yàn)。最終,mAP精度隨β的變化曲線如圖6所示。結(jié)果顯示,β=0.3時(shí)訓(xùn)練效果最好,說明在車輛圖像三元組中,00.3時(shí),模型浪費(fèi)了部分算力在視角簡單三元組上;當(dāng)0<β<0.3時(shí),模型過濾掉了部分視角半難三元組導(dǎo)致模型學(xué)習(xí)不充分。以上兩種情況均導(dǎo)致時(shí)間結(jié)果輕微下降。而當(dāng)β<0時(shí),模型不僅過濾掉了全部的視角半難三元組,還過濾掉了部分視角困難三元組,導(dǎo)致訓(xùn)練效果急劇下降。圖6中β<0時(shí)mAP急劇下降以及β>0時(shí)mAP小幅變化的現(xiàn)象均符合本文的理論預(yù)期。綜合上述結(jié)果,在實(shí)驗(yàn)中β默認(rèn)設(shè)置為0.3。

        圖6 mAP隨β的變化曲線

        不同的數(shù)據(jù)集和實(shí)驗(yàn)設(shè)置下mAP出現(xiàn)峰值所對(duì)應(yīng)的β值可能會(huì)有小幅平移,但在新數(shù)據(jù)集下不經(jīng)過調(diào)參直接將β值設(shè)為0.3仍能獲得極大的效果提升,綜合圖6與表1結(jié)果來看,0<β<0.8范圍內(nèi)的實(shí)驗(yàn)效果均好于常用的批次困難三元組損失和批次全三元組損失,可見本文提出的視覺一致性三元組策略具有有效性,即使在非最優(yōu)β下,仍然能取得不錯(cuò)的訓(xùn)練效果。

        3.2.2 局部特征距離的權(quán)重

        由式(3)可知,φ越大識(shí)別結(jié)果越依賴于局部特征,φ越小識(shí)別結(jié)果越依賴于全局特征。當(dāng)φ=0時(shí),局部特征距離即最終用于排序的相似度。因此,本研究選擇φ∈[0,1],每隔0.1測試一次,結(jié)果如圖7所示。實(shí)驗(yàn)結(jié)果顯示,φ=0.5時(shí)模型的識(shí)別效果最好。因此,本文在后續(xù)實(shí)驗(yàn)中均采用φ=0.5的參數(shù)設(shè)置。

        圖7 mAP隨φ的變化曲線

        3.3 消融實(shí)驗(yàn)

        為了證明本文設(shè)計(jì)的視角一致性三元組損失(View Consistency Triplet Loss,VCT Loss)的有效性,采用本文方法與經(jīng)典三元組損失進(jìn)行了對(duì)比實(shí)驗(yàn)。

        對(duì)比損失包括重識(shí)別任務(wù)中最常見的批次全三元組損失和批次困難三元組損失。需要注意的是,局部分支采用批次困難三元組損失就相當(dāng)于PVEN方法,采用批次全三元組損失相當(dāng)于本文的視角一致性三元組損失取消視角一致性三元組系數(shù)。實(shí)驗(yàn)結(jié)果如表1所示。

        表1 消融實(shí)驗(yàn)結(jié)果

        表1顯示,局部分支用本文的損失函數(shù)后4個(gè)指標(biāo)均高于用批次全三元組損失和批次困難三元組損失。批次全三元組損失根據(jù)距離篩選困難和半難三元組,批次困難三元組損失根據(jù)距離篩選最困難的三元組。本文的方法在批次全三元組損失的基礎(chǔ)上加入根據(jù)視角篩選三元組的系數(shù),保留的三元組數(shù)量在以上兩者之間,但是訓(xùn)練出的模型表現(xiàn)比以上兩者都好,由此證明了根據(jù)視角篩選三元組這一策略的有效性。

        本文的方法在mAP和rank-5、rank-10指標(biāo)上的提高幅度尤其大。mAP比批次全三元組損失高2.0,比批次困難三元組損失高1.8。rank-5比批次全三元組損失高0.48,比批次困難三元組損失高0.72。rank-10比批次困難三元組損失高0.57。這說明本文的損失不僅表現(xiàn)穩(wěn)定,而且在多視角挑戰(zhàn)下表現(xiàn)尤其優(yōu)異,因?yàn)閗=1時(shí)通常只能召回同視角樣本,k較大時(shí)才需要召回異視角樣本。本實(shí)驗(yàn)結(jié)果表明,在k較大時(shí),rank-k指標(biāo)的相對(duì)漲幅更大,這進(jìn)一步印證了本文方法在多視角情況下的優(yōu)越性。

        3.4 與前沿方法比較

        將本文的方法與車輛重識(shí)別前沿方法進(jìn)行對(duì)比,其結(jié)果如表2所示。在表2中,除了PVEN方法和所提出的PVEN+VCT方法外,其余方法的實(shí)驗(yàn)結(jié)果均來自文獻(xiàn)[7]。本文對(duì)PVEN進(jìn)行了復(fù)現(xiàn),結(jié)果與文獻(xiàn)[7]中一致。

        由表2可知,在眾多車輛重識(shí)別方法中,PRN[6]、PVEN[7]明顯表現(xiàn)更優(yōu),這主要得益于它們對(duì)關(guān)鍵區(qū)域的學(xué)習(xí)。此外,由于PVEN從4個(gè)視角分別提取局部信息,覆蓋了車輛的全部區(qū)域,因此取得了比PRN更好的性能。然而,PVEN僅僅關(guān)注了單區(qū)域局部特征的對(duì)齊與增強(qiáng),對(duì)于視角多樣性考慮得不夠全面,而車輛整體的視角問題也是十分重要的。VANet[5]針對(duì)角度多樣性挑戰(zhàn)提出了基于角度分類的視角感知損失,盡管該網(wǎng)絡(luò)只預(yù)測了前后兩個(gè)角度,限制了模型的表現(xiàn)性能,但是其在度量學(xué)習(xí)中加入對(duì)視角考量的思路使筆者受到了啟發(fā)。實(shí)驗(yàn)結(jié)果顯示,本文的方法相比于PVEN和VANet均取得了較大提升,這是因?yàn)橐暯歉兄恢滦該p失能對(duì)兩張圖片中車輛的角度一致性進(jìn)行預(yù)測,從而引導(dǎo)模型學(xué)到更具辨別性的特征。由此,本實(shí)驗(yàn)證明了所提出方法的優(yōu)越性。

        4 結(jié)束語

        本文針對(duì)車輛重識(shí)別任務(wù),為了解決視角多樣性帶來的影響,引入了視角一致性的概念并設(shè)計(jì)了視角一致性三元組損失函數(shù)。它能引導(dǎo)模型學(xué)習(xí)到更具辨別性的特征,從而提升所提出的方法在車輛重識(shí)別任務(wù)上的表現(xiàn)性能。在VeRi776車輛重識(shí)別數(shù)據(jù)集上,通過實(shí)驗(yàn)證明了所提出的方法的有效性和優(yōu)越性,特別是在多視角場景下獲得了較大的效果提升。

        猜你喜歡
        三元組一致性損失
        基于語義增強(qiáng)雙編碼器的方面情感三元組提取
        軟件工程(2024年12期)2024-12-28 00:00:00
        基于帶噪聲數(shù)據(jù)集的強(qiáng)魯棒性隱含三元組質(zhì)檢算法*
        關(guān)注減污降碳協(xié)同的一致性和整體性
        公民與法治(2022年5期)2022-07-29 00:47:28
        少問一句,損失千金
        注重教、學(xué)、評(píng)一致性 提高一輪復(fù)習(xí)效率
        IOl-master 700和Pentacam測量Kappa角一致性分析
        胖胖損失了多少元
        關(guān)于余撓三元組的periodic-模
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于事件觸發(fā)的多智能體輸入飽和一致性控制
        国产在线视频国产永久视频| 亚洲欧美日韩精品久久| 99精品欧美一区二区三区| 午夜性刺激免费视频| 午夜天堂精品一区二区| 久久精品国产亚洲av影院毛片| 欧美成人看片一区二区三区尤物| 亚洲巨乳自拍在线视频| 亚洲高清中文字幕精品不卡| 亚洲av无一区二区三区综合| 久久人妻少妇嫩草av| 丰满老熟妇好大bbbbb| 中文字幕日产人妻久久| 精品国产免费一区二区久久| 真实的国产乱xxxx在线| 天堂√中文在线bt| 精品欧洲AV无码一区二区免费| 日本女优久久精品久久| 日日日日做夜夜夜夜做无码| 又色又爽又黄又硬的视频免费观看| 国产精品久久中文字幕第一页| 丝袜美腿亚洲综合一区| 337p粉嫩日本欧洲亚洲大胆| 比比资源先锋影音网| 国产高清天干天天视频| 亚洲毛片免费观看视频| а√天堂资源官网在线资源| 亚洲 欧美 综合 另类 中字| 最大色网男人的av天堂| 不卡一区二区视频日本| 国产成人无码a区在线观看视频| 欧美伊人亚洲伊人色综| 成人在线观看视频免费播放| 久久精品国产99国产精品亚洲| 亚洲免费人成在线视频观看| 激情五月婷婷久久综合| 神马影院日本一区二区| 97久久精品亚洲中文字幕无码| 一本一本久久a久久精品综合| 亚洲精品综合中文字幕组合| 人妻少妇出轨中文字幕|