亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度卷積生成對抗網(wǎng)絡(luò)和拓展近鄰重排序的行人重識別

        2019-07-30 11:15:00戴臣超王洪元倪彤光陳首兵
        計算機(jī)研究與發(fā)展 2019年8期
        關(guān)鍵詞:圖庫列表行人

        戴臣超 王洪元 倪彤光 陳首兵

        (常州大學(xué)信息科學(xué)與工程學(xué)院 江蘇常州 213164)

        行人重識別[1]旨在自動匹配同一個行人在不同攝像機(jī)視圖下的行人圖片,該任務(wù)在公共安全方面具有很大的應(yīng)用潛力.因為光照、遮擋、姿勢改變、背景混亂等因素,不同攝像機(jī)視圖下同一個行人的圖片往往有很大不同,如圖1所示(同一列的圖片屬于同一個行人),所以該任務(wù)具有很大的挑戰(zhàn)性,是目前計算機(jī)視覺領(lǐng)域的研究熱點(diǎn).近幾年在行人重識別領(lǐng)域的進(jìn)步主要?dú)w功于高性能的深度學(xué)習(xí)算法[2].和傳統(tǒng)方法相比[3-6],這類算法往往需要大量標(biāo)注好的行人圖片.盡管目前已經(jīng)發(fā)布了一些規(guī)模較大的行人重識別數(shù)據(jù)集,但是在這些數(shù)據(jù)集中每個行人的圖片仍然是有限的.據(jù)統(tǒng)計,在Market1501數(shù)據(jù)集[7]之中平均每個行人只有17.2張圖片,在CUHK03數(shù)據(jù)集[8]之中平均每個行人只有9.6張圖片,在DukeMTMC-reID數(shù)據(jù)集[9]之中平均每個行人只有23.5張圖片.為解決這個問題,有部分研究者試圖使用其他場景下標(biāo)注好的行人圖片,例如Ni等人[10]提出一個遷移學(xué)習(xí)模型試圖學(xué)習(xí)不同場景下行人圖片的公共特征.另外一些研究者試圖利用無標(biāo)簽行人圖片,例如Xin等人[11]提出多視圖聚類的方法來為無標(biāo)簽圖片分配一個偽標(biāo)簽,然后在訓(xùn)練期間使用具有真實標(biāo)簽和偽標(biāo)簽的數(shù)據(jù)參與訓(xùn)練,進(jìn)而提高模型的泛化性能.然而這些方法往往只在特定場合下有用,有時候甚至?xí)?dǎo)致模型性能下降.本文從另外一個角度出發(fā),使用改進(jìn)的生成對抗網(wǎng)絡(luò),從現(xiàn)有訓(xùn)練集中生成類似行人圖片參與訓(xùn)練,從而引入更多的顏色、光照以及姿勢變化等信息來正則化模型,提升模型的魯棒性.

        Fig. 1 Pedestrian image pairs of public datasets圖1 公共數(shù)據(jù)集行人圖像對

        另一方面,行人重識別在本質(zhì)上就是一個圖片檢索任務(wù),給定一張查詢圖片,在對應(yīng)的圖庫之中檢索出與這張查詢圖片身份相同的行人圖片.在這個過程之中經(jīng)常會出現(xiàn)匹配不吻合的現(xiàn)象,導(dǎo)致行人重識別第一匹配率下降.為緩解這個問題,越來越多的研究者在行人重識別任務(wù)中加入重排序[12-15].簡單來說,重排序就是重新計算查詢圖片與圖庫圖片之間的距離,從而使得更多與查詢圖片身份一致的圖庫圖片排在排序列表更靠前的位置.然而,目前流行的重排序方法往往需要根據(jù)每一組圖片對的k近鄰或者k互鄰重新計算新的排序列表,這使得重排序操作復(fù)雜度極高.為了解決這個問題,本文通過引入拓展近鄰距離[16]的概念,提出了一種新的重排序方法,它不需要為每組圖像對重新計算新的排序列表.經(jīng)實驗發(fā)現(xiàn),本文方法可以達(dá)到的最高Rank-1和mAP在Market-1501數(shù)據(jù)集上是89.70% 和82.86%,在CUHK03數(shù)據(jù)集上是87.60% 和87.46%,在DukeMTMC-reID數(shù)據(jù)集上是76.44%,67.59%,并成功用于2018全球(南京)人工智能應(yīng)用大賽多目標(biāo)跨攝像頭跟蹤賽題.

        1 相關(guān)工作

        1.1 生成對抗網(wǎng)絡(luò)

        生成對抗網(wǎng)絡(luò)由2個子網(wǎng)絡(luò)組成:生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò).在訓(xùn)練過程中二者相互博弈直到進(jìn)入一個均衡和諧的狀態(tài).針對普通的生成對抗網(wǎng)絡(luò)經(jīng)常會面臨訓(xùn)練不穩(wěn)定、網(wǎng)絡(luò)難以收斂以及生成圖片質(zhì)量太差等問題,本文采用的深度卷積生成對抗網(wǎng)絡(luò)[17](deep convolutional generative adversarial network, DCGAN)在3個方面作出改進(jìn):1)去除掉網(wǎng)絡(luò)中卷積層后面的全連接層,此時網(wǎng)絡(luò)變成了全卷積網(wǎng)絡(luò),實驗發(fā)現(xiàn)去掉該全連接層,網(wǎng)絡(luò)可以收斂的更快;2)在生成網(wǎng)絡(luò)的輸入層之后作批歸一化操作,使得訓(xùn)練過程變得更加穩(wěn)定;3)使用步幅卷積來替換網(wǎng)絡(luò)中的所有池化層,使得網(wǎng)絡(luò)可以學(xué)習(xí)自身的空間下采樣,進(jìn)而生成質(zhì)量更高的行人圖片.

        1.2 重排序

        最近幾年,重排序在行人重識別領(lǐng)域受到了越來越多的關(guān)注,Shen等人[12]使用k近鄰生成新的排序列表,并且基于這些排序列表重新計算圖片對之間的距離.Ye等人[13]將k近鄰的全局特征與局部特征組合為一個新的查詢特征,并且根據(jù)這些信息修正初始排名列表.不同于普通的k近鄰,Zhong等人[14]利用k互鄰來計算杰卡德距離,融合杰卡德距離與原始的歐氏距離獲得更有效的排序距離.與基于k近鄰和k互鄰的重排序方法不同,本文引入了拓展近鄰距離的概念,通過聚合每一對圖片的拓展近鄰距離來進(jìn)行重排序(本文稱之為拓展近鄰重排序).

        由此,本文結(jié)合DCGAN與拓展近鄰重排序進(jìn)行行人重識別.通過DCGAN從原始訓(xùn)練集中生成類似的行人圖片參與訓(xùn)練,提高模型的泛化能力,再對初始排序表進(jìn)行拓展近鄰重排序操作,緩解行人匹配錯誤的現(xiàn)象,提升行人重識別的性能.

        2 基于DCGAN和拓展近鄰重排序的行人重識別

        本文提出基于DCGAN和拓展近鄰重排序的行人重識別方法,整體框架如圖2所示.首先使用訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)分別提取圖庫圖片和查詢圖片的特征向量,然后基于歐氏度量計算每一張圖庫圖片和查詢圖片之間的距離生成初始排序表,最后利用拓展近鄰重排序?qū)Τ跏寂判虮磉M(jìn)行重排序,生成最終的排序表.本節(jié)將介紹卷積神經(jīng)網(wǎng)絡(luò)如何在訓(xùn)練期間引入DCGAN生成的行人圖片,以及拓展近鄰重排序的定義與描述.

        Fig. 2 The whole framework of the method圖2 本文方法的整體框架

        2.1 卷積神經(jīng)網(wǎng)絡(luò)

        Fig. 3 Network training framework with generated image圖3 結(jié)合生成圖片的網(wǎng)絡(luò)訓(xùn)練框架

        本文采用ResNet50[1]作為基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),并且采用文獻(xiàn)[1]中的訓(xùn)練策略.不同于文獻(xiàn)[1],本文去掉了最后1 000維的分類層,并且增加了2層全連接層:第1個全連接層的輸出為1024維(稱為FC-1024);第2個全連接層的輸出是T維(稱為FC-T,其中T代表訓(xùn)練集中的類別數(shù)).經(jīng)實驗證明,添加這2層全連接層可以很有效地提升行人重識別的準(zhǔn)確率,并且不會影響模型的收斂速度.與文獻(xiàn)[1]采取的策略不同,本文并沒有為生成圖片賦予一個偽標(biāo)簽,而是分配了一個對現(xiàn)有類別都統(tǒng)一的標(biāo)簽分布.在2.2節(jié)將對生成圖片標(biāo)簽分布的分配進(jìn)行討論.結(jié)合生成圖片的網(wǎng)絡(luò)訓(xùn)練框架如圖3所示.首先使用DCGAN從現(xiàn)有訓(xùn)練集中生成類似的行人圖片,然后將生成圖片與真實圖片混合在一起作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,最后通過最小化交叉熵?fù)p失來對網(wǎng)絡(luò)進(jìn)行調(diào)參使模型更魯棒.

        2.2 標(biāo)簽平滑正則化

        標(biāo)簽平滑正則化[18](label smoothing regulari-zation, LSR)的思想就是給非真實類別賦予一個較小的值而不是0.這種策略相當(dāng)于加入一些噪音數(shù)據(jù),以防網(wǎng)絡(luò)過于傾向真實類別.在每一個批次中都有一定數(shù)量的真實圖片和生成圖片,所以本文的損失函數(shù)為

        LLoss=LR+LG,

        (1)

        其中,LR為真實圖片的交叉熵?fù)p失;LG為生成圖片的交叉熵?fù)p失.交叉熵?fù)p失定義為

        (2)

        (3)

        其中,y代表圖片的真實標(biāo)簽.

        在文獻(xiàn)[18]中,通過標(biāo)簽平滑正則化把非真實類別的分布考慮在內(nèi),鼓勵網(wǎng)絡(luò)不要太傾向于真實類別.因此,運(yùn)用標(biāo)簽平滑正則化策略后,圖片的標(biāo)簽分布為

        (4)

        其中,ε∈[0,1].

        然而,生成的行人圖片不屬于任意已知類別,無法為之分配一個準(zhǔn)確的標(biāo)簽.不同于以往文獻(xiàn)處理無標(biāo)簽圖片的策略,本文提出為無標(biāo)簽圖片分配一個虛擬的標(biāo)簽分布,設(shè)置其標(biāo)簽分布在所有已知類別上都是統(tǒng)一的.因此,對于生成圖片,本文改進(jìn)后的標(biāo)簽分布被定義為

        (5)

        此時,生成圖片的標(biāo)簽分布為均勻分布,即默認(rèn)任意一張生成圖片屬于任意已知類別的概率是相同的.所以,生成圖片的交叉熵?fù)p失為

        (6)

        考慮到訓(xùn)練集中行人圖片的內(nèi)容和標(biāo)簽是正確匹配的,本文并沒有對訓(xùn)練集中的真實圖片進(jìn)行標(biāo)簽平滑正則化處理,因此真實圖片的交叉熵?fù)p失為

        LR=-log(p(y)).

        (7)

        結(jié)合式(6)與式(7),本文的損失函數(shù)為

        (8)

        其中,β的取值為0或者1,β=0時,是真實圖片的損失;當(dāng)β=1時,則是生成圖片的損失.雖然本文使用的生成圖片質(zhì)量并不高,無法為之分配一個與圖片內(nèi)容相符的標(biāo)簽,但是本文使用改進(jìn)后的標(biāo)簽平滑正則化方法可以直接處理在樣本空間中位于真實圖片附近的生成圖片.通過這種方式可以引入更多的顏色、光照、背景、姿勢變化等信息來正則化網(wǎng)絡(luò)模型,進(jìn)而引導(dǎo)網(wǎng)絡(luò)去尋找更具有判別力的特征.

        2.3 拓展近鄰重排序

        給定一個行人圖庫G={gi|i=1,2,…,S}以及一張查詢圖片,那么查詢圖片與圖庫圖片之間的距離可以用歐氏距離來計算:

        d(p,gi)=(xp-xgi)T×(xp-xgi),

        (9)

        其中,p指的是查詢圖片;gi指的是圖庫中的第i張圖片;xp指的是查詢圖片p的特征向量;xgi指的是圖庫圖片gi的特征向量.

        重排序就是要重新計算查詢圖片與圖庫圖片之間的距離,進(jìn)而生成新的排序表.給定一組圖片(包括一張查詢圖片與一張圖庫圖片).首先尋找2張圖片對應(yīng)的拓展近鄰集合,然后聚合這2個集合中每一對圖片之間的距離,并用聚合之后的距離(本文稱之為拓展近鄰距離)來代替該組圖片原本的距離.查詢圖片的拓展近鄰集合R(p,K)為

        {R(p,M),R(M,N)}→R(p,K),

        (10)

        其中,R(p,M)是與查詢圖片p最相似的M張近鄰圖片;R(M,N)指的是與R(p,M)中每個元素最相似的N張近鄰圖片.同理,圖庫圖片的拓展近鄰集合計算方式也是如此.拓展近鄰距離可以被定義為

        從表2得知,學(xué)生的學(xué)習(xí)計劃方面已經(jīng)有了明顯提高。但是,學(xué)生中的大部分沒有及時監(jiān)控學(xué)習(xí)過程、調(diào)節(jié)學(xué)習(xí)方法,在英語學(xué)習(xí)中不能熟練使用監(jiān)控策略和調(diào)節(jié)策略。

        (11)

        其中,pj指的是查詢圖片的拓展近鄰集合R(p,K)中的第j個近鄰;gij指的是圖庫圖片gi的擴(kuò)展近鄰集合R(gi,K)中的第j個近鄰;d(·)是圖片對之間的距離.

        本文采用基于排序列表的方式來計算d(·),即根據(jù)2個排序列表前k個近鄰的位置來計算2個排序列表之間的距離.雖然該方法是由Jarvis等人[16]提出的并且已經(jīng)成功地運(yùn)用到人臉識別任務(wù)[19]中,但是據(jù)我們所了解,該方法是首次運(yùn)用到行人重識別任務(wù)中.基于排序列表的距離計算:

        (12)

        其中,Sp(n)表示圖片n在排序列表Lp中的位置;Sgi(n)表示圖片n在排序列表Lgi中的位置;×表示矩陣乘法;Lp與Lgi分別表示p與gi所對應(yīng)的排序列表.[·]+=max(·,0).因為只考慮排序列表中前k張行人圖片的情況,所以使用max函數(shù)將排序列表中前k張以外的圖片排除在外.minmax(·)是指對(·)進(jìn)行歸一化處理.

        3 實 驗

        本文在Market-1501,DukeMTMC-reID和CUHK03數(shù)據(jù)集[7-9]上進(jìn)行實驗,并采用累積匹配特征曲線以及平均查準(zhǔn)率(mean average precision, mAP)來評價實驗性能.累積匹配特征曲線表示查詢圖片出現(xiàn)在排序后圖庫列表中的概率.因為在實際應(yīng)用中往往只會考慮Rank-1,即第一次就成功匹配的概率,所以本文主要關(guān)注Rank-1.

        3.1 數(shù)據(jù)集

        Market-1501中的行人圖片收集自6個攝像機(jī),其中包括來自于1 501個行人的32 668張標(biāo)記好的行人圖片.該數(shù)據(jù)集分為訓(xùn)練集,圖庫集和查詢集.訓(xùn)練集由來自751個行人的12 936張行人圖片組成,圖庫集則是由來自750個行人的19 732張行人圖片組成.查詢集合中擁有來自750個行人的3 368張查詢圖片.

        DukeMTMC-reID是最新發(fā)布的大規(guī)模行人重識別數(shù)據(jù)集,其中有1 812個行人,一共1 404個行人出現(xiàn)在至少2個攝像頭下,剩余408個行人僅出現(xiàn)在一個攝像頭之下.它的訓(xùn)練集和測試集各包含702個人,訓(xùn)練集包括16 522張圖片,圖庫集由17 661張圖片組成,查詢集包括2 228張圖片.

        3.2 實驗設(shè)置

        本文在Market-1501數(shù)據(jù)集上采用了Single Query和Multiple Query設(shè)置.Single Query指查詢集中每個行人只有一張圖片,Multiple Query指查詢集中每個行人有多張圖片.在CUHK03數(shù)據(jù)集上使用了single-shot和multi-shot設(shè)置.single-shot是指在圖庫中每個行人只有一張圖片,multi-shot是指在圖庫中每個行人有多張圖片.和本文方法進(jìn)行比較的有DNS[20], Verif.-Identif.[21], SOMAnet[22], XQDA[23]等方法.DNS方法通過匹配訓(xùn)練數(shù)據(jù)判別零空間中的行人來克服行人重識別度量學(xué)習(xí)中的小樣本問題.Verif.-Identif.方法基于驗證模型和識別模型可以同時計算驗證損失和識別損失,進(jìn)而可以得到一個更具有判別力的卷積神經(jīng)網(wǎng)絡(luò)和相似性度量.SOMAnet則是基于深度卷積神經(jīng)網(wǎng)絡(luò)的框架,它試圖通過對人體結(jié)構(gòu)信息建模來緩解行人重識別的類內(nèi)差異.XQDA方法首先提取特征,并提出一種度量學(xué)習(xí)方法來使類內(nèi)距離變小類間距離變大.

        3.3 參數(shù)分析

        本文在Market1501數(shù)據(jù)集上采用控制變量法對重排序方法中的參數(shù)M與N進(jìn)行測試,以期望獲得最優(yōu)值.首先固定住一個參數(shù),然后通過調(diào)整另一個參數(shù)來查看Rank-1和mAP的變化.從圖4中可以看出在Single Query設(shè)置下當(dāng)N=8時,Rank-1和mAP達(dá)到最優(yōu)值.從圖5中可以看出在Single Query設(shè)置下當(dāng)M=3時,Rank-1和mAP達(dá)到最優(yōu)值.經(jīng)實驗測試,在數(shù)據(jù)集CUHK03和DukeMTMC-reID上,M=3與N=8時Rank-1和mAP也可以達(dá)到最優(yōu).因此,本文取M=3和N=8為實驗參數(shù).

        Fig. 4 Influence of parameter N on Re-ID performance on Market1501 dataset圖4 在Market1501數(shù)據(jù)集上參數(shù)N對行人重識別性能的影響

        Fig. 5 Influence of parameter M on Re-ID performance on Market1501 dataset圖5 在Market1501數(shù)據(jù)集上參數(shù)M對行人重識別性能的影響

        Fig. 6 Generated images of CUHK03圖6 CUHK03數(shù)據(jù)集的生成圖片

        3.4 生成圖片的數(shù)量對Re-ID性能的影響

        Fig. 7 Generated images of Market-1501圖7 Market-1501數(shù)據(jù)集的生成圖片

        圖6~8分別展示了以CUHK03,Market-1501和DukeMTMC-reID為訓(xùn)練集的生成對抗網(wǎng)絡(luò)生成的行人圖片.隨著生成圖片數(shù)量的增加,行人重識別的表現(xiàn)是否可以獲得一個持續(xù)性的改進(jìn)?表1展示了不同數(shù)量的生成圖片參與Market-1501數(shù)據(jù)集訓(xùn)練的實驗結(jié)果.在Market-1501數(shù)據(jù)集中訓(xùn)練集一共有12 936張圖片.從表1中可以看出:太少的生成圖片參與訓(xùn)練時,標(biāo)簽平滑正則化的正則化能力并不充分;太多的生成圖片參與訓(xùn)練時,則會引入過多的干擾項.本文采取一個折中處理,即設(shè)置參與訓(xùn)練的生成圖片與真實圖片的比例為1∶1.

        Fig. 8 Generated images of DukeMTMC-reID圖8 DukeMTMC-reID數(shù)據(jù)集的生成圖片

        Table 1 Impact of the Number of Generated Images on Person Re-identification表1 生成圖片的數(shù)量對Re-ID性能的影響

        3.5 標(biāo)簽平滑正則化對Re-ID性能的改進(jìn)

        表2~5展示了本文方法在Market-1501,CUHK03和DukeMTMC-reID數(shù)據(jù)集上的實驗結(jié)果.在所有表中,LSR代表在訓(xùn)練期間加入了生成圖片,rerank代表在測試期間使用了拓展近鄰重排序操作.從中可以看出:當(dāng)使用生成圖片參與訓(xùn)練時,實驗效果明顯超過了本文的基準(zhǔn)方法Resnet50:在Market-1501數(shù)據(jù)上Single Query與Multiple Query情況下,Rank-1分別提升了1.22%和0.66%,mAP分別提升了0.61%和1.48%(如表2所示);在CUHK03數(shù)據(jù)集Single-shot與multi-shot情況下,Rank-1分別提升了2.97%和0.51%,mAP分別提升了2.32%和0.70%(如表3、表4所示);在DukeMTMC-reID數(shù)據(jù)上,Rank-1和mAP上分別提升了1.22%和0.64%(如表5所示).這使我們有興趣探索使用現(xiàn)實生活中真實的行人圖片參與訓(xùn)練是否也有好的效果.為了驗證這一點(diǎn),本文隨機(jī)挑選DukeMTMC-reID數(shù)據(jù)集中12 000張真實的圖片來代替Market-1501訓(xùn)練集中的生成圖片.

        Table 2 Performance Comparison on the Market-1501 Dataset表2 在Market-1501數(shù)據(jù)集上的性能比較

        Table 3 Performance Comparison on the CUHK03 Dataset Under single-shot Setting表3 single-shot情況下多種方法在CUHK03數(shù)據(jù)集上的比較

        Table 4 Performance Comparison on the CUHK03 Dataset Under multi-shot Setting表4 multi-short情況下CUHK03數(shù)據(jù)集上的性能比較

        Table 5 Performance Comparison on the DukeMTMC-reID Dataset表5 DukeMTMC-reID數(shù)據(jù)集上的性能比較

        從表6可以看出,加入12 000張DukeMTMC-reID數(shù)據(jù)集中的真實圖片參與訓(xùn)練也有助于模型的正則化,改善了行人重識別的準(zhǔn)確度,但是加入DCGAN生成的圖片參與訓(xùn)練取得的效果更好.

        Table 6 Impact of Generated Images and Real Images onPerson Re-identification表6 生成圖片與真實圖片對行人重識別性能的影響

        3.6 拓展近鄰重排序?qū)e-ID性能的改進(jìn)

        從表2~5中可以看出,拓展近鄰重排序可以有效地改善行人重識別的性能:在Market-1501數(shù)據(jù)集Single Query情況下,Rank-1和mAP分別提升了3.86%和16%,Multiple Query情況下,Rank-1和mAP分別提升了2.02%和12.94%;在CUHK03數(shù)據(jù)集single-short情況下Rank-1和mAP分別提升了5.45%和4.16%,multi-short情況下Rank-1和mAP分別提升了7.52%和12.61%;在DukeMTMC-reID數(shù)據(jù)集上Rank-1和mAP分別提升了5.97%和17.67%.

        本文還將拓展近鄰重排序方法和目前2種流行的重排序方法相比較,這2種重排序方法分別為稀疏上下文激活重排序[15](sparse contextual activa-tion, SCA),k互鄰重排序[14](k-reciprocal, k-r).SCA通過考慮上下文空間中的原始成對距離,設(shè)計一個稀疏上下文激活的特征向量來對圖像進(jìn)行編碼.k-r則是通過k互近鄰方法降低圖像錯誤匹配情況,最后將歐氏距離和杰卡德距離加權(quán)來對排序表進(jìn)行重排序.表7展示了在Market-1501,CUHK03和DukeMTMC-reID這3個數(shù)據(jù)集上拓展近鄰重排序方法和其他2種先進(jìn)重排序方法的實驗比較結(jié)果.從表7中可以看出,本文提出的拓展近鄰重排序方法無論是Rank-1指標(biāo)還是mAP指標(biāo)都要比上述2種重排序方法效果要好.

        Table 7 Comparison of Various Reranking Methods 表7 不同重排序方法的比較

        4 總 結(jié)

        基于深度學(xué)習(xí)算法的行人重識別方法往往需要大量標(biāo)記好的訓(xùn)練數(shù)據(jù),然而標(biāo)記大量的行人圖片極其耗時.針對這個問題,本文使用改進(jìn)的生成對抗網(wǎng)絡(luò)DCGAN從現(xiàn)有訓(xùn)練集中生成類似行人圖片參與訓(xùn)練,并采用標(biāo)簽平滑正則化方法來同時訓(xùn)練生成圖片與真實圖片.通過這種方式在訓(xùn)練過程中引入更多的顏色、光照、背景、姿勢變化等信息,提升模型的魯棒性.大量實驗表明該方法能有效提升行人重識別性能.在此基礎(chǔ)上,本文進(jìn)一步提出了用于行人重識別的新的重排序方法——拓展近鄰重排序方法.該方法根據(jù)2個排序列表前k個近鄰的位置來計算2個排序列表之間的距離,無需重新計算每一對圖片的排序列表,通過有說服力的實驗,證明該方法比其他重排序方法有更好的性能表現(xiàn),能更好地提升行人重識別性能.本文所報道的上述方法也在2018全球(南京)人工智能應(yīng)用大賽多目標(biāo)跨攝像頭跟蹤賽中得到了成功應(yīng)用(榮獲第2名).

        猜你喜歡
        圖庫列表行人
        巧用列表來推理
        金山農(nóng)民畫矢量圖庫的建設(shè)與應(yīng)用
        學(xué)習(xí)運(yùn)用列表法
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        擴(kuò)列吧
        路不為尋找者而設(shè)
        視圖庫在AI浪潮里的發(fā)展應(yīng)用
        Photoshop CC圖庫面板的正確打開方法
        我是行人
        圍繞“四個全面”戰(zhàn)略布局 譜寫偉大復(fù)興宏偉篇章
        国产青草视频在线观看| 亚洲色欲久久久综合网| 日韩AV无码乱伦丝袜一区| 国产在线观看网址不卡一区| 一区二区三区中文字幕在线观看 | 国产精品久久久久久52avav| 综合无码综合网站| 亚洲综合国产成人丁香五月小说| av一区二区三区观看| 国产三级视频不卡在线观看| 国产精品久久久久久久久久红粉| 奇米影视7777久久精品| 精品成人av一区二区三区| 亚洲的天堂av无码| 久久九九青青国产精品| 亚洲一区二区日韩在线| 国产片在线一区二区三区| 一本色道久久爱88av| 少妇高潮潮喷到猛进猛出小说| 国产成人九九精品二区三区| 亚洲国产人成自精在线尤物| 欧美最猛性xxxx| 国产精品www夜色视频| 北条麻妃毛片在线视频| 真实国产网爆门事件在线观看| 少妇一区二区三区乱码| 女女同女同一区二区三区| 免费人成年激情视频在线观看| 好吊色欧美一区二区三区四区| 在线av野外国语对白| 亚洲最大的av在线观看| 欧美老妇牲交videos| 国产免费丝袜调教视频| 不卡a v无码在线| 成人免费播放片高清在线观看| 国产乱人伦av在线麻豆a| 国产超碰人人模人人爽人人喊| 玩弄人妻奶水无码AV在线| 亚洲av熟女天堂久久天堂| 日本一区二区三区高清在线视频 | 久久不见久久见免费影院国语 |