亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于灰度域特征增強(qiáng)的行人重識別方法

        2022-01-05 02:32:00龔云鵬曾智勇
        計(jì)算機(jī)應(yīng)用 2021年12期
        關(guān)鍵詞:方法模型

        龔云鵬,曾智勇,葉 鋒

        (福建師范大學(xué)計(jì)算機(jī)與網(wǎng)絡(luò)空間安全學(xué)院,福州 350117)

        (?通信作者電子郵箱zzyong@fjnu.edu.cn)

        0 引言

        視頻分析及圖像偵查技術(shù)在安防、智慧城市、民生服務(wù)等方面發(fā)揮了愈來愈強(qiáng)大的作用。行人重識別(Person Re-Identification,ReID)是對行人進(jìn)行跨攝像頭檢索,從而判斷圖像或者視頻序列中是否存在特定身份行人的技術(shù)[1]。這項(xiàng)任務(wù)的挑戰(zhàn)在于不同攝像頭拍攝的圖像往往包含由視角、人體姿態(tài)、光線變化、遮擋等變化引起的顯著的類內(nèi)變化,即同一行人圖像的表觀可能會發(fā)生了巨大的變化,使得行人間的類內(nèi)(同一個(gè)行人)的差異可能大于類間(不同行人)差異,因此,尋找更加魯棒的特征與度量方法來有效地解決上述問題,已經(jīng)成為ReID的主要目標(biāo)之一。

        本文提出的方法通過模擬行人樣本的顏色信息丟失并從數(shù)據(jù)增強(qiáng)的角度強(qiáng)調(diào)樣本的結(jié)構(gòu)信息,促進(jìn)模型學(xué)習(xí)到更穩(wěn)健的特征。灰度圖像可以看作是丟失了一些顏色信息但保留了空間結(jié)構(gòu)的RGB 圖像。在人類認(rèn)知上,人類通過灰度圖片就可以很好地辨別不同的行人。因此,探究如何充分利用灰度信息,減少顏色信息偏差對ReID 的影響是一個(gè)重要的問題。為了探究灰度圖像在ReID 任務(wù)中的所能起到的作用,本文設(shè)計(jì)了如下的灰度貢獻(xiàn)率測試實(shí)驗(yàn):

        通過圖像的灰度變換將可見光RGB 圖像構(gòu)成的數(shù)據(jù)集A1 轉(zhuǎn)換成由灰度圖像構(gòu)成的數(shù)據(jù)集A2,然后分別用A1 和A2在同一個(gè)基準(zhǔn)模型上訓(xùn)練和測試,并把模型在RGB 數(shù)據(jù)集和其對應(yīng)灰度數(shù)據(jù)集上相應(yīng)性能評價(jià)指標(biāo)的比值當(dāng)作灰度信息的貢獻(xiàn)率,如圖1所示。

        圖1 灰度貢獻(xiàn)率實(shí)驗(yàn)示意圖Fig.1 Schematic diagram of experiment on grayscale contribution rate

        表1 則展示了在ReID 三個(gè)數(shù)據(jù)集上測試得到灰度圖像在各數(shù)據(jù)集上對模型性能的貢獻(xiàn)度,其中:Rank-1、Rank-5、Rank-10表示按相似度排序的查詢結(jié)果中第1、5、10個(gè)返回結(jié)果的平均準(zhǔn)確率,mAP 表示平均精度均值(mean Average Precision)??梢钥闯觯叶葓D像對檢索精度的貢獻(xiàn)率占87%以上。值得一提的是,在Rank10 中,灰度圖像對檢索精度的貢獻(xiàn)率高達(dá)95%以上。

        表1 不同數(shù)據(jù)集上在各評價(jià)指標(biāo)上的灰度貢獻(xiàn)率 單位:%Tab.1 Grayscale contribution rate on each evaluation index on different datasets unit:%

        圖2直觀地展示了利用灰度進(jìn)行數(shù)據(jù)增強(qiáng)(圖2(a))和利用生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)進(jìn)行數(shù)據(jù)增強(qiáng)(圖2(b))這兩種數(shù)據(jù)增強(qiáng)方式的對比。如圖2(a)中第一行彩色圖像和第二行灰度圖像所示(第一列圖像給出來正常情況下的對比,其余列為具有顏色偏差的情況下的對比),各數(shù)據(jù)集中普遍存在著行人對比度低的著裝、暗色系和灰色系著裝、行人的移動而引起的圖像模糊或分辨率低、光線變化等引起的顏色偏差等問題,這些因素使得圖片本身會更接近于灰度圖片。由于顏色偏差問題客觀存在且不可避免,即使顏色偏差不是趨向于介于黑白的灰度形式而是看起來整體圖像偏向于某一色調(diào),總體情形也是相似的,因?yàn)檫@種情況下模型在判別過程中所依賴的顏色信息都已經(jīng)不再可靠,而圖像結(jié)構(gòu)信息就顯得尤為重要。這也直觀地揭示了為什么在評價(jià)指標(biāo)Rank-10 上灰度圖像對檢索精度的貢獻(xiàn)率能夠高達(dá)95%以上。這些證據(jù)表明灰度圖像的空間結(jié)構(gòu)信息在ReID檢索任務(wù)中具有很大的潛力。

        如圖2(b)所示,Zheng 等[5]提出的DGNet 利用GAN 為圖像上的每一個(gè)行人換上其他行人的衣著,生成了更多樣化的數(shù)據(jù)來降低顏色變化對模型的影響,有效提升了模型的泛化能力。該結(jié)果表明,通過減少模型訓(xùn)練過程中對顏色信息的過度擬合,可以有效提高模型的泛化能力。實(shí)際上,本文提出的局部灰度轉(zhuǎn)換(Local Grayscale Transformation,LGT)方法通過隨機(jī)將RGB 圖像中的某些區(qū)域轉(zhuǎn)換為灰度也可以達(dá)到相同的目的。

        圖2 兩種數(shù)據(jù)增強(qiáng)方式對比Fig.2 Comparison of two data augmentation approaches

        基于對灰度貢獻(xiàn)率的探索,本文提出了一種有效的數(shù)據(jù)增強(qiáng)方法來模擬行人圖像顏色信息的丟失來提高特征的魯棒性,所提方法包括全局灰度轉(zhuǎn)換(Global Grayscale Transformation,GGT)、局部灰度轉(zhuǎn)換(LGT)以及這兩者的組合。該方法有以下的優(yōu)點(diǎn):

        1)它是一種輕量級方法,可以在不改變學(xué)習(xí)策略的情況下與各種卷積神經(jīng)網(wǎng)絡(luò)模型相結(jié)合;

        2)它是現(xiàn)有數(shù)據(jù)增強(qiáng)的一種補(bǔ)充方法,當(dāng)組合其他方法使用時(shí),本文方法可以進(jìn)一步提高模型識別精度。

        本文的主要工作如下:

        1)針對ReID 提出了一種有效的數(shù)據(jù)增強(qiáng)方法,充分利用灰度圖像的結(jié)構(gòu)信息和RGB 圖像的顏色信息,兩者的互相補(bǔ)充有效解決了ReID 訓(xùn)練過程中顏色偏差所帶來的不良影響,提升了現(xiàn)有模型的性能上限。

        2)通過大量實(shí)驗(yàn)和分析驗(yàn)證了本文方法能有效提升ReID 性能。本文方法可以為ReID 未來的研究提供一個(gè)有效增長的方向,并在多個(gè)基準(zhǔn)和具有代表性的數(shù)據(jù)集上驗(yàn)證了所提方法的有效性。

        1 相關(guān)工作

        自深度學(xué)習(xí)被引入到ReID 領(lǐng)域后,短短幾年間就取得了快速的發(fā)展,先后公開的數(shù)據(jù)集很快就被不斷提出的模型和方法逼近識別精度的上限。諸如的隨機(jī)裁剪、隨機(jī)翻轉(zhuǎn)等眾所周知的簡單數(shù)據(jù)增強(qiáng)技巧在分類、檢測和ReID 領(lǐng)域發(fā)揮了重要作用。利用GAN[6]來增加訓(xùn)練數(shù)據(jù)也是ReID 研究的一個(gè)活躍領(lǐng)域[3,7-8],該類方法能增加訓(xùn)練數(shù)據(jù)的多樣性,從而在一定程度上提升模型的泛化能力。此外,最近的研究提出了一些有針對性的方法來從不同的角度幫助模型提高泛化能力。隨機(jī)擦除[9]在訓(xùn)練過程中模擬真實(shí)場景中頻繁遇到的遮擋問題,在一定程度上有效解決了識別任務(wù)面臨遮擋問題時(shí)泛化能力不足的缺陷,成為公認(rèn)有效的方法。Fan 等[10]發(fā)現(xiàn)學(xué)習(xí)率對ReID 模型的性能有很大的影響,為了取得更好的性能它采用了一種預(yù)熱策略來引導(dǎo)網(wǎng)絡(luò)盡可能跳出局部最優(yōu)解。Zhong 等[11]提出的k倒數(shù)編碼來對檢索得到的結(jié)果進(jìn)行重新排序以提升模型精度,這一技巧被稱之為re-Rank,同樣是一種公認(rèn)提升模型性能的方法。Circle Loss[12]從統(tǒng)一的相似度配對優(yōu)化角度出發(fā),統(tǒng)一了分類學(xué)習(xí)和樣本對學(xué)習(xí)兩種基本學(xué)習(xí)范式下的損失函數(shù),在Market-1501數(shù)據(jù)集上取得了CVPR2020的最高識別精度。IANet(Interaction-and-Aggregation Network)[13]針對ReID 圖像空間位置不匹配的問題,通過設(shè)計(jì)空間交互聚合模塊和通道交互聚合模塊實(shí)現(xiàn)自適應(yīng)地確定感受野和增強(qiáng)特征表示,以克服卷積神經(jīng)網(wǎng)絡(luò)難以應(yīng)對建模人體姿態(tài)和尺度的巨大變化這一固有局限。AdaptiveReID[14]通過將可訓(xùn)練的標(biāo)量變量作為正則化因子來實(shí)現(xiàn)正則化因子的反向傳播進(jìn)行自適應(yīng)更新。據(jù)我們所知,該方法在MSMT17數(shù)據(jù)集上取得了目前的最高識別精度。此外,還有其他一些方法[15-19]從空間通道相關(guān)性、局部信息匹配、注意力方面來改善模型性能,雖然以上這些方法各不相同,但它們分別從不同的角度和環(huán)節(jié)提高了ReID 模型的泛化能力。這激勵(lì)我們打開思維,從更多的角度尋找方法來解決問題。

        2 全局灰度轉(zhuǎn)換與局部灰度轉(zhuǎn)換

        由于灰度圖像的結(jié)構(gòu)信息對ReID 模型性能有很大影響,為了充分利用灰度結(jié)構(gòu)信息并降低ReID 模型對顏色信息的過度擬合,本文提出了隨機(jī)灰度轉(zhuǎn)換,它包括全局灰度轉(zhuǎn)換(GGT)、局部灰度轉(zhuǎn)換(LGT)以及這兩者的組合。通過在訓(xùn)練數(shù)據(jù)中以一定的概率將輸入圖像進(jìn)行隨機(jī)灰度轉(zhuǎn)換讓模型更充分地挖掘灰度信息的潛力以增強(qiáng)模型的泛化能力。本文方法的框架如圖3所示。

        圖3 本文方法框架Fig.3 Framework of the proposed method

        2.1 全局灰度轉(zhuǎn)換

        全局灰度轉(zhuǎn)換在數(shù)據(jù)加載過程中隨機(jī)抽取K個(gè)身份,對每個(gè)身份抽取m個(gè)RGB 樣本圖像來組成一個(gè)訓(xùn)練批組。用集合表示為表示訓(xùn)練批組的第i個(gè)樣本圖像,yi表示樣本圖像的類別標(biāo)簽。然后以一定的概率隨機(jī)將整個(gè)批組的訓(xùn)練圖像進(jìn)行全局灰度轉(zhuǎn)換,最后再輸入到模型中進(jìn)行訓(xùn)練。對于每個(gè)RGB 樣本圖像的灰度轉(zhuǎn)換可以由如下公式實(shí)現(xiàn):

        其中:t(?)是全局灰度圖像轉(zhuǎn)換函數(shù),通過在原始的可見光RGB 圖像的R、G、B通道上應(yīng)用灰度變換函數(shù)執(zhí)行逐像素累加計(jì)算實(shí)現(xiàn)。轉(zhuǎn)換后的圖像標(biāo)簽和原來保持一致。用xg表示轉(zhuǎn)換后得到的灰度樣本圖像,則有如下公式:

        2.2 局部灰度轉(zhuǎn)換

        局部灰度轉(zhuǎn)換在訓(xùn)練中同樣按一定概率進(jìn)行。對于原始的RGB 圖像I,假設(shè)隨機(jī)灰度轉(zhuǎn)換的概率為p,則保持不變的概率為1-p。該方法在圖像中隨機(jī)選擇一個(gè)矩形區(qū)域,并用其對應(yīng)的灰度圖像中相同的矩形區(qū)域的像素進(jìn)行替換。其中Sl和Sh為最小和最大的矩形區(qū)域的面積比例,通過Sg=Rand(Sl,Sh)×S得到限定在最小和最大比例之間的隨機(jī)矩形區(qū)域的面積大小Sg。rg是一個(gè)系數(shù),用來將得到的隨機(jī)矩形寬、高的具體數(shù)值以確定矩形的形狀,它被限定在(r1,r2)區(qū)間。根據(jù)經(jīng)驗(yàn),本文以Sl=0.03,Sh=0.4,r1=0.3,r2=1/r1作為基礎(chǔ)設(shè)置。(xg,yg)為隨機(jī)得到的該矩形的左上角坐標(biāo),如果這個(gè)坐標(biāo)會導(dǎo)致隨機(jī)生成的矩形超出圖片范圍,則重新確定矩形的面積、形狀和位置坐標(biāo),直到找到了一個(gè)符合要求的矩形。最后對原始RGB 圖像中的目標(biāo)區(qū)域使用灰度像素進(jìn)行替換,由此產(chǎn)生了不同灰度替換區(qū)域的訓(xùn)練圖像。如圖4所示,這個(gè)過程中訓(xùn)練圖像的整體結(jié)構(gòu)沒有遭到破壞,方框指出了灰度轉(zhuǎn)換的部分。該方法實(shí)現(xiàn)了數(shù)據(jù)的多樣化,并保留了RGB 圖像的空間結(jié)構(gòu)信息。根據(jù)上述過程,本文建立局部灰度轉(zhuǎn)換算法如下:

        圖4 局部灰度轉(zhuǎn)換示意圖Fig.4 Schematic diagram of local grayscale transformation

        輸入 RGB 圖像I,圖像的寬W和高H,圖像的面積S,局部灰度轉(zhuǎn)換概率pr,灰度轉(zhuǎn)換面積比例范圍(Sl,Sh),形狀比例區(qū)間(r1,r2)。

        輸出 局部灰度轉(zhuǎn)換圖像I*。

        1)由Rand(r1,r2)得到一個(gè)屬于(0,1)區(qū)間的隨機(jī)數(shù)p1,若p1>pr則直接返回原圖像。

        2)while True

        2.1)通過計(jì)算Rand(Sl,Sh)×S得到目標(biāo)矩形區(qū)域的面積大小Sg。

        2.2)由Rand(r1,r2)獲得(r1,r2)區(qū)間范圍內(nèi)的一個(gè)隨機(jī)數(shù)rg,并通過計(jì)算Sqrt(Sg×rg)和Sqrt(Sg/rg)得到目標(biāo)矩形區(qū)域的寬Wg和高Hg。

        2.3)分別由Rand(0,W)和Rand(0,H)隨機(jī)得到目標(biāo)矩形的左上角坐標(biāo)(xg,yg)。

        2.4)如果由目標(biāo)的左上角坐標(biāo)(xg,yg)和其寬Wg高Hg構(gòu)造出來的矩形區(qū)域在圖像范圍內(nèi),則將可見光圖像上的目標(biāo)區(qū)域替換為灰度;否則重新生成目標(biāo)區(qū)域的寬高和其左上角坐標(biāo)。

        2.5)返回局部灰度轉(zhuǎn)換圖像。

        2.3 損失函數(shù)

        除此之外,xv和xg使用一個(gè)共享身份分類器φ進(jìn)行訓(xùn)練。使用分類器φ識別,對其身份標(biāo)簽yi的預(yù)測概率表示為。身份損失表示如下:

        綜上所述,進(jìn)行隨機(jī)灰度轉(zhuǎn)換時(shí)總體損失表示如下:

        3 實(shí)驗(yàn)比較與分析

        本文在三個(gè)基準(zhǔn)模型上進(jìn)行實(shí)驗(yàn)來驗(yàn)證所提方法的有效性,它們分別是ReID Baseline[20]、Strong Baseline[21](SB)和FastReID[22](FR)。ReID Baseline 和Strong Baseline都基于ResNet-50[23]骨干網(wǎng)絡(luò)實(shí)現(xiàn),F(xiàn)astReID 基于IBN-ResNet101[24]骨干網(wǎng)絡(luò)實(shí)現(xiàn)。

        3.1 數(shù)據(jù)集和評價(jià)指標(biāo)

        本文在ReID 的三個(gè)具有代表性的數(shù)據(jù)集上進(jìn)行對比實(shí)驗(yàn),它們分別是MTMC17、DukeMTMC和Market-1501數(shù)據(jù)集。

        MSMT17數(shù)據(jù)集是2018年提出的更接近真實(shí)場景的大型數(shù)據(jù)集,總共包含4 101 個(gè)獨(dú)立人物,涵蓋了多場景多時(shí)段。該數(shù)據(jù)集共包含15 個(gè)攝像頭,其中包含12 個(gè)戶外攝像頭和3個(gè)室內(nèi)攝像頭。在一個(gè)月里選擇了具有不同天氣條件的4 天進(jìn)行數(shù)據(jù)采集,每天采集3 h,涵蓋了早上、中午、下午三個(gè)時(shí)間段。

        DukeMTMC 數(shù)據(jù)集是一個(gè)大規(guī)模標(biāo)記的多目標(biāo)多攝像機(jī)行人跟蹤數(shù)據(jù)集,于2017 年提出。它提供了一個(gè)由8 個(gè)同步攝像機(jī)記錄的新型大型高清視頻數(shù)據(jù)集,具有7 000多個(gè)單攝像機(jī)軌跡和超過2 700多個(gè)獨(dú)立人物。

        Market-1501 數(shù)據(jù)集于2015 年構(gòu)建并公開。它包括由6個(gè)攝像頭(其中5 個(gè)高清攝像頭和1 個(gè)低清攝像頭)拍攝到的1 501個(gè)行人。

        以上數(shù)據(jù)集是目前開源ReID 數(shù)據(jù)集中最大的3 個(gè)數(shù)據(jù)集,它們總體包含了多季節(jié)、多時(shí)段、高清與低清攝像頭,具有豐富的場景和背景以及復(fù)雜的光照變化,因此也是最具代表性的。

        ReID 最主要的兩個(gè)性能指標(biāo)是首選準(zhǔn)確率(Rank-1)和平均準(zhǔn)確率(mAP)。其中Rank-1 表示每個(gè)查詢圖片對應(yīng)的第一(最相似)返回結(jié)果的平均準(zhǔn)確率;mAP 表示返回查詢結(jié)果的平均精度均值,查詢中正確的結(jié)果越靠前得分就越高。

        3.2 超參數(shù)設(shè)置

        訓(xùn)練過程中有兩個(gè)超參數(shù)需要確定,其中一個(gè)是全局灰度轉(zhuǎn)換概率pg。取超參數(shù)pg分別為0.01、0.03、0.05、0.07、0.1、0.2、0.3、…、1,使用ReID Baseline 基準(zhǔn)在Market-1501 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),對每個(gè)參數(shù)取值進(jìn)行3 次獨(dú)立重復(fù)實(shí)驗(yàn)取平均值得到的最終結(jié)果如圖5。從圖5 中可以看出,當(dāng)pg=0.05時(shí),模型的性能在評價(jià)指標(biāo)Rank-1和mAP上都一致地取得了最大值,最佳結(jié)果在Rank-1 和mAP 上比基準(zhǔn)提高了0.7個(gè)百分點(diǎn)和1.9 個(gè)百分點(diǎn);在同樣使用reRank(表示對檢索結(jié)果使用了重排序技術(shù))的條件,此時(shí)Rank-1 和mAP 比基準(zhǔn)提高了1.5 個(gè)百分點(diǎn)和1.7 個(gè)百分點(diǎn)。當(dāng)pg>0.2 時(shí),模型性能會受到負(fù)面影響。

        圖5 全局灰度轉(zhuǎn)換中不同超參數(shù)下的模型性能Fig.5 Model performance in global grayscale transformation under different hyper-parameters

        另一個(gè)需要確定的超參數(shù)是局部灰度轉(zhuǎn)換概率pl,在Market-1501 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)得到的最終結(jié)果如圖6 所示。從圖6中可以看出,當(dāng)pl=0.4和pl=0.7時(shí)模型可以取得較好的性能,而當(dāng)pl=0.4 時(shí)模型的綜合性能最好,最佳結(jié)果在Rank-1 和mAP 上比基準(zhǔn)提高了1.2 個(gè)百分點(diǎn)和3.3 個(gè)百分點(diǎn);在同樣使用reRank 的條件下,此時(shí)Rank-1 和mAP 比基準(zhǔn)提高了1.5 個(gè)百分點(diǎn)和2.1 個(gè)百分點(diǎn)。不論pl取何值都不會對模型的性能帶來負(fù)面的影響。

        圖6 局部灰度轉(zhuǎn)換中不同超參數(shù)下的模型性能Fig.6 Model performance in local grayscale transformation under different hyper-parameters

        3.3 性能比較

        局部灰度轉(zhuǎn)換與全局灰度轉(zhuǎn)換的最佳結(jié)果相比,精度在Rank-1 和mAP 上分別提高了0.5 個(gè)百分點(diǎn)和1.4 個(gè)百分點(diǎn);在同樣使用reRank 的條件,mAP 提高了0.4 個(gè)百分點(diǎn)。這表明局部灰度替換在不使用reRank時(shí)優(yōu)勢更明顯。然而圖6也表明局部灰度替換所帶來的性能提升不夠穩(wěn)定,具有比較明顯的波動變化,而全局灰度轉(zhuǎn)換所帶來的性能提升比較穩(wěn)定。因此本文通過結(jié)合兩者來提升性能表現(xiàn)的穩(wěn)定性。

        在結(jié)合使用全局灰度轉(zhuǎn)換與局部灰度轉(zhuǎn)換時(shí),由于全局灰度替換的性能表現(xiàn)比較穩(wěn)定,并且在pg=0.05 時(shí)取得最佳性能,因此本文實(shí)驗(yàn)固定全局灰度替換的超參數(shù)值為pg=0.05,再確定局部灰度替換的超參數(shù)。使用ReID Baseline 基準(zhǔn)在Market-1501 數(shù)據(jù)集上進(jìn)行兩者的結(jié)合實(shí)驗(yàn),結(jié)果如圖7所示。從圖7 可以看出,兩者結(jié)合使用后模型性能的提升表現(xiàn)更為穩(wěn)定且波動更小,并且在局部灰度轉(zhuǎn)換的超參數(shù)取值pl=0.4時(shí),模型的綜合性能表現(xiàn)最佳。因此本文在接下來的實(shí)驗(yàn)中設(shè)置超參數(shù)為pg=0.05,pl=0.4。

        圖7 全局灰度轉(zhuǎn)換與局部灰度轉(zhuǎn)換結(jié)合的模型性能Fig.7 Model performance with combining global grayscale transformation with local grayscale transformation

        本文方法與先進(jìn)方法在三個(gè)數(shù)據(jù)集上的性能比較如表2~4 所示,其中:+GGT 表示使用全局灰度轉(zhuǎn)換,+LGT 表示使用局部灰度轉(zhuǎn)換,+GGT&LGT 表示上述兩者的結(jié)合使用;+reRank 表示對檢索結(jié)果使用了重排序技術(shù);括號內(nèi)數(shù)值表示相對于原始基準(zhǔn)所提升的性能,如表2 的SB+GCT(94.6%)與SB(94.5%)相比,Rank-1提升了0.1個(gè)百分點(diǎn)。

        表2 Market-1501數(shù)據(jù)集上不同方法的性能比較 單位:%Tab.2 Performance comparison of different methods on Market-1501 dataset unit:%

        Strong Baseline 和FastReID 這兩個(gè)基準(zhǔn)訓(xùn)練時(shí)默認(rèn)使用了隨機(jī)翻轉(zhuǎn)、隨機(jī)裁剪、隨機(jī)擦除等數(shù)據(jù)增強(qiáng)方法,本文方法在使用它們的基礎(chǔ)上能進(jìn)一步提升模型精度,這表明本文的方法可以與其他數(shù)據(jù)增強(qiáng)方法結(jié)合,并且它們是互補(bǔ)的。據(jù)筆者所知,F(xiàn)astReID 上應(yīng)用本文方法在MTMC17 數(shù)據(jù)集上取得了目前的最高檢索精度。

        表3 DukeMTMC數(shù)據(jù)集上不同方法的性能比較 單位:%Tab.3 Performance comparison of different methods on DukeMTMC dataset unit:%

        除此之外,Strong Baseline 和FastReID 這兩個(gè)基準(zhǔn)默認(rèn)使用Circle Loss 作為損失函數(shù)來進(jìn)行模型訓(xùn)練,這表明本文的方法可以與該損失函數(shù)結(jié)合,并且它們是互補(bǔ)的。另外Strong Baseline 的報(bào)告表明,Circle Loss 的使用幫助模型性能在Rank-1和mAP 指標(biāo)上分別提升0.4個(gè)百分點(diǎn)和0.2個(gè)百分點(diǎn)。從表2 可以看出本文所提出的局部灰度轉(zhuǎn)換(LGT)所帶來的性能提升更大。

        從表2到表4還可以看出,F(xiàn)astReID 明顯優(yōu)于當(dāng)前的先進(jìn)方法,本文方法可以在其基礎(chǔ)上幫助模型顯著提升性能,這驗(yàn)證了本文方法的有效性和通用性。

        表4 MSMT17數(shù)據(jù)集上不同方法的性能比較 單位:%Tab.4 Performance comparison of different methods on MSMT17 dataset unit:%

        3.4 跨域?qū)嶒?yàn)

        一種方法的跨域性能表現(xiàn)可以檢驗(yàn)該方法是否切實(shí)提高了模型所提取特征的魯棒性。為了進(jìn)一步探究本文方法在跨域?qū)嶒?yàn)中的表現(xiàn),使用全局灰度轉(zhuǎn)換在Strong Baseline 上進(jìn)行以下跨域?qū)嶒?yàn),結(jié)果如表5所示。

        在表5 中,本文使用Market-1501 數(shù)據(jù)集和DukeMTMC 數(shù)據(jù)集進(jìn)行跨域性能評估。其中:+REA 表示在模型訓(xùn)練中使用了隨機(jī)擦除的技巧,-REA 表示關(guān)閉它;M→D 表示在Market-1501 上訓(xùn)練模型然后在DukeMTMC 上評估模型;D→M 同理。實(shí)驗(yàn)結(jié)果表明,隨機(jī)擦除雖能顯著提高ReID 模型的性能,但會造成模型在跨域測試時(shí)性能顯著下降,而本文所提的全局灰度轉(zhuǎn)換(GGT)能顯著提高REID 模型的跨域性能,這表明本文方法有助于增強(qiáng)特征的魯棒性。

        表5 全局灰度轉(zhuǎn)換與隨機(jī)擦除的跨域性能比較 單位:%Tab.5 Cross-domain performance comparison of global grayscale transformation with random erasing unit:%

        4 結(jié)語

        本文提出了一種簡單有效的行人重識別數(shù)據(jù)增強(qiáng)方法,該方法既不需要像GAN 那樣進(jìn)行大規(guī)模訓(xùn)練也不會引入噪聲。通過樣本圖像的隨機(jī)灰度轉(zhuǎn)換可以增加訓(xùn)練樣本的數(shù)量和多樣性,并讓圖像的結(jié)構(gòu)信息和顏色信息在模型訓(xùn)練中相互擬合,從而減少顏色偏差對ReID 的不利影響。本文通過在多個(gè)數(shù)據(jù)集和測試基準(zhǔn)上進(jìn)行實(shí)驗(yàn),驗(yàn)證了所提方法的有效性。

        猜你喜歡
        方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        學(xué)習(xí)方法
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        国产又黄又爽又色的免费| 中文亚洲第一av一区二区| 亚洲一区二区三区日韩在线观看| 未发育成型小奶头毛片av| 无码av免费精品一区二区三区| 青春草国产视频| 在线视频日韩精品三区| 亚洲av不卡一区男人天堂| 内地老熟女老少配视频| 国产精品刺激好大好爽视频| 人妻av午夜综合福利视频| 日本女优激情四射中文字幕| 性色欲情网站| 日本大片免费观看完整视频| 强d漂亮少妇高潮在线观看| 亚洲不卡免费观看av一区二区| 色欲综合一区二区三区| 国产精品露脸视频观看| 亚洲av伊人久久综合性色| 在线天堂av一区二区| 亚洲国产成人久久综合| 欧洲色综合| 99久久免费精品色老| 99久久婷婷国产亚洲终合精品| 黄网站欧美内射| 无码中文日韩Av| 国产精品三级在线不卡| 美女扒开屁股让男人桶| 欧美亚洲日韩国产人成在线播放| 亚洲欧洲国无码| 青青久在线视频免费视频| 少妇人妻在线无码天堂视频网| 国产女人成人精品视频| 亚洲天堂av大片暖暖| 国产精品视频亚洲二区| 欧洲人妻丰满av无码久久不卡| 99re6久精品国产首页| 成人国产一区二区三区av| 国产伦人人人人人人性| 欧美一级欧美一级在线播放| 中文字幕人妻少妇久久|