亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于復(fù)合尺度與多粒度聯(lián)合特征的行人重識(shí)別

        2022-12-30 07:51:46程俁博雷景生
        關(guān)鍵詞:特征實(shí)驗(yàn)模型

        程俁博,雷景生

        (上海電力大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,上海 201300)

        0 引 言

        行人重識(shí)別屬于行人檢索方向的子問(wèn)題,主要研究在由不同攝像頭的監(jiān)控區(qū)域下、不同時(shí)段拍攝的行人圖像庫(kù)中,檢索到與目標(biāo)人物為同一類(lèi)的行人圖像[1]。近些年來(lái),深度學(xué)習(xí)方法逐漸取代傳統(tǒng)的方法。

        在特征表示方面,大部分算法通過(guò)利用不同的深度學(xué)習(xí)網(wǎng)絡(luò)提取特征,然后進(jìn)行度量學(xué)習(xí)計(jì)算相似度,目前主流算法主要有利用特征金字塔[2](DPFL)、多尺度模型[3](MuDeep)、3D空間語(yǔ)義模型[4](SAN)等模型提取特征,當(dāng)遇到遮擋或者光照的干擾時(shí),全局特征的判別能力減弱,因此漸漸開(kāi)始局部特征的研究。常見(jiàn)的局部特征提取思想包括人體姿態(tài)導(dǎo)向模型[5](PDC)、屬性學(xué)習(xí)模型[6](APR)、結(jié)構(gòu)化表征學(xué)習(xí)[7](PSRL)、特征切塊模型[8](PCB)和多分支模型[9](MGN)等,提取不同粒度下的具有表征能力的深度特征。同時(shí),隨著注意力機(jī)制的提出與發(fā)展,很多專(zhuān)家學(xué)者將注意力模型[10-12]用在了行人重識(shí)別實(shí)驗(yàn)上,并取得了良好的識(shí)別效果。

        考慮到只采用端到端的方式會(huì)割裂尺度與粒度間的關(guān)系,造成信息的丟失。本文采用ResNet50[13]作為基礎(chǔ)骨干網(wǎng)絡(luò),提出一種不同尺度與不同粒度信息相結(jié)合的算法策略,設(shè)計(jì)出多分支網(wǎng)絡(luò),對(duì)基礎(chǔ)網(wǎng)絡(luò)的最后三層卷積輸出做不同尺度的提取,兼顧不同層的信息,且骨干網(wǎng)絡(luò)的最后輸出切分為不同粒度,分別提取具有表征能力的特征,然后利用全局池化、卷積歸一等操作,對(duì)不同粒度信息進(jìn)行更加深度的特征提取,增強(qiáng)網(wǎng)絡(luò)對(duì)多粒度表征信息的識(shí)別能力。

        1 行人重識(shí)別方法研究

        1.1 行人重識(shí)別網(wǎng)絡(luò)架構(gòu)

        本文所提出的行人重識(shí)別架構(gòu)主要由3個(gè)部分組成,分別是基礎(chǔ)骨干網(wǎng)絡(luò)(backbone)、復(fù)合尺度模塊(composite scale module)和多粒度模塊(multi granularity module)。

        如圖1所示。Backbone為ResNet50網(wǎng)絡(luò),提取到行人特征后,復(fù)合尺度模塊和多粒度模塊共同進(jìn)行深度特征提取融合。復(fù)合尺度模塊由3個(gè)分支組成,分別為P0、P1、P2分支,分別從網(wǎng)絡(luò)不同深度提取行人特征。多粒度模塊由P3、P4分支組成,分別提取不同粒度下的行人顯著特征,作為全局特征的補(bǔ)充。最后將復(fù)合尺度模塊與多粒度模塊的特征融合,形成最終用于身份識(shí)別預(yù)測(cè)的特征。

        圖1 行人重識(shí)別總體架構(gòu)

        為了深度提取更多行人特征,本文的基礎(chǔ)網(wǎng)絡(luò)采用ResNet50網(wǎng)絡(luò)的前5層,即Conv1至Layer4,復(fù)合尺度模塊的分支P0,聯(lián)合Layer1、Layer2和上采樣層輸出特征,提取低層網(wǎng)絡(luò)的特征,作為高層特征的補(bǔ)充,然后通過(guò)GAP(global average pooling)將特征降為2048×1×1大小,然后經(jīng)過(guò)1×1卷積、批量歸一化、全連接等操作,得到最終的特征表示fg_p0。分支P1與分支P2與P0類(lèi)似,不同的是,分支P1特征來(lái)自于Layer2、Layer3和上采樣層,分支P2特征來(lái)自于Layer3和Layer4,實(shí)現(xiàn)了不同尺度的特征提取。

        為了通過(guò)空間注意力機(jī)制捕捉到網(wǎng)絡(luò)多通道之間的關(guān)系,避免細(xì)微特征的遺漏,多粒度模塊的分支P3由Layer3、Layer4和Bottleneck層組成,通過(guò)GAP和GMP(global max pooling)將提取后的特征分為大小為2048×1×1的g_p3和大小為2048×2×1的p_p3,然后經(jīng)過(guò)1×1卷積、批量歸一化、全連接等操作,得到最終的特征表示fg_p3和fg_p0。分支P4的特征信息與分支P3相同,區(qū)別在于GAP和GMP后分為2048×1×1大小的g_p4和2048×3×1的p_p4。在conv1×1卷積后,將rg_p0至rg_p4所有特征連接起來(lái),用于用戶ID預(yù)測(cè),同時(shí)利用批次難樣本三元組損失[14](batch hard triplet loss)和交叉熵?fù)p失函數(shù)(cross entropy loss)對(duì)全局特征和細(xì)粒度特征進(jìn)行聯(lián)合訓(xùn)練,使得各個(gè)分支聯(lián)合學(xué)習(xí),提高網(wǎng)絡(luò)泛化能力。

        1.2 復(fù)合尺度模塊

        復(fù)合尺度模型[15]是指對(duì)輸入圖像的不同深度層次的采樣,通常多尺度下的粒度包含的特征信息也會(huì)不一樣,一般而言,在細(xì)粒度特征圖譜中能看到更多的顯著細(xì)節(jié),在粗粒度采樣中能看到特征的趨勢(shì)性。特征金字塔通過(guò)利用一組不同分辨率圖像提取特征,每個(gè)層級(jí)都能提取到不同尺度特征表示,且特征表示的語(yǔ)義信息較多。

        復(fù)合尺度模塊從ResNet50網(wǎng)絡(luò)的不同深度進(jìn)行多次采樣,其中包括Layer2層、Layer3層以及Layer4層,然后將不同尺度的特征分別進(jìn)行粗粒度提取和細(xì)粒度劃分或其它等操作,最后將通過(guò)不同尺度的特征信息融合,實(shí)現(xiàn)網(wǎng)絡(luò)對(duì)信息的最大化利用。由表1可以看出,不同分支的輸入大小不同,由于卷積核和感受野的大小不同,會(huì)形成尺度不同的特征圖,在復(fù)合尺度模塊通過(guò)上采樣層將維度統(tǒng)一為2018×H×W,后再進(jìn)行其它操作。

        表1 網(wǎng)絡(luò)不同分支參數(shù)

        1.3 多粒度模塊

        在提取行人特征時(shí),可以分為粗粒度全局特征和細(xì)粒度局部特征[9],粗粒度模塊可以捕獲行人的全局特征,通過(guò)身上最顯著的特征信息,可以區(qū)分不同行人的身份。但是在復(fù)雜的場(chǎng)景中,僅利用粗粒度信息是很難達(dá)到行人重識(shí)別的目的,在粗粒度層面,很多細(xì)粒度的特征被忽略,因此,為了更深度全面地挖掘行人的特征,一些研究者通過(guò)將人體語(yǔ)義進(jìn)行分割對(duì)齊,計(jì)算語(yǔ)義之間的距離,從而判斷語(yǔ)義的類(lèi)間相似性。分塊策略又名軟分割策略,是指通過(guò)全局池化的方法將特征圖橫向分為幾個(gè)模塊,PCB模型通過(guò)將人體特征橫向切割成6部分,HPM[16](horizontal pyramid matching)模型將特征圖橫向分為8個(gè)部分,本文利用軟分割策略,由表1可知,將行人特征圖片分為一級(jí)粗粒度、二級(jí)粒度和三級(jí)粒度,粗粒度特征與細(xì)粒度特征相結(jié)合,更全面地挖掘信息并保留表征力強(qiáng)的特征。多粒度模塊如圖2所示。

        圖2 多粒度模塊

        1.4 損失函數(shù)

        目前交叉熵?fù)p失函數(shù)和三元組損失函數(shù)廣泛的應(yīng)用于分類(lèi)問(wèn)題和度量學(xué)習(xí)中,在深度reID領(lǐng)域中,交叉熵?fù)p失函數(shù)和三元組損失函數(shù)常應(yīng)用于基于特征學(xué)習(xí)和度量學(xué)習(xí)的模型方法中。在全局特征提取過(guò)程中,使用交叉熵?fù)p失函數(shù)訓(xùn)練網(wǎng)絡(luò),而在基于細(xì)粒度的部分特征網(wǎng)絡(luò)中,為了避免因?yàn)楸尘案蓴_和遮擋導(dǎo)致等原因的粒度不對(duì)齊問(wèn)題,使用交叉熵?fù)p失函數(shù),從而更好地?cái)M合網(wǎng)絡(luò)模型并且避免無(wú)意義的訓(xùn)練過(guò)程。交叉熵?fù)p失函數(shù)如式(1)所示

        (1)

        式中:C為類(lèi)別數(shù)目,Wk表示行人重識(shí)別網(wǎng)絡(luò)W的第k行參數(shù),fi是第i個(gè)樣本的特征表示,yi是第i個(gè)樣本的所屬類(lèi)別,b為矩陣的偏移項(xiàng)。

        三元組損失函數(shù)常應(yīng)用于度量學(xué)習(xí),在深度行人重識(shí)別任務(wù)中,三元組損失函數(shù)能解決“類(lèi)間相似、類(lèi)內(nèi)差異”的問(wèn)題,但是存在著收斂速度慢,容易過(guò)擬合的問(wèn)題,因此針對(duì)這種情況,使用批次難樣本三元組損失函數(shù)TriHard既能夠保留三元組損失函數(shù)的特性,也能夠從多個(gè)維度約束網(wǎng)絡(luò),提高效率,達(dá)到良好的訓(xùn)練效果。

        批次難樣本三元組損失函數(shù)的數(shù)學(xué)表達(dá)式為

        (2)

        最終的損失函數(shù)是由以上兩者中損失函數(shù)進(jìn)行組合,表達(dá)式為

        LTotal=λ1LSoftmax+λ2LTriHard

        (3)

        式中:λ1和λ2分別為交叉熵?fù)p失函數(shù)和批次難樣本損失函數(shù)系數(shù)。

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)所采用的硬件平臺(tái)和軟件環(huán)境如下,操作系統(tǒng)為Ubuntu 18.04,CPU為Intel?CoreTMi5-7500 Processor,GPU為NVIDIA TITAN XP-16 GB,深度學(xué)習(xí)框架為Pytorch 1.2,Python版本為3.6.8。用于訓(xùn)練和測(cè)試的輸入圖像大小為384×128,基本數(shù)據(jù)增強(qiáng)方法包括隨機(jī)擦除、Dropout等,優(yōu)化器是Adam,在訓(xùn)練過(guò)程中,P=8,K=16,BatchSize為128,迭代次數(shù)為1000,在訓(xùn)練期間采用Warmup策略,并且采取端到端的訓(xùn)練方式。模型的主要評(píng)估指標(biāo)包括Rank@k(k=1,3,5,10) 和mAP(mean average precision)。

        2.2 實(shí)驗(yàn)數(shù)據(jù)集

        本文實(shí)驗(yàn)分別采取了在目前行人重識(shí)別領(lǐng)域的3個(gè)主流公開(kāi)數(shù)據(jù)庫(kù)上進(jìn)行模型實(shí)驗(yàn)的有效性驗(yàn)證,分別是Market-1501數(shù)據(jù)集、DukeMTMC-reID數(shù)據(jù)集和CUHK03-detected數(shù)據(jù)集。

        Market-1501數(shù)據(jù)集[17]由6個(gè)攝像頭拍攝,共含1501位行人、32 668個(gè)行人矩陣框,其中訓(xùn)練集有751人,12 936張行人圖像;測(cè)試集有750人,9732張行人圖像,以及3368張查詢圖像。

        DukeMTMC-reID數(shù)據(jù)集[18]由8個(gè)攝像頭拍攝,共含1812位行人,36 411張行人矩陣圖片,其中訓(xùn)練集有702人,116 522張圖像;測(cè)試集有702人,117 661張圖像。

        CUHK03-detected數(shù)據(jù)集[19]是在中國(guó)香港大學(xué)校園采集的大型數(shù)據(jù)集,由10個(gè)攝像頭共同拍攝,覆蓋多個(gè)時(shí)段。其中,訓(xùn)練集767個(gè)行人,7365張行人圖片;測(cè)試集700個(gè)行人,5223張圖片;1400張查詢圖片,剩下的11 188張行人圖片作為Gallery圖庫(kù)。

        2.3 評(píng)價(jià)指標(biāo)

        行人重識(shí)別研究普遍利用平均精確均值(mAP)和首中準(zhǔn)確率(Rank@1)兩種評(píng)價(jià)指標(biāo)反應(yīng)網(wǎng)絡(luò)的精準(zhǔn)度。

        平均精確均值可以反映模型在收到Query請(qǐng)求后,返回的正確檢索結(jié)果在返回列表中的排名,可以全面衡量行人重識(shí)別模型的性能,如式(4)所示

        (4)

        Rank@n表示模型返回列表中n張圖片中屬于目標(biāo)類(lèi)別的概率,首中準(zhǔn)確率(Rank@1)表示查詢結(jié)果中排名第一的圖像為目標(biāo)類(lèi)別的概率。

        2.4 實(shí)驗(yàn)結(jié)果與結(jié)果仿真

        2.4.1 實(shí)驗(yàn)結(jié)果

        本次實(shí)驗(yàn)主要在3大主流數(shù)據(jù)集CUHK03-detected、DukeMTMC-reID 和Market-1501上進(jìn)行實(shí)驗(yàn)測(cè)試,圖3為模型在3大數(shù)據(jù)集上的結(jié)果。其中關(guān)于損失函數(shù),出于“首先確定行人的身份問(wèn)題,再進(jìn)行細(xì)節(jié)的確認(rèn)和特征辨別”的思想考慮,因此實(shí)驗(yàn)環(huán)境中損失函數(shù)的參數(shù)設(shè)置為λ1=1和λ2=2。

        圖3 算法在數(shù)據(jù)集上的性能表現(xiàn)

        實(shí)驗(yàn)結(jié)果由圖3可以發(fā)現(xiàn),在CUHK03-detected數(shù)據(jù)集上,Rank@1=85.24%,Rank@3=87.57%,Rank@5=90.36%,Rank@10=94.57%,平均準(zhǔn)確率mAP=86.48%。在DukeMTMC-reID數(shù)據(jù)集上,Rank@1=91.89%,Rank@3=94.48%,Rank@5=95.20%,Rank@10=96.36%,平均準(zhǔn)確率mAP=90.11%。在Market-1501數(shù)據(jù)集上,Rank@1=96.21%,Rank@3=97.60%,Rank@5=97.86%,Rank@10=98.53%,平均準(zhǔn)確率mAP=94.12%。

        2.4.2 消融實(shí)驗(yàn)

        本算法模型主要分為3個(gè)部分,即多尺度模型、多粒度模型和聯(lián)合部分,為了探討不同部分對(duì)于算法模型識(shí)別率的影響,實(shí)驗(yàn)分別對(duì)多尺度模型和多粒度模型存在的必要性做了驗(yàn)證,結(jié)果見(jiàn)表2~表4。其中,RK表示re-ranking技巧,是指基于k階導(dǎo)數(shù)編碼的方式,計(jì)算出行人圖像特征的杰卡德距離,然后將圖片的馬氏距離與杰卡德距離加權(quán)求和得到最終的結(jié)果,對(duì)需要識(shí)別測(cè)試的圖庫(kù)中的圖片進(jìn)行重新排序,從而提升性能指標(biāo)。

        由表2~表4實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),與基礎(chǔ)網(wǎng)絡(luò)ResNet50相比,復(fù)合尺度模塊、多粒度模塊以及聯(lián)合特征對(duì)行人重識(shí)別的效果有所提升。

        表2 CUHK03-detected數(shù)據(jù)集的消融實(shí)驗(yàn)結(jié)果

        表4 Market-1501數(shù)據(jù)集的消融實(shí)驗(yàn)結(jié)果

        在CUHK03-detected數(shù)據(jù)集上,通過(guò)表2可以發(fā)現(xiàn),在rank@1和mAP指標(biāo)上,與baseline相比,復(fù)合尺度模塊分別提升了20.16%和21.50%,多粒度模塊分別提升了21.23%和22.19%。本文模型與baseline模型相比,rank@1和mAP分別提升了27.78%和28.79%,同時(shí)利用reran-king技巧,使效果再度提高1.83%和7.45%,最終達(dá)到了84.71%和86.26%,因此可以看出reranking技巧提升效果明顯。

        在DukeMTMC-reID數(shù)據(jù)集上,通過(guò)表3可以發(fā)現(xiàn),在rank@1和mAP指標(biāo)上,與baseline相比,復(fù)合尺度模塊分別提升了5.52%和3.24%,多粒度模塊分別提升了5.19%和9.64%。本文模型與baseline模型相比,rank@1和mAP分別提升了6.23%和10.24%,同時(shí)利用reranking技巧,使效果再度提高2.35%和11.15%,最終達(dá)到了91.89%和91.19%。

        表3 DukeMTMC-reID數(shù)據(jù)集的消融實(shí)驗(yàn)結(jié)果

        通過(guò)表4可以發(fā)現(xiàn),與baseline相比,多粒度模塊和單尺度模塊對(duì)實(shí)驗(yàn)效果有所提升,在rank@1和mAP指標(biāo)上,復(fù)合尺度模塊分別提升了3.75%和7.74%,多粒度模塊分別提升了2.65%和9.36%。本文模型與baseline模型相比,rank@1和mAP分別提升了7.40%和14.50%,同時(shí)利用reranking技巧,使效果達(dá)到了96.21%和94.12%。

        2.4.3 實(shí)驗(yàn)結(jié)構(gòu)討論

        本模型所選用的基礎(chǔ)骨干模型為ResNet,初始的參數(shù)權(quán)重是在imageNet上預(yù)訓(xùn)練過(guò)的,為了驗(yàn)證本Backbone的性能,實(shí)驗(yàn)選用ResNet家族性能較為優(yōu)越出眾的變體網(wǎng)絡(luò)SE-ResNeXt50[20]作為基礎(chǔ)網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn),同時(shí)P3和P4分支的BottleNeck替換成SE-ResNeXt BottleNeck模塊,由于SE-ResNeXt50網(wǎng)絡(luò)參數(shù)較多,擬合難度較大,因此在實(shí)驗(yàn)部分迭代次數(shù)為1500。

        由消融實(shí)驗(yàn)部分可知,多粒度模型存在具有其必要性,但是分塊策略的具體數(shù)量需要確定,因此為了探究實(shí)驗(yàn)中采用的軟分割數(shù)目的有效性,在多粒度模塊中進(jìn)行粒度的測(cè)試實(shí)驗(yàn),鑒于ReID深度學(xué)習(xí)領(lǐng)域,經(jīng)典方法PCB和HPM不同分割策略的出色性能表現(xiàn),本文也對(duì)6等分和8等分策略進(jìn)行了驗(yàn)證,P3和P4分支的分別采用了“1-2-3”等分粒度、“1-2-4”等分粒度、“1-3-4”等分粒度、“1-6”等分粒度和“1-8”等分粒度,其中“1-6”和“1-8”粒度的劃分實(shí)驗(yàn),取消了P4分支,只保留P0至P3分支,同時(shí),“1-2-3”等分策略即為ResNet50實(shí)驗(yàn)結(jié)果,因此不再贅述。

        由表5可以發(fā)現(xiàn),在Market-1501數(shù)據(jù)集上,首先對(duì)于不同的Backbone網(wǎng)絡(luò),本模型采用的ResNet和SE-ResNeXt50對(duì)比,可以看到ResNet50網(wǎng)絡(luò)具有良好的性能表現(xiàn),而在分類(lèi)任務(wù)中性能優(yōu)越的SE-ResNeXt50出現(xiàn)了精度下降的現(xiàn)象,rank@1和mAP相較于ResNet50分別下降3.85%和0.84%,具體分析可能是如下原因:①網(wǎng)絡(luò)較為深入,難以進(jìn)行訓(xùn)練;②數(shù)據(jù)集信息較少,在SE block中壓縮操作中丟失部分特征信息;③網(wǎng)絡(luò)模型復(fù)雜,參數(shù)量較多,對(duì)不同的特征學(xué)習(xí)分類(lèi),出現(xiàn)了過(guò)擬合現(xiàn)象。同時(shí)由于SE-ResNeXt50網(wǎng)絡(luò)的大型架構(gòu)和參數(shù)計(jì)算,使得網(wǎng)絡(luò)訓(xùn)練時(shí)間較長(zhǎng),迭代次數(shù)也比ResNet50多較多。同時(shí),在水平劃分粒度實(shí)驗(yàn)中可以發(fā)現(xiàn),對(duì)于多分支多粒度網(wǎng)絡(luò),當(dāng)深層的輸出特征使用較多的分塊策略時(shí),效果往往也有所提升,而對(duì)于分支較少的細(xì)粒度模型而言,往往是較大的分塊策略使得平均準(zhǔn)確率較高,而較多的分塊會(huì)破壞細(xì)粒度特征原有的語(yǔ)義信息。綜上,考慮速度與精度問(wèn)題,本文最終選擇Backbone為ResNet50、分塊策略為“1-2-3”的組織架構(gòu)。

        表5 Market-1501數(shù)據(jù)集上不同結(jié)構(gòu)的實(shí)驗(yàn)結(jié)果

        2.4.4 實(shí)驗(yàn)結(jié)果可視化

        為了驗(yàn)證本模型中的復(fù)合尺度模塊和整體算法的有效性,對(duì)網(wǎng)絡(luò)最后提取的特征圖進(jìn)行可視化處理,可視化實(shí)驗(yàn)選取了3大數(shù)據(jù)集中的圖片,通過(guò)通道像素值絕對(duì)值相加[21]的辦法,最終得到原始圖像、基線方法和本文的可視化結(jié)果,由于本文網(wǎng)絡(luò)為多分支結(jié)構(gòu),因此可視化采用信息量較大的P3分支的粗粒度特征,高層映射為ResNet50網(wǎng)絡(luò)的最終輸出特征。實(shí)驗(yàn)結(jié)果如圖4所示。

        圖4 可視化的特征激活圖像

        由圖4可以發(fā)現(xiàn),由于圖像存在的清晰與模糊問(wèn)題,基線方法在模糊的圖片上,網(wǎng)絡(luò)的注意力集中在某一區(qū)域,并非全局特征,因此會(huì)遺漏很多重要的表征信息,而在較為清晰的圖像上,基線方法表現(xiàn)的比非清晰圖像更具有全局性,但是本文方法無(wú)論是在模糊圖像還是清晰圖像,都關(guān)注到了全局特征,并且不放過(guò)細(xì)節(jié)和不受環(huán)境干擾,將行人圖像提取的較為完整。

        本實(shí)驗(yàn)將最終測(cè)試評(píng)估結(jié)果可視化,如圖5所示,左側(cè)為查詢行人圖像,右側(cè)為Gallery圖庫(kù)中檢測(cè)到的匹配圖像,白色框表示查詢出錯(cuò),ID不為同一人。由圖5可以發(fā)現(xiàn),匹配的行人圖像準(zhǔn)確率較高,模型的識(shí)別效果較好,在錯(cuò)誤的識(shí)別分類(lèi)中,Gallery庫(kù)中存在與Query圖像較為相似的穿著打扮,如相同顏色的衣服和款式,這同時(shí)也說(shuō)明,細(xì)粒度模塊的存在使網(wǎng)絡(luò)不僅注意到了全局特征,也注意到了局部信息的表征效果。因此本模型具有較高的準(zhǔn)確率和有效性。

        圖5 行人重識(shí)別效果可視圖

        2.4.5 與主流算法比較

        為了驗(yàn)證本算法的有效性,將本文算法與當(dāng)前幾種主流算法識(shí)別性能進(jìn)行比較,如表6所示,這些對(duì)照方法的網(wǎng)絡(luò)參數(shù)均為最優(yōu)值,對(duì)照組包括OSNet、PCB等經(jīng)典的深度學(xué)習(xí)算法,同時(shí)包括最新的Top-DB-Net、OGNet和CBN模型等。

        表6 本文算法與主流算法評(píng)價(jià)指標(biāo)比較/%

        由表6可發(fā)現(xiàn),在CUHK03-detected數(shù)據(jù)集上,與最新的算法OGNet相比,rank@1提高了22.28%,mAP提高了24.41%,與經(jīng)典細(xì)粒度算法MGN雖然rank@1只有0.78%的提升,但是在mAP方面卻提高了18.21%,與最新的Top-DB-Net相比,rank@1和mAP分別提升了16.08%和12.81%;在DukeMTMC-reID數(shù)據(jù)集上,與經(jīng)典分塊策略模型的PCB相比,rank@1提高了7.84%,mAP提高了13.94%,與最新的CBN相比,rank@1提高了7.04%,mAP提高了12.74%;由于在Market-1501數(shù)據(jù)集上,大量的算法使得性能達(dá)到了飽和,但是本算法與分塊策略模型HPM相比,rank@1仍提高了1.61%,mAP提高了5.91%。因此,本文所提算法具有較高的精確度,并在目前主流算法中有一定的優(yōu)勢(shì)。

        3 結(jié)束語(yǔ)

        本文提出了一種基于復(fù)合尺度與多粒度聯(lián)合特征的行人重識(shí)別算法。利用復(fù)合尺度模塊提取不同深度的全局特征,通過(guò)多粒度模塊將復(fù)合尺度的全局特征進(jìn)行多粒度劃分,使得網(wǎng)絡(luò)能夠在不同的粒度中進(jìn)行區(qū)域的顯著特征提取,利用不同尺度信息補(bǔ)充了單一粒度信息的不完整性,最后對(duì)粗粒度語(yǔ)義信息進(jìn)行全局平均池化和細(xì)粒度語(yǔ)義信息全局最大池化,以增強(qiáng)特征的判斷力。針對(duì)損失函數(shù),利用批次難樣本三元組損失函數(shù)進(jìn)行樣本約束,有效地解決身份丟失問(wèn)題。通過(guò)不同的數(shù)據(jù)集實(shí)驗(yàn),說(shuō)明本文方法具有良好的泛化性以及較強(qiáng)的識(shí)別能力。接下來(lái)的工作是探索本方法在跨模態(tài)領(lǐng)域中的研究,進(jìn)一步提高精度。

        猜你喜歡
        特征實(shí)驗(yàn)模型
        一半模型
        記一次有趣的實(shí)驗(yàn)
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        亚洲精品无码不卡在线播he | 亚洲av一二三四区四色婷婷| 毛茸茸的中国女bbw| 人妻中出精品久久久一区二| 伊人久久综合狼伊人久久| 亚洲中文久久精品字幕| 性大毛片视频| 欧美午夜精品久久久久久浪潮| 亚洲av色在线观看网站| 国产91人妻一区二区三区| 国产成人无码av一区二区| 91精彩视频在线观看| 精品少妇人妻久久免费| 美女视频在线观看亚洲色图 | 亚洲精品视频在线一区二区| 中文www新版资源在线| 毛片毛片免费看| 青青草视频在线免费观看91| 五月开心婷婷六月综合| 精品人妻久久一日二个| 色费女人18毛片a级毛片视频| 免费人成再在线观看网站| 国产熟女av一区二区三区四季| 午夜精品免费视频一区二区三区| 99久久精品午夜一区二区| 国产黄色片在线观看| 女优视频一区二区三区在线观看| 日本熟女中文字幕在线| 成人爽a毛片在线视频| 欧美日本道免费二区三区| av天堂中文亚洲官网| 亚洲av无码乱码在线观看牲色| 99久久久无码国产精品免费砚床 | 亚洲精品一区久久久久久| 亚洲色成人WWW永久在线观看| 亚洲蜜臀av一区二区三区漫画 | 粉嫩小泬无遮挡久久久久久| 大地资源在线播放观看mv | 欧美日韩午夜群交多人轮换| 亚洲av中文无码乱人伦在线r▽| 亚洲精品国产二区三区在线|