亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于提升方法的多度量行人再識(shí)別

        2020-07-23 06:28:29陸萍董虎勝鐘珊
        現(xiàn)代電子技術(shù) 2020年5期
        關(guān)鍵詞:提升方法

        陸萍 董虎勝 鐘珊

        摘? 要: 受到光照、視角、姿態(tài)等因素的影響,跨攝像機(jī)的行人再識(shí)別是一項(xiàng)相當(dāng)具有挑戰(zhàn)性的研究工作。為了進(jìn)一步提升行人再識(shí)別的匹配精度,設(shè)計(jì)了更具判別性的特征表達(dá),即增強(qiáng)局部最大出現(xiàn)頻次(eLOMO)描述子,并提出基于提升方法融合多個(gè)距離度量的匹配模型。在提取eLOMO特征時(shí)采用從水平條與密集網(wǎng)格兩種不同的尺度中提取顏色與紋理特征,從而獲得更具判別性的行人外觀描述子。在匹配模型上,采用自適應(yīng)提升(AdaBoost)方法來(lái)融合多種距離度量學(xué)習(xí)模型的優(yōu)勢(shì),從而實(shí)現(xiàn)對(duì)行人外觀的匹配。在行人再識(shí)別公共數(shù)據(jù)集VIPeR和PRID450S上的實(shí)驗(yàn)結(jié)果表明,該方法能夠有效地提升行人再識(shí)別的性能。

        關(guān)鍵詞: 行人再識(shí)別; 特征表達(dá); 度量學(xué)習(xí); 提升方法; 距離融合; 公共數(shù)據(jù)集

        中圖分類(lèi)號(hào): TN911.73?34; TP391.4? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼: A? ? ? ? ? ? ? ? ?文章編號(hào): 1004?373X(2020)05?0036?06

        Multi?metric person re?identification based on boost method

        LU Ping1, 2, DONG Husheng2, ZHONG Shan3

        (1. College of Computer Science and Technology, Zhejiang University, Hangzhou 310058, China;

        2. Suzhou Institute of Trade and Commerce, Suzhou 215009, China; 3. Changshu Institute of Technology, Suzhou 215500, China)

        Abstract: For the influence factors such as illumination, viewing angle and posture, the multi?camera person re?identification is a challenging research. In order to further improve the matching precision of person re?identification, a more discriminating characteristic representation named enhanced local maximal occurrence (eLOMO) descriptor is designed, and a boost method based matching model that fuses multiple distance metrics is proposed. Color and texture characteristics are extracted from two different dimensions of horizontal bars and dense grids for eLOMO characteristics, thus obtaining more discriminating person appearance descriptors. In terms of the matching model, the adaptive boost (AdaBoost) method is used to integrate the advantages of learning model for multiple distance metric, thus achieving the matching of person appearance. Experimental results on the public data sets VIPeR and PRID450S show that the method can effectively improve the performance of person re?identification.

        Keywords: person re?identification; characteristic representation; metric learning; boost method; distance fusion; public data set

        0? 引? 言

        在攝像機(jī)監(jiān)控網(wǎng)絡(luò)的應(yīng)用中,經(jīng)常需要判斷不同攝像機(jī)的畫(huà)面中是否包含了同一個(gè)行人。這種跨攝像機(jī)的行人身份關(guān)聯(lián)工作即為行人再識(shí)別[1]。受光照、視角、行人姿態(tài)與遮擋等因素的影響,同一行人在不同攝像機(jī)畫(huà)面中的外觀可能會(huì)存在相當(dāng)大的差異,這使得跨攝像機(jī)的行人再識(shí)別面臨著相當(dāng)大的挑戰(zhàn)。盡管在近些年的研究中已經(jīng)取得了較大的進(jìn)展[2?4],但距離實(shí)際應(yīng)用仍存在很大的差距。

        目前,行人再識(shí)別的研究工作主要圍繞行人外觀特征獲取與距離度量學(xué)習(xí)兩方面來(lái)開(kāi)展。在特征描述子的獲取上,主要從顏色與紋理等方面來(lái)刻畫(huà)行人的外觀信息,較為常用的基本特征描述子有顏色直方圖、局部二值信息(Local Binary Pattern,LBP)、梯度直方圖(Histogram of Gradient,HOG)等。為了能夠獲得更強(qiáng)外觀刻畫(huà)能力與判別性,目前使用的行人外觀描述子大多由多種基本特征組合而成。文獻(xiàn)[5]設(shè)計(jì)的局部最大出現(xiàn)(Local Maximal Occurrence,LOMO)描述子中,從密集網(wǎng)格中提取了聯(lián)合HSV特征與尺度不變局部三值模式(Scale Invariant Local Ternary Pattern,SILTP)。受LOMO的啟發(fā),文獻(xiàn)[6]設(shè)計(jì)了層次化高斯(Gaussian of Gaussian,GOG)描述子,使用一系列高斯分布的均值與方差來(lái)刻畫(huà)顏色分布。文獻(xiàn)[7?8]采用了將圖像切分為多個(gè)水平條的空間劃分方案,分別提出了顯著顏色名稱(chēng)(Salient Color Names,SCN)與加權(quán)顏色直方圖(Weighted Histograms of Overlapping Stripes,WHOS)描述子。但這些描述子或是從密集網(wǎng)絡(luò)中提取,或是從水平條劃分中計(jì)算獲得,行人圖像中的細(xì)節(jié)與整體外觀未能有效的整合。

        行人再識(shí)別中的距離度量學(xué)習(xí)模型旨在從行人圖像數(shù)據(jù)中學(xué)習(xí)獲得最優(yōu)的馬氏距離(Mahalanobis Distance),使得同一行人特征描述子之間的距離收縮,同時(shí)增大不同行人特征描述子間的距離。文獻(xiàn)[9]從三元距離約束出發(fā),設(shè)計(jì)了大間隔近鄰(Large Margin Nearest Neighbor,LMNN)模型,在正樣本對(duì)與負(fù)樣本對(duì)間建立間隔從而使正確匹配圖像得以被正確識(shí)別。文獻(xiàn)[10]從概率角度出發(fā)提出了簡(jiǎn)單直接的度量(Keep It Simple and Straightforward Metric,KISSME)學(xué)習(xí)算法,從對(duì)數(shù)似然比判別函數(shù)出發(fā)推導(dǎo)出具有解析表達(dá)式的度量模型。文獻(xiàn)[5]進(jìn)一步改進(jìn)了KISSME,聯(lián)合學(xué)習(xí)一個(gè)投影子空間與度量矩陣的跨視角二次判別分析(Cross?view Quadratic Discriminant Analysis,XQDA)模型。文獻(xiàn)[11]還設(shè)計(jì)了不均衡加權(quán)的度量學(xué)習(xí)模型(Metric Learning by Accelerated Proximal Gradient,MLAPG)來(lái)抑制訓(xùn)練樣本對(duì)不均衡帶來(lái)的度量偏差問(wèn)題。由于不同的度量學(xué)習(xí)模型利用的是數(shù)據(jù)中不同方面的判別信息,單一的模型難以同時(shí)把它們有效地利用起來(lái)。

        針對(duì)上述問(wèn)題,本文設(shè)計(jì)了一種新的增強(qiáng)局部最大出現(xiàn)(enhanced Local Maximal Occurrence,eLOMO)描述子,eLOMO同時(shí)從具有覆蓋的水平條區(qū)塊與密集網(wǎng)格中計(jì)算顏色與紋理特征,從而能夠從不同尺度上獲得圖像的細(xì)節(jié)與整個(gè)外觀信息,因此也具有更強(qiáng)的判別力。在匹配模型上,采用AdaBoost方法對(duì)多種度量學(xué)習(xí)方法進(jìn)行提升融合。在該方法中,每個(gè)度量學(xué)習(xí)模型被用作弱分類(lèi)器,通過(guò)加權(quán)融合獲得了更具匹配力的強(qiáng)分類(lèi)器。在訓(xùn)練中不斷地調(diào)整訓(xùn)練樣本與各個(gè)度量的權(quán)重,使初始的匹配性能得以提升。為了驗(yàn)證本文方法的性能,在VIPeR和PRID450S數(shù)據(jù)集上進(jìn)行了評(píng)估測(cè)試,均獲得了優(yōu)秀的行人再識(shí)別性能。

        1? 增強(qiáng)局部最大出現(xiàn)(eLOMO)特征

        在行人再識(shí)別研究中,LOMO描述子表現(xiàn)出了優(yōu)秀的行人外觀刻畫(huà)能力,在多個(gè)度量學(xué)習(xí)模型中取得了比較高的行人再識(shí)別準(zhǔn)確率。LOMO描述子在計(jì)算HSV直方圖與SILTP特征時(shí),采用了10×10像素的滑動(dòng)窗口來(lái)覆蓋整幅行人圖像。這樣的密集網(wǎng)格處理保證了圖像細(xì)節(jié)能夠被細(xì)致地刻畫(huà),從而提取出圖像的精細(xì)信息進(jìn)行匹配。為了增強(qiáng)對(duì)視角變化的魯棒性,LOMO還對(duì)同一高度上各滑動(dòng)窗口中提取的HSV直方圖與SILTP特征進(jìn)行了最大池化處理。另外,LOMO中也考慮了不同尺度空間上信息的提取,采用對(duì)整幅圖像作1/4縮放后再提取特征的策略。

        雖然LOMO具有優(yōu)異的細(xì)節(jié)刻畫(huà)能力,但是刻畫(huà)較大區(qū)域整體外觀的能力卻存在不足,主要原因是LOMO需要從密集網(wǎng)格中進(jìn)行計(jì)算。為了增強(qiáng)它的判別力,本文進(jìn)一步對(duì)圖像作具有覆蓋的水平條空間劃分來(lái)提取特征,并將它與LOMO融合來(lái)賦予描述子整體外觀刻畫(huà)能力。

        如圖1所示,本文采用了具有覆蓋的2層水平條金字塔空間劃分。為了降低雜亂背景帶來(lái)的干擾,在采用深度分解網(wǎng)絡(luò)(Deep Decomposition Network,DDN)估計(jì)了行人圖像的前景后,首先將圖像劃分為了8個(gè)等高的水平條區(qū)塊,然后去除最頂端與最底端水平條各一半高度,接著再將剩余部分按7等份切分。這樣的空間劃分既保證了各個(gè)水平區(qū)塊中的信息能夠被連續(xù)覆蓋提取,又可以使獲得的特征能夠比較好地表達(dá)出整體外觀信息。在計(jì)算顏色與紋理特征時(shí),除了聯(lián)合HSV直方圖與SILTP,還加入了聯(lián)合RGB直方圖與SCN[7]特征。其中,RGB直方圖的計(jì)算采用了與聯(lián)合HSV直方圖相同的參數(shù)設(shè)置,即每個(gè)顏色通道均量化為8位;在提取SCN時(shí)采用了與文獻(xiàn)[7]相同的16維顯著顏色設(shè)置。由于新增的RGB直方圖與SCN都具有比較好的顏色表達(dá)能力,因此,它們的引入能夠顯著增強(qiáng)對(duì)行人衣著顏色的捕捉。由于在提取水平條特征時(shí),整個(gè)區(qū)塊作為整體進(jìn)行運(yùn)算,因此不再需要進(jìn)行局部最大池化處理。

        從行人圖像的一個(gè)水平條中提取的聯(lián)合HSV直方圖示例如圖2所示,其中,既有從密集網(wǎng)格中提取的LOMO特征,也有從整個(gè)水平條上提取的結(jié)果。為了更好地展示,圖中給出的是4×4×4=64維的聯(lián)合HSV直方圖。

        從圖2中可以看出,LOMO特征具有2個(gè)直方圖,因此維度上更高;而且直方圖中的bin數(shù)量也更多,這說(shuō)明LOMO具有很好的細(xì)節(jié)刻畫(huà)能力。相比之下,從水平條中計(jì)算獲得的特征bin數(shù)量比較稀少,其中的4個(gè)bin簇正好對(duì)應(yīng)于圖中行人衣服的4種顏色,說(shuō)明它能夠更好地捕捉圖像的整體外觀。因此,把LOMO與水平區(qū)塊中提取的特征融合起來(lái)后,賦予了特征描述子“由粗到細(xì)”的表達(dá)能力。而這與人眼在識(shí)別對(duì)象時(shí)類(lèi)似,因此,這樣的特征描述子會(huì)具有更強(qiáng)的判別性。本文將融合后的特征描述子稱(chēng)為(eLOMO),其維度為40 960維。

        2? AdaBoost多度量融合

        在獲得行人圖像的外觀描述子后,需要使用有效的度量模型來(lái)判別檢索(Probe)圖像與所有匹配(Gallery)圖像間的距離或相似性,進(jìn)而生成排序列表(Ranking List)。由于每種度量學(xué)習(xí)方法在模型設(shè)計(jì)上僅使用數(shù)據(jù)某一方面的信息,將不同的度量模型融合后將會(huì)獲得更加魯棒的距離。為了實(shí)現(xiàn)此目標(biāo),本文將各度量學(xué)習(xí)方法作為弱匹配模型,并采用AdaBoost方法將它們生成的距離結(jié)果融合提升。

        設(shè)從訓(xùn)練集的檢索圖像與匹配圖像中提取的特征描述矩陣與匹配標(biāo)簽矩陣分別為[X∈Rd×m],[Z∈Rd×n]([d]為特征表達(dá)維度)與[Y∈Rm×n];[xi∈Rd]([i=1,2,…,m])與[zj∈Rd]([j=1,2,…,n])分別為[X]與[Z]的第[i]和第[j]個(gè)樣本,若[xi]與[zj]為一正樣本對(duì)(即屬于同一行人),則[Yi,j=1],否則,[Yi,j=-1]。為便于表述,這里作以下定義:

        1) [p(xi)={(xi,zj),j=1,2,…,n}]為[xi]與所有匹配集中圖像[{zj}nj=1]形成的圖像對(duì);

        2) [h(xi)]為一個(gè)弱匹配,計(jì)算[xi]與所有匹配集中圖像排序列表的度量模型;

        3) [rank(zj,h(xi))]為排序位置運(yùn)算,獲得匹配集圖像[zj]在[h(xi)]中的位置;

        4) [Dt(p(xi))]為檢索集中所有樣本[{xi}mi=1]的權(quán)重分布;

        5) [Dt={Dt(p(xi)),i=1,2,…,m}]為第[t]輪迭代中檢索集樣本的權(quán)重分布。

        在弱匹配模型的選擇上,本文使用了具有代表性的四種度量學(xué)習(xí)方法:MLAPG[11],XQDA[5],零空間Foley?Sammon變換(Null Foley?Sammon Transform,NFST)[4]和核化邊界Fisher判別分析(Kernel Marginal Fisher Analysis,KMFA)[12]。它們的性能在各公開(kāi)數(shù)據(jù)集上已經(jīng)得到驗(yàn)證,下面對(duì)它們作簡(jiǎn)要介紹。

        2.1? MLAPG

        MLAPG中引入了不對(duì)稱(chēng)加權(quán)的策略來(lái)解決由正負(fù)樣本對(duì)不均衡引起的度量矩陣存在偏差的問(wèn)題,它的目標(biāo)函數(shù)如下:

        [L(M)= i=1m j=1nwijfM(xi,xj)] (1)

        式中:[wij]根據(jù)[Yi,j]置為正負(fù)樣本對(duì)數(shù)量的倒數(shù);[fM(xi,zj)=log(1+exp(yij(d2M(xi,zj)-μ)))]為log?logistic損失函數(shù),該函數(shù)能夠提供一個(gè)柔性的決策邊界來(lái)區(qū)分正確匹配樣本對(duì)與錯(cuò)誤匹配樣本對(duì),[μ]為一個(gè)正常數(shù),用作決策閾值,[d2M(xi,zj)=(xi-zj)TM(xi-zj)]為馬氏距離函數(shù)的平方。

        MLAPG目標(biāo)函數(shù)為凸函數(shù),在優(yōu)化求解時(shí)采用了高效的加速鄰近點(diǎn)梯度(Accelerated Proximal Gradient)優(yōu)化方法進(jìn)行求解,該方法能夠以[O(1t2)]的速度收斂到全局最優(yōu)解[11]。

        2.2? XQDA

        如前所述,XQDA是通過(guò)對(duì)KISSME方法改進(jìn)所獲得的度量學(xué)習(xí)模型。令[Δij=xi-zj]為跨視角樣本對(duì)的差向量,KISSME通過(guò)Bayes準(zhǔn)則與對(duì)數(shù)似然比來(lái)決策[Δij]是否屬于同一行人,通過(guò)對(duì)似然比函數(shù)化簡(jiǎn)可獲得馬氏距離決策函數(shù):

        [d(xi,zj)=ΔTijΣ-1I-Σ-1EΔij] (2)

        式中:[ΣI]和[ΣE]分別為[Yi,j=1]與[Yi,j=-1]時(shí)[Δij]的協(xié)方差矩陣。

        KISSME需要先對(duì)樣本應(yīng)用主成份分析(Principle Component Analysis,PCA)降維后再應(yīng)用式(2)計(jì)算,且對(duì)維度過(guò)于敏感。為此,在XQDA中引入了需要聯(lián)合學(xué)習(xí)的投影子空間[W],把[Δij]替換為[WTΔij]代入式(2)進(jìn)行運(yùn)算,可得:

        [d(xi,zj)=ΔTijWΣ′I-1-Σ′E-1WTΔij] (3)

        式中:[Σ′I=WTΣIW];[Σ′E=WTΣEW];[W]可通過(guò)對(duì)[Σ-1IΣE]作特征值分解獲得[5]。

        2.3? NFST與KMFA

        NFST可以認(rèn)為是小樣本情況下的Fisher判別分析,其目標(biāo)是在當(dāng)樣本數(shù)遠(yuǎn)小于樣本維度時(shí)尋找到滿足如下目標(biāo)的一組投影方向[w]:

        [maxwwTSbws.t.? ? wTSww=0,? ? wTSbw>0] (4)

        式中[Sb]與[Sw]分別為訓(xùn)練樣本的類(lèi)間與類(lèi)內(nèi)散布矩陣。在求解NFST投影方向[w]時(shí),可以通過(guò)Gram?Schmidt分解與特征值分解獲得[w]的閉合形式解[4]。

        MFA同樣是Fisher判別分析的變體,但其僅從各樣本的最近鄰域中學(xué)習(xí)滿足如下目標(biāo)的投影方向:

        [w*=argminwwTSwwwTSbw] (5)

        與式(4)不同,這里[Sw=XLwXT],[Sb=XLbXT],[X]為所有訓(xùn)練樣本特征矩陣,[Lw]與[Lb]分別為標(biāo)記樣本最近鄰關(guān)系的標(biāo)記矩陣[Aw]與[Ab]的Laplacian矩陣,即[Ls=Ds-As],[Ds=diagj≠iAs(i,j),?i],[s∈{w,b}]。MFA可通過(guò)對(duì)[S-1wSb]作特征值分解獲得各投影方向[12]。

        NFST與MFA都可以通過(guò)應(yīng)用核函數(shù)進(jìn)一步擴(kuò)展到核空間實(shí)現(xiàn)對(duì)樣本的非線性映射,核化后的NFST與KMFA通常能夠獲得更高的判別性能[4,12]。

        2.4? 基于AdaBoost提升方法的多度量融合

        為了對(duì)多個(gè)弱度量匹配模型獲得的距離進(jìn)行融合提升,可以采用對(duì)這些匹配模型進(jìn)行加權(quán)融合,但是權(quán)值的分配是一項(xiàng)相當(dāng)棘手的難題。本文選擇根據(jù)各弱匹配模型對(duì)檢索圖像匹配結(jié)果的判別性能進(jìn)行自適應(yīng)權(quán)值調(diào)節(jié)的AdaBoost提升方法。為此,首先定義如下的判別函數(shù):

        [f(h(p(xi)))=1,? ? ? ?rank(zj,h(xi))≤β-1,? ? otherwise] (6)

        式中[β]用于指定匹配圖像[zj]在檢索圖像[xi]的距離結(jié)果[h(xi)]中排序位置的閾值,實(shí)驗(yàn)時(shí)取值為1。為了增強(qiáng)模型的泛化性能,可根據(jù)數(shù)據(jù)集進(jìn)行適當(dāng)松弛。

        在訓(xùn)練模型時(shí),可以根據(jù)各檢索圖像[xi]的正確匹配是否與[f(h(p(xi)))=1]時(shí)的匹配結(jié)果一致來(lái)判斷模型的分類(lèi)準(zhǔn)確率。根據(jù)各模型的分類(lèi)準(zhǔn)確率與各樣本的權(quán)重分布,即可根據(jù)最小誤差原則應(yīng)用AdaBoost提升方法迭代確定各模型的權(quán)重,使得分類(lèi)性能優(yōu)異的弱匹配模型被賦予較高的權(quán)重,而性能較弱的模型權(quán)重相應(yīng)減少;同時(shí),在迭代中還會(huì)對(duì)困難樣本賦予較高的權(quán)重。迭代結(jié)束后,最終的匹配結(jié)果將根據(jù)下式確定:

        [H(p(xi))=tαtht(p(xi))] (7)

        式中[αt]為在第[t]次迭代中弱匹配模型[ht]的權(quán)重。

        算法1給出本文基于AdaBoost提升方法的多度量融合算法流程。

        算法1: AdaBoost多度量融合算法

        輸入:樣本特征矩陣[X],[Z],標(biāo)簽矩陣[Y]

        初始化:[β=1], 置[D1(p(xi))]為[1m]

        for [t=1,2,…,T] do

        [εk←iDt(p(xi))f(hk(p(xi)))k*←arg minkεkht←h*kαt←12ln((1-ε)ε)]

        [Dt+1(p(xi))←1ztDt(p(xi))exp(-αtf(ht(p(xi))))]

        //[Zt]為歸一化因子

        end for

        輸出:[H(p(xi))=tαtht(p(xi))]

        3? 實(shí)? 驗(yàn)

        實(shí)驗(yàn)中選擇了兩個(gè)常用的行人再識(shí)別數(shù)據(jù)集(VIPeR和PRID450S)對(duì)本文方法進(jìn)行了算法性能測(cè)試。其中,VIPeR與PRID450S均為在室外場(chǎng)景拍攝的數(shù)據(jù)集,它們都包含有2個(gè)攝像機(jī)視角,每個(gè)行人在各攝像機(jī)下均只有1張圖像。VIPeR中有632個(gè)行人,他們的圖像在光照與視角上存在很大的差異。PRID450S中行人數(shù)為450,行人外觀差異主要來(lái)自于視角變化與雜亂的背景。

        算法性能評(píng)估標(biāo)準(zhǔn)為行人再識(shí)別中最為廣泛使用的累積匹配特征匹配(Cumulative Matching Characteristic,CMC)曲線,它反映了在前[r]個(gè)排序位置中找到正確匹配圖像的概率。在算法評(píng)估時(shí),VIPeR與PRID450S中的行人圖像被隨機(jī)地等量劃分為兩組,一組用于訓(xùn)練,另一組用于測(cè)試。為了獲得穩(wěn)定的實(shí)驗(yàn)結(jié)果,在每個(gè)數(shù)據(jù)集上都進(jìn)行了10次隨機(jī)實(shí)驗(yàn),取它們的平均CMC值作為最終實(shí)驗(yàn)結(jié)果。

        3.1? 與文獻(xiàn)中公開(kāi)的結(jié)果進(jìn)行比較

        表1與表2給出了在VIPeR與PRID450S數(shù)據(jù)集上本文方法與其他文獻(xiàn)中公開(kāi)的行人再識(shí)別準(zhǔn)確率的對(duì)比,表中僅列出了CMC中Rank?1,Rank?5,Rank?10,Rank?20上的數(shù)值。由表1,表2可以看出,本文方法取得的匹配準(zhǔn)確率明顯優(yōu)于近幾年公開(kāi)的行人再識(shí)別方法,本文方法在兩個(gè)數(shù)據(jù)集上取的Rank?1正確匹配率分別達(dá)到了58.64%與81.91%。在VIPeR上比此前最優(yōu)的SSM[2]方法獲得的結(jié)果53.73%高出4.91%,在PRID450S上比SSM報(bào)告的72.98%高出8.93%,與其他的方法相比要高出更多,這充分說(shuō)明了本文方法在行人再識(shí)別中所具有的性能優(yōu)勢(shì)。

        3.2? 特征描述子判別性分析

        本文方法取得較高匹配率的一個(gè)重要因素是具有優(yōu)秀判別力的eLOMO特征表達(dá)。為了檢驗(yàn)eLOMO特征的判別性,實(shí)驗(yàn)中使用本文AdaBoost多度量融合模型,對(duì)eLOMO、LOMO、本文設(shè)計(jì)的水平條區(qū)塊提取的特征(標(biāo)記為SF)、GOG與WHOS特征在VIPeR與PRID450S上分別進(jìn)行了測(cè)試。圖3給出了獲得的CMC曲線。從圖3中可以看出,eLOMO在兩個(gè)數(shù)據(jù)集上都獲得了最優(yōu)的性能,證明eLOMO在刻畫(huà)行人外觀上具有更強(qiáng)的判別能力。

        3.3? 與各基本度量學(xué)習(xí)方法的對(duì)比

        本文設(shè)計(jì)的融合方法中組合了四種度量學(xué)習(xí)方法,圖4給出了它們獨(dú)自取得的結(jié)果與采用AdaBoost融合后取得的結(jié)果對(duì)比(標(biāo)記為AdaFusion),圖4中還給出了對(duì)各個(gè)算法獨(dú)立獲得的距離直接使用平均加權(quán)時(shí)的結(jié)果(標(biāo)記為AvgFusion)。從圖4中可以看出,融合后的方法明顯優(yōu)于各個(gè)算法獨(dú)立使用時(shí)的結(jié)果。需要注意的是采用平均加權(quán)時(shí),AvgFusion并未比其他方法表現(xiàn)出明顯優(yōu)勢(shì),這也從側(cè)面反映出AdaBoost提升融合時(shí)自適應(yīng)賦予權(quán)值所帶來(lái)的優(yōu)勢(shì)。

        4? 結(jié)? 語(yǔ)

        本文設(shè)計(jì)了一種更具判別性的eLOMO特征描述子,并提出了一種基于AdaBoost提升方法的多度量融合算法。在eLOMO特征中組合了對(duì)行人圖像細(xì)節(jié)具有優(yōu)秀刻畫(huà)能力的LOMO特征和對(duì)整體外觀具有良好表達(dá)能力的水平區(qū)塊特征,取得了更加優(yōu)秀的判別能力。本文提出的多度量融合方法能夠自適應(yīng)地賦予各基本模型最優(yōu)權(quán)重,充分挖掘各度量的判別優(yōu)勢(shì)。在VIPeR與PRID450S數(shù)據(jù)集上的實(shí)驗(yàn)表明,本文方法能夠有效提高行人再識(shí)別的準(zhǔn)確率。

        參考文獻(xiàn)

        [1] ZHENG Liang, ZHANG Hengheng, SUN Shaoyan, et al. Person re?identification in the wild [C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, US: IEEE, 2017: 3346?3355.

        [2] SONG Bai, XIANG Bai, QI Tian. Scalable person re?identification on supervised smoothed manifold [C]// 2017 IEEE Confe?rence on Computer Vision and Pattern Recognition. Honolulu, US: IEEE, 2017: 2530?2539.

        [3] CHEN Yingcong, ZHU Xiatian, ZHENG Weishi, et al. Person re?identification by camera correlation aware feature augmentation [J]. IEEE transactions on pattern analysis & machine intelligence, 2018, 40(2): 392?408.

        [4] ZHANG Li, XIANG Tao, GONG Shaogang. Learning a discri?minative null space for person re?identification [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, US: IEEE, 2016: 1239?1248.

        [5] LIAO Shengcai, HU Yang, ZHU Xiangyu, et al. Person re?identification by local maximal occurrence representation and metric learning [C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 2197?2206.

        [6] MATSUKAWA Tetsu, OKABE Takahiro, SUZUKI Einoshin, et al. Hierarchical Gaussian descriptor for person re?identification [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, US: IEEE, 2016: 1363?1372.

        [7] YANG Yang, YANG Jimei, YAN Junjie, et al. Salient color names for person re?identification [C]// 2014 European Confe?rence on Computer Vision. Zurich, Switzerland: IEEE, 2014: 536?551.

        [8] LISANTI Giuseppe, MASI Iacopo, BAGDANOV Andrew D, et al. Person re?identification by iterative re?weighted sparse ranking [J]. IEEE transactions on pattern analysis & machine intelligence, 2015, 37(8): 1629?1642.

        [9] WEINBERGER Kilian Q, BLITZER John, SAUL Lawrence K. Distance metric learning for large margin nearest neighbor classification [J]. Journal of machine learning research, 2009, 10(1): 207?244.

        [10] K?ESTINGER Martin, HIRZER Martin, WOHLHART Paul, et al. Large scale metric learning from equivalence constraints [C]// 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, Rhode Island: IEEE, 2012: 2288?2295.

        [11] LIAO Shengcai, LI Stan Z. Efficient PSD constrained asymmetric metric learning for person re?identification [C]// 2015 IEEE International Conference on Computer Vision. Santiago: IEEE, 2015: 3685?3693.

        [12] XIONG Fei, GOU Mengran, CAMPS Octavia, et al. Person re?identification using kernel?based metric learning methods [C]// 2014 European Conference on Computer Vision. Zurich, Switzerland: IEEE, 2014: 1?16.

        [13] CHEN Dapeng, YUAN Zejian, CHEN Badong, et al. Similarity learning with spatial constraints for person re?identification [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, US: IEEE, 2016: 1268?1277.

        [14] PAISITKRIANGKRAI Sakrapee, WU Lin, SHEN Chunhua, et al. Structured learning of metric ensembles with application to person re?identification [J]. Computer vision and image understanding, 2017, 156(3): 51?65.

        [15] CHEN Yingcong, ZHENG Weishi, LAI Jianhuang. Mirror representation for modeling view?specific transform in person re?identification [C]// 24th International Conference on Artificial Intelligence. Buenos Aires, Argentina: AAAI, 2015: 3402?3408.

        [16] ZHANG Ying, LI Baohua, LU Huchuan, et al. Sample?specific SVM learning for person re?identification [C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, US: IEEE, 2016: 1278?1287.

        猜你喜歡
        提升方法
        淺談初中數(shù)學(xué)課堂教學(xué)質(zhì)量的提升方法
        小學(xué)語(yǔ)文習(xí)作教學(xué)中生生互評(píng)能力的提升方法
        淺談初中音樂(lè)教學(xué)質(zhì)量的提升
        保定市高校文化對(duì)城市文化的影響及提升方法研究
        青春歲月(2016年20期)2016-12-21 17:55:21
        如何提高小學(xué)語(yǔ)文課堂教學(xué)效率
        如何提升幼兒區(qū)域活動(dòng)的參與度
        考試周刊(2016年90期)2016-12-01 07:27:05
        淺談如何提升個(gè)人的執(zhí)行力
        考試周刊(2016年72期)2016-09-20 18:13:12
        信息技術(shù)環(huán)境下提升學(xué)生數(shù)學(xué)學(xué)習(xí)活動(dòng)效益的方法與策略探討
        考試周刊(2016年71期)2016-09-20 11:49:02
        提升高校教師職業(yè)道德修養(yǎng)的途徑及意義
        考試周刊(2016年58期)2016-08-23 22:14:48
        提升高中學(xué)生英語(yǔ)寫(xiě)作水平的教學(xué)方法
        考試周刊(2016年39期)2016-06-12 19:31:05
        亚洲av成人中文无码专区| 国产黄色一区二区三区av| 水蜜桃精品视频在线观看| 国产毛片精品av一区二区| 婷婷色综合视频在线观看| 无码人妻精品一区二区三区下载| 8av国产精品爽爽ⅴa在线观看| www.五月激情| 亚洲国产综合一区二区| 亚洲精品av一区二区日韩| 天堂网av一区二区三区在线观看| 国产亚洲精品久久久ai换| 日韩成人精品在线| 成人一区二区三区蜜桃| 精品久久有码中文字幕| 精品少妇人妻av一区二区| 国产精品国产三级在线高清观看| 精品国产亚洲av成人一区| 国产精品狼人久久影院软件介绍| 边喂奶边中出的人妻| 国产日b视频| 求网址日韩精品在线你懂的| 亚洲精品一品二品av| 久久久麻豆精亚洲av麻花| 女人和拘做受全程看视频 | 第九色区Aⅴ天堂| 免费播放成人大片视频| 亚洲人成色7777在线观看| 99re免费在线视频| 国产精品亚洲在钱视频| 天堂8在线新版官网| 亚洲精品久久久久久动漫| 中文字幕成人精品久久不卡| 日本av天堂一区二区三区| 日本怡春院一区二区三区| 大地资源在线播放观看mv| 午夜在线观看有码无码| 人妖一区二区三区在线| 欧美亚洲色综久久精品国产 | 国产99久久精品一区二区| 无码区a∨视频体验区30秒 |