亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        域通用和域分離字典對學習的行人重識別算法

        2022-08-09 06:11:04嚴雙林顏昌沁
        計算機工程與應用 2022年15期
        關鍵詞:字典行人編碼

        顏 悅,嚴雙林,顏昌沁

        1.昭通學院 物理與信息工程學院,云南 昭通 657000

        2.南京理工大學 計算機科學與工程學院,南京 210014

        行人重識別,是指在非重疊相機視角下匹配行人,可用于大規(guī)模監(jiān)控網(wǎng)絡中特定行人目標的快速檢索,目前已經(jīng)取得了一系列重大研究進展[1-7],具有廣闊的應用前景,包括行人檢索、行人跟蹤和行人行為分析等。盡管計算機視覺研究人員已經(jīng)做出了很大的努力來提高行人重識別的性能,但是由于行人的外觀在跨相機視角下通常表現(xiàn)出巨大的視覺歧義性,因此行人重識別技術仍存在巨大的挑戰(zhàn)。

        除了背景干擾、遮擋、照明變化和姿勢差異外,不同相機視角之間的域偏移也是導致行人視覺歧義的關鍵因素之一。通常有兩種方法可以解決這些問題,一種是學習或構造域不變特征表示,另一種是采用模型來減輕上述不利影響。對于前者,域不變特征可以是手工特征或基于學習的特征。在手工特征中,最常用的包括基于生物仿生特征的協(xié)方差描述符(covariance descriptor based on bioinspired features)[8]、局部特征的對稱驅動累積(symmetry-driven accumulation of local features)[9]、分層高斯描述符(hierarchical gaussian descriptor)[10]、局部特征集合(ensemble of localized features)[11]和局部最大共現(xiàn)表示(local maximal occurrence representation)[3]。這些特征可以直接用于跨視角或無監(jiān)督的行人重識別,但它們不能充分利用數(shù)據(jù)分布信息,因此無法解決不同相機視角之間的域偏移問題。在基于學習的特征表示中最常用的學習方法包括域分離網(wǎng)絡(domain separation networks)[12]、圖像-圖像轉換網(wǎng)絡(image-image translation networks)[13]和奇異值分解網(wǎng)絡(singular value decomposition network,SVDNet)[14]。但是,基于深度學習的特征表示方法通常需要手動標記大量的訓練樣本對,這極大地限制了在實際應用中的可擴展性?;谀P偷男腥酥刈R別主要包括基于度量學習的方法[15-22]、基于字典學習的方法[23-27],以及基于深度學習的方法[22,28-30]?;诙攘繉W習的方法通常是通過搜索最佳特征子空間來緩解視覺歧義。在該子空間中,類間差異可以被最大化,而類內差異可以被最小化。盡管魯棒的特征表示對判別性有著重要影響,但在此類方法中通常沒有被給予足夠的重視。在減輕行人圖像的視覺歧義時,基于字典的學習也是一種常用方法,它可以基于原始輸入特征創(chuàng)建更魯棒的特征。基于深度學習的方法由于其良好的性能吸引了研究人員的注意,但是這種方法需要大量手動標記的訓練樣本,可擴展性較差。因此,以上方法均不能完全緩解由不同相機視角之間的域偏移引起的行人外觀歧義等問題。

        從圖1可以看出,不同相機視角下的域偏移是導致行人外觀歧義的主要因素之一。另外還可以發(fā)現(xiàn),同一相機視角中的域信息在一定時間內是穩(wěn)定的,并且同一視角下的所有圖像共享相同的域信息。此時,如果能將域信息從行人圖像中分離出來,那么剩余的信息將不會受到域信息的干擾,并且來自不同視角的行人圖像之間也將不再存在域偏移。基于這種思想,本文提出一種域通用和域分離字典對學習方法,用于跨視角行人重識別。在此方法中,假定來自同一相機視角下的圖像共享相同的域。為了獲得行人的視覺特征,將來自不同相機視角下的行人圖像分為特定視角的域信息部分和域分離的行人外觀特征部分。

        圖1 來自PRID2011數(shù)據(jù)集中的行人圖像樣本對Fig.1 Person image sample pairs selected from PRID2011 dataset

        為了實現(xiàn)上述信息的分離,本文在低維空間中跨視角學習具有域信息的域通用字典,并將其用于從輸入圖像中分離出域信息,而學習域分離字典是用來表示分離域信息后的行人外觀特征。同時,由于來自同一相機視角的圖像具有域相似性,因此用于表示域信息的字典應該是低秩的。為了進一步提高學習字典的判別力,強制具有相同身份、相同視角的多幅圖像的編碼系數(shù)在域通用字典下有很強的一致性。此外,提出一種新穎的擴展正則化方法來解決不同行人相似外貌特征和同一行人不同外貌特征的視覺外觀歧義問題。以兩個視角X1和X2為例,所提出方法的具體實現(xiàn)過程如圖2所示。

        圖2 所提出方法的總體框架Fig.2 Overall framework of proposed method

        本文的主要創(chuàng)新如下:

        (1)將同一視角下的行人圖像分解為特定視角的域信息分量和分離域信息后的行人外觀分量,并提出僅基于行人的外觀設計行人匹配方案,從而避免域偏移對識別結果的不利影響。

        (2)為了將域信息與行人外觀信息分開,同時學習域通用和域分離字典,其中,鼓勵來自同一相機視角中的所有圖像在域通用字典下共享相同的稀疏表示,此時,可以將每個視角下的域信息與行人外觀信息分離開來。

        (3)為了促進學習字典的判別性并解決行人外觀在視覺上的歧義,提出一種新穎的擴展正則化方法來解決不同行人的外貌特征比同一人更相似,而同一行人的外貌特征比不同人更不相似的問題。

        1 提出的方法

        1.1 判別性字典學習框架

        字典學習是通過學習算法來構建一組具有表達能力的特征,實現(xiàn)對輸入樣本的有效表示。該過程能使學習到的字典具有較強的表達能力,但沒有較強的判別能力。為解決這一問題,把魯棒的特征表示學習和判別式度量學習整合到一個框架中。

        首先,學習兩個字典分別表示不同視角i下的行人圖像特征:

        式中,D∈?m×d是所有相機視角下的行人圖像共享的域通用字典(domain-commom dictionary),D t∈?m×d t表示域分離字典(domain-invariant dictionary),用于在分離域信息后對僅剩的行人外觀特征進行編碼,Z i是對應字典D的編碼系數(shù)矩陣,Z ti是對應字典D t的編碼系數(shù)矩陣。Φ(D,D t,Z i,Z ti)是數(shù)據(jù)保真度項,將其最小化可以賦予字典D和D t表達能力。Ψ(D,D t)是字典的判別促進項,Γ(Z i,Z ti)是編碼系數(shù)的判別促進項,將這兩項最小化可以使字典和編碼系數(shù)具有更好的判別能力。d j?是D的第?列,是D t的第?列。

        具體地,為了緩解不同相機視角之間的域偏移,首先把數(shù)據(jù)保真度項Φ(D,D t,Z i,Z ti)表示為:

        式中,X i∈?m×n表示相機視角i下的訓練樣本集,用于建立相機視角i的域信息,‖X i-DZ i-用于把域信息與不受域信息影響的行人外觀特征分開。同時,來自同一臺相機的圖像具有相同的域特征,并且這些圖像在域特征方面彼此線性相關,因此,把字典判別促進項表示為:

        式中,‖D‖*是對字典D的核范數(shù)求解,它是矩陣D的奇異值之和,對該項最小化能夠實現(xiàn)域信息從輸入樣本X i中的分離。同時,因為域信息分量和行人的外觀特征具有不同的空間形態(tài),引入結構不相干的正則項來促使字典D和D t相互獨立。α1和α2是兩個標量參數(shù),分別代表著‖D‖*和項的權重信息。

        另外,希望來自不同相機視角的同一行人在域分離字典D t上具有相同的編碼系數(shù),也就是說,如果只有兩個相機視角(i和j),并且每個行人在每個視角中只有一張圖像時,應將最小化。同時還希望來自不同相機視角的不同行人的編碼系數(shù)之間的距離大于一個常數(shù),此時有:

        式中,c是一個常數(shù)。表示i視角下的第l個行人的編碼系數(shù);z t,jl表示j視角下的與i視角下第l個行人最不相似的行人編碼系數(shù),此時它們同屬于一個行人身份;表示j視角下的與i視角下第l個行人最相似,但又是第l*個不同于行人身份l的行人編碼系數(shù),其中,意思是當時,,此時不同行人之間的距離遠遠大于同一行人之間的距離,它不會導致對行人身份的誤判,損失記為0。而表示意味著在這種情況下使用行人圖像特征的編碼系數(shù)進行行人匹配會導致誤識別,此時,最小化可以促使。進一步地,對于i視角域的編碼系數(shù)矩陣Z i,相同的域應具有相同的稀疏表示?;谝陨峡紤],定義式(1)中的判別促進項Γ(Z i,Z ti)可表示為:

        該模型可以擴展為多個視角和一個行人身份擁有多幅圖像的行人重識別問題:

        式中,表示i視角下的第k個行人的第l k張圖像的編碼系數(shù);表示j視角下的和i視角下第k個行人第l k張圖像的編碼系數(shù)最不相似的第s k張圖像的編碼系數(shù),此時它們屬于同一行人身份,其中i≠j;表示i′視角下的和i視角下第k個行人第l k張圖像的編碼系數(shù)最相似的第k′個行人第l k′張圖像的編碼系數(shù),此時它們屬于不同行人身份,即k′≠k。式中,M i表示i相機視角下的行人數(shù)量,N k表示相機視角i下第k個行人的圖像數(shù)量。

        1.2 模型優(yōu)化求解

        1.2.1 更新Z i

        為了更新編碼系數(shù)Z i,固定D,D t,Z t,i不變,式(7)中關于Z i有以下目標函數(shù):

        對于變量Z i是一個典型的l2,1最小化問題,通過文獻[31]的方法可以很容易地解決它,此時,得到Z i的解析解:

        其中,Λ1是由構成的對角稀疏矩陣,表示Z i的第j列。

        1.2.2 更新Z t,i

        為了方便優(yōu)化,將式(10)重寫為向量形式:

        其中,是i視角下第k個行人的第l k張圖像的特征。為了求解式(11)中的,需要引入一個松弛變量,此時,可以將等式(11)放寬為:

        可以通過以下求解來更新變量:

        以上問題也是一個典型的l1最小化問題,使用迭代收縮算法Iterative Shrinkage Algorithm[32]可以很容易地解決這個問題。確定之后,可以通過文獻[19]中采用的梯度下降法進行更新:

        式中,h表示第h次迭代。,它 是 式(12)中關于在第h次迭代時的求導。Q=,它 是 式(12)中關于在第h次迭代時的求導。并且在求解過程中,當時,損失 記 為0,即取0,有;否則,。τ是梯度下降法中使用的步長,它根據(jù)迭代的次數(shù)進行變化,即。最后,根據(jù)更新的構造Z t,i,

        1.2.3 更新D和D t

        在更新編碼系數(shù)Z i和Z t,i之后,字典D和D t可以通過交替更新獲得,固定其他變量不變,式(7)中關于D和D t有以下目標函數(shù):

        為了更新D,引入一個中間變量C,式(15)改寫為:

        中間變量C可以通過以下求解得到:

        關于變量C是一個典型的核范數(shù)最小化問題,可通過奇異值閾值算法Singular Value Thresholding[33]來解決。確定C之后,引入一個松弛變量H更新D:

        松弛變量H的解析解可以通過直接求導得到:

        其中,I1∈?m×m為一個單位矩陣。使用更新得到的C和H,關于變量D可以通過以下求解來優(yōu)化:

        這個問題可以通過拉格朗日對偶法[34]來解決,其解析解為:

        同樣地,此問題也可以用公式(20)中采用的拉格朗日對偶法[34]得到解決。為了便于理解模型,以下算法總結了提出的判別性字典對學習的訓練算法。

        算法域通用和域分離字典對學習的行人重識別訓練算法

        輸入:視角i下的行人訓練圖像X i,最大迭代次數(shù)M。

        隨機值初始化:Z i,Z t,i,D,D t。

        當?shù)螖?shù)小于M時,重復步驟1~8:

        步驟1通過式(9)更新Z i;

        步驟2通過迭代收縮算法更新式(13)中的;

        步驟3通過式(14)更新;

        步驟4通過構造Z t,i;

        步驟5通過式(17)更新中間變量C;

        步驟6通過式(19)更新松弛變量H;

        步驟7通過式(21)更新變量D;

        步驟8通過式(22)更新變量D t;

        輸出 當達到最大迭代次數(shù)M時輸出D,D t。

        1.3 識別方案

        在測試中,用訓練中學習到的字典D和D t,通過以下求解來實現(xiàn)域信息和特定行人信息的分離:

        在式(23)中,X i'是測試樣本,Z i表示視角i下的編碼系數(shù)矩陣,Z ti表示視角i下的特定行人信息的編碼系數(shù)矩陣,這個問題可以通過交替迭代法解決。首先固定變量{D,Zi t}更新Z i,關于Z i的目標函數(shù)表示為:

        對于變量Z i也是一個l2,1最小化問題,通過文獻[31]的方法可以很容易地解決它,此時,得到Z i的解析解:

        其中,Λ1是由構成的對角矩陣,表示Z i的第j列。確定Z i以后,更新變量,式(23)關于的目標函數(shù)為:

        以上關于求解的問題也是一個典型的l1最小化問題,使用迭代收縮算法Iterative Shrinkage Algorithm[32]可以很容易地解決這個問題。

        其中,表示相機視角j中第k*個行人的第l k*幅圖像的編碼系數(shù)。

        2 實驗結果與分析

        2.1 數(shù)據(jù)集和參數(shù)設置

        實驗中,使用四個具有挑戰(zhàn)性的行人重識別數(shù)據(jù)集證明該方法的有效性,包括PRID2011、GRID、CUHK01和i-LIDS。PRID2011數(shù)據(jù)集中的行人圖像是由室外環(huán)境下的兩個非重疊相機捕獲,并且每個視角下都包含干擾圖像。GRID數(shù)據(jù)集也存在大量不相關的行人干擾圖像,并且兩視角之間的遮擋,照明和背景情況存在較大差異。在CUHK01數(shù)據(jù)集中,每個身份在每個相機視角下都有兩張圖像,此數(shù)據(jù)集中的所有圖像都來自安置于校園內的兩臺不同的相機。i-LIDS數(shù)據(jù)集中的行人圖像是通過安裝在機場到達大廳中的多個非重疊相機捕獲,該數(shù)據(jù)集包含119個行人身份的476張圖像,不同相機拍攝到的每個行人有2到8張不等。這些數(shù)據(jù)集具有不同的特征,因此可以更客觀、全面地測試算法的性能。

        在實驗中,每個數(shù)據(jù)集被分為兩個部分,一部分用作訓練樣本,另一部分用作測試樣本,同時采用累積匹配特性(cumulative matching characteristic,CMC)曲線對識別性能進行定量評估。在提出的行人重識別模型中有七個參數(shù),包括字典D和D t的大小d和d t,以及五個標量參數(shù)α1,α2,α3,α4,α5。為了對算法的有效性進行驗證,在整個實驗過程中,將上述參數(shù)的值分別設置為d=50,d t=760,α1=1,α2=0.01,α3=28,α4=1,α5=5。這些參數(shù)對識別性能的影響將在后面的小節(jié)中進行詳細討論。

        2.2 GRID數(shù)據(jù)集

        第一組實驗在GRID數(shù)據(jù)集上進行,從不同視角拍攝得到的一些示例圖像如圖3所示。從這些圖像可以看出,除了存在遮擋、行人姿勢、照明等巨大變化以外,還存在大量不相關的行人圖像的干擾,由此可見,該數(shù)據(jù)集對于行人重識別來說具有極大的挑戰(zhàn)性。GRID數(shù)據(jù)集里的圖像是從安置于地鐵站中的8個非重疊攝像頭拍攝得到,在此數(shù)據(jù)集中,有250個行人圖像對,有775張不屬于這250個行人對中的干擾圖像,共有1 275個行人圖像。本實驗中,隨機選擇了125個行人身份的圖像對作為訓練數(shù)據(jù),其余125個行人圖像對與所有不相關的行人圖像一起作為測試數(shù)據(jù)。重復該過程10次,并將平均識別率作為最終識別結果。將該方法與MtMCML(2014)[35]、PolyMap(2015)[36]、LOMO+XQDA(2015)[3]、LSSCDL(2016)[37]、DR-KISS(2016)[38]、GOG+XQDA(2016)[10]、SLSSCDL(2017)[26]、MHF(2017)[39]、DMLV(2017)[40]、CRAFT-MFA(2018)[41]、MKFSL(2017)[42]、DMVFL(2018)[43]、CSPL+GOG(2018)[44]、SRR+MSTC(2019)[45]進行對比。表1的結果顯示本文的方法在GRID數(shù)據(jù)集上有很好的識別率,并且在Rank 1、Rank 5、Rank 20分別優(yōu)于第二好的方法4.10、1.06和1.18個百分點。

        圖3 來自GRID數(shù)據(jù)集的行人圖像示例Fig.3 Person image examples taken from GRID dataset

        表1 不同算法在GRID數(shù)據(jù)集的識別率比較Table 1 Performance comparison of different algorithms on GRID %

        2.3 PRID2011數(shù)據(jù)集

        在PRID2011數(shù)據(jù)集上進行第二組實驗,該數(shù)據(jù)集中的行人圖像由室外環(huán)境下的兩個非重疊攝像頭捕獲得到,每個人在每個相機視角中只有一個圖像。在本實驗中,隨機選擇100個行人身份的圖像作為訓練數(shù)據(jù),并另外選擇100個行人身份圖像和749個干擾圖像作為測試數(shù)據(jù)。重復該過程10次,將平均識別率視為最終識別結果,如圖4。由于兩個視角都存在干擾因素,該數(shù)據(jù)集更具挑戰(zhàn)性。在PRID2011數(shù)據(jù)集上將本文的方法與一些最新方法進行了比較,如表2,包括RPLM(2012)[46]、MetricEnsemble(2015)[47]、LDNS(2016)[48]、LOMO+XQDA(2015)[3]、TCP(2016)[49]、LOMO+M(2017)[50]、LADF(2017)[40]、DMLV(2017)[40]、MKFSL(2017)[42]、APDLIC(2018)[25]。比較結果表明,該方法在不同Rank上的識別率最高,比次優(yōu)方法分別高5.4、3.9、4.9和0.5個百分點。

        圖4 來自PRID2011數(shù)據(jù)集的行人圖像示例Fig.4 Person image examples taken from PRID2011 dataset

        表2 不同算法在PRID2011數(shù)據(jù)集的識別率比較Table 2 Performance comparison of different algorithms on PRID2011%

        2.4 CUHK01數(shù)據(jù)集

        在CUHK01數(shù)據(jù)集中,有971個行人身份被安置于校園環(huán)境中的兩個不同攝像頭捕獲。與上述數(shù)據(jù)集不同,每個人在每個相機視圖中都有兩張圖像,一個相機視角捕獲行人的正視圖或后視圖,而另一個相機視角則主要捕獲側視圖。在實驗中,將所有行人圖像標準化為128×48像素,并隨機選擇485個行人圖像對進行訓練,486個行人圖像對進行測試。重復該過程10次,將平均結果作為最終行人的匹配率,如圖5。表3顯示了本文算法與MetricEnsemble(2015)[47]、LOMO+XQDA(2015)[3]、TCP(2016)[49]、DRJRL+kLFDA(2016)[29]、LDNS(2016)[48]、GOG+XQDA(2016)[10]、DR-KISS(2016)[38]、LADF(2017)[40]、DMLV(2017)[40]、MVLDML(2018)[21]、CSPL+GOG(2018)[44]、GOG+TDL(2019)[51]算法的比較結果。提出的方法顯示了不錯的識別結果,Rank 1值為71.20%,比次優(yōu)算法高1.02個百分點。

        圖5 來自CUHK01數(shù)據(jù)集的行人圖像示例Fig.5 Person image examples taken from CUHK01 dataset

        表3 不同算法在CUHK01數(shù)據(jù)集的識別率比較Table 3 Performance comparison of different algorithms on CUHK01%

        2.5 i-LIDS數(shù)據(jù)集

        在本次實驗中,驗證了該模型在多鏡頭i-LIDS數(shù)據(jù)集上的有效性。該數(shù)據(jù)集中的行人圖像是通過安裝在機場到達大廳中的多個非重疊攝像頭捕獲。該數(shù)據(jù)集包含119人的476張圖像,在不同的相機視角下行人圖像的范圍從1到8不等。圖6展示了一些行人示例圖像。由于這些圖像是由具有不同背景、不同相機采集的,并且還存在照明、遮擋和姿勢差異的變化,因此,該數(shù)據(jù)集對正確匹配來自不同相機的行人圖像提出了巨大的挑戰(zhàn)。在此實驗中,隨機選擇60人進行訓練,其余59人被用來測試。實驗進行了10次以后,取平均值與近年來提出的其他方法進行比較。表4顯示了該算法與PRDC(2011)[52]、MetricEnsemble(2015)[47]、FT-JSTL+DGD(2016)[53]、TCP(2016)[49]、JDML(2017)[27]、MLQAW(2017)[16]、MMLBD(2017)[54]、FSCML(2017)[55]、JDSML(2019)[28]和GOG+TDL(2020)[51]的比較結果??梢郧宄乜吹?,與其他方法相比,本文的方法在i-LIDS數(shù)據(jù)集上的性能有了很大的提高。

        圖6 來自i-LIDS數(shù)據(jù)集的行人圖像示例Fig.6 Person image examples taken from i-LIDS dataset

        表4 不同算法在i-LIDS數(shù)據(jù)集的識別率比較Table 4 Performance comparison of different algorithms on i-LIDS %

        2.6 算法分析

        2.6.1 參數(shù)的影響和選擇

        實驗中,字典D和D t的大小是影響算法性能的兩個關鍵參數(shù)。因此,有必要討論由字典原子數(shù)變化而引起的性能變化。在此過程中,使用GRID數(shù)據(jù)集作為測試集,通過固定一個字典的原子數(shù)大小,研究另一字典的原子數(shù)大小對識別性能的影響。圖7顯示了識別性能與兩字典原子數(shù)d和d t值的關系。固定其余參數(shù),調整字典D的大小d從20變?yōu)?00,從圖7(a)的結果可以看出,當d達到50時,本文的方法可以實現(xiàn)較高的識別精度。此外,還研究了d t對GRID數(shù)據(jù)集的影響,圖7(b)表明,當d固定為50時,d t=760算法可以實現(xiàn)較高的識別性能。

        圖7 GRID數(shù)據(jù)集上不同字典大小D和D t對應的性能Fig.7 Performance of our algorithm on different sizes of D andD t on RID dataset

        除字典D和D t的大小外,還需要設置五個標量參數(shù),即α1、α2、α3、α4、α5。使用交叉驗證來確定這些參數(shù)的取值。此過程在GRID和PRID2011數(shù)據(jù)集上進行,如圖8、圖9。首先,將α2、α3、α4、α5分別固定為0.01、28、1和5,然后討論α1的影響。圖8(a)和圖9(a)顯示了在GRID和PRID2011數(shù)據(jù)集上將α1設置為不同值時的影響。從結果可以看出,當α1達到1時,模型可以獲得更好的性能,因此將其設置為1。在α1=1、α3=28、α4=1、α5=5的情況下,從圖8(b)和圖9(b)可以發(fā)現(xiàn),當α2=0.01時算法可以達到不錯的識別性能。圖8(c)和圖9(c)顯示了當α1、α2、α4、α5分別固定為1、0.01、1和5時,α3=28算法可以為兩個測試數(shù)據(jù)集實現(xiàn)較好的性能。為了研究參數(shù)α4的取值效果,分別將α1、α2、α3、α5固定為1、0.01、28和5。圖8(d)和圖9(d)表明,當α4達到1時,算法的識別精度達到平穩(wěn)狀態(tài)。此外,圖8(e)和圖9(e)顯示了識別率與α5值的關系,其中α1、α2、α3、α4分別固定為1、0.01、28和1,當兩個測試數(shù)據(jù)集的α5均達到5時,模型將獲得令人滿意的性能。

        圖8 GRID數(shù)據(jù)集上不同的α1、α2、α3、α4、α5值對算法識別率的影響Fig.8 Recognition rates of proposed algorithm on different values ofα1,α2,α3,α4,α5 on GRID dataset

        圖9 PRID2011數(shù)據(jù)集上不同的α1、α2、α3、α4、α5值對算法識別率的影響Fig.9 Recognition rates of proposed algorithm on different values ofα1,α2,α3,α4,α5 on PRID2011 dataset

        2.6.2 收斂分析

        式(3)并非對變量{D,D t}都是共同凸的,但對于它們各自而言是凸的。而諸如上述的收斂問題已經(jīng)被廣泛研究,并可通過交替迭代方法來解決。因此,本小節(jié)對兩個字典的收斂性進行分析。圖10顯示了GRID數(shù)據(jù)集上兩個字典的收斂曲線??梢郧宄乜吹剑?jīng)過不到10次迭代,所有變量的迭代差值逐漸收斂為0。

        圖10 D、D t在GRID數(shù)據(jù)集上的收斂曲線Fig.10 Convergence curve of D and D t on GRID dataset

        2.6.3 僅基于行人外觀設計匹配方案的優(yōu)勢分析

        公式(6)是僅基于行人外觀設計匹配方案的目標函數(shù),在式(6)中,通過項將域信息從行人圖像中分離了出來,此時,剩余的行人圖像信息不會受到域信息的干擾。若沒有分離域信息,直接基于同時存在域信息分量和行人外觀信息分量的圖像訓練模型,目標函數(shù)將會變成:

        此時訓練的模型將會受到不同視角下的不同域信息的干擾。具體地,在GRID數(shù)據(jù)集上分析僅基于行人設計的優(yōu)勢,圖11顯示了僅基于行人外觀設計匹配方案和基于同時存在域信息分量和行人外觀信息分量設計匹配方案兩個模型的識別率曲線。由圖11可以看出,本文僅基于行人外觀設計匹配方案的識別率遠遠高于基于同時存在域信息分量和行人外觀信息分量設計匹配方案的識別率。

        圖11 在GRID數(shù)據(jù)集上僅基于行人外觀設計匹配方案的算法曲線分析Fig.11 Algorithm curve analysis based only on person appearance design matching scheme on GRID dataset

        3 結束語

        為了緩解由不同相機視角引起的域偏移問題,提出了一種基于不同成分分離的域分離的圖像特征表示模型。該模型可以將域信息與行人圖像信息進行分離,從而實現(xiàn)跨視角的行人重識別。同時,為了提高表示系數(shù)的判別性,提出了一種新穎的擴展正則化方法,以鼓勵外貌相似身份卻不同的行人彼此遠離。在四個具有挑戰(zhàn)性的數(shù)據(jù)集上進行實驗,由于本文的算法可以有效緩解不同相機視角之間的域偏移問題,因此與其他一些相關方法相比具有更好的性能。相對于深度學習方法,本文算法可以不用大規(guī)模的訓練樣本就能獲得較好的性能,同時在復雜的背景環(huán)境及變化的光照視角條件下也能取得良好的匹配結果,因此具有較好的實際意義。

        猜你喜歡
        字典行人編碼
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        基于SAR-SIFT和快速稀疏編碼的合成孔徑雷達圖像配準
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        《全元詩》未編碼疑難字考辨十五則
        子帶編碼在圖像壓縮編碼中的應用
        電子制作(2019年22期)2020-01-14 03:16:24
        路不為尋找者而設
        揚子江(2019年1期)2019-03-08 02:52:34
        Genome and healthcare
        我是行人
        我是小字典
        一本一本久久久久a久久综合激情| 国产一区二区三区毛片| 精品国产三级a∨在线欧美| 蜜桃人妻午夜精品一区二区三区 | 国内精品久久久久影院蜜芽| 一区二区三区黄色一级片| 蜜桃传媒网站在线观看| 国产成人av在线免播放观看新| 亚洲欧美aⅴ在线资源| 日韩高清在线观看永久| 日本亚洲欧美在线观看| 最近亚洲精品中文字幕| 黄色潮片三级三级三级免费| 青春草免费在线观看视频| 精品国产拍国产天天人| 国产看黄网站又黄又爽又色| 无码91 亚洲| 永久免费看黄网站性色| 天堂av在线美女免费| 成人美女黄网站色大免费的| 久久夜色撩人精品国产小说| 久久久久AV成人无码网站| 亚洲永久精品日韩成人av| 国产丝袜美腿精品91在线看| 蜜桃久久精品成人无码av| 国产剧情国产精品一区| 国产综合一区二区三区av| 91久久国产香蕉熟女线看 | 国产成人亚洲精品一区二区三区| 亚洲综合日韩精品一区二区| 国产午夜伦鲁鲁| 乱码午夜-极品国产内射| 亚洲精品一区二区三区播放| 日本视频在线播放一区二区| 乱子轮熟睡1区| 人妻系列无码专区久久五月天| 99综合精品久久| 开心激情站开心激情网六月婷婷| 亚洲中文字幕一区二区三区多人| 亚洲色一区二区三区四区| 国产亚洲精品aaaa片小说|