亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合域間與域內(nèi)變化的跨域行人重識(shí)別算法

        2021-07-14 16:22:04胡月琳蔡曉東劉玉柱
        關(guān)鍵詞:模型

        胡月琳,蔡曉東,劉玉柱

        桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林541004

        行人重識(shí)別(ReID),旨在給定查詢(xún)對(duì)象的情況下,在大型數(shù)據(jù)庫(kù)中檢索指定行人的圖像。由于大規(guī)模數(shù)據(jù)集的出現(xiàn),以及特征提取和度量學(xué)習(xí)方法的不斷改進(jìn),近年來(lái),在單域情況下,ReID 任務(wù)已經(jīng)得到了巨大進(jìn)展。然而,當(dāng)在不可見(jiàn)的目標(biāo)域中直接利用模型時(shí),性能會(huì)有巨大的下降,這在新數(shù)據(jù)集上測(cè)試模型時(shí)尤為明顯[1-3]。這就是在機(jī)器學(xué)習(xí)領(lǐng)域普遍存在的域適應(yīng)問(wèn)題。

        在跨域行人重識(shí)別中,訓(xùn)練集為源域,而測(cè)試集為目標(biāo)域,兩個(gè)域之間通常存在顯著的域差。例如,公開(kāi)數(shù)據(jù)集Market1501[4]采集在夏天國(guó)內(nèi)校園,行人多著短袖,色彩相對(duì)鮮明,而DukeMTMC-reID[5-6]采集于冬季國(guó)外校園,行人多著厚重冬裝,色彩相對(duì)暗沉。這種顯著的著裝風(fēng)格差異塑造了兩個(gè)數(shù)據(jù)集之間的域差,并降低模型在這兩個(gè)數(shù)據(jù)集之間跨域使用的準(zhǔn)確率。

        為增強(qiáng)跨域行人重識(shí)別模型的泛化能力,近年來(lái)提出的算法分別從域間和域內(nèi)兩個(gè)方面來(lái)增強(qiáng)域自適應(yīng)性。針對(duì)域間變化,Deng和Wei等人[1-2]提出域間風(fēng)格遷移的方法,通過(guò)把源域訓(xùn)練樣本風(fēng)格遷移到目標(biāo)域的測(cè)試集,在原始圖像層面減小域差,但這類(lèi)方法大多需要依賴(lài)生成對(duì)抗網(wǎng)絡(luò)(GAN)來(lái)實(shí)現(xiàn)風(fēng)格遷移。

        針對(duì)域內(nèi)變化,Zhong 等人[7]提出目標(biāo)域內(nèi)風(fēng)格遷移的方法,該方法不直接在源域和目標(biāo)域之間進(jìn)行風(fēng)格遷移,而是在目標(biāo)域內(nèi)部進(jìn)行細(xì)粒度的風(fēng)格遷移,利用StarGAN[8]讓目標(biāo)域不同相機(jī)圖像之間互相遷移風(fēng)格,但這種方法忽略了目標(biāo)域中潛在的正樣本對(duì),可能導(dǎo)致ReID 模型對(duì)目標(biāo)域中的其他特征敏感,例如姿勢(shì)和背景變化。Huang 等人[9]在目標(biāo)域進(jìn)行輔助的監(jiān)督學(xué)習(xí),利用在目標(biāo)域額外的人工解析幫助模型區(qū)分語(yǔ)義部件,從而增進(jìn)泛化能力,然而該方法需要通過(guò)額外訓(xùn)練姿勢(shì)估計(jì)模型來(lái)找關(guān)鍵點(diǎn),增大了實(shí)驗(yàn)的復(fù)雜性和訓(xùn)練時(shí)間。Zhong和Yu等人[10-11]在目標(biāo)域引入一些無(wú)監(jiān)督學(xué)習(xí)任務(wù),提高模型在目標(biāo)域的泛化能力。其中,Zhong 等人[10]利用源域模型給目標(biāo)域圖像生成各自的軟標(biāo)簽,雖然這個(gè)標(biāo)簽不夠準(zhǔn)確,但卻可以被巧妙地用來(lái)監(jiān)督深度嵌入學(xué)習(xí)。Yu等人[11]引入樣本不變性,相機(jī)風(fēng)格不變性和鄰域不變性約束,通過(guò)示例性存儲(chǔ)器來(lái)存儲(chǔ)目標(biāo)域的特征并適應(yīng)3個(gè)不變性屬性,有效提高了模型的泛化能力。這兩種方法僅考慮目標(biāo)域內(nèi)的無(wú)監(jiān)督學(xué)習(xí)任務(wù),并未考慮域間的不變性信息。

        為盡可能地挖掘源域與目標(biāo)域內(nèi)的可用信息,本文同時(shí)結(jié)合域間和域內(nèi)變化來(lái)增強(qiáng)行人重識(shí)別的域自適應(yīng)性。首先,采用PR 策略將行人特征圖進(jìn)行分區(qū)處理。具體地說(shuō),將特征圖均勻分區(qū)為P個(gè)水平區(qū)域,用于匯集局部特征,而統(tǒng)一劃分不可避免地會(huì)在每個(gè)區(qū)域產(chǎn)生異常值,這些異常值與其他區(qū)域更相似,因此,對(duì)P個(gè)水平區(qū)域進(jìn)行“軟化”處理,將這些異常值重新分配給它們最接近的區(qū)域,從而提高了區(qū)域內(nèi)部一致性。然后,提出域間姿勢(shì)不變性,將目標(biāo)域的行人學(xué)習(xí)源域行人的姿勢(shì)特征生成新的行人圖像加入訓(xùn)練,縮小源域和目標(biāo)域的姿勢(shì)差距。接著,提出域內(nèi)姿勢(shì)不變性,將目標(biāo)域內(nèi)不同行人的姿勢(shì)特征相互學(xué)習(xí),縮小域內(nèi)姿勢(shì)差距。最后,引入域內(nèi)樣本不變性,相機(jī)風(fēng)格不變性和鄰域不變性并采用樣本存儲(chǔ)器存儲(chǔ)目標(biāo)域的特征并適應(yīng)不變性。將本文方法分別在Market1501和DukeMTMCreID 進(jìn)行實(shí)驗(yàn),驗(yàn)證了PR 策略和5 個(gè)不變性對(duì)行人重識(shí)別中的跨域問(wèn)題是有益的。

        1 增強(qiáng)域自適應(yīng)的方法設(shè)計(jì)

        1.1 系統(tǒng)框架

        本文提供完全記的源域{XS,D(XS)}和未標(biāo)記的目標(biāo)域XT。其中,XS和XT分別表示源域和目標(biāo)域的圖像域,D(XS)表示源域的身份域。源域中任一行人圖像xS,j與其身份d(yS,j)相對(duì)應(yīng)。

        本文的系統(tǒng)框架如圖1 所示。首先,在訓(xùn)練期間,標(biāo)記的源域和未標(biāo)記的目標(biāo)域數(shù)據(jù)被前饋到ReID網(wǎng)絡(luò)以獲得最新表示。接著,結(jié)合域間和域內(nèi)變化設(shè)計(jì)兩條線(xiàn)路來(lái)優(yōu)化ReID網(wǎng)絡(luò)。第一條線(xiàn)路是具有區(qū)域?qū)R與“軟化”處理的分類(lèi)模塊,用于計(jì)算源域數(shù)據(jù)的交叉熵?fù)p失。第二條線(xiàn)路是不變性學(xué)習(xí)模塊,用于計(jì)算域間姿勢(shì)不變性,域內(nèi)姿勢(shì)不變性,樣本不變性,相機(jī)風(fēng)格不變性和鄰域不變性五個(gè)不變性損失。

        圖1 系統(tǒng)框架圖

        1.2 區(qū)域?qū)R與“軟化”處理的ReID模型

        最近的研究表明,將行人身體部位進(jìn)行對(duì)齊處理對(duì)跨域行人重識(shí)別是有益的,因此,本文根據(jù)PR策略提出一種具有區(qū)域?qū)R與“軟化”處理的ReID模型(PR)。首先參考最先進(jìn)的部件模型PCB[12],將行人特征圖均勻分區(qū)為P個(gè)水平區(qū)域,用于匯集局部特征。接著,由于統(tǒng)一劃分不可避免地會(huì)在每個(gè)區(qū)域產(chǎn)生異常值,而這些異常值與其他區(qū)域更相似,因此,將這些異常值重新分配給它們最接近的區(qū)域,即對(duì)原始水平區(qū)域進(jìn)行“軟化”處理進(jìn)而提高區(qū)域內(nèi)部的一致性。

        本文采用在ImageNet[13]上預(yù)訓(xùn)練的ResNet-50[14]為基礎(chǔ)網(wǎng)絡(luò),并將其參照PCB[12]進(jìn)行重塑。具體來(lái)說(shuō),原始全局平均池(GAP)層之前的結(jié)構(gòu)與基礎(chǔ)網(wǎng)絡(luò)保持完全相同,只是刪除GAP 層及其后續(xù)內(nèi)容。當(dāng)輸入圖像從基礎(chǔ)網(wǎng)絡(luò)向前經(jīng)過(guò)堆疊的卷積層時(shí),形成了3D 張量P。接著,用傳統(tǒng)的平均池化層代替了原始的全局池化層,以在空間上將T下采樣為P個(gè)列向量g。最后,與PCB不同,在本文中,放棄使用卷積層減小g的尺寸,直接將列向量g輸入到分類(lèi)器中。其中,每個(gè)分類(lèi)器都通過(guò)添加4 096 維完全卷積(FC)層和Softmax 函數(shù)實(shí)現(xiàn)。在訓(xùn)練過(guò)程中,每個(gè)分類(lèi)器都會(huì)預(yù)測(cè)輸入圖像的身份,并受到交叉熵?fù)p失的監(jiān)督,每個(gè)區(qū)域的交叉熵?fù)p失Lid計(jì)算方法如公式(1)所示,不同區(qū)域的損失累積和LP計(jì)算方式如公式(2)所示:

        其中,nS表示訓(xùn)練批次中的源域圖像數(shù)。p(d(xS,i)|xS,i)表示源域圖像xS,i屬于身份d(xS,i)的預(yù)測(cè)概率,其由分類(lèi)模塊獲得。

        均勻地將特征圖分割為P個(gè)水平區(qū)域,然后在每個(gè)區(qū)域中應(yīng)用池化以獲得局部特征。但是,統(tǒng)一劃分不可避免地會(huì)在每個(gè)區(qū)域產(chǎn)生異常值。例如,不同圖像的相同區(qū)域不對(duì)應(yīng)于相同的身體部位,這些異常值與其他身體部位更相似,因此,將這些異常值進(jìn)行重新分配給最接近的區(qū)域。若區(qū)域內(nèi)所屬身體部位一致,T的同一區(qū)域中的列向量f應(yīng)該彼此相似,并且與其他區(qū)域中的列向量不相似。

        為此,需要對(duì)T中的所有列向量f進(jìn)行動(dòng)態(tài)分類(lèi)?;谝呀?jīng)學(xué)習(xí)的T,按照公式(3)使用線(xiàn)性層和Softmax激活作為“軟化”處理的方式。

        其中P(Pi|f)表示f屬于零件Pi的預(yù)測(cè)概率,W表示“軟化”方法的可訓(xùn)練權(quán)重矩陣。

        將f分配給Pi并以P(Pi|f)作為置信度,相應(yīng)地,從所有列向量f中以P(Pi|f)作為采樣權(quán)重對(duì)每個(gè)區(qū)域Pi進(jìn)行采樣。

        其中F是張量T中列向量的完整集合,{}表示形成集合的采樣操作。

        經(jīng)過(guò)“軟化”處理進(jìn)行重新分區(qū)后,源域所有區(qū)域的平均損失如公式(5)所示。

        其中,Lid表示不同區(qū)域的交叉熵?fù)p失,計(jì)算方法如公式(1)所示。

        1.3 域間與域內(nèi)的不變性學(xué)習(xí)

        把在源域訓(xùn)練的ReID模型直接在目標(biāo)域的進(jìn)行測(cè)試通常取得不理想的效果。通過(guò)了解域間與域內(nèi)變化有助于提高跨域ReID中的模型自適應(yīng)性。本文從域間姿勢(shì)不變性、域內(nèi)姿勢(shì)不變性、樣本不變性、相機(jī)風(fēng)格不變性和鄰域不變性5個(gè)方面來(lái)挖掘跨域ReID中不變性信息。

        樣本不變性(E)。擴(kuò)大不同身份的樣本之間的距離對(duì)提高ReID 識(shí)別能力是有益的。因此,樣本不變性的作用是使每個(gè)樣本相互遠(yuǎn)離,目標(biāo)是最小化目標(biāo)域訓(xùn)練集上的負(fù)似然對(duì)數(shù)。

        其中,d表示真實(shí)的圖像xT的身份。

        鄰域不變性(N)。樣本不變性強(qiáng)制每個(gè)樣本相互遠(yuǎn)離,但是具有相同身份的樣本也會(huì)相距甚遠(yuǎn),這對(duì)ReID 系統(tǒng)是不利的。因此,引入鄰域不變性來(lái)鼓勵(lì)每個(gè)樣本及其鄰居彼此接近能彌補(bǔ)樣本不變性帶來(lái)的不足。首先在樣本存儲(chǔ)器中找到與目標(biāo)樣本xT,i最為相似的k個(gè)樣本,并定義它們的索引為M(xT,i,k)。因此,將xT,i屬于類(lèi)j的概率的權(quán)重分配如公式(7)所示:

        因此,鄰域不變性的目標(biāo)表達(dá)式如公式(8)所示:

        域間姿勢(shì)不變性(R)。姿勢(shì)的變化是影響跨域ReID 的重要因素。不同數(shù)據(jù)集有不同的行人分布特征,減小源域與目標(biāo)域的特征分布差異有助于增強(qiáng)跨域ReID 的性能。本文提出域間姿勢(shì)不變性,并采用DG-Net[15]為目標(biāo)域生成源域的姿勢(shì)。DG-Net不需要任何額外的輔助數(shù)據(jù),僅利用現(xiàn)有的源域數(shù)據(jù)集內(nèi)姿勢(shì)便可為無(wú)標(biāo)簽的目標(biāo)域生成相似的姿勢(shì),并在Market1501與DukeMTMC-reID 等大型數(shù)據(jù)集上表現(xiàn)良好。通過(guò)DG-Net 可以為目標(biāo)域生成多個(gè)圖像,這些圖像保留衣服和鞋子,改變了其姿勢(shì),但每個(gè)真實(shí)的圖像xT應(yīng)與它改變姿勢(shì)后的圖像xTr屬于相同的身份。因此,域間姿勢(shì)不變性的損失函數(shù)計(jì)算如公式(9)所示:

        其中,d表示真實(shí)的圖像xT與改變域間姿勢(shì)后的圖像xTr的身份。

        域內(nèi)姿勢(shì)不變性(A)。目標(biāo)域訓(xùn)練集數(shù)據(jù)的多樣性有助于提高ReID模型的泛化能力。為有效地?cái)U(kuò)大目標(biāo)域訓(xùn)練集樣本數(shù)量,本文提出域內(nèi)姿勢(shì)不變性,并采用DG-Net[15]將現(xiàn)有目標(biāo)域內(nèi)行人的姿勢(shì)特征相互交換。交換姿勢(shì)特征后行人的圖像xTa應(yīng)與其真實(shí)的圖像xT擁有相同的身份。因此,域內(nèi)姿勢(shì)不變性的損失函數(shù)計(jì)算如公式(10)所示:

        其中,d′表示真實(shí)圖像xT與改變域內(nèi)姿勢(shì)后的圖像xTa的身份。

        相機(jī)風(fēng)格不變性(C)。相機(jī)風(fēng)格的不同也會(huì)影響ReID 的識(shí)別效果。對(duì)于目標(biāo)域訓(xùn)練集,分別將每個(gè)攝像機(jī)視為一種樣式域,采用StarGAN[8]為目標(biāo)域訓(xùn)練攝像機(jī)樣式(CamStyle)傳輸模型[16]。利用所學(xué)習(xí)的Cam-Style 傳遞模型,從任一相機(jī)收集的每個(gè)真實(shí)目標(biāo)圖像用其他相機(jī)的圖像樣式進(jìn)行增強(qiáng)。每個(gè)真實(shí)的圖像和它的風(fēng)格轉(zhuǎn)移對(duì)應(yīng)的人擁有相同的身份。因此,相機(jī)風(fēng)格不變性的目標(biāo)損失函數(shù)如公式(11)所示:

        其中,d″表示真實(shí)的圖像xT與相機(jī)風(fēng)格轉(zhuǎn)移后的圖像xTc的身份。

        不變性損失累積和。通過(guò)結(jié)合域間域內(nèi)變化的五種不變性特性,目標(biāo)域訓(xùn)練集的不變性學(xué)習(xí)的整體損失如公式(10)所示。當(dāng)i=j時(shí),通過(guò)將分類(lèi)為自己的類(lèi)來(lái)利用樣本不變性,相機(jī)風(fēng)格不變性,域間和域內(nèi)姿勢(shì)不變性?xún)?yōu)化網(wǎng)絡(luò)。當(dāng)i≠j時(shí),通過(guò)引導(dǎo)T,i接近它的中的臨近值來(lái)利用鄰域不變性?xún)?yōu)化網(wǎng)絡(luò)。

        1.4 樣本存儲(chǔ)器

        為計(jì)算并轉(zhuǎn)發(fā)ReID 網(wǎng)絡(luò)的最新特征表示,本文采用樣本存儲(chǔ)器[11]來(lái)適應(yīng)5 個(gè)不變性,其具有密鑰存儲(chǔ)器(K)和值存儲(chǔ)器(V),其中,K負(fù)責(zé)存儲(chǔ)FC-4096的L2標(biāo)準(zhǔn)化特征,V 負(fù)責(zé)存儲(chǔ)標(biāo)簽。在每次訓(xùn)練迭代期間,對(duì)于目標(biāo)訓(xùn)練樣本xT,i,通過(guò)ReID網(wǎng)絡(luò)轉(zhuǎn)發(fā)它并獲得FC-4096 的L2 標(biāo)準(zhǔn)化特征f(xT,i)。在反向傳播期間,不斷更新訓(xùn)練樣本xT,i的密鑰存儲(chǔ)器中的特征。

        1.5 網(wǎng)絡(luò)總損失

        為提高ReID 模型的跨域自適應(yīng)性,網(wǎng)絡(luò)的損失函數(shù)如公式(13)所示:

        其中,α∈[0,1],它控制著源域和目標(biāo)域所占比重。

        2 實(shí)驗(yàn)數(shù)據(jù)與結(jié)果分析

        本文研究實(shí)驗(yàn)平臺(tái)的設(shè)置:Intel Xeon CPU E5-2640 v4 @ 2.40 GHz 處理器,11 GB 內(nèi)存,GTX1080Ti顯卡以及Ubuntu 14.04 操作系統(tǒng),并使用pytorch 深度學(xué)習(xí)框架和Python編程語(yǔ)言實(shí)現(xiàn)。

        2.1 數(shù)據(jù)集

        為了方便對(duì)比實(shí)驗(yàn)結(jié)果,本文選擇Market150 和DukeMTMC-reID兩個(gè)廣泛使用的數(shù)據(jù)集。本次實(shí)驗(yàn)依次將Market1501 和DukeMTMC-reID 數(shù)據(jù)集做為源域和目標(biāo)域。訓(xùn)練和測(cè)試時(shí)輸入圖像均裁剪為128×256。

        2.2 實(shí)施細(xì)節(jié)

        (1)模型。實(shí)驗(yàn)使用ResNet-50[14]作為主干,將Conv5的步幅從2 改為1。在ResNet-50 的“pool5”層之后,附加一個(gè)4 096 維的完全連接層,接著添加批處理規(guī)范化和ReLU。在“pool5”層上應(yīng)用Dropout,并將其值設(shè)為0.5。分區(qū)數(shù)P設(shè)置為6。

        (2)訓(xùn)練。通過(guò)水平翻轉(zhuǎn)和歸一化來(lái)增強(qiáng)訓(xùn)練圖像。將批處理大小設(shè)置為64,區(qū)域?qū)R訓(xùn)練時(shí)學(xué)習(xí)率初始化為0.1,40個(gè)epoch后衰減為0.01。當(dāng)采用“軟化”處理進(jìn)行增強(qiáng)時(shí),將學(xué)習(xí)率設(shè)置為0.01,再次訓(xùn)練10 個(gè)epochs進(jìn)行重新分區(qū)。

        (3)不變性。設(shè)定鄰域不變性的正樣本數(shù)k=6,損失權(quán)重α=0.2。

        2.3 實(shí)驗(yàn)結(jié)果及分析

        2.3.1 PR模型和5種不變性的有效性

        本文依次將Market1501 和DukeMTMC-reID 作為源域,驗(yàn)證PR模型和5種不變性學(xué)習(xí)的有效性,對(duì)比結(jié)果如表1所示。其中,IDE表示基于ResNet-50的標(biāo)準(zhǔn)基線(xiàn)模型。在相同的實(shí)驗(yàn)平臺(tái)設(shè)置下,將Market1501作為源域進(jìn)行訓(xùn)練時(shí),IDE、PCB[12]和PR對(duì)齊分別在25、40和55 個(gè)epoch 達(dá)到收斂,如圖2 中(a)、(b)和(c)所示。完成模型訓(xùn)練總耗時(shí)分別約為35、55和70分鐘,PCB訓(xùn)練時(shí)間的增加主要是由于取消了Conv5 層中最后一次空間向下采樣操作,從而將張量T擴(kuò)大了4倍,PR訓(xùn)練時(shí)間的增加主要是添加了4 096維的全連接層。

        圖2 模型訓(xùn)練曲線(xiàn)圖

        表1 PR和5種不變性學(xué)習(xí)的有效性 %

        由表1 可以看出,在對(duì)標(biāo)準(zhǔn)IDE 進(jìn)行統(tǒng)一分區(qū)與“軟化”處理后,得到的PR 模型在加大訓(xùn)練時(shí)長(zhǎng)的前提下有效地提高了跨域ReID 的識(shí)別準(zhǔn)確度。在PR 模型的基礎(chǔ)上添加樣本不變性,相機(jī)風(fēng)格不變性和鄰域不變性后,Top-1 和mAP 的識(shí)別精度得到了極大提升。當(dāng)繼續(xù)添加域間和域內(nèi)姿勢(shì)不變性后,Top-1 和mAP的識(shí)別精度又略微上升。具體而言,在PR 模型的基礎(chǔ)上結(jié)合域間與域內(nèi)變化的5 個(gè)不變性特性后,分別在DukeMTMC-reID 和Market1501 上進(jìn)行測(cè)試,Top-1 從44.1%提高到65.4%,從59.5%提高到77.5%;mAP 從24.7%提高到42.2%,從28.1%提高到45.1%。實(shí)驗(yàn)結(jié)果說(shuō)明,PR 模型和5 種不變性特性對(duì)提高跨域ReID 的域自適應(yīng)性是有益的。

        2.3.2 與其他方法的比較

        分別在Market1501 和DukeMTMC-reID 測(cè)試時(shí),與目前僅考慮域間和域內(nèi)變化的方法比較,結(jié)果如表2所示。

        表2 比較了PTGAN[2]和SPGAN[1]兩種提出域間風(fēng)格遷移的方法,它們把源域訓(xùn)練樣本風(fēng)格遷移到目標(biāo)域的測(cè)試集上。HHL[7]在目標(biāo)域內(nèi)進(jìn)行細(xì)粒度風(fēng)格遷移的方法,ECN[11]引入樣本不變性、相機(jī)風(fēng)格不變性和鄰域不變性約束的方法。

        表2 與其他方法的比較 %

        與目前領(lǐng)先的跨域ReID方法相比,本文提出的PR策略和結(jié)合域間與域內(nèi)的5 種不變性約束的方法(PRA)明顯優(yōu)于它們。具體而言,當(dāng)使用Market1501作為源域并在DukeMTMC-reID 上進(jìn)行測(cè)試時(shí),實(shí)現(xiàn)了Top-1 和mAP 分別為65.4%和42.2%的準(zhǔn)確度。當(dāng)使用DukeMTMC-reID 作為源域并在Market1501 上測(cè)試時(shí),獲得Top-1和mAP分別為77.5%和45.1%的準(zhǔn)確度。在DukeMTMC-reID和Market1501上分別測(cè)試時(shí),Top-1準(zhǔn)確度比目前領(lǐng)先的ECN[8]高2.1個(gè)百分點(diǎn)和2.4個(gè)百分點(diǎn)。

        3 結(jié)語(yǔ)

        本文提出一種結(jié)合域間與域內(nèi)變化來(lái)增強(qiáng)跨域行人重識(shí)別中的域自適應(yīng)性方法。對(duì)源域行人圖像統(tǒng)一分區(qū)和“軟化”處理可有效提高跨域行人重識(shí)別的區(qū)域?qū)R的性能,進(jìn)而提高模型的泛化能力。結(jié)合域間與域內(nèi)變化添加5 個(gè)不變性約束,可極大地挖掘域間與域內(nèi)的有用信息,提高跨域行人重識(shí)別中的域自適應(yīng)性。實(shí)驗(yàn)表明,本文方法能有效地增強(qiáng)跨域行人重識(shí)別中的域自適應(yīng)性。然而,對(duì)于姿勢(shì)不變性、行人姿勢(shì)改變前后只有衣服和鞋子是保持不變的,而體型和頭部信息發(fā)生改變,因此,姿勢(shì)特征的學(xué)習(xí)并不十分精準(zhǔn)。進(jìn)一步研究可以用更加精確的姿態(tài)轉(zhuǎn)移算法,使原始行人的姿勢(shì)特征可以更加準(zhǔn)確地傳遞給目標(biāo)行人。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線(xiàn)三等角』
        重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        美女露出奶头扒开内裤的视频| 99热精品国产三级在线观看| 欧美另类高清zo欧美| 少妇三级欧美久久| 亚洲国产精品一区二区第一| 久久精品国产亚洲av久按摩| 少妇中文字幕乱码亚洲影视| 4hu四虎永久在线观看 | 国产色综合天天综合网| 精品人妻少妇一区二区中文字幕| 国产在线视频一区二区三| 激情久久黄色免费网站| 色欲综合一区二区三区| 99久久久无码国产aaa精品| 欧美日韩区1区2区3区| 一级a免费高清免在线| 三级日韩视频在线观看| 手机福利视频| 国产精品女同一区二区| 日韩精品一区二区三区在线观看的| av日韩高清一区二区| 久久精品国产字幕高潮| 国产麻传媒精品国产av| 国产精品三级一区二区按摩| 国产激情免费观看视频| 亚洲国产精品成人久久久| 亚洲永久无码7777kkk| 国产福利酱国产一区二区| 国产免费三级三级三级| 亚洲视频在线免费不卡| 性大毛片视频| 亚洲国产成人AⅤ片在线观看| 日韩精品成人一区二区三区久久久 | 在线观看一区二区蜜桃| 内射合集对白在线| 久久国产精品国产精品日韩区| 熟女人妻一区二区中文字幕| 免费看美女被靠到爽的视频| 无码一区二区波多野结衣播放搜索| 亚洲中文字幕无线乱码va| 一个人午夜观看在线中文字幕|