亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征融合與核局部Fisher判別分析的行人重識(shí)別

        2016-11-01 18:26:27張耿寧王家寶李陽(yáng)苗壯張亞非李航
        計(jì)算機(jī)應(yīng)用 2016年9期
        關(guān)鍵詞:特征描述直方圖度量

        張耿寧 王家寶 李陽(yáng) 苗壯 張亞非 李航

        摘要:

        行人重識(shí)別精度主要取決于特征描述和度量學(xué)習(xí)兩個(gè)方面。在特征描述方面,現(xiàn)有特征難以解決行人圖像視角變化的問(wèn)題,因此考慮將顏色標(biāo)簽特征與顏色和紋理特征融合,并通過(guò)區(qū)域和塊劃分的方式提取直方圖獲得圖像特征;在度量學(xué)習(xí)方面,傳統(tǒng)的核局部Fisher判別分析度量學(xué)習(xí)方法對(duì)所有查詢圖像統(tǒng)一映射到相同的特征空間中,忽略了查詢圖像不同區(qū)域的重要性,為此在核局部Fisher判別分析的基礎(chǔ)上對(duì)特征進(jìn)行區(qū)域分組,采用查詢自適應(yīng)得分融合方法來(lái)描述圖像不同區(qū)域的重要性,由此實(shí)現(xiàn)度量學(xué)習(xí)。在VIPeR和iLIDS數(shù)據(jù)集上,實(shí)驗(yàn)結(jié)果表明融合后的特征描述能力明顯優(yōu)于原始特征,同時(shí)改進(jìn)的度量學(xué)習(xí)方法有效提高了行人重識(shí)別精度。

        關(guān)鍵詞:

        行人重識(shí)別;顏色標(biāo)簽;特征融合;度量學(xué)習(xí);核局部Fisher判別分析

        中圖分類號(hào):

        TP391.4

        文獻(xiàn)標(biāo)志碼:A

        Abstract:

        Feature representation and metric learning are fundamental problems in person reidentification. In the feature representation, the existing methods cannot describe the pedestrian well for massive variations in viewpoint. In order to solve this problem, the Color Name (CN) feature was combined with the color and texture features. To extract histograms for image features, the image was divided into zones and blocks. In the metric learning, the traditional kernel Local Fisher Discriminant Analysis (kLFDA) method mapped all query images into the same feature space, which disregards the importance of different regions of the query image. For this reason, the features were grouped by region based on the kLFDA, and the importance of different regions of the image was described by the method of QueryAdaptive Late Fusion (QALF). Experimental results on the VIPeR and iLIDS datasets show that the extracted features are superior to the original feature; meanwhile, the improved method of metric learning can effectively increase the accuracy of person reidentification.

        英文關(guān)鍵詞Key words:

        person reidentification; Color Name (CN); feature fusion; metric learning; kernel Local Fisher Discriminant Analysis (kLFDA)

        0引言

        近年來(lái),隨著監(jiān)控設(shè)備在公共場(chǎng)所的逐漸增多,行人重識(shí)別技術(shù)越來(lái)越受到人們的關(guān)注。行人重識(shí)別的定義為從跨攝像機(jī)、跨時(shí)間段的行人圖像數(shù)據(jù)庫(kù)中找出與檢索行人一致匹配的人物[1]。但是由于光照、攝像機(jī)位置、行人姿勢(shì)變化等問(wèn)題,同一行人在不同圖像之間會(huì)出現(xiàn)較大的差異,這給行人重識(shí)別研究帶來(lái)巨大的困難和挑戰(zhàn)。

        當(dāng)前,行人重識(shí)別研究方法大致可分為兩類:基于特征描述的方法和基于度量學(xué)習(xí)的方法。基于特征描述的方法側(cè)重于通過(guò)尋找對(duì)視角變化魯棒的特征來(lái)提高行人重識(shí)別精度。早期Gray等[2]采用AdaBoost方法從大量顏色、紋理特征中挑選出更具描述力的特征來(lái)改進(jìn)效果,但是該方法無(wú)法解決視角變換問(wèn)題。Kai等[3]放棄使用全局特征描述,改用局部的尺度不變特征變換(ScaleInvariant Feature Transform, SIFT)來(lái)表示行人,但是局部特征點(diǎn)經(jīng)常會(huì)落在嘈雜的背景上,導(dǎo)致精度的下降。Farenzena等[4]提出了一種局部特征對(duì)稱驅(qū)動(dòng)累積(SymmetryDriven Accumulation of Local Features, SDALF)方法,該方法通過(guò)行人對(duì)稱屬性減少背景干擾來(lái)提升對(duì)視角變換的魯棒性。此外,Bazzani等[5]對(duì)具有相似顏色的像素區(qū)域進(jìn)行聚類,將行人圖像劃分成最大顏色穩(wěn)定區(qū)域(Maximally Stable Color Regions, MSCR),并使用這些區(qū)域的類中心、二階距矩陣和顏色均值來(lái)描述行人。與全局特征描述相比,基于局部區(qū)域的特征描述具有更好的視角變化魯棒性。

        基于度量學(xué)習(xí)的方法側(cè)重于從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)出一種魯棒的度量方法來(lái)解決復(fù)雜的匹配問(wèn)題。2008年Zheng等[6]提出概率相對(duì)距離比較(Probabilistic Relative Distance Comparison, PRDC)算法,其基本思想是增大正確匹配之間擁有較短距離的可能性,使算法對(duì)行人外觀變化魯棒。之后,Pedagadi等[7]采用局部Fisher判別分析(Local Fisher

        Discriminant Analysis, LFDA)方法進(jìn)行行人重識(shí)別度量學(xué)習(xí),但是LFDA需要對(duì)高維散列矩陣進(jìn)行主成分分析(Principal Component Analysis, PCA)降維,降低了特征的表達(dá)能力。Xiong等[8]在LFDA的基礎(chǔ)上使用了核技巧,提出了核局部Fisher判別分析(kernel Local Fisher Discriminant Analysis, kLDFA)算法,可避免求解高維的散列矩陣,既減少了運(yùn)算量,又提高了行人重識(shí)別的準(zhǔn)確率。

        針對(duì)當(dāng)前研究進(jìn)展,本文在行人重識(shí)別的特征提取與度量學(xué)習(xí)上分別作出了改進(jìn):在特征提取方面,基于特征融合的思想[9],將顏色標(biāo)簽(Color Name, CN)特征[10]與現(xiàn)有的顏色和紋理特征進(jìn)行融合,并通過(guò)合并區(qū)域塊直方圖來(lái)提取行人特征;在度量學(xué)習(xí)方面,首先對(duì)特征進(jìn)行區(qū)域分組處理,然后進(jìn)行kLDFA求解出各特征組的映射矩陣,最后采用查詢自適應(yīng)得分融合(QueryAdaptive Late Fusion, QALF)方法[11]來(lái)兼顧不同查詢圖像的差異。在VIPeR和iLIDS這兩個(gè)數(shù)據(jù)集上,實(shí)驗(yàn)結(jié)果表明本文改進(jìn)的特征提取方法和度量學(xué)習(xí)方法均能有效提升行人重識(shí)別的精度。

        1特征提取

        1.1特征選擇

        由于基于局部區(qū)域劃分的特征描述被驗(yàn)證具有較好的描述能力,故本文在區(qū)域劃分的基礎(chǔ)上,將CN特征與現(xiàn)有的HSV顏色特征,尺度不變局部三元模式(Scale Invariant Local Ternary Pattern, SILTP)紋理特征[12]進(jìn)行融合,得到更加魯棒的行人圖像特征描述。

        CN特征是人們對(duì)生活中出現(xiàn)的顏色賦予的一種語(yǔ)義標(biāo)簽,對(duì)應(yīng)于Berlin等[13]在語(yǔ)言研究中總結(jié)的11個(gè)基本顏色詞:黑色、藍(lán)色、棕色、灰色、綠色、橙色、粉紅色、紫色、紅色、白色和黃色。由于不同光照下的同一顏色會(huì)依概率映射到對(duì)應(yīng)的顏色詞上,所以CN特征具有一定的光照不變性,且被認(rèn)為與現(xiàn)實(shí)中的顏色具有非常緊密的聯(lián)系。該特征具備較強(qiáng)的顏色表達(dá)能力,在目標(biāo)分類領(lǐng)域已經(jīng)得到了較好的應(yīng)用[10]。

        在計(jì)算CN特征時(shí),需要對(duì)圖像像素點(diǎn)完成一個(gè)從RGB顏色空間到CN各顏色詞的概率映射,映射矩陣M為常數(shù)。映射過(guò)后,CN特征描述子的定義如下:

        OCN={p(cn1|x),p(cn2|x),…,p(cn11|x)}(1)

        其中x為像素點(diǎn)的值,p(cni|x)表示屬于第i個(gè)顏色詞的概率值,且:

        ∑11i=1p(cni|x)=1(2)

        傳統(tǒng)的矩陣M是由人工標(biāo)注的一系列顏色片段學(xué)習(xí)獲得的,但是這種學(xué)習(xí)方法存在著大量的主觀因素,因此在文獻(xiàn)[14]中使用概率潛在語(yǔ)義分析(Probabilistic Latent Semantic Analysis, PLSA)模型從大量的谷歌圖片中自動(dòng)學(xué)習(xí)獲得映射矩陣,并通過(guò)實(shí)驗(yàn)比較得出比傳統(tǒng)方法學(xué)習(xí)出來(lái)的映射矩陣具有更加良好的性能,所以在本文中使用的映射矩陣M即是文獻(xiàn)[14]中學(xué)習(xí)獲得的矩陣。

        HSV是一種基于色調(diào)(Hue)、飽和度(Saturation)和亮度(Value)的顏色模型,HSV顏色空間的色彩與人的視覺(jué)感知基本一致。

        SILTP[12]是對(duì)局部二值模式(Local Binary Pattern, LBP)特征的改進(jìn),LBP計(jì)算簡(jiǎn)單且具有良好的尺度不變性,但是對(duì)于圖像噪聲非常敏感,SILTP通過(guò)多次比較的方式對(duì)LBP進(jìn)行改進(jìn),使得SILTP既具有LBP的尺度不變性又對(duì)圖像噪聲魯棒。

        1.2直方圖提取

        特征選擇后,即可對(duì)行人圖像進(jìn)行區(qū)域劃分以及塊直方圖的提取。經(jīng)過(guò)參考文獻(xiàn)[8]中的參數(shù)及實(shí)驗(yàn)驗(yàn)證,本文提取特征的具體步驟如下:

        步驟1區(qū)域劃分。每張行人圖像統(tǒng)一縮放至128×48像素大小,按照區(qū)域大小為10×48像素,步長(zhǎng)為5像素將圖像水平分割成有重疊部分24個(gè)區(qū)域,其中最后一次步長(zhǎng)為8。

        步驟2塊劃分。對(duì)每一個(gè)區(qū)域使用大小為10×10像素,步長(zhǎng)為5像素將每個(gè)區(qū)域分割成有重疊的8個(gè)塊,其中最后一次步長(zhǎng)為8。

        步驟3直方圖提取。對(duì)每一個(gè)塊提取CN、HSV和SILTP特征直方圖。CN特征中,每個(gè)詞分成25bin,11個(gè)詞通過(guò)相加獲得275bin,所有像素以每個(gè)詞的概率投票至對(duì)應(yīng)的bin中,最終獲得275維的CN特征直方圖;HSV特征中,三個(gè)通道每個(gè)通道分為8個(gè)bin,通過(guò)相乘獲得512維的顏色直方圖;SILTP特征選取SILTP0.34,3和SILTP0.34,4兩個(gè)尺度,獲得162維的紋理直方圖[12]。

        步驟4直方圖合并。各特征提取后,每個(gè)塊直方圖的維度為275+512+162=949維。通過(guò)對(duì)應(yīng)維度值相加,把每個(gè)區(qū)域中的8個(gè)949維的直方圖合并成1個(gè)。至此,每個(gè)區(qū)域?qū)?yīng)一個(gè)949維的直方圖。

        考慮到多尺度下能更好地描述圖像,本文將128×48像素的圖像進(jìn)行2×2像素縮放,得到64×24像素和32×12像素兩個(gè)尺度。依照前述步驟進(jìn)行了區(qū)域劃分以及直方圖提取,在64×24尺度下可得到11個(gè)區(qū)域,在32×12尺度下可得到5個(gè)區(qū)域,每個(gè)區(qū)域?qū)?yīng)一個(gè)949維的直方圖。

        經(jīng)過(guò)上述操作后,提取出來(lái)每一幅圖像的特征維度為(24+11+5)×949=37960維。

        最后,對(duì)特征進(jìn)行l(wèi)og變換和歸一化操作獲得最終所需要的圖像特征,其中l(wèi)og變換是為了降低某個(gè)維度較大的數(shù)值特征的影響。

        2度量學(xué)習(xí)

        行人重識(shí)別時(shí),不同的查詢樣本都有著各自的特點(diǎn),如圖1所示:左邊行人,其中間部分區(qū)分性好,故中間部分提取的特征應(yīng)該增加權(quán)重;中間行人,其黑色上衣是很常見(jiàn),所以對(duì)應(yīng)部分的特征應(yīng)該降低權(quán)重;右邊行人,其頭上戴著帽子,相比前兩張查詢圖片,頭部部分的特征的權(quán)重應(yīng)該增加。由此可看出,每個(gè)查詢圖像應(yīng)具有不同的部分權(quán)值,以提高查詢的精度。

        在度量學(xué)習(xí)中,kLDFA是對(duì)于所有查詢樣本學(xué)習(xí)出來(lái)的映射矩陣,在檢索時(shí)無(wú)法保證前述的特性。因此,本文在kLDFA的基礎(chǔ)上,提出了一種查詢自適應(yīng)的度量學(xué)習(xí)方法,主要過(guò)程見(jiàn)圖2。該方法先把提取到的特征按2.1節(jié)所示進(jìn)行分組,然后對(duì)每一組特征分別進(jìn)行kLDFA度量學(xué)習(xí)得到映射矩陣并存儲(chǔ)起來(lái),在相似性度量時(shí)再利用QALF對(duì)各個(gè)特征組的得分進(jìn)行加權(quán)融合,得到相似性度量最終結(jié)果。

        2.1特征分組

        對(duì)于從對(duì)象圖像提取出來(lái)的特征,本文將其按圖像的上中下等分為3組,如圖3所示,特征組1包含原圖、第一次縮放和第二次縮放的前8、4和2個(gè)區(qū)域,維數(shù)為13286,記為F(1);特征組2包含原圖、第一次縮放和第二次縮放的中間8、4和2個(gè)區(qū)域,維數(shù)為13286,記為F(2);特征組3包含原圖、第一次縮放和第二次縮放的最后8、3和1個(gè)區(qū)域,維數(shù)為11388,記為F(3)。

        2.3查詢自適應(yīng)得分融合

        通過(guò)訓(xùn)練數(shù)據(jù)求得每個(gè)特征組的映射矩陣之后,將其存入數(shù)據(jù)庫(kù)。當(dāng)進(jìn)行相似性度量時(shí),先計(jì)算出各個(gè)特征組經(jīng)過(guò)映射后的得分,再采用QALF方法對(duì)各個(gè)特征組得分進(jìn)行加權(quán)。該方法主要通過(guò)無(wú)標(biāo)簽的訓(xùn)練數(shù)據(jù),對(duì)每一張查詢圖像計(jì)算得出各個(gè)特征組的權(quán)重,以達(dá)到自適應(yīng)加權(quán)的效果。QALF[11]認(rèn)為,描述能力強(qiáng)的特征比描述能力弱的特征在得分曲線下的面積要小,QALF方法主要分為離線部分以及在線部分:

        3實(shí)驗(yàn)與分析

        3.1數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

        本文選取VIPeR[2]和iLIDS[15]兩個(gè)存在視角變化的公開(kāi)數(shù)據(jù)集評(píng)測(cè)所提方法的效果。

        VIPeR數(shù)據(jù)集擁有1264張行人圖像,圖像大小為128×48像素,每個(gè)行人有2張從不同攝像機(jī)拍攝得到的圖像,圖像都是從水平視角拍攝,但是由于攝像機(jī)的視角變換,同一行人在不同攝像機(jī)下的圖像有較大的姿勢(shì)變化。

        iLIDS數(shù)據(jù)集由476張行人圖像組成,包含119個(gè)行人,每個(gè)行人擁有2至8張圖像,由于數(shù)據(jù)集在機(jī)場(chǎng)拍攝,因此有部分行人圖像存在較嚴(yán)重的遮擋問(wèn)題。

        實(shí)驗(yàn)中,為了與其他算法比較,本文采用M(r)評(píng)價(jià)指標(biāo),CMC(Cumulative Match Characteristic)評(píng)價(jià)曲線[8]。其中M(r)為排序后前r位圖像中包含正確圖像的概率。

        3.2特征及度量方法對(duì)比分析

        為了評(píng)測(cè)本文所提特征與度量方法對(duì)行人重識(shí)別精度的影響,本文在度量學(xué)習(xí)方法不變的條件下對(duì)比了本文特征與文獻(xiàn)[8]中的原始特征,同時(shí)在使用本文特征的條件下對(duì)比了本文度量方法與kLDFA[8]方法。實(shí)驗(yàn)結(jié)果如圖4所示,其中,測(cè)試數(shù)據(jù)集統(tǒng)一為VIPeR。由圖4可知,當(dāng)度量學(xué)習(xí)方法統(tǒng)一為kLDFA時(shí),使用本文特征比原始特征在r=1的精度百分?jǐn)?shù)上大約有10個(gè)百分點(diǎn)的增加,隨著r的增大,雖然提升的程度有所減小,但是依舊比原始特征的精度要高,這驗(yàn)證了本文所提特征比原始特征具有更好的描述能力;當(dāng)特征統(tǒng)一為本文特征時(shí),使用本文提出的度量學(xué)習(xí)方法比kLDFA在r=1的精度百分?jǐn)?shù)上大約有3個(gè)百分點(diǎn)的增加,并隨著r的增大,提升的程度更為明顯,這驗(yàn)證了本文的度量學(xué)習(xí)方法能針對(duì)查詢圖片,對(duì)各個(gè)區(qū)域?qū)W習(xí)出合適的權(quán)重系數(shù),有效地提高行人重識(shí)別精度。

        3.3綜合對(duì)比分析

        本節(jié)實(shí)驗(yàn)將本文的方法與SVMML方法[16]和KISSME方法[17]進(jìn)行了對(duì)比,以評(píng)測(cè)本文方法的效果。實(shí)驗(yàn)分別在VIPeR和iLIDS數(shù)據(jù)集上進(jìn)行了測(cè)試,測(cè)試結(jié)果見(jiàn)表1。

        由表1可看出,在VIPeR數(shù)據(jù)集上,當(dāng)r=1時(shí),本文方法比SVMML在精度百分?jǐn)?shù)上提高約8個(gè)百分點(diǎn),而比KISSME方法提高約13個(gè)百分點(diǎn),隨著r的增大,本文方法依然保持良好精度;在iLIDS數(shù)據(jù)集上,當(dāng)r=1時(shí),本文方法比KISSME在精度上提升約14個(gè)百分點(diǎn),而在VIPeR上精度較高的SVMML方法,在此數(shù)據(jù)集上則表現(xiàn)較差,這表明了本文方法具有更好的普適性。

        4結(jié)語(yǔ)

        在行人重識(shí)別技術(shù)中,特征描述與度量學(xué)習(xí)一直都是重難點(diǎn)問(wèn)題,本文針對(duì)這兩個(gè)方面分別作了改進(jìn):在特征描述方面,基于特征融合的思想提取出一種更有效的特征;在度量學(xué)習(xí)方面,在kLDFA的基礎(chǔ)上加入自適應(yīng)得分融合,使得查詢圖像與數(shù)據(jù)庫(kù)圖像之間的相似性度量更加精確。實(shí)驗(yàn)結(jié)果驗(yàn)證了本文方法的有效性。文獻(xiàn)[3]中通過(guò)人物對(duì)稱屬性減少了背景干擾從而提高了重識(shí)別精度,在本文中,由于并未去除行人圖像背景的干擾,可能會(huì)導(dǎo)致精度有一定程度的下降,在接下來(lái)將進(jìn)一步研究如何去除背景的干擾。

        參考文獻(xiàn):

        [1]

        GONG S, CRISTANI M, YAN S, et al. Person Reidentification [M]. Berlin: Springer, 2014.

        [2]

        GRAY D, TAO H. Viewpoint invariant pedestrian recognition with an ensemble of localized features [C]// Proceeding of the 10th European Conference on Computer Vision, LNCS 5302. Berlin:Springer, 2008: 262-275.

        [3]

        FARENZENA M, BAZZANI L, PERINA A, et al. Person reidentification by symmetrydriven accumulation of local features [C]// Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 2360-2367.

        KAI J, BODENSTEINER C, ARENS M. Person reidentification in multicamera networks [C]// Proceedings of the 2011 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. Washington, DC: IEEE Computer Society, 2011: 55-61.

        [4]

        KAI J, BODENSTEINER C, ARENS M. Person reidentification in multicamera networks [C]// Proceedings of the 2011 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops. Piscataway, NJ: IEEE, 2011: 55-61.

        FARENZENA M, BAZZANI L, PERINA A, et al. Person reidentification by symmetrydriven accumulation of local features [C]// Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 2360-2367.

        [5]

        BAZZANI L, CRISTANI M, MURINO V. Symmetrydriven accumulation of local features for human characterization and reidentification [J]. Computer Vision and Image Understanding, 2013, 117(2): 130-144.

        [6]

        ZHENG W S, GONG S, XIANG T. Person reidentification by probabilistic relative distance comparison [C]// CVPR 11: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2011: 649-656.

        [7]

        PEDAGADI S, ORWELL J, VELASTIN S, et al. Local Fisher discriminant analysis for pedestrian reidentification [C]// CVPR 13: Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 3318-3325.

        [8]

        XIONG F, GOU M, CAMPS O, et al. Person reidentification using kernelbased metric learning methods [M]// FLEET D, PAJDLA T, SCHIELE B, et al. Computer Vision—ECCV 2014, LNCS 8695. Berlin: Springer, 2014: 1-16.

        [9]

        張永庫(kù),李云峰,孫勁光.基于多特征融合的圖像檢索[J].計(jì)算機(jī)應(yīng)用,2015,35(2):495-498.(ZHANG Y K, LI Y F, SUN J G. Image retrieval based on multifeature fusion[J]. Journal of Computer Applications, 2015, 35(2): 495- 498.)

        [10]

        KHAN F S, VAN DE WEIJER J, VANRELL M. Modulating shape features by color attention for object recognition [J]. International Journal of Computer Vision, 2012, 98(1): 49-64.

        [11]

        ZHENG L, WANG S, TIAN L, et al. Queryadaptive late fusion for image search and person reidentification [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 1741-1750.

        [12]

        LIAO S, ZHAO G, KELLOKUMPU V, et al. Modeling pixel process with scale invariant local patterns for background subtraction in complex scenes [C]// Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 1301-1306.

        [13]

        BERLIN B, KAY P. Basic Color Terms: Their Universality and Evolution [M]. Berkeley, CA: University of California Press, 1991.

        [14]

        VAN DE WEIJER J, SCHMID C, VERBEEK J, et al. Learning color names for realworld applications [J]. IEEE Transactions on Image Processing, 2009, 18(7): 1512-1523.

        [15]

        ZHENG W S, GONG S, XIANG T. Associating groups of people [C] // Proceedings of the British Machine Vision Conference. 2009, 2: 6.

        ZHENG W S, GONG S, XIANG T. Associating groups of people [EB/OL]. [20151211]. http://www.bmva.org/bmvc/2009/Papers/Paper167/Abstract167.pdf.

        [16]

        KOSTINGER M, HIRZER M, WOHLHART P, et al. Large scale metric learning from equivalence constraints [C]// CVPR 12: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 2288-2295.

        猜你喜歡
        特征描述直方圖度量
        In the Zoo
        有趣的度量
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        船舶尾流圖像的數(shù)字化處理和特征描述技術(shù)
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        模糊度量空間的強(qiáng)嵌入
        迷向表示分為6個(gè)不可約直和的旗流形上不變愛(ài)因斯坦度量
        用直方圖控制畫(huà)面影調(diào)
        目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
        地質(zhì)異常的奇異性度量與隱伏源致礦異常識(shí)別
        国产精品女丝袜白丝袜| 亚洲日产精品一二三四区| 亚洲国产成人精品无码区99| 成人无码视频在线观看网站| 蜜桃av一区二区三区久久| 青青草国产在线视频自拍| 亚洲中文字幕在线观看| 欧美在线资源| 日韩精品综合在线视频| 青春草免费在线观看视频| 黑人巨茎大战欧美白妇| 亚洲爆乳大丰满无码专区| 加勒比一区二区三区av| 色窝窝无码一区二区三区| 中国a级毛片免费观看| 女人的天堂av免费看| 国产中文字幕亚洲国产| 亚洲精品中文字幕乱码三区| 亚洲国产美女精品久久久久| 亚洲日产国无码| 色综合悠悠88久久久亚洲| 亚洲精品久久| 日中文字幕在线| 91亚洲精品久久久中文字幕| 最美女人体内射精一区二区| 成人做爰视频www| 国产欧美激情一区二区三区| 高清不卡av一区二区| 久久精品国产亚洲av无码娇色| 国产成年无码V片在线| 亚洲一区二区女优视频| 丁香五月缴情在线| 日本高清色倩视频在线观看| 精品国产高清a毛片| 日韩av一区二区三区高清| 国产三级久久久精品麻豆三级| 国产在线一区观看| 蜜桃av一区二区三区| 午夜爽爽爽男女免费观看影院| 国产精品天天狠天天看| 日本女优在线观看一区二区三区|