亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征融合及子空間學(xué)習(xí)的行人再識別

        2019-07-12 06:23:46李大湘費國園
        西安郵電大學(xué)學(xué)報 2019年2期
        關(guān)鍵詞:特征向量行人投影

        李大湘, 費國園, 劉 穎

        (1. 西安郵電大學(xué) 通信與信息工程學(xué)院, 陜西 西安 710121;2. 電子信息現(xiàn)場勘驗應(yīng)用技術(shù)公安部重點實驗室, 陜西 西安 710121)

        在多攝像機監(jiān)控網(wǎng)絡(luò)中,利用行人再識別技術(shù)[1]可實現(xiàn)目標(biāo)行人跟蹤或異常場景檢測,從而服務(wù)于智能安防和刑事偵查[2-3]。受光照、遮擋、姿勢和雜亂背景等因素干擾,行人外觀通常會發(fā)生變化,所以,行人再識別的重點主要在于特征提取和度量學(xué)習(xí)[4]。

        在特征提取方面,有局部特征集成(ensemble of localized features,ELF)[5]、對稱驅(qū)動的局部特征累積(symmetry-driven accumulation of local features, SDALF)[6]、局部最大概率(local maximal occurrence,LOMO)特征[7]、分層高斯方法利用高斯塊的高斯區(qū)域(Gaussian region of Gaussian patch,GOG)描述符[8]等方法。其中,LOMO特征是HSV顏色直方圖和尺度不變局部三元模式(scale invariant local ternary pattern,SILTP)紋理特征的高維表示,而GOG描述符則將圖像分為由多個高斯分布描述的不同區(qū)域,以刻畫行人圖像的顏色和紋理等信息。每種高斯分布代表一個圖像塊,每個圖像塊的特征融合后得到行人圖像的特征向量。

        除了歐氏距離和馬氏距離外,用于行人再識別的距離度量學(xué)習(xí)方法還有許多[9],如交叉視圖二次判別分析(cross-view quadratic dis-criminant analysis, XQDA)[7]、成對特定CRC編碼(pairewise-specific collaborative representation based classification coding,PSCRC)[10]、多核全監(jiān)督子空間學(xué)習(xí)(multi-kernel fully-supervised subspace learning,MKFSL)[11]等方法。其中,MKFSL方法能有效利用行人圖像,通過學(xué)習(xí)產(chǎn)生一個有辨別力的子空間,先利用有標(biāo)簽樣本的GOG特征學(xué)習(xí)初始投影,再利用該投影將無標(biāo)簽樣本映射到低維空間中,但是,因未能充分利用標(biāo)簽樣本,往往會引發(fā)行人圖像表征單一化或模型浮動。

        為了進一步充分利用帶標(biāo)簽樣本,本文擬從特征融合和子空間學(xué)習(xí)兩方面,對MKFSL行人再識別算法加以優(yōu)化。以串聯(lián)融合后的LOMO特征和GOG特征,描述行人圖像,彌補單一描述符表征行人圖像的局限性。挑選典型帶標(biāo)簽樣本,來學(xué)習(xí)優(yōu)化的判別式投影,避免模型浮動問題。

        1 特征提取與融合

        1.1 局部最大概率特征

        LOMO是特征包含顏色特征和紋理特征。考慮到光照對顏色信息的影響,先對圖像利用帶顏色恢復(fù)的Retinex算法(multi-scale retinex with color restoration,MSRCR)[12]進行預(yù)處理,再對其進行HSV顏色直方圖特征提取。針對攝像機中的行人目標(biāo)視圖變化問題,采用紋理特征SILTP對行人圖像進行描述。

        1.2 高斯描述符

        采用GOG特征對行人圖像作進一步描述。

        將行人圖像調(diào)整為128×48像素,對每張圖像進行有重疊的分塊處理,分為7個大小為32×48像素的水平區(qū)域。對各水平區(qū)域進行稠密塊采樣,采樣間隔為2像素,各稠密塊的大小為5×5像素。對稠密塊中各像素提取8維像素特征,包括像素點的垂直位置、梯度值以及顏色信息等。

        用高斯分布擬合稠密塊內(nèi)的像素特征,再用另一高斯分布擬合水平區(qū)域內(nèi)所有稠密塊的特征。拼接所有水平區(qū)域內(nèi)的特征向量,所得27 622維特征向量即為GOG特征。

        拼接所提取到的LOMO特征向量GOG特征向量,即為行人圖像的特征向量。

        2 子空間學(xué)習(xí)

        引入子空間學(xué)習(xí),將原始特征空間中線性不可分的數(shù)據(jù),映射到區(qū)分能力更強的低維子空間,對這種映射關(guān)系的設(shè)計是子空間學(xué)習(xí)的關(guān)鍵。

        選擇全監(jiān)督的子空間學(xué)習(xí)方法[11],學(xué)習(xí)一個判別式子空間。選定n張帶標(biāo)簽的行人圖像,以其特征向量分別描述為xi∈d(n=1,2,…,n),記其相應(yīng)的標(biāo)簽為yi。學(xué)習(xí)平方距離函數(shù)

        (1)

        其中,U∈d×r,是一個低維投影矩陣,可將不同攝像機視圖中的行人圖像映射到一個公共子空間,從而進行有效的行人再識別[11]。r(?d)是投影子空間的維數(shù)。

        如果xi和xj屬于同一人,也即yi=yj,則其距離函數(shù)值較小,反之較大。最優(yōu)低維投影矩陣可以表示為

        (2)

        其中,X=(x1,x2,…,xn),而權(quán)重矩陣W∈n×n的元素

        (3)

        利用跡操作,可以將損失函數(shù)L(X,U,W)重新改寫為tr (UTXLXTu)。其中,L是一個對角矩陣D與權(quán)重矩陣W之差,即

        L=D-W,

        而D對角線上的元素是W對應(yīng)行之和。增加約束

        tr (UTXLXTu)=1,

        通過廣義特征值分解,即可求得最優(yōu)低維投影矩陣U*,它由r個最小特征值對應(yīng)的相關(guān)特征向量組成。通常取r=n-1。

        得到優(yōu)化的投影矩陣U*之后,將測試樣本的探測圖像和候選集圖像特征投影到該空間中,通過計算兩者的馬氏距離,得出一個有序列表,據(jù)此即可計算出得人再識別的匹配率。

        3 實驗分析

        3.1 行人再識別數(shù)據(jù)集

        實驗選取VIPeR數(shù)據(jù)集和PRID450s數(shù)據(jù)集。

        VIPeR數(shù)據(jù)集[13]包含632個行人的1 264張戶外圖像,其大小被統(tǒng)一標(biāo)準(zhǔn)化為128×48像素,整個數(shù)據(jù)集被均等一分為二,一半用于訓(xùn)練,一半用于測試。

        PRID450s數(shù)據(jù)集[14]更接近現(xiàn)實,包含由兩個攝像機捕從不同視角所捕獲的450對圖像,其大小不一,但光照強度一致。

        3.2 實驗設(shè)置及評估準(zhǔn)則

        采用配置64位操作系統(tǒng)、Intel i7處理器的聯(lián)想電腦,利用軟件Matlab2015a進行實驗。選用累積特征匹配曲線(cumulative match characteristic curve,CMC)作為評估準(zhǔn)則。CMC曲線是模式識別系統(tǒng)的重要評價指標(biāo),用以計算前k次匹配到目標(biāo)樣本的概率。比較待查找樣本對象與候選集樣本間的距離,從小到大排序。查詢到的同一行人樣本越靠前,則相應(yīng)算法性能越好。為了統(tǒng)一處理數(shù)據(jù),將各數(shù)據(jù)集圖像的大小均預(yù)調(diào)整為128×48像素,再進行特征提取。

        3.3 結(jié)果分析

        串聯(lián)融合LOMO特征和GOG特征,并結(jié)合改進的子空間學(xué)習(xí)方法,在數(shù)據(jù)集VIPeR和PRID450s上進行10次實驗,對其結(jié)果取平均,所得CMC曲線圖如圖1所示。其中排序等級代表具有較大相似度目標(biāo)的個數(shù)。

        基于像素點提取的GOG描述符,相較基于滑動窗提取的LOMO特征,前者對應(yīng)的匹配曲線明顯要高,而其融合特征對應(yīng)的匹配曲線最高。融合特征可避免單一特征在描述行人圖像方面的局限性,在行人再識別時的1級匹配率更高。

        (a) VIPeR

        (b) PRID450s

        在兩個數(shù)據(jù)集上,所給改進算法與其他行人再識別算法的實驗結(jié)果分別如表1和表2所示。

        表1 VIPeR數(shù)據(jù)集上不同算法的匹配率

        表2 PRID450s數(shù)據(jù)集上不同算法的匹配率

        改進算法融合了兩種魯棒性的描述符以描述行人圖像,并引入了子空間學(xué)習(xí)方法求得的判別性投影矩陣,具有良好的匹配性能。與原MKFSL算法相比,在數(shù)據(jù)集VIPeR和PRID450s上,改進算法的1級匹配率分別提高了1.7%和2.7%。

        4 結(jié)語

        為了充分發(fā)揮帶標(biāo)簽樣本的可用性,給出一種改進的MKFSL行人再識別算法。融合LOMO特征和GOG描述符以表征行人圖像,有效降低了光照、視角及攝像機參數(shù)等外界因素所帶來的影響。利用低維投影矩陣,將所提取的特征映射到低維子空間中,使之表現(xiàn)出可區(qū)分能力更強的特點,更有利于準(zhǔn)確地實現(xiàn)行人再識別。實驗結(jié)果顯示,所給改進算法可行有效。

        猜你喜歡
        特征向量行人投影
        二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計——以特征值和特征向量為例
        克羅內(nèi)克積的特征向量
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        解變分不等式的一種二次投影算法
        基于最大相關(guān)熵的簇稀疏仿射投影算法
        找投影
        找投影
        路不為尋找者而設(shè)
        揚子江(2019年1期)2019-03-08 02:52:34
        一類特殊矩陣特征向量的求法
        我是行人
        日韩精品一区二区三区视频| 91青青草免费在线视频| 性感的小蜜桃在线观看| 亚洲国产精品一区二区成人片国内| 三男一女吃奶添下面| 无码一区二区三区AV免费换脸| 国产在线精品福利大全| 黑丝美女被内射在线观看| 亚洲熟女少妇一区二区三区青久久| 国产精品久久久久9999无码| 人人妻人人爽人人做夜欢视频九色| 99亚洲乱人伦精品| 日本精品熟妇一区二区三区| 亚洲av综合av一区| 孕妇特级毛片ww无码内射| 亚洲永久精品ww47| 国产精品久久无码免费看| 一本久道视频无线视频试看 | 精品人伦一区二区三区蜜桃91| 国产特级毛片aaaaaa| 精品免费人伦一区二区三区蜜桃| 嗯啊 不要 啊啊在线日韩a| 国产精品天堂在线观看| 国产精品美女久久久免费| 久久综合九色综合网站| 久久久久久久久久久熟女AV | 九九久久精品一区二区三区av| 一本大道av伊人久久综合| 亚洲av无码日韩精品影片| 天天澡天天揉揉AV无码人妻斩| 91精品人妻一区二区三区水蜜桃| 国产乱子伦| 亚洲综合色自拍一区| 国产成人亚洲精品2020| 久久精品国产熟女亚洲av麻豆 | 国产精品久线在线观看| 狠狠色狠狠色综合| 丁香九月综合激情| 久久精品亚洲熟女av麻豆| 在线观看老湿视频福利| 国产在线精品一区二区不卡|