亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于HOG 特征和卷積神經(jīng)網(wǎng)絡(luò)的行人跟蹤研究*

        2020-11-17 02:01:14
        廣東公安科技 2020年3期
        關(guān)鍵詞:特征區(qū)域檢測(cè)

        劉 悅

        (中國(guó)刑事警察學(xué)院,遼寧 沈陽(yáng)110035)

        引言

        視覺(jué)目標(biāo)跟蹤是智能公安系統(tǒng)的重要研究方向,主要涉及圖像處理,計(jì)算機(jī)視覺(jué)和模式識(shí)別等領(lǐng)域的知識(shí),其應(yīng)用非常廣泛。目前,許多跟蹤算法都取得了令人滿意的結(jié)果,但是大多數(shù)算法沒(méi)有處理環(huán)境變化對(duì)圖像跟蹤的影響。僅僅用簡(jiǎn)單的Haar 特征來(lái)描述外觀模型并不能有效地處理光照的劇烈變化和背景雜波。由于目標(biāo)信息的復(fù)雜性、目標(biāo)的隨機(jī)性以及目標(biāo)的背景干擾和阻礙,目標(biāo)跟蹤技術(shù)仍然處于低谷期,這是一個(gè)具有挑戰(zhàn)性的問(wèn)題,目前幾種成熟的目標(biāo)跟蹤算法都需要特定的環(huán)境和應(yīng)用范圍,尤其是對(duì)大范圍場(chǎng)景的人體跟蹤問(wèn)題。為了解決光照變化和背景雜波引起的漂移問(wèn)題,利用擴(kuò)展的Haar 特征搜索目標(biāo)的粗定位,然后利用HOG特征對(duì)頭肩精定位,得到最佳跟蹤位置。本文提出了一種可用于跟蹤視覺(jué)目標(biāo)的有效配對(duì)HOG特征方法。該方法結(jié)合了不同類(lèi)型的特征,以確定相關(guān)濾波器結(jié)構(gòu)的HOG 特征,并通過(guò)獨(dú)立識(shí)別目標(biāo)來(lái)建立新的目標(biāo)位置。本文利用HOG描述子來(lái)表示行人,得到低維HOG特征向量。最后,將目標(biāo)特征向量和行人語(yǔ)義特征向量結(jié)合起來(lái),利用目標(biāo)模型對(duì)行人識(shí)別進(jìn)行預(yù)測(cè)。與傳統(tǒng)方法相比,該算法簡(jiǎn)單實(shí)用,識(shí)別精度高。

        HOG 的核心思想是所檢測(cè)的局部物體外形能夠被光強(qiáng)梯度或邊緣方向的分布所描述。通過(guò)將整幅圖像分割成小的連接區(qū)域(稱(chēng)為cells),每個(gè)cell 生成一個(gè)方向梯度直方圖或者cell 中pixel 的邊緣方向,這些直方圖的組合可表示出(所檢測(cè)目標(biāo)的目標(biāo))描述子。本文旨在從視頻流中提取和跟蹤人體目標(biāo)。效率和精度是影響系統(tǒng)性能的兩個(gè)重要問(wèn)題。下面將描述所使用的特征,包括面向局部二進(jìn)制模式(oriented LBP)特征和HOG 特征。HOG 特征編碼高頻梯度信息。

        1 頭肩檢測(cè)

        HOG 是獲取物體強(qiáng)度梯度信息的有效描述子。它已成功地應(yīng)用于人體整體的檢測(cè)。為了提高HOG 的性能,采用多級(jí)HOG 特征來(lái)描述頭肩。全身檢測(cè)、頭部檢測(cè)和頭肩檢測(cè)都被用于行人檢測(cè)。當(dāng)出現(xiàn)遮擋時(shí),整體身體檢測(cè)可能會(huì)失敗。頭部特征可以處理?yè)頂D的環(huán)境,但由于頭部特征基于機(jī)器學(xué)習(xí)方法的行人檢測(cè)的主流特征描述子之一是HOG(Histogram of Ori?ented Gradient,方向梯度直方圖)。HOG特征是用于目標(biāo)檢測(cè)的特征描述子,它通過(guò)計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來(lái)構(gòu)成特征,用這些特征描述原始圖像。

        頭部特征可以在擁擠的環(huán)境中定位,但由于頭部特征包含的信息較少,可能會(huì)產(chǎn)生誤差。因此,實(shí)驗(yàn)時(shí)選擇了基于特定環(huán)境的頭肩檢測(cè)方法。把相機(jī)放在天花板上,45度朝向地面,這種角度適合頭肩探測(cè)器。具體方法:(1)創(chuàng)建64組圖像樣本,來(lái)自火車(chē)站過(guò)道和樓梯的運(yùn)動(dòng)人像視頻,通過(guò)預(yù)處理分解成關(guān)鍵幀。(2)輸入圖像經(jīng)gamma 歸一化,從樣本中提取16 個(gè)長(zhǎng)度為8×8 的像素塊,每個(gè)塊分成4個(gè)8×8的像素點(diǎn)。將圖像的梯度大小分為3個(gè)級(jí)別的塊,每個(gè)級(jí)別的每個(gè)塊由4 個(gè)矩形單元格組成。每個(gè)塊中4 個(gè)單元的直方圖被連接到塊的特征向量中。特征向量歸一化減少照明和前景背景對(duì)比度的局部變化的影響。然后,將塊的特征向量連接到每一層的特征向量中。根據(jù)像素梯度的方向,將單元中每個(gè)像素的梯度大小分為9 個(gè)格。在每個(gè)單元格中,梯度的角度平均分為0e~180e 的單元。所以總體特征向量是1764 維。(3)用線性支持向量機(jī)訓(xùn)練分類(lèi)器。首先,提取當(dāng)前目標(biāo)區(qū)域的坡度和方向性特征并將其分為2 個(gè)特征:HOG1 和HOG2。然后,使用分離的濾鏡框架,對(duì)2 個(gè)特征進(jìn)行分離。所有功能都呈現(xiàn)一個(gè)預(yù)測(cè)特征,選擇最佳功能。根據(jù)方向特性,通過(guò)特性計(jì)算獲得特性響應(yīng),并找到響應(yīng)圖中的最高位置,即預(yù)測(cè)的新目標(biāo)的位置是人體模板中的其他位置。實(shí)驗(yàn)在快速移動(dòng)和背景復(fù)雜方面獲得了良好的性能。人像通過(guò)滑動(dòng)窗口選定,滑動(dòng)窗口是一種窮舉搜索方法,它只框選一個(gè)正方形區(qū)域內(nèi)的所有候選人。如圖1所示。

        算法流程分為預(yù)處理步驟、行人檢測(cè)步驟和區(qū)域驗(yàn)證步驟。在預(yù)處理步驟中,通過(guò)對(duì)亮度值進(jìn)行直方圖平滑處理,減小從黑盒中獲得的HD 彩色圖像的大小,將圖像轉(zhuǎn)換為灰度,提高圖像的可見(jiàn)性。該方法從城市道路中獲取行人圖像。用于學(xué)習(xí)的行人圖像排除了重疊圖像。實(shí)驗(yàn)環(huán)境中的行人大多是在人行橫道上等待的圖像。對(duì)于實(shí)時(shí)處理,采用雙線性插值方法減小輸入圖像的大小。從行人圖像中提取特征信息進(jìn)行學(xué)習(xí)。將提取的特征信息輸入到學(xué)習(xí)中,生成行人檢測(cè)檢測(cè)器。接下來(lái),使用在學(xué)習(xí)步驟中生成的級(jí)聯(lián)行人檢測(cè)器檢測(cè)行人區(qū)域,然后在行人驗(yàn)證步驟中使用關(guān)于行人信息的先驗(yàn)知識(shí)檢測(cè)最終行人區(qū)域。利用行人的知識(shí)信息,通過(guò)一個(gè)垂直的長(zhǎng)矩形、尺寸信息、位置信息來(lái)檢測(cè)最終的行人區(qū)域信息和行人模板匹配相似度用于生成最佳行人分類(lèi)器。第一學(xué)習(xí)時(shí),對(duì)新視頻進(jìn)行了初步的分類(lèi)器測(cè)試,并添加了更多的錯(cuò)誤例子。在第二輪中,對(duì)分類(lèi)器進(jìn)行重新訓(xùn)練,得到最終的檢測(cè)器。

        外觀模型根據(jù)顏色分布計(jì)算人體目標(biāo)的外觀模型。為了方便攝像機(jī)的傳輸格式,從YUV空間提取Y 通道。強(qiáng)度被均勻地分成9 個(gè)格子來(lái)建立直方圖。為了消除背景干擾,使用粗糙的“頭和肩”形狀的面具,只提取前景部分。使用Bhattacharyya 系數(shù)來(lái)測(cè)量目標(biāo)模型和觀測(cè)樣本之間的距離。^h 表示模型直方圖,hk表示第k 個(gè)觀測(cè)模型的直方圖,n 表示箱子的數(shù)量。目標(biāo)模型直方圖與觀測(cè)模型直方圖的距離公式:

        圖1 定位頭肩

        2 特征提取

        在深度學(xué)習(xí)目標(biāo)跟蹤中,定向擾流器算法可用于解決當(dāng)目標(biāo)快速移動(dòng),攝像機(jī)位置和目標(biāo)丟失時(shí),對(duì)跟蹤器的準(zhǔn)確性、穩(wěn)定性和成功性產(chǎn)生重大影響的問(wèn)題。它具有使用體積神經(jīng)網(wǎng)絡(luò)跟蹤位置,改變粒子過(guò)濾器的擾流器中心,使定向擾流器樣本更接近實(shí)際位置,加速目標(biāo)發(fā)現(xiàn),可以防止目標(biāo)消失,并提高跟蹤器的準(zhǔn)確性和成功率。在決策階段獲得定位頭肩圖后,可以通過(guò)提取作為前后幀目標(biāo)的HOG特征并最終計(jì)算同步速率來(lái)找到優(yōu)化。添加HOG功能后,跟蹤器可以適應(yīng)更復(fù)雜的場(chǎng)景并提高使用跟蹤器的魯棒性。根據(jù)obt-13 參考數(shù)據(jù)庫(kù)中FCNT和MEEEEDM等效算法的實(shí)驗(yàn)結(jié)果,在樣本量少的情況下,算法可以提高跟蹤精度、成功率和非粘性。啟用它可以更好地將其應(yīng)用于真實(shí)場(chǎng)景并放大其他跟蹤器。結(jié)合了定向梯度(HOG)外觀描述符的非重疊直方圖和定向局部二進(jìn)制模式(LBP)特征。采用時(shí)間相干性條件對(duì)檢測(cè)結(jié)果進(jìn)行錯(cuò)誤剔除,采用卡爾曼濾波對(duì)檢測(cè)到的行人進(jìn)行跟蹤。該系統(tǒng)的目標(biāo)是實(shí)現(xiàn)精確的人體檢測(cè),同時(shí)對(duì)需要快速人體檢測(cè)和跟蹤的應(yīng)用保持高效。

        大多數(shù)行人檢測(cè)系統(tǒng)選擇支持向量機(jī)或Adaboost 作為分類(lèi)器。使用各種常見(jiàn)特征對(duì)這些分類(lèi)器進(jìn)行評(píng)估時(shí),發(fā)現(xiàn)線性支持向量機(jī)比boosting算法具有更好的檢測(cè)率。此外,利用面向HOG的LBP特征的低維特征向量,線性支持向量機(jī)對(duì)同一視頻幀的處理速度與Adaboost 相似。因此,本文選擇線性支持向量機(jī)作為行人檢測(cè)系統(tǒng)的分類(lèi)器。它主要著眼于傳遞測(cè)試算法,改進(jìn)的部分是融合了HOG和LBP功能。但是,特征融合可以增加融合后的特征向量的維數(shù),因此改進(jìn)經(jīng)典算法的方法是使用描述PCA降維的HOG特征和圖片的圖案特征的LBP融合特征。結(jié)合SVM分類(lèi)器進(jìn)行步入檢查,由于路人和路人數(shù)量眾多、路人與物體之間存在誤差,提出了基于加權(quán)零件模型的高度測(cè)量算法。該算法通過(guò)為DPM中的每個(gè)小部件分配不同的權(quán)重來(lái)顯示小部件的重要性。改進(jìn)的算法可以處理圖像遮擋的情況。LBP 作為一種有區(qū)別的局部描述符,在人類(lèi)檢測(cè)應(yīng)用中取得了巨大的成功。LBP 特征具有許多優(yōu)點(diǎn),如它可以利用均勻模式的概念濾除噪聲背景,并且計(jì)算效率高。為了計(jì)算LBP 特征,將檢測(cè)窗口劃分為若干塊,并根據(jù)中心像素與其相鄰像素之間的灰度差計(jì)算每個(gè)塊的直方圖。然后將所有塊的LBP 模式的直方圖連接起來(lái),以描述檢測(cè)窗口的紋理。LBP 特征可以看作是一種局部紋理描述。結(jié)合LBP和HOG特征可以在行人檢測(cè)中取得很好的效果。然而,HOG-LBP特征的提取計(jì)算量大。每個(gè)64×128 檢測(cè)窗口有一個(gè)5668-D(3780+1888)特征向量。Gx為水平方向的像素值,Gy 為豎直方向的像素值,G 為歸一化后的值。對(duì)圖像進(jìn)行梯度計(jì)算公式:

        要檢測(cè)場(chǎng)景中是否存在運(yùn)動(dòng)目標(biāo),常用背景減除法檢測(cè)運(yùn)動(dòng)目標(biāo),采用單高斯模型自適應(yīng)更新背景,以適應(yīng)場(chǎng)景中的光照變化和周期運(yùn)動(dòng)。輸入n 幀背景圖像和當(dāng)前幀圖像。算法是基于檢測(cè)和跟蹤的,更適合于不同角度和動(dòng)態(tài)背景。當(dāng)人流稀少時(shí),基于背景的方法可以達(dá)到100%的準(zhǔn)確率,當(dāng)一組人中有更多人時(shí),可以降到90%以下。當(dāng)人與人之間距離較近時(shí),特征選擇方法識(shí)別率更高。在人流稀疏、背景簡(jiǎn)單的情況下,基于背景減除的方法效果良好,優(yōu)于Hog 特征的方法;而在人流密集、背景復(fù)雜的情況下,得到了更高的精度結(jié)果。高度小于40像素的小對(duì)象將被丟棄。然后,根據(jù)每個(gè)被檢測(cè)對(duì)象到支持向量機(jī)分類(lèi)器超平面的距離,計(jì)算其置信度。利用Windows 10 OS(四核3.4ghz,32g,GPU 1080ti) 和 Matlab 程序?qū)μ岢龅男腥藱z測(cè)方法進(jìn)行了測(cè)試。用于行人訓(xùn)練的行人圖像為320幅74×32像素的標(biāo)準(zhǔn)化圖像。串級(jí)學(xué)習(xí)參數(shù)設(shè)為虛警率0.05,學(xué)習(xí)執(zhí)行階段設(shè)為7。如圖2所示。

        當(dāng)檢測(cè)到第一個(gè)目標(biāo)時(shí),初始化卡爾曼濾波器以開(kāi)始預(yù)跟蹤??柭鼮V波器預(yù)測(cè)它在下一幀中的位置。如果后續(xù)幀中的新檢測(cè)與跟蹤器預(yù)測(cè)一致重疊,則將其分配給該軌跡。設(shè)置參數(shù)時(shí),把重疊率設(shè)為0.7。只有在連續(xù)三幀中滿足此條件的候選對(duì)象才被視為穩(wěn)定的行人目標(biāo),并被標(biāo)記為正確。如表1所示。

        圖2 程序執(zhí)行結(jié)果

        表1 驗(yàn)證行人區(qū)域的參數(shù)

        3 結(jié)論

        實(shí)驗(yàn)結(jié)果表明,在行人檢測(cè)器檢測(cè)出的候選行人區(qū)域中,包含了行人區(qū)域,其中部分區(qū)域物體、樹(shù)木等作為行人區(qū)域進(jìn)行檢測(cè),在行人驗(yàn)證步驟中,大部分錯(cuò)誤檢測(cè)的行人區(qū)域都被過(guò)濾掉。在模板匹配過(guò)程中,一些非行人區(qū)域被檢測(cè)為行人區(qū)域。該算法每幀檢測(cè)時(shí)間約為0.24s,行人檢測(cè)性能約為93%。當(dāng)用模板匹配法定義的行人區(qū)域與用該方法檢測(cè)的行人區(qū)域重疊度大于50%時(shí),行人檢測(cè)被認(rèn)為是正確的。

        本文采用基于Hog 特征的算法來(lái)跟蹤檢測(cè)公共場(chǎng)所的運(yùn)動(dòng)人體。在檢測(cè)階段,使用基于頭肩的Hog 特征和線性支持向量機(jī)對(duì)分類(lèi)器進(jìn)行訓(xùn)練。在跟蹤步驟中,使用了卡爾曼濾波方法作為外觀模型。該方法適用于多角度、雙向的人流,在局部遮擋、擁擠和背景干擾等情況下具有很強(qiáng)的魯棒性,可以應(yīng)用于實(shí)際公安工作中。

        猜你喜歡
        特征區(qū)域檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        中文字幕+乱码+中文字幕无忧| 国产让女高潮的av毛片| 中文字幕人妻在线中字| 久久99精品国产99久久6尤物| 亚洲一区二区三区av链接| 免费av在线视频播放| 中文字幕亚洲一区二区不下| 亚洲av无码一区二区三区乱子伦| 亚洲中文无码av在线| 亚洲成AV人在线观看网址| 国产精品18禁久久久久久久久| 国产精品女同久久久久久| 国产精品毛片极品久久| 后入到高潮免费观看| 日韩人妻精品无码一区二区三区| 人妻少妇一区二区三区| 大香蕉视频在线青青草| 极品尤物一区二区三区| 国产乱人伦av在线a| 九一成人AV无码一区二区三区| 激情五月六月婷婷俺来也| 亚洲国产日韩a在线乱码| 亚洲精品97久久中文字幕无码| 亚洲 无码 制服 丝袜 自拍 | 久久精品亚洲一区二区三区画质| 欧洲女人与公拘交酡视频| 精品国产精品久久一区免费式| 尤物蜜芽福利国产污在线观看| 久久精品国产亚洲av久五月天| 国产乱人伦av在线a麻豆| 女人与牲口性恔配视频免费 | 蜜桃精品视频一二三区| 伊人久久大香线蕉av色| 国产97色在线 | 日韩| 国产成人美女AV| 人妻丰满精品一区二区| 久久精品国产字幕高潮| 国产农村妇女高潮大叫| 日韩熟女一区二区三区| 日韩精品成人区中文字幕| 中文字幕av一区中文字幕天堂|