亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于顏色通道區(qū)間映射縮減的HOG 行人檢測(cè)方法

        2025-03-02 00:00:00歐嵬肖世濤龐夢(mèng)雪王芳周琳琦
        電腦知識(shí)與技術(shù) 2025年1期
        關(guān)鍵詞:特征提取

        摘要:行人檢測(cè)在智能監(jiān)控和自動(dòng)駕駛等領(lǐng)域需要兼顧精度和實(shí)時(shí)性。然而,現(xiàn)有技術(shù)在處理復(fù)雜場(chǎng)景時(shí)仍面臨計(jì)算效率低的問(wèn)題。該研究采用基于方向梯度直方圖(HOG) 的行人檢測(cè)方法,并通過(guò)顏色通道縮減技術(shù),在保留圖像關(guān)鍵信息的同時(shí)減少計(jì)算量。通過(guò)一系列實(shí)驗(yàn)驗(yàn)證了預(yù)處理策略在減輕計(jì)算負(fù)擔(dān)和提升檢測(cè)精度方面的有效性。研究結(jié)果表明,該方法在保持檢測(cè)精度的同時(shí),檢測(cè)速度提升了 8%,為行人檢測(cè)技術(shù)的發(fā)展提供了新的視角和優(yōu)化方向。

        關(guān)鍵詞:行人檢測(cè);方向梯度直方圖;顏色通道縮減;計(jì)算效率;特征提取;目標(biāo)檢測(cè)

        中圖分類號(hào):TP181 文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1009-3044(2025)01-0027-06 開放科學(xué)(資源服務(wù)) 標(biāo)識(shí)碼(OSID) :

        0 引言

        行人檢測(cè)技術(shù)基于計(jì)算機(jī)視覺(jué)、紅外線[1]、雷達(dá)[2]等技術(shù),用于對(duì)目標(biāo)環(huán)境進(jìn)行監(jiān)測(cè)和識(shí)別。其核心在于判斷環(huán)境中是否存在行人,并進(jìn)一步獲取目標(biāo)的詳細(xì)信息。這一技術(shù)能夠結(jié)合其他相關(guān)技術(shù),如目標(biāo)重識(shí)別和目標(biāo)跟蹤,并廣泛應(yīng)用于自動(dòng)駕駛、自動(dòng)監(jiān)控等領(lǐng)域。近年來(lái),隨著人工智能、計(jì)算機(jī)技術(shù)和模式識(shí)別的快速發(fā)展,以及智能監(jiān)控和自動(dòng)駕駛領(lǐng)域?qū)Π踩缘娜找嬷匾?,行人檢測(cè)技術(shù)受到了廣泛關(guān)注并取得了顯著進(jìn)展。

        早期的行人檢測(cè)技術(shù)主要基于傳統(tǒng)的圖像處理和模式識(shí)別技術(shù),其主要步驟包括特征提取、訓(xùn)練分類器以及行人識(shí)別。研究者們專注于行人特征的提取和分類。例如,在 2002 年和 2003 年,Ojala 和 Jones 等人先后提出了 LBP 特征以及 VJ 檢測(cè)器[3-5];2005 年,Bo Wu 提出了小邊特征(Edgelet) ,能夠分塊識(shí)別人體局部輪廓,從而提高檢測(cè)的魯棒性[6]。Walk 等人在 2010 年提出了顏色自相似性特征,他們將128×64的圖像分成8×8像素的128 個(gè)小塊,并統(tǒng)計(jì)圖像的 HSV 直方圖信息[7]。盡管上述方法在理論上是有效的,但它們也存在一定的局限性。例如,LBP 特征的穩(wěn)定性較差[8];Edgelet 特征存在最優(yōu)值無(wú)法契合的問(wèn)題[9];以及顏色自相似特征計(jì)算量過(guò)于龐大,導(dǎo)致實(shí)際生產(chǎn)中無(wú)法應(yīng)用。

        HOG 檢測(cè)器作為計(jì)算機(jī)視覺(jué)中的里程碑式算法,具有對(duì)光照和視角變化的魯棒性、計(jì)算效率高且易于實(shí)現(xiàn)的優(yōu)勢(shì),在多種目標(biāo)檢測(cè)任務(wù)中得到了廣泛應(yīng)用[10-13]。本研究基于 HOG 算法對(duì)行人檢測(cè)方法進(jìn)行了深入探討,提出了一種顏色通道縮減的 HOG 行人檢測(cè)方案,旨在保持檢測(cè)精度的同時(shí)降低計(jì)算復(fù)雜度以提高檢測(cè)速度。在改進(jìn)方案中,通過(guò)顏色通道縮減技術(shù)減少了圖像的輸入,從而降低了計(jì)算量。此外,該方法在保持檢測(cè)精度的同時(shí)加快了檢測(cè)速度,為自動(dòng)駕駛和智能監(jiān)控領(lǐng)域的行人檢測(cè)提供了一種高效且實(shí)用的解決方案。

        1 顏色通道縮減的 HOG 特征行人檢測(cè)

        本節(jié)將依次介紹顏色通道縮減的 HOG 行人檢測(cè)方案流程,主要包括:圖像預(yù)處理、顏色通道縮減再量化、特征提取以及支持向量機(jī)(SVM) 分類。其中,圖像預(yù)處理、特征提取和支持向量機(jī)分類是 HOG 行人檢測(cè)方案的經(jīng)典流程。本研究主要是在圖像預(yù)處理環(huán)節(jié)對(duì)圖像的輸入進(jìn)行顏色通道的縮減,以此減少后續(xù)的計(jì)算量。因此,在介紹整個(gè)實(shí)驗(yàn)流程時(shí),顏色通道縮減與再量化被放置在圖像預(yù)處理和特征提取之間,以方便讀者閱讀和理解。

        1.1 圖像預(yù)處理

        圖像預(yù)處理的目的是盡可能排除干擾,保證檢測(cè)的精度與速度,提高識(shí)別算法的可靠性。在基于 HOG 原理的圖像行人檢測(cè)中,最常用的圖像預(yù)處理方法包括 Gamma 變換和灰度化。

        灰度化是一個(gè)可選的圖像預(yù)處理操作,因?yàn)椴噬珗D像也可以直接計(jì)算梯度。對(duì)于彩色圖像,將 RGB 分量轉(zhuǎn)換為灰度圖的公式如公式(1) 所示:

        Gray = 0.3*R + 0.59*G + 0.11*B (1)

        式中:Gray 表示轉(zhuǎn)換后的像素灰度值,R、G、B 分別為紅、綠、藍(lán)顏色通道的值。

        伽馬(Gamma) 矯正是在圖片照度不均的情況下,通過(guò)伽馬矯正的方式對(duì)圖片的整體亮度進(jìn)行調(diào)節(jié),從而減少光照對(duì)圖像的影響。通常,進(jìn)行 Gamma 標(biāo)準(zhǔn)化的方法主要有兩種:平方根法和對(duì)數(shù)法。本研究采用公式(2) 所示的平方根方法進(jìn)行伽馬標(biāo)準(zhǔn)化。

        Y (x,y ) = I (x,y )0.5 (2)

        式中:I (x,y )為原像素位置(x,y )上的值,Y (x,y )為伽馬標(biāo)準(zhǔn)化后(x,y )位置的值。

        1.2 顏色通道縮減再量化

        在行人檢測(cè)中,采集的圖像通常為 RGB 圖像,共有三種顏色通道:紅、綠、藍(lán)。每個(gè)顏色通道包含 256 (0 到 255) 個(gè)不同的顏色值,這使得圖像更加真實(shí)和清晰,但也為行人特征的提取和判斷帶來(lái)了巨大的計(jì)算負(fù)擔(dān)。顏色通道的縮減指的是將原來(lái)的 0 到 255 共 256 個(gè)顏色值進(jìn)行縮減;縮減再量化指的是將縮減后的顏色值從運(yùn)算結(jié)束后的小數(shù)值轉(zhuǎn)換為整數(shù)值。例如,原來(lái)的顏色值為 125,將顏色信息減少到原來(lái)的一半時(shí),得到的數(shù)值為 62.5,此時(shí)需要將其再量化為 62。

        本文對(duì)輸入的靜態(tài)圖片進(jìn)行信息縮減,使輸入的圖像在能夠進(jìn)行行人檢測(cè)的同時(shí)減少計(jì)算量,即在保持檢測(cè)準(zhǔn)確率的同時(shí)縮短計(jì)算時(shí)間。本文將對(duì)輸入的圖片進(jìn)行顏色通道的縮減,然后通過(guò)再量化減少計(jì)算負(fù)擔(dān),從而提升后續(xù)計(jì)算速度。接下來(lái)的實(shí)驗(yàn)中,顏色通道的縮減方式包括以下兩種:

        第一種是在進(jìn)行圖片顏色縮減時(shí),直接將顏色通道從[0,255]的原始范圍映射到一個(gè)更小的區(qū)間。例如,將[0,255]映射到[0,127],直接將每個(gè)顏色值除以2,然后再進(jìn)行量化。以將顏色信息從[0,255]映射到[0,127]的方式為例,其縮減公式如公式(3) 所示。

        pi = ?pi/2?" (3)

        式中:pi 表示圖像中每個(gè)像素的值,"?pi/2?" 表示每個(gè)顏色值縮小到原來(lái)的一半,再進(jìn)行向下取整。此處進(jìn)行向下取整的原因是:Python自帶的取整方式為向下取整(截?cái)嗳≌?,即直接舍棄小數(shù)點(diǎn)后的部分,僅保留整數(shù)部分。經(jīng)過(guò)這種方式處理后,圖像會(huì)比原圖更加暗。這是因?yàn)樵?RGB 圖像中,顏色通道的值范圍為0到255,隨著值的增大,像素點(diǎn)會(huì)變得越來(lái)越亮,處理效果如圖1所示。

        第二種方式是將圖像中原本位于一個(gè)區(qū)間內(nèi)的顏色值映射為一個(gè)固定值。例如,要將原圖的顏色信息壓縮到原來(lái)的一半,只須將區(qū)間[ 0,1]內(nèi)的顏色值映射為0,區(qū)間[ 2,3]內(nèi)的顏色值映射為2,以此類推,直到區(qū)間[ 244,255]內(nèi)的顏色值映射為244。具體的區(qū)間到固定值的映射公式如公式(4) 所示。

        pi ="?pi/2?·2 (4)

        式中:pi 表示像素點(diǎn)的顏色值,"?pi/2? 表示將顏色值縮小為原來(lái)的一半并向下取整,最后將"?pi/2? 的結(jié)果再乘以2,完成區(qū)間到值的映射。在完成顏色區(qū)間到值的映射后,處理后的圖像與原圖像幾乎沒(méi)有差別。顏色值的區(qū)間到值映射處理效果如圖2所示。

        在減少顏色信息的同時(shí),為了保證行人檢測(cè)的正確性,需要確保圖像中的顏色信息被縮減到合適的范圍。本文將顏色信息縮減分為三組,分別為:128× 128×128、64×64×64 和32×32×32。在接下來(lái)的實(shí)驗(yàn)中,將對(duì)需要進(jìn)行 HOG 特征檢測(cè)的圖像先進(jìn)行顏色信息的壓縮,并與原始圖像的處理速度和檢測(cè)正確性進(jìn)行比較與分析。

        1.3 特征提取

        1.3.1 基于HOG 的特征提取

        HOG 特征的基本算法流程如下:首先,將圖像以像素為單位劃分為多個(gè)小區(qū)域;隨后,計(jì)算并統(tǒng)計(jì)每個(gè)區(qū)域的梯度直方圖,通過(guò)投影得到一個(gè)9維特征向量;最后,將每個(gè)小區(qū)域的特征組合成一個(gè)大區(qū)域,并將所有區(qū)域的特征描述串聯(lián)起來(lái),表示該圖像的 HOG 特征,從而得到最終分類的特征向量。具體算法流程如圖3所示。

        HOG 特征提取和計(jì)算的主要步驟依次為:空間插值投影、歸一化梯度塊內(nèi)的梯度直方圖、Gamma 空間標(biāo)準(zhǔn)化和顏色空間標(biāo)準(zhǔn)化、高斯加權(quán)、計(jì)算梯度值、收集 HOG 特征向量。(x,y ) 像素點(diǎn)的 HOG 特征計(jì)算如公式(5) 和公式(6) 所示。

        式中:dx、dy 分別為像素點(diǎn)在水平方向上和豎直方向上的梯度值;H (x,y ) 為像素點(diǎn)的梯度幅值大??;梯度方向?yàn)棣?(x,y ),梯度方向q 的取值區(qū)間為[0,π)。

        如公式(7) 和公式(8) 所示,梯度算子包括一維和二維算子。

        一維算子:[-1,1][-1,0,1],[-1,-8,0,+8,+1] (7)

        上述算子已經(jīng)在文獻(xiàn)[14]中進(jìn)行了測(cè)試和驗(yàn)證。假設(shè)像素點(diǎn)(x,y )的像素值大小為I (x,y ),梯度分量dx、dy 的計(jì)算如公式(9) 所示。

        dx (x,y ) = I (x + 1,y ) - I (x - 1,y )

        dy (x,y ) = I (x,y + 1) - I (x,y - 1)(9)

        1.3.2 高斯權(quán)重調(diào)整

        根據(jù)高斯權(quán)重理論[15],在一個(gè)區(qū)域中,越靠近中心的像素值對(duì)特征的貢獻(xiàn)越大。高斯權(quán)重體現(xiàn)在位置的偏向性上,位于區(qū)域中心的像素能夠更好地表達(dá)區(qū)域內(nèi)的信息變化。該理論可以用來(lái)調(diào)整梯度幅值,從而更有效地進(jìn)行各單元的 HOG 特征提取。

        1.3.3 空間梯度插值投影

        在進(jìn)行梯度方向統(tǒng)計(jì)時(shí),梯度方向的范圍被限定為[0,180],并將該范圍均分為 9 個(gè)方向區(qū)域。計(jì)算每個(gè)像素的梯度后,根據(jù)其方向和幅值進(jìn)行方向值統(tǒng)計(jì),并將得到的值加到對(duì)應(yīng)的方向區(qū)域上。然而,由于實(shí)驗(yàn)中梯度方向通常不在中心點(diǎn),因此通常使用投影算法,將梯度方向投影到兩個(gè)相鄰方向區(qū)域的中心,并將梯度值按比例疊加到這兩個(gè)區(qū)域上。

        1.3.4 歸一化權(quán)重及生成特征向量

        對(duì)圖像進(jìn)行歸一化處理是為了提高檢測(cè)器在光照變化環(huán)境下的穩(wěn)定性。HOG 特征是由不同區(qū)域的特征組合而成的,每個(gè)區(qū)域內(nèi)像素點(diǎn)的變化都會(huì)引起整體特征的變化。如果某一區(qū)域的特征幅值較大,會(huì)導(dǎo)致區(qū)域間特征值差異過(guò)大,從而降低分類能力。為了解決這一問(wèn)題,可以以區(qū)域?yàn)閱挝?,?duì)每個(gè)區(qū)域的特征進(jìn)行歸一化處理,并將各區(qū)域的結(jié)果組合成最終的特征向量。公式(10) ~(13) 展示了一些常用的歸一化方法。

        1.4 支持向量機(jī)

        機(jī)器學(xué)習(xí)被廣泛應(yīng)用于行人檢測(cè)領(lǐng)域,其中支持向量機(jī)(Support Vector Machine,SVM) 和Adaboost方法是最常用的兩種方法。1995 年,Cortes 和 Vapnik 提出了支持向量機(jī)[16]。支持向量機(jī)通過(guò)尋找目標(biāo)類與非目標(biāo)類之間的最大間隔來(lái)劃分超平面,該方法性能高、實(shí)現(xiàn)簡(jiǎn)單,并且能夠從特征集中選擇最相關(guān)的描述符,因此在目標(biāo)檢測(cè)中非常受歡迎。本文以如圖4 所示的二維平面情況來(lái)解釋支持向量機(jī)的分類原理。

        式中:方形與圓形代表不同的樣本,H 是兩種樣本的分類線,H1 和H2 是平行于H且經(jīng)過(guò)不同樣本的兩條直線,H1 和H2 的距離2 /‖w ‖稱為分類間距。最優(yōu)分類線指的是某條分類線,該線能夠正確分類兩種樣本,并使樣本的分類間距2 "/‖w"‖取到最大值。如上所述,可以推理擴(kuò)展到更高的維度。設(shè)線性可分樣本集為{ xi,yi },其中i = 1,2,3...,n,xi ∈ Rd,yi ∈ {-1,+1},在d維空間中的線性判別函數(shù)為:g (x,y ) = wx + b,其分類面的定義為w ? x + b = 0??梢允褂脷w一化操作,使得樣本都滿足約束條件| g(x) | ≥ 1。在這樣的約束條件下分類間隔就等于2 ‖w"‖。此時(shí),要讓分類間隔最大,就要求‖w"‖或‖w"‖2取到最小值。如果要所有的樣本都能正確分類,必須保證公式(14) 所示的條件。

        yi (w ? xi + b) ≥ 1,i = 1,2,...,n (14)

        最佳分類面是滿足公式(14) 的同時(shí)使目標(biāo)函數(shù)"‖w"‖2取得極小值的分類面。最優(yōu)分類面的求解問(wèn)題等價(jià)于求解滿足公式(15) 約束條件的問(wèn)題。

        公式(15) 的約束優(yōu)化問(wèn)題存在全局最優(yōu)解,滿足最優(yōu)化前提條件ai { yi [ w ? xi + b ] - 1} = 0。通過(guò)使用拉格朗日乘子法,可以得到上述問(wèn)題的最優(yōu)分類函數(shù),最優(yōu)分類函數(shù)如公式(16) 所示。

        f (x) = sgn { w* ? x + b* }= sgn { Σi = 1l α*i yi (xi,x) + b* } (16)

        式中:(xi,x)是兩個(gè)向量的內(nèi)積,a*,b* 為確定所求分類面的參數(shù)。在線性不可分的情況下,可以在條件yi [ w ? xi + b ] - 1 ≥ 0 中增加一個(gè)松弛項(xiàng)ξi,使之變?yōu)椋簓i [ w ? xi + b ] - 1 + ξi ≥ 0 ,將目標(biāo)函數(shù)改為求1/2"‖w"‖2 + C(Σi = 1n ξi )的極小值,目標(biāo)函數(shù)中C gt; 0的C是懲罰水平,用于對(duì)錯(cuò)誤分類樣本的控制。

        核函數(shù)K對(duì)所有x,z ∈ X滿足K (x,z ) = Φ(x) ? Φ(z ),這里的Φ是從輸入空間X到某個(gè)特征空間F的映射,x =(x1,x2,...,xΦ n ) ? Φ(x) = (Φ1 (x), 2 (x)...,Φn (x))將輸入空間X映射到一個(gè)新的空間 F = { Φ(x) | x ∈ X },例如(x1,x2 ) ?Φ1 (x1,x2 ) = (x21,x22,x1 x2 )。

        核函數(shù)K (xi,xj ) 用于進(jìn)行非線性變換后的高維線性分類。此時(shí),分類函數(shù)表達(dá)式為f (x) = sgn { Σi = 1k a*i yiK (xi,x) + b* }。使用不同的核函數(shù)K (x ,xi ) 可以得到不同的分類策略和支持向量算法。最常用的核函數(shù)如下所示:

        1) 線性核函數(shù)如公式(17) 所示。

        k(x ,xi ) = (x ,x2) i ) (17)

        2 )"多項(xiàng)式核函數(shù)如公式18所示,其中的s,c,d 為參數(shù)。

        k(x,xi ) = (s(x,xi ) + c)d(18)

        3) 徑向基核函數(shù)(簡(jiǎn)稱RBF核) 如公式19所示,其中γ為參數(shù)。

        k(x,xi ) = exp(-γ| x - xi|(19)

        4) Sigmoid核函數(shù)如公式20所示,其中的s和c為參數(shù)。

        k(x,xi ) = tanh(s(x,xi ) + c) (20)

        在接下來(lái)的實(shí)驗(yàn)中,將應(yīng)用 SVM 方法到基于梯度方向直方圖(HOG) 的行人檢測(cè)方法:首先從輸入圖像中提取特征向量,然后用 SVM 分類器判斷獲得的特征是否為行人的特征。

        2 實(shí)驗(yàn)與結(jié)果分析

        本節(jié)首先介紹實(shí)驗(yàn)運(yùn)行環(huán)境,包括硬件配置、軟件平臺(tái)及使用的數(shù)據(jù)集。隨后,詳細(xì)闡述基于 HOG 特征和 SVM 的行人檢測(cè)方法,并采用非極大值抑制技術(shù)優(yōu)化檢測(cè)結(jié)果。最后,將對(duì)經(jīng)過(guò)顏色通道縮減并量化處理的圖像進(jìn)行行人檢測(cè),并與未處理圖像的檢測(cè)結(jié)果進(jìn)行對(duì)比分析。

        2.1 實(shí)驗(yàn)環(huán)境

        2.1.1 硬件環(huán)境

        處 理 器 :Intel(R) Core(TM) i7-9750H CPU @ 12.66500G。Hz,6 核 CPU,8GB 內(nèi)存; GPU:NVIDIA GeForce

        2.1.2 軟件環(huán)境

        操作系統(tǒng):Windows 11 專業(yè)版; GPU 編程框架:NVIDIA CUDA Toolkit 11.2.162,用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過(guò)程,提升計(jì)算效率。

        使用工具軟件:PyCharm;編程語(yǔ)言:Python 3.8。

        2.1.3 測(cè)試集的使用

        測(cè)試所使用的部分圖片如圖 5所示,其中包含33 張圖像,涵蓋多種場(chǎng)景和行人姿態(tài)。

        2.2 HOG 特征與SVM 行人檢測(cè)方法

        本小節(jié)實(shí)驗(yàn)采用 HOG 特征和 SVM 判別的行人檢測(cè)方式。對(duì)于該方法,首先調(diào)用 cv2 庫(kù)中已經(jīng)訓(xùn)練完成的基于 HOG 原理和 SVM 判別的行人檢測(cè)模型,在檢測(cè)出行人后,應(yīng)用非極大值抑制算法對(duì)檢測(cè)結(jié)果進(jìn)行優(yōu)化,以消除重疊的檢測(cè)框,提高檢測(cè)的準(zhǔn)確性。檢測(cè)效果如圖 6 所示。

        圖6共包含3組圖像,左邊一列為輸入的原圖,中間一列為經(jīng) HOG 特征檢測(cè)后的效果,右邊一列為 HOG 檢測(cè)結(jié)果經(jīng)非極大值抑制處理后的輸出效果。在每張圖片檢測(cè)的開始和結(jié)束時(shí)記錄時(shí)間,得出單張圖像的檢測(cè)耗時(shí),并記錄每張圖中檢測(cè)出的行人數(shù)量,將檢測(cè)時(shí)間和行人數(shù)量數(shù)據(jù)直接保存至Excel表格中。本實(shí)驗(yàn)對(duì)圖5測(cè)試集中的圖片進(jìn)行檢測(cè)后,匯總的部分結(jié)果如圖7所示。

        其中,第1列為每張圖片的編號(hào)(名稱) ,第2列為使用極大值抑制前每張圖檢測(cè)出的行人數(shù)量,第3列為對(duì)每個(gè)檢測(cè)出的行人特征使用極大值抑制后得到的每張圖片中的行人數(shù)量,第4列為每張圖片的檢測(cè)耗時(shí)。

        2.3 顏色通道縮減再量化

        本小節(jié)將對(duì)輸入圖片進(jìn)行顏色通道縮減并再進(jìn)行顏色值量化。顏色通道的縮減再量化如1.2小節(jié)所述,共分為2種方式,在縮減顏色通道的同時(shí)需要保證壓縮后圖片的信息不會(huì)對(duì)基于 HOG 特征的行人檢測(cè)正確性產(chǎn)生較大影響。因此,本小節(jié)將實(shí)驗(yàn)分為3組,分別是:128×128×128、64×64×64、32×32×32。同時(shí),如1.3小節(jié)的 HOG 特征基本原理所示,圖片將被壓縮為特定大小并轉(zhuǎn)換為灰度圖,故本小節(jié)實(shí)驗(yàn)將直接對(duì)原圖片進(jìn)行灰度化處理后再進(jìn)行顏色通道的縮減再量化并進(jìn)行行人檢測(cè),隨后對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析比較。

        2.3.1 顏色通道直接縮減

        顏色通道直接縮減方法將原 RGB 顏色通道范圍[301,]2。55以]映將顏射色到值較[小0,2的55區(qū)]映間射,如至 [[00,,112277]] 、為[0例,6,3灰] 和度 [圖0,像經(jīng)過(guò)縮減和再量化處理后的結(jié)果見(jiàn)圖 8,左圖為原始灰度圖,右圖為縮減后的圖像。此方法旨在減少顏色信息的復(fù)雜度,同時(shí)保持行人特征的可識(shí)別性。

        同圖8的處理,再將圖像分別壓縮到[0,127]與[0,63],然后分別進(jìn)行行人檢測(cè)得到csv表格數(shù)據(jù)如圖9、圖10、圖11所示。

        由圖 9 可以看出,對(duì)圖片進(jìn)行直接縮減,并將所有像素點(diǎn)的顏色值縮減至原來(lái)的一半,對(duì)檢測(cè)的正確性并未產(chǎn)生顯著影響,處理時(shí)間亦無(wú)明顯減少。

        由圖 10 可以看出,將原像素點(diǎn)的顏色值縮減至原來(lái)的四分之一,在精確度方面產(chǎn)生了較小影響,處理時(shí)間相較于圖 9 中的結(jié)果略有減少。

        由圖 11 可以看出,將原像素點(diǎn)的顏色值縮減至原來(lái)的八分之一,檢測(cè)精度下降較為明顯,檢測(cè)時(shí)間也有了客觀的減少。顏色通道直接縮減導(dǎo)致的準(zhǔn)確性下降,與直接將顏色值減半引起的亮度變化有關(guān)。同時(shí),由于數(shù)值的減小,檢測(cè)時(shí)間也有了明顯減少。

        2.3.2 顏色通道區(qū)間映射成值

        顏色通道區(qū)間映射成值是將原本[0,255]的顏色通道范圍分別均等分為 128 個(gè)區(qū)間、64 個(gè)區(qū)間、32 個(gè)區(qū)間。以 32 個(gè)區(qū)間為例,將值范圍在 [0,7] 的值都變?yōu)?0,[8,15] 內(nèi)的值都變?yōu)?8,以此類推,直到 [248, 255] 區(qū)間內(nèi)的值都變?yōu)?248。為了增加對(duì)比,將以顏色通道的灰度圖壓縮再量化為原來(lái)的八分之一,即 32 個(gè)顏色通道為例,轉(zhuǎn)化后的效果如圖 12 所示。

        采用與圖 12 相同的處理方法,將圖像的顏色通道分別壓縮為 128 個(gè)與 64 個(gè),隨后分別進(jìn)行行人檢測(cè),得到的 CSV 表格數(shù)據(jù)如圖 13、圖 14和圖 15 所示。

        由圖 13 可以看出,對(duì)圖片進(jìn)行映射縮減,并將所有像素點(diǎn)的顏色值縮減至原來(lái)的一半,行人檢測(cè)的正確性與原始結(jié)果相比幾乎沒(méi)有影響,處理時(shí)間也幾乎沒(méi)有減少。

        由圖 14 可以看出,對(duì)圖片進(jìn)行映射縮減至原來(lái)的四分之一,行人檢測(cè)的精度未受明顯影響,檢測(cè)時(shí)間有一定程度的減少。

        由圖 15 可以看出,對(duì)圖片進(jìn)行映射縮減至原來(lái)的八分之一,檢測(cè)精度幾乎沒(méi)有受到影響,而檢測(cè)時(shí)間有了明顯的下降。映射縮減的方式幾乎不會(huì)影響檢測(cè)正確性,且隨著顏色值的減少,每張圖片的處理時(shí)間也有明顯下降,是一種較為合適的顏色通道縮減方法。

        2.4 實(shí)驗(yàn)分析

        實(shí)驗(yàn)分析分為兩部分:正確率對(duì)比與檢測(cè)時(shí)間對(duì)比。實(shí)驗(yàn)數(shù)據(jù)分為7組,分別是第0組:不經(jīng)過(guò)顏色通道處理得到的行人檢測(cè)數(shù)據(jù);第1組:將顏色通道直接壓縮到[0,127]得到的行人檢測(cè)數(shù)據(jù);第2組:將顏色通道直接壓縮到[0,63] 得到的行人檢測(cè)數(shù)據(jù);第 3 組:將顏色通道直接壓縮到[0,31]得到的行人檢測(cè)數(shù)據(jù);第4 組:將顏色通道區(qū)間映射成為 128 個(gè)顏色通道得到的數(shù)據(jù);第5組:將顏色通道區(qū)間映射成為64個(gè)顏色通道得到的數(shù)據(jù);第 6 組:將顏色通道區(qū)間映射成為32 個(gè)顏色通道得到的數(shù)據(jù)。

        正確率對(duì)比是將經(jīng)過(guò)顏色通道壓縮后的圖片進(jìn)行行人檢測(cè)得到的行人數(shù)量,與不進(jìn)行顏色通道縮減檢測(cè)得到的行人數(shù)量進(jìn)行對(duì)比。分別將每一組得到的圖片行人數(shù)量與第 0 組通過(guò)公式(21) 進(jìn)行計(jì)算。

        式中:Pi,0 表示第0組的第i 張圖片中的行人數(shù)量,| P i,j - Pi,0| 表示第j 組的第i 張圖片中的行人數(shù)量與第0組的第i 張圖片中的行人數(shù)量相減并取絕對(duì)值,即每組圖片與第0組的差值,j 的取值范圍為[0,7]。通過(guò)以上的計(jì)算公式得到的結(jié)果如表1所示。

        從表1的數(shù)據(jù)比較可以發(fā)現(xiàn),在 6 組實(shí)驗(yàn)數(shù)據(jù)中,第 1、5、6 組得到的檢測(cè)效果與不進(jìn)行圖片顏色通道縮減的行人檢測(cè)效果相差較小。具體而言:第1組由于顏色空間壓縮較小,因此檢測(cè)精度與第0組差別不大。第5、6組因?yàn)椴捎脜^(qū)間映射方式,在減少像素的同時(shí)增大了邊緣向量的對(duì)比度,使人物邊緣更加明顯,所以檢測(cè)精度與第 0 組差別較小。

        檢測(cè)時(shí)間對(duì)比是將每組圖片得到的檢測(cè)時(shí)間相加并除以圖片的數(shù)量,每組的檢測(cè)時(shí)間計(jì)算公式如公式(22) 所示。

        式中:Ti 表示該組圖片中第i 張圖片的檢測(cè)時(shí)間,將一組中所有圖片的檢測(cè)時(shí)間相加并除以該組圖片的總數(shù)n,從而計(jì)算出數(shù)據(jù)集的平均檢測(cè)時(shí)間,結(jié)果如表2所示。

        如表2所示,第6組(顏色通道區(qū)間映射至32個(gè)顏色值) 實(shí)現(xiàn)了最低的平均檢測(cè)時(shí)間,約為原組的92%。這是由于該組在顯著減少輸入顏色信息的同時(shí),采用整數(shù)量化策略,加快了計(jì)算速度。相比之下,第1至第5組的檢測(cè)時(shí)間減少幅度較小,表明顏色通道縮減程度與檢測(cè)時(shí)間呈負(fù)相關(guān)關(guān)系。然而,部分組別的檢測(cè)準(zhǔn)確率略有下降,需在檢測(cè)速度與準(zhǔn)確性之間尋求平衡。通過(guò)上述兩個(gè)表格分析,第6組效果最優(yōu):在保證正確率的情況下顯著減少了行人檢測(cè)時(shí)間。

        對(duì)比分析表明,顏色通道區(qū)間映射方法在保持高檢測(cè)準(zhǔn)確率的同時(shí)顯著降低了檢測(cè)時(shí)間,尤其是在將顏色通道映射至32個(gè)顏色值時(shí),檢測(cè)時(shí)間減少了約8%。這一結(jié)果表明,顏色通道區(qū)間映射方法在實(shí)際應(yīng)用中具有較高的優(yōu)化潛力,尤其適用于對(duì)實(shí)時(shí)性要求較高的行人檢測(cè)場(chǎng)景。

        3 總結(jié)

        本文提出了一種輸入圖片顏色通道的縮減方法用于HOG特征行人自動(dòng)檢測(cè),旨在保證行人檢測(cè)準(zhǔn)確性的同時(shí)顯著降低檢測(cè)所需時(shí)間。本研究的創(chuàng)新之處在于引入了顏色通道縮減與再量化技術(shù),并提出了兩種不同的縮減方法:直接壓縮與區(qū)間映射。實(shí)驗(yàn)結(jié)果表明,尤其是區(qū)間映射至32個(gè)顏色值的方法,能夠在顯著降低檢測(cè)時(shí)間的同時(shí)保持較高的檢測(cè)準(zhǔn)確率,為行人檢測(cè)技術(shù)的實(shí)時(shí)應(yīng)用提供了有效的優(yōu)化方案。通過(guò)將圖像顏色通道縮減為32個(gè)顏色值且采用區(qū)間映射方式,能夠有效降低檢測(cè)時(shí)間并保持較高的檢測(cè)準(zhǔn)確率,驗(yàn)證了該方法在行人檢測(cè)中的有效性。

        盡管取得了一定的成效,本文仍存在一些局限性。由于實(shí)驗(yàn)環(huán)境的限制,本實(shí)驗(yàn)未能在其他更大規(guī)模的數(shù)據(jù)集上測(cè)試顏色通道縮減與再量化的效果。此外,顏色通道的縮減方式尚未在實(shí)時(shí)圖像檢測(cè)場(chǎng)景中進(jìn)行驗(yàn)證。未來(lái)若能在更加多樣的數(shù)據(jù)集和實(shí)時(shí)應(yīng)用環(huán)境中進(jìn)行測(cè)試,可能會(huì)獲得更優(yōu)的改進(jìn)方案和檢測(cè)效果。

        【通聯(lián)編輯:唐一東】

        基金項(xiàng)目:江蘇省科技計(jì)劃專項(xiàng)資金(重點(diǎn)研發(fā)計(jì)劃產(chǎn)業(yè)前瞻與關(guān)鍵核心技術(shù)) 重點(diǎn)項(xiàng)目(項(xiàng)目編號(hào):BE2023005-4)

        猜你喜歡
        特征提取
        特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于DNN的低資源語(yǔ)音識(shí)別特征提取技術(shù)
        Bagging RCSP腦電特征提取算法
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于DSP的直線特征提取算法
        基于改進(jìn)WLD的紋理特征提取方法
        淺析零件圖像的特征提取和識(shí)別方法
        基于CATIA的橡皮囊成形零件的特征提取
        免费无码av一区二区| 久草视频在线播放免费| 国产精品一区二区夜色不卡 | 91在线无码精品秘 入口九色十| 日本人妻高清免费v片| 一区二区三区国产偷拍| 精品国产亚洲第一区二区三区| 亚洲精品成人网站在线播放| 亚洲日韩∨a无码中文字幕| 在线一区不卡网址观看| 国产一级r片内射免费视频| 一区二区三区视频亚洲| 欧美xxxx做受欧美| 亚洲日韩乱码中文无码蜜桃臀 | 亚洲中文字幕无码一久久区 | 伊人久久大香线蕉av色| 真人无码作爱免费视频禁hnn| 国产精品亚洲专区无码web| 国产成年无码AⅤ片日日爱| 男女深夜视频网站入口| 少妇性bbb搡bbb爽爽爽| 无码国产精品一区二区免费16| 国产又粗又猛又黄色呦呦| 久久综合伊人有码一区中文字幕| 国产av一区二区三区无码野战| 欧美激情a∨在线视频播放| 好日子在线观看视频大全免费动漫| 欧美在线专区| 亚洲色图少妇熟女偷拍自拍| 亚洲av无码国产精品色| 8av国产精品爽爽ⅴa在线观看| 日韩在线精品在线观看 | 特级av毛片免费观看| 久久精品国产亚洲Av无码偷窍| 久久99免费精品国产| 亚洲欧美综合精品成人网站| 亚洲av成人综合网| 男人的天堂av一二三区| 日本熟妇另类一区二区三区| 国产情侣久久久久aⅴ免费| 波多野结衣一区二区三区免费视频 |