陳夏陽(yáng)
(江蘇科技大學(xué)計(jì)算機(jī)學(xué)院,江蘇鎮(zhèn)江 212100)
行人檢測(cè)在車(chē)輛自動(dòng)化、視頻監(jiān)控以及救援搜救等方面有著廣泛應(yīng)用,吸引了眾多研究人員的注意。近年來(lái),采用視覺(jué)光學(xué)彩色圖像的行人檢測(cè)取得了巨大進(jìn)展[1-3]。但由于不利光照條件、行人目標(biāo)存在遮擋及分辨率低等因素,基于可見(jiàn)光的行人檢測(cè)難以得到廣泛應(yīng)用,因此學(xué)者們提出采用熱成像圖數(shù)據(jù)集進(jìn)行行人檢測(cè)。在行人檢測(cè)中,檢測(cè)主體目標(biāo)是人,而人通常比周?chē)尘皽囟雀撸⑶覠峒t外相機(jī)能夠感應(yīng)到行人目標(biāo)所發(fā)出的輻射,因此熱成像圖能夠有效提升行人目標(biāo)檢測(cè)率。隨著研究的不斷深入,文獻(xiàn)[4]、[5]發(fā)現(xiàn)紅外圖像中的行人高亮處與對(duì)應(yīng)可見(jiàn)光圖中的行人紋理圖具有互補(bǔ)作用,并利用兩種圖像優(yōu)化檢測(cè)方法。在可見(jiàn)光圖像與熱成像圖像各有利弊的情況下,多光譜數(shù)據(jù)源更適用于行人檢測(cè)。由于基于KAIST 多光譜數(shù)據(jù)集的行人檢測(cè)方法[4-5]性能優(yōu)越,多光譜行人檢測(cè)因此成為了目前的研究熱點(diǎn)。
目前主流的行人檢測(cè)算法主要分為兩類(lèi):一類(lèi)是基于候選區(qū)域的兩步行人檢測(cè)算法,此類(lèi)算法基于行人候選區(qū)域的位置對(duì)候選區(qū)域進(jìn)行分類(lèi),代表算法有RCNN[7]、Faster-RCNN[8]算法等。兩步檢測(cè)算法能獲得良好的檢測(cè)精度,但不能滿足實(shí)時(shí)檢測(cè)的需要,且該方法的網(wǎng)絡(luò)模型占用了較大的內(nèi)存空間,難以應(yīng)用于移動(dòng)嵌入式設(shè)備中,實(shí)用性受到了一定程度限制。另一類(lèi)是基于行人對(duì)象中心和比例的單步檢測(cè)算法,其神經(jīng)網(wǎng)絡(luò)模型較為單一,且不需要錨框進(jìn)行目標(biāo)定位,屬于端到端學(xué)習(xí)算法,能夠大幅提升檢測(cè)速度,代表算法有YOLO 和SSD 算法。文獻(xiàn)[10]、[11]提出的無(wú)錨框方法類(lèi)似于兩步檢測(cè)算法在回歸到邊界框角點(diǎn)或?qū)ο笾行狞c(diǎn)時(shí)的目標(biāo)區(qū)域生成器,但實(shí)際上無(wú)錨框方法本身就是有效的單步檢測(cè)算法,如TTL 方法[12]根據(jù)ResNet-50 主干網(wǎng)絡(luò)的上采樣特征圖預(yù)測(cè)行人底部和頂部的熱成像圖,CornerNet 方法[13]通過(guò)目標(biāo)左上及右下的角點(diǎn)預(yù)測(cè)熱成像圖,并且近幾年的CSPNet[14-15]等方法顯著提升了行人檢測(cè)的準(zhǔn)確率。
大多數(shù)多光譜行人檢測(cè)方法采用特征融合的方法處理雙通道圖像與特征,但特征融合方法計(jì)算開(kāi)銷(xiāo)大,且過(guò)多的結(jié)構(gòu)化數(shù)據(jù)使得融合的魯棒性較差,而特征選擇方法能夠有效提取可靠行人特征描述子,去除冗余特征。因此,本文首先采用多種圖像融合及特征融合,然后用特征選擇代替?zhèn)鹘y(tǒng)的通道拼接特征融合,基于上述不同的特征處理方法進(jìn)行多光譜行人檢測(cè)實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,相較于傳統(tǒng)的特征融合行人檢測(cè),基于特征選擇的無(wú)錨框多光譜行人檢測(cè)方法在保證全天行人檢測(cè)漏檢率較低的前提下,對(duì)于遠(yuǎn)距離目標(biāo)及嚴(yán)重遮擋目標(biāo),分別有效降低了15%及9%的漏檢率。
本文主要進(jìn)行以下3 方面研究:①基于hourglass 骨干網(wǎng)絡(luò),采用傳統(tǒng)通道拼接特征融合方法進(jìn)行實(shí)驗(yàn),并分析比較3 種不同融合方式的性能以及對(duì)檢測(cè)結(jié)果的影響;②采用特征選擇代替?zhèn)鹘y(tǒng)的通道拼接特征融合方法,檢測(cè)較小目標(biāo)及遮擋行人目標(biāo),得到優(yōu)良的檢測(cè)率;③在KAIST 數(shù)據(jù)集上進(jìn)行基于特征選擇的無(wú)錨框多光譜行人檢測(cè)實(shí)驗(yàn),驗(yàn)證了算法的有效性。
受CenterNet[6]網(wǎng)絡(luò)以及多光譜行人檢測(cè)相關(guān)文獻(xiàn)[16-18]的啟發(fā),本文采用傳統(tǒng)特征融合的方式將多光譜行人檢測(cè)方法應(yīng)用于Hourglass 網(wǎng)絡(luò)結(jié)構(gòu),在網(wǎng)絡(luò)中的不同位置進(jìn)行特征融合,并實(shí)現(xiàn)多光譜行人檢測(cè)。由于特征融合階段不同,行人目標(biāo)特征存在差異,該方法能夠通過(guò)對(duì)比實(shí)驗(yàn),找出最適用于較小行人目標(biāo)及遮擋行人目標(biāo)檢測(cè)的融合階段,達(dá)到最佳協(xié)同檢測(cè)效果。
然而,將傳統(tǒng)特征融合方法應(yīng)用于Hourglass 網(wǎng)絡(luò)結(jié)構(gòu),對(duì)較小行人目標(biāo)及遮擋行人目標(biāo)的檢測(cè)精度較低。因此,本文實(shí)驗(yàn)以特征選擇方法替代傳統(tǒng)特征融合方法[16,19]應(yīng)用于CenterNet 網(wǎng)絡(luò),實(shí)現(xiàn)了基于特征選擇的無(wú)錨框多光譜行人檢測(cè)。
基于卷積網(wǎng)絡(luò)的檢測(cè)器由3 個(gè)階段組成:卷積階段、完全連接階段和判定階段。不同階段的特征對(duì)應(yīng)不同層次的語(yǔ)義和視覺(jué)細(xì)節(jié),較低層次的視覺(jué)細(xì)節(jié)更精細(xì),較高層次的語(yǔ)義更豐富。因此,將傳統(tǒng)特征融合方法應(yīng)用于網(wǎng)絡(luò)的不同階段,對(duì)檢測(cè)結(jié)果能夠產(chǎn)生不同影響。為實(shí)現(xiàn)能達(dá)到最佳協(xié)同檢測(cè)效果的融合模型架構(gòu),本文將Hourglass網(wǎng)絡(luò)結(jié)構(gòu)與傳統(tǒng)特征融合方式相結(jié)合,針對(duì)基于Hourglass網(wǎng)絡(luò)設(shè)計(jì)的3 種融合模型進(jìn)行深入研究[9]。根據(jù)融合的不同階段,上述方法分為早期融合、中期融合以及晚期融合。
在早期融合中,輸入圖像首先經(jīng)過(guò)可見(jiàn)光分支與熱成像分支并進(jìn)行特征融合,然后將特征圖作為NIN 網(wǎng)絡(luò)的輸入[20-21]。NIN 網(wǎng)絡(luò)將連接層網(wǎng)絡(luò)維度降低到128,輸出可見(jiàn)光及熱成像分支局部特征的線性組合,并增強(qiáng)局部行人目標(biāo)的辨識(shí)度。由于預(yù)處理層捕獲的角點(diǎn)、線段類(lèi)視覺(jué)特征相對(duì)低級(jí),因此早期融合屬于低級(jí)特征融合。
中期融合同樣在卷積階段實(shí)現(xiàn)融合。但與早期融合有所區(qū)別的是,特征圖在Hourglass 1 模塊后進(jìn)行特征融合。由于Hourglass 1 模塊與預(yù)處理層的特征相比包含更豐富的語(yǔ)義,因此中期融合能夠增強(qiáng)局部行人目標(biāo)特征,以及保留更多精細(xì)的視覺(jué)細(xì)節(jié)。
后期融合在Hourglass 2 模塊之后進(jìn)行特征融合,將兩個(gè)子網(wǎng)絡(luò)最后卷積塊的特征映射串聯(lián),在此基礎(chǔ)上構(gòu)建區(qū)域建議模塊。3種融合方式的大致框架如圖1所示。
本文將傳統(tǒng)特征融合應(yīng)用于Hourglass 網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)了3 種不同的融合架構(gòu),但對(duì)較小行人目標(biāo)及遮擋行人目標(biāo)的檢測(cè)率較低。為提高上述檢測(cè)率,并解決過(guò)多特征導(dǎo)致的過(guò)擬合、模型泛化能力下降等問(wèn)題,將CenterNet 網(wǎng)絡(luò)與特征選擇方法相結(jié)合,并運(yùn)用feature_selection 庫(kù)中的函數(shù)實(shí)現(xiàn)了基于特征選擇的無(wú)錨框多光譜行人檢測(cè)方法[16]。
特征選擇方法一般分為3 類(lèi):過(guò)濾式選擇、包裹式選擇以及嵌入式選擇。本文分別選擇3 類(lèi)方法中的方差選擇法、遞歸特征消除法以及基于樹(shù)模型的特征選擇法進(jìn)行實(shí)驗(yàn)。方差選擇法根據(jù)行人特征計(jì)算出方差以及設(shè)定的閾值,并選擇方差大于閾值的特征;遞歸特征消除法使用LogisticRegression 作為基模型進(jìn)行多輪訓(xùn)練,每輪訓(xùn)練后消除若干權(quán)值系數(shù)的特征,再基于新的特征集進(jìn)行下一輪訓(xùn)練,并將最終使用的學(xué)習(xí)器的性能作為子集的評(píng)價(jià)準(zhǔn)則;基于樹(shù)模型的特征選擇法采用GBDT 梯度提升決策樹(shù)作為基模型進(jìn)行特征選擇,學(xué)習(xí)器自動(dòng)進(jìn)行特征選擇,在訓(xùn)練過(guò)程中得到各個(gè)特征的權(quán)值系數(shù),并根據(jù)系數(shù)從大到小選擇特征。包裹式選擇的效果優(yōu)于過(guò)濾式選擇,但需要更大的開(kāi)銷(xiāo),即在提升性能的同時(shí),需要消耗大量時(shí)間與算力。嵌入式選擇與過(guò)濾式選擇類(lèi)似,但前者能夠通過(guò)訓(xùn)練確定特征優(yōu)劣程度。
在行人檢測(cè)中,由于存在行人背景信息冗余、行人目標(biāo)具有多樣性等因素,使得提取到的顏色及紋理特征復(fù)雜,影響行人檢測(cè)的準(zhǔn)確率。為解決冗余特征的問(wèn)題,本文提出一種特征注意網(wǎng)絡(luò),如圖2所示[22-23]。
Fig.1 Early fusion,halfway fusion and late fusion frame圖1 早期融合、中期融合與后期融合框架
Fig.2 Feature attention network圖2 特征注意網(wǎng)絡(luò)
圖2 中的H、W 和C 分別代表輸入特征圖的高、寬與通道數(shù)。特征注意網(wǎng)絡(luò)包含適用于不同級(jí)別特征的兩個(gè)分支,上分支處理高層語(yǔ)義特征,下分支處理低層細(xì)節(jié)特征。上分支通過(guò)1×k 和k×1 的非對(duì)稱(chēng)卷積獲取高層語(yǔ)義特征圖的空間結(jié)構(gòu)信息,輸出結(jié)果為特征圖U1和U2。之后特征圖U1和U2再次通過(guò)同樣的非對(duì)稱(chēng)卷積降維至1 維,得到特征圖V1和V2。最后,特征圖V1、V2經(jīng)過(guò)點(diǎn)對(duì)點(diǎn)元素相加后得到二維特征圖,并經(jīng)過(guò)sigmoid 函數(shù)后得到權(quán)重矩陣T,權(quán)重矩陣T 與低層細(xì)節(jié)特征圖相乘得到最終的特征圖。為實(shí)現(xiàn)特征選擇,Hourglass 網(wǎng)絡(luò)利用上述特征選擇模塊進(jìn)行實(shí)驗(yàn)。圖3 所示的CenterNet 網(wǎng)絡(luò)結(jié)構(gòu)的簡(jiǎn)化圖表明了注意力模塊位置及網(wǎng)絡(luò)總體架構(gòu)。
實(shí)驗(yàn)環(huán)境為:INTEL Xeon Silver 4210 CPU 2 GHz,32GB 內(nèi)存,NVIDIA Tesla M40 24G,CentOS7,64 位操作系統(tǒng)。實(shí)驗(yàn)選擇深度學(xué)習(xí)框架TensorFlow 作為平臺(tái),并在TensorFlow 版本2.0、CUDA 版本10.1、cuDNN 版本7.4.1 的環(huán)境下運(yùn)行。
Fig.3 Simplified structure diagram of CenterNet network based on feature selection圖3 基于特征選擇的CenterNet網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)化圖
實(shí)驗(yàn)基于KAIST 多光譜行人檢測(cè)數(shù)據(jù)集,將結(jié)果作為評(píng)估模型的性能指標(biāo)。KAIST 數(shù)據(jù)集采集白天與黑夜共計(jì)95 328 張圖片,其中訓(xùn)練集包含50 187 張圖片,測(cè)試集包含45 141 張圖片。數(shù)據(jù)集分別在白天和晚上捕獲包括校園、街道以及鄉(xiāng)下的各種常規(guī)交通場(chǎng)景。數(shù)據(jù)集共包括1 182 個(gè)不同的行人目標(biāo),分為“person”“people”“cyclist”與“person?”4 類(lèi)標(biāo)簽。實(shí)驗(yàn)中設(shè)置標(biāo)簽“person”“people”為正樣本,其余為負(fù)樣本。通過(guò)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析,以驗(yàn)證基于特征選擇的無(wú)錨框多光譜行人檢測(cè)方法的有效性。
1.1 節(jié)中將CenterNet 方法與傳統(tǒng)的通道融合方法相結(jié)合,根據(jù)融合階段的不同,分別實(shí)現(xiàn)了前期融合、中期融合與后期融合的無(wú)錨框多光譜行人檢測(cè)方法,但上述方法仍未能有效提升對(duì)較小行人目標(biāo)及遮擋行人目標(biāo)的檢測(cè)率,而特征選擇方法能夠?qū)π腥颂卣鬟M(jìn)行有效篩選。因此,首先在KAIST 數(shù)據(jù)集中分別挑選約2 000 張圖像作為遠(yuǎn)距離行人目標(biāo)、部分遮擋行人目標(biāo)及嚴(yán)重遮擋行人目標(biāo)訓(xùn)練子集,500 張圖像作為測(cè)試子集,并結(jié)合原有的全天、白天與夜間數(shù)據(jù)子集,與1.2 節(jié)中的3 種特征選擇方法進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表1所示。
Table 1 Miss-rate of three traditional channel fusion methods under KAIST test subsets表1 3種傳統(tǒng)通道融合方法在KAIST測(cè)試子集下的檢測(cè)漏檢率 %
由表1 可知,在傳統(tǒng)通道融合方法中,中期融合的全天漏檢率為15.78%,但在檢測(cè)較小分辨率、存在遮擋的行人目標(biāo)方面仍存在不足。在特征選擇法中,僅靠設(shè)定特征閾值的方差選擇法在各子集上的檢測(cè)表現(xiàn)較差,在節(jié)約開(kāi)銷(xiāo)的前提下漏檢率上升;而采用LogisticRegression 基模型的遞歸特征消除法與樹(shù)模型的特征選擇法在各子集上的漏檢率優(yōu)于傳統(tǒng)通道融合方法。遞歸特征消除法經(jīng)過(guò)多輪的特征排除與選擇,全天漏檢率為12.17%,遠(yuǎn)距離行人目標(biāo)漏檢率為58.73%,部分遮擋行人目標(biāo)漏檢率為36.80%?;谔卣鬟x擇的方法相比于傳統(tǒng)通道融合方法,在遠(yuǎn)距離行人目標(biāo)及存在遮擋的行人目標(biāo)數(shù)據(jù)子集上都能實(shí)現(xiàn)較低的漏檢率,實(shí)驗(yàn)結(jié)果驗(yàn)證了特征選擇方法的有效性與實(shí)用性。
由2.1 節(jié)的實(shí)驗(yàn)結(jié)果可知,基于特征選擇的無(wú)錨框多光譜行人檢測(cè)方法與傳統(tǒng)的通道融合行人檢測(cè)方法相比略有優(yōu)勢(shì)。在較小的行人目標(biāo)及遮擋行人目標(biāo)子集上,基于遞歸特征消除法的多光譜行人檢測(cè)方法相比其它方法表現(xiàn)出一定的優(yōu)越性。但僅憑上述實(shí)驗(yàn)結(jié)果無(wú)法確切驗(yàn)證特征選擇方法的有效性,因此采用效果最優(yōu)的遞歸特征消除法在KAIST 數(shù)據(jù)集上進(jìn)行關(guān)于注意模塊的消融實(shí)驗(yàn)。為驗(yàn)證注意模塊在算法中的作用,首先選擇傳統(tǒng)通道融合方法與CenterNet 雙通道網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)。在CenterNet 雙通道網(wǎng)絡(luò)的基礎(chǔ)上,分別添加用于處理高級(jí)語(yǔ)義特征部分的注意網(wǎng)絡(luò)及處理低等細(xì)節(jié)特征部分的注意網(wǎng)絡(luò)并進(jìn)行實(shí)驗(yàn)。最后,與完整的基于特征選擇的CenterNet 網(wǎng)絡(luò)進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表2所示。
Table 2 Comparison of miss-rate of ablation experiment on KAIST dataset表2 KAIST數(shù)據(jù)集上消融實(shí)驗(yàn)漏檢率比較 %
由表2 可知,在全天、白天及夜間的子集上,添加不同的注意網(wǎng)絡(luò)后檢測(cè)率提升有限,但在較小行人目標(biāo)及遮擋行人目標(biāo)子集上,檢測(cè)率有明顯提升。且相比之下,添加處理低等細(xì)節(jié)特征部分的注意網(wǎng)絡(luò)后,檢測(cè)率提升幅度明顯較大,驗(yàn)證了該網(wǎng)絡(luò)在檢測(cè)較小行人目標(biāo)方面的有效性。實(shí)驗(yàn)結(jié)果表明,基于特征選擇的CenterNet 方法在各子集上的檢測(cè)率都有所提升,充分驗(yàn)證了特征選擇方法應(yīng)用于無(wú)錨框多光譜行人檢測(cè)的有效性。
分別使用中期融合CenterNet 方法、基于特征選擇的CenterNet 方法與現(xiàn)有的RPN+BF 等方法在KAIST 數(shù)據(jù)集上進(jìn)行測(cè)試,結(jié)果如表3所示。
Table 3 Comparison of miss-rate among different methods on KAIST dataset表3 不同方法在KAIST數(shù)據(jù)集上的漏檢率比較 %
由表3 可知,基于特征選擇的CenterNet 方法應(yīng)用于全天、白天及遠(yuǎn)距離行人目標(biāo)集合的漏檢率與MSDS-RCNN等現(xiàn)有方法的漏檢率相近;在夜間行人目標(biāo)集合上的漏檢率為15.72%,與現(xiàn)有方法IATDNN 的漏檢率相同;在部分遮擋行人目標(biāo)集合上的漏檢率為36.80%,優(yōu)于其他檢測(cè)方法;在嚴(yán)重遮擋行人目標(biāo)子集上的漏檢率與現(xiàn)有方法MSDS-RCNN 相近。實(shí)驗(yàn)結(jié)果表明,本文方法能夠在保證全天檢測(cè)率與現(xiàn)有方法相當(dāng)?shù)那疤嵯?,?shí)現(xiàn)較低的遠(yuǎn)距離及存在遮擋的行人目標(biāo)漏檢率,具有較強(qiáng)的魯棒性。
為驗(yàn)證基于特征選擇的多光譜行人檢測(cè)方法的有效性,在KAIST 數(shù)據(jù)集中進(jìn)行特征圖可視化,并標(biāo)注置信度。由于置信度能夠代表當(dāng)前框內(nèi)存在對(duì)象的概率,因此能夠解釋算法的有效性。實(shí)驗(yàn)結(jié)果表明,上述方法對(duì)中遠(yuǎn)距離及存在遮擋的目標(biāo)檢測(cè)效果良好,具備一定的魯棒性。部分實(shí)驗(yàn)結(jié)果如圖4所示(彩圖掃OSID 碼可見(jiàn),下同)。
Fig.4 Visualization results of feature maps圖4 特征圖可視化結(jié)果
與傳統(tǒng)的通道融合行人檢測(cè)不同,本文方法中的可見(jiàn)光圖像和熱紅外圖像分別通過(guò)包含卷積層與殘差網(wǎng)絡(luò)的預(yù)處理階段,在Hourglass 網(wǎng)絡(luò)模塊1 后進(jìn)行特征選擇,從而篩選行人特征。原圖像及特征圖對(duì)比如圖5 所示,從左至右分別是原圖像、傳統(tǒng)通道融合后的特征圖及特征選擇后的特征圖,特征圖分辨率為160×128。
由圖5 的特征圖可知,傳統(tǒng)的通道融合方法難以檢測(cè)出受到遮擋的行人目標(biāo),但特征選擇方法會(huì)對(duì)行人目標(biāo)的復(fù)雜特征進(jìn)行過(guò)濾與篩選,因此行人目標(biāo)將更加精確,且具有更好的辨識(shí)度。為更具體地說(shuō)明基于特征選擇的無(wú)錨框多光譜行人檢測(cè)方法的應(yīng)用性能,實(shí)驗(yàn)將多種方法進(jìn)行比較,并將結(jié)果以MR-FPPI 圖形式呈現(xiàn),如圖6 所示。由圖中的曲線可知,基于特征選擇的無(wú)錨框多光譜行人檢測(cè)方法在KAIST 數(shù)據(jù)集上的漏檢率為12.17%,性能優(yōu)于大多數(shù)其他行人檢測(cè)方法。實(shí)驗(yàn)結(jié)果再次驗(yàn)證了多光譜行人檢測(cè)方法中特征選擇的有效性及魯棒性。
Fig.5 Comparison of original image and feature map圖5 原圖像及特征圖對(duì)比
Fig.6 Comparison of MR-FPPI between the proposed method and other methods圖6 本文方法與其他方法的MR-FPPI圖對(duì)比
由圖6 可知,本文方法對(duì)遠(yuǎn)距離行人目標(biāo)及部分存在遮擋的行人目標(biāo)的漏檢率分別為58.73%和36.80%。特征選擇方法對(duì)于部分低分辨率及遮擋行人目標(biāo)也具備較好的識(shí)別效果,檢測(cè)結(jié)果如圖7 所示。圖中的綠色框?yàn)檎鎸?shí)框,紅色框?yàn)闄z測(cè)框。圖7 的結(jié)果表明,該方法對(duì)于中遠(yuǎn)距離及存在遮擋的行人目標(biāo)具有很好的檢測(cè)效果,但當(dāng)行人目標(biāo)數(shù)量較多時(shí),因行人之間的相互遮擋等原因可能導(dǎo)致漏檢。但總體而言,基于特征選擇的多光譜行人檢測(cè)方法很大程度上優(yōu)化了較小行人目標(biāo)及存在遮擋行人目標(biāo)的檢測(cè)精度。
行人檢測(cè)在計(jì)算機(jī)視覺(jué)領(lǐng)域應(yīng)用廣泛,近年來(lái)備受關(guān)注。本文闡述了基于特征選擇的無(wú)錨框多光譜行人檢測(cè)方法,并與傳統(tǒng)的通道融合方法進(jìn)行對(duì)比。在KAIST 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,特征選擇方法能夠有效過(guò)濾與篩選行人目標(biāo)的復(fù)雜特征,能夠解決大多數(shù)情況下行人目標(biāo)由于分辨率低、存在遮擋導(dǎo)致的漏檢、誤檢問(wèn)題,在實(shí)際應(yīng)用時(shí)具備一定的魯棒性。
Fig.7 Part of the detection result of the proposed method on KAIST dataset圖7 本文方法在KAIST數(shù)據(jù)集上的部分檢測(cè)效果
多光譜數(shù)據(jù)源及特征選擇方法雖然有效降低了行人檢測(cè)的漏檢率,但也面臨新的問(wèn)題。首先,行人檢測(cè)實(shí)驗(yàn)需要大量數(shù)據(jù)集,但目前標(biāo)準(zhǔn)的多光譜行人檢測(cè)數(shù)據(jù)集數(shù)量極少,實(shí)驗(yàn)存在一定局限性。其次,本文通過(guò)多光譜數(shù)據(jù)源及特征選擇方法,有效將較小行人目標(biāo)及存在遮擋行人目標(biāo)的漏檢率分別降低至58.73%與36.80%,但針對(duì)場(chǎng)景的復(fù)雜性及環(huán)境的特殊性,該漏檢率仍有待進(jìn)一步降低。最后,現(xiàn)有行人檢測(cè)算法在檢測(cè)嚴(yán)重遮擋行人目標(biāo)方面尚未實(shí)現(xiàn)突破性進(jìn)展,因此將成為后續(xù)行人檢測(cè)的一個(gè)重要研究方向。