劉瀚文,王紅霞,周 奎,張友兵
(1.湖北汽車工業(yè)學(xué)院 機(jī)械工程學(xué)院,湖北 十堰 442000;2.湖北汽車工業(yè)學(xué)院 汽車工程師學(xué)院,湖北 十堰 442000)
近年來(lái),無(wú)人駕駛技術(shù)發(fā)展突飛猛進(jìn),為人們的出行帶來(lái)了許多便利,與此同時(shí),愈發(fā)復(fù)雜的道路環(huán)境也給無(wú)人駕駛系統(tǒng)環(huán)境感知帶來(lái)許多挑戰(zhàn),行人檢測(cè)已成為目標(biāo)檢測(cè)領(lǐng)域的關(guān)鍵問(wèn)題[1]。在日常道路場(chǎng)景中,氣候、光照等因素都會(huì)影響行人檢測(cè)的精度,尤其在夜間環(huán)境中,由于光線較弱、明暗差異大,導(dǎo)致圖像數(shù)據(jù)模糊、背景信息復(fù)雜等現(xiàn)象,給檢測(cè)任務(wù)帶來(lái)了更大的挑戰(zhàn)[2]。因此,一個(gè)快速準(zhǔn)確的夜間行人檢測(cè)算法能夠提高無(wú)人駕駛技術(shù)的安全性能。
深度學(xué)習(xí)方法因其較高的檢測(cè)精度及魯棒性,被學(xué)界廣泛關(guān)注。目前主流的目標(biāo)檢測(cè)框架主要有2種:一種是基于候選框提取的兩階段算法,如基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(region-CNN, R-CNN)算法[3]、Fast R-CNN算法[4]、Faster R-CNN算法[5],該方法首先選出可能包含對(duì)象的候選區(qū)域,再進(jìn)行分類預(yù)測(cè)[6]。胡均平等[7]在Faster R-CNN算法中引入近紅外夜間行人比例加權(quán)錨點(diǎn)框,并融合多層次特征,提高了算法檢測(cè)精度;賴?yán)こ堑萚8]將圖像融合模塊引入Mask R-CNN,并在特征金字塔中增加了反向拼接結(jié)構(gòu),從而有效提高對(duì)行人的檢測(cè)精度;王進(jìn)等[9]提出了一種基于屬性敏感卷積神經(jīng)網(wǎng)絡(luò)的行人屬性分類方法,通過(guò)融合正反通道激活函數(shù)提高行人檢測(cè)性能;葉國(guó)林等[10]基于Faster R-CNN通過(guò)卷積共享機(jī)制降低網(wǎng)絡(luò)復(fù)雜度,采用區(qū)域選取(region proposal network,RPN)生成候選區(qū)域,提高了夜間行人檢測(cè)速度;Dai等[11]將激光雷達(dá)數(shù)據(jù)投影在紅外圖像上,在Faster R-CNN中增加距離預(yù)測(cè)任務(wù),提高夜間行人檢測(cè)精度。兩階段算法雖然檢測(cè)精度較高,但需要花費(fèi)更長(zhǎng)的推理時(shí)間,難以滿足無(wú)人駕駛實(shí)時(shí)檢測(cè)的需求。相比之下,另一種基于回歸的單階段算法,如單激發(fā)多框探測(cè)器(single shot multibox detector, SSD)[12]、YOLO[13]等,直接對(duì)圖像中的目標(biāo)位置與類別進(jìn)行回歸檢測(cè),檢測(cè)速度比兩階段算法更快。朱新麗等[14]將YOLOv4算法作為行人檢測(cè)器,配合卡爾曼濾波器,實(shí)現(xiàn)行人移動(dòng)軌跡預(yù)測(cè);金蘭英等[15]基于YOLOv3算法采用多尺度特征融合擴(kuò)大感受野,提高算法對(duì)小尺度行人檢測(cè)性能;楊弋鋆等[16]提出了一種基于YOLOv2的對(duì)抗補(bǔ)丁生成算法,有效引導(dǎo)算法訓(xùn)練的收斂方向,提高了檢測(cè)精度;Huang等[17]采用深度可分離卷積替換YOLOv3骨干網(wǎng)絡(luò),并優(yōu)化損失函數(shù),提高了算法對(duì)夜間車輛檢測(cè)精度,但網(wǎng)絡(luò)參數(shù)量較大,計(jì)算成本高;Xue等[18]提出多模態(tài)MAFYOLO算法,融合夜間行人的可見(jiàn)光與紅外光信息,實(shí)現(xiàn)了高精度夜間行人檢測(cè),但仍有較高的計(jì)算復(fù)雜度;易詩(shī)等[19]通過(guò)對(duì)夜間紅外圖像預(yù)處理,提高圖像對(duì)比度,增強(qiáng)細(xì)節(jié)特征,使用YOLOv3算法實(shí)現(xiàn)夜間車輛與行人檢測(cè),但對(duì)遮擋情況檢測(cè)效果不佳;周紅志等[20]提出了一種垂直投影的方法,通過(guò)獲取紅外圖像梯度信息中條狀區(qū)域行人特征,有效抑制了算法對(duì)不包含行人區(qū)域的搜索,提高了檢測(cè)效率。紅外圖像雖然在黑暗環(huán)境中能形成可見(jiàn)光下無(wú)法觀測(cè)的目標(biāo)信息,但因其圖像層次感差,邊界模糊,圖像包含相對(duì)較多的次要特征信息,并且需要車輛額外裝配紅外光傳感器,在無(wú)人駕駛車輛上使用較少,而紅綠藍(lán)三原色(red,green,blue,RGB)相機(jī)在夜間受光線影響,采集的圖像信息明暗差異大,并且車輛移動(dòng)造成目標(biāo)模糊,使得夜間目標(biāo)檢測(cè)難度更大,因此,針對(duì)夜間行人檢測(cè)方法的研究比較少??紤]到無(wú)人駕駛應(yīng)用場(chǎng)景的算力條件,還需在網(wǎng)絡(luò)輕量化與檢測(cè)精度之間尋找一個(gè)平衡點(diǎn)。
YOLOv4-tiny是一種輕量級(jí)目標(biāo)檢測(cè)網(wǎng)絡(luò),適用于算力有限的嵌入式平臺(tái)部署,但其檢測(cè)精度不高。本文使用YOLOv4-tiny作為基礎(chǔ)模型,提出3種改進(jìn)策略以提高算法檢測(cè)精度,并且增加的計(jì)算開(kāi)銷可以忽略不計(jì)。首先引入空間金字塔池化模塊,整合同一卷積層多尺度局部特征與全局特征,豐富特征圖表達(dá)能力;其次引入注意力機(jī)制,提高算法對(duì)檢測(cè)對(duì)象的關(guān)注度;最后使用SiLU激活函數(shù)改進(jìn)算法,以提高模型表達(dá)能力。在NightOwls與BDD100K公開(kāi)數(shù)據(jù)集上對(duì)改進(jìn)的算法進(jìn)行訓(xùn)練,并在Jetson AGX Xavier平臺(tái)驗(yàn)證了改進(jìn)算法的檢測(cè)性能。
YOLOv4-tiny是YOLOv4的簡(jiǎn)化版,參數(shù)量?jī)H為YOLOv4模型的1/10,因此有較高的檢測(cè)速度。YOLOv4-tiny由主干網(wǎng)絡(luò)、特征金字塔(feature pyramid network, FPN)以及YOLO檢測(cè)頭(YOLO head)組成。主干網(wǎng)絡(luò)是由卷積模塊(convolutions with batch normalization and leaky ReLU,CBL)與殘差模塊(resblockbody)組成的特征提取網(wǎng)絡(luò),使用了2個(gè)尺度特征信息進(jìn)行預(yù)測(cè)目標(biāo)。卷積模塊包括卷積層(conv)、批量標(biāo)準(zhǔn)化(batch normalization,BN)與激活函數(shù)LeakyRelu(leaky rectified linear unit);殘差模塊將輸入特征分為2部分,主體部分堆疊殘差塊,另一部分作為較大殘差邊與主體末端連接,這種結(jié)構(gòu)可以在降低計(jì)算復(fù)雜度的同時(shí),保證網(wǎng)絡(luò)的準(zhǔn)確率。FPN結(jié)構(gòu)融合主干網(wǎng)絡(luò)輸出的2個(gè)尺度特征信息,以此提高網(wǎng)絡(luò)特征提取能力。YOLO Head通過(guò)特征結(jié)果對(duì)圖像進(jìn)行預(yù)測(cè),并輸出13×13、26×26尺度的檢測(cè)結(jié)果。
盡管YOLOv4-tiny節(jié)省了大量的參數(shù)量與計(jì)算量,但代價(jià)是降低了網(wǎng)絡(luò)檢測(cè)精度,尤其對(duì)模糊、遮擋等目標(biāo)檢測(cè)效果不佳,需要對(duì)它進(jìn)行改進(jìn),以達(dá)到理想的檢測(cè)精度。本文對(duì)YOLOv4-tiny模型提出了3個(gè)改進(jìn),進(jìn)一步提高了夜間車輛行人檢測(cè)的精度,改進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,紅色框?yàn)楦倪M(jìn)方法,首先引入了空間金字塔池化模塊(spatial pyramid pooling SPP)[21],幫助獲取同一層的多尺度特征;其次使用了卷積塊注意力模型(convolutional block attention module, CBAM)[22]增強(qiáng)算法對(duì)行人區(qū)域的關(guān)注度;最后使用SiLU函數(shù)作為激活函數(shù),有助于降低網(wǎng)絡(luò)訓(xùn)練復(fù)雜度,提高算法泛化能力。
圖1 改進(jìn)的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Improved network structure
在實(shí)際夜間駕駛場(chǎng)景中,車輛與檢測(cè)目標(biāo)具有相對(duì)運(yùn)動(dòng),致使采集數(shù)據(jù)會(huì)產(chǎn)生持續(xù)的運(yùn)動(dòng)模糊圖像,并且在光線較弱情況下圖像質(zhì)量會(huì)大幅下降,這也是夜間檢測(cè)難點(diǎn)之一。文獻(xiàn)[15]首次提出空間金字塔池化SPP-Net,它利用多個(gè)池化窗口在同一卷積層中提取多尺度的全局與局部特征,這對(duì)改善模糊和遮擋圖像特征提取,避免漏檢與不準(zhǔn)確的檢測(cè)很有幫助。因此,本文將圖2所示的SPP模塊引入YOLOv4-tiny主干網(wǎng)絡(luò)最后一層卷積前,采用1×1、5×5、9×9和13×13這4種池化窗口對(duì)特征圖進(jìn)行最大池化后再拼接,融合全局與局部特征,從而豐富特征信息表達(dá)能力,提高檢測(cè)精度,其中,Sstride表示步長(zhǎng)大小,即每次卷積核移動(dòng)網(wǎng)格的距離。
圖2 YOLOv4-tiny引入的SPP模塊Fig.2 SPP module introduced by YOLOv4-tiny
YOLOv4-tiny網(wǎng)絡(luò)在提取圖像特征時(shí),對(duì)每個(gè)區(qū)域的關(guān)注度是相同的。然而,夜間場(chǎng)景中的車輛與行人位置具有隨機(jī)性,并且背景較為復(fù)雜,因此,容易出現(xiàn)漏檢和誤檢的現(xiàn)象。為提高檢測(cè)算法對(duì)車輛與行人目標(biāo)的關(guān)注度,本文在YOLOv4-tiny網(wǎng)絡(luò)中引入CBAM。CBAM結(jié)合了通道注意力模塊(channel attention module,CAM)與空間注意力模塊(spatial attention module,SAM)兩部分,CBAM模塊如圖3所示。
圖3 CBAM注意力機(jī)制框架Fig.3 CBAM attention mechanism framework
使用通道注意力模塊讓網(wǎng)絡(luò)對(duì)行人特征的關(guān)注度更高,使得這些特征通道在網(wǎng)絡(luò)的正向傳播過(guò)程中占據(jù)更大的比例。該模塊將輸入的行人特征F(H×W×C)經(jīng)過(guò)2個(gè)基于Width與Hight的并行池化層,得到辨識(shí)度較高的行人特征,再分別經(jīng)過(guò)共享全連接層(multilayer perceptron,MLP),將通道權(quán)值重分配,加深對(duì)可視區(qū)域行人特征的學(xué)習(xí),最后將2組結(jié)果相加,并通過(guò)Sigmoid函數(shù)得到一個(gè)0~1的通道注意力權(quán)值MC,該權(quán)值與原輸入特征層做乘積運(yùn)算,得到空間特征層所需要的輸入特征F′,該部分可表示為
F′=F?MC=
F?σ{MLP[AvgPool(F)]+MLP[MaxPool(F)]}
(1)
(1)式中:σ代表Sigmoid函數(shù);AvgPoll(·),MaxPool(·)分別代表平均池化與最大池化操作。通道注意力機(jī)制使網(wǎng)絡(luò)更關(guān)注行人區(qū)域的真實(shí)內(nèi)容信息,對(duì)提取有效特征很有幫助。
空間注意力模塊增加了網(wǎng)絡(luò)對(duì)行人位置信息的關(guān)注度,濾除無(wú)關(guān)的背景干擾區(qū)域,有助于提高檢測(cè)精度。在獲取到處理過(guò)的輸入特征F′后,經(jīng)過(guò)池化層得到特征圖的空間信息,隨后對(duì)特征圖進(jìn)行拼接并降維操作,最后通過(guò)Sigmoid函數(shù)得到空間注意力權(quán)值MS,該權(quán)值與原輸入特征做乘積運(yùn)算生成最終的精細(xì)特征FR,該模塊可表示為
FR=F?MS=
F?σ{f7×7[AvgPool(F′);MaxPool(F′)]}
(2)
(2)式中,f7×7代表單層卷積核7×7的卷積運(yùn)算,目的是對(duì)拼接特征降維。空間注意力機(jī)制對(duì)聚焦檢測(cè)任務(wù)相關(guān)區(qū)域起到重要作用。
考慮到注意力機(jī)制模塊權(quán)值是隨機(jī)初始化的,為保證主干網(wǎng)絡(luò)部分預(yù)訓(xùn)練的權(quán)值不被破壞,并能提取有效的特征信息,本文將注意力機(jī)制模塊添加到加強(qiáng)特征提取網(wǎng)絡(luò)中,旨在提高網(wǎng)絡(luò)預(yù)測(cè)效果。在夜間行人目標(biāo)識(shí)別過(guò)程中,檢測(cè)網(wǎng)絡(luò)的關(guān)注點(diǎn)應(yīng)在行人所在區(qū)域,通過(guò)引入CBAM注意力機(jī)制,提高了行人所在區(qū)域的權(quán)重值,進(jìn)而提升檢測(cè)效果。
在神經(jīng)網(wǎng)絡(luò)中,上層神經(jīng)元輸出信息通過(guò)非線性激活函數(shù)處理后,傳遞至下層神經(jīng)元,從而使網(wǎng)絡(luò)具有非線性,增強(qiáng)了網(wǎng)絡(luò)表征能力。常用的激活函數(shù)有Sigmoid,Tanh,LeakyReLU,SiLU等,其表達(dá)式分別為
(3)
(4)
(5)
(6)
4種激活函數(shù)的圖像如圖4所示,通過(guò)對(duì)比可見(jiàn),Sigmoid和Tanh函數(shù)在趨向無(wú)窮處的函數(shù)值變化很小,容易出現(xiàn)梯度消失,不利于神經(jīng)網(wǎng)絡(luò)反向傳播;LeakyReLU函數(shù)解決負(fù)輸入下零梯度的問(wèn)題效果很好,也被用在YOLOv4-tiny網(wǎng)絡(luò)中,但因其具有線性特性,需要調(diào)參尋找合適的梯度下降參數(shù);SiLU函數(shù)為連續(xù)函數(shù),且有下界、非單調(diào),可以連續(xù)微分,這使得神經(jīng)網(wǎng)絡(luò)在反向傳播時(shí)梯度優(yōu)化效果更好。此外,SiLU函數(shù)在負(fù)無(wú)窮方向趨于0,正無(wú)窮方向發(fā)散,這有助于控制網(wǎng)絡(luò)復(fù)雜度,從而避免過(guò)擬合,提高算法泛化能力。本文采用SiLU函數(shù)替換LeakyReLU函數(shù),以提高行人檢測(cè)準(zhǔn)確率。
圖4 激活函數(shù)曲線對(duì)比圖Fig.4 Comparison graph of activation function curves
本文從公開(kāi)數(shù)據(jù)集NightOwls與BDD100K中篩選包含夜間行人的圖像作為數(shù)據(jù)集,將圖像按照7∶2∶1的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,其中,訓(xùn)練集14 123張,驗(yàn)證集4 035張,測(cè)試集2 017張。使用開(kāi)源標(biāo)注工具LabelImg對(duì)圖像中行人進(jìn)行標(biāo)注,類名定義為pedestrian,并以.xml格式保存。
本文實(shí)驗(yàn)環(huán)境為Windows10操作系統(tǒng),計(jì)算機(jī)顯卡配置為NVIDIA GeForce RTX2080 GPU,8 GByte顯存。深度學(xué)習(xí)框架為pytorch v1.10.0,cuda11.3以及cudnn11.3.0,每次訓(xùn)練算法模型迭代200次。
為客觀評(píng)價(jià)算法模型的檢測(cè)效果,需要使用一些評(píng)價(jià)指標(biāo)。準(zhǔn)確率PPrecision表示預(yù)測(cè)為真的樣本中正類樣本的比例;召回率RRecall表示預(yù)測(cè)為真的樣本在所有真實(shí)正樣本中的比例;平均精度AAP(average precision)表示不同召回率下準(zhǔn)確率的平均值,均值平均精度mmAP表示不同類別AAP值的平均值;準(zhǔn)確率與召回率的調(diào)和平均值FF1-score[20],FF1-score值越接近1,說(shuō)明算法檢測(cè)效果越好;每秒幀數(shù)FPS(FramesPerSencond)作為檢測(cè)速度評(píng)估的指標(biāo),具體公式如下。
(7)
(8)
(9)
(10)
(11)
(7)—(10)式中:TP(true positive)表示預(yù)測(cè)為真的正樣本;FP(false positive)表示預(yù)測(cè)為假的正樣本;FN(false negative)表示預(yù)測(cè)為假的負(fù)樣本,k為類別數(shù)。
考慮到不同超參數(shù)對(duì)算法的影響不同,本文選擇以下算法模型進(jìn)行對(duì)比:YOLOv4-tiny表示原始算法模型;C-YOLOv4-tiny表示加入CBAM注意力機(jī)制的算法模型;S-YOLOv4-tiny表示使用SiLU激活函數(shù)優(yōu)化的算法模型;P-YOLOv4-tiny表示添加SPP金字塔池化的算法模型;SCP-YOLOv4-tiny表示集合3種改進(jìn)策略的算法模型。算法訓(xùn)練過(guò)程中損失值隨迭代次數(shù)變化的曲線如圖5所示,平均精度隨迭代次數(shù)變化的曲線如圖6所示。
圖5 損失值隨迭代次數(shù)變化的曲線圖Fig.5 Loss value with the number of iterations
圖6 平均精度隨迭代次數(shù)變化的曲線圖Fig.6 Mean average precision changes with iterations
從圖5可以看出,5種算法模型損失函數(shù)變化趨勢(shì)一致,在前50次訓(xùn)練中迅速下降,隨后逐漸平穩(wěn),SCP-YOLOv4-tiny模型損失函數(shù)收斂效果表現(xiàn)最優(yōu),也驗(yàn)證了算法改進(jìn)的有效性。5種算法模型損失函數(shù)變化趨勢(shì)一致,在前50次訓(xùn)練中迅速下降,隨后逐漸平穩(wěn),SCP-YOLOv4-tiny模型損失函數(shù)收斂效果表現(xiàn)最優(yōu),也驗(yàn)證了算法改進(jìn)的有效性。不僅如此,本文實(shí)驗(yàn)以(10)式的mmAP值作為評(píng)估指標(biāo),計(jì)算了5種網(wǎng)絡(luò)模型在2組數(shù)據(jù)集中不同迭代訓(xùn)練次數(shù)下的mmAP值,圖6展示了數(shù)據(jù)統(tǒng)計(jì)結(jié)果。
通過(guò)消融實(shí)驗(yàn),對(duì)比了本文改進(jìn)的方法與YOLOv4-tiny原始算法的檢測(cè)性能,如表1所示。此外,本文還將SCP-YOLOv4-tiny與3種先進(jìn)的目標(biāo)檢測(cè)算法進(jìn)行對(duì)比,即YOLOv3、YOLOv4、SSD、Faster-RCNN,對(duì)比內(nèi)容如表2所示。
表1 不同改進(jìn)方法檢測(cè)性能對(duì)比Tab.1 Comparison of detection performance of different improved methods
表2 改進(jìn)算法與其他算法的檢測(cè)性能對(duì)比Tab.2 Comparison of detection performance between the improved algorithm and other algorithms
由表1可以看出,SCP-YOLOv4-tiny算法模型準(zhǔn)確率與召回率較最高,mmAP值較改進(jìn)前提升了16.84%,FF1-score值達(dá)到了0.92。改進(jìn)后算法識(shí)別準(zhǔn)確度更高,并且漏檢率有所下降。由表2可以看出,YOLOv3、YOLOv4、Faster-RCNN-resnet50的平均精度雖然高,但由于復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致檢測(cè)速度緩慢;SSD網(wǎng)絡(luò)量級(jí)小,但其精度最低;SCP-YOLOv4-tiny算法模型檢測(cè)速度最快,并且檢測(cè)精度接近深層級(jí)網(wǎng)絡(luò)精度水平,僅比YOLOv4低1.76%,參數(shù)量?jī)H為6.7M,適用于無(wú)人駕駛感知系統(tǒng),同時(shí)也滿足夜間道路行人檢測(cè)需求。
本文使用無(wú)人駕駛實(shí)驗(yàn)平臺(tái)采集校園內(nèi)夜間道路行人數(shù)據(jù),以驗(yàn)證檢測(cè)方法的有效性,實(shí)驗(yàn)平臺(tái)如圖7所示,相機(jī)安裝于汽車前端,加速、制動(dòng)、轉(zhuǎn)向通過(guò)電子機(jī)械改裝實(shí)現(xiàn)程序控制,操縱無(wú)人駕駛汽車在校園常規(guī)道路行駛,完全模擬真實(shí)駕駛場(chǎng)景。
圖7 無(wú)人駕駛試驗(yàn)平臺(tái)Fig.7 Driverless experimental platform
在車載電腦Ubuntu系統(tǒng)中使用機(jī)器人操作系統(tǒng)(robot operating system, ROS)調(diào)取相機(jī)拍攝視頻數(shù)據(jù),在無(wú)人駕駛硬件平臺(tái)Jetson AGX Xavier上使用SCP-YOLOv4-tiny算法對(duì)視頻中行人進(jìn)行檢測(cè),如圖8所示。
圖8 無(wú)人駕駛硬件平臺(tái)Jetson AGX XavierFig.8 Driverless hardware platform Jetson AGX Xavier
檢測(cè)效果如圖9所示,可以看出,在陰影區(qū)域行人輪廓模糊或強(qiáng)逆光的條件下,仍能準(zhǔn)確檢測(cè)到行人目標(biāo),并且有較高置信度。同時(shí),驗(yàn)證了SCP-YOLOv4-tiny算法能夠滿足在無(wú)人駕駛硬件平臺(tái)部署的條件。
圖9 SCP-YOLOv4-tiny算法夜間行人檢測(cè)效果Fig.9 Nighttime pedestrian detection effect of SCP-YOLOv4-tiny algorithm
本文針對(duì)夜間道路場(chǎng)景下的行人檢測(cè),基于YOLOv4-tiny算法結(jié)構(gòu),提出了SCP-YOLOv4-tiny夜間行人檢測(cè)算法。通過(guò)添加SPP金字塔池化模塊,引入CBAM注意力機(jī)制,使用SiLU非線性激活函數(shù)對(duì)算法進(jìn)行優(yōu)化,提高了夜間行人檢測(cè)的準(zhǔn)確率。將改進(jìn)后的算法在數(shù)據(jù)集上進(jìn)行訓(xùn)練與測(cè)試,改進(jìn)后的SCP-YOLOv4-tiny算法,其mmAP提高了16.84%,準(zhǔn)確率與召回率分別提高了8.59%和31.59%,并且有較高的檢測(cè)速度。利用無(wú)人駕駛實(shí)驗(yàn)平臺(tái)采集數(shù)據(jù),并在Jetson AGX Xavier硬件平臺(tái)驗(yàn)證了算法的可靠性。
改進(jìn)后的算法大大提高了夜間行人檢測(cè)精度,在場(chǎng)景復(fù)雜的夜間道路上,針對(duì)行人目標(biāo)檢測(cè)具有較好的魯棒性。同時(shí),改進(jìn)后的算法能夠在嵌入式設(shè)備中部署使用,滿足無(wú)人駕駛硬件平臺(tái)檢測(cè)需求。但本文算法對(duì)于行人密集場(chǎng)景下的遠(yuǎn)距離行人檢測(cè)存在漏檢現(xiàn)象,在后續(xù)工作中,將對(duì)夜間行人特征抓取做進(jìn)一步研究,提高算法檢測(cè)性能。