亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多分支結(jié)構(gòu)和雙池化注意力機(jī)制的RetinaNet行人檢測(cè)

        2025-01-10 00:00:00凌以運(yùn)王智白云謝世步韋秋伶何雨鮮
        物聯(lián)網(wǎng)技術(shù) 2025年1期
        關(guān)鍵詞:行為分析

        摘 要:行人檢測(cè)技術(shù)結(jié)合行人跟蹤和行為分析等技術(shù),可廣泛應(yīng)用在交通、安防和機(jī)器交互等與人們生活息息相關(guān)的領(lǐng)域,但行人的多尺度變化一直是行人檢測(cè)的難點(diǎn)。針對(duì)傳統(tǒng)RetinaNet算法在多尺度行人檢測(cè)過(guò)程中存在的誤檢、漏檢和檢測(cè)精度低等缺陷,提出一種改進(jìn)的RetinaNet算法來(lái)提升網(wǎng)絡(luò)模型的檢測(cè)能力。主要有以下兩方面創(chuàng)新:首先,為了獲取到更多的語(yǔ)義信息,采用多分支結(jié)構(gòu)來(lái)擴(kuò)展網(wǎng)絡(luò),以提取不同深度下不同感受野的特征;其次,為了使模型更關(guān)注行人特征的重要信息,在模型預(yù)測(cè)頭部分嵌入雙池化注意力機(jī)制,增強(qiáng)通道間特征信息的相關(guān)性,抑制不重要的信息,以提高模型的檢測(cè)精度。在COCO等不同的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果表明,與傳統(tǒng)的RetinaNet模型相比,所提出的模型在各個(gè)評(píng)價(jià)指標(biāo)上均有所提升,具有良好的性能,可以滿足行人檢測(cè)的需要。

        關(guān)鍵詞:行人檢測(cè);RetinaNet;多分支結(jié)構(gòu);行人特征;雙池化注意力機(jī)制;行人跟蹤;行為分析

        中圖分類(lèi)號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2025)01-00-06

        0 引 言

        行人檢測(cè)是一項(xiàng)能夠從圖像或視頻中準(zhǔn)確地檢測(cè)出行人以及行人位置的技術(shù),該技術(shù)可以應(yīng)用到生活中的各個(gè)領(lǐng)域,例如其在自動(dòng)駕駛和智能安防等領(lǐng)域都起到了重要的作用[1]。隨著人工智能的發(fā)展,深度學(xué)習(xí)技術(shù)越來(lái)越成熟,對(duì)當(dāng)今社會(huì)的發(fā)展具有重要的價(jià)值和意義?;谏疃葘W(xué)習(xí)技術(shù)的行人檢測(cè)已經(jīng)成為了當(dāng)前研究的熱點(diǎn)[2-3],經(jīng)過(guò)不斷的創(chuàng)新和發(fā)展,已取得了較好的成果。按照不同的研究方法可以將行人檢測(cè)技術(shù)分為基于傳統(tǒng)特征提取的行人檢測(cè)和基于深度學(xué)習(xí)的行人檢測(cè)。

        隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展和廣泛應(yīng)用,目標(biāo)檢測(cè)方法的性能得到了很大程度的提升?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)算法可以分為2個(gè)階段:第一階段的SSD算法[4]、YOLO系列算法[5]、RetinaNet算法[6]等目標(biāo)檢測(cè)算法是基于邏輯回歸的檢測(cè)算法,檢測(cè)速度快,但精度較低;第二階段的R-CNN算法、Faster R-CNN算法[7]等是基于候選區(qū)域選擇的算法,檢測(cè)速度慢,但是精度高。因此,這兩類(lèi)算法各有優(yōu)缺點(diǎn)。隨著各項(xiàng)技術(shù)的不斷提高,研究者們開(kāi)始致力于突破行人檢測(cè)的難點(diǎn)。

        行人的多尺度問(wèn)題一直是行人檢測(cè)過(guò)程中的難點(diǎn),因?yàn)樵诓煌木嚯x和視角下,圖像或視頻中的行人呈現(xiàn)出的尺寸大小不一致,還伴隨著遮擋和圖像模糊的情況,不利于機(jī)器檢測(cè)。針對(duì)以上問(wèn)題,本文將RetinaNet模型應(yīng)用于行人檢測(cè)中,并在此基礎(chǔ)上提出了基于多分支結(jié)構(gòu)和雙池化注意力機(jī)制的RetinaNet行人檢測(cè)。本文的主要貢獻(xiàn)總結(jié)如下:

        (1)通過(guò)添加多分支結(jié)構(gòu)來(lái)增強(qiáng)主干網(wǎng)絡(luò)和特征金字塔之間的聯(lián)系,擴(kuò)展網(wǎng)絡(luò)寬度,多方位提取不同深度下的多尺度行人特征信息,提升特征的表達(dá)能力。

        (2)改進(jìn)了注意力機(jī)制,提出使用雙池化注意力機(jī)制來(lái)增加關(guān)鍵特征信息的權(quán)重,使模型更注重關(guān)鍵特征信息。

        1 多分支結(jié)構(gòu)和雙池化注意力機(jī)制的RetinaNet算法

        1.1 整體結(jié)構(gòu)

        針對(duì)行人的多尺度問(wèn)題采用多尺度預(yù)測(cè)方法能解決部分困難。大尺度的行人特征明顯,經(jīng)過(guò)多次卷積后仍然能夠提取到語(yǔ)義信息;但小尺度的行人分辨率低,包含的特征信息少,存在著特征提取不充分或者經(jīng)過(guò)多次的卷積后語(yǔ)義信息丟失的問(wèn)題,容易導(dǎo)致漏檢。因此要采用合適的方法充分地提取多尺度行人的信息,保證語(yǔ)義信息不丟失。本文設(shè)計(jì)了圖1所示的網(wǎng)絡(luò)結(jié)構(gòu),將多分支結(jié)構(gòu)應(yīng)用在RetinaNet模型中的主干網(wǎng)絡(luò)與特征金字塔之間,即在C3、C4、C5層的橫向連接處增加多分支結(jié)構(gòu),以此充分提取并高效利用特征信息,增加特征的多元化。在淺層網(wǎng)絡(luò),能夠捕獲細(xì)致的紋理信息;在中層網(wǎng)絡(luò),通過(guò)多尺寸的感受野和池化操作可以捕獲多樣化的特征信息;在深層網(wǎng)絡(luò),對(duì)抽象的特征進(jìn)行提取,既能夠增強(qiáng)網(wǎng)絡(luò)對(duì)不同尺度目標(biāo)的分析能力,又能夠加深和加寬網(wǎng)絡(luò),進(jìn)而有效提取到多層次的信息。在特征金字塔與預(yù)測(cè)分支之間添加雙池化注意力機(jī)制,對(duì)每個(gè)經(jīng)過(guò)特征融合后的分支進(jìn)行信息篩選,使模型關(guān)注更有用的行人特征信息,增強(qiáng)網(wǎng)絡(luò)的檢測(cè)性能,使預(yù)測(cè)更加準(zhǔn)確。

        1.2 多分支結(jié)構(gòu)

        一般來(lái)說(shuō),在神經(jīng)網(wǎng)絡(luò)模型中,通過(guò)擴(kuò)展模型深度和寬度能夠提高模型的表現(xiàn)能力,但也存在著副作用。由于隨著神經(jīng)網(wǎng)絡(luò)層次的加深,會(huì)產(chǎn)生許多參數(shù),甚至導(dǎo)致過(guò)度擬合,由此一來(lái)不僅訓(xùn)練成本高,而且效率低。使用Inception網(wǎng)絡(luò)結(jié)構(gòu)則可以很好地解決這一問(wèn)題。不同于之前的大多數(shù)網(wǎng)絡(luò)直接將卷積層堆疊起來(lái)以得到深度的網(wǎng)絡(luò),文獻(xiàn)[8] 提出利用Inception模型通過(guò)稀疏連接,設(shè)置多個(gè)不同尺度的卷積核并行結(jié)構(gòu),再拼接特征,由此擴(kuò)大網(wǎng)絡(luò)的寬度和深度,使模型擁有更好的性能。通常使用大的卷積核能夠提取到距離像素點(diǎn)較遠(yuǎn)的信息,使用小的卷積核可以提取到距離像素點(diǎn)較近的信息。傳統(tǒng)意義上較大的卷積核具有更好的感受野,但是在運(yùn)算過(guò)程中容易丟失部分重要的信息。Inception網(wǎng)絡(luò)結(jié)構(gòu)通過(guò)分解卷積核將單個(gè)較大的卷積分解成對(duì)稱小卷積或者非對(duì)稱卷積,在增加網(wǎng)絡(luò)寬度和深度的同時(shí)減少參數(shù)量。采用分解卷積,在不改變感受野的同時(shí),還能降低參數(shù)量,提升模型的非線性表征能力。使用3×1和1×3卷積連續(xù)滑動(dòng)后組合,其感受野等效于3×3卷積的感受野。

        本文采用的多分支結(jié)構(gòu)如圖2所示,將輸入分成4個(gè)分支并行,每個(gè)分支先運(yùn)用1×1卷積獲取圖像的相關(guān)信息,減少特征通道數(shù),降低維度;通過(guò)減少通道數(shù)來(lái)聚合信息,使特征在深度上被疊加。

        在網(wǎng)絡(luò)中通過(guò)較小的卷積尺寸能夠更好地捕獲圖像相鄰區(qū)域的細(xì)節(jié)信息,并且信息相關(guān)性較高;再運(yùn)用多尺度卷積核在深度不一的網(wǎng)絡(luò)中進(jìn)行卷積,獲取多尺度的感受野,將細(xì)節(jié)特征轉(zhuǎn)換為高級(jí)語(yǔ)義特征;然后將從不同支路得到的結(jié)果按照通道拼接,聚合了所有分支的特征信息后得到多通道特征圖,最后輸出結(jié)果。

        本文采用的特征融合方式是拼接,由于使用了較多的卷積來(lái)提取圖像信息,因此在維度上進(jìn)行疊加操作可以更有效地實(shí)現(xiàn)信息的完整融合。

        多分支結(jié)構(gòu)表達(dá)式為:

        (1)

        式中:F表示卷積;X表示輸入圖像;Xi(i=1, 2, 3, 4)表示4個(gè)分支的結(jié)果;Xout表示輸出結(jié)果。多分支結(jié)構(gòu)的設(shè)計(jì)不是盲目地增加深度和寬度,而是通過(guò)Pooling操作來(lái)保持信息不變,起到防止信息丟失的作用;通過(guò)分解特征,充分利用信息,提高特征內(nèi)部的相關(guān)性;利用更小的卷積核進(jìn)行降維,使網(wǎng)絡(luò)的深度和寬度達(dá)到平衡。

        1.3 雙池化注意力機(jī)制

        特征層在不同的通道所攜帶的信息不同,通道相關(guān)性也不一樣,由于單一的池化操作不能完整地反映整個(gè)圖像的特征信息,容易導(dǎo)致部分重要信息丟失。鑒于此,結(jié)合全局平均池化和最大池化的作用,選擇雙池化的注意力機(jī)制來(lái)獲取更全面的特征信息。雙池化注意力模塊如圖3所示。

        雙池化注意力模塊由3個(gè)并行的部分組成:

        (1)第一個(gè)分支X1完成特征映射。

        (2)第二個(gè)分支X2先進(jìn)行全局平均池化,全局平均池化讓卷積結(jié)構(gòu)更簡(jiǎn)單,能夠壓縮輸入特征,減少參數(shù)量,達(dá)到優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、防止過(guò)擬合的目的,再依次經(jīng)過(guò)全連接層、激活函數(shù)、全連接層,如式(2)所示:

        (2)

        式中:FC表示卷積;X表示輸入圖像;α表示ReLU激活函數(shù)。

        (3)第三個(gè)分支X3與第二個(gè)分支類(lèi)似,不同的是該分支采用了最大池化來(lái)聚合特征信息,學(xué)習(xí)新的權(quán)重,如式(3)所示:

        (3)

        最后將第二分支X2和第三分支X3所提取的特征逐元素相加融合,經(jīng)過(guò)Sigmoid激活函數(shù),再將輸出與第一分支X1的原始特征結(jié)合進(jìn)行元素相乘,得到加權(quán)后的特征并輸出結(jié)果,用式(4)表示:

        (4)

        式中:β表示Sigmoid激活函數(shù);Xout表示輸出結(jié)果。

        雙池化注意力模塊的參數(shù)見(jiàn)表1。其中,H和W表示圖像的高和寬,C為通道,R為通道因子。

        1.4 損失函數(shù)

        模型的訓(xùn)練過(guò)程就是使誤差不斷減小的過(guò)程。本模型的訓(xùn)練采用的損失函數(shù)為定位損失和分?jǐn)?shù)損失函數(shù)。損失計(jì)算公式為:

        (5)

        定位損失函數(shù)Lreg采用的是smooth L1 Loss函數(shù),具體公式為:

        (6)

        式中:x為預(yù)測(cè)框與真實(shí)框的差值。

        分類(lèi)損失Lcls使用的是Focal Loss函數(shù),具體公式如下:

        (7)

        pt (8)

        式中:pt表示正樣本的概率;y表示真實(shí)標(biāo)簽的值;αt為調(diào)節(jié)因子,當(dāng)負(fù)樣本數(shù)較多、正樣本數(shù)較少時(shí),可以用來(lái)改善正負(fù)樣本的分布權(quán)重;γ為聚焦參數(shù),可有效降低較容易檢測(cè)樣本的權(quán)重,將訓(xùn)練過(guò)程集中于較難檢測(cè)的樣本。由此,通過(guò)Focal Loss函數(shù)解決了容易檢測(cè)和難檢測(cè)樣本的不平衡問(wèn)題,從而提升了模型的精度。經(jīng)過(guò)實(shí)驗(yàn)可知,αt=0.25、γ=2時(shí),能提高正樣本的權(quán)重、減小負(fù)樣本的權(quán)重,達(dá)到較好的檢測(cè)效果。

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 實(shí)驗(yàn)環(huán)境

        實(shí)驗(yàn)環(huán)境配置為:操作系統(tǒng)采用Windows;CPU采用Intel i7-8700處理器;GPU采用GTX1080 10 GB;深度學(xué)習(xí)框架采用Pytorch。

        2.2 實(shí)驗(yàn)數(shù)據(jù)

        為了豐富行人數(shù)據(jù)集,使結(jié)果更具有真實(shí)性,本實(shí)驗(yàn)使用不同的數(shù)據(jù)集進(jìn)行檢測(cè)。

        數(shù)據(jù)集1是從COCO數(shù)據(jù)集和PASCAL VOC數(shù)據(jù)集中挑選出的帶有“person”標(biāo)簽圖片的混合數(shù)據(jù)集,共3 288張,包含了生活中各個(gè)場(chǎng)景和尺度的目標(biāo)圖像,并且按照8∶2劃分訓(xùn)練集2 630張,測(cè)試集658張。

        數(shù)據(jù)集2是Caltech行人數(shù)據(jù)集,是由美國(guó)加州理工大學(xué)通過(guò)車(chē)載攝像頭拍攝的,圖片的分辨率為640×480,約含有25萬(wàn)張圖片、35萬(wàn)個(gè)行人框。將該數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集。Caltech行人數(shù)據(jù)集的數(shù)據(jù)量較多,包含不同尺度的行人,本文選擇其中帶有標(biāo)簽“person”的圖片作為實(shí)驗(yàn)數(shù)據(jù),其中4 310張圖片構(gòu)成訓(xùn)練集,4 225張圖片構(gòu)成測(cè)試集。根據(jù)文獻(xiàn)[9],按照行人在圖像中的高度,將測(cè)試數(shù)據(jù)集劃分為多個(gè)不同尺度等級(jí)的子集,劃分準(zhǔn)則見(jiàn)表2。

        2.3 實(shí)驗(yàn)參數(shù)

        本文實(shí)驗(yàn)使用的模型是改進(jìn)的RetinaNet行人檢測(cè)算法模型。為了讓神經(jīng)網(wǎng)絡(luò)達(dá)到更好的預(yù)測(cè)效果,訓(xùn)練時(shí)的輸入圖像大小為512×51,batch為8,優(yōu)化器為Adam,初始學(xué)習(xí)率為1×10-4,學(xué)習(xí)率的下降方式使用余弦退火法,動(dòng)量為0.9,權(quán)重衰減為0。通過(guò)觀察本文算法在150個(gè)epoch訓(xùn)練過(guò)程中損失的變化判斷訓(xùn)練的效果。結(jié)果表明,隨著訓(xùn)練epoch的增加,Loss曲線呈現(xiàn)出下降的趨勢(shì)并且越來(lái)越平滑,在0.05左右趨于穩(wěn)定,達(dá)到收斂狀態(tài),說(shuō)明在訓(xùn)練過(guò)程中效果達(dá)到最優(yōu)。

        2.4 評(píng)價(jià)指標(biāo)

        為了更好地評(píng)估網(wǎng)絡(luò)模型的檢測(cè)性能,針對(duì)不同的數(shù)據(jù)集,采用了不同的算法與評(píng)價(jià)指標(biāo)來(lái)驗(yàn)證模型。在混合數(shù)據(jù)集中,選擇以下指標(biāo)作為本模型的評(píng)價(jià)指標(biāo):

        (1)準(zhǔn)確率(Precision):表示預(yù)測(cè)為行人的數(shù)量占原樣本行人的比例,其值越大說(shuō)明誤檢的目標(biāo)越少。表達(dá)式為:

        (9)

        (2)召回率(Recall):表示行人數(shù)據(jù)集中行人被預(yù)測(cè)為正例的比例。表達(dá)式為:

        (10)

        式(9)和式(10)中:TP表示行人正樣本被正確檢測(cè)的數(shù)量;TN表示圖片中行人負(fù)樣本被正確檢測(cè)的數(shù)量;FN表示把真實(shí)行人樣本檢測(cè)為負(fù)樣本的數(shù)量;FP表示圖片中負(fù)樣本被檢測(cè)為正樣本的數(shù)量。

        (3)F1分?jǐn)?shù):是精確率和召回率的一種加權(quán)平均,即精確率和召回率的調(diào)和平均數(shù)。表達(dá)式為:

        (11)

        (4)AP:是在IOU閾值下的平均精度,表示被Precision與Recall曲線包圍的區(qū)域。表達(dá)式為:

        (12)

        (5)mAP:是全部目標(biāo)種類(lèi)的平均精度,此值越高,模型的識(shí)別精度越高。表達(dá)式為:

        (13)

        本文研究的檢測(cè)目標(biāo)僅有人,因此mAP等于AP。由式(13)可知,mAP結(jié)合了精確率和召回率,考慮到了假陽(yáng)性和真陽(yáng)性,因此大多數(shù)檢測(cè)模型使用該值作為合理的評(píng)價(jià)指標(biāo)。加入多分支結(jié)構(gòu)時(shí),算法的mAP達(dá)到了78.87%,提高了0.19個(gè)百分點(diǎn),增強(qiáng)了特征的表達(dá)能力,檢測(cè)性能得到小幅提升。加入注意力機(jī)制時(shí),算法的mAP達(dá)到了79.42%,提高了0.74個(gè)百分點(diǎn),召回率和準(zhǔn)確率提高了0.91個(gè)百分點(diǎn)和0.72個(gè)百分點(diǎn),說(shuō)明注意力機(jī)制進(jìn)一步加強(qiáng)了重要特征權(quán)重。同時(shí)加入2個(gè)模塊時(shí),整體mAP指標(biāo)達(dá)到了80.17%,提升了1.49個(gè)百分點(diǎn),召回率提升了0.68個(gè)百分點(diǎn),準(zhǔn)確率提升了2.1個(gè)百分點(diǎn)。 以上數(shù)據(jù)證明,各模塊都使模型性能有不同程度的提高,對(duì)于提升網(wǎng)絡(luò)性能方面有巨大幫助。

        圖4所示的傳統(tǒng)RetinaNet與本文算法的可視化檢測(cè)結(jié)果更直觀地凸顯了本文算法在檢測(cè)性能上的優(yōu)勢(shì)。由圖4(a)可以看出,本文算法可以較好地檢測(cè)出遮擋的人和不同尺度的人。

        2.5 在混合數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果

        2.5.1 消融實(shí)驗(yàn)

        為驗(yàn)證本文所添加的多分支結(jié)構(gòu)和雙池化注意力模塊對(duì)模型的作用,進(jìn)行消融實(shí)驗(yàn)。實(shí)驗(yàn)數(shù)據(jù)見(jiàn)表3。

        2.5.2 對(duì)比實(shí)驗(yàn)

        為證明上文提到的雙池化注意力機(jī)制模塊的效果,選擇SE和CBAM模塊做對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)檢測(cè)結(jié)果見(jiàn)表4。

        從表4可以看出,3種注意力機(jī)制都可以使基礎(chǔ)RetinaNet的網(wǎng)絡(luò)檢測(cè)性能有所提升,而本文提出的雙池化注意力機(jī)制的mAP高于SE和CBAM模塊,表明其對(duì)行人特征信息的專(zhuān)注力更勝一籌。

        本文算法與SSD算法的可視化檢測(cè)效果對(duì)比如圖5所示。

        從與SSD的對(duì)比圖中可以看到,SSD算法對(duì)中小尺度行人的檢測(cè)效果不理想,小尺度行人的漏檢情況嚴(yán)重,而本文算法可以準(zhǔn)確地檢測(cè)出小目標(biāo),在單階段的SSD算法中,本文提出的算法也有比較好的結(jié)果。同樣地,由圖6所示的本文算法與Faster R-CNN算法的可視化檢測(cè)效果對(duì)比情況可以看出,本文算法的檢測(cè)效果更好。

        2.6 在Caltech數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果

        Caltech數(shù)據(jù)集明確地區(qū)分了行人的尺度范圍,可以更好地了解各個(gè)尺度上行人的檢測(cè)情況[10-11]。改進(jìn)后的RetinaNet模型在各個(gè)尺度下的漏檢率都有不同程度的下降。在大尺度(Large)上的效果較好,漏檢率下降至0,在中尺度(Medium)上的漏檢率下降了0.72個(gè)百分點(diǎn),在小尺度(Far)上的漏檢率下降了1.44個(gè)百分點(diǎn),整體子集(All)下降了1.18個(gè)百分點(diǎn)。多分支結(jié)構(gòu)和注意力機(jī)制的加持讓RetinaNet模型的特征提取能力增強(qiáng),能夠?qū)^為關(guān)注和感興趣的行人特征信息進(jìn)行精準(zhǔn)捕捉。

        本文采用不同的算法在Caltech數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),其中包括采用傳統(tǒng)的手工特征的方法:ACF、LDCF等,以及深度學(xué)習(xí)的方法:RPN+BF、MS-CNN等。本文提出的多分支結(jié)構(gòu)和注意力機(jī)制的算法(Multi Branch Structure and Attention Mechanism, MBSAE)與上述方法的漏檢率對(duì)比結(jié)果見(jiàn)表5。

        采用本文算法和RetinaNet算法在Caltech數(shù)據(jù)集上的圖片檢測(cè)結(jié)果如圖7所示。

        由圖7可知,當(dāng)遠(yuǎn)處多個(gè)小尺度的行人并排出現(xiàn)時(shí),RetinaNet算法出現(xiàn)了嚴(yán)重的漏檢和誤檢情況,而本文改進(jìn)的算法能更好地檢測(cè)到遠(yuǎn)處與近處的行人,說(shuō)明本文提出的改進(jìn)方法具有更強(qiáng)的檢測(cè)能力。

        經(jīng)過(guò)以上實(shí)驗(yàn)證明,通過(guò)多分支結(jié)構(gòu)設(shè)計(jì)多尺寸的卷積核能夠檢測(cè)到更多不同尺度的目標(biāo),充分獲取圖像特征信息;注意力機(jī)制能夠抑制非相關(guān)的信息使模型對(duì)相關(guān)信息賦予更多的關(guān)注,增強(qiáng)模型的多尺度檢測(cè)能力。在數(shù)據(jù)集上的檢測(cè)結(jié)果充分證明,本算法能適應(yīng)多尺度的行人檢測(cè),在檢測(cè)精度上有著明顯的效果,一定程度上證明了本文改進(jìn)的模型在行人檢測(cè)方面的適用性。

        3 結(jié) 語(yǔ)

        本文針對(duì)傳統(tǒng)的RetinaNet算法在多尺度行人檢測(cè)上的不足進(jìn)行改進(jìn)和優(yōu)化,通過(guò)添加多分支結(jié)構(gòu)作為特征增強(qiáng)模塊,增加了網(wǎng)絡(luò)的寬度,提升了模型的非線性表征能力,使其能夠提取豐富的多尺度特征。為了使模型能夠更專(zhuān)注地檢測(cè)重要信息,添加雙池化注意力模塊,抑制了不重要的信息,使模型的檢測(cè)準(zhǔn)確率得到進(jìn)一步提升。在公開(kāi)的數(shù)據(jù)集中將本文算法與其他算法進(jìn)行對(duì)比,本文算法的檢測(cè)精度達(dá)到了80.17%,充分證明了本模型擁有較好的檢測(cè)能力和較好的泛化能力。在今后的研究中,將繼續(xù)對(duì)模型進(jìn)行優(yōu)化,考慮采用遷移學(xué)習(xí)和對(duì)抗網(wǎng)絡(luò)的方法豐富數(shù)據(jù)集,提升模型的檢測(cè)精度和速度,繼續(xù)解決模型應(yīng)用于雨、霧、雪天等惡劣環(huán)境時(shí)的檢測(cè)難題,使其能更好地完成行人檢測(cè)的任務(wù)。

        注:本文通訊作者為王智文、白云。

        參考文獻(xiàn)

        [1] REN J, HAN J. A new multi-scale pedestrian detection algorithm in traffic environment [J]. Journal of electrical engineering amp; technology, 2021, 16(2): 1151-1161.

        [2] NATAPRAWIRA J, GU Y, GONCHARENKO I, et al. Pedestrian detection using multispectral images and a deep neural network [J]. Sensors, 2021, 21(7): 2536.

        [3] JI Q G, CHI R, LU Z M. Anomaly detection and localisation in the crowd scenes using a block‐based social force model [J]. IET image processing, 2018, 12(1): 133-137.

        [4] ZHOU H, YU G. Research on pedestrian detection technology based on the SVM classifier trained by HOG and LTP features [J]. Future generation computer systems, 2021, 125: 604-615.

        [5] HE L,WANG Y X, CHEN G Y. The hierarchical local binary patterns for pedestrian detection [C]//2021 5th CAA International Conference on Vehicular Control and Intelligence (CVCI)." Tianjin, China:IEEE, 2021: 1-8.

        [6] KUMAR K, MISHRA R K. A heuristic SVM based pedestrian detection approach employing shape and texture descriptors [J]. Multimedia tools and applications, 2020, 79: 21389-21408.

        [7] LI G, ZONG C, LIU G, et al. Application of Convolutional Neural Network (CNN)–adaboost algorithm in pedestrian detection [J]. Sensors and materials, 2020, 32: 1997-2006.

        [8] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2016: 2818-2826.

        [9] MIHCIO LU M E, ALKAR A Z. Improving pedestrian safety using combined HOG and Haar partial detection in mobile systems [J]. Traffic injury prevention, 2019, 20(6): 619-623.

        [10]王子元,王國(guó)中.改進(jìn)的輕量級(jí)YOLOv5算法在行人檢測(cè)的應(yīng)用[J].數(shù)據(jù)與計(jì)算發(fā)展前沿,2023,5(6):161-172.

        [11]毛雨晴,趙奎.基于改進(jìn)YOLOv5的多任務(wù)安全人頭檢測(cè)算法[J].計(jì)算機(jī)工程,2022,48(8):136-143.

        猜你喜歡
        行為分析
        基于遠(yuǎn)程教育的用戶行為分析研究
        東方教育(2016年6期)2017-01-16 20:51:05
        基于K?均值與AGNES聚類(lèi)算法的校園網(wǎng)行為分析系統(tǒng)研究
        基于北斗衛(wèi)星導(dǎo)航的罪犯行為分析方法
        物理教師課堂教學(xué)板書(shū)與媒體呈現(xiàn)行為的分析與策略
        基于行為分析的木馬檢測(cè)系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
        手機(jī)上網(wǎng)用戶行為分析與研究
        金融經(jīng)濟(jì)中的金融套利行為分析及若干研究
        公開(kāi)課與常態(tài)課學(xué)生學(xué)習(xí)心理和行為的表現(xiàn)分析
        考試周刊(2016年60期)2016-08-23 17:14:23
        員工不安全行為產(chǎn)生原因分析及控制技術(shù)研究
        政府俘獲行為過(guò)程分析及對(duì)抗策略
        商(2016年6期)2016-04-20 09:44:12
        91精品综合久久久久m3u8| 国产精品自拍视频免费观看| 日韩免费精品在线观看| 国产成人av在线免播放观看新 | 亚洲免费看三级黄网站| 少妇一区二区三区久久| 亚洲中文字幕无码一久久区| 欧美日本亚洲国产一区二区| 国产女主播福利一区在线观看| 丝袜美腿视频一区二区| 综合偷自拍亚洲乱中文字幕| 人人爽人人爱| 国产中文字幕乱码在线| 国产精品一区二区三区精品 | 亚洲日本在线va中文字幕| 免费视频一区二区三区美女| 天天躁夜夜躁av天天爽| 亚洲国产精品特色大片观看完整版 | 大屁股流白浆一区二区| 男女无遮挡高清性视频| 四虎影视永久地址www成人| AV成人午夜无码一区二区| 亚洲一区二区视频免费看| 精品国产天堂综合一区在线| 亚洲人成绝费网站色www| 亚洲av永久青草无码精品| 日韩人妻久久中文字幕| 最新国产福利在线观看精品| 久久精品国产99精品九九| 国产精品涩涩涩一区二区三区免费| 日韩精品一级在线视频| 精品一级一片内射播放| 欧美熟妇性xxx交潮喷| 国产一国产一级新婚之夜| 99在线无码精品秘 入口九色| 久久久精品网站免费观看| 护士的小嫩嫩好紧好爽| 中文字幕亚洲无线码| 精品视频在线观看一区二区有| 蜜臀av在线一区二区尤物| 亚洲熟妇自偷自拍另欧美|