亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SimAM-YOLOv4的自動(dòng)駕駛目標(biāo)檢測(cè)算法

        2022-11-24 02:29:16劉麗偉侯德彪侯阿臨鄭賀偉
        關(guān)鍵詞:特征檢測(cè)

        劉麗偉,侯德彪,侯阿臨,梁 超,鄭賀偉

        (長(zhǎng)春工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 吉林 長(zhǎng)春 130102)

        0 引 言

        近年來,隨著智能交通和人工智能技術(shù)的高速發(fā)展,自動(dòng)駕駛技術(shù)成為汽車領(lǐng)域的研究熱點(diǎn)[1]。然而,自動(dòng)駕駛場(chǎng)景下的道路環(huán)境復(fù)雜。一方面,車輛行駛過程中光線和相對(duì)角度等因素變化,導(dǎo)致目標(biāo)的特征發(fā)生改變,從而產(chǎn)生目標(biāo)檢測(cè)漏檢和誤檢的現(xiàn)象。另一方面,行人姿態(tài)改變以及車輛局部遮擋,容易產(chǎn)生目標(biāo)檢測(cè)的漏檢和誤檢[2]。因此,在復(fù)雜的道路場(chǎng)景中,如何準(zhǔn)確、快速地檢測(cè)出車輛與行人是自動(dòng)駕駛技術(shù)的重點(diǎn)研究?jī)?nèi)容。

        目前主流的目標(biāo)檢測(cè)算法主要分兩類,傳統(tǒng)的目標(biāo)檢測(cè)算法以及基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法[3]。其中傳統(tǒng)的目標(biāo)檢測(cè)算法主要通過矩形的滑動(dòng)窗口去搜索圖片內(nèi)的目標(biāo),而后利用SURF[4]、HOG[5]等手工特征輸入支持向量機(jī)、Adaboost等分類器中進(jìn)行識(shí)別。然而在自動(dòng)駕駛場(chǎng)景中,環(huán)境復(fù)雜多變,目標(biāo)形態(tài)各異,手工特征往往達(dá)不到理想的檢測(cè)效果,并且傳統(tǒng)的目標(biāo)檢測(cè)技術(shù)檢測(cè)效率低、精度差、魯棒性不足,不能達(dá)到實(shí)際要求。

        基于深度學(xué)習(xí)[6]的目標(biāo)檢測(cè)算法自動(dòng)學(xué)習(xí)檢測(cè)目標(biāo)的高級(jí)語義特征,避免了手工特征泛化能力差的問題,具有較高的檢測(cè)精度和較快的檢測(cè)速度,已成為自動(dòng)駕駛目標(biāo)檢測(cè)的主流算法。目前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法大概可以分為單階段和二階段。其中,二階段目標(biāo)檢測(cè)算法以R-CNN[7]系列為代表,此類算法首先通過提取候選框獲取感興趣部分,并縮放到固定大小,再通過大規(guī)模的卷積神經(jīng)網(wǎng)絡(luò)提取圖片的特征信息,最后再進(jìn)行目標(biāo)分類與回歸。此算法雖然可以獲得較高的精確度,但是其所有的候選框皆需送入大規(guī)模的卷積神經(jīng)網(wǎng)絡(luò)中,耗費(fèi)時(shí)間過長(zhǎng),導(dǎo)致無法達(dá)到自動(dòng)駕駛的實(shí)時(shí)性要求。單階段目標(biāo)檢測(cè)算法以SSD[8]、YOLO網(wǎng)絡(luò)[9-11]等為代表,相較于二階段目標(biāo)檢測(cè)算法,此類算法無須預(yù)先設(shè)置候選框獲取目標(biāo)信息,便可直接輸出目標(biāo)的位置信息與類別,大大提高了檢測(cè)效率。Du S等[12]通過在YOLOv4網(wǎng)絡(luò)基礎(chǔ)上加入難挖掘模塊(hard negative mining),抑制了復(fù)雜背景的干擾,提高了車輛檢測(cè)精度。Tan L等[13]利用空洞卷積、ULSAM超輕量子空間注意力機(jī)制改進(jìn)YOLOv4網(wǎng)絡(luò),提高了特征提取與目標(biāo)檢測(cè)性能。

        盡管當(dāng)前的檢測(cè)算法提升了檢測(cè)效率,但是常以犧牲檢測(cè)精度為代價(jià)。因此,如何在不降低檢測(cè)效率的前提下,提高檢測(cè)精度成為亟待解決的問題。卷積神經(jīng)網(wǎng)絡(luò)較深層的特征語義信息更為豐富,但對(duì)于檢測(cè)密集的對(duì)象并不有效[14]。在自動(dòng)駕駛場(chǎng)景下,目標(biāo)遮擋是行人檢測(cè)中經(jīng)常遇到的難題。注意力機(jī)制常被用來改善復(fù)雜交通環(huán)境下的目標(biāo)檢測(cè),突出人臉或車輛等目標(biāo)特征[15-16]。

        文中提出一種改進(jìn)的YOLOv4算法實(shí)現(xiàn)自動(dòng)駕駛場(chǎng)景下的目標(biāo)檢測(cè)。首先,將輕量型注意力模塊SimAM[17]引入主干網(wǎng)絡(luò),在不增加參數(shù)量的前提下加速權(quán)值的計(jì)算,使得精練的特征更加聚焦目標(biāo)主體。然后,采用一種新的激活函數(shù)ACON-C[18]加速分類過程,進(jìn)一步提高檢測(cè)精度,使得網(wǎng)絡(luò)在保證實(shí)時(shí)性的前提下,達(dá)到較高檢測(cè)精度。

        1 YOLOv4網(wǎng)絡(luò)

        YOLO網(wǎng)絡(luò)是單階段目標(biāo)檢測(cè)網(wǎng)絡(luò)代表之一,其直接將檢測(cè)任務(wù)轉(zhuǎn)換成回歸問題來進(jìn)行快速檢測(cè),而在訓(xùn)練過程與預(yù)測(cè)過程利用全圖信息,相比較區(qū)域候選網(wǎng)絡(luò)擁有更快的檢測(cè)速度與更高的檢測(cè)精度,可以實(shí)現(xiàn)端到端的預(yù)測(cè)。

        2020年,Bochkovskiy A等[19]提出了YOLOv4網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)

        與YOLOv3網(wǎng)絡(luò)相比,YOLOv4在數(shù)據(jù)輸入端采用了Mosaic數(shù)據(jù)增強(qiáng),豐富了檢測(cè)物體的背景,同時(shí)也采用了K-means聚類算法對(duì)數(shù)據(jù)集中的目標(biāo)框進(jìn)行維度聚類分析。在主干網(wǎng)絡(luò)部分,采用CSPDarknet53網(wǎng)絡(luò)作為骨干網(wǎng)絡(luò),借鑒CSPNet[20]思想,在YOLOv3的特征網(wǎng)絡(luò)Darknet基礎(chǔ)上形成,降低了計(jì)算量,提升計(jì)算速度,激活函數(shù)采用Mish,使網(wǎng)絡(luò)得到更好的檢測(cè)精度和泛化能力。在neck部分,YOLOv4不再使用特征金字塔(FPN),而是改用空間金字塔池化層(SPP)[21]和路徑聚合網(wǎng)絡(luò)(PANet)[22],使用多個(gè)尺寸的窗口,擴(kuò)大了網(wǎng)絡(luò)的感受野,增強(qiáng)提取特征的能力,同時(shí)實(shí)現(xiàn)了深層特征與淺層特征的融合,保證了特征的完整性與多樣性。在Head部分,YOLOv4網(wǎng)絡(luò)沿用YOLOv3的檢測(cè)頭,進(jìn)行大小為3×3和1×1的兩次卷積操作完成檢測(cè)。YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)增加了對(duì)小目標(biāo)的檢測(cè)能力,檢測(cè)速度也優(yōu)于YOLOv3等其他系列,更能勝任復(fù)雜的自動(dòng)駕駛場(chǎng)景中的目標(biāo)檢測(cè)任務(wù)。

        2 SimAM-YOLOv4檢測(cè)算法

        2.1 SimAM注意力模塊

        SimAM模塊是由Yang L等[17]提出的一種無參數(shù)的注意力模塊,從神經(jīng)科學(xué)理論出發(fā),為挖掘重要神經(jīng)元,構(gòu)建一種能量函數(shù)。

        SimAM算法首先評(píng)估每個(gè)神經(jīng)元的重要性,在神經(jīng)科學(xué)中,信息豐富的神經(jīng)元通常表現(xiàn)出與周圍神經(jīng)元不同的放電模式,而且,激活神經(jīng)元通常會(huì)抑制周圍的神經(jīng)元,即空域抑制,所以具有空域抑制效應(yīng)的神經(jīng)元應(yīng)該被賦予更高的重要性。通過度量神經(jīng)元之間的線性可分性去尋找重要神經(jīng)元,因此定義如下能量函數(shù):

        (1)

        其中,

        最小化上述公式等價(jià)于訓(xùn)練統(tǒng)一通道內(nèi)神經(jīng)元t與其他神經(jīng)元之間的線性可分性。采用二值標(biāo)簽,并添加正則項(xiàng),最終能量函數(shù)定義為

        et(wt,bt,y,xi)=

        (2)

        理論上,每個(gè)通道有M=H×W個(gè)能量函數(shù)。上述公式具有如下解析解:

        (3)

        其中,

        因此,最小能量可以通過下式得到

        (4)

        2.2 ACON-C激活函數(shù)

        ACON-C激活函數(shù)是由Ma N等[18]提出的一種簡(jiǎn)單有效的激活函數(shù),其函數(shù)表達(dá)式為

        fACON-C(x)=Sβ(ptx,p2x)=

        (p1-p2)x·σ[β(p1-p2)x]+

        p2x,

        (5)

        式中:Sβ----平滑最大值函數(shù)的微分形式;

        β----平滑因子;

        σ----Sigmoid函數(shù),該激活函數(shù)采用雙自變量函數(shù),帶有一個(gè)額外的超參數(shù)β,作用是在功能上使用超參數(shù)縮放,通過新增加p1與p2兩個(gè)超參數(shù),改善可學(xué)習(xí)的上界與下界。

        2.3 SimAM-YOLOv4算法

        YOLOv4算法具有較高的實(shí)時(shí)性檢測(cè)能力得益于其全卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和較小的卷積核尺寸,以及回歸邊界框的算法結(jié)構(gòu)設(shè)計(jì),為實(shí)現(xiàn)在不增加網(wǎng)絡(luò)深度的前提下提升網(wǎng)絡(luò)的檢測(cè)精度,SimAM-YOLOv4算法僅對(duì)YOLOv4主干網(wǎng)絡(luò)中的殘差結(jié)構(gòu)進(jìn)行改進(jìn),通過對(duì)傳遞特征的篩選,使得殘差融合時(shí)保留更加有效的特征,降低特征損失,有利于后續(xù)的定位與分類。

        對(duì)目標(biāo)檢測(cè)任務(wù)而言,主干網(wǎng)絡(luò)對(duì)于不同的目標(biāo)所關(guān)注的特征是不同的,如果在訓(xùn)練開始時(shí)就以同樣的關(guān)注度對(duì)待每一張?zhí)卣鲌D,會(huì)加快網(wǎng)絡(luò)的收斂速度。同時(shí),在保證實(shí)時(shí)性的前提下,由于不引入額外的參數(shù)能夠保持模型的大小,并且獲得了良好的mAP提升,因此選用無參數(shù)注意力模塊是一個(gè)較好的選擇。CSPDarknet53主干網(wǎng)絡(luò)存在大量的殘差模塊連接,因此在殘差模塊中嵌入注意力模塊時(shí)需要對(duì)其模塊結(jié)構(gòu)進(jìn)行一定的調(diào)整。CSPDarknet53中原始的殘差模塊如圖2所示。

        圖2 CSPDarknet53中原始?xì)埐钅K

        該模塊將特征圖輸入到兩個(gè)由二維卷積、標(biāo)準(zhǔn)化和Mish激活函數(shù)所組成的卷積塊中,再通過跳躍連接,將輸入的特征圖與處理后的特征圖相加得到最終的輸出特征圖。

        改進(jìn)的CSPDarknet53中殘差模塊如圖3所示。

        利用ACON-C激活函數(shù)替換原有的Mish激活函數(shù),改善網(wǎng)絡(luò)可學(xué)習(xí)的上下限,再通過將SimAM注意力模塊嵌入到兩個(gè)卷積塊之后,度量神經(jīng)元之間的線性可分性,尋找重要的神經(jīng)元,最后利用跳躍連接,實(shí)現(xiàn)原始特征圖的重要信息進(jìn)行篩選。

        圖3 改進(jìn)的CSPDarknet53中殘差模塊

        3 實(shí)驗(yàn)與分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)和實(shí)驗(yàn)平臺(tái)

        實(shí)驗(yàn)數(shù)據(jù)集選用當(dāng)前國(guó)際上最大的自動(dòng)駕駛場(chǎng)景下的計(jì)算機(jī)視覺評(píng)測(cè)數(shù)據(jù)集KITTI,數(shù)據(jù)集共7 481張圖片,分8個(gè)類別:汽車、箱式汽車、貨車、行人、坐著的人、騎車的人、電車和雜項(xiàng)。在實(shí)驗(yàn)中考慮到實(shí)際場(chǎng)景的復(fù)雜性,將數(shù)據(jù)集的類別進(jìn)行調(diào)整,汽車、箱式汽車與貨車合并為汽車;將行人與坐著的人合并為人;騎車的人不作調(diào)整;刪除最后兩個(gè)類別。最終得到樣本數(shù):汽車33 261個(gè)、行人4 709個(gè)、騎車的人1 627個(gè)。

        實(shí)驗(yàn)環(huán)境配置為:Intel i5處理器,64 G內(nèi)存,NVIDIA GeForce RTX 3090顯卡,Windows10操作系統(tǒng),Python版本3.8。

        3.2 評(píng)價(jià)指標(biāo)

        在實(shí)際自動(dòng)駕駛場(chǎng)景下,目標(biāo)檢測(cè)的速度與精度極其重要。如果模型檢測(cè)速度過慢,達(dá)不到實(shí)時(shí)性,致使汽車系統(tǒng)來不及對(duì)突發(fā)事件做出反應(yīng),亦或是檢測(cè)的精度不準(zhǔn)確,不能夠準(zhǔn)確判斷目標(biāo)的類別與位置,導(dǎo)致汽車在駕駛過程中無法做出正確識(shí)別,最終導(dǎo)致車禍發(fā)生。

        根據(jù)上述問題,本實(shí)驗(yàn)檢測(cè)的精度評(píng)價(jià)指標(biāo)選用mAP值(mean Average Precision)來衡量,mAP值表示所有類別的平均精度值(Average Precision, AP)的平均值,而AP值是由精確率(Precision)和召回率(Recall)形成的PR曲線和橫縱坐標(biāo)組成的面積計(jì)算得到,其計(jì)算為

        (6)

        (7)

        式中:TP----正類樣本預(yù)測(cè)為正類樣本的數(shù)量;

        FP----負(fù)類樣本預(yù)測(cè)為正類樣本的數(shù)量;

        FN----正類樣本預(yù)測(cè)為負(fù)類樣本的數(shù)量。

        選用FPS(frames per second)去衡量算法的檢測(cè)速度,即每秒處理的圖片數(shù)量或者處理每張圖片所需要時(shí)間。

        3.3 模型訓(xùn)練

        實(shí)驗(yàn)采用遷移學(xué)習(xí),將原始YOLOv4網(wǎng)絡(luò)的預(yù)訓(xùn)練模型的參數(shù)加載到SimAM-YOLOv4網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,總共迭代500次,前100次迭代采用凍結(jié)主干網(wǎng)絡(luò)參數(shù)訓(xùn)練,防止訓(xùn)練初期權(quán)值被破壞,加快訓(xùn)練速度,此時(shí)批量大小設(shè)定為8,學(xué)習(xí)率設(shè)定為0.001,剩余400次迭代,將所有參數(shù)解凍全部參與訓(xùn)練,批量大小設(shè)定為4,學(xué)習(xí)率設(shè)定為0.000 1。在訓(xùn)練過程中輸入圖片的分辨率大小設(shè)定為608*608,優(yōu)化策略采用余弦退火的Adam優(yōu)化算法,設(shè)定參數(shù)T_max為5,參數(shù)eta_min為0.000 01。

        3.4 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證各個(gè)方法改進(jìn)的有效性,分別采用原始YOLOv4網(wǎng)絡(luò)、添加SE-Attention注意力模塊的YOLOv4網(wǎng)絡(luò)、添加CBAM注意力模塊的YOLOv4網(wǎng)絡(luò)、添加SimAM注意力模塊的YOLOv4網(wǎng)絡(luò)以及同時(shí)添加SimAM注意力模塊和激活函數(shù)的SimAM-YOLOv4網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)對(duì)比,網(wǎng)絡(luò)模型性能對(duì)比見表1。

        通過表1可以看到,原始YOLOv4在沒有改進(jìn)的條件下,mAP值為85.85%,加入CBAM注意力模塊的YOLOv4,其mAP值為89.95%,mAP提升4.1%,為20 幀/s,犧牲25 幀/s,加入SE注意力模塊的YOLOv4,其mAP值為90.08%,mAP提升4.23%,為34 幀/s,犧牲11 幀/s,加入SimAM注意力模塊,mAP提升4.01%,為40 幀/s,犧牲5 幀/s,可以看出,SimAM模塊僅犧牲了較低的速度,獲得了與其他注意力模塊相近的mAP提升。

        表1 不同模型性能對(duì)比

        在SimAM注意力模塊的基礎(chǔ)上加入ACON-C激活函數(shù),修正了特征向量,使得后續(xù)檢測(cè)可以充分利用特征,mAP相比原始YOLOv4提高5.34%,與只加SimAM注意力模塊模型結(jié)果提高1.33%。雖然都有檢測(cè)速度的損失,但能夠滿足實(shí)時(shí)性的要求。同時(shí)不同模型針對(duì)不同類別的檢測(cè)性能進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果對(duì)比見表2。

        表2 不同類別的對(duì)比結(jié)果

        通過表2可以看出,原始YOLOv4對(duì)大目標(biāo)Car檢測(cè)精度很高,而對(duì)小目標(biāo)Cyclist、Pedestrian檢測(cè)精度明顯達(dá)不到要求。通過嵌入SimAM注意力模塊,Car類AP提升2%,Cyclist類AP提升6%,Pedestrian類AP提升5%。SimAM-YOLOv4相較于只引入注意力機(jī)制,Car、Cyclist類指標(biāo)基本不變,但Pedestrian類AP提升4%。由此可以看出,SimAM-YOLOv4有效地解決了原始YOLOv4對(duì)小目標(biāo)檢測(cè)精度不足的問題。

        為了更加直觀地感受上述不同算法之間的差異,文中選取了一組檢測(cè)結(jié)果進(jìn)行對(duì)比分析,檢測(cè)效果如圖4所示。

        (a) 原始YOLOv4模型

        (b) OLOv4+SimAM

        (c) SimAM-YOLOv4模型

        從實(shí)驗(yàn)效果可以看出,原始YOLOv4對(duì)檢測(cè)出的對(duì)象具有較高的置信度,但由于遮擋存在漏檢問題,相較而言,引入SimAM注意力模塊有效地解決了漏檢問題,但存在某些目標(biāo)置信度較低的問題,而SimAM-YOLOv4既解決了漏檢問題,也解決了遮擋導(dǎo)致目標(biāo)置信度較低的問題。

        綜上所述,SimAM-YOLOv4對(duì)YOLOv4的改進(jìn)與優(yōu)化具備合理性與有效性,在自動(dòng)駕駛場(chǎng)景下的目標(biāo)檢測(cè)任務(wù)中提升了原算法的檢測(cè)性能。

        4 結(jié) 語

        提出一種基于改進(jìn)YOLOv4的自動(dòng)駕駛場(chǎng)景目標(biāo)檢測(cè)任務(wù)的算法,針對(duì)原始YOLOv4對(duì)于小目標(biāo)檢測(cè)精度低的問題,SimAM-YOLOv4使用SimAM無參注意力模塊結(jié)合ACON-C激活函數(shù)改進(jìn)主干網(wǎng)絡(luò)中的殘差結(jié)構(gòu),引導(dǎo)網(wǎng)絡(luò)對(duì)所提取出的特征圖進(jìn)行充分的修正,更好地篩選出有利于后續(xù)檢測(cè)的特征。在KITTI數(shù)據(jù)集上的mAP達(dá)到91.19%,較原始模型提升5.34%,檢測(cè)速度達(dá)到32 幀/s。在滿足實(shí)際自動(dòng)駕駛對(duì)目標(biāo)檢測(cè)實(shí)時(shí)性需求的前提下,以較低的推理耗時(shí)換取了較大的檢測(cè)精度提升。同時(shí)模型大小為250 MB,與原模型大小幾乎相同,可以更好地應(yīng)用在自動(dòng)駕駛場(chǎng)景中。下一步工作將從網(wǎng)絡(luò)結(jié)構(gòu)輕量化的角度優(yōu)化模型,繼續(xù)研究注意力模塊及激活函數(shù)機(jī)理,進(jìn)一步提高檢測(cè)精度與速度。

        猜你喜歡
        特征檢測(cè)
        抓住特征巧觀察
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        久久夜色精品国产亚洲av老牛 | 女同同性av观看免费| 日本办公室三级在线看| 亚洲成人av一区免费看| 五月天中文字幕日韩在线| 在线观看特色大片免费视频| 久久精品99久久香蕉国产| 亚洲男人的天堂在线播放| 亚洲在AV极品无码天堂手机版| 久久青青草原亚洲AV无码麻豆| 国产一区二区三区视频免费在线 | 亚洲女同系列在线观看| 亚洲夫妻性生活免费视频| 国产三级av在线播放| 在线亚洲午夜理论av大片| 中文字幕天堂在线| 日韩美女高潮流白浆视频在线观看| 亚洲av成人一区二区三区不卡| 亚洲中文字幕在线第六区| 男人天堂这里只有精品| 亚洲av永久中文无码精品综合| 老熟妇高潮喷了╳╳╳| 91最新免费观看在线| 亚洲中文字幕第二十三页| 亚洲伊人久久大香线蕉| 人人爽久久久噜人人看| 一区二区三区乱码在线 | 欧洲| 真实国产乱啪福利露脸| 国产激情视频在线观看首页| 女同性恋亚洲一区二区| 亚洲一区二区精品在线| 久久综合九色欧美综合狠狠| 丰满多毛的大隂户毛茸茸| 精品国产三级a∨在线观看| 日本一道dvd在线中文字幕| 亚洲一区二区三区乱码在线 | 日本女优在线一区二区三区| 国产精品爽爽久久久久久竹菊| 国产精品久久久久久52avav| 久久久久中文字幕无码少妇| 国产精品人人爱一区二区白浆|