亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        引入Transformer的道路小目標(biāo)檢測(cè)

        2024-01-22 06:03:54李麗芬
        關(guān)鍵詞:特征實(shí)驗(yàn)檢測(cè)

        李麗芬,黃 如

        (華北電力大學(xué)(保定) 計(jì)算機(jī)系,河北 保定 071003)

        0 引 言

        針對(duì)自動(dòng)駕駛,目標(biāo)檢測(cè)的主要任務(wù)是在車(chē)輛行駛過(guò)程中對(duì)前方道路中的目標(biāo)進(jìn)行識(shí)別與定位,系統(tǒng)提前規(guī)劃行駛路線,保證汽車(chē)安全行駛。但目前通用目標(biāo)檢測(cè)算法在檢測(cè)小目標(biāo)時(shí)由于目標(biāo)分辨率低、特征表達(dá)能力弱,導(dǎo)致出現(xiàn)目標(biāo)漏檢率較高的問(wèn)題,嚴(yán)重影響檢測(cè)效果,是目標(biāo)檢測(cè)任務(wù)亟待解決的難點(diǎn)問(wèn)題[1]。

        傳統(tǒng)方法采用人工提取特征來(lái)實(shí)現(xiàn)目標(biāo)檢測(cè),但對(duì)于小目標(biāo)的特征提取效果差,目前小目標(biāo)檢測(cè)的算法都使用卷積神經(jīng)網(wǎng)絡(luò)CNN(convolutional neural networks)提取特征。當(dāng)前,主流的基于CNN的目標(biāo)檢測(cè)算法主要分為兩大類(lèi)。第一類(lèi)是兩階段目標(biāo)檢測(cè)算法(two stage),此類(lèi)算法首先是生成候選區(qū)域,然后對(duì)候選區(qū)域進(jìn)行類(lèi)別分類(lèi)與位置預(yù)測(cè)。兩階段算法具有較高檢測(cè)精度,但檢測(cè)速度較慢,無(wú)法滿(mǎn)足實(shí)時(shí)性要求,代表算法有RCNN系列[2,3]等。第二類(lèi)為單階段目標(biāo)檢測(cè)算法(one stage),此類(lèi)算法以回歸為核心思想,取消生成候選區(qū)域,直接利用網(wǎng)絡(luò)中提取的特征來(lái)對(duì)目標(biāo)的類(lèi)別和位置進(jìn)行預(yù)測(cè),是一種端到端的目標(biāo)檢測(cè)算法,具有更快的檢測(cè)速度。該類(lèi)算法的代表模型有YOLO系列,其中YOLO系列中效果較好的為YOLOv3[4]和YOLOv4[5]。無(wú)論是單階段檢測(cè)算法還是兩階段檢測(cè)算法,都能夠取得較好的檢測(cè)結(jié)果,但對(duì)于小尺度目標(biāo)檢測(cè)仍然存在一些不足。因此,本文提出一種引入Transformer的道路小目標(biāo)檢測(cè)算法來(lái)解決存在的問(wèn)題。

        1 相關(guān)工作

        目前越來(lái)越多的學(xué)者投入了大量的努力來(lái)提高道路小目標(biāo)的檢測(cè)精度。鄒慧海等[6]對(duì)模型中的特征金字塔網(wǎng)絡(luò)進(jìn)行改進(jìn),融合不同層特征圖的特征信息來(lái)提高道路小目標(biāo)的檢測(cè)精度。岳曉新等[7]對(duì)YOLOv3網(wǎng)絡(luò)模型的聚類(lèi)算法進(jìn)行優(yōu)化,在原K-means聚類(lèi)算法的基礎(chǔ)上,利用DBSCAN(density-based spatial clustering of applications with noise)聚類(lèi)算法消除聚類(lèi)時(shí)噪音點(diǎn)對(duì)聚類(lèi)結(jié)果的影響,進(jìn)而選取出更適合小目標(biāo)的Anchor Box,提高了道路小目標(biāo)的檢測(cè)精度。羅建華等[8]將模型中的損失函數(shù)替換為DIOU損失,提高目標(biāo)定位精確度,降低了道路小目標(biāo)的漏檢率。

        自動(dòng)駕駛領(lǐng)域中,目前常用的目標(biāo)檢測(cè)算法對(duì)近距離大尺度目標(biāo)有較高的檢測(cè)精度,但對(duì)于遠(yuǎn)距離小尺度目標(biāo)的檢測(cè)精度仍然較低。針對(duì)該問(wèn)題,本文以單階段目標(biāo)檢測(cè)算法YOLOv4為基礎(chǔ),提出一種引入Transformer的道路小目標(biāo)檢測(cè)算法來(lái)提高小尺度目標(biāo)的識(shí)別精度。

        YOLOv4算法網(wǎng)絡(luò)結(jié)構(gòu)是由CSPDarknet53[9]特征提取模塊,SPPNet[10](spatial pyramid pooling)與PANet[11](path aggregation network)特征融合模塊和YOLO-Head檢測(cè)模塊3部分組成。如圖1所示,先將原始圖像處理為416×416大小,之后將預(yù)處理后的圖像輸入到特征提取網(wǎng)絡(luò)中,使用CSPDarknet53主干網(wǎng)絡(luò)對(duì)特征圖進(jìn)行多次卷積操作提取圖像特征,輸出13×13、26×26、52×52這3種尺度的特征圖。在特征融合模塊中,13×13尺度的特征圖采用SPP模塊增加網(wǎng)絡(luò)的感受野,并將得到的特征圖與26×26、52×52的特征圖全部輸入到PANet網(wǎng)絡(luò)中實(shí)現(xiàn)淺層特征與深層特征的融合。經(jīng)過(guò)特征融合后,輸入YOLO-Head檢測(cè)頭,最終得到3個(gè)檢測(cè)頭。檢測(cè)頭把特征圖分為S×S個(gè)網(wǎng)格,每個(gè)網(wǎng)格對(duì)應(yīng)3個(gè)先驗(yàn)框,經(jīng)過(guò)非極大值抑制,根據(jù)預(yù)測(cè)值調(diào)整先驗(yàn)框得到最后的預(yù)測(cè)框。

        圖1 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)

        2 改進(jìn)YOLOv4算法

        本文提出一種引入Transformer的道路小目標(biāo)檢測(cè)算法,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。相較原始網(wǎng)絡(luò),進(jìn)行多尺度檢測(cè)改進(jìn)、引入ICVT模塊(如圖2虛線塊所示)、改進(jìn)SPP模塊并在淺層特征層后嵌入改進(jìn)的SPP+模塊(如圖2虛線塊所示)。

        圖2 改進(jìn)YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)

        2.1 多尺度檢測(cè)改進(jìn)

        YOLOv4采用13×13、26×26和52×52這3種不同尺度的錨框進(jìn)行檢測(cè)。在道路場(chǎng)景中,因遠(yuǎn)距離的車(chē)輛與行人所占像素較少,經(jīng)過(guò)多次卷積后小目標(biāo)的特征信息丟失嚴(yán)重,導(dǎo)致小目標(biāo)的漏檢率提高。

        針對(duì)上述問(wèn)題,本文在原有多尺度檢測(cè)基礎(chǔ)上,增加一個(gè)104×104尺度的小目標(biāo)檢測(cè)層,由原來(lái)的三尺度檢測(cè)變?yōu)樗某叨葯z測(cè)。具體操作是將融合后的52×52尺度特征層上采樣得到104×104尺度的特征層,并將其與主干網(wǎng)絡(luò)經(jīng)過(guò)兩次下采樣得到的104×104尺度特征層進(jìn)行融合,獲得104×104尺度的檢測(cè)層。這一改進(jìn)可以使淺層小目標(biāo)特征信息得到充分提取,并與具有較強(qiáng)語(yǔ)義信息的深層特征信息融合,獲得特征信息豐富的小目標(biāo)特征圖,減少小目標(biāo)特征信息的丟失,從而提高小目標(biāo)的檢測(cè)性能,降低小目標(biāo)的漏檢率。

        原始YOLOv4的Anchor Box尺寸是依據(jù)COCO數(shù)據(jù)集設(shè)置的,但由于本文針對(duì)的是車(chē)輛與行人檢測(cè),并且新增一個(gè)檢測(cè)層,導(dǎo)致COCO數(shù)據(jù)集的Anchor Box適配度不高,因此采用K-means聚類(lèi)算法選取適合的Anchor Box。通過(guò)聚類(lèi)計(jì)算得到的12個(gè)錨框尺寸分別為(6,54),(8,22),(11,29),(12,95),(16,36),(20,54),(25,178),(27,39),(33,65),(49,85),(66,134),(104,200)。將這12個(gè)錨框尺寸依次分給4個(gè)尺度,其中分辨率較小的檢測(cè)層對(duì)應(yīng)大目標(biāo)的錨框尺寸,分辨率較大的檢測(cè)層對(duì)應(yīng)小目標(biāo)的錨框尺寸,錨框與每個(gè)尺度特征圖的對(duì)應(yīng)關(guān)系見(jiàn)表1。

        表1 錨框與特征圖對(duì)應(yīng)關(guān)系

        2.2 ICvT模塊

        本文選用的是Haiping Wu等學(xué)者[12]提出的CvT(convo-lutional vision transformer)模型。ViT[13](vision transformer)是一種基于自注意力機(jī)制的模型,通過(guò)使用自注意力機(jī)制,可以減少依賴(lài)外部信息,能夠捕獲特征的內(nèi)部相關(guān)性,進(jìn)而獲得豐富的上下文信息,增強(qiáng)特征的表達(dá)能力。CvT模型通過(guò)在ViT中引入卷積神經(jīng)網(wǎng)絡(luò),使得模型在保持ViT模型優(yōu)點(diǎn)的同時(shí),也能夠擁有卷積神經(jīng)網(wǎng)絡(luò)的特性。自動(dòng)駕駛中道路場(chǎng)景復(fù)雜,小目標(biāo)的特征信息少,容易與道路中的建筑物混淆,引入該模型能夠充分利用上下文信息,從而分辨出車(chē)輛與行人小目標(biāo)。

        CvT模型具體引入兩個(gè)卷積操作:把ViT模型中的分塊處理和自注意力機(jī)制之前的線性投影替換成卷積操作。其中卷積操作雖取消了位置編碼,但實(shí)際上卻能夠隱含地編碼絕對(duì)位置信息[14]。然而,該模型僅僅考慮在卷積操作中位置編碼的問(wèn)題,忽略了位置編碼對(duì)較高層也很重要。為了解決這個(gè)問(wèn)題,本文對(duì)CvT模型進(jìn)行改進(jìn),在CvT模型的較高層引入Benjamin Graham等學(xué)者[15]提出的注意偏差(attention bias),使較高層注入相對(duì)位置信息,從而設(shè)計(jì)了ICvT(improved convolutional vision transformer)模塊。模塊結(jié)構(gòu)如圖3所示,具體分為4個(gè)步驟。

        圖3 ICvT模塊結(jié)構(gòu)

        (1)卷積Token嵌入。對(duì)輸入特征圖進(jìn)行卷積操作生成大小為C×H×W的特征圖,接著把它平鋪(flatten)成 (H*W)×C大小的張量并進(jìn)行歸一化操作。通過(guò)此操作減小Token序列的長(zhǎng)度(即特征圖的大小),同時(shí)增加Token的寬度(即特征圖的通道數(shù))。

        (2)卷積映射。對(duì)上一步驟得到的Token歸一化后進(jìn)行reshape操作,生成大小為C×H×W的特征圖。然后對(duì)特征圖分別進(jìn)行3個(gè)深度可分離卷積,再通過(guò)平鋪得到query,key和value。

        (3)將q、k、v向量通過(guò)線性化處理后輸入改進(jìn)后的多頭注意力機(jī)制模塊IMHA(improved-multi-head attention)。IMHA模塊具體計(jì)算過(guò)程如下:

        首先設(shè)置注意力頭為h組,接著將q、k、v向量分別切分為h組。計(jì)算過(guò)程為

        (1)

        之后對(duì)每組q與k向量進(jìn)行相似度計(jì)算獲權(quán)重,再加入相對(duì)位置信息(attention bias)。接著對(duì)得到的權(quán)重和相應(yīng)的v進(jìn)行加權(quán)求和得到每組注意力權(quán)重。最終將每組注意力權(quán)重連接起來(lái),得到IMHA模塊的輸出。改進(jìn)后每組頭的自注意力機(jī)制模塊結(jié)構(gòu)如圖4所示。計(jì)算過(guò)程為

        圖4 改進(jìn)后自注意力機(jī)制模塊結(jié)構(gòu)

        headi=Attention(qi,ki,vi),i=1,…h(huán)

        (2)

        (3)

        multihead(q,k,v)=concat(head1,…h(huán)eadh)

        (4)

        其中,s為softmax函數(shù),ab為平移不變的注意力偏置(attention bias),concat為拼接函數(shù)。

        由IMHA模塊的輸出和(1)得到的Token殘差連接。計(jì)算過(guò)程為

        F=d(multihead(q,k,v))+Token

        (5)

        其中,d為dropout函數(shù)。

        (4)將上一步驟得到的F經(jīng)過(guò)歸一化操作后通過(guò)前饋網(wǎng)絡(luò)層FFN(feed forward network)防止網(wǎng)絡(luò)退化,再與F進(jìn)行殘差連接。最后經(jīng)過(guò)reshape操作后使用1×1的卷積得到ICvT模塊的輸出。

        2.3 SPP+模塊

        原YOLOv4算法在主干提取網(wǎng)絡(luò)后加入了空間金字塔池化模塊。SPP模塊通過(guò)使用大小不同卷積核的最大池化層(Maxpool),將擁有局部特征信息的特征圖和全局特征信息的特征圖進(jìn)行融合,可以增加模型感受野,進(jìn)而豐富特征圖的表達(dá)能力,提升檢測(cè)精度,結(jié)構(gòu)如圖5所示。

        圖5 SPP與SPP+模塊結(jié)構(gòu)

        在卷積神經(jīng)網(wǎng)絡(luò)中,最大池化操作對(duì)感受野有很大的影響,其中主要取決于卷積核的大小,卷積核越大模型的感受野越大。因而本文對(duì)SPP模塊進(jìn)行改進(jìn),將3個(gè)卷積核不同的最大池化操作減少為一個(gè)最大池化操作,使其卷積核大小為最接近輸入特征圖的大小。這樣在可以獲得全局感受野的同時(shí),也可以減少模型的計(jì)算量。本文將改進(jìn)后的模塊稱(chēng)為SPP+模塊,改進(jìn)后的結(jié)構(gòu)如圖5所示。

        對(duì)算法進(jìn)行多尺度檢測(cè)改進(jìn)后,52×52和104×104尺度的檢測(cè)層用于檢測(cè)小目標(biāo)。為了提高小目標(biāo)的檢測(cè)精度,如圖2所示本文在主干網(wǎng)絡(luò)第二、三個(gè)殘差塊后加入SPP+模塊,用來(lái)增加淺層特征圖的感受野。其中52×52和104×104特征層后接的SPP+模塊的最大池化操作的卷積核分別設(shè)置為17與43。

        3 實(shí)驗(yàn)結(jié)果及分析

        3.1 實(shí)驗(yàn)平臺(tái)與實(shí)驗(yàn)數(shù)據(jù)

        本實(shí)驗(yàn)所用的硬件平臺(tái)為:Intel(R)Xeon(R)Gold 5218的CPU,Tesla T4*8的GPU,操作系統(tǒng)為ubuntu 18.04,深度學(xué)習(xí)框架為Pytorch。

        實(shí)驗(yàn)使用的數(shù)據(jù)集為KITTI數(shù)據(jù)集中的二維目標(biāo)數(shù)據(jù)集,其中包含在真實(shí)交通環(huán)境下采集的圖像數(shù)據(jù),如城市地區(qū)、鄉(xiāng)村和高速公路等,圖像中所含遠(yuǎn)距離小目標(biāo)數(shù)量多[16]。KITTI數(shù)據(jù)集單幅圖像所含目標(biāo)數(shù)量多、背景復(fù)雜、分辨率低,適合用來(lái)驗(yàn)證小目標(biāo)的準(zhǔn)確率。本文對(duì)KITTI數(shù)據(jù)集的類(lèi)別進(jìn)行了處理,將汽車(chē)類(lèi)標(biāo)簽合并為car類(lèi),行人類(lèi)標(biāo)簽合并為pedestrian類(lèi)。

        3.2 評(píng)價(jià)標(biāo)準(zhǔn)

        為了驗(yàn)證改進(jìn)后算法的性能,本文實(shí)驗(yàn)采用以下5個(gè)評(píng)價(jià)指標(biāo)對(duì)算法進(jìn)行評(píng)估。精度(percision)表示預(yù)測(cè)樣本中預(yù)測(cè)正確樣本數(shù)在總正確樣本數(shù)中所占的比例。召回率(recall)表示預(yù)測(cè)樣本中預(yù)測(cè)正確樣本數(shù)在總預(yù)測(cè)樣本數(shù)中所占的比例。平均精度AP(average precision)表示以R為橫坐標(biāo),P為縱坐標(biāo)時(shí),P-R曲線下的面積。多個(gè)類(lèi)別平均精度的平均值mAP(mean average precision)表示數(shù)據(jù)集中所有類(lèi)別平均精度的均值,作為模型精度評(píng)價(jià)指標(biāo)。每秒檢測(cè)幀數(shù)FPS(frame per second)表示每秒內(nèi)檢測(cè)的幀數(shù),作為模型速度評(píng)價(jià)指標(biāo)。計(jì)算公式如下

        (6)

        (7)

        (8)

        (9)

        3.3 實(shí)驗(yàn)結(jié)果分析

        3.3.1 模型訓(xùn)練

        實(shí)驗(yàn)根據(jù)以下參數(shù)設(shè)置進(jìn)行訓(xùn)練,批量大小設(shè)置為16,總共訓(xùn)練300個(gè)epoch。采用Adam優(yōu)化器,初始學(xué)習(xí)率為0.001,使用余弦退火策略調(diào)整學(xué)習(xí)率。訓(xùn)練過(guò)程Loss曲線如圖6所示。

        圖6 訓(xùn)練損失曲線

        如圖6所示,隨著訓(xùn)練輪數(shù)的增加,損失值不斷降低,迭代到175輪后損失曲線趨于穩(wěn)定,達(dá)到收斂狀態(tài),原YOLOv4算法與本文改進(jìn)算法損失值穩(wěn)定于0.9和0.8左右。與原算法相比改進(jìn)后模型的損失值有所下降,驗(yàn)證模型的檢測(cè)精度提高,本實(shí)驗(yàn)設(shè)置的超參數(shù)合理。

        3.3.2 消融實(shí)驗(yàn)

        為了驗(yàn)證本文算法有效性,進(jìn)行了消融實(shí)驗(yàn),結(jié)果見(jiàn)表2,表中yolo_head、ICvT、SPP+分別表示新增一個(gè)檢測(cè)頭、添加ICvT模塊和SPP+模塊。對(duì)于實(shí)驗(yàn)結(jié)果具體分析如下。

        表2 消融實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)2為增加尺度特征圖進(jìn)行檢測(cè)的實(shí)驗(yàn)結(jié)果。新增一個(gè)檢測(cè)頭后的mAP為90.64%,與原YOLOv4相比在進(jìn)行多尺度檢測(cè)改進(jìn)后mAP提高1.2%。在檢測(cè)速度方面,改進(jìn)后的算法比原YOLOv4僅僅降低2.9 FPS。該實(shí)驗(yàn)結(jié)果表明,由三尺度檢測(cè)變?yōu)樗某叨葯z測(cè)能夠提取到更多的淺層特征信息,可以有效提高目標(biāo)的檢測(cè)精度,同時(shí)基本不影響算法的檢測(cè)速度。

        實(shí)驗(yàn)3為采用ICvT方法進(jìn)行檢測(cè)的實(shí)驗(yàn)結(jié)果。引入ICvT模塊后的mAP為90.01%,與原YOLOv4相比提高0.57%,檢測(cè)速度降低4.8 FPS。該實(shí)驗(yàn)結(jié)果表明,引入ICvT模塊捕獲局部信息,能夠更有效提升目標(biāo)檢測(cè)精度;對(duì)于檢測(cè)速度,由于加入ICvT模塊增大模型的計(jì)算量,使檢測(cè)速度下降,但仍然可以保證檢測(cè)的實(shí)時(shí)性。

        實(shí)驗(yàn)4為添加SPP+模塊進(jìn)行檢測(cè)的實(shí)驗(yàn)結(jié)果。進(jìn)行改進(jìn)后算法的mAP為89.72%,與原YOLOv4相比mAP提升了0.28%,F(xiàn)PS基本保持不變。該實(shí)驗(yàn)結(jié)果表明,增加SPP+模塊能更好提高特征圖的感受野,更有效提高目標(biāo)檢測(cè)精度;同時(shí)改進(jìn)后的模塊計(jì)算量小,仍然可以有較快的檢測(cè)速度。

        從實(shí)驗(yàn)2到實(shí)驗(yàn)4表明每項(xiàng)改進(jìn)都能夠提高模型的檢測(cè)精度。實(shí)驗(yàn)5在實(shí)驗(yàn)2的基礎(chǔ)上添加ICvT模塊,實(shí)驗(yàn)6在實(shí)驗(yàn)5的基礎(chǔ)上添加SPP+模塊,兩個(gè)實(shí)驗(yàn)的mAP值分別為91.51%和91.97%。這兩個(gè)實(shí)驗(yàn)結(jié)果表明,與添加模塊前相比識(shí)別精度都有相應(yīng)的提高,同時(shí)能夠滿(mǎn)足實(shí)時(shí)檢測(cè)。

        本文目的旨在提升小目標(biāo)的檢測(cè)率,KITTI數(shù)據(jù)集被調(diào)整為兩類(lèi)目標(biāo),由于pedestrian類(lèi)目標(biāo)具有目標(biāo)相對(duì)較小的特點(diǎn),本文選用pedestrian類(lèi)作為小目標(biāo)檢測(cè)的代表。結(jié)果見(jiàn)表3,pedestrian類(lèi)的AP由83.4%提升至87.01%,提高3.61%,提升結(jié)果較為顯著,驗(yàn)證了本文算法可以有效的檢測(cè)小目標(biāo),降低小目標(biāo)的漏檢率。

        表3 KITTI數(shù)據(jù)集中小目標(biāo)的AP比較

        為了進(jìn)一步驗(yàn)證本文算法對(duì)小目標(biāo)檢測(cè)的有效性,本文使用原YOLOv4算法和本文改進(jìn)算法在KITTI數(shù)據(jù)集上進(jìn)行檢測(cè)對(duì)比。圖7為檢測(cè)結(jié)果對(duì)比圖,每一列從上到下依次為原始圖像、原YOLOv4算法檢測(cè)圖像與本文算法檢測(cè)圖像。結(jié)果如圖7所示,第一列中原YOLOv4檢測(cè)算法將圖像左側(cè)的背景信息誤檢為車(chē)輛,遠(yuǎn)距離小尺度行人和右下角車(chē)輛并未準(zhǔn)確檢測(cè)出來(lái)。而本文改進(jìn)算法不僅能夠準(zhǔn)確檢測(cè)出小尺度目標(biāo),做到不誤檢不漏檢,同時(shí)使檢測(cè)框更加貼合目標(biāo)對(duì)象,更為準(zhǔn)確檢測(cè)出目標(biāo)對(duì)象。第二列中,原YOLOv4算法漏檢遠(yuǎn)距離小尺度車(chē)輛,而本文改進(jìn)算法檢測(cè)出遠(yuǎn)距離小尺度車(chē)輛,同時(shí)提高檢測(cè)的準(zhǔn)確率。結(jié)果表明本文算法不僅能夠更好檢測(cè)與定位車(chē)輛和行人小目標(biāo),且對(duì)背景復(fù)雜、遮擋、密集等情況造成的漏檢也能精確檢測(cè)。

        圖7 檢測(cè)結(jié)果對(duì)比

        3.3.3 對(duì)比實(shí)驗(yàn)

        為了驗(yàn)證本文算法檢測(cè)的有效性,還將與目前主流的目標(biāo)檢測(cè)算法Faster R-CNN、SSD、YOLOv2、YOLOv3等進(jìn)行比較。結(jié)果見(jiàn)表4,未改進(jìn)的目標(biāo)檢測(cè)算法中YOLOv4算法的檢測(cè)精度最高,可達(dá)89.44%,而本文改進(jìn)算法與原YOLOv4算法相比在檢測(cè)精度上又有了進(jìn)一步的提升,由此驗(yàn)證改進(jìn)后的算法有更好的檢測(cè)性能。

        表4 不同算法檢測(cè)結(jié)果比較

        4 結(jié)束語(yǔ)

        針對(duì)道路小目標(biāo)檢測(cè)中存在的問(wèn)題,本文利用Transformer和空間金字塔模型對(duì)YOLOv4算法進(jìn)行改進(jìn)。首先,重新設(shè)計(jì)PANet網(wǎng)絡(luò)結(jié)構(gòu),將檢測(cè)尺度由原來(lái)的3種尺度預(yù)測(cè)增加至4種尺度,把主干網(wǎng)絡(luò)中的淺層特征信息充分利用起來(lái),得到更多小尺度目標(biāo)的特征信息。與此同時(shí)使用K-means聚類(lèi)算法,獲得更為合適的Anchor Box。其次,在網(wǎng)絡(luò)結(jié)構(gòu)中引入ICvT模塊,使算法能夠關(guān)注特征內(nèi)部相關(guān)性,利用目標(biāo)周?chē)纳舷挛男畔?,提高模型檢測(cè)能力。最后,改進(jìn)SPP模塊并在主干網(wǎng)絡(luò)第二、三殘差塊后添加SPP+模塊,對(duì)局部和全局感受野進(jìn)行融合,提高特征信息表達(dá)能力。實(shí)驗(yàn)結(jié)果表明,本文算法比原YOLOv4算法的mAP提高2.53%,且對(duì)小目標(biāo)檢測(cè)的準(zhǔn)確率提升顯著。但是,由于ICvT模塊的引入使模型計(jì)算量增加,降低了檢測(cè)速度。在未來(lái)的工作中,將進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),減少信息冗余,提高目標(biāo)檢測(cè)效率。

        猜你喜歡
        特征實(shí)驗(yàn)檢測(cè)
        記一次有趣的實(shí)驗(yàn)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
        太空探索(2016年5期)2016-07-12 15:17:55
        亚洲成人一区二区av| 放荡成熟人妻中文字幕| 无人视频在线播放免费| 森中文字幕一区二区三区免费| 亚洲欧美v国产一区二区| 精品久久久久久无码人妻热| 国产性一交一乱一伦一色一情| 久青草国产在线观看| 亚洲欧美激情精品一区二区| 无遮挡亲胸捏胸免费视频| 无码一区二区三区不卡AV| 在线视频一区二区观看| 精品福利一区二区三区| 久久无码潮喷a片无码高潮| 无遮挡呻吟娇喘视频免费播放| 国产免费av片在线观看播放 | 亚洲成av在线免费不卡| 国产自拍一区在线视频| 婷婷综合另类小说色区| 国产婷婷色一区二区三区在线 | 久久久精品久久波多野结衣av| 甲状腺囊实性结节三级| 一本色道亚州综合久久精品| 男女激情视频网站在线| 免费国产在线精品一区| 老妇肥熟凸凹丰满刺激| 国产男女插插一级| 久久这里只有精品黄色| 变态另类手机版av天堂看网| 妇女bbbb插插插视频| 欧美激情内射喷水高潮| 日本高清在线播放一区二区三区| 丰满人妻一区二区三区52| 免费人成视网站在线剧情| 国产一极内射視颍一| 99爱这里只有精品| 亚洲视频在线视频在线视频| 风韵人妻丰满熟妇老熟女视频| 国模吧无码一区二区三区| 久久精品久久精品中文字幕 | 亚洲精品99久91在线|