亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于密集連接任務(wù)對齊的小目標(biāo)檢測算法

        2024-04-23 04:34:46田春欣陳緒君鄭有凱
        計算機(jī)工程與設(shè)計 2024年4期
        關(guān)鍵詞:損失卷積預(yù)測

        田春欣,陳緒君,鄭有凱

        (華中師范大學(xué) 物理科學(xué)與技術(shù)學(xué)院,湖北 武漢 430079)

        0 引 言

        利用計算機(jī)平臺從高空拍攝的圖像或視頻中自動精準(zhǔn)地檢測出地面目標(biāo),已成為智慧城市管理平臺的一項(xiàng)關(guān)鍵技術(shù)[1]。然而,高空拍攝的地面物體目標(biāo)小分辨率低[2],可用特征和可視化的信息少,難以提取到具有鑒別力的特征。小目標(biāo)物體分布密集,導(dǎo)致其定位的邊界信息很難區(qū)分,漏檢誤檢現(xiàn)象嚴(yán)重。因此,如何提取到具有辨識度的特征,精準(zhǔn)定位目標(biāo)的邊界成為小目標(biāo)檢測的一項(xiàng)技術(shù)難點(diǎn)。

        近年來,國內(nèi)外學(xué)者對基于深度學(xué)習(xí)的小目標(biāo)算法展開研究:Zhang等在網(wǎng)絡(luò)中添加反卷積,提高了遙感圖像中小目標(biāo)的檢測精度,但該方法過于關(guān)注小目標(biāo)物體,對不同尺度的目標(biāo)檢測魯棒性差[3];Bharat Singh等通過采樣多個切片,再進(jìn)行縮放,達(dá)到提取不同尺度的特征圖做檢測,大大提高了小目標(biāo)物體的平均準(zhǔn)確率,但多尺寸訓(xùn)練使得訓(xùn)練時間大大增加,且當(dāng)圖片尺度較大時,對GPU要求增加[4]。Lin T-Y等提出一種新的損失函數(shù)FocalLoss[5],應(yīng)用于RetinaNet網(wǎng)絡(luò)中進(jìn)行檢測,解決目標(biāo)檢測中正負(fù)樣本不均衡問題,達(dá)到提高精度的目的。由于大量的錨框存在,模型計算速度相對較慢。Chengjian Feng等提出的TOOD[6](task-aligned one-stage object detection)算法拓寬了目標(biāo)檢測的新思路,提出了任務(wù)對齊頭的實(shí)現(xiàn)方案。作者發(fā)現(xiàn)目標(biāo)定位和分類兩個任務(wù)之間可以存在一定的聯(lián)系,通過對齊學(xué)習(xí)的方式拉近兩個任務(wù),互相補(bǔ)充,使預(yù)測結(jié)果更精確。

        針對上述問題,本文選擇對單階段算法TOOD進(jìn)行探索改進(jìn),為驗(yàn)證其有效性,在公開數(shù)據(jù)集VisDrone-DET對多個小目標(biāo)檢測算法進(jìn)行充分實(shí)驗(yàn),并與本文提出的算法進(jìn)行比較分析。

        1 TOOD算法概述

        1.1 TOOD算法框架

        TOOD算法與傳統(tǒng)的單階段目標(biāo)檢測算法一樣,采用主干-頸部-頭部預(yù)測的結(jié)構(gòu)。主干網(wǎng)絡(luò)結(jié)構(gòu)提取圖片的特征,頸部進(jìn)行特征融合加強(qiáng),最后將特征送入到頭部預(yù)測器進(jìn)行預(yù)測。如圖1所示,原始的TOOD算法使用ResNet50[7]作為主干網(wǎng)絡(luò),F(xiàn)PN[8](feature pyramid networks)作為特征融合模塊,頭部預(yù)測器采用并行的分支替代傳統(tǒng)的耦合頭,分別實(shí)現(xiàn)分類和定位任務(wù)。

        圖1 TOOD算法檢測流程

        1.2 任務(wù)對齊頭設(shè)計

        考慮到兩個并行的頭部分別對定位和分類任務(wù)預(yù)測,會出現(xiàn)不同程度的空間錯位的問題[6],TOOD設(shè)計了一種新的頭部預(yù)測器-任務(wù)對齊頭T-Head(task-aligned head),基于學(xué)習(xí)的方式顯式對齊兩個任務(wù)。通過設(shè)計樣本分配方案和任務(wù)對齊損失來統(tǒng)一兩個任務(wù)的最佳錨點(diǎn),可更好地平衡任務(wù)交互特征和各自任務(wù)特定的特征。

        T-Head是整個TOOD算法的核心,其結(jié)構(gòu)如圖2所示。首先T-Head對特征進(jìn)行預(yù)測,預(yù)測用于計算每個定位點(diǎn)的任務(wù)對齊因子,任務(wù)對齊學(xué)習(xí)TAL(task alignment learning)根據(jù)此對齊因子進(jìn)行學(xué)習(xí);最后,T-Head利用反向傳播從TAL計算的學(xué)習(xí)信號,自動調(diào)整分類概率和定位預(yù)測[6]。因此,最佳的對齊錨點(diǎn)可以通過概率圖得到更高的分類得分,并通過學(xué)習(xí)到的偏移獲得更準(zhǔn)確的邊界框預(yù)測。

        圖2 任務(wù)對齊頭

        為了增強(qiáng)定位和分類任務(wù)之間的交互作用,頭部預(yù)測器將FPN特征送入連續(xù)N個帶有激活函數(shù)的卷積層來學(xué)習(xí)交互特征,實(shí)驗(yàn)驗(yàn)證,當(dāng)N=6時,并行頭具有與傳統(tǒng)平行頭相似的參數(shù)[6]。獲得的這6個特征組具有不同尺度的感受野,即多尺度的特征,然后經(jīng)過兩個預(yù)測器,分別得到分類和定位預(yù)測。

        由于分類和定位任務(wù)有不同的關(guān)注目標(biāo),因此,在提取交互特征之后,預(yù)測器首先經(jīng)過一個層注意力模塊來計算每個特征組的權(quán)重,再相乘,拼接后做卷積運(yùn)算,動態(tài)計算這些特定任務(wù)的特征來促進(jìn)分類和定位任務(wù)的分解。該部分的設(shè)計如圖3所示。

        圖3 任務(wù)對齊預(yù)測器

        ω是由跨層任務(wù)交互特征計算而來,捕獲層與層之間的依賴關(guān)系。最后將提取到的分類/定位特征經(jīng)過3×3的卷積核,同時將原始的交互特征先經(jīng)過1×1的卷積、ReLU激活、3×3卷積,將兩者級聯(lián)得到最終的分類/定位得分。

        1.3 TOOD算法存在的問題

        雖然TOOD算法具有較好的檢測能力,但該算法以COCO數(shù)據(jù)集為基礎(chǔ),該數(shù)據(jù)集中3種不同大小的目標(biāo)數(shù)量分布較平均,而在實(shí)際高空拍攝的圖片中,小目標(biāo)占據(jù)絕大部分,因此,在小目標(biāo)檢測場景中,TOOD的檢測能力得以削弱。

        針對以上問題,本文特針對小目標(biāo)檢測對象,對TOOD算法進(jìn)行改進(jìn),提出基于CSPDarkNet的密集連接任務(wù)對齊(dense connection and task alignment)的小目標(biāo)檢測算法(DATNet),使該算法更適合小目標(biāo)檢測對象,提高小目標(biāo)物體的檢測精度。

        2 基于密集連接任務(wù)對齊的小目標(biāo)檢測網(wǎng)絡(luò)

        2.1 網(wǎng)絡(luò)結(jié)構(gòu)

        針對上述TOOD模型檢測小目標(biāo)的不足之處,本文分別從主干網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)和損失函數(shù)對TOOD算法進(jìn)行改進(jìn)。改進(jìn)后的網(wǎng)絡(luò)模型DATNet如圖4所示,是一種端到端的目標(biāo)檢測框架,主要包含CSPDarkNet特征提取網(wǎng)絡(luò)、多尺度特征融合網(wǎng)絡(luò)以及并行頭部檢測器。

        圖4 DATNet結(jié)構(gòu)

        2.2 引入CSPDarkNet特征提取網(wǎng)絡(luò)

        ResNet50作為模型的主干網(wǎng)絡(luò)提取圖像的特征,引入的殘差跳躍連接緩解了因網(wǎng)絡(luò)加深產(chǎn)生的梯度消失問題。但是該網(wǎng)絡(luò)實(shí)際起作用的網(wǎng)絡(luò)層數(shù)較少,大部分網(wǎng)絡(luò)層都在防止模型退化,誤差過大,訓(xùn)練時間長。為了讓模型學(xué)習(xí)到更多的特征,CSP[9]結(jié)構(gòu)在YOLOv4[10]模型中引入,與ResNet50相比,包含大量的卷積操作,增強(qiáng)了卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力。同時保留殘差思想,引入殘差塊結(jié)構(gòu)(ResBlock),分別進(jìn)行1×1和3×3的卷積,每次卷積之后進(jìn)入均值為0,方差為1的批歸一化處理BN(BatchNorm)層,再加入SiLU(sigmoid weighted liner unit)激活函數(shù)進(jìn)行非線性激活,提高神經(jīng)網(wǎng)絡(luò)對模型的表達(dá)能力。

        針對城市高空場景中小目標(biāo)數(shù)量多,尺度大小不統(tǒng)一等問題。本文在原有3個頭的設(shè)計基礎(chǔ)上新增一個小目標(biāo)檢測頭,由低層特征輸入,同時在不損失過多檢測精度的前提下,保留網(wǎng)絡(luò)的大目標(biāo)檢測頭,分別在主干網(wǎng)絡(luò)的Dark2、Dark3、Dark4,Dark_SPP這4個特征層進(jìn)行下一步網(wǎng)絡(luò)的構(gòu)建,主干網(wǎng)絡(luò)輸出的通道數(shù)分別為128、256、512、1024,同時兼顧大目標(biāo)和小目標(biāo),使模型具有更好的泛化性。Dark模塊和殘差塊的結(jié)構(gòu)如圖5所示。

        圖5 Dark結(jié)構(gòu)(左)殘差塊結(jié)構(gòu)(右)

        為擴(kuò)大感受野,在最后一個Dark模塊加入SPP[11]結(jié)構(gòu),將局部特征和全局特征進(jìn)行融合,豐富特征圖的表達(dá)能力。該結(jié)構(gòu)由不同大小核的池化層組成,池化層可以提取更高階的特征,加強(qiáng)圖像特征的不變性,增加圖像的魯棒性。SPP結(jié)構(gòu)如圖6所示,Dark4層輸出的特征先經(jīng)過1個卷積層調(diào)整通道數(shù)為512,然后分別用池化核大小為5、9、13的最大池化層進(jìn)行特征提取,提高網(wǎng)絡(luò)的感受野,池化前后的特征圖大小完全相同,再將原始輸入和3種池化結(jié)果在通道維度上堆疊,最后通過卷積融合通道信息,獲取同張圖片多個空間尺度的特征,從而提高檢測精度。

        圖6 SPP結(jié)構(gòu)

        2.3 特征融合模塊的改進(jìn)

        FPN結(jié)構(gòu)通過引入自上而下的路徑,將低分辨率、大感受野的特征圖和高分辨率、小感受野的特征圖僅堆疊合并,并沒有促進(jìn)信息的傳播。針對這個問題,本文在FPN結(jié)構(gòu)上添加上下文特征提取模塊(feature extraction mo-dule)CEM[12],對來自不同感受野捕獲的語義信息進(jìn)行信息交互,同時為減少冗余的上下文信息,引入了注意力模塊AM(attention module),捕獲有效的上下文相關(guān)性。

        如圖7所示,圖中F2~F5為CSPDarkNet網(wǎng)絡(luò)生成的特征圖,P2~P5為FPN網(wǎng)絡(luò)生成的特征圖。將網(wǎng)絡(luò)中的F5、F4、F3層的特征圖進(jìn)行2倍上采樣,再與對應(yīng)的低層特征圖進(jìn)行特征融合,得到合適的感受野,再送入到后續(xù)的網(wǎng)絡(luò)進(jìn)行檢測。本文中圖片的大小為1333×800,設(shè)定4個檢測尺度來檢測大、中、小不同尺寸的目標(biāo),分別為100×168、50×84、25×42、13×21,其中,100×168用于檢測小目標(biāo),如遠(yuǎn)處的行人、自行車等,50×84、25×42檢測中等目標(biāo),13×21檢測較大的目標(biāo)。通過設(shè)計不同尺度滿足不同大小的物體檢測,顯著提升模型的檢測性能。

        圖7 改進(jìn)后的FPN結(jié)構(gòu)

        2.3.1 CEM模塊

        對小目標(biāo)物體提取特征往往需要較大的感受野,空洞卷積在卷積核元素之間加入一些0元素來擴(kuò)大接收域,既減少了大卷積核帶來的計算量,又避免了較大的分辨率損失,卷積核的計算如式(1)所示

        k′=k+(k-1)(r-1)

        (1)

        其中,k為原始卷積核的大小,r為空洞卷積的擴(kuò)展系數(shù),當(dāng)r=1時為普通卷積核的計算公式,k′表示經(jīng)過卷積操作之后的卷積核大小。

        假設(shè)濾波尺寸分別為K1、K2、K3、K4、K5的卷積層,新的接收域計算公式如下

        K=K1+K2+K3+K4+K5-3

        (2)

        本文中設(shè)計5個空洞卷積進(jìn)行密集連接,卷積核的大小為3,擴(kuò)展速率分別為3、6、12、18、24的卷積層構(gòu)成特征金字塔,由公式可得,最終的接收域?yàn)?28,接近特征圖的大小。大擴(kuò)張率的卷積層的像素采樣率稀疏,膨脹率逐層增加。

        CEM模塊的結(jié)構(gòu)如圖8所示,它對來自F5的特征圖通過對5種不同擴(kuò)張速率的空洞卷積進(jìn)行密集連接的方式進(jìn)行特征加強(qiáng)。

        圖8 CEM的結(jié)構(gòu)

        5個具有不同擴(kuò)張速率的空洞卷積由5個DenseBlock組成,每個DenseBlock由BN+ReLU+3×3 Conv的復(fù)合結(jié)構(gòu)實(shí)現(xiàn)。每個層的特征圖大小相同,在通道維度連接在一起。

        密集卷積網(wǎng)絡(luò)以前饋的方式將每一層與每一層連接起來[13],這種連接方式加入到FPN中有利于加強(qiáng)特征傳播,且每一層都可以直接從損失函數(shù)和原始輸入信號得到梯度,從而得到一個隱式的深度監(jiān)督[14],有助于緩解梯度消失的問題,訓(xùn)練更深入的網(wǎng)絡(luò)結(jié)構(gòu)。密集連接確保了網(wǎng)絡(luò)中各層之間信息流動最大化,該網(wǎng)絡(luò)不需要重新學(xué)習(xí)冗余的特征映射,通過特征重用來挖掘網(wǎng)絡(luò)的潛力,避免了通過加深網(wǎng)絡(luò)深度來挖掘特征提取能力。

        因此,通過密集連接,上層的卷積可以利用下層的特征,使像素采樣更密集。該網(wǎng)絡(luò)通過融合多路不同感受野的特征,既增大物體的感受野,又充分利用特征圖的上下文信息,得到更好的檢測能力。

        2.3.2 注意力模塊

        由于CEM提取到的上下文信息可能存在冗余信息,本文在CEM后加入注意力模塊減少對冗余上下文的誤導(dǎo),進(jìn)一步增強(qiáng)特征的判別能力。

        注意力機(jī)制需要生成巨大的注意力圖來計算每個像素之間的關(guān)系,時間和空間復(fù)雜度較大,因此,本文采用十字交叉注意力[15](criss-cross attention)模塊來捕獲有效的上下文信息。該注意力模塊結(jié)構(gòu)如圖9所示。

        圖9 十字交叉注意力模塊

        首先對經(jīng)過CEM的F5′特征,分析進(jìn)行3個1×1的卷積層,生成Q、K、V這3個特征圖,其中,Q和K的作用是為了獲取當(dāng)前像素與該像素下橫向和縱向的像素點(diǎn)之間的相關(guān)性,然后,將相關(guān)矩陣和V整合并加上H特征,得到含有豐富語義特征的H′, 上下文信息添加到局部特征H中以增強(qiáng)局部特征并增強(qiáng)。

        因此,十字交叉注意力模塊具有廣闊的上下文視圖,并根據(jù)空間注意力圖選擇性地聚合上下文。

        2.4 損失函數(shù)的改進(jìn)

        TOOD算法的損失包含分類損失和回歸損失,分別對目標(biāo)框的分類類別和坐標(biāo)進(jìn)行衡量,計算方法如式(3)~式(5)所示

        (3)

        (4)

        Loss=Lreg+Lcls

        (5)

        其中,i表示正樣本的第i個錨點(diǎn),j表示負(fù)樣本的第j個錨點(diǎn),γ是聚焦參數(shù),bi和b′i分別表示預(yù)測框和真實(shí)框,t表示正錨點(diǎn)的二進(jìn)制標(biāo)簽。TOOD算法分類損失使用質(zhì)量焦損失(quality focal loss,QFL),在分類分支引入了邊界框預(yù)測質(zhì)量值作為樣本分類的標(biāo)簽,鼓勵學(xué)習(xí)更好的分類和定位質(zhì)量的聯(lián)合表示。

        在檢測框回歸過程中,原始的TOOD算法使用GIoU損失函數(shù),通過加入懲罰項(xiàng)緩和IoU損失在預(yù)測框與目標(biāo)框不重疊的問題(此時IoU損失無梯度)。當(dāng)預(yù)測框和目標(biāo)框不重疊時,GIoU損失先傾向于增加預(yù)測框的大小以使得預(yù)測框和目標(biāo)框重疊,優(yōu)化路徑不是最優(yōu),導(dǎo)致收斂速度慢,并且當(dāng)預(yù)測框和目標(biāo)框有包含關(guān)系時,懲罰項(xiàng)變?yōu)?,GIoU損失完全退化為IoU損失,導(dǎo)致同一個IoU損失出現(xiàn)多個位置的預(yù)測框問題,無法進(jìn)一步區(qū)分,使邊界框定位變得不準(zhǔn)確。

        本文使用DIoU[16]作為回歸損失,通過加入懲罰項(xiàng)使得預(yù)測框移到和目標(biāo)框重疊的位置,優(yōu)化了路徑,DIoU損失的計算如式(6)所示

        (6)

        b和bgt是預(yù)測框和目標(biāo)框的中心點(diǎn),ρ是計算兩個框中心點(diǎn)之間的歐氏距離,c是包含預(yù)測框和目標(biāo)框的最小矩形框的對角線長度。當(dāng)目標(biāo)框和檢測框不重疊時,可以直接最小化兩個框的距離,使得預(yù)測的結(jié)果更合理有效。鑒于收斂速度和預(yù)測的準(zhǔn)確性,本文采用DIoU損失替換原TOOD算法的GIoU損失,解決了預(yù)測框和目標(biāo)框不重疊時的優(yōu)化的問題,進(jìn)一步加快網(wǎng)絡(luò)的收斂速度。

        3 實(shí)驗(yàn)結(jié)果與分析

        本節(jié)對基于密集連接注意力引導(dǎo)的任務(wù)對齊小目標(biāo)檢測方案進(jìn)行了實(shí)驗(yàn)驗(yàn)證。仿真結(jié)果表明,該算法提取特征能力強(qiáng),關(guān)注小目標(biāo)位置信息精準(zhǔn),提高了小目標(biāo)的檢測精度。本文所有實(shí)驗(yàn)均在安裝有CUDA10.1的Linux開發(fā)環(huán)境,Pytorch1.8版本,Tesla V100,顯存為32 GB的GPU服務(wù)器上仿真實(shí)現(xiàn)。

        本文的訓(xùn)練參數(shù)如下:圖像尺寸為1333×800,訓(xùn)練過程使用隨機(jī)梯度下降法(SGD)來學(xué)習(xí)和更新網(wǎng)絡(luò)參數(shù),其動量和權(quán)重衰減分別為0.9和0.0001;初始學(xué)習(xí)率設(shè)置為0.005,在第8~11輪降低學(xué)習(xí)率,批大小為4,共訓(xùn)練24輪;主干網(wǎng)絡(luò)加載CSPDarkNet-L預(yù)訓(xùn)練權(quán)重;置信度閾值設(shè)置為0.6,使用soft-nms[17]剔除重疊的檢測框。

        3.1 數(shù)據(jù)集

        為了驗(yàn)證算法的可行性和準(zhǔn)確性,該實(shí)驗(yàn)使用的數(shù)據(jù)集是VisDrone2019[18]。該數(shù)據(jù)集由天津大學(xué)機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘?qū)嶒?yàn)室通過各種無人機(jī)攝像頭捕獲收集而來,包括288個視頻片段,由261 908幀和10 209幅靜態(tài)圖像組成,其中6471張圖片用于訓(xùn)練,驗(yàn)證集和測試集為548張,覆蓋范圍包括14個不同的城市,多個稀疏和擁擠的場景,主要由行人、車輛組成。該數(shù)據(jù)集定義了10個類別,分別是行人、人、自行車、汽車、面包車、卡車、三輪車、遮陽三輪車、巴士、摩托車。

        3.2 實(shí)驗(yàn)結(jié)果

        3.2.1 傳統(tǒng)的小目標(biāo)檢測模型

        目前,常見的小目標(biāo)檢測模型有VFNet、YOLOv5、YOLOv7、YOLOX等。通常情況下,模型越復(fù)雜,計算量較大,得到的檢測精度會較高。因此,本文選用幾種經(jīng)典的深度較深的網(wǎng)絡(luò)進(jìn)行小目標(biāo)檢測實(shí)驗(yàn),分別選取平均準(zhǔn)確率(mAP50)、召回率、參數(shù)量、Flops作為評價指標(biāo)。其中mAP50可評估模型在每一類別的好壞,召回率可評估模型是否有漏檢,參數(shù)量和計算量是衡量深度學(xué)習(xí)算法的重要指標(biāo),分別對應(yīng)算法的空間和時間復(fù)雜度。

        如圖10所示,原TOOD網(wǎng)絡(luò)存在明顯漏檢的現(xiàn)象,在其它經(jīng)典的小目標(biāo)檢測網(wǎng)絡(luò)中,均存在遠(yuǎn)處密集的三輪車、行人目標(biāo)漏檢的問題,且兩人乘坐摩托車只能檢測出人等現(xiàn)象。而本文提出的DATNet 在實(shí)際檢測中性能有較大提升,緩解了密集小目標(biāo)的漏檢、誤檢等情況,且分類的置信度高,檢測效果更好。

        圖10 不同算法可視化結(jié)果

        為了驗(yàn)證TOOD算法的有效性,設(shè)計了5組對比實(shí)驗(yàn),分別對YOLO系列、VFNet、TOOD模型進(jìn)行實(shí)驗(yàn)和結(jié)果分析,均已加載對應(yīng)的預(yù)訓(xùn)練權(quán)重進(jìn)行訓(xùn)練。由表1可以看出YOLO系列檢測器檢測小目標(biāo)的精度較高,但是參數(shù)量較大,TOOD較非YOLO系列的VFNet在精度上提高5.2%,且參數(shù)量減小0.89 M。值得注意的是,2022年7月提出的YOLOv7[19]算法檢測速度快,精度也相較之前的YOLO系列有一定程度的提升,而TOOD算法檢測小目標(biāo)相較于YOLOv7在精度上提升2.4%,參數(shù)量減少了5.31 M。

        表1 傳統(tǒng)小目標(biāo)檢測模型

        3.2.2 不同改進(jìn)方法的消融實(shí)驗(yàn)

        為進(jìn)一步驗(yàn)證本文改進(jìn)算法的科學(xué)性和有效性,實(shí)驗(yàn)以TOOD(ResNet50-FPN-THead)作為基準(zhǔn)實(shí)驗(yàn),每組實(shí)驗(yàn)僅改變一個變量,分別驗(yàn)證CSPDarkNet的特征提取能力、密集連接注意力引導(dǎo)模塊以及兩方法組合改進(jìn)的有效性。這些方法相對TOOD算法在平均準(zhǔn)確率、召回率等方面的提升效果見表2。

        表2 消融實(shí)驗(yàn)

        由表可得:在基準(zhǔn)模型TOOD上,CSPDarkNet提取特征的能力比ResNet50強(qiáng),且計算量減小2.57 M,相較于YOLOv7、TOOD模型精度分別提高了4.1%和1.7%。在此基礎(chǔ)上,在FPN加入CEM后檢測結(jié)果幾乎沒有提升,經(jīng)分析,密集連接提高感受野的同時,伴隨著增加了冗余的上下文信息,因此,本文使用十字交叉注意力模塊對增強(qiáng)的感受野區(qū)域進(jìn)行注意力引導(dǎo),加入之后提升0.6%,而參數(shù)量幾乎沒有增加,這是因?yàn)槭纸徊孀⒁饬δK只需要計算每個像素點(diǎn)所在的行和列中的像素點(diǎn)之間的關(guān)系,大大減小了計算的時間和空間復(fù)雜度。可見,DATNet模型在檢測精度上有較為顯著的優(yōu)勢,可以解決實(shí)際高空環(huán)境下部分漏檢、誤檢的問題。

        4 結(jié)束語

        本文提出的基于密集連接任務(wù)對齊的小目標(biāo)檢測算法,采用CSPDarkNet-L作為主干網(wǎng)絡(luò)提取特征,空洞卷積大大增加了圖像的感受野,通過密集連接的方式挖掘特征提取的能力,最后通過soft-nms去除密集目標(biāo)漏檢的問題,并結(jié)合數(shù)據(jù)增強(qiáng)策略及相關(guān)的優(yōu)化方法得到一個性能較好的模型,提高了小目標(biāo)的檢測效率,為高空檢測場景提供技術(shù)支持。

        經(jīng)上述改進(jìn)之后,DATNet 檢測性能整體得到提升,但是本文只在VisDrone2019數(shù)據(jù)集上驗(yàn)證,后續(xù)工作需要驗(yàn)證其它小目標(biāo)數(shù)據(jù)集上是否能取得較好的效果,提高該算法的普適性。

        猜你喜歡
        損失卷積預(yù)測
        無可預(yù)測
        黃河之聲(2022年10期)2022-09-27 13:59:46
        選修2-2期中考試預(yù)測卷(A卷)
        選修2-2期中考試預(yù)測卷(B卷)
        少問一句,損失千金
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實(shí)現(xiàn)
        胖胖損失了多少元
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        不必預(yù)測未來,只需把握現(xiàn)在
        米奇777四色精品人人爽| 久久精品国产成人午夜福利| 精品国产亚洲第一区二区三区| 风韵犹存丰满熟妇大屁股啪啪| 亚洲av无码国产精品色| 国产欧美性成人精品午夜| 国产男女猛烈无遮挡免费网站 | 在线精品一区二区三区| 3d动漫精品啪啪一区二区下载| 亚洲人成影院在线无码观看| 人妻少妇久久中文字幕一区二区| 亚洲va中文字幕无码久久不卡| 国产一级农村无码| 日韩av二区三区一区| 99热久久只有这里是精品| 亚洲香蕉久久一区二区| 中文字幕综合一区二区三区| 精品亚洲一区二区三区四| 2021久久精品国产99国产精品 | 免费一区二区三区av| 精品私密av一区二区三区| 国产激情久久久久影院小草| 性激烈的欧美三级视频| 国产精品6| 成年视频网站在线观看777| 成人激情视频一区二区三区 | 欧美日本国产亚洲网站免费一区二区 | 精品久久久久久777米琪桃花| 夜夜综合网| AV无码专区亚洲AVL在线观看| 操国产丝袜露脸在线播放| 精品人妻久久一区二区三区| 亚洲精品久久久久久久蜜桃| 国产精品国产三级国av| 久久久国产精品免费无卡顿| 成人黄网站免费永久在线观看| 男女视频网站在线观看| 亚洲综合色婷婷七月丁香| 波多野结衣一区二区三区高清| 日韩欧美精品有码在线观看| 中文字幕熟女激情50路|