亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進YOLOv5的船舶檢測算法及嵌入式實現(xiàn)

        2022-12-30 04:01:14王文杰何小海卿粼波董子銘熊淑華
        無線電工程 2022年12期
        關(guān)鍵詞:嵌入式準確率卷積

        王文杰,何小海,卿粼波,董子銘,熊淑華

        (四川大學 電子信息學院,四川 成都 610041)

        0 引言

        近年來,我國航海事業(yè)有了巨大發(fā)展,船舶技術(shù)突飛猛進,計算機科學和雷達無線電技術(shù)的應用,使得航行逐漸實現(xiàn)智能化、導航定位電子化、碰撞自動化等,我國正努力成為世界航海強國。為降低船舶在海上航行的風險性,維護航行人員的生命安全,對船舶目標檢測[1]有著廣泛的應用前景。在軍事領(lǐng)域,對特定目標進行位置檢測,有助于戰(zhàn)略部署,加強海防預警能力;在民用鄰域,對非法捕魚船舶和偷渡越界情況進行檢測,有利于海運的監(jiān)測與管理。然而在實際應用中,受海面諸如光照變化、海浪風暴和極端天氣等復雜環(huán)境因素的影響,使得船舶目標的高準確率、實時檢測成為領(lǐng)域內(nèi)難點之一。

        傳統(tǒng)的目標檢測算法利用滑動窗口[2]的思想,獲取候選區(qū)域的HOG特征[3]和SIFT特征[4],利用支持向量機(Support Vector Machine,SVM)[5]進行識別,主要應用于背景簡單、待測目標特征明顯的場景。由于一些紅外船舶圖像背景區(qū)分度低,而且目標類型復雜多變,很難通過一般的抽象特征完成對船舶的檢測。隨著深度學習技術(shù)的不斷推進,船舶目標檢測也逐漸轉(zhuǎn)向了基于深度神經(jīng)網(wǎng)絡的檢測,在圖像和視頻中的檢測精度和實時性也越來越高。

        基于深度學習的目標檢測算法根據(jù)是否采用多階段處理,將其分為Two-Stage的目標檢測算法和One-Stage的目標檢測算法。Two-Stage算法典型代表有R-CNN[6],F(xiàn)aster-RCNN[7]等,需要利用算法提前生成一些候選框,然后經(jīng)過CNN[8]進行目標分類;One-Stage算法典型代表有SSD[9],CenterNet[10],RetinaNet[11],EfficientDet[12]和YOLO[13]等,利用處理回歸問題的方法來有效解決目標邊框定位的問題,因此不需要事先產(chǎn)生候選框。基于深度學習的船舶目標檢測算法由CNN實現(xiàn)自動特征提取,然后用神經(jīng)網(wǎng)絡實現(xiàn)分類和回歸,并將分類和回歸損失統(tǒng)一在一個框架中。劉暢等[14]采用GA-RPN結(jié)構(gòu)提取的圖像特征來指導錨框的生成,解決了CNN檢測算法中使用先驗知識人為預設錨框的弊端。王燕妮等[15]將ShuffleNetV2引入到主干特征提取網(wǎng)絡,有利于減少計算資源和壓縮模型。李忠智等[16]采用UNet++網(wǎng)絡進行目標檢測,以多邊輸出融合(Multiple Side-Output Fusion,MSOF)策略算法為基礎,在傳統(tǒng)目標檢測模型中加入特征融合層形成多尺度檢測模型。于野等[17]在FPN的基礎上,提出了基于多維感受野的CNN模型A-FPN,對目標特征進行顯著性特征融合,提高了模型的分辨能力。趙玉蓉等[18]提出了一種基于YOLOv4的YOLO-Marine模型,通過K-Means++聚類得到初始anchor,使得船舶目標的定位更加精準。

        雖然深度學習技術(shù)的應用使得目標檢測的效率和精確度都得到了較大提升,但仍面臨實現(xiàn)輕量化檢測模型、部署到移動嵌入式AI平臺等關(guān)鍵技術(shù)的挑戰(zhàn)。Two-Stage算法精度高,但檢測速度慢、訓練時間長,且需要依靠強大的GPU算力;One-Stage算法準確度低于Two-Stage算法,但推理速度快、資源消耗少,更適合應用于嵌入式平臺。其中YOLOv5作為One-Stage算法典型的代表網(wǎng)絡,不僅在速度上優(yōu)勢明顯,而且模型體積小,同時維持較高的識別精度。

        本文基于YOLOv5,采用GhostNet[19]網(wǎng)絡結(jié)構(gòu)減少冗余卷積層,改善backbone層卷積結(jié)構(gòu);引入SENet加強特征感知,優(yōu)化網(wǎng)絡對目標物特征提取的能力,實現(xiàn)更加精準的識別;最后將改進算法部署到嵌入式 AI平臺 NVIDIA Jetson TX2實現(xiàn)實時檢測。實驗結(jié)果表明,改進算法具有魯棒性強、識別精度高和輕量易移植的特點。

        1 YOLOv5網(wǎng)絡結(jié)構(gòu)與檢測原理

        YOLOv5作為主流的目標檢測算法,結(jié)合了很多計算機視覺相關(guān)技術(shù),其網(wǎng)絡結(jié)構(gòu)如圖1所示,主要由輸入端、backbone、neck和head四部分組成。

        圖1 YOLOv5網(wǎng)絡結(jié)構(gòu)Fig.1 YOLOv5 network structure

        對于輸入端,為了豐富數(shù)據(jù)集,提升網(wǎng)絡的泛化能力和魯棒性,提出Mosaic圖像增強,隨機使用4張圖片進行尺度縮放、色彩空間調(diào)整,然后對增強后的數(shù)據(jù)集進行拼接操作。backbone層采用了Focus結(jié)構(gòu),將特征切片成4份,然后在通道維度進行向量拼接操作,實現(xiàn)特征融合。此外引入帶有殘差結(jié)構(gòu)的 CSP1_X模塊,使得層和層之間進行反向傳播時梯度值得到增強,有效防止網(wǎng)絡加深時所引起的梯度消失。neck層采用FPN+PAN結(jié)構(gòu),對整個金字塔特征圖進行增強,PAN基于 Mask R-CNN[20]和 FPN框架,該網(wǎng)絡的特征提取器采用一種新的增強自下向上路徑的 FPN 結(jié)構(gòu),將下層的顯著性特征信息傳遞到上層,保留更豐富的特征信息。head層對目標的特征進行預測,在目標特征圖上應用錨框生成帶有類別概率和目標框的最終輸出向量。

        盡管YOLOv5有著快速識別和自適應錨框等優(yōu)點,但是其目標特征提取能力不足,特征融合網(wǎng)絡僅僅關(guān)注高級語義信息,并且網(wǎng)絡層間消耗過多的卷積層帶來復雜的計算。因此,本文提出改進方法,加強特征感知和減少網(wǎng)絡參數(shù),以滿足紅外船舶這類特征較弱的目標在嵌入式平臺的檢測需求。

        2 改進型YOLOv5船舶目標檢測算法

        2.1 YOLOv5-GhostNet

        YOLOv5的backbone層使用卷積提取目標特征信息,通過特征圖可視化發(fā)現(xiàn)存在相似特征圖,這些冗余的特征圖增加了卷積計算量和資源消耗。經(jīng)典的輕量化網(wǎng)絡MobileNet和ShuffleNet通過采用深度可分離卷積來代替?zhèn)鹘y(tǒng)的卷積,同時引入通道混洗操作減少計算量,但沒有從根本上解決目標特征冗余的問題。

        本文提出在YOLOv5的backbone層引入GhostNet模塊,該模塊的思想在于將原始的卷積層分成兩部分,首先使用更少的卷積核來生成少量內(nèi)在特征圖,然后引入資源消耗更少的線性操作來高效地生成Ghost特征圖,實現(xiàn)對目標特征圖的擴充,在維持卷積的輸出特征圖尺寸和通道大小與原網(wǎng)絡一致情況下,使整體計算量和參數(shù)數(shù)量大幅度降低,方便部署至嵌入式平臺,同時識別效果比輕量化網(wǎng)絡MobileNet和ShuffleNet更好。

        因此,為使算法輕量易部署,本文在YOLOv5基礎上借鑒GhostNet模塊的思想,將YOLOv5中的傳統(tǒng)卷積操作(如圖2所示)替換為GhostConv結(jié)構(gòu)(如圖3所示),同時將C3模塊改為GhostBottleneck結(jié)構(gòu),所提出的YOLOv5-GhostNet網(wǎng)絡模型結(jié)構(gòu)如圖4所示。

        圖2 傳統(tǒng)卷積提取船舶特征Fig.2 Ship features extracted by traditional convolution

        圖3 Ghost模塊提取船舶目標特征Fig.3 Ship target features extracted by Ghost module

        圖4 YOLOv5-GhostNet網(wǎng)絡結(jié)構(gòu)Fig.4 YOLOv5-GhostNet network structure

        2.2 SENet注意力機制

        卷積操作可以融合空間和通道的特征,大多數(shù)的研究主要針對空間特征進行提取,為了強化YOLOv5網(wǎng)絡對船舶這類小目標的特征感知,需要關(guān)注通道關(guān)系。SENet注意力機制可以提取出待測圖像中更加關(guān)鍵的特征信息,自適應地校正通道特征,引導模型對待測圖像重點區(qū)域賦予更高的權(quán)值,使得模型判斷分類更加準確。所以,本文在 YOLOv5 的特征提取網(wǎng)絡層backbone中的spp操作后面添加SENet模塊,其結(jié)構(gòu)如圖5所示。

        圖5 SENet注意力機制結(jié)構(gòu)Fig.5 Structure of SENet attention mechanism

        SENet注意力機制將Squeeze操作作用于卷積獲取到的目標特征圖,在保持通道數(shù)目C不改變的情況下,將輸入特征圖的大小從(H,W)壓縮至(1,1),然后利用全局池化將一個通道上整體空間特征編碼為一個全局特征,其公式為:

        (1)

        在此基礎上,對整體特征信息應用Excitation方法,強化學習各個通道間的聯(lián)系,獲取不同通道的權(quán)重。

        s=Fex(z,W)=δ(g(z,W))=δ(W2ReLU(W1Z))。

        (2)

        Scale操作則是將多個不同通道的權(quán)重和原始特征圖做乘積,生成全局最終目標特征。

        通過可視化YOLOv5算法各個模塊獲取的特征圖,將普通卷積(如圖6所示)和本文提出的SENet模塊進行效果對比,結(jié)論表明,嵌入了SENet注意力機制的SENetC3模塊(如圖7所示),對于船舶目標的特征感知能力優(yōu)于普通卷積,船舶目標細節(jié)信息能夠被顯著增強,背景噪聲被明顯抑制,有利于神經(jīng)網(wǎng)絡捕獲到感興趣區(qū)域,學習到目標的關(guān)鍵信息。

        圖6 普通卷積提取船舶特征圖Fig.6 Ship features extracted by ordinary convolution

        圖7 SENetC3提取船舶特征圖Fig.7 Ship feature extracted by SENetC3

        2.3 激活函數(shù)改進

        為提高神經(jīng)網(wǎng)絡的學習能力和提升梯度的傳遞效率,激活函數(shù)將非線性因素引入到神經(jīng)元,因此神經(jīng)網(wǎng)絡可以采取合適的方式逼近非線性函數(shù),這樣就能夠?qū)⒓せ詈蟮纳窠?jīng)網(wǎng)絡應用到眾多的非線性模型中,在YOLOv5目標檢測算法中,采用的激活函數(shù)為Swish函數(shù):

        f(x)=x×Sigmoid(βx)。

        (3)

        由于Swish激活函數(shù)存在計算量大的缺點,且不穩(wěn)定,在不同的任務中產(chǎn)生不同的效果,因此本文在YOLOv5的主干網(wǎng)絡中采取Mish激活函數(shù)。Mish激活函數(shù)是一種自正則的非單調(diào)神經(jīng)激活函數(shù),相比Swish,其平滑的特性允許更有效的特性信息流入神經(jīng)網(wǎng)絡(如圖8所示),非飽和特性消除了梯度爆炸的極端情況,從而提升網(wǎng)絡的泛化能力,得到更好的準確性。其公式為:

        f(x)=x×tanh(ln(1+ex))。

        (4)

        圖8 Swish和Mish激活函數(shù)梯度曲線Fig.8 Swish and Mish activation function gradient curve

        3 實驗結(jié)果與分析

        3.1 實驗數(shù)據(jù)集

        實驗數(shù)據(jù)集采用山東大學制作的遠海船舶目標檢測數(shù)據(jù)集,對艦船圖像進行圖像配準、加權(quán)融合,以及多種數(shù)據(jù)增強處理,包含旋轉(zhuǎn)、翻轉(zhuǎn)、放縮、添加噪聲等,得到短波紅外(Short Wavelength Infra-Red,SWIR)圖像,其采集設備為氧化釩非制冷紅外焦平面探測器,像元間距為14 μm,響應波段為8~14 μm,使用焦距為50 mm的定焦鏡頭;長波紅外(Long Wavelength Infra-Red,LWIR)圖像,其采集設備為銦鎵砷非制冷紅外焦平面探測器,像元間距為30 μm,響應波段為0.9~1.7 μm,使用焦距為16~160 mm的變焦鏡頭以及2個波段的融合圖像(Fusion),即多光譜圖像,總共1 044×3張圖像。其中SWIR圖片畫面偏暗,船艦目標和海面背景對比度低,船體特征不明顯;LWIR圖片畫面明亮,船艦輪廓與海面區(qū)分性弱;Fusion圖片融合了SWIR和LWIR的2個波段,光譜信息更為豐富,使得數(shù)據(jù)集更為泛化,豐富了各種船艦的形態(tài),3類船艦圖片樣例如圖9所示。

        (a) SWIR

        (b) LWIR

        (c) Fusion圖9 紅外船舶目標Fig.9 Infrared ship target

        實驗選取SWIR,LWIR和Fusion各800張,包含多個波段信息,總計2 400張紅外船舶圖像用于訓練,600張用于訓練網(wǎng)絡時驗證模型的正確性。在訓練階段,為了增強網(wǎng)絡模型的魯棒性和泛化能力,對2 400張訓練數(shù)據(jù)集進行了Mosaic數(shù)據(jù)增強,即隨機選擇4張圖片拼接融合,使得提取船舶目標更加豐富,如圖10所示。

        圖10 訓練數(shù)據(jù)集Mosaic增強Fig.10 Training dataset Mosaic enhancement

        3.2 實驗環(huán)境及訓練參數(shù)

        本文提出的紅外船舶目標檢測方法實驗環(huán)境為Ubuntu 18.04操作系統(tǒng),采取了雙路NVIDIA RTX2080ti顯卡提供算力,CPU為Intel(R) Core(TM) i7-9700,在PyTorch 1.9.0,cuda10.2下選擇GPU模式完成模型的搭建和網(wǎng)絡訓練,訓練參數(shù)如表1所示。

        表1 實驗參數(shù)設置Tab.1 Experiment parameter setting

        3.3 模型評價指標

        在檢驗算法效果時,本文采用平均準確率(mAP)、模型大小(Model Size)、參數(shù)量(Parameters)作為衡量算法性能的指標。AP是指檢測準確率,其值為P-R曲線與坐標軸圍成的區(qū)域面積。

        mAP是衡量網(wǎng)絡模型在各個類別上的精度的指標,其公式為所有類別的AP求平均:

        (5)

        式中,N為數(shù)據(jù)集中目標物類別數(shù),由于紅外船舶檢測中N=1,因此mAP=AP。mAP@0.5定義為當IOU閾值取0.5,所有類別的AP@0.5求平均值,mAP@0.5衡量模型精確率隨召回率變化趨勢。mAP@0.5∶0.95定義為將mAP的IOU閾值從0.5以0.05的步長增至0.95,并取所有mAP的均值,mAP@0.5∶0.95衡量模型在不同IOU閾值下的綜合表現(xiàn),其值越高意味模型高精度邊界回歸能力越強,檢測框與標定框擬合越精準。

        3.4 改進方法效果對比

        為了探究改進方法對模型泛化能力的影響,針對本文提出的幾種改進方法,對YOLOv5算法進行結(jié)構(gòu)改進和參數(shù)優(yōu)化調(diào)整,以多波段船舶數(shù)據(jù)集為例,通過實驗對比其效果如表2所示。

        表2 改進方法實驗結(jié)果Tab.2 Experiment results of improved method

        由表2可知,引入GhostNet模塊對網(wǎng)絡進行輕量化可以有效減少計算參數(shù),使得模型大小降至9.5 MB;在GhostNet模塊的基礎上結(jié)合Mish激活函數(shù),使得mAP@0.5∶0.95提升2.9%,證明Mish激活函數(shù)可以提升識別準確率;將注意力機制SENet和Mish激活函數(shù)相結(jié)合,加強對船舶目標特征的感知,有助于將卷積計算得到的淺層特征圖抽取為深層特征圖,學習通道間的相關(guān)性,將mAP@0.5提升至99.9%,但SENet模塊使計算參數(shù)略微增加;在YOLOv5中同時引入了GhostNet模塊、SENet機制和采取Mish激活函數(shù),mAP@0.5和mAP@0.5∶0.95分別達到99.9%和97.2%,同時大幅度降低計算參數(shù),模型大小僅為10.7 MB,使得網(wǎng)絡輕量化易部署。

        綜合實驗結(jié)果,本文確定最終改進方案為引入GhostNet模塊,SENet注意力機制和采取Mish激活函數(shù)。經(jīng)過300 epochs迭代訓練,在識別準確率、模型參數(shù)量等指標均優(yōu)于YOLOv5算法,如圖11所示,平均準確率mAP@0.5和mAP@0.5∶0.95相較YOLOv5分別提高0.4%和3.5%,同時模型參數(shù)量減少27%。

        (a) 平均準確率mAP@0.5

        (b) 平均準確率mAP@0.5∶0.95圖11 算法改進前后平均檢測精度對比Fig.11 Comparison of average detection accuracy before and after algorithm improvement

        3.5 多種目標檢測算法性能對比

        為驗證本文提出的方案效果顯著,在紅外船舶數(shù)據(jù)集中測試了目前的多種主流目標檢測算法,包括SSD,RetinaNet,EfficientDet,CenterNet,YOLOv3-Tiny和YOLOX。

        表3 多種檢測模型結(jié)果對比Tab.3 Comparison of results of various detection models

        實驗結(jié)果以平均檢測精度mAP@0.5和mAP@0.5∶0.95,以及網(wǎng)絡模型大小為評價指標,改進算法mAP較YOLOv5提高3.5%,模型參數(shù)計算量減少27%,且評價指標相比SSD,Retinanet,Efficientdet,Centernet,YOLOv3-Tiny和YOLOX算法具有明顯優(yōu)勢,證明本文方法不僅識別準確率優(yōu)于領(lǐng)域內(nèi)主流算法,且對網(wǎng)絡剪枝輕量化后,計算參數(shù)量大幅下降,模型大小僅為10.7 MB,有助于網(wǎng)絡模型的嵌入式平臺推理部署。

        4 嵌入式平臺算法部署

        嵌入式設備在功耗、體積、成本上與高端服務器相比都具有巨大的優(yōu)勢,為加快算法的落地應用,實現(xiàn)紅外船舶目標檢測的輕量化部署,選取NVIDIA Jetson TX2作為目標檢測算法的嵌入式終端,配置opencv,cudnn和TensorRT8.1等加速環(huán)境,將改進算法部署至平臺,其檢測效果對比如圖12所示。YOLOv5算法對于3種類型的船舶圖片均存在漏檢情況,表明神經(jīng)網(wǎng)絡訓練模型的泛化能力不足,面對船體特征細微的場景時,算法的魯棒性較弱。

        (a) YOLOv5 Fusion樣例檢測

        (b) YOLOv5 LWIR樣例檢測

        (c) YOLOv5 SWIR樣例檢測

        (d) 改進YOLOv5 Fusion樣例檢測

        (e) 改進YOLOv5 LWIR樣例檢測

        (f) 改進YOLOv5 SWIR樣例檢測圖12 改進YOLOv5算法前后船舶目標檢測效果對比Fig.12 Comparison of ship target detection effect before and after improved YOLOv5 algorithm

        本文改進方法Improved-YOLOv5,由于融入了注意力機制加強對目標特征的提取,采取更平滑的激活函數(shù)使得特征信息在網(wǎng)絡間更深入的傳遞,對于多個波段的測試樣例的所有船舶目標均無漏檢和錯檢等情況,且檢測置信度高,識別準確率mAP高達97.2%,檢測幀率達到22幀/秒,證明所提方法具備高準確率和魯棒性良好性能,滿足嵌入式平臺實時檢測需求。

        5 結(jié)束語

        本文針對船舶航海安全的應用背景,為解決嵌入式平臺資源受限條件下船舶目標檢測存在的實時性差和識別效果不理想的問題,提出了一種基于改進YOLOv5的船舶目標識別方法。該方法以YOLOv5為基礎,對整體卷積結(jié)構(gòu)進行剪枝,實現(xiàn)算法的輕量化設計,此外通過增加SENet注意力機制,有效加強對特征微弱的船舶目標的感知。最后,將模型部署在嵌入式平臺。實驗結(jié)果表明,本文所提方法對于紅外船舶圖像具有很好的識別效果,識別準確率mAP@0.5高達99.9%,mAP@0.5∶0.75高達97.2%,且模型推理檢測速度達到22幀/秒。本文方法在識別準確率和模型魯棒性方面相較于YOLOv5都有明顯提升,且滿足嵌入式輕量化實時檢測需求,在實際生產(chǎn)和運用中都顯示出巨大的潛力。未來將繼續(xù)優(yōu)化算法,進一步降低網(wǎng)絡的推理復雜度,縮小嵌入式端和PC端檢測的差距。

        猜你喜歡
        嵌入式準確率卷積
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
        2015—2017 年寧夏各天氣預報參考產(chǎn)品質(zhì)量檢驗分析
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        高速公路車牌識別標識站準確率驗證法
        基于傅里葉域卷積表示的目標跟蹤算法
        搭建基于Qt的嵌入式開發(fā)平臺
        嵌入式軟PLC在電鍍生產(chǎn)流程控制系統(tǒng)中的應用
        一種基于卷積神經(jīng)網(wǎng)絡的性別識別方法
        亚洲一二三区免费视频| 亚洲欧美日韩国产一区二区精品| 又色又爽又黄的视频网站| 激情五月六月婷婷俺来也| 射精区-区区三区| 色偷偷久久一区二区三区| 国产精品一区2区三区| 精品人妻午夜中文字幕av四季| 老熟妇乱子交视频一区 | 成年无码av片完整版| 成人午夜视频一区二区无码| 日本顶级片一区二区三区| 性欧美丰满熟妇xxxx性久久久 | 国产70老熟女重口小伙子| 91精品日本久久久久久牛牛| 大香蕉青青草视频在线| 少妇伦子伦精品无吗| 久久国产精品无码一区二区三区 | 国产精品一区二区在线观看99| 精品少妇后入一区二区三区| 在线播放草猛免费视频| 亚洲中文字幕无码一久久区| 国产一及毛片| 国产一区二区一级黄色片| 18禁止进入1000部高潮网站| 99精品免费久久久久久久久日本| 免费一级黄色大片久久久| 国产精品自拍盗摄自拍 | 国产激情一区二区三区在线| 少妇人妻陈艳和黑人教练| 91精品国产福利尤物免费| 午夜一区二区三区免费观看| 国产精品免费看久久久无码| 香蕉视频www.5.在线观看| 蜜桃av多人一区二区三区| 国产精品高潮呻吟av久久黄| 国模欢欢炮交啪啪150 | 黄色国产一区在线观看| 亚洲精品国产精品乱码视色| 性大片免费视频观看| 国产成人AⅤ|