亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        輕量化神經(jīng)網(wǎng)絡(luò)在遠(yuǎn)洋魷釣檢測(cè)技術(shù)中的應(yīng)用

        2022-03-10 04:52:46劉雨青黃璐瑤隋佳蓉
        漁業(yè)現(xiàn)代化 2022年1期
        關(guān)鍵詞:遠(yuǎn)洋網(wǎng)絡(luò)結(jié)構(gòu)主干

        劉雨青,周 彥,黃璐瑤,隋佳蓉

        (1 上海海洋大學(xué)工程學(xué)院,上海 201306;2 上海海洋可再生能源工程技術(shù)研究中心,上海 201306)

        中國(guó)現(xiàn)已成為世界遠(yuǎn)洋魷釣漁業(yè)的主要生產(chǎn)國(guó)、市場(chǎng)國(guó)和消費(fèi)國(guó),智能化的遠(yuǎn)洋捕撈技術(shù)成為統(tǒng)計(jì)魷魚(yú)資源的關(guān)鍵技術(shù)之一[1-2]。將遠(yuǎn)洋捕撈技術(shù)與人工智能技術(shù)[3]相結(jié)合,逐漸成為研究熱點(diǎn),遠(yuǎn)洋捕撈裝備也逐漸變得智能化[4],如在遠(yuǎn)洋捕撈魷魚(yú)過(guò)程中,通過(guò)計(jì)算機(jī)對(duì)魷魚(yú)進(jìn)行自動(dòng)檢測(cè)與識(shí)別,不僅能節(jié)約人力成本,而且為資源調(diào)查提供科學(xué)依據(jù)。由于遠(yuǎn)洋捕撈的魷魚(yú)大小不同,又受工作場(chǎng)所和環(huán)境影響,目前多采用人工檢測(cè)的方法。在使用計(jì)算機(jī)檢測(cè)過(guò)程中發(fā)現(xiàn),采集到的圖像數(shù)據(jù)具有穩(wěn)定性差、噪聲多、變化快等特點(diǎn),使得魷魚(yú)檢測(cè)難度增大。因此,結(jié)合機(jī)器視覺(jué)[5-8]和深度學(xué)習(xí)算法[9-11]研究適應(yīng)海洋環(huán)境的魚(yú)類檢測(cè)技術(shù)成為漁業(yè)資源開(kāi)發(fā)和海洋工程裝備改造的關(guān)鍵技術(shù)之一。

        針對(duì)魚(yú)類識(shí)別檢測(cè)方法的研究,最早起始于1990年,Strachan等[12]建立不同魚(yú)類圖片的數(shù)據(jù)庫(kù),介紹了不變矩法、不匹配優(yōu)化法和形狀描述法3種區(qū)分不同魚(yú)類的方法。Larsen等[13]對(duì)魚(yú)類的形狀和紋理采用線性判別分析的方法進(jìn)行研究,達(dá)到識(shí)別的目的。張志強(qiáng)等[14]利用數(shù)字圖像處理技術(shù)提取了各個(gè)顏色分量及長(zhǎng)短軸之比等特征值建立了識(shí)別相關(guān)魚(yú)類品種的網(wǎng)絡(luò)模型。XIU等[15]基于R-CNN算法提出一種輕型的適合水下魚(yú)類目標(biāo)識(shí)別的網(wǎng)絡(luò)結(jié)構(gòu),即為改進(jìn) Faster R-CNN 的結(jié)構(gòu)。顧?quán)嵠降萚16]結(jié)合卷積神經(jīng)網(wǎng)絡(luò) CNN和遷移學(xué)習(xí)的算法提出了基于預(yù)訓(xùn)練InceptionV3網(wǎng)絡(luò)的特征和 SVM算法(PreCNN + SVM) 的混合分類網(wǎng)絡(luò)模型,對(duì)魚(yú)類進(jìn)行分類識(shí)別。Deep等[17]提出了一種混合卷積神經(jīng)網(wǎng)絡(luò)(CNN)框架,該框架使用CNN框架提取目標(biāo)特征信息,利用支持向量機(jī)(SVM)和k近鄰(k-NN)的方法對(duì)魚(yú)類進(jìn)行識(shí)別檢測(cè)分類。張勝茂等[18]基于MobileNetV1模型提取特征,結(jié)合TensorFlow多目標(biāo)檢測(cè)的API開(kāi)發(fā)了能夠能實(shí)現(xiàn)水族館魚(yú)類快速識(shí)別、多魚(yú)類目標(biāo)實(shí)時(shí)檢測(cè)的軟件系統(tǒng)。李慶忠等[19]結(jié)合YOLO算法和遷移學(xué)習(xí)的方法訓(xùn)練出了Uderwater-YOLO網(wǎng)絡(luò),實(shí)現(xiàn)了對(duì)小目標(biāo)魚(yú)類和重疊目標(biāo)魚(yú)類的檢測(cè)。但是YOLO算法[20-23]的輸出參數(shù)量比較大,影響檢測(cè)時(shí)間,降低了識(shí)別效率,很難應(yīng)用于遠(yuǎn)洋捕撈技術(shù)。近年來(lái),輕量級(jí)神經(jīng)網(wǎng)絡(luò)MobileNets獲得了極大得關(guān)注。作為一種專門(mén)為手機(jī)等嵌入式設(shè)備設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)模型,MobileNets極大地減少了網(wǎng)絡(luò)模型的計(jì)算量,降低了模型大小,在保證精度的同時(shí)加快了計(jì)算速度。

        本研究采用MobileNetV3網(wǎng)絡(luò)[24-25]作為輕量化神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中的特征提取網(wǎng)絡(luò),進(jìn)行初步有效特征的提取,在MobileNetV3網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,對(duì)其逆瓶頸結(jié)構(gòu)設(shè)計(jì)了CSP瓶頸層,來(lái)提升網(wǎng)絡(luò)的特征提取能力,采用CIoU模型作為損失函數(shù),提高魚(yú)類的檢測(cè)效率,應(yīng)用于遠(yuǎn)洋魷魚(yú)捕撈檢測(cè)技術(shù),得到較好的識(shí)別效果。

        1 輕量化網(wǎng)絡(luò)模型

        1.1 輕量化網(wǎng)絡(luò)結(jié)構(gòu)

        YOLOV3算法是目前深度學(xué)習(xí)領(lǐng)域應(yīng)用比較廣泛的算法之一,在一定程度上提高了識(shí)別檢測(cè)的精度,但增加了網(wǎng)絡(luò)骨干的層數(shù),導(dǎo)致模型的輸出參數(shù)量增大,并對(duì)GPU內(nèi)存和模型存儲(chǔ)和硬件條件要求更高,且降低了檢測(cè)速度,增加了資源耗費(fèi)。為降低模型參數(shù)量和對(duì)硬件設(shè)備的需求,提高準(zhǔn)確率,本研究采用輕量級(jí)網(wǎng)絡(luò)MobileNetV3網(wǎng)絡(luò)作為輕量化神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中的特征提取網(wǎng)絡(luò),進(jìn)行初步有效特征的提取,在此網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,對(duì)其逆瓶頸結(jié)構(gòu)設(shè)計(jì)了CSP瓶頸層,形成CSPMobileNetV3網(wǎng)絡(luò)結(jié)構(gòu),提升網(wǎng)絡(luò)的特征提取能力,CSP結(jié)構(gòu)(Cross Stage Partial)是將網(wǎng)絡(luò)輸入數(shù)據(jù)切為兩份,一份數(shù)據(jù)送到MobileNetV3的逆瓶頸塊中,另一份數(shù)據(jù)直接與逆瓶頸塊的輸出數(shù)據(jù)進(jìn)行拼接。CSP應(yīng)用于MobileNetV3中的逆瓶頸塊如圖1所示,輕量化網(wǎng)絡(luò)模型結(jié)構(gòu)整體框架如圖2所示。

        圖1 CSP逆殘差網(wǎng)絡(luò)結(jié)構(gòu)

        圖2 先融合和后融合結(jié)構(gòu)圖

        CSP網(wǎng)絡(luò)結(jié)構(gòu)中,有Fusion First和Fusion Last兩種融合方式。Fusion First方式是將兩個(gè)分支的特征圖先進(jìn)行拼接操作,再進(jìn)行transition操作,這樣梯度信息就可以被重用,有助于降低計(jì)算代價(jià),但同時(shí),準(zhǔn)確率也會(huì)有所下降。Fusion Last方式是對(duì)Dense Block所在的分支先進(jìn)行transition操作,再進(jìn)行拼接,梯度信息將被截?cái)?,不?huì)重復(fù)使用梯度信息。

        本研究所用的CSP逆殘差網(wǎng)絡(luò)結(jié)構(gòu)中x作為輸入,一部分先經(jīng)過(guò)1×1卷積層和逆瓶頸塊進(jìn)行卷積操作,另一部分特征圖通過(guò)1×1的卷積層后與上一部分通過(guò)通道維度拼接后進(jìn)行卷積操作,使用了Fusion First和Fusion Last相結(jié)合的方式,在降低計(jì)算代價(jià)的同時(shí)提升了準(zhǔn)確率,增強(qiáng)了CNN網(wǎng)絡(luò)的學(xué)習(xí)能力,降低計(jì)算瓶頸,降低內(nèi)存成本,緩解了大量的推理計(jì)算壓力,CSP逆殘差網(wǎng)絡(luò)通過(guò)將梯度的變化集成到特征圖中,能夠在輕量化的同時(shí)保持準(zhǔn)確性。在目標(biāo)檢測(cè)問(wèn)題中,使用CSP逆殘差網(wǎng)絡(luò)結(jié)構(gòu)作為Backbone帶來(lái)的提升很大,可以在增強(qiáng)CNN學(xué)習(xí)能力的同時(shí)降低計(jì)算量,更適用于輕量型網(wǎng)絡(luò)中。

        輕量型網(wǎng)絡(luò)結(jié)構(gòu)中CSPMobileNetV3網(wǎng)絡(luò)作為主干特征提取網(wǎng)絡(luò),提取目標(biāo)的特征信息。MobileNetV3網(wǎng)絡(luò)是一種輕量級(jí)的深層神經(jīng)網(wǎng)絡(luò),具有高深度的特點(diǎn),使用了注意力機(jī)制[26]和獨(dú)特的bneck結(jié)構(gòu),將擴(kuò)展層通道修改為1/4,在不增加計(jì)算時(shí)間的情況下提高了檢測(cè)精度。采用了深度可分離卷積操作和激活函數(shù)h-swishj,不僅減少了運(yùn)算量,而且提高了性能。CSPMobileNetV3網(wǎng)絡(luò)結(jié)構(gòu)可以降低計(jì)算量,提取的特征信息比較完整,網(wǎng)絡(luò)結(jié)構(gòu)逆瓶頸結(jié)構(gòu)中設(shè)計(jì)了CSP瓶頸層,加強(qiáng)特征提取的能力,提高模型的學(xué)習(xí)能力,減低參數(shù)輸出量,最后輸出3個(gè)初步的有效特征層。經(jīng)過(guò)SPP網(wǎng)絡(luò)和PANet網(wǎng)絡(luò)[27-29],加強(qiáng)特征層信息,獲得3個(gè)更有效的特征層,使用3個(gè)更有效的特征層對(duì)目標(biāo)進(jìn)行預(yù)測(cè)。

        圖3 輕量型網(wǎng)絡(luò)結(jié)構(gòu)框架

        1.2 損失函數(shù)

        (1)

        IoULoss有兩個(gè)缺點(diǎn):一是IoULoss無(wú)法表示預(yù)測(cè)框和真實(shí)框的距離,當(dāng)預(yù)測(cè)框和真實(shí)框的交并比為0時(shí),此時(shí)損失函數(shù)無(wú)法求導(dǎo),于是就無(wú)法調(diào)整該情況下預(yù)測(cè)框和真實(shí)框不相交的情況;二是在交并比相同的情況下,預(yù)測(cè)框和真實(shí)框也會(huì)出現(xiàn)位置不同的情況,無(wú)法反應(yīng)兩個(gè)框是否對(duì)齊。為了解決第一個(gè)問(wèn)題,對(duì)IoULoss添加一個(gè)約束條件,以此來(lái)約束真實(shí)框和預(yù)測(cè)框之間的中心距離,表達(dá)式如下:

        (2)

        式中:RDIoU是約束真實(shí)框與預(yù)測(cè)框之間的中心距離,ρ代表歐氏距離,bgt和b為真實(shí)框和預(yù)測(cè)框之間的中心點(diǎn),c為真實(shí)框和預(yù)測(cè)框之間的最小外接矩形對(duì)角線的距離。

        為解決第二個(gè)問(wèn)題,對(duì)IoULoss再次添加一個(gè)約束條件,用來(lái)約束真實(shí)框和預(yù)測(cè)框的寬高比,從而解決不同的真實(shí)框和預(yù)測(cè)框之間有著相同的交并比的問(wèn)題。約束真實(shí)框和預(yù)測(cè)框之間的寬高的關(guān)系被定義如下:

        (3)

        (4)

        式中:α是約束真實(shí)框和預(yù)測(cè)框之間的寬高關(guān)系,v是預(yù)測(cè)框與真實(shí)框的偏差值,wgt和w為真實(shí)框和預(yù)測(cè)框的寬度,hgt和h真實(shí)框和預(yù)測(cè)框的高度。

        故CIoULoss的公式可以被定義為:

        LCIoU=1-LIoU+RDIoU+av

        (5)

        YOLO算法在生成錨框時(shí),會(huì)產(chǎn)生一些劣質(zhì)的標(biāo)簽,這對(duì)算法而言,如果太關(guān)注這些劣質(zhì)標(biāo)簽,會(huì)使網(wǎng)絡(luò)學(xué)習(xí)的難度加大。對(duì)此,提出了BlurLoss來(lái)減少對(duì)劣質(zhì)標(biāo)簽的關(guān)注度。本研究在交叉熵?fù)p失函數(shù)中,加入了權(quán)重系數(shù)α,目的是減少真實(shí)值和預(yù)測(cè)值之間差距較大的數(shù)據(jù)在網(wǎng)絡(luò)學(xué)習(xí)過(guò)程中的關(guān)注度。其權(quán)重因子α公式如下:

        (6)

        由公式可以發(fā)現(xiàn),當(dāng)真實(shí)值與測(cè)試標(biāo)簽數(shù)據(jù)相近時(shí),其權(quán)重因子α就大,反之則小,網(wǎng)絡(luò)在訓(xùn)練和學(xué)習(xí)時(shí),就會(huì)自動(dòng)忽略這一標(biāo)簽。

        另外,在網(wǎng)絡(luò)訓(xùn)練的過(guò)程中,y=0代表的是正樣本標(biāo)簽,y=1代表負(fù)樣本標(biāo)簽,所以當(dāng)y=0時(shí),權(quán)重因子α往往會(huì)比y=1時(shí)要大。這樣可以使網(wǎng)絡(luò)在訓(xùn)練的過(guò)程中,更加關(guān)注于正樣本的參數(shù)更新。用LBlur表示BlurLoss,最后的公式如下所示:

        (7)

        2 輕量化網(wǎng)絡(luò)模型評(píng)估

        2.1 魷釣作業(yè)數(shù)據(jù)集

        網(wǎng)絡(luò)結(jié)構(gòu)模型修改完成后,對(duì)輕量化網(wǎng)絡(luò)結(jié)構(gòu)模型的有效性以及準(zhǔn)確性進(jìn)行驗(yàn)證,并對(duì)不同的主干網(wǎng)絡(luò)結(jié)構(gòu)作出性能分析對(duì)比。試驗(yàn)環(huán)境配置如下:Inter(R) Core(TM)i7-10750,32GB RAM和Nvidia GTX1660Ti的硬件設(shè)備,VS code開(kāi)發(fā)環(huán)境,深度學(xué)習(xí)框架是pytorch1.7.0-cuda11.0。主要分析了主干網(wǎng)絡(luò)模型和改進(jìn)的損失函數(shù)性能,學(xué)習(xí)率設(shè)為0.001,學(xué)習(xí)率下降策略為余弦退火,優(yōu)化算法采用AdamW,訓(xùn)練模型迭代步數(shù)step設(shè)為1 000,訓(xùn)練整個(gè)樣本迭代次數(shù)epoch設(shè)為100。

        本網(wǎng)絡(luò)模型評(píng)估所用到的數(shù)據(jù)集截取自魷釣船遠(yuǎn)洋捕撈魷魚(yú)時(shí)拍攝的視頻。主要采集了600張魷釣船白天和黑夜兩種情況下的魷釣作業(yè)圖,其中250張夜晚作業(yè)的數(shù)據(jù)集,以及350張白天作業(yè)的數(shù)據(jù)集。用labelImg對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注了共1 365個(gè)樣本,將數(shù)據(jù)信息存儲(chǔ)為xml格式,得到的數(shù)據(jù)集稱為Squid數(shù)據(jù)集,如圖4所示,采用30張圖片作為測(cè)試集驗(yàn)證整個(gè)模型在遠(yuǎn)洋捕撈技術(shù)上的有效性。使用空間幾何變換、調(diào)整飽和度以及亮度等數(shù)據(jù)擴(kuò)增的手段對(duì)獲取到的圖像進(jìn)行處理,使得小樣本數(shù)據(jù)集發(fā)揮更大的作用。Squid數(shù)據(jù)集將會(huì)被用于整篇論文模型算法的分析和評(píng)估。

        圖4 squid數(shù)據(jù)集

        錨框的制作與網(wǎng)絡(luò)訓(xùn)練的擬合程度、網(wǎng)絡(luò)的泛化能力、預(yù)測(cè)結(jié)果的準(zhǔn)確性密切相關(guān)。所有標(biāo)注信息的錨框統(tǒng)計(jì)數(shù)據(jù)如圖5、圖6所示。

        圖5 所有標(biāo)簽的統(tǒng)計(jì)數(shù)據(jù)

        圖6 各個(gè)點(diǎn)位坐標(biāo)分布關(guān)系

        2.2 主干網(wǎng)絡(luò)模型性能分析

        本試驗(yàn)對(duì)主干網(wǎng)絡(luò)的模型進(jìn)行分析,將Darknet53、MobileNetV3和CSPMobileNetV3網(wǎng)絡(luò)在Squid數(shù)據(jù)集上進(jìn)行訓(xùn)練與驗(yàn)證,作對(duì)比分析,以輸出參數(shù)量、GFLOPs和F1為評(píng)估指標(biāo)。

        (1)Darknet53性能分析

        使用Squid數(shù)據(jù)集進(jìn)行訓(xùn)練,通過(guò)觀察訓(xùn)練過(guò)程中模型的預(yù)測(cè)值與真實(shí)值的誤差Loss函數(shù)和F1的值對(duì)Darknet53主干網(wǎng)絡(luò)進(jìn)行分析,如圖7所示,在數(shù)據(jù)集上進(jìn)行訓(xùn)練時(shí),當(dāng)模型訓(xùn)練迭代到200步時(shí),Loss函數(shù)出現(xiàn)最小值為0.463 8,當(dāng)整個(gè)樣本訓(xùn)練迭代70輪時(shí),F(xiàn)1的值可以達(dá)到0.7左右,最大的準(zhǔn)確率為0.89,最大的召回率約為0.56。

        圖7 Darknet53性能指標(biāo)

        (2) MobileNetV3性能分析

        使用Squid數(shù)據(jù)集進(jìn)行訓(xùn)練,通過(guò)觀察訓(xùn)練過(guò)程中模型的預(yù)測(cè)值與真實(shí)值的誤差Loss函數(shù)和F1的值對(duì)MobileNetV3主干網(wǎng)絡(luò)進(jìn)行分析,如圖8所示。在數(shù)據(jù)集上進(jìn)行訓(xùn)練時(shí),當(dāng)模型訓(xùn)練步數(shù)為240時(shí),Loss函數(shù)出現(xiàn)最小值為0.251 4,當(dāng)整個(gè)樣本訓(xùn)練迭代90輪時(shí),F(xiàn)1的值可以達(dá)到0.86,最大的準(zhǔn)確率為0.92,最大的召回率約為0.81。

        圖8 MobileNetV3性能指標(biāo)

        (3) CSPMobileNetV3性能分析

        使用Squid數(shù)據(jù)集進(jìn)行訓(xùn)練,通過(guò)觀察訓(xùn)練過(guò)程中模型的預(yù)測(cè)值與真實(shí)值的誤差Loss函數(shù)和F1的值對(duì)CSPMobileNetV3主干網(wǎng)絡(luò)進(jìn)行分析,如圖9所示。在數(shù)據(jù)集上進(jìn)行訓(xùn)練時(shí),當(dāng)模型訓(xùn)練步數(shù)為700時(shí),Loss函數(shù)出現(xiàn)最小值為0.082 8,當(dāng)整個(gè)樣本訓(xùn)練迭代60輪時(shí),F(xiàn)1基本趨于平穩(wěn),沒(méi)有太大的波動(dòng)變化,F(xiàn)1的值可以達(dá)到0.99,最大的準(zhǔn)確率為0.99,最大的召回率約為0.99。

        圖9 CSPMobileNetV3性能指標(biāo)

        評(píng)估主干網(wǎng)絡(luò)性能也參考訓(xùn)練過(guò)程輸出的參數(shù)量和浮點(diǎn)數(shù),3種主干網(wǎng)絡(luò)的參數(shù)量輸出與浮點(diǎn)數(shù)的如表2所示。

        表2 主干網(wǎng)絡(luò)的性能指標(biāo)參數(shù)

        試驗(yàn)結(jié)果可知,Darknet53的參數(shù)輸出量比較大,高至72.96 MB,而MobileNetV3參數(shù)量的輸出為23.53 MB,CSPMobileNetV3參數(shù)輸出量為22.64 MB,比Darknet53模型的輸出量降低了大約3.2倍。對(duì)于浮點(diǎn)數(shù)而言,Darknet53的浮點(diǎn)數(shù)是CSPMobileNetV3的5.6倍左右。

        根據(jù)以上模型性能對(duì)比分析,主干網(wǎng)絡(luò)為CSPMobileNetV3的參數(shù)量輸出是最少的,將大量節(jié)約內(nèi)存的損耗,并且Loss函數(shù)的值也是最小的,其準(zhǔn)確率也相對(duì)比較高,可以達(dá)到99.2%左右。由此可以得出,MobileNetV3和CSPMobileNetV3主干網(wǎng)絡(luò)的性能優(yōu)于Darknet53網(wǎng)絡(luò)。

        2.3 損失函數(shù)的性能分析

        通過(guò)在Squid數(shù)據(jù)集上訓(xùn)練與驗(yàn)證,我們得出YOLOV3的均方差損失函數(shù)和本文提出的CIoULoss輸出模型的P-R曲線和平均精度。P-R曲線根據(jù)閾值從0~1的變化來(lái)觀察精度和召回率的關(guān)系,通過(guò)對(duì)比P-R曲線圖,也可以查看模型的好壞。本試驗(yàn)的P-R曲線圖如圖10所示。采用YOLOV3的均方差損失函數(shù),置信度在0.5時(shí),整個(gè)網(wǎng)絡(luò)模型的收斂速度很快,精確率也比較高,平均精度可以達(dá)到0.704,采用CIoU損失函數(shù),置信度在0.5時(shí),平均精度可以達(dá)到0.832。

        圖10 均方差損失和CIoU的P-R曲線

        對(duì)于置信度損失函數(shù),本研究將CrossEntorpyLoss和BlurLoss進(jìn)行對(duì)比, P-R曲線如圖11所示。采用BlurLoss的損失函數(shù)平均精度達(dá)到0.883,相比較于之前的CrossEntorpyLoss高出了5.1個(gè)百分點(diǎn)。很好地驗(yàn)證了BlurLoss在YOLO算法下要優(yōu)于原先的CrossEntorpyLoss。

        圖11 CrossEntorpyLoss和BlurLoss的P-R曲線

        3 輕量化網(wǎng)絡(luò)模型驗(yàn)證

        3.1 訓(xùn)練目標(biāo)數(shù)據(jù)集

        采用修改后的輕量化網(wǎng)絡(luò)結(jié)構(gòu),對(duì)目標(biāo)數(shù)據(jù)集進(jìn)行訓(xùn)練,在準(zhǔn)備好的試驗(yàn)平臺(tái)環(huán)境下,根據(jù)樣本數(shù)據(jù)的標(biāo)注信息進(jìn)行超參數(shù)配置,最后進(jìn)行編譯執(zhí)行網(wǎng)絡(luò)模型的算法,輸出權(quán)重文件用于驗(yàn)證模型。訓(xùn)練過(guò)程中記錄輕量化網(wǎng)絡(luò)結(jié)構(gòu)真實(shí)框與預(yù)測(cè)框的損失值、精確率和召回率。訓(xùn)練數(shù)據(jù)如圖12所示。根據(jù)圖12,真實(shí)框(Box)的損失達(dá)到0.02,預(yù)測(cè)框(Val Box)的損失也在0.02左右,真實(shí)框與預(yù)測(cè)框的損失相差比較小,說(shuō)明模型的擬合效果越好。準(zhǔn)確率(precision)可以達(dá)到0.9,召回率(recall)大約為0.85。精確率和召回率越大說(shuō)明,網(wǎng)絡(luò)模型的檢測(cè)精度越高。

        圖12 輕量型網(wǎng)絡(luò)模型參數(shù)

        3.2 模型驗(yàn)證與對(duì)比分析

        為了更好地驗(yàn)證輕量化網(wǎng)絡(luò)結(jié)構(gòu)在遠(yuǎn)洋捕撈魷魚(yú)技術(shù)上的準(zhǔn)確性和實(shí)用性,使用訓(xùn)練出來(lái)的權(quán)重文件在測(cè)試集上進(jìn)行驗(yàn)證并作出對(duì)比分析。以F1、模型輸出參數(shù)量和平均檢測(cè)時(shí)間作為評(píng)估指標(biāo),具體的實(shí)驗(yàn)結(jié)果如表3所示。

        表3 不同模型的對(duì)比

        根據(jù)以上結(jié)果可知, 將原先的損失函數(shù)替換為CIoULoss后,其精度由原先的0.704上升到了0.82,再將原先的置信度損失函數(shù)替換為BlurLoss后,精度由原先的0.82上升到了0.883。最后將主干網(wǎng)絡(luò)DarkNet53替換成CSPMobileNetV3后,精度達(dá)到了0.906,且網(wǎng)絡(luò)參數(shù)也由原來(lái)的117 MB下降到40.6 MB,減少了65.3%;浮點(diǎn)運(yùn)算次數(shù)由155.1 G下降到了51.2 G,運(yùn)算量減少了66.99%。

        由于圖像噪聲較大、分辨率低、目標(biāo)小,YOLOV3存在置信度低和漏檢等情況,網(wǎng)絡(luò)的泛化能力較差,檢測(cè)結(jié)果如圖13所示,修改后的網(wǎng)絡(luò)檢測(cè)結(jié)果如圖14所示??梢园l(fā)現(xiàn),輕量型網(wǎng)絡(luò)將可以檢測(cè)到更多的魷魚(yú),大大的改善了YOLOV3網(wǎng)絡(luò)存在的魷魚(yú)漏檢的情況。同時(shí),檢測(cè)的置信度也更高。因此,修改過(guò)后的輕量化神經(jīng)網(wǎng)絡(luò)可以更好地應(yīng)用在遠(yuǎn)洋捕撈魷魚(yú)技術(shù)上。

        圖13 YOLOV3檢測(cè)結(jié)果

        圖14 輕量化網(wǎng)絡(luò)檢測(cè)結(jié)果

        4 結(jié)論

        輕量化網(wǎng)絡(luò)模型用于遠(yuǎn)洋捕撈檢測(cè)技術(shù),訓(xùn)練過(guò)程中模型的參數(shù)輸出量大幅度下降,參數(shù)輸出量為22.53 MB,節(jié)約內(nèi)存空間,提高了工作效率。特征提取能力增強(qiáng),損失函數(shù)變小,提高了檢測(cè)的精確度與精測(cè)速度。在復(fù)雜的海洋環(huán)境下,拍攝條件不足的情況下,仍有較高的識(shí)別檢測(cè)率,且檢測(cè)速度明顯提高,將輕量化網(wǎng)絡(luò)應(yīng)用在遠(yuǎn)洋捕撈中,工作效率明顯提高。因此,輕量化網(wǎng)絡(luò)結(jié)構(gòu)可以更好地應(yīng)用在目標(biāo)識(shí)別檢測(cè)領(lǐng)域,推進(jìn)海洋工程裝備技術(shù)的發(fā)展。

        猜你喜歡
        遠(yuǎn)洋網(wǎng)絡(luò)結(jié)構(gòu)主干
        全球首條1.2T超高速下一代互聯(lián)網(wǎng)主干通路
        軍事文摘(2024年2期)2024-01-10 01:58:34
        抓主干,簡(jiǎn)化簡(jiǎn)單句
        沈陽(yáng)遠(yuǎn)洋公館
        遠(yuǎn)洋“軍需官”901
        二代支架時(shí)代數(shù)據(jù)中糖尿病對(duì)無(wú)保護(hù)左主干患者不同血運(yùn)重建術(shù)預(yù)后的影響
        高齡無(wú)保護(hù)左主干病變患者血運(yùn)重建術(shù)的長(zhǎng)期預(yù)后
        國(guó)內(nèi)新型遠(yuǎn)洋金槍魚(yú)圍網(wǎng)漁船首航
        商周刊(2018年19期)2018-12-06 09:49:41
        “兩橫一縱”遠(yuǎn)洋綜合補(bǔ)給
        基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
        知識(shí)網(wǎng)絡(luò)結(jié)構(gòu)維對(duì)于創(chuàng)新績(jī)效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
        亚洲网站免费看| 日韩成人高清不卡av| 蜜桃av一区二区三区| 国产熟女盗摄一区二区警花91| 亚洲av无码久久精品色欲| 伊在人天堂亚洲香蕉精品区| 91国视频| 日本女优中文字幕看片 | 日韩av一区二区蜜桃| 麻豆视频在线播放观看| 色播亚洲视频在线观看| 亚洲欧美日韩人成在线播放| 精品88久久久久88久久久| 呦泬泬精品导航| 蜜桃视频中文字幕一区二区三区 | 男男做h嗯啊高潮涩涩| 中文字日产幕码三区国产| 女女互揉吃奶揉到高潮视频| 四虎永久免费影院在线| 国产成人综合日韩精品无| 青青草在线免费观看视频| 欧美日韩精品一区二区视频| 黄色成人网站免费无码av| 蜜桃视频中文在线观看| 国产一区二区三区中出| 少妇伦子伦情品无吗| 香蕉人人超人人超碰超国产| 中文人成影院| 日本人妻av在线观看| 熟妇人妻精品一区二区视频| 亚洲国产婷婷六月丁香| 无码少妇一区二区性色av| 五月天国产精品| 久久偷拍国内亚洲青青草| 欧美肥妇毛多水多bbxx水蜜桃| 亚洲中文字幕久久精品无码喷水| 久久久久中文字幕无码少妇| 亚洲发给我的在线视频| 国产精品一区二区三区卡| 久久天天躁狠狠躁夜夜躁2014| 婷婷丁香五月中文字幕|