摘" 要: 針對傳統(tǒng)魚群檢測方法耗時長且檢測結(jié)果易受檢測人員技術(shù)經(jīng)驗(yàn)影響等問題,結(jié)合養(yǎng)殖魚群圖像特征,基于YOLOv7模型,提出一種輕量級實(shí)時檢測魚群的方法。該方法將GhostNet引入YOLOv7模型中作為主干特征提取網(wǎng)絡(luò),以減少網(wǎng)絡(luò)的參數(shù)量,同時將特征融合網(wǎng)絡(luò)的ELAN?H模塊中CBS卷積層替換為PConv,進(jìn)一步降低模型的計(jì)算復(fù)雜度,并在特征融合網(wǎng)絡(luò)中加入CBAM注意力模塊和輕量級上采樣算子CARAFE,以提高網(wǎng)絡(luò)的特征表達(dá)能力。在采集的魚群數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)表明,提出模型的平均精度均值為95.54%,參數(shù)量為24.13×106,浮點(diǎn)運(yùn)算次數(shù)(GFLOPs)為38.45×109,相較于YOLOv7模型,改進(jìn)后的模型平均精度均值提高了1.86%,參數(shù)量和計(jì)算量分別降低了13.14%、70%。相較于YOLOv4和YOLOv5s等模型,文中模型的平均精度均值也均有提高,能夠?yàn)轸~群檢測提供一種輕量化的實(shí)時高效檢測方法,大大降低了檢測人員的工作量。
關(guān)鍵詞: YOLOv7; GhostNet; 輕量化; PConv; 注意力機(jī)制; CARAFE
中圖分類號: TN911.73?34; TP391.4; S392" " " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " "文章編號: 1004?373X(2024)11?0078?06
Lightweight fish object detection algorithm based on YOLOv7
CAO Jingwen, MENG Juan, ZHU Jiayuan, MA Yuanyuan
(School of Information Engineering, Dalian Ocean University, Dalian 116023, China)
Abstract: In view of the time?consuming traditional fish detection methods and their susceptibility to detector expertise, a lightweight real?time fish detection method is proposed based on the YOLOv7 and leveraging farmed fish image features. In this method, GhostNet is integrated into the YOLOv7 as the backbone feature extraction network, so as to reduce the parameters of the network. The CBS convolutional layer in the ELAN?H module of feature fusion network is replaced with PConv to reduce the model complexity. Further, the CBAM (convolutional block attention module) and the lightweight up?sampling operator CARAFE are integrated into feature fusion network to enhance the feature expression capability of the network. Experiments on the collected fish population data sets reveal that the proposed model achieves a mean average precision (mAP) of 95.54%, with 24.13×106 parameters and 38.45×109 GFLOPs. In comparison with YOLOv7, the improved model boasts a 1.86% increase of mAP, and its parameters and computed amount are reduced by 13.14% and 70%, respectively. The mAP of the proposed model is also higher than that of the models of YOLOv4 and YOLOv5s. Therefore, the proposed model can present a lightweight, real?time and efficient fish population detection method and alleviate the detector workload significantly.
Keywords: YOLOv7; GhostNet; lightweight; PConv; attention mechanism; CARAFE
0" 引" 言
水產(chǎn)養(yǎng)殖業(yè)是我國水產(chǎn)品產(chǎn)量的主要來源,水產(chǎn)品至今依舊是人類攝入蛋白質(zhì)的重要來源,占全球食用肉類產(chǎn)量的17%,是中國糧食安全保障的重要組成部分。養(yǎng)殖科技水平的提高是保障水產(chǎn)養(yǎng)殖業(yè)可持續(xù)發(fā)展的重要手段。精確養(yǎng)殖在養(yǎng)殖場中的應(yīng)用不僅可以減少資源浪費(fèi),還可以顯著提高養(yǎng)殖效益。目前,工業(yè)化養(yǎng)殖正朝著精確養(yǎng)殖的方向發(fā)展[1?2]。自動監(jiān)測養(yǎng)殖魚類的生長狀況是實(shí)現(xiàn)精確養(yǎng)殖的基礎(chǔ),養(yǎng)殖魚類群體目標(biāo)檢測是魚類生長狀況自動監(jiān)測的核心[3],有效的檢測方法將為精確養(yǎng)殖提供重要的技術(shù)支持。
近年來深度學(xué)習(xí)技術(shù)的興起,尤其是卷積神經(jīng)網(wǎng)絡(luò)(CNN)[4],推動了目標(biāo)檢測的巨大發(fā)展。一些流行的目標(biāo)檢測算法,如R?CNN[5]、Faster R?CNN[6]、YOLO系列[7?10]和SSD系列[11?13],這些算法具有較高的準(zhǔn)確性和實(shí)時性能,已經(jīng)在各種應(yīng)用領(lǐng)域取得了顯著成就。
隨著養(yǎng)殖魚群檢測領(lǐng)域的技術(shù)不斷發(fā)展,為提高魚群檢測的準(zhǔn)確率,已出現(xiàn)了一系列新方法。文獻(xiàn)[14]提出一種將SKNet與YOLOv5融合的養(yǎng)殖魚群檢測方法,成功解決了低準(zhǔn)確率的問題,但在光線不足或水質(zhì)不佳等情況下對模糊圖像的處理仍然存在限制。文獻(xiàn)[15]提出輕量級魚類計(jì)數(shù)模型LFCNet,利用Ghost模塊對移動設(shè)備參數(shù)進(jìn)行壓縮,但在保持高計(jì)數(shù)精度的同時,受限于計(jì)算資源有限的移動設(shè)備環(huán)境。文獻(xiàn)[16]提出基于變形卷積和改進(jìn)的YOLOv4的高精度養(yǎng)殖魚目標(biāo)檢測模型,模型在水下圖像中的檢測精度得到提升,但仍面臨對特定水下環(huán)境變化的適應(yīng)性不足的挑戰(zhàn)。文獻(xiàn)[17]提出的改進(jìn)YOLOv7?tiny模型引入ShuffleNet v1網(wǎng)絡(luò)作為新的特征提取網(wǎng)絡(luò),盡管嘗試降低了計(jì)算復(fù)雜度,但檢測精度仍需進(jìn)一步改進(jìn)。文獻(xiàn)[18]提出的改進(jìn)YOLOv7網(wǎng)絡(luò),采用ACmixBlock模塊替代傳統(tǒng)模塊,引入全局注意力機(jī)制,雖然在提升精度方面取得了一定進(jìn)展,然而隨之也帶來了計(jì)算量和參數(shù)量的顯著增加。
目前,基于卷積神經(jīng)網(wǎng)絡(luò)的魚群檢測方法存在如下問題:大多數(shù)檢測精度高的方法,模型計(jì)算復(fù)雜度高、檢測速度慢;而模型計(jì)算復(fù)雜度低、檢測速度快的方法,檢測精度卻又不高。關(guān)于平衡好檢測速度、檢測精度和模型計(jì)算復(fù)雜度的魚群檢測方法,當(dāng)前的研究還不多。為了有效地解決當(dāng)前網(wǎng)絡(luò)對魚類進(jìn)行檢測時存在的精度低、模型過大等問題,本文提出了一種基于YOLOv7的輕量化魚類檢測模型。
1" YOLOv7模型
YOLOv7是由Wang等人于2022年7月提出的一種實(shí)時目標(biāo)檢測算法。目前,在FPS為5~160范圍內(nèi),YOLOv7模型的檢測速度和精度超過之前的YOLO版本和Two?stage目標(biāo)檢測算法,它集成了結(jié)構(gòu)重參數(shù)化[19]、正負(fù)樣本分配策略和帶有輔助頭部的訓(xùn)練方法[20],實(shí)現(xiàn)了檢測效率和精度之間的良好平衡。YOLOv7網(wǎng)絡(luò)由輸入(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)和頭部網(wǎng)絡(luò)(Head)四個不同的模塊組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。該算法本質(zhì)上是一個回歸問題,在多類別預(yù)測方面表現(xiàn)良好。
2" 改進(jìn)的YOLOv7目標(biāo)檢測模型
2.1" Backbone輕量化改進(jìn)
為了在保持高檢測精度和速度的前提下盡量減少模型參數(shù),本文采用GhostNet[21]網(wǎng)絡(luò)替代YOLOv7的主干特征提取網(wǎng)絡(luò)。GhostNet網(wǎng)絡(luò)是華為諾亞方舟實(shí)驗(yàn)室在2020年提出的一種輕量級檢測網(wǎng)絡(luò),它由瓶頸結(jié)構(gòu)塊Ghost Bottleneck堆疊而成,其結(jié)構(gòu)如圖2所示。
圖2a)采用兩個Ghost Module(GM)串聯(lián),其中第一個GM擴(kuò)展通道數(shù),第二個GM將通道數(shù)降至與輸入通道數(shù)相匹配。由于[s]=1,因此不影響輸入特征層的高度和寬度,其主要目的在于增加網(wǎng)絡(luò)的深度。
圖2b)在兩個GM之間加入分組卷積層,用于壓縮特征圖的高度和寬度至輸入的一半大小;由于[s]=2,這一步驟會使得輸入特征層的高度和寬度減半,其作用在于改變輸入特征層的形狀。傳統(tǒng)卷積和Ghost Module輸出特征的參數(shù)量分別如式(1)和式(2)所示:
[NUMparameters=ksize×ksize×cin×cout] (1)
[GM_NUMparameters=1×1×cin×cout2×ksize×ksize×cout 2] (2)
計(jì)算量分別如式(3)和式(4)所示:
[FLOPs=cout×hout×wout×cin×ksize×ksize] (3)
[GM_FLOPs=cout2×hout×wout×cin×1×1×cout2×hout×wout×ksize×ksize] (4)
式中:[ksize]代表卷積核的大??;[cin]和[cout]分別表示輸入通道數(shù)和輸出通道數(shù);[hout]和[wout]分別表示輸出特征圖的高和寬。
通過比較式(1)~式(4),Ghost Module網(wǎng)絡(luò)相較于普通卷積操作,具有更小的計(jì)算量和參數(shù)量比值,為[12ksize×ksize+12cin]倍。
由此可知,采用GhostNet作為主干網(wǎng)絡(luò),能夠顯著減少模型的參數(shù)。
2.2" 基于PConv的特征融合網(wǎng)絡(luò)改進(jìn)
為了提高特征融合網(wǎng)絡(luò)中ELAN?H模塊的特征提取能力和推理速度,在原有結(jié)構(gòu)基礎(chǔ)上,引入FasterNet[22]中所提出的PConv(Partial Convolution)替換CBS卷積層,來實(shí)現(xiàn)輕量且高效的檢測網(wǎng)絡(luò)。
PConv只需在一部分輸入通道上應(yīng)用濾波器進(jìn)行空間特征提取,其余通道保持不變,它對于連續(xù)或規(guī)則的內(nèi)存訪問,將第一個或最后一個連續(xù)的通道看作整個特征圖的代表進(jìn)行計(jì)算,更有效地提取空間特征,彌補(bǔ)了傳統(tǒng)標(biāo)準(zhǔn)卷積操作引起的每秒浮點(diǎn)運(yùn)算次數(shù)高頻訪問延遲的缺陷。
在PConv模塊中,為避免由于特征圖不同通道產(chǎn)生的高度冗余,選擇僅對輸入的部分通道執(zhí)行卷積操作,而將其他剩余的輸入通道保持不變,如圖3所示。
為了實(shí)現(xiàn)連續(xù)或常規(guī)的內(nèi)存訪問,將輸入或輸出的[cp]個通道作為整個特征圖的代表進(jìn)行計(jì)算。這種情況下,PConv的FLOPs為[h×w×k2×c2p],如果將[cp]設(shè)置為輸入通道[c]的[14],相較于常規(guī)卷積的[116],內(nèi)存訪問僅為[h×w×2cp],為常規(guī)卷積的[14]。
顯然,PConv相較于常規(guī)卷積具有更低的FLOPs,此外,PConv更好地利用計(jì)算設(shè)備的能力,并在同時提取空間特征方面表現(xiàn)出良好的效果。因此,采用PConv模塊不僅可以保持網(wǎng)絡(luò)輕量化,而且增強(qiáng)了特征圖的生成能力,為魚類檢測模型的訓(xùn)練和推理帶來了顯著的優(yōu)勢。
2.3" CBAM注意力機(jī)制
水下的真實(shí)環(huán)境復(fù)雜,為了抑制復(fù)雜背景特征對檢測的干擾,增強(qiáng)重要特征,提升模型的檢測精度,在YOLOv7的特征提取部分嵌入CBAM(Convolutional Block Attention Module)[23]。CBAM由通道注意力模塊(Channel Attention Module)和空間注意力模塊(Spatial Attention Module),組成模型結(jié)構(gòu)如圖4所示。
通道注意力模塊采用壓縮輸入特征圖的空間維度方法,同時應(yīng)用平均池化和最大池化方法,可以有效地計(jì)算分配給通道維度的權(quán)重關(guān)注,公式如下:
[Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))]""(5)
式中:[F]為輸入特征圖;[σ]表示Sigmoid函數(shù);[MLP]是一個帶有隱藏層的多層感知器;[AvgPool]代表平均池化操作;[MaxPool]代表最大池化操作。
空間注意力模塊關(guān)注的是信息在圖像中的位置,是前一個模塊的補(bǔ)充。在計(jì)算上,它首先在通道軸上采用平均池化和最大池化操作,并將它們連接成一個有意義的特征描述符。這兩種池化操作將聚合特征圖的通道信息以生成2D地圖,最后由卷積層進(jìn)行卷積運(yùn)算,得到相應(yīng)的空間特征圖,具體公式如下:
[Ms(F)=σf7×7([AvgPool(F);MaxPool(F)])] (6)
式中[f7×7]表示7×7卷積核。
通道注意力和空間注意力的組合,使得網(wǎng)絡(luò)能夠更加準(zhǔn)確地捕捉到目標(biāo)的重要特征,提高網(wǎng)絡(luò)的表示能力和泛化能力,從而實(shí)現(xiàn)對魚體關(guān)鍵特征的高效提取和特征增強(qiáng),削弱水下復(fù)雜環(huán)境背景干擾。
2.4" 上采樣方式改進(jìn)
特征上采樣是目標(biāo)檢測任務(wù)中的關(guān)鍵操作。YOLOv7中的特征融合采用了最近鄰插值上采樣,這種方式僅依賴于像素點(diǎn)的空間位置來確定上采樣核,未充分利用特征圖的語義信息。這種方法忽略了周圍特征點(diǎn)可能對結(jié)果產(chǎn)生的影響,因而其感受野較為有限。在本文算法中,采用輕量級通用上采樣算子CARAFE來取代最近鄰插值,通過精細(xì)的升級過程增強(qiáng)了其對目標(biāo)檢測任務(wù)的熟練程度。
在CARAFE的計(jì)算過程中,如果給定一個維度為[C×H×W]的特征映射[X],CARAFE將生成一個維度為[C×σH×σW]的新特征映射[X']。對于[X']的任何目標(biāo)位[l′=(i′, j′)],在[X]上都有一個對應(yīng)源位置[l=(i,j)],其中,[i=[i′σ]],[j=[j′σ]]。將[NXl,k]表示為以位置[l]為中心的[X]的[k×k]子區(qū)域,即[Xl]的鄰域。首先,核預(yù)測模塊[Ψ]根據(jù)[Xl]的鄰域?yàn)槊總€位置[l]預(yù)測一個位置核[Wl],如式(7)所示:
[Wl=ΨNXl,Xencoder ] (7)
之后通過內(nèi)容感知重組模塊[Φ]對特征進(jìn)行重組,將[Xl]的鄰域與內(nèi)核[Wl]重新組合,如式(8)所示:
[X′l=ΦNXl,Kup,Wl] (8)
CARAFE相比于YOLOv7原先的上采樣方式引入了極少的計(jì)算成本,并且能輕松地融入現(xiàn)代網(wǎng)絡(luò)架構(gòu)中。它通過自適應(yīng)生成的重組核對圖像中的每個特征點(diǎn)進(jìn)行上采樣操作,使得這些特征點(diǎn)在更廣闊的感受野內(nèi)匯聚了上下文的語義信息,從而有效地減少了上采樣過程對圖像特征的丟失,進(jìn)一步增強(qiáng)了特征加強(qiáng)網(wǎng)絡(luò)的特征提取能力。
2.5" 本文算法結(jié)構(gòu)
完成本文所有模塊與結(jié)構(gòu)輕量化改進(jìn)的YOLOv7算法結(jié)構(gòu),如圖5所示。
3" 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析
3.1" 實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置
本研究實(shí)驗(yàn)環(huán)境為Intel Core i7?9700 CPU 3.00 GHz 3.00處理器,RTX3090顯卡,32 GB內(nèi)存,操作系統(tǒng)為Windows 10,運(yùn)行環(huán)境為Python 3.8,開源深度學(xué)習(xí)框架Pytorch版本為1.13.1,Batchsize設(shè)置為32,選擇SGD優(yōu)化器,訓(xùn)練輪數(shù)設(shè)置為300。
3.2" 數(shù)據(jù)集與評價指標(biāo)
本文的數(shù)據(jù)集來自于大連天正實(shí)業(yè)有限公司的大黑石紅鰭東方鲀養(yǎng)殖車間,共包括1 008張分辨率為1 920×1 080的養(yǎng)殖環(huán)境下的紅鰭東方鲀魚群圖像。這些圖像反映了在不同時間段、光照條件以及魚群密度下,養(yǎng)殖環(huán)境對紅鰭東方鲀魚群生活狀態(tài)的影響。將數(shù)據(jù)集按照8∶1∶1的比例劃分為訓(xùn)練集、驗(yàn)證集和測試集。本文從檢測精度和精測速度兩方面出發(fā),使用平均精度均值(Average Precision, mAP)、幀率(FPS)、浮點(diǎn)運(yùn)算次數(shù)(GFLOPs)和參數(shù)量(Params)四個指標(biāo)來準(zhǔn)確客觀地評價模型的性能。
mAP表示所有類別的平均AP,用于綜合評估模型在多個類別上的性能,其計(jì)算公式如式(9)所示:
[mAP=1nAP] (9)
FPS表示模型每秒處理的幀數(shù),反映了模型推理的速度,該值越大,說明模型的推理速度越快,模型性能越好;GFLOPs是浮點(diǎn)運(yùn)算量,衡量模型的復(fù)雜度;Params是模型中參數(shù)的總和,用于評估模型的大小。
3.3" 消融實(shí)驗(yàn)
為了驗(yàn)證本文所提算法的有效性,分別進(jìn)行了8組實(shí)驗(yàn),加入了不同的模塊,為了公平比較,環(huán)境及參數(shù)設(shè)置均保持統(tǒng)一。與原來的YOLOv7模型進(jìn)行了比較,實(shí)驗(yàn)編號與結(jié)果如表1所示,其中,“√”表示使用相應(yīng)方法。
Exp.1為原始YOLOv7算法的實(shí)驗(yàn)結(jié)果,作為后7組實(shí)驗(yàn)的對比基準(zhǔn)。在一系列實(shí)驗(yàn)中,GhostNet模塊替換主干網(wǎng)絡(luò),降低了參數(shù)量和計(jì)算量,盡管稍微降低了精度。PConv替換ELAN?H模塊的CBS層,使參數(shù)量和計(jì)算量分別減少了12%和19%,F(xiàn)PS提升了6.6,檢測精度略有提高。CBAM關(guān)注模塊的引入略微提高了平均檢測精度0.63%。僅替換上采樣算子CARAFE的實(shí)驗(yàn)提高了0.91%的檢測mAP值。同時引入PConv和CARAFE模塊后,模型參數(shù)量、計(jì)算量和檢測速度均得到優(yōu)化,平均精度進(jìn)一步提升至94.15%。整合GhostNet模塊改進(jìn)主干網(wǎng)絡(luò)、PConv和CBAM改進(jìn)的Neck層后,平均檢測精度顯著提高了1.41%。最終的改進(jìn)算法將4個模塊融合,檢測精度提升了1.86%,F(xiàn)PS提高了18.5,同時模型參數(shù)和計(jì)算量顯著減少。這些結(jié)果表明,引入不同模塊可以在一定程度上提高檢測精度,同時平衡模型速度和輕量化,為水下終端設(shè)備的部署提供了可行性。
3.4" 模型性能對比實(shí)驗(yàn)
本文算法在復(fù)雜的水下場景中具有良好的檢測能力和更快的檢測速度,為了進(jìn)一步驗(yàn)證所提出模型的性能,將本文算法與YOLOv4、YOLOv5s等水下目標(biāo)檢測主流算法進(jìn)行對比,在同一數(shù)據(jù)集上,采用相同的訓(xùn)練方法進(jìn)行網(wǎng)絡(luò)模型訓(xùn)練,對比結(jié)果如表2所示。
從表2可以看出,本文模型的參數(shù)量、浮點(diǎn)運(yùn)算次數(shù)大幅低于YOLOv4、YOLOv7模型,YOLOv5s和YOLOv7?tiny是工業(yè)上應(yīng)用最廣泛的單階段目標(biāo)檢測算法,和二者相比,雖然本文模型的參數(shù)量和計(jì)算量都較高,但是84.3的檢測速度仍能滿足實(shí)時檢測的要求,同時模型檢測的準(zhǔn)確率遠(yuǎn)高于二者。此外,本文改進(jìn)的算法在檢測速度和檢測精度方面均優(yōu)于原始網(wǎng)絡(luò)YOLOv7,體現(xiàn)了本文算法具有更好的性能,展現(xiàn)了其在水下目標(biāo)檢測中的優(yōu)勢。各模型在部分測試圖片上的檢測結(jié)果如圖6所示,其中本文模型檢測出的目標(biāo)置信度最高。
4" 結(jié)" 語
目前水下目標(biāo)檢測算法的改進(jìn)主要致力于提高檢測精度,導(dǎo)致模型參數(shù)量多、實(shí)時性差,難以部署在水下移動設(shè)備或嵌入式設(shè)備。為此,本文提出了一種兼顧精度和速度的輕量化水下目標(biāo)檢測算法。實(shí)驗(yàn)結(jié)果表明,本文方法的mAP提高至95.54%,處理速度達(dá)到84.3 FPS,這表明本文方法在精度和速度方面有一定的優(yōu)勢,實(shí)現(xiàn)了水下目標(biāo)檢測速度和精度的良好平衡,在復(fù)雜水下環(huán)境的性能優(yōu)于目前最先進(jìn)的目標(biāo)檢測模型。
本文提出的網(wǎng)絡(luò)為解決水下生物探測研究中的困難提供了一種新的思路,實(shí)現(xiàn)了水下目標(biāo)探測研究的高精度和實(shí)時性。然而,整個網(wǎng)絡(luò)結(jié)構(gòu)仍有很大的改進(jìn)空間,水下目標(biāo)檢測技術(shù)的實(shí)時性和輕量化方面還有待進(jìn)一步研究。在未來的工作中,將繼續(xù)深入研究輕量化在水下目標(biāo)檢測中的應(yīng)用。
參考文獻(xiàn)
[1] LI D, MIAO Z, PENG F, et al. Automatic counting methods in aquaculture: A review [J]. Journal of the World Aquaculture Society, 2021, 52(2): 269?283.
[2] 于紅.水產(chǎn)動物目標(biāo)探測與追蹤技術(shù)及應(yīng)用研究進(jìn)展[J].大連海洋大學(xué)學(xué)報(bào),2020,35(6):793?804.
[3] PHILIP CHEN C L, ZHANG C Y. Data?intensive applications, challenges, techniques and technologies: A survey on big data [J]. Information sciences, 2014, 275: 314?347.
[4] 范麗麗,趙宏偉,趙浩宇,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測研究綜述[J].光學(xué)精密工程,2020,28(5):1152?1164.
[5] AGRAWAL P, GIRSHICK R, MALIK J. Analyzing the performance of multilayer neural networks for object recognition [C]// 13th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2014: 329?344.
[6] REN S, HE K, GIRSHICK R, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [C]// Annual Conference on Neural Information Processing Systems. [S.l.: s.n.], 2015: 91?99.
[7] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 6517?6525.
[8] REDMON J, FARHADI A. YOLOv3: An incremental improvement [EB/OL]. [2018?04?08]. https://arxiv.org/abs/1804.02767.
[9] BOCHKOVSKIY A, WANG C, LIAO H M. YOLOv4: Optimal speed and accuracy of object detection [EB/OL]. [2020?04?23]. https://api.semanticscholar.org/CorpusID:216080778.
[10] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real?time object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 779?788.
[11] FU C, LIU W, RANGA A, et al. DSSD: Deconvolutional single shot detector [EB/OL]. [2017?10?26]. http://arxiv.org/abs/1701.06659.
[12] LI Z X, ZHOU F Q. FSSD: Feature fusion single shot multibox detector [EB/OL]. [2024?02?23]. https://arxiv.org/abs/1712.00960v1.
[13] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector [C]// Proceedings of 14th European Conference on Computer Vision. Heidelberg, Germany: Springer, 2016: 21?37.
[14] 趙夢,于紅,李海清,等.融合SKNet與YOLOv5深度學(xué)習(xí)的養(yǎng)殖魚群檢測[J].大連海洋大學(xué)學(xué)報(bào),2022,37(2):312?319.
[15] ZHAO Y, LI W, LI Y, et al. LFCNet: A lightweight fish counting model based on density map regression [J]. Computers and electronics in agriculture, 2022, 203: 107496.
[16] ZHAO S, ZHANG S, LU J, et al. A lightweight dead fish detection method based on deformable convolution and YOLOV4 [J]. Computers and electronics in agriculture, 2022, 198: 107098.
[17] 劉浩翰,樊一鳴,賀懷清,等.改進(jìn)YOLOv7?tiny的目標(biāo)檢測輕量化模型[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(14):166?175.
[18] LIU K Y, SUN Q, SUN D M, et al. Underwater target detection based on improved YOLOv7 [J]. Journal of marine science and engineering, 2023, 11(3): 677.
[19] DING X, ZHANG X, MA N, et al. RepVGG: Making VGG?style ConvNets great again [EB/OL]. [2021?03?29]. https://arxiv.org/abs/2101.03697v3.
[20] DOLLáR P, SINGH M, GIRSHICK R. Fast and accurate model scaling [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 924?932.
[21] HAN K, WANG Y, TIAN Q, et al. GhostNet: More features from cheap operations [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 1577?1586.
[22] CHEN J, KAO S, HE H, et al. Run, don′t walk: Chasing higher FLOPS for faster neural networks [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 12021?12031.
[23] WOO S, PARK J, LEE J, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). [S.l.: s.n.], 2018: 3?19.
作者簡介:曹靜雯(1998—),女,福建福州人,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。
孟" 娟(1981—),女,云南昆明人,碩士,副教授,研究方向?yàn)閳D像處理。
朱珈緣(1997—),女,遼寧康平人,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。
馬媛媛(1997—),女,寧夏銀川人,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。