亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv7?tiny的血細胞檢測算法

        2025-04-05 00:00:00葉鑫鐘國韻劉梅鋒
        現(xiàn)代電子技術(shù) 2025年7期
        關(guān)鍵詞:注意力機制深度學習

        摘" 要: 血常規(guī)檢驗作為醫(yī)療診斷的一項重要方法,主要是對血液中血小板、白細胞和紅細胞進行識別和計數(shù)。針對血細胞檢測存在細胞形狀不規(guī)則、目標尺度變化大、細胞相互遮擋等問題,提出一種改進YOLOv7?tiny的血細胞檢測算法——EMCDModel。首先,采用可變形卷積(DCNv3)替換高效長程聚合網(wǎng)絡(luò)的二維卷積,提出ELAN?DF模塊,提高了不規(guī)則目標特征學習能力,降低了模型參數(shù)量和計算量;其次,采用MPDIoU替換原始的CIoU適應血細胞密集分布下的尺度變化,降低其相互遮擋導致的漏檢率;在主干加入CBAM注意力機制加強對血細胞關(guān)鍵信息的學習,提高對血小板等小目標的檢測精度;最后,通過輕量級上采樣算子CARAFE替換頸部網(wǎng)絡(luò)的最近鄰插值法,強化頸部網(wǎng)絡(luò)的特征融合能力,同時降低模型參數(shù)量。在BCCD數(shù)據(jù)集上的實驗結(jié)果表明,EMCDModel的平均精度均值(mAP)達到92.8%,模型大小僅有5.5 MB,相較于YOLOv7?tiny算法,mAP提升了3.8%,參數(shù)量降低了8.15%,有效提升了血細胞檢測精度。

        關(guān)鍵詞: 深度學習; 血細胞檢測; YOLOv7?tiny; 注意力機制; 可變形卷積; 小目標檢測

        中圖分類號: TN911.73?34; TP391" " " " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2025)07?0119?07

        Blood cell detection algorithm based on YOLOv7?tiny

        YE Xin1, ZHONG Guoyun1, LIU Meifeng2

        (1. School of Information Engineering, East China University of Technology, Nanchang 330013, China;

        2. School of Mechanical and Electronic Engineering, East China University of Technology, Nanchang 330013, China)

        Abstract: The blood routine examination is vital for medical diagnosis, identifying and counting components like red blood cells (RBCs), white blood cells (WBCs) and platelets (PLTs). In view of the irregular cell shape, large change of object scale and mutual occlusion of cells in blood cell detection, a blood cell detection algorithm EMCDModel based on improved YOLOv7?tiny is proposed. Firstly, the deformable convolutional networks (DCNv3) is used to replace the 2D convolution of the efficient long?distance aggregation network, and an ELAN?DF module is proposed, which improves the learning ability of irregular object features and reduces the model parameters and computation. MPDIoU (minimum point distance based IoU) is used to replace the original CIoU (complete intersection over union) to adapt to the scale variations in the case of dense blood cell distribution, lowering missed detection rates due to occlusion. The CBAM (convolutional block attention module) attention mechanism is introduced to" the backbone to enhance the learning for the key information of blood cells, so as to improve the detection accuracy of small objects like PLTs. Finally, the lightweight upsampling operator CARAFE (content?aware reassembly of features) is used to replace the nearest neighbor interpolation, so as to improve the feature fusion in the neck network and reduce the model parameters. Tests on the BCCD (blood cell count and detection) dataset show that the EMCDModel achieves an mAP (mean average precision) of 92.8% with a model size of 5.5 MB. In comparison with the YOLOv7?tiny, the EMCDModel improves mAP by 3.8%, reduces parameters by 8.15%, and improves blood cell detection accuracy effectively.

        Keywords: deep learning; blood cell detection; YOLOv7?tiny; attention mechanism; deformable convolution; small object detection

        0" 引" 言

        在臨床檢驗中,血常規(guī)作為一種常見的醫(yī)療手段,通過對紅細胞(RBCs)、白細胞(WBCs)和血小板(PLT)的計數(shù)和檢測,為醫(yī)療診斷提供重要信息[1]。

        傳統(tǒng)的血常規(guī)檢驗通常需要進行繁瑣的手動操作和計數(shù),存在著工作量大、耗時長、易出錯等問題,限制了其在臨床診斷中的應用效率和準確性,而基于深度學習的目標檢測算法更適合血細胞檢測任務。

        目前,主流的檢測算法分為單階段算法和雙階段算法。雙階段算法以R?CNN[2]和Faster?RCNN[3]等為代表,先對候選區(qū)域進行提取,再進行分類和位置調(diào)整,雖然能達到高精度,但由于需要兩個獨立的階段,檢測速度較慢。相比之下,單階段算法如YOLO[4]和SSD[5]則通過端到端的方法,一次性完成目標檢測和邊界框回歸,時間更少、精度較好,因此更適用于血細胞檢測等任務。文獻[6]提出了基于生成對抗網(wǎng)絡(luò)的LabGAN方法,有效解決了細胞樣本多樣性不足的問題;文獻[7]結(jié)合Vision Transformer模型和稀疏注意力機制,通過定位血細胞圖像的辨識區(qū)域并應用對比損失函數(shù)實現(xiàn)對血細胞的分類;文獻[8]通過空間金字塔池化和混合空洞卷積技術(shù)改進CSRNet網(wǎng)絡(luò),改善了因細胞尺寸變化導致的計數(shù)精度低的問題;文獻[9]基于改進的YOLOv4?tiny和Res2Net算法提出了新的血細胞識別方法;文獻[10]針對關(guān)鍵信息提取提出了YOLO和squeeze?and?excitation的ISE?YOLO;文獻[11]建立的輕量級TE?YOLOF對于紅細胞檢測表現(xiàn)出較好的泛化能力;文獻[12]對YOLOv5加入CA注意力機制、跨尺度特征融合方法,并增加小目標檢測層;文獻[13]提出了改進的YOLOX算法,通過Focal loss、混合注意力機制、自適應空間特征融合和逆深度可分離卷積模塊,在BCCD數(shù)據(jù)集上達到了92.5%的精度。

        但目前仍存在著一些挑戰(zhàn),包括針對血細胞形狀不規(guī)則、目標尺度變化大等特征問題,以及在檢測過程中存在的相互遮擋導致漏檢、錯檢。因此,本文提出了一種基于YOLOv7?tiny[14]改進的血細胞檢測算法——EMCDModel(Excellent Microscope Cell Detection Model),本文的主要貢獻如下。

        1) 針對血細胞結(jié)構(gòu)不規(guī)則的問題,使用可變形卷積v3[15]改進ELAN,加強血細胞特征的提取能力,提高模型的檢測精度。

        2) 針對目標尺度變化大的問題,采用最小距離的邊界框損失函數(shù)MPDIoU[16]替換原損失函數(shù)CIoU,加速回歸框的收斂,使模型更加靈活地檢測血細胞。

        3) 針對血細胞堆疊帶來的誤檢和漏檢問題,在骨干網(wǎng)絡(luò)中引入CBAM[17]混合域注意力機制,更集中關(guān)注待檢測目標的關(guān)鍵特征,抑制無關(guān)背景信息的干擾。

        4) 為加強模型的特征融合能力,將頸部網(wǎng)絡(luò)上采樣方法替換為CARAFE[18],以降低模型參數(shù)量并提高信息融合能力。

        1" YOLOv7?tiny算法原理

        YOLOv7?tiny算法具有計算量較小、檢測速度快和保持較高精度的優(yōu)勢。本文選擇YOLOv7?tiny作為基準模型,模型由輸入端(Input)、主干網(wǎng)絡(luò)(Backbone)、特征融合網(wǎng)絡(luò)(Neck)以及檢測頭(Head)組成。

        YOLOv7?tiny模型在輸入端通過自適應圖片縮放和填充,將各種尺寸的樣本標準化為統(tǒng)一大小,并采用Mosaic和Mixup數(shù)據(jù)增強技術(shù)強化訓練。在主干網(wǎng)絡(luò)部分,YOLOv7?tiny使用LeakyReLU激活函數(shù)替代SiLU,減少計算開銷;對高效聚合網(wǎng)絡(luò)(ELAN)減少兩組卷積塊,提高運算速度;保留MPConv模塊的下采樣池化操作,防止特征冗余;通過更少卷積的SPPCSPC模塊為Neck層傳遞特征圖。在Neck層,路徑聚合特征金字塔(PAFPN)和路徑聚合網(wǎng)絡(luò)(PANet)將高層語義信息與底層定位信息融合,實現(xiàn)多尺度學習。在Head層,將RepConv替換為CBL卷積塊,降低模型參數(shù)量,通過CBL卷積處理Neck層輸出的大、中、小三種尺寸的特征圖,最終進入IDTECET檢測頭實現(xiàn)檢測。

        2" 改進的YOLOv7?tiny算法

        2.1" 高效層聚合模塊改進

        ELAN基于卷積堆疊提高融合效率,并采用張量拼接對特征信息進行融合。為進一步強化對不規(guī)則血細胞的特征提取和融合能力,使用可變形卷積v3(Deformable Convolutional Networks v3, DCNv3)替換ELAN的兩組3×3標準卷積,改進后的模塊ELAN?DF結(jié)構(gòu)如圖1所示。

        DCNv3通過引入動態(tài)稀疏卷積,增強了空間和形狀自適應能力。靈活的采樣偏移量使卷積核自適應地調(diào)整感受野,捕捉長程依賴特征,改善對局部不規(guī)則區(qū)域的感知能力,如式(1)所示。

        [y(p0)=k=1Kwkmkx(p0+pk+Δpk)] (1)

        式中:[wk]表示投影權(quán)重;[mk]是調(diào)制標量;[pk]是預定義的采樣點位置;[Δpk]是動態(tài)學習的偏移量。通過調(diào)制標量和偏移量的動態(tài)調(diào)整,DCNv3實現(xiàn)了對輸入特征的自適應空間聚合,從而提高了對血細胞目標的感知能力。因此,ELAN?DF能夠動態(tài)調(diào)整卷積核的位置和權(quán)重,使模型能適應復雜形狀血細胞的檢測,有效解決了由于血細胞形狀不規(guī)則和堆疊導致的識別困難問題。

        2.2" MPDIoU損失函數(shù)

        YOLOv7?tiny沿用了YOLOv7的邊界框回歸損失函數(shù)CIoU(Complete Intersection over Union),[?CIoU]的計算公式如式(2)~式(4)所示:

        [?CIoU=1-IoU+ρ2Bgt,Bpredd2+αν] (2)

        [ν=4π2arctanwgthgt-arctanwpredhpred2] (3)

        [α=ν1-IoU+ν] (4)

        式中:[IoU]表示預測框和真實框交并比;[ρ2Bgt,Bpred]是預測框和真實框中心點之間的距離;[d]是最小矩形區(qū)域的對角線長度;[α]是權(quán)重參數(shù);[ν]是寬高比的一致性度量;[wpred]和[hpred]分別是預測框的寬度和高度;[wgt]和[hgt]分別是真實框的寬度和高度。

        CIoU在處理如圖2所示的相同寬高比但尺寸不同的血細胞目標時,無法有效區(qū)分,從而影響檢測精度。同時,各類血細胞的尺度區(qū)間較大,可能無法快速收斂。因此,采用MPDIoU(Minimum Point Distance IoU)損失函數(shù)替換CIoU損失函數(shù)。MPDIoU實現(xiàn)了最小化真實框與預測框之間的頂點距離,更全面地衡量預測框和真實框的相似度,提高回歸精度和收斂速度。

        [?MPDIoU]的定義如式(5)~式(7)所示:

        [?MPDIoU=1-IoU+d21w2+h2+d22w2+h2] (5)

        [d21=xpred1-xgt12+ypred1-ygt12] (6)

        [d22=xpred2-xgt22+ypred2-ygt22] (7)

        式中:[w]和[h]是圖像的寬度和高度;[d1]和[d2]分別是預測框和真實框的左上角點和右下角點的歐幾里得距離;[xpred1,ypred1]和[xpred2,ypred2]分別是預測框的左上角點和右下角點坐標;[xgt1,ygt1]和[xgt2,ygt2]分別是真實框的左上角點和右下角點坐標。MPDIoU計算示例如圖3所示。

        MPDIoU是基于最小點距離的IoU度量,考慮預測框和真實框頂點之間的距離,避免如CIoU的相同寬高比但尺寸不同的缺陷,在應對不同尺度血細胞和復雜背景時表現(xiàn)出更高的魯棒性。

        2.3" 注意力機制改進

        當血細胞在圖像中堆疊時,會增加大量無關(guān)的背景信息,使得模型難以正確檢測血細胞。這會干擾模型對關(guān)鍵信息的提取,導致檢測的準確性降低。因此,本文在YOLOv7?tiny的特征提取主干網(wǎng)絡(luò)中引入了CBAM(Convolutional Block Attention Module)。CBAM由空間注意力模塊(Spatial Attention Module, SAM)和通道注意力模塊(Channel Attention Module, CAM)組成,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        CAM模塊通過全局平均池化和全局最大池化生成兩個特征描述,并將這兩個特征描述輸入共享的多層感知器(MLP),然后將輸出結(jié)果加和并通過Sigmoid激活函數(shù)得到通道注意力權(quán)重,具體結(jié)構(gòu)如圖5所示。

        SAM通過全局平均池化和全局最大池化在通道維度生成兩個特征描述,將它們拼接并通過一個卷積層得到空間注意力權(quán)重,結(jié)構(gòu)如圖6所示。

        通過CBAM能夠在特征提取過程中有效地過濾掉不重要的信息,增強模型對關(guān)鍵信息的關(guān)注。緩解血細胞堆疊帶來的無關(guān)背景信息問題,提高模型對血細胞關(guān)鍵信息特征提取及檢測精度。

        2.4" CARAFE上采樣方法

        YOLOv7?tiny采用的最近鄰插值上采樣法無法有效捕捉圖像中大量邊緣血細胞和被遮擋形成的不規(guī)則血細胞等復雜目標的細節(jié)和紋理信息。因此,為加強模型對這些復雜特征的表達能力,采用一種輕量級且高效的上采樣算子CARAFE。CARAFE是基于自適應內(nèi)容感知的上采樣預測核,能夠更好地保留和重組圖像的細節(jié)特征,提升頸部網(wǎng)絡(luò)的信息表達能力,提高檢測精度。

        CARAFE通過上采樣核預測模塊和特征重組模塊兩個主要部件實現(xiàn),結(jié)構(gòu)如圖7所示。

        圖7中,上采樣核預測模塊對輸入的血細胞圖像特征圖[X]經(jīng)過1×1卷積層實現(xiàn)通道壓縮,通道數(shù)從[C]壓縮減少到[Cm],以減少參數(shù)量和計算成本,提高計算效率。其次,壓縮后的特征圖通過內(nèi)容編碼器處理,內(nèi)容編碼器對輸入特征圖的內(nèi)容生成每個位置的重組核[Wl'],如式(8)所示。最后再通過softmax歸一化處理,確保特征圖的整體尺度不變。通過動態(tài)生成自適應的重組核,更好地捕捉血細胞中復雜的細節(jié)和紋理信息。

        [Wl'=ψN(χl,kencoder)] (8)

        特征重組則通過內(nèi)容感知的方式進行重組,以提升特征上采樣的效果。該模塊基于預測的重組核,對源位置的局部區(qū)域[kup×kup]大小特征進行加權(quán)求和,最終實現(xiàn)上采樣,如式(9)所示:

        [X'l=?(N(χl,kup),Wl')] (9)

        CARAFE的兩部分共同完成對特征圖的內(nèi)容感知上采樣,為模型提供了更準確的特征表示,從而提高了模型的性能和檢測精度。EMCDModel的詳細模型結(jié)構(gòu)如圖8所示。

        3" 實驗結(jié)果與分析

        3.1" 實驗設(shè)置

        本文設(shè)置了120個epoch,初始學習率為0.001,動量項設(shè)為0.9,batch size保持16,更多參數(shù)設(shè)置如表1所示。

        3.2" 數(shù)據(jù)集介紹

        本文采用BCCD(Blood Cell Count and Detection)[19]數(shù)據(jù)集作為實驗數(shù)據(jù)集。該數(shù)據(jù)集包含364張640×640×3的圖片,主要由RBC、WBC和Platelets組成,實驗數(shù)據(jù)按7∶2∶1的比例隨機劃分為訓練集、驗證集和測試集,具體如表2所示。此外,應用Mosaic和Mixup在線數(shù)據(jù)增強,提高模型泛化能力。

        3.3" 評價標準

        為驗證本文在原模型上改進的有效性,選用了多個指標來評估模型性能,包括平均精度值(AP)、平均精度均值(mAP)、參數(shù)量(Params)和模型計算量(GFLOPs)。mAP@0.5指的是檢測框與真實框的IoU為0.5時,各類別AP@0.5的平均值。參數(shù)量表示模型可訓練參數(shù)的總數(shù),越小越簡潔。GFLOPs表示模型運算算力,值越小越好,具體公式如式(10)~式(13)所示。

        [Precision=TPTP+FP] (10)

        [Recall=TPTP+FN] (11)

        [AP=01PRdR] (12)

        [mAP=1ni=1nAPi] (13)

        3.4" 消融實驗

        通過基于YOLOv7?tiny的消融實驗驗證本文在YOLOv7?tiny上的有效性。實驗通過增加或替換模塊來評估其對整體性能的影響,消融結(jié)果如表3所示,其中“√”為改進的模塊。

        表3中:A組為基準模型YOLOv7?tiny實驗結(jié)果,血細胞mAP@0.5為89.0%,其中PLT精度為83.6%,作為主要影響因素。B組加入了ELAN?DF模塊,模型對血細胞檢測精度整體提升。RBC、WBC和PLT的檢測精度分別提高到87.8%、98.6%和86.9%,平均精度均值(mAP)提高至91.1%,相比基準模型提升了2.1%。C組進一步將回歸框損失函數(shù)替換為MPDIoU,結(jié)果顯示PLT小目標檢測精度提高了3.5%,提升了對小目標的回歸框收斂速度。D組加入了CBAM注意力機制。該機制增強了模型對血細胞關(guān)鍵信息的提取,并有效抑制了無關(guān)信息,mAP@0.5達到了92.4%。最后一組通過替換上采樣算子為CARAFE,增強模型對上下文信息融合能力,得到MECDModel的平均精度均值達到最高92.8%,相比A組基準模型最終提高了3.8%。本文的優(yōu)化算法顯著提升了YOLOv7?tiny在血細胞檢測研究中的性能,證明了其有效性。

        3.5" 對比實驗

        本文將MECDModel與近年來的血細胞檢測模型以及Faster?RCNN、YOLOv7、YOLOv7?tiny在BCCD數(shù)據(jù)集上進行對比分析。

        從表4對比結(jié)果可以看出,MECDModel平均精度均值mAP@0.5達到了92.8%,相比Faster?RCNN、YOLOv7和YOLOv7?tiny分別提高了16.3%、4.6%和3.8%。雖然MECDModel的推理時間為43.8 ms,相比YOLOv7和YOLOv7?tiny分別慢了13.6 ms和22.9 ms,但其在精度上的顯著提升彌補了速度上的劣勢。此外,MECDModel的參數(shù)量僅為5.52 MB,有利于在資源有限的環(huán)境中部署。

        在與近年來其他血細胞檢測模型的對比中,MECDModel在處理各類血細胞方面表現(xiàn)優(yōu)異。例如,相比YOLO?Att,MECDModel在WBC檢測上提高了3.69%,雖然略低于YOLOv5?CBF 0.4%,但在RBC檢測上提高了0.2%,在PLT檢測上提高了1.7%。這些提升得益于MPDIoU損失函數(shù)優(yōu)化了模型對小目標的預測回歸框的收斂情況,驗證了算法改進的有效性。相比改進的YOLOX[13],MECDModel的參數(shù)量減少了34.60%,GFLOPs降低了50.03%,顯著降低了應用成本。

        此外,效果對比圖如圖9所示,MECDModel對邊緣血細胞、重疊血細胞檢測效果更好,小目標漏檢率更低,能夠有效區(qū)分血細胞類型,進一步驗證了改進算法的有效性。

        4" 結(jié)" 語

        本文提出的改進YOLOv7?tiny血細胞檢測算法EMCDModel旨在提升血細胞檢測效果。首先,引入DCNv3設(shè)計ELAN?DF模塊,增強對不規(guī)則目標特征的學習能力;其次,采用MPDIoU替代CIoU,增強模型在處理血細胞密集分布時的尺度變化能力,減少因相互遮擋導致的漏檢;然后在主干網(wǎng)絡(luò)中加入CBAM,減少噪聲干擾,提高小目標的檢測精度;最后,利用輕量級上采樣算子CARAFE加強頸部網(wǎng)絡(luò)的特征融合能力,并減少模型參數(shù)量。在今后的研究中,將繼續(xù)進行基于深度學習的血細胞檢測算法研究,并以提高檢測速率、降低模型參數(shù)量作為接下來的研究方向。

        注:本文通訊作者為鐘國韻。

        參考文獻

        [1] 周泉,齊素文,肖斌,等.人工智能助力檢驗醫(yī)學發(fā)展[J].南方醫(yī)科大學學報,2020,40(2):287?297.

        [2] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2014: 580?587.

        [3] REN S Q, HE K M, GIRSHICK R, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [C]// Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015. [S.l.: s.n.], 2015: 91?99.

        [4] REDMON J, DIVVALA S K, GIRSHICK R B, et al. You only look once: Unified, real?time object detection [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 779?788.

        [5] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector [C]// Proceedings of 14th European Conference on Computer Vision. Heidelberg: Springer, 2016: 21?37.

        [6] 丁啟辰,黃小巧,劉泓錕,等.LabGAN:基于生成對抗網(wǎng)絡(luò)標簽自動生成的血細胞檢測方法[J].計算機輔助設(shè)計與圖形學學報,2022,34(7):1058?1067.

        [7] 孫天宇,朱慶濤,楊健,等.基于改進Vision Transformer的血細胞圖像識別方法研究[J].生物醫(yī)學工程學雜志,2022,39(6):1097?1107.

        [8] 張倩,王夏黎,王煒昊,等.基于多尺度特征融合的細胞計數(shù)方法[J].圖學學報,2023,44(1):41?49.

        [9] 李國權(quán),姚凱,龐宇.基于CNN的血液細胞圖像自動識別算法[J].計算機科學,2022,49(4):247?253.

        [10] LIU C, LI D W, HUANG P. ISE?YOLO: Improved squeeze?and?excitation attention module based YOLO for blood cells detection [C]// 2021 IEEE International Conference on Big Data (Big Data). New York: IEEE, 2021: 3911?3916.

        [11] XU F X, LI X K, YANG H, et al. TE?YOLOF: Tiny and efficient YOLOF for blood cell detection [J]. Biomedical signal processing and control, 2022, 73: 103416.

        [12] 張昊,鄭廣海,張鑫,等.改進YOLOv5框架的血細胞檢測算法[J].計算機系統(tǒng)應用,2023,32(5):123?131.

        [13] 易見兵,黃蘇泉,曹鋒,等.基于改進的YOLOX血細胞檢測算法研究[J].電子測量技術(shù),2022,45(22):177?184.

        [14] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.

        [15] WANG W H, DAI J F, CHEN Z, et al. InternImage: Exploring large?scale vision foundation models with deformable convolutions [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 14408?14419.

        [16] SILIANG M, YONG X. MPDIoU: A loss for efficient and accurate bounding box regression [EB/OL]. [2023?07?25]. https://doi.org/10.48550/arXiv.2307.07662.

        [17] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg: Springer, 2018: 3?19.

        [18] WANG J, CHEN K, XU R, et al. CARAFE: Content?aware reassembly of features [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 3007?3016.

        [19] GitHub, Inc. BCCD (blood cell count and detection) dataset [EB/OL]. [2024?02?06]. https://github.com/Shenggan/BCCD.

        [20] 王榆鋒,李大海.改進YOLO框架的血細胞檢測算法[J].計算機工程與應用,2022,58(12):191?198.

        作者簡介:葉" 鑫(1999—),男,江西南昌人,碩士研究生,主要研究方向為計算機視覺。

        鐘國韻(1979—),男,浙江金華人,博士研究生,教授,碩士生導師,研究方向為計算機視覺、圖像音視頻處理。

        劉梅鋒(1979—),女,浙江衢州人,博士研究生,副教授,碩士生導師,研究方向為計算機視覺、圖像音視頻處理。

        收稿日期:2024?06?19" " " " " "修回日期:2024?07?11

        基金項目:國家自然科學基金項目(62162002);江西省主要學科學術(shù)和技術(shù)帶頭人領(lǐng)軍人才項目(20225BCJ22004)

        猜你喜歡
        注意力機制深度學習
        面向短文本的網(wǎng)絡(luò)輿情話題
        基于自注意力與動態(tài)路由的文本建模方法
        軟件導刊(2019年1期)2019-06-07 15:08:13
        基于深度學習的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個基于知識庫的問答系統(tǒng)
        有體驗的學習才是有意義的學習
        電子商務中基于深度學習的虛假交易識別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應用展望
        国产精品毛片av一区二区三区| 国产一女三男3p免费视频| 亚洲av成人精品日韩一区| 探花国产精品三级在线播放| 免费女女同黄毛片av网站| 中文字幕av中文字无码亚| 东北寡妇特级毛片免费| 91国在线啪精品一区| 久久精品国产亚洲不卡| 国产成人精品优优av| 国产免费丝袜调教视频| 98国产精品永久在线观看| 视频在线亚洲视频在线| 风韵丰满熟妇啪啪区老熟熟女 | 亚洲男人天堂| 黄 色 成 年 人 网 站免费| 你懂的视频网站亚洲视频| 波多野结衣绝顶大高潮| 免费无码av片在线观看| 亚洲欧美v国产蜜芽tv| 精品久久中文字幕系列| 国产日产精品一区二区三区四区的特点| 日日摸夜夜添夜夜添无码免费视频 | 免费高清日本中文| 天堂av国产一区二区熟女人妻| 亚洲精品一区久久久久一品av | 欧美大屁股xxxx高潮喷水| 国产香蕉97碰碰视频va碰碰看 | 日韩A∨精品久久久久| 国产91九色视频在线播放| 91久久精品色伊人6882| 青草视频在线播放| 一本大道在线一久道一区二区 | 蜜桃麻豆www久久囤产精品| 亚洲av无码专区在线亚| 三级网站亚洲三级一区| 色偷偷av一区二区三区| 亚洲成a人片在线观看久| 综合图区亚洲偷自拍熟女| 高清午夜福利电影在线| 无码一区二区波多野结衣播放搜索|