收稿日期:2023-03-15;接受日期:2023-06-16
基金項目:國家自然科學(xué)基金項目(61961026);江西省科技廳重大科技研發(fā)專項“揭榜掛帥”制項目(20213AAG01012)
作者簡介:譚文群,女,教授,碩士,主要從事無線通信技術(shù)研究。E-mail:twqun@163com
通信作者:
包學(xué)才,男,教授,博士,主要從事物聯(lián)網(wǎng)技術(shù)及應(yīng)用研究。E-mail:Lx97821@niteducn
EditorialOfficeofYangtzeRiverThisisanopenaccessarticleundertheCCBY-NC-ND40license
文章編號:1001-4179(2024)03-0249-08
引用本文:譚文群,曾祥君,包學(xué)才,等基于改進(jìn)YOLOX的水庫水面漂浮物目標(biāo)檢測算法[J]人民長江,2024,55(3):249-256
摘要:
針對目前水庫水面小目標(biāo)漂浮物檢測識別精度低的問題,提出基于改進(jìn)YOLOX的水庫水面漂浮物目標(biāo)檢測算法。此算法引入新型dark2模塊融入主干網(wǎng)絡(luò)并拓展主干網(wǎng)絡(luò)的分支輸出結(jié)構(gòu),提升主干網(wǎng)絡(luò)對圖片的特征提取能力。在此基礎(chǔ)上,提出改進(jìn)特征融合模塊(ZL-FPN),用于增強(qiáng)特征圖信息融合,提高對水庫水面小目標(biāo)漂浮物的檢測精度。結(jié)果表明:改進(jìn)后算法的mAP值比YOLOv4和原YOLOX算法分別提升了2993%和1211%,有效提升了水庫水面漂浮物檢測精度。研究成果可為提升水庫智能化管理水平提供有效技術(shù)支撐。
關(guān)鍵詞:水面小目標(biāo)漂浮物;目標(biāo)檢測;YOLOX算法;水庫智能化管理
中圖法分類號:TV6972
文獻(xiàn)標(biāo)志碼:A" " " " " " " DOI:1016232jcnki1001-4179202403034
0引言
自2019年以來,水利部先后印發(fā)了多個文件,包括《水利標(biāo)準(zhǔn)化工作管理辦法》和《關(guān)于加強(qiáng)水利團(tuán)體標(biāo)準(zhǔn)管理工作的意見》等,強(qiáng)調(diào)了水庫標(biāo)準(zhǔn)化建設(shè)的重要性。水庫日常巡查和安全檢查是水庫標(biāo)準(zhǔn)化管理的主要內(nèi)容之一。目前水利標(biāo)準(zhǔn)化巡查主要以人工定時定點巡查為主,對于流動性強(qiáng)的水庫水面污染漂浮物的檢測存在一定難度,特別是在天氣惡劣條件下,人工巡查可能對巡查人員的生命安全造成威脅。因此,迫切需要開發(fā)基于人工智能的水庫水面污染漂浮物自動檢測識別技術(shù)和方法來解決這一問題,以改善水庫水質(zhì)環(huán)境和提高水庫標(biāo)準(zhǔn)化智能化管理效率。
目前目標(biāo)檢測算法主要分為兩種類型:“兩階段檢測”和“一階段檢測”。前者是一個“從粗到精”的過程,而后者可以“一步完成”。
在“兩階段檢測”中,李寧等[1]提出使用AlexNet網(wǎng)絡(luò)進(jìn)行小樣本的水面漂浮物識別。通過使用梯度下降法對模型進(jìn)行微調(diào),相較于傳統(tǒng)的特征提取方法,識別率提高了近15%。然而,該研究所針對的數(shù)據(jù)集對象單一,并不具備普適性,真實水庫中水面漂浮物種類繁多,環(huán)境也更為復(fù)雜。Barrera[2]和李國進(jìn)[3]等基于FasterR-CNN分別提出了一種改進(jìn)識別與定位算法,前者的改進(jìn)算法對于復(fù)雜背景情況檢測情況較差;后者的改進(jìn)算法計算量大,不利于實時監(jiān)測的應(yīng)用。另外,鮑佳松等[4]提出了DCNN的識別算法,雖然整體網(wǎng)絡(luò)結(jié)構(gòu)簡單,但是對于小目標(biāo)水面漂浮物檢測精度較差,且該網(wǎng)絡(luò)容易受到外部因素干擾。劉偉等[5]提出了一種基于MaskR-CNN模型的水面漂浮物識別方法,采用不同的特征提取網(wǎng)絡(luò),與傳統(tǒng)的HOG特征方法相比,準(zhǔn)確率提升了16%。然而,該模型的復(fù)雜度大幅提升,增大了部署成本。
在“一階段檢測”方面,張堡瑞等[6]采用CornerNet-Lite目標(biāo)檢測網(wǎng)絡(luò)以及激光雷達(dá)和相機(jī)檢測的方式來檢測水面漂浮物,比單獨使用算法準(zhǔn)確度更高,能盡可能消除水面倒影和波紋的影響。然而,該方法對環(huán)境的適應(yīng)能力不強(qiáng),且對光照的變化沒有很好的魯棒性,易受輸入圖像質(zhì)量的影響。Sanchez等[7]對比了多個不同的“一階段模型”,發(fā)現(xiàn)YOLOv5s所需要消耗的資源最少,同時采用了數(shù)據(jù)增強(qiáng)方法來緩和樣本分布不均的問題,但該方法對比模型較少且改進(jìn)部分較少,沒有最大化模型的檢測能力。李國進(jìn)[8]和Shanhua[9]等提出了基于改進(jìn)YOLOv3的水面漂浮物目標(biāo)檢測算法,其中一個算法添加了CAM,將基于邊界框的定位方式替換成基于像素點進(jìn)行定位,另一個算法則將基于視頻監(jiān)控的水面漂浮物算法融入YOLOv3算法中。然而,這兩種算法都特別依賴于錨框的選定,而錨框的選取不具有普適性,針對每個水庫場景都需要重新定義錨框。此外,Haq等[10]提出了一種利用物體中心關(guān)鍵點檢測來預(yù)測物體位置的方法,通過對象分割掩碼的方式減少檢測偏移,該改進(jìn)針對大目標(biāo)作用明顯,對小目標(biāo)效果較差。Zhang等[11]基于改進(jìn)RefineDet網(wǎng)絡(luò),引入FocalLoss損失函數(shù),較好地解決了正負(fù)樣本不平衡的問題,但是該模型僅針對一類數(shù)據(jù)集進(jìn)行,在實際應(yīng)用中泛化能力不足。Zhou等[12]提出的YOLOX算法,作為YOLO系列的集大成者,在檢測水面漂浮物時可以達(dá)到較高的檢測精度,并且實時性高。然而,該算法針對小目標(biāo)水面漂浮物的檢測能力差,容易發(fā)生漏檢行為。Roy等[13]在YOLOv4的基礎(chǔ)上提出使用DenseNet對主干網(wǎng)絡(luò)進(jìn)行優(yōu)化,同時引入新的激活函數(shù),增加了參數(shù)量及訓(xùn)練負(fù)擔(dān)。
小目標(biāo)是指物體標(biāo)注框的長寬乘積除以整個圖像的長寬乘積再開根號,其結(jié)果小于3%的物體。
針對目標(biāo)檢測領(lǐng)域,Cheng[14]、Koyun[15]、He[16]、He[17]、Padilla[18]、Pal[19]等在模型檢測精度和速度方面做了大量工作,但在實際場景中,特別是在小目標(biāo)漂浮物的檢測方面,效果并不理想。
針對上述問題,本文提出了一種改進(jìn)YOLOX算法,通過改進(jìn)主干網(wǎng)絡(luò)并構(gòu)建一種新型特征融合網(wǎng)絡(luò),以提升水庫水面漂浮物的檢測能力,尤其是小目標(biāo)漂浮物的檢測能力。
1基于改進(jìn)YOLOX的水庫水面漂浮物檢測識別算法
為了解決小目標(biāo)漂浮物檢測精度低的問題,研究采取了主干網(wǎng)絡(luò)和特征融合模塊的協(xié)同改進(jìn),以最大程度提高模型的檢測精度。改進(jìn)分為兩部分:①改進(jìn)主干網(wǎng)絡(luò),將新型殘差模塊(dark2)放置于第三次卷積操作之前,以獲取更豐富的小目標(biāo)特征(feat2);此外,將主干網(wǎng)絡(luò)的三分支輸出變?yōu)樗姆种л敵鼋Y(jié)構(gòu),以增強(qiáng)特征融合網(wǎng)絡(luò)的小目標(biāo)信息豐富度。②采用更高效的特征融合金字塔(ZL-FPN),充分關(guān)注小目標(biāo)信息,以進(jìn)一步提升對小目標(biāo)的檢測能力。改進(jìn)YOLOX算法整體流程如圖1所示。
11YOLOX算法思想
YOLOX目標(biāo)檢測算法基于YOLO系列,引入了新的思想,檢測速度和精度都有了進(jìn)一步提升。YOLOX包括6個不同模型參數(shù)大小的版本,分別為YOLOX-Nano、YOLOX-Tiny、YOLOX-S、YOLOX-M、YOLOX-L以及YOLOX-X。由文獻(xiàn)[20]可知YOLOX-S參數(shù)量為9M,YOLOX-M參數(shù)量為253M,YOLOX-L參數(shù)量為542M,YOLOX-X參數(shù)量達(dá)到991M,每增大一級規(guī)模,參數(shù)量呈倍數(shù)增長。常規(guī)云端部署環(huán)境為保證檢測實時性,模型參數(shù)量大小需控制在15M以下。故應(yīng)在滿足參數(shù)量大小前提下盡可能選擇較大模型,以保證初始檢測精度,因此選取YOLOX-S算法作為此次改進(jìn)的基礎(chǔ)模型。YOLOX-S算法結(jié)構(gòu)如圖2所示。
該算法包括3個部分:主干網(wǎng)絡(luò)、特征金字塔和預(yù)測部分。主干網(wǎng)絡(luò)主要由Focus、CBS、Csplayer以及SPPbottleneck模塊組成。Focus切片操作是對特征信息進(jìn)行間隔距離提取,通道數(shù)擴(kuò)大為原來的4倍,特征圖縮小為原圖的1/2,其優(yōu)點為在進(jìn)行特征圖放縮時,保證特征點信息采集最大化。CBS模塊則是Conv2D、BN正則化以及SiLU激活函數(shù)的統(tǒng)稱,然而該主干網(wǎng)絡(luò)對小目標(biāo)提取能力較差。特征金字塔采用基礎(chǔ)的FPN結(jié)構(gòu),將主干網(wǎng)絡(luò)最后3層的特征圖分別作為金字塔的一層,并采用自下而上的路徑,將融合后的特征圖自上而下分別輸出,此結(jié)構(gòu)相對簡單,特征信息融合不充分。預(yù)測部分則對位置、類別和置信度進(jìn)行結(jié)果預(yù)測。
12改進(jìn)YOLOX算法
該算法的改進(jìn)分為2個部分。第一部分是對主干網(wǎng)絡(luò)進(jìn)行優(yōu)化,通過構(gòu)造dark2模塊,拓展主干網(wǎng)絡(luò)的分支輸出結(jié)構(gòu),提升主干網(wǎng)絡(luò)對物體特別是小目標(biāo)的特征提取能力。第二部分采用ZL-FPN替換原始的特征金字塔結(jié)構(gòu),增強(qiáng)特征圖信息的融合能力,進(jìn)一步提升對小物體和漂浮物的檢測精度。最后將這兩部分的改進(jìn)進(jìn)行融合,以求最大程度地提升算法對小目標(biāo)漂浮物的檢測能力。
121改進(jìn)主干網(wǎng)絡(luò)
分析原始主干網(wǎng)絡(luò)對小目標(biāo)物體特征提取能力弱的原因,其主要問題是針對小目標(biāo)輸出信息不足,因此該算法提出在主干網(wǎng)絡(luò)中引入dark2模塊。該模塊由9層Csplayer殘差結(jié)構(gòu)組成,將該模塊放置于第二次進(jìn)行CBS卷積操作得到160×160×128特征圖與第三次進(jìn)行CBS卷積操作得到80×80×256特征圖之間。引入該模塊有兩點意義:①加深主干網(wǎng)絡(luò)的層數(shù),使網(wǎng)絡(luò)參數(shù)量增多,訓(xùn)練更加充分;②此階段所輸出的160×160特征圖表示將上一階段得到的特征圖長寬分為160份,共產(chǎn)生25600個小網(wǎng)格,每個小網(wǎng)格都可以判斷是否包含物體,從而能夠針對圖像中小目標(biāo)盡可能少的發(fā)生漏檢行為。同時將提取后的特征圖作為新的分支,計作feat2,輸出到特征融合金字塔網(wǎng)絡(luò)中。改進(jìn)后的主干網(wǎng)絡(luò)對于小目標(biāo)的提取能力得到了進(jìn)一步增強(qiáng)。其具體結(jié)構(gòu)如圖3所示。
從圖3可知,本文算法提出的改進(jìn)主干網(wǎng)絡(luò)與原網(wǎng)絡(luò)有明顯的不同。主要表現(xiàn)為在經(jīng)過卷積核為128的卷積操作后,生成160×160×128特征圖;緊接著經(jīng)過新型的dark2模塊,生成對小目標(biāo)敏感的feat2,即160×160×128特征圖。此特征圖由于將整張?zhí)卣鲌D劃分為160×160的小網(wǎng)格,具有感受野小、對小目標(biāo)提取能力強(qiáng)的特點。最后,將feat2(160×160×128)、feat3(80×80×256)、feat4(40×40×512)、feat5(20×20×1024)作為4個分支輸出到ZL-FPN中。
122改進(jìn)特征金字塔網(wǎng)絡(luò)(ZL-FPN)
針對原始特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)簡單導(dǎo)致特征信息融合能力弱的問題,提出了一種新型改進(jìn)特征金字塔網(wǎng)絡(luò)(ZL-FPN)。該網(wǎng)絡(luò)的輸入是4種不同類型大小的特征圖。自上而下地進(jìn)行操作時,將4種原始特征圖與卷積過后的特征圖再次進(jìn)行融合,目的是確保盡可能多的包含原始特征圖信息。將feat2輸出至金字塔網(wǎng)絡(luò)中,主要用于提取小目標(biāo)的特征。經(jīng)過殘差結(jié)構(gòu)以及下采樣操作與其他特征圖深度融合后,可以顯著提升模型對小目標(biāo)物體的檢測能力。改進(jìn)特征金字塔網(wǎng)絡(luò)(ZL-FPN)的結(jié)構(gòu)如圖4所示。
從圖4可知,ZL-FPN網(wǎng)絡(luò)與原特征金字塔融合網(wǎng)絡(luò)的執(zhí)行步驟有明顯的區(qū)別。首先,ZL-FPN網(wǎng)絡(luò)在生成P2_out時,使用了add操作將P2_out_1和feat2相加,而不是直接使用P2_out_1。這樣可以確保P2_out中包含盡可能多的原始特征信息,而feat2中主要
為小目標(biāo)信息從而提高漂浮物的檢測精度。其次,在生成P3_out、P4_out和P5_out時,也采用了類似的add操作和殘差結(jié)構(gòu),這兩種操作目的是使特征信息更好融合。最終,通過使用add操作、殘差結(jié)構(gòu)和新型特征融合模塊,充分融合各層級特征圖的信息,同時最大程度地保留原始特征信息,以提高對漂浮物特別是小目標(biāo)漂浮物的檢測精度和效果。
2算法驗證及對比分析
本文算法驗證及對比分析選用Linux操作系統(tǒng),CPU為11thGenIntel(R)Core(TM)i7-11800H@230GHz230GHz,GPU為GEFORCERTX3080,內(nèi)存16GB,使用370版本的Python、171版本的Pytorch框架進(jìn)行模型訓(xùn)練、驗證以及測試。
21數(shù)據(jù)集制作及模型訓(xùn)練
211數(shù)據(jù)集制作
針對單一水庫水面漂浮物數(shù)據(jù)集較少的問題,收集不同水庫的水面漂浮物圖片來制作數(shù)據(jù)集,包括埠頭鄉(xiāng)橫石背水庫,埠頭鄉(xiāng)山田水庫和古龍崗黃塘水庫等。經(jīng)過預(yù)處理和篩選等操作,共選取了8446張有效圖片,并將這些圖片按照瓶子、塑料垃圾袋、落葉、樹枝、零食袋、一次性塑料盒、白色泡沫以及一次性杯子等8個類別進(jìn)行標(biāo)注。之所以選取這8類作為檢測類別是因為這8類漂浮物在數(shù)據(jù)收集過程中經(jīng)常出現(xiàn),故按照漂浮物類別出現(xiàn)的頻率,對其進(jìn)行類別框標(biāo)注,如表1所列。
使用Labeling標(biāo)記軟件對數(shù)據(jù)集進(jìn)行標(biāo)記,生成VOC格式的訓(xùn)練數(shù)據(jù),用于訓(xùn)練和測試漂浮物檢測模型。
該數(shù)據(jù)集包含復(fù)雜環(huán)境下水庫水面漂浮物圖片,從測試集中挑選8幅具有代表性的待檢測圖,主要分為兩類:第一類是水面漂浮物距離較近且清晰的待檢測圖,如圖5(a)~(d)所示;第二類是位置較遠(yuǎn)且模糊的待檢測圖,如圖5(e)~(h)所示。
212模型訓(xùn)練
將數(shù)據(jù)集按照7∶2∶1的比例劃分為訓(xùn)練集、驗證集和測試集。在進(jìn)行預(yù)處理操作后,圖片大小被設(shè)置為640×640。設(shè)置此次訓(xùn)練輪次為350輪,采用SGD下降方法,batchsize(批大小)為16。在訓(xùn)練過程中,得到損失曲線圖,如圖6所示。
22算法驗證及結(jié)果分析
改進(jìn)后模型對211小節(jié)所示的8幅待檢測圖以及不同算法在較為復(fù)雜場景下的檢測效果如圖7所示。由圖7檢測識別結(jié)果可知,改進(jìn)算法在不同的環(huán)境下都能很好識別出水面上的漂浮物。
為進(jìn)一步驗證改進(jìn)算法的性能,將YOLOv3、YOLOv4、YOLOX以及ZL-YOLOX(本文改進(jìn)算法名稱)的檢測識別精度進(jìn)行對比,對比曲線如圖8所示。
從圖8可知,改進(jìn)后的ZL-YOLOX算法相較于YOLOv3、YOLOv4和YOLOX算法,表現(xiàn)出了最優(yōu)的檢測效果。具體來說,在相同的測試集上,這一提升主要得益于對主干網(wǎng)絡(luò)進(jìn)行了優(yōu)化,加強(qiáng)了對小目標(biāo)特征的提取,以及采用了更高效的融合網(wǎng)絡(luò),充分關(guān)注小目標(biāo)信息。這些改進(jìn)使得改進(jìn)后算法針對小目標(biāo)的檢測能力得到了提升,從而實現(xiàn)了整體精度的提升。
進(jìn)行消融實驗以進(jìn)一步驗證和分析所提出的改進(jìn)主干網(wǎng)絡(luò)和改進(jìn)特征金字塔網(wǎng)絡(luò)對模型性能的提升作用。首先,探討dark2層數(shù)的選取,其結(jié)果如表2所列。
從表2可知,mAP平均檢測精度總體隨著層數(shù)的增加而不斷提升,但當(dāng)結(jié)構(gòu)變?yōu)?2層時,模型精度反而出現(xiàn)了下降。因此,在此水面漂浮物數(shù)據(jù)集下,選擇9層結(jié)構(gòu)的dark2模塊可以獲得最高的精度,如果層次結(jié)構(gòu)較淺,可能會導(dǎo)致獲取小目標(biāo)信息不充分;較深,則可能過度關(guān)注邊緣特征而忽略主體信息。與原始的YOLOX算法相比,改進(jìn)后算法的識別精度提高了近5%。這主要是因為此結(jié)構(gòu)所產(chǎn)生的特征圖大小為160×160,包含25600個小方格,具有感受野小的特點。引入dark2模塊可以更好利用此特征圖,并把此特征信息作為輸出信息。
在此基礎(chǔ)上,對改進(jìn)模型做進(jìn)一步消融實驗探討各改進(jìn)結(jié)構(gòu)對模型精度的提升能力,其實驗結(jié)果如表3所列。
從表3可知,相比于原始YOLOX算法,僅使用ZL-FPN改進(jìn)后的算法,在mAP指標(biāo)上提升了約2%,改進(jìn)后模型的檢測能力得到了小幅提升,其原因是使用了更加有效的特征融合方式。僅使用改進(jìn)主干網(wǎng)絡(luò)改進(jìn)后的算法,相較于原始YOLOX算法,在mAP指標(biāo)上提升了約4%,對水面漂浮物的檢測能力得到較大的提升,其原因是三分支輸出變?yōu)樗姆种л敵觯饕黾恿藢π∧繕?biāo)敏感的特征圖信息feat2并傳入特征融合網(wǎng)絡(luò)。為了使檢測能力最大化,使用改進(jìn)主干網(wǎng)絡(luò)和ZL-FPN對原始YOLOX算法進(jìn)行改進(jìn),mAP達(dá)到了最大值即8583%,其原因是融合了各部分改進(jìn)的優(yōu)勢,提升了改進(jìn)后模型對水庫水面漂浮物的檢測能力,特別是對水庫中的小目標(biāo)漂浮物可以做到不漏檢且分類更為準(zhǔn)確。
為了更加全面深入地探究模型的性能,將改進(jìn)后的模型與YOLOv3、YOLOv4和YOLOX對數(shù)據(jù)集所標(biāo)注的8類漂浮物的檢測結(jié)果進(jìn)行對比分析,評價指標(biāo)包含各類的精確度(AP)、mAP、模型的總體參數(shù)、漏檢率以及FPS,結(jié)果見表4。
從表4可知,相比于YOLOX,改進(jìn)后的算法在參數(shù)量增加不多的前提下,對每個類別的識別精度都達(dá)到了最優(yōu)。其中,改進(jìn)算法對一次性杯子的識別精度提升最大,相比于YOLOX模型提升了15%。即使對于檢測精度已經(jīng)達(dá)到93%的零食袋類,改進(jìn)后的算法仍然在此基礎(chǔ)上提升了3%的精度。此外,表中還顯示出,改進(jìn)后的算法對于常見的小目標(biāo)漂浮物,如零食袋、瓶子和白色泡沫這3類物體,都能夠達(dá)到91%以上的檢測精度,最高檢測精度達(dá)到96%。而一次性塑料盒、一次性杯子、樹枝以及塑料袋這4類物體的檢測精度也都達(dá)到了90%左右。即使是檢測精度最低的落葉類,改進(jìn)后的算法也比YOLOX提升了1765%。綜上所述,改進(jìn)后的算法能夠更加適用于水庫水面漂浮物檢測,特別是對水庫中的小目標(biāo)漂浮物可以做到不漏檢且分類更為準(zhǔn)確。
3結(jié)語
本文針對目前水庫水面小目標(biāo)漂浮物檢測識別的需求,提出了一種基于改進(jìn)YOLOX的目標(biāo)檢測算法。主要的改進(jìn)在于主干網(wǎng)絡(luò)和特征金字塔網(wǎng)絡(luò)的優(yōu)化。通過實驗對比分析,相較于YOLOv4和YOLOX算法,本文提出的算法在此次收集的數(shù)據(jù)集上整體檢測精度分別提升了2993%和1211%。此外,針對常見的8類水面漂浮物(瓶子、塑料垃圾袋、落葉、樹枝、零食袋、一次性塑料盒、白色泡沫和一次性杯子)其檢測精度也有顯著提升。實驗證明改進(jìn)后的算法為水庫水面檢測尤其是小目標(biāo)檢測識別提供了有效的解決方案,有助于緩解人工巡查帶來的不便,后續(xù)可以將此改進(jìn)模型與智能化平臺相結(jié)合,通過傳入原圖經(jīng)此模型檢測后,將檢測結(jié)果展示在前端屏幕,從而提升水庫智能化管理水平,并為水生態(tài)環(huán)境保護(hù)提供了重要技術(shù)支撐。
參考文獻(xiàn):
[1]李寧,王雨萱,徐守坤,等基于AlexNet的小樣本水面漂浮物識別[J]計算機(jī)應(yīng)用與軟件,2019,36(2):245-251
[2]BARRERAA,BELTRNJ,GUINDELC,etalBirdNet+:two-stage3DobjectdetectioninLiDARthroughasparsity-invariantbird′seyeview[J]IEEEAccess,2021,9:160299-160316
[3]李國進(jìn),姚冬宜,艾矯燕,等基于改進(jìn)FasterR-CNN的水面漂浮物識別與定位[J]信陽師范學(xué)院學(xué)報(自然科學(xué)版),2021,34(2):292-299
[4]鮑佳松,黃細(xì)霞,姬克,等基于深度卷積神經(jīng)網(wǎng)絡(luò)的水面漂浮物分類識別[J]傳感器與微系統(tǒng),2021,40(10):136-138,146
[5]劉偉,王源楠,江山,等基于MaskR-CNN的水面漂浮物識別方法研究[J]人民長江,2021,52(11):226-233
[6]張堡瑞,肖宇峰,鄭又能基于激光雷達(dá)與視覺融合的水面漂浮物檢測[J]應(yīng)用激光,2021,41(3):619-628
[7]SANCHEZPR,ZHANGH,HOSS,etalComparisonofone-stageobjectdetectionmodelsforweeddetectioninmulchedonions[C]∥2021IEEEInternationalConferenceonImagingSystemsandTechniques(IST),IEEE,2021:1-6
[8]李國進(jìn),姚冬宜,艾矯燕,等基于改進(jìn)YOLOv3算法的水面漂浮物檢測方法[J]廣西大學(xué)學(xué)報(自然科學(xué)版),2021,46(6):1569-1578
[9]SHANHUAZ,LIP,NING-SHENGFReal-timedetectionmethodofsurfacefloatingobjectsbasedondeeplearning[C]∥202019thInternationalSymposiumonDistributedComputingandApplicationsforBusinessEngineeringandScience(DCABES),IEEE,2020:174-177
[10]HAQMA,RUANSJ,SHAOME,etalOnestagemonocular3Dobjectdetectionutilizingdiscretedepthandorientationrepresentation[J]IEEETransactionsonIntelligentTransportationSystems,2022,23(11):21630-21640
[11]ZHANGL,WEIY,WANGH,etalReal-timedetectionofriversurfacefloatingobjectbasedonimprovedRefineDet[J]IEEEAccess,2021,9:81147-81160
[12]ZHOUJ,HUW,ZOUA,etalLightweightdetectionalgorithmofkiwifruitbasedonimprovedYOLOX-S[J]Agriculture,2022,12(7):993
[13]ROYAM,BOSER,BHADURIJAfastaccuratefine-grainobjectdetectionmodelbasedonYOLOv4deepneuralnetwork[J]NeuralComputingandApplications,2022,34(5):3895-3921
[14]CHENGB,WEIY,SHIH,etalRevisitingRCNN:onawakeningtheclassificationpoweroffasterRCNN[C]∥ProceedingsoftheEuropeanconferenceoncomputervision(eccv),2018:453-468
[15]KOYUNOC,KESERRK,AKKAYAIB,etalFocus-and-detect:Asmallobjectdetectionframeworkforaerialimages[J]SignalProcessing:ImageCommunication,2022,104:116675
[16]HEK,GKIOXARIG,DOLLáRP,etalMaskr-cnn[C]∥ProceedingsOfTheIEEEinternationalconferenceoncomputervision,2017:2961-2969
[17]HEA,CHENG,ZHENGW,etalDrivercell-phoneusedetectionbasedonCornernet-liteNetwork[C]∥IOPConferenceSeries:EarthandEnvironmentalScienceIopPublishing,2021,632(4):042004
[18]PADILLAR,PASSOSWL,DIASTLB,etalAcomparativeanalysisofobjectdetectionmetricswithacompanionopen-sourcetoolkit[J]Electronics,2021,10(3):279
[19]PALSK,PRAMANIKA,MAITIJ,etalDeeplearninginmulti-objectdetectionandtracking:stateoftheart[J]AppliedIntelligence,2021,51:6400-6429
[20]LIUB,HUANGJ,LINS,etalImprovedYOLOX-Sabnormalconditiondetectionforpowertransmissionlinecorridors[C]∥2021IEEE3rdInternationalconferenceonPowerDataScience(ICPDS),IEEE,2021:13-16
(編輯:郭甜甜)