摘要:基于深度學習技術,構建SSD、YOLOv5以及同基礎網絡的Fast RCNN模型(vgg16-Fast R-CNN,darknet53-Fast R-CNN),對不同條件的三七(Panax notoginseng)圓斑病、灰霉病、白粉病和病毒病進行檢測。結果表明,YOLOv5的m權重模型在YOLO各權重模型中表現(xiàn)最佳,準確率為88.62%,召回率為89.59%,F(xiàn)1精度為89.10%,平均精度為83.55%,單幅圖像檢測時間僅為0.031 s。對比兩階段模型中表現(xiàn)較優(yōu)的vgg16-Fast R-CNN,準確率、召回率、F1精度、平均精度僅分別降低了1.69個百分點、3.92個百分點、2.78個百分點、3.47個百分點,但單幅圖像的檢測速度提高了451.4%;對比SSD模型,YOLOv5m的準確率、召回率、F1精度、平均精度分別提高了1.06個百分點、1.32個百分點、1.19個百分點、0.61個百分點,單幅圖像的檢測速度提高了83.52%。此外通過置信度與魯棒性試驗分析可得,YOLOv5m對于小區(qū)域病害檢測能力以及復雜環(huán)境下的抗干擾能力更強,且更利于在嵌入式設備中部署,符合實時檢測三七病害的要求。
關鍵詞:三七(Panax notoginseng);病害檢測;YOLOv5;深度學習
中圖分類號:TP391.41;S435.672" " " " "文獻標識碼:A
文章編號:0439-8114(2024)08-0054-07
DOI:10.14088/j.cnki.issn0439-8114.2024.08.010 開放科學(資源服務)標識碼(OSID):
Research on adaptability of Panax notoginseng disease identification method"based on deep learning
HE Heng,ZHOU Ping
(Sichuan Sanhe College of Professionals, Luzhou" 646200,Sichuan,China)
Abstract: Based on deep learning technology, SSD, YOLOv5 and Fast RCNN models with the same basic network (vgg16-Fast R-CNN, darknet53 -Fast R-CNN) were built to detect round spot, gray mold, powdery mildew and viral diseases of Panax notoginseng under different conditions. The results showed that the m-weight model of YOLOv5 performed the best among all weight models of YOLO, with accuracy rate of 88.62%, recall rate of 89.59%, F1 precision of 89.10%, and average precision of 83.55%. The detection time of a single image was only 0.031 s. Compared with vgg16-Fast R-CNN, which performed better in the two-stage model, the accuracy rate, recall rate, F1 precision, and average precision were only reduced by 1.69 percentage points, 3.92 percentage points, 2.78 percentage points, and 3.47 percentage points respectively, but the detection speed of a single image was increased by 451.4%. Compared with the SSD model, the accuracy rate, recall rate, F1 precision, and average precision of YOLOv5m were improved by 1.06 percentage points, 1.32 percentage points, 1.19 percentage points, and 0.61 percentage points respectively, and the detection speed of a single image was improved by 83.52%. In addition, through the analysis of the confidence and robustness test, it could be seen that YOLOv5m had better disease detection ability in small areas and stronger anti-interference ability in complex environment, and was more conducive to deployment in embedded devices, which met the requirements of real-time detection of Panax notoginseng disease.
Key words: Panax notoginseng; disease detection; YOLOv5; deep learning
三七(Panax notoginseng),五加科人參屬植物,號稱“南人參之王”,為《本草綱目》、歷版《中華人民共和國藥典》等經典文獻收錄[1,2],具有散瘀止血、活血止痛的功能[3],同時三七葉片可有效增強高原脫習服過程中心室功能、抑制高原脫習服大鼠炎癥因子表達、提高機體抗氧化能力[4]。云南省是世界三七的原產地和主產區(qū),其栽培面積及產量約占全國的60%以上[5]。隨著中醫(yī)藥研究的不斷深入,三七種植面積也在逐年上升,但是近年來病蟲害的發(fā)生嚴重制約了三七的經濟產量,成為阻礙三七產業(yè)可持續(xù)發(fā)展的主要因素之一[6]。因此,三七病害的治理與防治對三七產業(yè)以及中國醫(yī)藥健康產業(yè)發(fā)展具有深刻的現(xiàn)實意義。
由于三七種植過程中,對土壤含水率、環(huán)境溫濕度、光照強度等生長條件的要求較高,高溫高濕、低溫高濕等生產環(huán)境均易誘發(fā)三七發(fā)?。?],其主要病害有圓斑病、白粉病、病毒病、灰霉病等。目前對于三七的病害識別還主要依賴于傳統(tǒng)的專業(yè)技術人員和生物試劑檢測等[7-9]。人工檢疫法存在費時費力、主觀性強、實時性低等缺點,且三七病害大部分為侵染性病害,傳播速度快,容易錯過病害的最佳防治時期[10,11]。隨著病害檢測技術的發(fā)展,圖像處理方法被用于農作物的病害檢測,這些方法通常采用基于閥值分割[12-14]、顏色空間變換[15,16]等技術,識別精度高于人工識別方法,但存在運行成本和時間復雜度高、手工提取特征的方式無法滿足復雜的實際生產環(huán)境[17],因此,迫切需要一種實時、準確以及便攜的智能方法來替代傳統(tǒng)的人工方法。
隨著計算機技術的巨大突破,基于深度學習的目標檢測算法可以自動提取圖像中的抽象特征,并根據提取結果進行目標的分類與定位,大幅提高了目標檢測效率[18,19]。目前基于深度學習的目標檢測模型分為兩類:兩階段算法與單階段算法[20]。兩階段的目標檢測代表算法有R-CNN[21]、Fast R-CNN[22-26]等。雖然兩階段算法采用滑動窗口策略使得模型有著很高的精度,但是兩階段算法在訓練和檢測時容易產生窗口冗余,始終無法滿足實時檢測的要求[17]。單階段目標檢測在保證精度穩(wěn)定的情況下,解決了兩階段模型速度瓶頸的問題,其代表有SSD(Single shot multiBox detector)[27,28]、YOLO(You only look once)[29,30]。隨著單階段模型的發(fā)展,網絡層數逐漸加深,精度也越來越高,但是模型的尺寸也越來越大,難以在移動端或嵌入式設備上部署,因而不能應用于實際的三七病害檢測中。YOLOv5作為目前輕量化模型的代表,在保證速度與精度并存的同時,縮小了模型尺寸,為三七病害實時檢測系統(tǒng)的嵌入式設備部署提供了新的思路。
因此,本研究通過實現(xiàn)深度學習YOLOv5模型,并對比SSD模型以及采用vgg16、darknet53作為主干提取網絡的Fast R-CNN模型,以此獲取平衡精度與速度的最優(yōu)輕量級模型,為實現(xiàn)三七病害模型的嵌入式設備部署,精準防治三七葉片病害、提高三七產量、保障三七生產安全提供理論依據。
1 三七葉片病害檢測算法原理
1.1 Fast R-CNN算法
Fast R-CNN模型的實現(xiàn)過程:①將三七病害圖像使用滑動窗口的策略獲得1 000~2 000個候選區(qū)域,同時將整個圖像輸入深度神經網絡(vgg16或darknet53)中得到相應的特征圖,將滑動窗口生成的候選區(qū)域投影到特征圖上獲得對應的特征矩陣;②將每個特征矩陣通過感興趣區(qū)域池化層進行縮放;③通過全連接層得到分類與邊界框回歸的預測結果。Fast R-CNN網絡結構如圖1所示。
1.2 SSD算法
SSD模型的具體流程如下:①采用vgg16作為主干網絡,用來提取圖像中三七葉片的病害特征;②使用添加在主干網絡之后的多尺度特征檢測網絡進行池化操作,將特征圖的尺寸逐層降維;③用不同卷積層的多個特征圖預測物體分類以及目標邊界框的偏移,使用NMS(非極大值抑制)方法產生最終的檢測結果,實現(xiàn)多個尺度特征圖的檢測。SSD網絡結構如圖2所示。
1.3 YOLOv5算法
YOLOv5根據結構復雜程度不同可分為YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x。YOLOv5s的網絡結構如圖3所示,它是YOLOv5系列中深度最小、特征圖寬度最小的網絡,m、l、x版本都是在此基礎上不斷加深加寬的,4種不同的結構在不同階段的卷積核數量都不一樣,因此會直接影響卷積后特征圖的第三維度,具體卷積核數量如表1所示。根據模型結構可分為4部分:輸入端、主干網絡、Neck以及預測端。其運行原理為:①輸入三七病害圖像,并對原始圖像進行數據增強等手段;②主干網絡(darknet53)將不同的圖像細粒度特征聚合成圖像特征的卷積神經網絡;③Neck階段將所有的圖像特征混合,傳遞到預測端;④對圖像特征進行預測,生成邊界框與預測類別。
2 數據準備與模型訓練
2.1 數據集獲取與制作
為了符合實際生產的需要,根據明暗程度、葉片大小、病害類型進行三七葉片相片的采集,共計10 500張。相片像素為640×640,使用LabelImg工具對圖片進行標注,在試驗中為了加快標注速度,將4種病害依次標記為1—4,病害典型樣本如圖4所示,得到灰霉病2 739張,病毒病3 025張,白粉病" " 3 156張,圓斑病2 382張,最后將數據集按照7∶3的比例分為訓練集與測試集,其中訓練集7 350張,測試集3 150張。
2.2 模型訓練
模型訓練采用微型計算機進行,系統(tǒng)選用Windows10操作系統(tǒng),計算機硬件配置分別為:NVIDIA GeForce RTX 2070GPU,32GB運行內存。模型以Pytorch深度學習為框架,Python3.6語言進行編程,以CUDA11.0GPU作為加速庫。通過不斷訓練調整參數,以獲取最佳的參數配置:批量尺寸(Batchsize)設置為8,初始學習率(Learning rate)為0.01,動量(Momentum)為0.926;總訓練輪數(Epoch)設置為200[31,32]。最后使用SGD優(yōu)化器進行優(yōu)化。
模型訓練過程的走勢能夠反映出訓練的有效性,圖5對比了YOLOv5各權重模型、SSD模型以及vgg16-Fast RCNN和darknet53-Fast RCNN模型,結果顯示,vgg16-Fast RCNN以及darknet53-Fast RCNN模型在訓練過程中,前50 Epoch有明顯的數據震蕩,達到200 Epoch時也并未完全收斂,損失值分別為3.2和4.2左右。對比YOLOv5各權重模型以及SSD模型可以發(fā)現(xiàn),前20 Epoch各模型損失值下降速度最快,之后損失下降速度逐漸變慢,其中YOLOv5m模型表現(xiàn)最佳,當達到200 Epoch時,損失曲線趨于平緩,表明模型精度已達到穩(wěn)定值,且最終的損失函數值為3.3左右。
2.3 評價指標
本研究使用準確率P、召回率R、綜合精度F1、類別平均精度mAP指標對試驗結果進行評估。準確率P代表算法檢測到的所有目標的準確率,召回率R代表算法檢測目標的全面性,F(xiàn)1精度代表算法在準確率和召回率上的綜合性能,mAP表征算法在不同類別上的平均檢測精度。計算公式如下。
[P=TPTP+FP×100%] " " " (1)
[R=TPTP+FN×100%] " " " (2)
[F1=2×P×RP+R] " " " (3)
[mAP=01P(r)drN] " " "(4)
式中,TP為算法檢測正確的目標數量;FP為算法檢測錯誤的目標數量;FN為算法漏檢的目標數量;N為檢測的類別總數;P(r)為以召回率r為自變量,準確率P為因變量的函數。
3 結果與分析
3.1 綜合性能對比
模型的綜合性能可通過準確率、召回率、F1精度、mAP進行判別,表2為不同模型性能評價指標。對比YOLOv5不同權重模型可以發(fā)現(xiàn)YOLOv5m模型表現(xiàn)最優(yōu),準確率、召回率、F1精度、mAP分別為88.62%、89.59%、89.10%、83.55%,說明YOLOv5m模型能夠更好地學習三七葉片的病害特征,結構更加復雜的l和x權重模型表現(xiàn)反而不如m權重模型,這是因為過度復雜的結構導致三七葉片病害部位特征碎片化,模型不能有效、全面地學習葉片病害部位的數據特征[33]。對比SSD以及YOLOv5m模型可以發(fā)現(xiàn),YOLOv5m模型的準確率、召回率、F1精度、mAP較SSD模型分別提高了1.06個百分點、1.32個百分點、1.19個百分點、0.61個百分點,這是因為YOLOv5m模型采用了2種CSP(殘差)結構,CSP1_X使得網絡提取的特征粒度更細,CSP2_X提高了網絡特征融合能力,保留了更豐富的三七病害信息,進而提高了模型的特征提取能力[33,34]。與darknet53-Fast R-CNN模型對比可以發(fā)現(xiàn),vgg16-Fast R-CNN模型的準確率、召回率、F1精度、mAP分別提高了0.62個百分點、0.33個百分點、0.48個百分點、0.13個百分點,說明采用相同的模型框架,vgg16作為主干網絡的特征提取能力更強,能更加充分地學習三七葉片病害類別的特征,具備較好的泛化能力,進而提升算法的性能。
表3為各算法的檢測性能。結果表明,YOLOv5m模型在不同權重的YOLO模型中表現(xiàn)最優(yōu),圓斑病、病毒病、灰霉病、白粉病的識別準確率分別為89.27%、77.12%,87.55%、80.26%。對比YOLOv5m與SSD模型可以發(fā)現(xiàn),SSD模型對于圓斑病和灰霉病的檢測精度高于YOLOv5m模型,能達到90%以上。這是因為:①SSD模型借鑒Fast R-CNN針對不同尺度的特征圖設置不同長寬比的先驗框,具有較大感受野的高層特征信息預測大物體,具有較小感受野的低層特征信息預測小物體,使得模型能夠更好地檢測不同大小的目標[27]。②圓斑病以及灰霉病的病害特征十分明顯,經過卷積層的特征圖尺寸降維,病害部位信息沒有較大流失,結合SSD模型多尺度預測的結構,提高了這兩種病害的檢測準確度。SSD模型對于病毒病和白粉病的檢測準確度均低于YOLOv5m模型,這是因為SSD模型在預測病害區(qū)域較小的白粉病以及病害特征不明顯的病毒病時,采用的低層網絡的特征信息,由于缺乏高層病害特征,導致SSD模型對小物體的檢測效果較差[35];而YOLOv5m模型通過以下策略來改進小目標的檢測效果:①在輸入端采用了Mosaic數據增強[36],豐富檢測物體背景,提高對小目標的檢測效果;②自適應錨框計算用來匹配數據集的最佳錨框值[37];③采用了3個不同的輸出端尺寸進行多尺度預測,緩解小目標檢測的難題。
vgg16-Fast RCNN與darknet53-Fast RCNN模型檢測各類病害的準確率均高于YOLOv5m和SSD模型。這是因為在兩階段模型的網絡結構中進行了前景和背景的分類和檢測,這個過程比單階段的目標檢測直接進行分類和檢測要簡單,有了前景和背景的區(qū)分后,就可以選擇性地挑選樣本,使得正負樣本變得更加均衡,然后重點對一些參數進行分類訓練,使得訓練的分類難度會比單階段目標檢測直接做混合分類和預測框回歸更簡單[22],對于各類病害檢測的準確率也更高。
在實際的生產生活中,需要考慮到算法的檢測速度以及整體的模型精度,兩階段模型雖然精度高,但是其構成相對復雜,檢測速度極慢,YOLOv5m模型每秒檢測圖像的速度幾乎為兩階段模型的50倍;SSD模型僅對于部分病害檢測精度較高,但是平均精度低于YOLOv5m模型,并且檢測速度為YOLOv5m模型的54.49%。綜上所述,YOLOv5m模型可以作為三七病害的最優(yōu)檢測模型。
3.2 置信度對比試驗
隨機選取含有不同程度、不同類型的病害圖像對SSD和YOLOv5m權重模型進行測試。測試結果(圖6)顯示,圖Ⅰ中SSD模型檢測出圓斑病的置信度為100%,高于YOLOv5m模型的96%;圖Ⅱ中SSD模型檢測圓斑病的置信度為98%,高于YOLOv5m模型的97%,但是在病毒病上,SSD模型并未檢測出病毒病的發(fā)病區(qū)域,而YOLOv5m模型檢測病毒病的置信度達96%;發(fā)病區(qū)域最多的圖Ⅲ中,SSD模型檢測圓斑病的置信度高于YOLOv5m模型,但是檢測白粉病的置信度均低于YOLOv5m模型,且由于對白粉病的特征學習較差,導致對三七葉柄處產生誤判;圖Ⅳ中SSD模型檢測圓斑病的置信度高于YOLOv5m模型,但是對于檢測灰霉病的置信度低于YOLOv5m模型。置信度差異說明SSD模型對病害區(qū)域較為明顯的圓斑病和灰霉病識別效果較好,但是對于白粉病和病毒病的識別效果較差。YOLOv5m模型通過結構上的改進,彌補了小目標檢測的缺陷。
3.3 算法魯棒性試驗
算法魯棒性是指算法在各種干擾噪聲中保持正常工作的能力,三七病害的實際檢測中存在各種環(huán)境干擾問題,例如拍攝葉片圖像時光線不足的情況,由于夜晚拍攝時鏡頭取光和對焦之后,背景較為模糊,以及拍攝時鏡頭取光在葉片上同種病害不同區(qū)域的色階也會不同,這就要求算法有較強的魯棒性,能夠在不同條件下保證檢測的準確性。隨機選取夜間拍攝圖片作為測試圖片,并比較YOLOv5m和SSD在夜間的檢測效果。結果(圖7)顯示,圖Ⅰ中SSD模型對于白粉病的識別效果明顯低于YOLOv5m模型,YOLOv5m模型檢測夜間白粉病的置信度也可以達到90%;圖Ⅱ中SSD模型檢測夜間發(fā)病區(qū)域密集的圓斑病的置信度差異較大,部分圓斑病的置信度高于YOLOv5m模型,但是總體置信度低于YOLOv5m模型,并且SSD模型并未檢測出病毒病;圖Ⅲ和圖Ⅳ中,SSD模型檢測白粉病和病毒病的置信度也明顯低于YOLOv5m模型。通過分析后發(fā)現(xiàn),由于YOLOv5m模型直接采用在圖像上進行回歸的方式,使用全圖作為Context(全局)信息,背景錯誤較少;而SSD模型在先驗框與真實框之間的交互比達到0.5才會放到網絡里面進行訓練。大目標ROI較大,因此包含的先驗框就多,就可以得到充分的訓練,相反小目標用于訓練的的先驗框較少,就得不到充分的訓練,這嚴重影響了三七白粉病以及病毒病的檢測。說明YOLOv5m模型的魯棒性更強,更適合實際環(huán)境下的三七葉片病害檢測。
4 小結
本研究選用三七的4種病害葉片作為數據集,采用YOLOv5、darknet53-Fast RCNN、SSD、vgg16-Fast RCNN模型對三七病害進行檢測,得出以下結論。
1)在三七病害識別中,vgg16-Fast R-CNN模型準確率、召回率、F1精度、mAP分別為90.31%、93.51%、91.88%、87.02%,對比YOLOv5m模型準確率、召回率、F1精度、mAP分別提高了1.69個百分點、3.92個百分點、2.78個百分點、3.47個百分點,但是檢測速度僅為YOLOv5m模型的2%,無法滿足實時檢測的目的,不適用于實際的三七病害檢測。
2)YOLOv5m模型在YOLOv5的不同權重模型中表現(xiàn)最佳,對比SSD模型,準確率、召回率、F1精度、mAP分別提高了1.06個百分點、1.32個百分點、1.19個百分點、0.61個百分點,單幅圖像檢測速度提高了83.52%,表明該模型精度更高,尺寸更小,速度更快,利于移動端或嵌入式設備的部署。
3)通過置信度試驗以及魯棒性試驗對比YOLOv5m以及SSD模型可以發(fā)現(xiàn),SSD模型在圓斑病以及灰霉病的檢測效果較優(yōu),但是在小目標病害或復雜環(huán)境下的表現(xiàn)不佳,而YOLOv5m模型在復雜外界環(huán)境條件下具備更好的泛化能力、魯棒性和識別能力,可以為三七田間智能化管理提供理論依據。
參考文獻:
[1] 蔣 妮, 覃柳燕, 葉云峰. 三七病害研究進展[J].南方農業(yè)學報, 2011, 42(9):1070-1074.
[2] 于慧妍. 三七研究進展[J]. 世界最新醫(yī)學信息文摘,2017,17(39):21-22.
[3] 蔡 琳,彭 鵬. 三七藥理作用的研究進展[J].山東化工,2021,50(3):70-71.
[4] 崔 宇, 李曉栩, 黃 緘. 三七和銀杏葉片對高原脫習服大鼠心功能及血清炎癥因子的影響及其機制[J]. 中國應用生理學雜志,2019,35(1):34-38.
[5] 李宏偉, 郭富貴, 劉 洋, 等. 三七病蟲害研究現(xiàn)狀與展望[J]. 草業(yè)科學, 2019, 36(5):1415-1427.
[6] 張連娟, 高 月, 董林林, 等. 三七主要病害及其防治策略[J]. 世界科學技術-中醫(yī)藥現(xiàn)代化, 2017, 19(10):1635-1640.
[7] 楊 濤, 陳昱君, 段承俐, 等. 三七黑斑病抗性人工鑒定方法的建立[J]. 云南農業(yè)大學學報, 2006(5):549-553, 559.
[8] 王志敏,皮自聰,羅萬東,等. 三七圓斑病和黑斑病及其防治[J]. 農業(yè)與技術, 2016, 36(1):49-51, 53.
[9] 李 欣. 三七主要病害病原菌的快速檢測及葉部病害病原菌的鑒定[D]. 昆明:昆明理工大學, 2020.
[10] BOCK C H, POOLE G H, PARKER P E, et al. Plant disease severity estimated visually, by digital photography and image analysis, and by hyperspectral imaging[J]. Critical reviews in plant sciences, 2010, 29(2): 59-107.
[11] BARBEDO J G A. Digital image processing techniques for detecting, quantifying and classifying plant diseases[J]. Springerplus, 2013, 2(1): 1-12.
[12] WANG Y T, DAI Y P, XUE J R, et al. Research of segmentation method on color image of Lingwu long jujubes based on the maximum entropy[J]. EURASIP Journal on image and video processing, 2017, 17(18): 6029-6036.
[13] 明 浩,蘇喜友. 利用特征分割和病斑增強的楊樹葉部病害識別[J]. 浙江農林大學學報, 2020, 37(6):1159-1166.
[14] 王燕妮,賀 莉.基于多分類 SVM 的石榴葉片病害檢測方法[J].計算機測量與控制, 2020, 28(9):191-195.
[15] 劉永波, 雷 波, 胡 亮, 等. 機器視覺在 HSV 顏色空間下稻瘟病病程分級判定研究[J]. 農學學報, 2020, 10(10):83-90.
[16] BAI X B, LI X X, FU Z T, et al. A fuzzy clustering segmentation method based on neighborhood grayscale information for defining cucumber leaf spot disease images[J]. Computers and electronics in agriculture, 2017, 136: 157-165.
[17] 包曉敏, 王思琪. 基于深度學習的目標檢測算法綜述[J]. 傳感器與微系統(tǒng), 2022, 41(4):5-9.
[18] 吳 雪, 宋曉茹, 高 嵩, 等. 基于深度學習的目標檢測算法綜述[J]. 傳感器與微系統(tǒng), 2021, 40(2):4-7, 18.
[19] LIU Y, SUN P, WERGELES N M, et al. A survey and performance evaluation of deep learning methods for small object detection[J]. Expert systems with applications,2021,172(4): 114602.
[20] 周惠汝, 吳波明. 深度學習在作物病害圖像識別方面應用的研究進展[J]. 中國農業(yè)科技導報, 2021, 23(5):61-68.
[21] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[A].Proceedings of the 2014 IEEE conference on computer vision and pattern recognition[C]. 2014.580-587.
[22] GIRSHICK R. Fast R-CNN[A].Proceedings of the 2015 IEEE international conference on computer vision[C]. 2015.1440-1448.
[23] 王遠志, 施子珍, 張艷紅. 改進的Faster R-CNN用于蘋果葉部病害檢測[J]. 安慶師范大學學報(自然科學版), 2022, 28(2):26-30.
[24] 陳柯屹, 朱龍付, 宋 鵬, 等. 融合動態(tài)機制的改進型Faster R-CNN識別田間棉花頂芽[J]. 農業(yè)工程學報, 2021, 37(16):161-168.
[25] 李就好, 林樂堅, 田 凱, 等. 改進Faster R-CNN的田間苦瓜葉部病害檢測[J]. 農業(yè)工程學報, 2020, 36(12):179-185.
[26] 曹春號. 基于卷積神經網絡的三七葉片病害手機在線檢測與預警裝置研制[D]. 昆明: 昆明理工大學, 2020.
[27] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[A].European conference on computer vision[C]. 2016.21-37.
[28] 李善軍, 胡定一, 高淑敏, 等. 基于改進SSD的柑橘實時分類檢測[J]. 農業(yè)工程學報, 2019, 35(24):307-313.
[29] REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:Unified,real-time object detection[A].Proceedings of the 2016 IEEE conference on computer vision and pattern recognition[C]. 2016.779-788.
[30] 呂石磊, 盧思華, 李 震, 等. 基于改進YOLOv3-LITE輕量級神經網絡的柑橘識別方法[J].農業(yè)工程學報, 2019, 35(17):205-214.
[31] 董麗君, 曾志高, 易勝秋, 等. 基于YOLOv5的遙感圖像目標檢測[J]. 湖南工業(yè)大學學報, 2022, 36(3):44-50.
[32] 王 超, 張運楚, 孫紹涵, 等. 改進YOLOv5算法的鋼筋端面檢測[J]. 計算機系統(tǒng)應用, 2022, 31(4):68-80.
[33] 邢晉超, 潘廣貞. 改進YOLOv5s的手語識別算法研究[J]. 計算機工程與應用,2022,58(16):194-203.
[34] WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[A]. Proceedings of the 2020 IEEE/CVF conference on computer vision and pattern recognition workshops[C]. 2020.390-391.
[35] 張 靜,農昌瑞,楊智勇.基于卷積神經網絡的目標檢測算法綜述[J].兵器裝備工程學報,2022,43(6):37-47.
[36] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4: Optimal speed and accuracy of object detection[J]. arXiv e-prints, 2020.DOI: 10.48550/arXiv.2004.10934.
[37] 馬琳琳, 馬建新, 韓佳芳, 等. 基于YOLOv5s目標檢測算法的研究[J]. 電腦知識與技術, 2021, 17(23):100-103.
作者簡介:何 恒(1990-),男,四川成都人,講師,主要從事電子信息高新技術的應用研究,(電話)15984024102(電子信箱)278495187@qq.com;通信作者,周 平(1989-),男,四川瀘州人,講師,碩士,主要從事農業(yè)信息化的應用研究,(電話)19136459780(電子信箱)609621843@qq.com。