亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv4的蔗種壞芽識(shí)別方法研究

        2024-12-31 00:00:00沈漫林劉姣娣許洪振何捷段玉龍
        關(guān)鍵詞:聚類算法

        摘要:為實(shí)現(xiàn)蔗種切種機(jī)構(gòu)對(duì)壞芽蔗種實(shí)時(shí)檢測(cè)剔除,提出一種基于改進(jìn)YOLOv4的蔗種壞芽快速識(shí)別方法。通過(guò)在YOLOv4主干網(wǎng)絡(luò)添加輕量的注意力模塊(CBAM),以增強(qiáng)網(wǎng)絡(luò)提取蔗芽特征能力,降低背景噪聲對(duì)蔗芽識(shí)別精度的影響;并利用K-means算法對(duì)數(shù)據(jù)集重新聚類,生成符合蔗芽特征的錨定框,提高蔗種壞芽檢測(cè)精度;將路徑聚合網(wǎng)絡(luò)中原有的標(biāo)準(zhǔn)卷積替換為深度可分離卷積,大幅減少參數(shù)降低計(jì)算負(fù)荷,整體識(shí)別速度得到提升。測(cè)試結(jié)果表明:改進(jìn)后的網(wǎng)絡(luò)模型比YOLOv4精確率提高3.12%,平均精確率均值提高4.15%,召回率提高3.69%,單張圖像識(shí)別時(shí)間縮短7 ms。改進(jìn)后算法實(shí)現(xiàn)對(duì)蔗種壞芽的快速準(zhǔn)確識(shí)別,滿足切種機(jī)構(gòu)實(shí)時(shí)檢測(cè)并剔除蔗種壞芽的需求。

        關(guān)鍵詞:蔗種壞芽;改進(jìn)網(wǎng)絡(luò);切種機(jī)構(gòu);注意力模塊;聚類算法;深度可分離卷積

        中圖分類號(hào):S351.1; TP391.4" " " 文獻(xiàn)標(biāo)識(shí)碼:A" " " 文章編號(hào):2095?5553 (2024) 09?0190?06

        Research on sugarcane seed bad bud recognition method based on improved YOLOv4

        Shen Manlin, Liu Jiaodi, Xu Hongzhen, He Jie, Duan Yulong

        (School of Mechanical and Control Engineering, Guilin University of Technology, Guilin, 541006, China)

        Abstract: In order to realize the real?time detection and elimination of the bad buds by the sugarcane seed cutting mechanism, a rapid recognition method for the bad buds of sugarcane seed based on improved YOLOv4 was proposed. A lightweight Convolutional Block Attention Module (CBAM) was added to the YOLOv4 backbone network to enhance the ability of sugarcane bud feature extraction and reduce the influence of background noise on the accuracy of sugarcane bud recognition. The K-means algorithm was used to re?cluster the data set to generate an anchor frame that was consistent with the characteristics of cane buds, which improved the detection accuracy of cane seed bad buds. The original standard convolution in the path aggregation network is replaced by deep separable convolution, which greatly reduces the parameters and computational load, and improves the overall recognition speed. The training and test results show that compared with YOLOv4, the precision of the improved network model is increased by 3.12%, the mean average precision is increased by 4.15%, the recall is increased by 3.69%, and the recognition time of single image is shortened by 7 ms. The improved algorithm realized rapid and accurate identification of sugarcane seed bad buds and met the need of real?time detection and removal of sugarcane seed bad buds by the seed cutting mechanism.

        Keywords: sugarcane seed bad bud; improved the network; seed cutting mechanism; attention module; clustering algorithm; depth separable convolution

        0 引言

        甘蔗是我國(guó)蔗糖的主要生產(chǎn)原材料,蔗種蔗芽質(zhì)量直接影響到新宿和宿根蔗的產(chǎn)量[1]。從生長(zhǎng)到收割存儲(chǔ)過(guò)程中,蔗芽可能發(fā)生蟲蛀、機(jī)械損傷、腐壞、霉變等現(xiàn)象,蔗種選種是要求檢測(cè)識(shí)別出壞芽蔗種并進(jìn)行剔除,選出正常蔗種是保證蔗種出苗的前提。目前蔗種壞芽識(shí)別依舊以人工肉眼識(shí)別為主,勞動(dòng)強(qiáng)度大、效率低且成本高。

        目前甘蔗檢測(cè)研究主要集中在蔗種莖節(jié)識(shí)別,目的是避免預(yù)切種切到蔗芽。陸尚平[2]基于小波分解與模糊聚類對(duì)莖節(jié)識(shí)別,算法處理較為復(fù)雜且檢測(cè)速度慢;石昌友等[3]利用雙密度雙樹復(fù)小波變換與直線檢測(cè)算法識(shí)別甘蔗莖節(jié),定位精度較高,但少數(shù)莖節(jié)邊界線模糊易導(dǎo)致無(wú)法準(zhǔn)確識(shí)別;陳延祥[4]利用YOLOv3與機(jī)器視覺相結(jié)合的莖節(jié)識(shí)別算法,識(shí)別精確率高,但識(shí)別速度較慢;李尚平等[5]利用改進(jìn)后YOLOv3網(wǎng)絡(luò)對(duì)整根甘蔗莖節(jié)圖像特征進(jìn)行識(shí)別與定位。在蔗芽識(shí)別分類研究上,黃亦其等[6]基于Bayes決策對(duì)蔗芽完好性分類,分類平均精確率均值mAP較高,但需手動(dòng)從蔗芽區(qū)域提取分類特征;Song等[7]基于LeNet-5網(wǎng)絡(luò)建立卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型識(shí)別蔗種好芽與壞芽,提取圖像特征十分規(guī)則,但模型復(fù)雜數(shù)據(jù)處理時(shí)間長(zhǎng)。

        深度學(xué)習(xí)目標(biāo)檢測(cè)算法在速度與精度方面對(duì)比傳統(tǒng)算法優(yōu)勢(shì)顯著[8],被廣泛應(yīng)用于圖像識(shí)別與分類。本文提出一種基于改進(jìn)YOLOv4的蔗種壞芽快速檢測(cè)識(shí)別方法,針對(duì)蔗芽不同形態(tài)特征進(jìn)行識(shí)別定位與分類,以提高蔗種壞芽識(shí)別精確率與識(shí)別速度,實(shí)現(xiàn)蔗種切種機(jī)對(duì)蔗種壞芽的實(shí)時(shí)識(shí)別與剔除。

        1 改進(jìn)YOLOv4的蔗種壞芽快速識(shí)別方法

        1.1 YOLOv4網(wǎng)絡(luò)的改進(jìn)

        YOLOv4網(wǎng)絡(luò)[9]主要由輸入層(Input)、主要特征提取網(wǎng)絡(luò)(Backbone)、頸部特征融合網(wǎng)絡(luò)(Neck)和分類回歸檢測(cè)網(wǎng)絡(luò)(Head)組成。其中主要特征提取網(wǎng)絡(luò)為CSP結(jié)構(gòu)融入Darknet53后形成的CSP Darknet53,減少了網(wǎng)絡(luò)計(jì)算量和對(duì)顯存的占用,實(shí)現(xiàn)網(wǎng)絡(luò)輕量化;YOLOv4網(wǎng)絡(luò)采用Mish激活函數(shù)取代Leaky函數(shù),增強(qiáng)了深層信息傳播;頸部特征融合網(wǎng)絡(luò)引入空間金字塔池化層(SPP)作為附加模塊,路徑聚合網(wǎng)絡(luò)(PANet)作為特征融合模塊,將提取的特征信息轉(zhuǎn)換為坐標(biāo)、類別等信息,有效提高了網(wǎng)絡(luò)預(yù)測(cè)的準(zhǔn)確性;分類回歸檢測(cè)網(wǎng)絡(luò)則沿用了YOLOv3[10]的檢測(cè)頭,得到輸出后與真實(shí)標(biāo)注比較,計(jì)算出損失函數(shù)。以上為YOLOv4網(wǎng)絡(luò)模型的整體框架。

        為提高網(wǎng)絡(luò)對(duì)壞芽檢測(cè)識(shí)別速度,本文基于原始YOLOv4網(wǎng)絡(luò)做出以下改進(jìn):第一在主要特征提取網(wǎng)絡(luò)中添加CBAM模塊;第二利用K-means算法對(duì)數(shù)據(jù)集重新聚類,生成符合蔗芽尺寸的9個(gè)錨定框;第三將PANet中所有標(biāo)準(zhǔn)卷積模塊替換為深度可分離卷積。改進(jìn)后YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        1.2 CBAM模塊

        CBAM分為通道注意力模塊(CAM)與空間注意力模塊(SAM),兩模塊串聯(lián)并分別與通道和空間維度的注意力特征融合,通常應(yīng)用在前饋卷積神經(jīng)網(wǎng)絡(luò)[11]。原始CSPDarknet53包含53層卷積,分為5個(gè)CSP模塊,本文將CBAM模塊嵌入主干網(wǎng)絡(luò)CSPDarknet53中,添加于CSPBlock中每組重復(fù)卷積層末端。CBAM模塊具體結(jié)構(gòu)如圖2所示,在CAM中,輸入特征圖F沿通道方向分別經(jīng)過(guò)最大池化與平均池化[12],將兩種池化后特征送入共享特征層計(jì)算,計(jì)算后特征圖相加經(jīng)Sigmoid激活函數(shù)處理,生成通道注意力映射Mc,Mc與F逐元素相乘得到新特征圖F1,如式(1)所示。

        本文改進(jìn)所添加注意力模塊不再采用單一池化操作,而是采用最大池化與平均池化相加或堆疊。經(jīng)過(guò)CAM與SAM后所得新特征圖F2與F融合后作為下一層輸入。低階通道特征經(jīng)過(guò)最大池化與平均池化融合,可實(shí)現(xiàn)對(duì)高階通道特征的引導(dǎo)與校準(zhǔn)。兩模塊生成的注意力映射可提高圖像中蔗芽權(quán)重,使改進(jìn)后模型更關(guān)注壞芽顯著特征,降低了背景噪聲對(duì)壞芽檢測(cè)精度的影響,同時(shí)減小錯(cuò)檢與漏檢率。

        1.3 K-means聚類算法

        K-means聚類算法[13]是一種簡(jiǎn)單易于實(shí)現(xiàn)的無(wú)監(jiān)督聚類方法,因其收斂速度快效果好而被廣泛使用。原始YOLOv4網(wǎng)絡(luò)中默認(rèn)錨定框全部基于COCO數(shù)據(jù)集統(tǒng)計(jì),用于確定檢測(cè)目標(biāo)長(zhǎng)寬比和預(yù)測(cè)目標(biāo)邊界框。對(duì)本文蔗芽識(shí)別任務(wù)而言,部分錨定框尺寸過(guò)大,并不適用于蔗芽目標(biāo)檢測(cè)。為此,使用K-means算法對(duì)蔗種圖像數(shù)據(jù)集中所有錨定框重新聚類,獲取與蔗芽尺寸大小、比例相匹配的9個(gè)錨定框,以此提升識(shí)別算法在回歸過(guò)程中的速度與精確度。

        將蔗種圖像數(shù)據(jù)集中蔗芽錨定框的長(zhǎng)與寬輸入聚類算法,隨機(jī)選取9個(gè)錨定框作為質(zhì)心,計(jì)算數(shù)據(jù)集中各錨定框到各質(zhì)心距離,將每個(gè)錨定框標(biāo)記為與其距離最近質(zhì)心的類別,再對(duì)歸類后各錨定框求新質(zhì)心,基于新質(zhì)心對(duì)錨定框重新分類,再求質(zhì)心,數(shù)次重復(fù)直至質(zhì)心不變,即可得到一組適合蔗芽特征的錨定框尺寸。將重新聚類后所生成錨定框分配到不同尺度特征圖上,如表1所示。

        1.4 改進(jìn)PANet結(jié)構(gòu)

        不同深度下網(wǎng)絡(luò)提取特征圖所關(guān)注重點(diǎn)不一,高層關(guān)注整體,低層關(guān)注細(xì)節(jié)。低層特征圖中信息能更好對(duì)壞芽進(jìn)行識(shí)別定位,因此在PANet的FPN網(wǎng)絡(luò)結(jié)構(gòu)中增加了PAN,將低層信息傳到高層,同時(shí)減少由上向下路徑中卷積層數(shù)量。PANet模塊運(yùn)算量主要在3×3標(biāo)準(zhǔn)卷積上,使用深度可分離卷積代替結(jié)構(gòu)中全部標(biāo)準(zhǔn)卷積后參數(shù)量相應(yīng)減少,計(jì)算負(fù)荷降低的同時(shí)加強(qiáng)了多層次特征融合。深度可分離卷積是將標(biāo)準(zhǔn)卷積轉(zhuǎn)化為一個(gè)深度卷積與一個(gè)逐點(diǎn)卷積進(jìn)行運(yùn)算[14],如圖3所示。

        2 蔗種壞芽檢測(cè)識(shí)別試驗(yàn)

        2.1 試驗(yàn)數(shù)據(jù)集

        本試驗(yàn)使用甘蔗樣本為桂糖44號(hào),由廣西桂林農(nóng)業(yè)科學(xué)院種植提供,數(shù)據(jù)集為室內(nèi)拍攝含單個(gè)蔗芽的蔗種段,含好芽和壞芽?jī)深?,每類樣本圖片790張,共拍攝1 580張。訓(xùn)練時(shí)將圖像大小參數(shù)調(diào)整為416像素×416像素,將所得數(shù)據(jù)集按8∶2隨機(jī)分為1 264張訓(xùn)練集與316張驗(yàn)證集。

        2.2 試驗(yàn)環(huán)境配置

        本次網(wǎng)絡(luò)模型測(cè)試所用的試驗(yàn)平臺(tái)設(shè)備配置為Intel(R)Core(TM)i7-10700K CPU@3.80 GHz,內(nèi)存24 G,訓(xùn)練試驗(yàn)平臺(tái)設(shè)備配置為CPUi7-4790,搭配NVIDIA GeForce RTX2060 SUPER圖形卡,8 G顯存以及Windows10操作系統(tǒng),在Python3.7、CUDA11.1環(huán)境下進(jìn)行蔗芽識(shí)別處理。

        2.3 檢測(cè)方法框架

        創(chuàng)建數(shù)據(jù)集時(shí),對(duì)數(shù)據(jù)集的標(biāo)注是關(guān)鍵步驟。以蔗芽作為目標(biāo)檢測(cè)區(qū)域,基于Labelimg軟件對(duì)蔗芽進(jìn)行標(biāo)注處理[17],如圖4所示。

        將標(biāo)定后的蔗芽分為好芽與壞芽?jī)深?,便于網(wǎng)絡(luò)模型檢測(cè)識(shí)別。使用Labelimg對(duì)圖像進(jìn)行預(yù)處理時(shí)輸出xml文件,此文件主要內(nèi)容包含圖像路徑、蔗芽所在位置信息及蔗芽類別。其中好芽指未受損傷且飽滿完整的蔗芽;壞芽指受自然環(huán)境影響發(fā)生霉變、干枯,或受機(jī)械損傷的蔗芽。好芽與壞芽特征對(duì)比如圖5所示,好芽(圖5(a))紋理均勻且呈微微凸起狀;壞芽(圖5(b))因破損或干枯發(fā)霉,紋理粗糙且呈凹陷狀,蔗芽區(qū)域顏色較深。兩類蔗芽圖像特征清晰,差異明顯易于識(shí)別分類。

        3 試驗(yàn)結(jié)果分析

        3.1 評(píng)價(jià)指標(biāo)

        對(duì)于本文蔗芽目標(biāo)檢測(cè)任務(wù),選取以下模型性能評(píng)價(jià)指標(biāo)對(duì)模型進(jìn)行評(píng)價(jià):精確率P、召回率R、精確度均值A(chǔ)P、平均精確度均值mAP以及F1值,其中F1值是P和R的調(diào)和均值;AP值為P-R曲線與坐標(biāo)軸圍成的面積[18],體現(xiàn)了訓(xùn)練模型在每個(gè)類別上的識(shí)別精度;mAP表示AP值求平均[19],體現(xiàn)訓(xùn)練模型在所有類別上的識(shí)別精度,mAP越接近于1代表網(wǎng)絡(luò)性能越好。計(jì)算如式(3)~式(7)所示。

        3.2 模型訓(xùn)練結(jié)果

        將數(shù)據(jù)集輸入改進(jìn)后YOLOv4網(wǎng)絡(luò)訓(xùn)練,訓(xùn)練過(guò)程中共經(jīng)過(guò)400次迭代,使用Tensorboard記錄數(shù)據(jù),每進(jìn)行一次迭代,寫入訓(xùn)練集損失;每訓(xùn)練一個(gè)輪次,寫入驗(yàn)證集損失并保存模型權(quán)重。模型訓(xùn)練損失值變化如圖6所示,損失值在前50輪次下降最快,歷經(jīng)50次迭代后損失值變化放緩;200次迭代后,訓(xùn)練損失再次呈現(xiàn)小幅下降趨勢(shì),持續(xù)50次迭代后損失值變化再次放緩,最后150次迭代損失值基本不再下降,于固定范圍變化浮動(dòng)。將最后50輪次中損失最低的模型作為訓(xùn)練結(jié)果以進(jìn)行后續(xù)分析。

        3.3 消融試驗(yàn)結(jié)果

        為驗(yàn)證改進(jìn)算法采用模塊對(duì)原始YOLOv4網(wǎng)絡(luò)的提升效果,進(jìn)行消融試驗(yàn)。在YOLOv4網(wǎng)絡(luò)的基礎(chǔ)上分別單獨(dú)添加CBAM注意力模塊、改進(jìn)K-means聚類算法和引入深度可分離卷積進(jìn)行對(duì)比驗(yàn)證。表2為消融試驗(yàn)結(jié)果,表中CBAM代表在主干網(wǎng)絡(luò)中添加CBAM注意力模塊,K-means代表用K-means聚類算法對(duì)YOLOv4原有錨定框重新聚類,Depthwise代表在PANet引入深度可分離卷積代替全部標(biāo)準(zhǔn)卷積。

        由表2可看出,YOLOv4模型的平均精確率均值為93.27%,精確率為95.42%。在此基礎(chǔ)上,CSPDarknet53中添加CBAM后網(wǎng)絡(luò)運(yùn)算速度下降,但mAP提高了3.04%,表明CBAM在不影響實(shí)時(shí)性檢測(cè)情況下可有效提升mAP;利用K-means聚類算法對(duì)原始錨定框重新聚類,mAP提高2.49%,表明合適的錨定框能有效提高識(shí)別精度;引入深度可分離卷積后參數(shù)量減少,mAP與P均小有提升。原始YOLOv4網(wǎng)絡(luò)同時(shí)做出以上三點(diǎn)改進(jìn)后,mAP提升至97.42%,精確率得到大幅提升。

        通過(guò)上述消融試驗(yàn)結(jié)果對(duì)比,原始YOLOv4網(wǎng)絡(luò)經(jīng)過(guò),三點(diǎn)改進(jìn)均能有效提高模型識(shí)別精確率,試驗(yàn)數(shù)據(jù)表明融合三點(diǎn)改進(jìn)后網(wǎng)絡(luò)模型的壞芽識(shí)別精確率高達(dá)98.54%,遠(yuǎn)高于原始YOLOv4網(wǎng)絡(luò)識(shí)別精確率。

        3.4 不同網(wǎng)絡(luò)模型對(duì)比試驗(yàn)結(jié)果

        為檢測(cè)改進(jìn)YOLOv4網(wǎng)絡(luò)模型的識(shí)別性能,將其與目前主流網(wǎng)絡(luò)模型YOLOv4-tiny、YOLOv4、YOLOv5進(jìn)行試驗(yàn)對(duì)比。將改進(jìn)YOLOv4、YOLOv4-tiny、YOLOv4、YOLOv5網(wǎng)絡(luò)模型對(duì)同一組數(shù)據(jù)集分別進(jìn)行檢測(cè)[20],試驗(yàn)結(jié)果如表3所示,改進(jìn)YOLOv4網(wǎng)絡(luò)模型的mAP相較YOLOv4-tiny、YOLOv4、YOLOv5均有所上升,分別增長(zhǎng)了9.9%、4.15%、3.56%;改進(jìn)YOLOv4網(wǎng)絡(luò)模型對(duì)蔗芽識(shí)別分類的平均速度為17 ms/芽,在檢測(cè)速度上相較于YOLOv4、YOLOv5也具有優(yōu)勢(shì)。YOLOv4-tiny網(wǎng)絡(luò)檢測(cè)速度雖為8 ms/芽,但其識(shí)別精確率過(guò)低,整體優(yōu)勢(shì)不如改進(jìn)后YOLOv4網(wǎng)絡(luò)模型。

        圖7為訓(xùn)練后不同網(wǎng)絡(luò)模型對(duì)蔗芽識(shí)別分類效果,每個(gè)框右上角數(shù)值代表算法檢測(cè)框的置信度。置信度表示預(yù)測(cè)框檢測(cè)到某物品種類時(shí),預(yù)測(cè)框與物品真實(shí)框的重合程度[21],是YOLO系列算法評(píng)估檢測(cè)準(zhǔn)確性的指標(biāo)。將蔗芽類別判斷置信度設(shè)為0.5,當(dāng)網(wǎng)絡(luò)判斷蔗芽置信度超過(guò)0.5,識(shí)別蔗芽成功,否則不進(jìn)行識(shí)別,提高了蔗芽檢測(cè)精度。

        4 結(jié)論

        1) 提出一種基于改進(jìn)YOLOv4的蔗種壞芽快速識(shí)別檢測(cè)算法,試驗(yàn)結(jié)果表明,改進(jìn)后YOLOv4的識(shí)別精確率達(dá)到98.54%,平均準(zhǔn)確度均值為97.42%,召回率為96.18%,單張圖像平均識(shí)別時(shí)間為17 ms。模型能夠在保證檢測(cè)精度的同時(shí),滿足對(duì)蔗種壞芽識(shí)別的實(shí)時(shí)性需求。

        2) 為驗(yàn)證改進(jìn)YOLOv4網(wǎng)絡(luò)模型的優(yōu)越性,與主流的目標(biāo)檢測(cè)模型進(jìn)行對(duì)比試驗(yàn)。本文模型的平均準(zhǔn)確度均值相比YOLOv4-tiny、YOLOv4、YOLOv5分別提高9.9%、4.15%、3.56%,壞芽識(shí)別檢測(cè)速度相較YOLOv4與YOLOv5分別加快7 ms/芽、3 ms/芽。

        3) 改進(jìn)后模型滿足蔗種壞芽快速、高精度的識(shí)別檢測(cè)需求,解決切種機(jī)構(gòu)對(duì)壞芽蔗種實(shí)時(shí)識(shí)別問(wèn)題,識(shí)別分類結(jié)果輸出后向切種機(jī)構(gòu)傳遞剔除信號(hào),切種后及時(shí)剔除壞芽蔗種,實(shí)現(xiàn)蔗種切種機(jī)實(shí)時(shí)檢測(cè)剔除壞芽蔗種。

        參 考 文 獻(xiàn)

        [ 1 ] 劉慶庭, 莫建霖, 李廷化, 等. 我國(guó)甘蔗種植機(jī)技術(shù)現(xiàn)狀及存在的關(guān)鍵技術(shù)問(wèn)題[J]. 甘蔗糖業(yè), 2011(5): 52-58.

        Liu Qingting, Mo Jianlin, Li Tinghua, et al. Current situation of sugarcane planter and its key technical issues in China [J]. Sugarcane and Canesugar, 2011(5): 52-58.

        [ 2 ] 陸尚平. 基于機(jī)器視覺的甘蔗莖節(jié)識(shí)別與蔗芽檢測(cè)研究[D]. 武漢: 華中農(nóng)業(yè)大學(xué), 2011.

        Lu Shangping. Research on sugarcane internodes and sugarcane buds identification based on machine vision [D]. Wuhan: Huazhong Agricultural University, 2011.

        [ 3 ] 石昌友, 王美麗, 劉欣然, 等. 基于機(jī)器視覺的不同類型甘蔗莖節(jié)識(shí)別[J]. 計(jì)算機(jī)應(yīng)用, 2019, 39(4): 1208-1213.

        Shi Changyou, Wang Meili, Liu Xinran, et al. Node recognition for different types of sugarcanes based on machine vision [J]. Journal of Computer Applications, 2019, 39(4): 1208-1213.

        [ 4 ] 陳延祥. 基于機(jī)器視覺的甘蔗多刀切種裝備設(shè)計(jì)與研究[D]. 無(wú)錫: 江南大學(xué), 2022.

        Chen Yanxiang. Design and research on sugarcane multi?cutter cutting equipment based on machine vision [D]. Wuxi: Jiangnan University, 2022.

        [ 5 ] 李尚平, 李向輝, 張可, 等. 改進(jìn)YOLOv3網(wǎng)絡(luò)提高甘蔗莖節(jié)實(shí)時(shí)動(dòng)態(tài)識(shí)別效率[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2019, 35(23): 185-191.

        Li Shangping, Li Xianghui, Zhang Ke, et al. Increasing the real?time dynamic identification efficiency of sugarcane nodes by improved YOLOv3 network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(23): 185-191.

        [ 6 ] 黃亦其, 尹凱, 黃媚章, 等. 基于Bayes決策的甘蔗種芽完好性檢測(cè)與試驗(yàn)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2016, 32(5): 57-63.

        Huang Yiqi, Yin Kai, Huang Meizhang, et al. Detection and experiment of sugarcane buds integrity based on Bayes decision [J]. Transactions of the Chinese Society of Agricultural Engineering, 2016, 32(5): 57-63.

        [ 7 ] Song H, Peng J, Tuo N, et al. Study of sugarcane buds classification based on convolutional neural networks [J]. Intelligent Automation and Soft Computing, 2021, 27(2):581-592.

        [ 8 ] 趙永強(qiáng), 饒?jiān)?董世鵬, 等. 深度學(xué)習(xí)目標(biāo)檢測(cè)方法綜述[J]. 中國(guó)圖象圖形學(xué)報(bào), 2020, 25(4): 629-654.

        Zhao Yongqiang, Rao Yuan, Dong Shipeng, et al. Survey on deep learning object detection [J]. Journal of Image and Graphics, 2020, 25(4): 629-654.

        [ 9 ] Bochkovskiy A, Wang C, Liao H. YOLOv4: Optimal speed and accuracy of object detection [J]. Computer Vision and Pattern Recognition, 2020.

        [10] Redmon J, Farhadi A. YOLOv3: An incremental improvement [J]. arxiv e?prints, 2018.

        [11] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision, 2018: 3-19.

        [12] 劉強(qiáng), 李鵬, 鄒一鳴, 等. 基于改進(jìn)YOLOv4算法的動(dòng)車庫(kù)接地桿狀態(tài)檢測(cè)[J]. 五邑大學(xué)學(xué)報(bào)(自然科學(xué)版), 2022, 36(2): 41-47.

        Liu Qiang, Li Peng, Zou Yiming, et al. State detection of grounding rods in moving garage based on improved YOLOv4 algorithm [J]. Journal of Wuyi University (Natural Science Edition), 2022, 36(2): 41-47.

        [13] Chao G. Discriminative K-means laplacian clustering [J]. Neural Processing Letters, 2019, 49(1): 393-405.

        [14] Back S, Lee S, Shin S, et al. Robust skin disease classification by distilling deep neural network ensemble for the mobile diagnosis of herpes zoster [J]. IEEE Access, 2021, 9: 20156-20169.

        [15] 梁桓?jìng)? 基于Android的近紅外人眼檢測(cè)與跟蹤研究與實(shí)現(xiàn)[D]. 大連: 大連交通大學(xué), 2018.

        Liang Huanwei. Research and implementation of near infrared human eye detection and tracking based on Android [D]. Dalian: Dalian Jiaotong University, 2018.

        [16] 趙東升. 基于HLS的高效深度卷積神經(jīng)網(wǎng)絡(luò)FPGA實(shí)現(xiàn)方法[D]. 西安: 西安電子科技大學(xué), 2019.

        Zhao Dongsheng. An FPGA implementation method of efficient deep convolution neural network based on HLS [D]. Xi'an: Xidian University, 2019.

        [17] Tian D, Lin C, Zhou J, et al. SA-YOLOv3: An efficient and accurate object detector using self?attention mechanism for autonomous driving [J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 23(5): 4099-4110.

        [18] 宋德江. 基于深度學(xué)習(xí)的車輛行為識(shí)別[D]. 重慶: 西南大學(xué), 2021.

        Song Dejiang. Vehicle behavior detection based on deep learning [D]. Chongqing: Southwest University, 2021.

        [19] Li Y, Guo J h, Guo X m, et al. A novel target detection method of the unmanned surface vehicle under all?weather conditions with an improved YOLOV3 [J]. Sensors, 2020, 20(17): 4885.

        [20] 彭國(guó)雯. 基于深度學(xué)習(xí)的場(chǎng)景文字檢測(cè)算法的融合技術(shù)研究[D]. 開封: 河南大學(xué), 2019.

        [21] 高嘉琳, 白堂博, 姚德臣, 等. 基于改進(jìn)YOLOv4算法的鐵路扣件檢測(cè)[J]. 科學(xué)技術(shù)與工程, 2022, 22(7): 2872-2877.

        Gao Jialin, Bai Tangbo, Yao Dechen, et al. Detection of track fastener based on improved YOLOv4 algorithm [J]. Science Technology and Engineering, 2022, 22(7): 2872-2877.

        猜你喜歡
        聚類算法
        一種基于詞嵌入與密度峰值策略的大數(shù)據(jù)文本聚類算法
        基于關(guān)聯(lián)規(guī)則和復(fù)雜系統(tǒng)熵聚類方法分析張學(xué)文治療肝熱血瘀證用藥規(guī)律
        數(shù)據(jù)挖掘算法性能優(yōu)化的研究與應(yīng)用
        K—Means聚類算法在MapReduce框架下的實(shí)現(xiàn)
        基于K?均值與AGNES聚類算法的校園網(wǎng)行為分析系統(tǒng)研究
        數(shù)據(jù)挖掘技術(shù)在識(shí)別可疑金融交易中的應(yīng)用
        基于改進(jìn)的K_means算法在圖像分割中的應(yīng)用
        大規(guī)模風(fēng)電場(chǎng)集中接入對(duì)電力系統(tǒng)小干擾穩(wěn)定的影響分析
        科技視界(2016年8期)2016-04-05 18:39:39
        基于彈性分布數(shù)據(jù)集的海量空間數(shù)據(jù)密度聚類
        基于MapReduce的DBSCAN聚類算法的并行實(shí)現(xiàn)
        久久免费视频国产| 99国产精品99久久久久久| 国产成人精品久久综合| 亚洲人成网站免费播放| 亚洲AV专区一专区二专区三| 熟女免费观看一区二区| 久久久久国色av免费观看性色| 国产在线精品一区二区| 亚洲一区二区在线视频播放| 精品国产av一区二区三四区| 无码乱肉视频免费大全合集 | 久久久国产一区二区三区四区小说| 亚洲嫩草影院久久精品| 日产国产亚洲精品系列| 艳妇臀荡乳欲伦69调教视频| 好男人视频在线视频| 国产网友自拍亚洲av| 精品一区二区在线观看免费视频| 日产亚洲一区二区三区| 亚洲午夜精品a区| 成人激情视频一区二区三区 | 欧美精品色婷婷五月综合| 久久精品国产www456c0m| 国产精品一区二区三区精品| 自拍偷区亚洲综合第一页| 高潮内射双龙视频| 亚洲精品成人专区在线观看| 亚洲国产欲色有一二欲色| 亚洲精品中文字幕免费专区| 日本熟妇色xxxxx欧美老妇| 91青草久久久久久清纯| 小池里奈第一部av在线观看| 免费a级毛片无码免费视频120软件| 亚洲综合婷婷久久| 午夜在线观看一区二区三区四区| 精品国产品香蕉在线| 伊人蕉久中文字幕无码专区| 国产精品女同久久久久久| 国产一区二区三区在线观看第八页| 激情航班h版在线观看| 正在播放淫亚洲|