亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv5-CP的復(fù)雜環(huán)境下油茶果檢測(cè)

        2023-04-29 01:26:30肖章彭江劉俊杰孫二杰彭如恕

        肖章 彭江 劉俊杰 孫二杰 彭如恕

        摘要:

        為解決復(fù)雜環(huán)境下油茶果的檢測(cè)精度不高的問題,提出一種YOLOv5-CP的油茶果檢測(cè)方法。首先利用RealSense D435i深度相機(jī)在自然場(chǎng)景下采集各種環(huán)境下的油茶果圖像,使用LabelImg軟件進(jìn)行油茶果的標(biāo)注;然后引入Cutout數(shù)據(jù)增強(qiáng)方法和坐標(biāo)注意力模塊(Coordinate Attention),以及提出一種改進(jìn)的PANet特征提取層對(duì)YOLOv5模型進(jìn)行優(yōu)化,構(gòu)建一種新的油茶果檢測(cè)模型YOLOv5-CP;最后將YOLOv5-CP與現(xiàn)有模型在復(fù)雜環(huán)境下進(jìn)行油茶果檢測(cè)對(duì)比試驗(yàn)。試驗(yàn)表明:YOLOv5-CP模型的檢測(cè)準(zhǔn)確率、召回率以及平均精度分別為98%、94.6%以及98.4%,遮擋和重疊環(huán)境下對(duì)比原YOLOv5模型檢測(cè)準(zhǔn)確率分別提升11.3%和10.8%。本文方法有效提升油茶果檢測(cè)過程中遮擋、重疊等復(fù)雜環(huán)境下果實(shí)的檢測(cè)準(zhǔn)確率,為后續(xù)開發(fā)油茶采摘機(jī)器人提供理論基礎(chǔ)。

        關(guān)鍵詞:油茶果;目標(biāo)檢測(cè);YOLOv5算法;數(shù)據(jù)增強(qiáng);坐標(biāo)注意力模塊

        中圖分類號(hào):TP391.4

        文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):20955553 (2023) 12019307

        Detection of Camellia oleifera fruit in complex environment based on YOLOv5-CP

        Xiao Zhang, Peng Jiang, Liu Junjie, Sun Erjie, Peng Rushu

        (College of Mechanical Engineering, University of South China, Hengyang, 421001, China)

        Abstract:

        In order to solve the problem of low detection accuracy of Camellia oleifera fruit in complex environment, a YOLOv5-CP Camellia oleifera fruit detection method was proposed. Firstly, the RealSense D435i depth camera was used to collect the images of Camellia oleifera fruit in various environments in natural scenes, and the Labelimg software was used to label the Camellia oleifera fruit. Then the cutout data enhancement method and coordinate attention module were introduced, and an improved PANet feature extraction layer was proposed to optimize the YOLOv5 model, and a new detection model YOLOv5-CP of Camellia oleifera fruit was constructed. Finally, YOLOv5-CP was compared with the existing model in the detection of Camellia oleifera fruit in complex environment, the experiments showed that the detection accuracy, recall and average accuracy of YOLOv5-CP model were 98%, 94.6% and 98.4%,respectively. The detection accuracy of YOLOv5-CP model in occluded and overlapping environments was improved by 11.3% and 10.8% respectively compared with the original YOLOv5 model. This method effectively improves the detection accuracy of Camellia oleifera fruit in complex environments such as occlusion and overlap, and provides a theoretical basis for the subsequent development of Camellia oleifera picking robot.

        Keywords:

        Camellia oleifera fruit; target detection; YOLOv5 algorithm; data enhancement; coordinate attention module

        0 引言

        油茶是我國特有的經(jīng)濟(jì)油料作物,發(fā)展油茶產(chǎn)業(yè)是當(dāng)前我國鄉(xiāng)村振興計(jì)劃下的重要策略[1]。油茶的收獲期短,收獲油茶耗費(fèi)大量勞動(dòng)力,收獲的品質(zhì)又直接影響茶油的品質(zhì)。利用機(jī)器視覺技術(shù)對(duì)油茶果實(shí)進(jìn)行識(shí)別,可以為油茶果實(shí)智能化、信息化和自動(dòng)化采收提供視覺支持。同時(shí)顯著提升采摘效率、降低人工成本。但是在自然環(huán)境下的油茶果存在成熟度不同、果實(shí)之間相互重疊和樹葉遮擋等問題。針對(duì)上述問題提出了利用深度學(xué)習(xí)來識(shí)別油茶果的技術(shù)研究。利用深度學(xué)習(xí)來構(gòu)建檢測(cè)模型,避免了傳統(tǒng)機(jī)器學(xué)習(xí)模型構(gòu)建需要復(fù)雜特征的過程,并且識(shí)別精度將會(huì)更高[24]。Zhao等[5]在環(huán)境復(fù)雜的自然環(huán)境中通過Laplace濾波器來對(duì)雜亂樹葉進(jìn)行邊緣增強(qiáng),使得樹葉和蘋果之間的紋理差異增加,提升蘋果與樹葉分割的準(zhǔn)確性。賈偉寬等[6]優(yōu)化的SOLO分割算法在檢測(cè)綠色果實(shí)上的平均召回率達(dá)到了98.84%,精確率達(dá)到了96.16%。Jahanbakhshi等[7]通過對(duì)CNN算法改良實(shí)現(xiàn)對(duì)檸檬進(jìn)行分級(jí)。改良后的卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率達(dá)到了100%。石良德[8]利用油茶果和背景RGB信息的區(qū)別,利用色差分量對(duì)成熟油茶果圖像進(jìn)行分割識(shí)別。Li等[9]對(duì)油茶果圖像采用R-B色差分量方法分割, 然后送入提出的偏好人工免疫網(wǎng)絡(luò)識(shí)別。使得識(shí)別晴天和陰天環(huán)境下的油茶果識(shí)別率達(dá)到 90%以上。李立君等[1011]使用單個(gè)油茶果,提取油茶果常見的形狀特征,利用偏好免疫網(wǎng)絡(luò)算法對(duì)油茶果進(jìn)行識(shí)別,在陰天和晴天的識(shí)別率都達(dá)到80%以上。汪洋等[12]提出了將油茶果圖像按照亮度進(jìn)行分塊光照補(bǔ)償?shù)姆椒ǚ指钣筒韫沟米匀画h(huán)境下噪聲對(duì)油茶果的影響降低。張習(xí)之等[13]利用Inception v3卷積特征提取模塊來識(shí)別油茶果圖像,識(shí)別精度達(dá)到了87%。

        綜上,目前果實(shí)識(shí)別研究主要集中在提取果實(shí)的顏色、形狀、紋理等特征提取算法等方面。但是這些特征普遍存在著特征單一,魯棒性不強(qiáng)的問題。因此,提出適用于復(fù)雜環(huán)境下、魯棒性強(qiáng)的、有針對(duì)性的油茶果識(shí)別算法很有價(jià)值。而YOLOv5作為YOLO系列最新一代的卷積神經(jīng)網(wǎng)絡(luò),具有檢測(cè)速度快、準(zhǔn)確率高、模型占用內(nèi)存小等特點(diǎn)[1419]。本文基于YOLOv5模型,通過增加Cutout數(shù)據(jù)增強(qiáng)[20],引入坐標(biāo)注意力模塊[21],改進(jìn)PANet特征融合層,強(qiáng)化小目標(biāo)特征,增強(qiáng)模型在復(fù)雜環(huán)境下的魯棒性。

        1. 材料和方法

        1.1 RGB-D成像系統(tǒng)數(shù)據(jù)采集

        根據(jù)實(shí)際油茶果檢測(cè)需求,本研究搭建了油茶果的RGB-D圖像采集系統(tǒng),如圖1所示。它由RealSense D435i和具有8GB RAM的計(jì)算機(jī)組成,實(shí)現(xiàn)數(shù)據(jù)采集。

        RealSense D435i由inter制造,由紅外(IR)光源、IR攝像頭和RGB攝像頭組成。紅外和深度圖像可由分辨率為1 280×720的IR相機(jī)獲得,而RGB圖像可由分辨率為1 920×1 080的相機(jī)獲得。

        在本文中,RGB-D成像系統(tǒng)用于在自然光環(huán)境中收集油茶果的圖像。油茶果圖像采集于中國湖南省衡南縣云集大三湘油茶基地,具體時(shí)間為2021年10月23—27日。油茶果圖像采集的場(chǎng)景如圖2所示。

        隨機(jī)采集衡東大桃、湘林210、湘林1號(hào)等23個(gè)品種的油茶果圖像并保存JPG格式。圖3為采集的部分油茶果圖像。

        1.2 數(shù)據(jù)集制備

        為了訓(xùn)練模型并評(píng)估算法的性能,對(duì)收集到的RGB-D圖像利用labelImg軟件進(jìn)行標(biāo)注。在本文中,正負(fù)樣本的標(biāo)簽,即油茶果果實(shí)和背景樣本,作為特征提取的輸入。通過人工標(biāo)注油茶果位置,將標(biāo)注好的圖像以JPG格式儲(chǔ)存在標(biāo)簽文件夾下。從采集到的729張油茶果圖像中,隨機(jī)選取509張圖像作為訓(xùn)練集,109張圖像作為驗(yàn)證集,剩余的111張圖像作為測(cè)試集。

        2 相關(guān)工作

        2.1 YOLOv5-CP模型

        目前目標(biāo)檢測(cè)在深度學(xué)習(xí)領(lǐng)域主流的算法主要分為單階段算法和雙階段算法,其中單階段算法主要有YOLOv1,YOLOv2,YOLOv3,YOLOv4,YOLOv5,YOLOX, SSD等,雙階段算法主要有RCNN, SPPNet, Fast RCNN等[22]。油茶果的采摘要求識(shí)別速度快、能夠快速區(qū)分背景與果實(shí)。同時(shí)要求模型能夠?qū)W習(xí)油茶果的泛化特征,以此來滿足不同成熟度、不同品種的油茶果檢測(cè)。由此本文選用目前單階段檢測(cè)最著名的網(wǎng)絡(luò)之一的YOLOv5。

        本文使用的YOLOv5算法主要是從YOLOv3進(jìn)化而來,YOLOv5經(jīng)歷次迭代,主要增加了mosaic、Bottleneck CSP、SPPF等模塊。

        在不同的網(wǎng)絡(luò)深度和寬度下,YOLOv5分為YOLOv5x,YOLOv5l,YOLOv5m以及YOLOv5s。雖然更復(fù)雜的網(wǎng)絡(luò)可以達(dá)到更好的檢測(cè)效果,但是對(duì)計(jì)算機(jī)的性能也有更高的要求,訓(xùn)練和檢測(cè)時(shí)間也會(huì)更長(zhǎng)。因此應(yīng)該為油茶果的識(shí)別選擇一個(gè)合適的網(wǎng)絡(luò),使得模型復(fù)雜度和油茶果的檢測(cè)性能達(dá)到平衡。實(shí)際農(nóng)業(yè)生產(chǎn)中,受限于環(huán)境等因素,機(jī)械搭載設(shè)備的處理能力遠(yuǎn)不如實(shí)驗(yàn)室環(huán)境,于是本研究選用模型復(fù)雜度較低的YOLOv5s。

        由于油茶果體積較小,且會(huì)存在一些與葉片顏色相似的油茶果,YOLOv5模型難以檢測(cè)單個(gè)油茶果果實(shí)。因此,本文對(duì)YOLOv5進(jìn)行了針對(duì)性的優(yōu)化,在數(shù)據(jù)輸入網(wǎng)絡(luò)之前使用了Cutout數(shù)據(jù)增強(qiáng)方法、骨干網(wǎng)絡(luò)部分在模型深層引入坐標(biāo)注意力機(jī)制,同時(shí)改進(jìn)PANet特征提取層。上述方法大幅度提高了模型的泛化能力,減少了模型在多層池化過程中對(duì)于小目標(biāo)檢測(cè)的損失,有效地增強(qiáng)了模型在復(fù)雜環(huán)境下的魯棒性。顯著提高了油茶果檢測(cè)模型的準(zhǔn)確率。YOLOv5-CP網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        2.2 Cutout數(shù)據(jù)增強(qiáng)

        Cutout是卷積神經(jīng)網(wǎng)絡(luò)的一種正則化技術(shù),通過刪除輸入圖像的連續(xù)部分,從而利用現(xiàn)有樣本的部分遮擋版本來增強(qiáng)數(shù)據(jù)集,Cutout能夠使模型不再專注于并不總是存在幾個(gè)關(guān)鍵特征,迫使模型更多地考慮完整圖像。通過隨機(jī)遮擋的圖像的特征仍然可能存在其他特征圖中,這些特征的不一致會(huì)產(chǎn)生噪聲,以此來提高模型對(duì)噪聲輸入的魯棒性。圖5顯示了引入Cutout數(shù)據(jù)增強(qiáng)的訓(xùn)練圖,YOLOv5-CP圈出部分為數(shù)據(jù)增強(qiáng)在訓(xùn)練集中效果。

        2.3 Coordinate Attention注意力模塊

        Coordinate Attention坐標(biāo)注意力[23]是一種輕量級(jí)的位置注意力模塊, 該模塊通過位置信息對(duì)通道關(guān)系和依賴關(guān)系進(jìn)行編碼,以此來實(shí)現(xiàn)坐標(biāo)信息的嵌入和坐標(biāo)注意力的生成。具體結(jié)構(gòu)如圖6所示。

        2.3.1 坐標(biāo)信息嵌入

        將輸入特征圖的寬度和高度在兩個(gè)方向分別進(jìn)行全局池化來獲得兩個(gè)方向的特征圖,以此得到圖像寬度和高度上的注意力并對(duì)精確位置信息進(jìn)行編碼。具體可以表示為

        式中:

        C——通道;

        w——通道寬度的輸出;

        xC——中間張量;

        zC——第C個(gè)通道的輸出;

        h——通道高度的輸出;

        W——特征圖寬度;

        H——特征圖高度。

        2.3.2 坐標(biāo)注意力生成

        將獲得全局感受野的寬度和高度兩個(gè)方向的特征圖拼接在一起,稱為坐標(biāo)注意力生成。通過信息嵌入中的變換后,將等式(1)和等式(2)串聯(lián)。然后將它們發(fā)送到共享的1×1的卷積變換函數(shù)F1,將其維度降低為原來的C/r,將經(jīng)過批量歸一化處理的特征圖F1送入Sigmoid激活函數(shù)得到1×(W+H)×C/r的特征圖f。具體可以表示為

        f=δ(F1([zh,zw]))(3)

        特征圖f按照原來的高度和寬度進(jìn)行1×1的卷積將分別得到通道數(shù)與原來一樣的特征圖Fh和Fw,經(jīng)過Sigmoid激活函數(shù)后分別得到特征圖在高度和寬度上的注意力權(quán)重gh和在寬度方向的注意力權(quán)重gw。具體可以表示為

        gh=σ[Fh(fh)](4)

        gw=σ[Fw(fw)](5)

        最后將輸出的gh和gw分別作為注意力權(quán)重。輸出可以寫為

        yC(i,j)=xC(i,j)×ghC(i)×gwC(j)(6)

        2.4 改進(jìn)PANet特征提取層

        針對(duì)油茶果數(shù)據(jù)集改進(jìn)YOLOv5中PANet多尺度融合方式,原始YOLOv5的PANet結(jié)構(gòu)由FPN+PAN組成,F(xiàn)PN通過多次上采樣對(duì)特征圖進(jìn)行融合,而PAN結(jié)構(gòu)通過多次下采樣對(duì)特征圖進(jìn)行融合,但是在實(shí)際油茶園中油茶果所處位置環(huán)境復(fù)雜且目標(biāo)尺寸較小,而且YOLOv5檢測(cè)網(wǎng)絡(luò)中存在一部分池化層,池化層每池化一次都會(huì)導(dǎo)致特征信息減少,這些池化層的存在使得小目標(biāo)的特征在深層特征中無法準(zhǔn)確表達(dá),檢測(cè)效果不如人意。因此,本文在PANet結(jié)構(gòu)中添加一個(gè)小目標(biāo)檢測(cè)層,將原來3尺度的預(yù)測(cè)特征圖增加為4尺度,形成4個(gè)特征預(yù)測(cè),改進(jìn)后如圖7所示。

        3 試驗(yàn)結(jié)果及分析

        3.1 試驗(yàn)環(huán)境

        本試驗(yàn)在計(jì)算機(jī)上進(jìn)行,處理器為Intel(R) Xeon(R) Gold 5218R,內(nèi)存為32GB,顯卡采用NVIDIA GeForce RTX3090,顯存24G。Python的版本采用3.8,深度學(xué)習(xí)框架選擇Pytorch。同時(shí)為了提高訓(xùn)練速度,采用GPU加速方法,cuda版本為11.1,cudnn版本為8.2.0。

        采用遷移學(xué)習(xí),網(wǎng)絡(luò)模型訓(xùn)練階段,迭代批量大小設(shè)置為16,總迭代次數(shù)設(shè)置100次。學(xué)習(xí)率設(shè)置為0.001,每階段訓(xùn)練完成后采用余弦退火算法對(duì)學(xué)習(xí)率進(jìn)行更新。

        3.2 評(píng)價(jià)指標(biāo)

        試驗(yàn)采用準(zhǔn)確率P、召回率R、F1分?jǐn)?shù)和平均精度mAP來評(píng)價(jià)模型的各項(xiàng)性能。P和R的表達(dá)式如式(8)、式(9)所示。

        式中:

        TP——分類正確的正樣本;

        FP——分類錯(cuò)誤的負(fù)樣本;

        FN——分類錯(cuò)誤的正樣本。

        AP是平均準(zhǔn)確率,是P指標(biāo)對(duì)R指標(biāo)的積分,即P-R曲線下面積;mAP是各類別的平均準(zhǔn)確率,意思是每個(gè)類別的AP值相加,然后除以所有類別,即平均值。

        式中:

        QR——類別數(shù),本文中QR=1為油茶果。

        3.3 消融試驗(yàn)

        采用消融試驗(yàn)通過比較YOLOv5s、YOLOv5s+cutout、YOLOv5s+cutout+CA和YOLOv5s+cutout+CA+PANet的各項(xiàng)性能,驗(yàn)證YOLOv5-CP模型各模塊的有效性,試驗(yàn)結(jié)果見表1。

        從表1可以看出,本文提出的改進(jìn)方法相比原始YOLOv5模型,檢測(cè)精度都有不同程度的提升,相比最終YOLOv5-CP模型,消除任何本文提出的改進(jìn)方法都會(huì)降低模型的檢測(cè)精度,其中消除改進(jìn)PANet特征提取層對(duì)最終模型的檢測(cè)性能影響最大,檢測(cè)精度降低了2.2%。

        3.4 YOLOv5-CP與其他方法對(duì)比試驗(yàn)

        為驗(yàn)證YOLOv5-CP模型在油茶果數(shù)據(jù)集上的檢測(cè)性能,與常用的目標(biāo)檢測(cè)算法SSD[24]、YOLOv4[25]以及YOLOX[26]在自制數(shù)據(jù)集上進(jìn)行對(duì)比試驗(yàn),驗(yàn)證各項(xiàng)指標(biāo),試驗(yàn)結(jié)果見表2。

        由表2可知,針對(duì)油茶果數(shù)據(jù)集所提出的YOLOv5-CP算法與其他算法相比,YOLOv5-CP能夠相對(duì)準(zhǔn)確地識(shí)別出圖像中的油茶果,YOLOv5-CP算法的識(shí)別率與召回率分別達(dá)到了98%以及94.3%。相比較于其他算法均有不同程度的提高。除了評(píng)估算法模型的精度外,其模型大小也是影響模型部署于移動(dòng)端設(shè)備的重要指標(biāo)。YOLOv5-CP算法模型大小最小,僅為16.9 MB,更方便部署于移動(dòng)端設(shè)備。

        3.5 不同環(huán)境下模型性能對(duì)比試驗(yàn)

        由于在實(shí)際油茶園中油茶果的特征信息往往不同,相應(yīng)地算法性能會(huì)受到不同程度地影響,如在油茶果稀疏完整的圖像中,油茶果實(shí)完整清晰,特征明顯;而在果實(shí)重疊遮擋圖像中,有可能存在油茶果實(shí)相互遮擋或被枝葉遮擋等情況,造成特征不易識(shí)別。為客觀的體現(xiàn)YOLOv5-CP識(shí)別算法的性能,進(jìn)行復(fù)雜環(huán)境下油茶果檢測(cè)的對(duì)比試驗(yàn),分別列舉了重疊、遮擋環(huán)境下的識(shí)別油茶果圖像的召回率、準(zhǔn)確率以及平均精度,結(jié)果見表3。

        由表3可知,模型在遮擋和重疊的環(huán)境下的準(zhǔn)確率均有所提高,在油茶果正常、遮擋和重疊的環(huán)境中,其中準(zhǔn)確率分別提升5.2%、11.3%和10.8%,平均精度指標(biāo)也有明顯提升。表明YOLOv5-CP針對(duì)復(fù)雜環(huán)境下油茶果檢測(cè)性能顯著提升。具體識(shí)別對(duì)比圖如圖8所示。

        YOLOv5識(shí)別圖中黃色圓圈標(biāo)識(shí)表示模型的錯(cuò)檢或漏檢,其中A組為果實(shí)重疊環(huán)境下,YOLOv5模型在果實(shí)重疊之下容易造成樹葉誤檢測(cè),而YOLOv5-CP能準(zhǔn)確地判斷重疊環(huán)境下的果實(shí)與樹葉的差異。B組為遮擋環(huán)境下,YOLOv5由于特征提取不廣泛,對(duì)于遮擋的油茶果檢測(cè)性能不佳,而YOLOv5-CP模型泛化性能優(yōu)于原YOLOv5,能準(zhǔn)確檢測(cè)樹葉遮擋的油茶果。C組為背景后小果實(shí)檢測(cè)對(duì)比,C組小目標(biāo)遮擋重疊環(huán)境對(duì)模型泛化能力、魯棒性均為較大考驗(yàn),YOLOv5-CP能較好地檢測(cè)果實(shí)。從識(shí)別效果圖可以看出YOLOv5-CP模型顯著提高背景小目標(biāo)以及遮擋嚴(yán)重果實(shí)的識(shí)別能力,提升了模型的魯棒性。

        4 結(jié)論

        本文針對(duì)復(fù)雜環(huán)境下油茶果檢測(cè)提出YOLOv5-CP模型,能充分提取圖像特征。具體為在數(shù)據(jù)處理階段利用Cutout數(shù)據(jù)增強(qiáng)提升模型泛化能力,增強(qiáng)模型魯棒性。

        1) 在模型提取特征過程中引入注意力機(jī)制,增強(qiáng)模型對(duì)于油茶果的檢測(cè)專注度。最后改進(jìn)PANet特征提取層,避免了模型由于多層池化而丟失小目標(biāo)信息。

        2) 試驗(yàn)表明YOLOv5-CP模型有效提升了油茶果檢測(cè)過程中遮擋、重疊等復(fù)雜環(huán)境下果實(shí)的檢測(cè)準(zhǔn)確率,在滿足檢測(cè)速度的情況下模型大小僅為16.9MB,參數(shù)量為7.86 × 106,為后續(xù)開發(fā)油茶采摘機(jī)器人提供理論基礎(chǔ)。

        參 考 文 獻(xiàn)

        [1] 賴庭林. 發(fā)展油茶產(chǎn)業(yè)促進(jìn)鄉(xiāng)村振興[J]. 農(nóng)村實(shí)用技術(shù), 2021(10): 31-32.

        [2] 馮青春, 王秀, 李軍輝, 等. 基于高動(dòng)態(tài)范圍成像的溫室番茄植株圖像色彩矯正方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020, 51(11): 235-242.

        Feng Qingchun, Wang Xiu, Li Junhui, et al. Image color correction method for greenhouse tomato plant based on HDR imaging [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(11): 235-242.

        [3] Feng Q, Wang X, Chen J. Method of visually tracking plant main-stem for tomatos robotic management [M]. Advances in Guidance, Navigation and Control. Springer, Singapore, 2022: 2467-2476.

        [4] 馮青春, 陳建, 成偉, 等. 面向番茄植株相近色目標(biāo)識(shí)別的多波段圖像融合方法[J]. 智慧農(nóng)業(yè)(中英文), 2020, 2(2): 126-134.

        Feng Qingchun, Chen Jian, Cheng Wei, et al. Multi-band image fusion method for visually identifying tomato plants organs with similar color [J]. Smart Agriculture, 2020, 2(2): 126-134.

        [5] Zhao J, Tow J, Katupitiya J. On-tree fruit recognition using texture properties and color data [C]. 2005 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2005: 263-268.

        [6] 賈偉寬, 李倩雯, 張中華, 等. 復(fù)雜環(huán)境下柿子和蘋果綠色果實(shí)的優(yōu)化SOLO分割算法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(18): 121-127.

        Jia Weikuan, Li Qianwen, Zhang Zhonghua, et al. Optimized SOLO segmentation algorithm for the green fruits of persimmons and apples in complex environments [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(18): 121-127.

        [7] Jahanbakhshi A, Momeny M, Mahmoudi M, et al. Classification of sour lemons based on apparent defects using stochastic pooling mechanism in deep convolutional neural networks [J]. Scientia Horticulturae, 2020, 263: 109133.

        [8] 石良德. 成熟油茶果識(shí)別與定位系統(tǒng)[D]. 長(zhǎng)沙: 湖南大學(xué), 2012.

        Shi Liangde. Mature oil camellia fruits identification and location system [D]. Changsha: Hunan University, 2012.

        [9] 李立君, 李昕, 高自成, 等. 基于偏好免疫網(wǎng)絡(luò)的油茶果采摘機(jī)器人圖像識(shí)別算法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2012, 43(11): 209-213

        Li Lijun, Li Xin, Gao Zicheng, et al. Fruit image recognition based on preference artificial immune net [J]. Transactions of the Chinese Society for Agricultural Machinery, 2012, 43(11): 209-213.

        [10] 李昕, 李立君, 高自成, 等. 基于偏好人工免疫網(wǎng)絡(luò)多特征融合的油茶果圖像識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2012, 28(14): 133-137.

        Li Xin, Li Lijun, Gao Zicheng, et al. Image recognition of camellia fruit based on preference for aiNET multi-features integration [J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(14): 133-137.

        [11] 李立君, 陽涵疆. 基于改進(jìn)凸殼理論的遮擋油茶果定位檢測(cè)算法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2016, 47(12): 285-292.

        Li Lijun, Yang Hanjiang. Revised detection and localization algorithm for camellia oleifera fruits based on convex hull theory [J]. Journal of Agricultural Machinery, 2016, 47 (12): 285-292.

        [12] 汪洋, 李立君, 高自成,等. 基于亮度均勻化的成熟油茶果圖像分割研究[J]. 計(jì)算機(jī)仿真, 2018, 35(9): 369-372, 430.

        Wang Yang, Li Lijun, Gao Zicheng, et al. The ripe camellia fruitsimage segmentation based on luminance uniformity. [J] Computer Simulation, 2018, 35(9): 369-372, 430.

        [13] 張習(xí)之, 李立君. 基于改進(jìn)卷積自編碼機(jī)的油茶果圖像識(shí)別研究[J]

        18禁国产美女白浆在线| 少妇无码吹潮| 99精品视频在线观看| 国产成人香蕉久久久久| 深夜日韩在线观看视频| 国产成a人亚洲精品无码樱花| 国产97在线 | 免费| 免费高清日本中文| 高潮av一区二区三区| 久久精品国产免费观看三人同眠| 国产精品无码专区av在线播放| 在线免费观看韩国a视频| 日本高清长片一区二区| 亚洲av日韩一区二区| 国产女厕偷窥系列在线视频| 国产91精选在线观看麻豆| 成年人男女啪啪网站视频| 日本二一三区免费在线| 人妻少妇精品无码专区二区 | 欧美成人三级一区二区在线观看| 日本第一区二区三区视频| 亚洲天堂一区二区偷拍| 一进一出一爽又粗又大| 99热精品成人免费观看| 99久久免费精品色老| 日本高清一级二级三级| 久久精品免视看国产成人| 亚洲成a∨人片在线观看无码| 国产精品日本一区二区三区在线| 无码乱肉视频免费大全合集| 毛茸茸的中国女bbw| 日韩中文字幕网站| 国产av一区二区毛片| 影音先锋女人aa鲁色资源| 国产真人无遮挡免费视频| 中文字幕一区二区三区亚洲 | 久久成人永久婷婷99精品| 久久狠狠色噜噜狠狠狠狠97| 最新69国产成人精品视频免费| 一区二区三区在线观看日本视频 | 日本加勒比一区二区在线观看|