亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        農(nóng)業(yè)機(jī)械目標(biāo)定位及檢測技術(shù)

        2023-02-17 09:33:18
        農(nóng)機(jī)使用與維修 2023年2期
        關(guān)鍵詞:特征提取農(nóng)業(yè)機(jī)械田間

        田 華

        (長春市九臺(tái)區(qū)莽卡滿族鄉(xiāng)綜合服務(wù)中心 農(nóng)業(yè)農(nóng)機(jī)技術(shù)服務(wù)科,長春 130500)

        0 引言

        隨著農(nóng)業(yè)生產(chǎn)要求不斷提升和農(nóng)業(yè)勞動(dòng)力轉(zhuǎn)移,對(duì)農(nóng)業(yè)機(jī)械提出了更高要求,農(nóng)業(yè)機(jī)械化正向智能化方向發(fā)展,對(duì)于提高農(nóng)業(yè)生產(chǎn)效率、降低農(nóng)業(yè)勞動(dòng)強(qiáng)度具有重要意義。

        農(nóng)業(yè)機(jī)械目標(biāo)定位及檢測技術(shù)是農(nóng)業(yè)機(jī)械智能化發(fā)展的重要方向,是實(shí)現(xiàn)農(nóng)業(yè)機(jī)械無人化發(fā)展的支撐技術(shù)之一,主要是基于視覺識(shí)別技術(shù)、計(jì)算機(jī)技術(shù)、圖像處理技術(shù)、人工智能技術(shù)等為一體,利用計(jì)算機(jī)模擬人類的視覺功能,通過圖像采集與處理技術(shù),將圖像信息轉(zhuǎn)化為數(shù)字信號(hào),進(jìn)而獲取目標(biāo)圖像并實(shí)現(xiàn)田間定位與檢測。目前,目標(biāo)定位及檢測技術(shù)已經(jīng)廣泛應(yīng)用于航空航天、醫(yī)學(xué)成像、交通物流和工業(yè)生產(chǎn)等領(lǐng)域,在農(nóng)業(yè)采摘、食品加工、機(jī)械生產(chǎn)和包裝分類等方面替代人工實(shí)現(xiàn)高效生產(chǎn)。

        目前,視覺識(shí)別及定位檢測技術(shù)主要是基于ORB特征點(diǎn)匹配和SIFT特征提取技術(shù),但是由于農(nóng)業(yè)生產(chǎn)環(huán)境較為復(fù)雜,現(xiàn)有技術(shù)無法實(shí)現(xiàn)對(duì)田間作業(yè)目標(biāo)的精準(zhǔn)定位與檢測,農(nóng)業(yè)機(jī)械視覺識(shí)別系統(tǒng)存在目標(biāo)識(shí)別模糊、分類效率差和響應(yīng)速度慢等問題,影響農(nóng)業(yè)機(jī)械田間工作質(zhì)量與工作效率。隨著深度學(xué)習(xí)及人工智能技術(shù)的逐漸發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)及YOLO,算法逐漸應(yīng)用于目標(biāo)定位與檢測技術(shù)中,響應(yīng)速度塊,定位精準(zhǔn)度較高。

        1 神經(jīng)網(wǎng)絡(luò)模型構(gòu)建

        本研究基于YOLOX算法進(jìn)行圖像識(shí)別與樣本庫構(gòu)建,用于視覺識(shí)別系統(tǒng)的目標(biāo)特征向量提取、定位和檢測技術(shù),總體工作流程圖如圖1所示。

        圖1 YOLOX算法工作流程圖

        為了增加訓(xùn)練數(shù)據(jù)集,提高目標(biāo)識(shí)別能力,本研究采用離線重采樣,在目標(biāo)采集圖像中增強(qiáng)目標(biāo)樣本后,使用兩倍的重采樣率來處理圖像集,由于圖像在輸入到網(wǎng)絡(luò)之前需要進(jìn)行預(yù)處理,預(yù)處理后的數(shù)據(jù)不完全相同,因此訓(xùn)練集不會(huì)過度擬合。本研究采集的圖像集為高分辨率,如果將這些數(shù)據(jù)直接輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,在訓(xùn)練過程中會(huì)因壓縮而失去很多有用的語義信息,減少目標(biāo)特征提取效率,因此,使用多尺度訓(xùn)練來提高模型的性能,并隨機(jī)選擇每個(gè)量表在每個(gè)時(shí)期進(jìn)行訓(xùn)練,增加訓(xùn)練樣本的多樣性。在輸入端加入Focus結(jié)構(gòu)用于增加圖像通道數(shù)量,優(yōu)化后的YOLOX-x算法工作流程圖如圖2所示。

        圖2 YOLOX-x算法工作流程圖

        2 特征提取

        傳統(tǒng)的視覺識(shí)別系統(tǒng)采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,檢測目標(biāo)的形狀和顏色等關(guān)鍵特征信息,高分辨率特征信息。針對(duì)傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)排模型在目標(biāo)檢測與特征提取中存在的問題,采用HRNet高資源作為特征提取網(wǎng)絡(luò),減少特征信息損失。將CBAM注意機(jī)制添加到HRNet的第一級(jí)特征提取和第二、三、四級(jí)特征融合中,在第一階段加入CBAM融合模塊,使網(wǎng)絡(luò)能夠鎖定在特征提取初始階段的目標(biāo)特征,在第二階段加入CBAM融合模塊,在第二階段、第三階段和第四階段能充分提取到重要的目標(biāo)特征信息。

        3 結(jié)果與分析

        3.1 試驗(yàn)材料與設(shè)備

        操作平臺(tái)為臺(tái)式計(jì)算機(jī),運(yùn)行環(huán)境為Ubuntu 18.04,主頻4.10 GHz,16 G運(yùn)行內(nèi)存,1 TB機(jī)械硬盤,使用GPU加速計(jì)算,在Python編程語言下,運(yùn)用PyCharm書寫調(diào)試大量代碼,對(duì)提出的YOLOX-x算法與傳統(tǒng)的YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN進(jìn)行田間對(duì)比驗(yàn)證。模型設(shè)置中,學(xué)習(xí)效率為0.005,迭代次數(shù)為10×103次,權(quán)值衰減設(shè)置為0.005。

        3.2 模型對(duì)比試驗(yàn)結(jié)果

        3.2.1 目標(biāo)檢測精度

        選擇平均精度(AP)作為評(píng)估指標(biāo),對(duì)田間目標(biāo)正常位姿、物體重疊進(jìn)行檢測與分析,試驗(yàn)結(jié)果如表1所示。研究結(jié)果表明,在正常位姿檢測中,YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN準(zhǔn)確率提升7.76%,9.12%,1.51%和0.15%;在物體重疊情況下,YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN準(zhǔn)確率分別提升19.97%,18.69%,2.73%和1.61%;在目標(biāo)檢測精度中,YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN分別提升10.65%,9.05%,1.99%和0.87%;YOLOX-x響應(yīng)速度較YOLOX、YOLOXv3、YOLOXv4和Faster-RCNN分別提升63.51%,34.51%,27.45%和67.96%,因此,YOLOX-x算法在田間目標(biāo)定位與檢測中存在較高的精度。

        表1 不同算法下農(nóng)業(yè)機(jī)械目標(biāo)檢測精度結(jié)果分析

        3.2.2 農(nóng)業(yè)機(jī)械定位

        在對(duì)田間目標(biāo)檢測結(jié)束后,農(nóng)業(yè)機(jī)械需要進(jìn)行定位試驗(yàn),通過對(duì)比農(nóng)業(yè)機(jī)械實(shí)際運(yùn)行坐標(biāo)點(diǎn)與算法模擬坐標(biāo)點(diǎn)進(jìn)行差異性分析,重復(fù)實(shí)驗(yàn)誤差計(jì)算公式如式(1)所示,不同算法下試驗(yàn)結(jié)果如表2所示,YOLOX-x定位誤差較YOLOX、YOLOXv3、YOLOXv4和Faster-RCNN分別提升28.94%,25.28%,24.60%和16.08%。

        表2 農(nóng)業(yè)機(jī)械定位誤差分析 單位:%

        (1)

        式中,(xend,yend)為基于各項(xiàng)算法下的農(nóng)業(yè)機(jī)械田間坐標(biāo),(xobject,yobject)為農(nóng)業(yè)機(jī)械田間實(shí)際定位坐標(biāo)。

        4 結(jié)論

        為了解決農(nóng)業(yè)機(jī)械視覺識(shí)別系統(tǒng)存在目標(biāo)識(shí)別模糊、分類效率差和響應(yīng)速度慢等問題,提出一種YOLOX優(yōu)化算法——YOLOX-x,并通過田間試驗(yàn)進(jìn)行驗(yàn)證,主要得出以下結(jié)論:

        1)為了增加訓(xùn)練數(shù)據(jù)集,提高目標(biāo)識(shí)別能力,采用離線重采樣,在目標(biāo)采集圖像中增強(qiáng)目標(biāo)樣本后,使用兩倍的重采樣率處理圖像集,并隨機(jī)選擇每個(gè)量表在每個(gè)時(shí)期進(jìn)行訓(xùn)練,增加訓(xùn)練樣本的多樣性。在輸入端加入Focus結(jié)構(gòu)用于增加圖像通道數(shù)量。

        2)本研究采用HRNet高資源作為特征提取網(wǎng)絡(luò),減少特征信息損失。將CBAM注意機(jī)制添加到HRNet的第一級(jí)特征提取和第二、三、四級(jí)特征融合中,能夠充分提取到重要的目標(biāo)特征信息。

        3)本研究提出的YOLOX-x算法較YOLOX、YOLOXv3、YOLOXv4和卷積神經(jīng)網(wǎng)絡(luò)Faster-RCNN在田間目標(biāo)檢測準(zhǔn)確率和響應(yīng)速度都得到較大提升,在正常位姿和物體重疊的情況下定位識(shí)別中精度達(dá)到94.03%和91.56%,研究結(jié)果對(duì)于農(nóng)業(yè)機(jī)械田間定位檢測技術(shù)提供技術(shù)參考與理論借鑒。

        (05)

        猜你喜歡
        特征提取農(nóng)業(yè)機(jī)械田間
        春日田間
        田間地頭“惠”果農(nóng)
        “碼”上辦理“田間一件事”
        田間地頭有了“新綠”
        金橋(2020年9期)2020-10-27 01:59:34
        宜賓市農(nóng)業(yè)機(jī)械研究所
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        農(nóng)業(yè)機(jī)械自動(dòng)化在現(xiàn)代農(nóng)業(yè)中的應(yīng)用與發(fā)展趨勢
        電子信息技術(shù)在農(nóng)業(yè)機(jī)械中的應(yīng)用
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        日本久久视频在线观看| 亚洲中字幕日产av片在线| 欧美变态另类刺激| 国产色在线 | 亚洲| 看全色黄大色大片免费久久| 老司机在线精品视频网站| 中文字幕亚洲无线码| 久久精品无码专区东京热| 国产九九在线观看播放| 色老汉亚洲av影院天天精品 | 日本亚洲国产精品久久| 久久伊人精品一区二区三区| 无码人妻av免费一区二区三区| 台湾佬综合网| 色老头久久综合网老妇女| 欧美日韩国产高清| 99久久久69精品一区二区三区| 日本伊人精品一区二区三区| 内射无码专区久久亚洲 | 日韩在线不卡一区在线观看| 国产在线一区二区三区不卡| 美女扒开屁股让男人桶| 丰满爆乳在线播放| 国产精品综合日韩精品第一页| 天堂a版一区二区av| 99青青草视频在线观看| 97精品人妻一区二区三区蜜桃| 少妇无码吹潮| 亚洲精品国产国语| 亚洲精品国产精品系列| 久久这里都是精品99| 亚洲av永久无码精品网站在线观看| 丰满爆乳一区二区三区| аⅴ天堂国产最新版在线中文| 久久老熟女乱色一区二区| 内射中出日韩无国产剧情| 97人人超碰国产精品最新| 亚洲AV毛片无码成人区httP| 五月激情在线观看视频| 日本在线精品一区二区三区| 国产女人的高潮国语对白|