亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的雜草快速識(shí)別研究

        2019-08-27 04:31:47張有春
        安徽農(nóng)業(yè)科學(xué) 2019年14期
        關(guān)鍵詞:快速卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別

        摘要 圖像識(shí)別是除草機(jī)器人的一項(xiàng)基礎(chǔ)關(guān)鍵研究。為了能提高農(nóng)作物和雜草的識(shí)別率以及便于識(shí)別物特征的提取,提出了基于卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別方法。以農(nóng)田中的雜草和農(nóng)作物為試驗(yàn)對(duì)象設(shè)計(jì)了網(wǎng)絡(luò)結(jié)構(gòu)。該網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)較少,準(zhǔn)確率達(dá)到了92.08%,且處理每張圖片的時(shí)間僅為0.82 ms。

        關(guān)鍵詞 除草;卷積神經(jīng)網(wǎng)絡(luò);快速;圖像識(shí)別

        中圖分類(lèi)號(hào) S126文獻(xiàn)標(biāo)識(shí)碼 A

        文章編號(hào) 0517-6611(2019)14-0242-03

        doi:10.3969/j.issn.0517-6611.2019.14.071

        開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

        Abstract Image recognition is the basic and key research of weeding robot.In order to improve the recognition rate of crops and weeds and facilitate the extraction of recognition features,we proposed a recognition method based on convolutional neural network.The network structure was designed with weeds and crops as experimental objects.The network structure had fewer parameters with its accuracy reaching 92.08%,and the processing time of each picture was only 0.82 ms.

        Key words Weeding;Convolutional neural network;Fast;Image identification

        作者簡(jiǎn)介 張有春(1997—),男,云南大理人,從事計(jì)算機(jī)圖像識(shí)別研究。

        收稿日期 2018-12-25;修回日期 2019-02-18

        除草是培養(yǎng)栽培植物必不可少的過(guò)程,目前除草工作已經(jīng)摒棄了傳統(tǒng)人工除草的方式,較為廣泛使用的是化學(xué)除草。該方法可節(jié)省勞動(dòng)力,降低除草成本,提高勞動(dòng)生產(chǎn)力;但其弊端也是顯而易見(jiàn)的,有時(shí)候會(huì)引起藥害,甚至污染環(huán)境,破壞生態(tài)平衡。智能除草有利于生態(tài)環(huán)境保護(hù)且先進(jìn)高效[1],這也是被廣泛研究的原因,如何快速有效地識(shí)別作物與雜草是除草機(jī)器人研究的關(guān)鍵技術(shù)。

        如今,隨著機(jī)器學(xué)習(xí)領(lǐng)域中深度學(xué)習(xí)的崛起,基于人工神經(jīng)網(wǎng)絡(luò)的各種識(shí)別方法被廣泛用于各個(gè)領(lǐng)域[2],深度學(xué)習(xí)模擬人腦進(jìn)行分析,通過(guò)組合低層次特征形成更加抽象的高層次特征[3]。它通過(guò)提取農(nóng)作物與雜草特征,以數(shù)據(jù)形式在預(yù)先設(shè)計(jì)好的模型中進(jìn)行訓(xùn)練得到新的模型,從而實(shí)現(xiàn)農(nóng)作物與雜草的識(shí)別。該方法準(zhǔn)確率較高,且由于模型的特殊性包含參數(shù)較多,對(duì)于識(shí)別有很好的通用性。鑒于此,基于卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別方法,筆者進(jìn)一步研究了雜草圖像快速識(shí)別。

        1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)是一種有別于一般神經(jīng)網(wǎng)絡(luò)的新型網(wǎng)絡(luò),涉及圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,其研究趨勢(shì)和發(fā)展前景較好。卷積神經(jīng)網(wǎng)絡(luò)由輸入層、卷積層、池化層、激活函數(shù)、全連接層、輸出層組成[4]。卷積層用于提取輸入數(shù)據(jù)的特征,由許多卷積核組成,卷積核像一個(gè)篩子篩選有用的信息,而篩選的過(guò)程即為卷積運(yùn)算過(guò)程;池化層在不破壞數(shù)據(jù)主要特征的情況下,減少訓(xùn)練數(shù)據(jù)中一些無(wú)關(guān)緊要的參數(shù),在一定程度上能防止過(guò)擬合,更方便優(yōu)化;激活函數(shù)是為了增加網(wǎng)絡(luò)的表達(dá)能力,即非線(xiàn)性因素;全連接層則是把之前的局部特征全部組合在一起,從而實(shí)現(xiàn)對(duì)識(shí)別物的分類(lèi)。

        以經(jīng)典模型LeNet-5為例,以野外采集的雜草圖像為輸入數(shù)據(jù),計(jì)算機(jī)理解為若干向量矩陣(圖1)。C1為卷積層,C1卷積之后通過(guò)激活函數(shù)得到S2,S2為池化層通過(guò)池化操作得到C3,C3也是卷積層,C3和S4通過(guò)和C1、S2相同操作后得到C5,進(jìn)一步得到F6全連接層,F(xiàn)6中每個(gè)神經(jīng)元與C5進(jìn)行全連接。

        2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)

        使用卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識(shí)別研究的關(guān)鍵在于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的合理性,好的網(wǎng)絡(luò)結(jié)構(gòu)往往是集性能和計(jì)算效率于一身。網(wǎng)絡(luò)結(jié)構(gòu)的結(jié)果好壞和學(xué)習(xí)效率與參數(shù)有密切關(guān)系,而卷積核大小直接影響參數(shù)的多少,設(shè)計(jì)時(shí)避免出現(xiàn)AlexNet[5]中11×11大小的卷積核,用較小尺寸的卷積核代替。斬獲2014 ILSVRC挑戰(zhàn)賽冠軍的網(wǎng)絡(luò)結(jié)構(gòu)GoogLeNet[6],一共有22層使用的卷積核大小,最大為5×5,不同尺寸卷積核搭配使用,達(dá)到減少參數(shù)的效果,從而提高了計(jì)算效率。參數(shù)的數(shù)量減少到AlexNet的1/12,但是其性能卻優(yōu)于AlexNet很多。受GoogLeNet啟發(fā),減少卷積核大小的同時(shí)適當(dāng)增加網(wǎng)絡(luò)的深度。

        該研究以L(fǎng)eNet-5網(wǎng)絡(luò)模型為基礎(chǔ)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(圖2),該網(wǎng)絡(luò)的核心在于3個(gè)卷積層和3個(gè)池化層交替使用不同尺寸的卷積核,這有利于特征的提取,同時(shí)可減少處理時(shí)間。其中,C1使用5×5大小的卷積核,C2和C3都使用3×3大小的卷積核,由于圖片信息量過(guò)大的因素,該研究選定池化操作為最大池化方法,池化層均采用2×2尺寸規(guī)格。每個(gè)卷積操作之后加入ReLu激活函數(shù),引入非線(xiàn)性因素。圖片的輸入尺寸為56×56,網(wǎng)絡(luò)結(jié)構(gòu)可大致標(biāo)記C52×52—P26×26—C24×24—P12×12—C10×10—P5×5,C表示卷積層,P表示池化層,字母后的數(shù)字表示特征圖的大小。經(jīng)過(guò)3次卷積操作和3次池化操作,進(jìn)入全連接層F1,F(xiàn)1有84個(gè)節(jié)點(diǎn),在進(jìn)入F2全連接層之前再次使用ReLu函數(shù)激活,F(xiàn)2有10個(gè)節(jié)點(diǎn),最后一層為輸出層,輸出樣本的分類(lèi)結(jié)果。

        3 樣本采集與試驗(yàn)處理

        為了研究基于卷積神經(jīng)網(wǎng)絡(luò)的雜草識(shí)別方法,試驗(yàn)選取大白菜(圖3a)及其伴生雜草作為實(shí)驗(yàn)對(duì)象,雜草樣本主要是三葉草(圖3b)和鼠曲(圖3c)2種。使用手機(jī)在農(nóng)作物田中采集圖片最大分辨率為3 120×4 160,考慮到農(nóng)作物和雜草的全局性采用垂直拍攝作為圖片采集方式。為了適應(yīng)不同環(huán)境下的雜草識(shí)別,分別從強(qiáng)光、一般、弱光3種不同光線(xiàn)強(qiáng)度進(jìn)行圖片采集,每個(gè)類(lèi)別采集60張圖片。

        理論上可以直接把處理很少或未經(jīng)處理的圖片直接輸入卷積神經(jīng)網(wǎng)絡(luò)中,但實(shí)際上為了避免計(jì)算量大、學(xué)習(xí)效率低下等問(wèn)題的出現(xiàn)以及提高神經(jīng)網(wǎng)絡(luò)的魯棒性和識(shí)別率,往往都會(huì)對(duì)采集到的圖片進(jìn)行預(yù)處理。因此,該研究對(duì)采集得到的圖片進(jìn)行預(yù)處理,預(yù)處理過(guò)程一般包括壓縮圖片、降低分辨率、灰度化、二值化和濾波等操作[7]。由于在采集樣本時(shí)拍攝高度和范圍不一致,為了符合實(shí)驗(yàn)需求將圖片按1∶1比例裁剪后,統(tǒng)一分辨率為56×56;圖像灰度化使用加權(quán)平均法,灰度化后的圖片會(huì)存在一些噪聲,從而會(huì)影響圖像的識(shí)別,使用中值濾波法去除噪聲后進(jìn)行二值化處理,整個(gè)過(guò)程均借助MATLAB編程實(shí)現(xiàn),處理結(jié)果如圖4所示。為了減少過(guò)擬合,得到較穩(wěn)定的網(wǎng)絡(luò)結(jié)構(gòu),卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的數(shù)據(jù),但是由于采集圖片數(shù)量不是很多,所以對(duì)每張圖片預(yù)處理之后進(jìn)行各方位90°翻轉(zhuǎn),以此來(lái)增加樣本數(shù)量。最后把經(jīng)過(guò)預(yù)處理的圖片做成樣本集,一共有720張圖片,其中每一類(lèi)數(shù)量為240張。

        4 樣本采集與試驗(yàn)結(jié)果

        神經(jīng)網(wǎng)絡(luò)的框架搭建和訓(xùn)練在Python的工具包-PyTorch環(huán)境下進(jìn)行,整個(gè)試驗(yàn)過(guò)程使用的設(shè)備是msi游戲筆記本,其參數(shù)為:Intel(R) Core(TM)i7-7700HQ CPU@2.80GHZ,CUDA為8.0版本。在訓(xùn)練之前將樣本集分為6份,按5∶1比例分為訓(xùn)練集和測(cè)試集,訓(xùn)練集中大白菜、鼠曲、三葉草各有200張,各類(lèi)圖集余下的40張則為測(cè)試集。網(wǎng)絡(luò)迭代次數(shù)設(shè)定為60次,學(xué)習(xí)效率0.001,訓(xùn)練時(shí)隨機(jī)不重復(fù)地從訓(xùn)練集中抽取數(shù)據(jù),輸入到神經(jīng)網(wǎng)絡(luò)中后,得到其均方差曲線(xiàn)(圖5),曲線(xiàn)圖表明訓(xùn)練次數(shù)至30次后誤差速率下降比較平穩(wěn),繼續(xù)訓(xùn)練曲線(xiàn)平穩(wěn)過(guò)度趨于一條水平線(xiàn),訓(xùn)練次數(shù)達(dá)到42次時(shí)誤差最小,為0.280。

        為了實(shí)時(shí)得到網(wǎng)絡(luò)訓(xùn)練后的正確率和最佳迭代次數(shù),每訓(xùn)練1次網(wǎng)絡(luò)之后進(jìn)行網(wǎng)絡(luò)測(cè)試,得到其正確率曲線(xiàn)如圖6所示。圖6表明訓(xùn)練22次后,正確率高于80%,最高的識(shí)別率在迭代次數(shù)為45次時(shí),達(dá)到91.82%,之后正確率基本保持在90.00%左右。

        把該網(wǎng)絡(luò)與眾多學(xué)者研究使用的雜草識(shí)別方法進(jìn)行比較,結(jié)果如表1所示。從表1可以看出,網(wǎng)絡(luò)在識(shí)別率上并不弱于前2種方法,由于不需要人為提取特征,因此省去很多工作,此外每張圖片平均0.82 ms的處理時(shí)間也具有優(yōu)越性;基于立體視覺(jué)進(jìn)行識(shí)別的方法雖然識(shí)別率較高,但對(duì)技術(shù)、設(shè)備的要求相對(duì)也較高。該研究使用的網(wǎng)絡(luò)結(jié)構(gòu)在運(yùn)用于實(shí)際生產(chǎn)中時(shí),并不需要對(duì)所有雜草進(jìn)行識(shí)別,換種思路只需要識(shí)別出農(nóng)作物便可以除草,所以實(shí)際效果更好。

        5 結(jié)語(yǔ)

        針對(duì)農(nóng)作物中雜草的識(shí)別問(wèn)題,該研究在基于卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別方法的基礎(chǔ)上構(gòu)建了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)框架,該網(wǎng)絡(luò)識(shí)別雜草的正確率達(dá)92.08%,與其他方法相比,不僅在正確率上有所提高,每幅圖0.82 ms處理時(shí)間也優(yōu)于其他幾種方式。有別于傳統(tǒng)方法,該方法不需要人為提取特征,因此可以減少特征提取過(guò)程中的許多復(fù)雜運(yùn)算,此外還有良好的泛化性,是一種較理想的田間雜草識(shí)別方法。

        雖然使用卷積網(wǎng)絡(luò)神經(jīng)進(jìn)行雜草識(shí)別試驗(yàn)取得不錯(cuò)的效果,但是也存在一些不足之處:

        ①試驗(yàn)的數(shù)據(jù)量并不是很充足,數(shù)據(jù)量的多少對(duì)網(wǎng)絡(luò)結(jié)構(gòu)的穩(wěn)定性和準(zhǔn)確性起著關(guān)鍵作用,因此下一步打算采集更多的數(shù)據(jù)進(jìn)行試驗(yàn);②卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)結(jié)構(gòu)不同,相應(yīng)的效果也有所區(qū)別,因此下一步打算嘗試構(gòu)建更優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)。

        參考文獻(xiàn)

        [1] 邢占強(qiáng).智能化除草機(jī)器人技術(shù)發(fā)展現(xiàn)狀及趨勢(shì)展望[J].農(nóng)業(yè)科技與裝備,2015(5):37-38.

        [2] 郭麗麗,丁世飛.深度學(xué)習(xí)研究進(jìn)展[J].計(jì)算機(jī)科學(xué),2015,42(5):28-33.

        [3] 周月鵬,盧喜利.深度學(xué)習(xí)技術(shù)在智慧校園建設(shè)中的應(yīng)用研究[J].微型電腦應(yīng)用,2018,34(12):131-133,143.

        [4] 李宗辰.基于卷積神經(jīng)網(wǎng)絡(luò)的文獻(xiàn)分析[D].長(zhǎng)春:長(zhǎng)春工業(yè)大學(xué),2017:16-20.

        [5] 周曼,劉志勇,陳夢(mèng)遲,等.基于AlexNet的遷移學(xué)習(xí)在流程工業(yè)圖像識(shí)別中的應(yīng)用[J].工業(yè)控制計(jì)算機(jī),2018,31(11):80-82.

        [6] 王天興.基于GoogLeNet網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)算法研究[D].杭州:杭州電子科技大學(xué),2018:18-20.

        [7] 楊建姣.基于BP神經(jīng)網(wǎng)絡(luò)的田間雜草識(shí)別技術(shù)的研究[D].長(zhǎng)春:吉林農(nóng)業(yè)大學(xué),2017:7-18.

        [8] 喬永亮,何東健,趙川源,等.基于多光譜圖像和SVM的玉米田間雜草識(shí)別[J].農(nóng)機(jī)化研究,2013,35(8):30-34.

        [9] 吳蘭蘭,劉劍英,文友先,等.基于支持向量機(jī)的玉米田間雜草識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2009,40(1):162-166.

        [10] 王璨,李志偉.利用融合高度與單目圖像特征的支持向量機(jī)模型識(shí)別雜草[J].農(nóng)業(yè)工程學(xué)報(bào),2016,32(15):165-174.

        猜你喜歡
        快速卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別
        基于Resnet-50的貓狗圖像識(shí)別
        電子制作(2019年16期)2019-09-27 09:34:50
        高速公路圖像識(shí)別技術(shù)應(yīng)用探討
        圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        油井井口盤(pán)根更換器
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        屏蔽門(mén)系統(tǒng)安全回路故障智能診斷系統(tǒng)設(shè)計(jì)
        綜采設(shè)備反向倒裝工藝探討
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        少妇性l交大片7724com| 久久综合九色综合久久久| 少妇人妻偷人精品无码视频| 久久亚洲av成人无码国产| 精品国产a∨无码一区二区三区 | 69国产成人综合久久精| 99热高清亚洲无码| 亚洲成av在线免费不卡| 国产在线播放免费人成视频播放 | 国产午夜亚洲精品理论片不卡| 巨臀中文字幕一区二区| 久久精品国产亚洲AV香蕉吃奶 | 久久精品亚洲热综合一本色婷婷| 少妇人妻无奈的跪趴翘起| 亚洲一区二区三区2021| 草草影院发布页| 欧美综合天天夜夜久久| 久久精品国产亚洲av麻豆| 亚洲av无码日韩精品影片| 久久成人麻豆午夜电影| 白白青青视频在线免费观看| 中文字幕日韩一区二区不卡| 国产午夜精品视频观看| 亚洲日本精品国产一区二区三区| 性色av一二三天美传媒| 老师露出两个奶球让我吃奶头| 国产成人精品电影在线观看| 国产精品免费久久久久影院| 无码91 亚洲| 澳门精品一区二区三区| 中文字日产幕码三区国产| 国产三级a三级三级| 亚洲av片在线观看| 四川老熟女下面又黑又肥| 五十路熟妇亲子交尾| 插入中文字幕在线一区二区三区| 日本91一区二区不卡| 青青草手机在线免费观看视频| 午夜裸体性播放| 久久精品国产亚洲av大全| 日韩精品一区二区三区毛片|