亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLO v2的蓮蓬快速識別研究

        2018-10-20 05:52:16黃小杭梁智豪何子俊黃晨華李湘勤
        現(xiàn)代農(nóng)業(yè)科技 2018年13期
        關(guān)鍵詞:目標(biāo)檢測識別蓮蓬

        黃小杭 梁智豪 何子俊 黃晨華 李湘勤

        摘要 受蓮蓬形狀外觀和生長環(huán)境影響,傳統(tǒng)計(jì)算機(jī)視覺算法識別蓮蓬存在效率與精度不佳的問題。本文研究采用YOLO v2算法進(jìn)行蓮蓬識別的方式,通過擴(kuò)充蓮蓬檢測數(shù)據(jù)集、K-means維度聚類、深度可分離卷積網(wǎng)絡(luò)結(jié)構(gòu)和多分辨率圖像對模型微調(diào)等方法實(shí)現(xiàn)提高識別精度、魯棒性與識別速度。對比Darknet-19、Tiny Darknet與DS Tiny Darknet算法,結(jié)果表明,本文研究的識別方式可以達(dá)到102.1 fps的識別速率,可實(shí)現(xiàn)在復(fù)雜環(huán)境下對蓮蓬的快速識別,滿足蓮蓬采摘機(jī)器人在采摘過程中對實(shí)時(shí)視覺信息的需求。

        關(guān)鍵詞 蓮蓬;識別;YOLO v2;深度學(xué)習(xí);目標(biāo)檢測;模型加速

        中圖分類號 TP181 文獻(xiàn)標(biāo)識碼 A 文章編號 1007-5739(2018)13-0164-04

        Research on Lotus Quick Recognition Based on YOLO v2

        HUANG Xiao-hang LIANG Zhi-hao HE Zi-jun HUANG Chen-hua LI Xiang-qin *

        (School of Physics and Mechanical & Electrical Engineering,Shaoguan University,Shaoguan Guangdong 512005)

        Abstract Affected by the shape and growth environment of lotus,the traditional computer vision algorithm has the problems of poor efficiency and precision.In this paper,the scheme of using YOLO v2 algorithm to recognize the lotus was proposed.Through expanding lotus detection data set,K-means dimension clustering,depthwise separable convolution network,multi-scale classified network fine-tuning and other methods to improve the recognition accuracy,robustness and recognition speed.Contrasting the actual performance of Darknet-19,Tiny Darknet and DS Tiny Darknet with the YOLO v2 algorithm,the results showed that the scheme could achieve the recognition rate of 102.1 fps,realize the quick recognition of the lotus in a complex environment,so as to meet the realtime vision demand for picking robot in picking process.

        Key words lotus;recognition;YOLO v2;deep learning;object detection;model acceleration

        蓮蓬是一種特種水生經(jīng)濟(jì)作物,具有生產(chǎn)區(qū)域性強(qiáng)、種植面積廣、生命周期長、營養(yǎng)價(jià)值豐富、經(jīng)濟(jì)價(jià)值高的特點(diǎn)。經(jīng)過幾千年的不斷培育與發(fā)展,我國已成為蓮子、蓮藕生產(chǎn)和出口大國,其市場需求量大,前景廣闊,經(jīng)濟(jì)效益可觀[1-3]。

        蓮蓬的采摘期一般集中在6—10月,其中7—8月收采量最高,為了獲得高營養(yǎng)價(jià)值的蓮子,需要在蓮子生長最盛時(shí)期進(jìn)行采摘。目前,國內(nèi)蓮蓬的采摘依然依賴于人工,據(jù)調(diào)查人工收獲費(fèi)用占生產(chǎn)成本的50%~70%[4]。人工采摘效率低下,無法滿足市場對于蓮蓬時(shí)令性和新鮮度的要求。實(shí)現(xiàn)蓮蓬的采摘自動化,對于解決蓮蓬采摘作業(yè)中人工采摘工作強(qiáng)度大、采摘難度大和采摘效率低下等問題,以及降低人工成本、提高采摘品質(zhì)、增強(qiáng)蓮蓬的市場競爭力均具有十分重要的意義。

        蓮蓬的檢測、定位以及跟蹤是蓮蓬采摘機(jī)器人視覺系統(tǒng)中的重要任務(wù)。蓮蓬是一種水生植物,新鮮蓮蓬呈嫩綠色,蓮葉呈翠綠色,蓮花顏色偏紅或白色,蓮蓬與蓮葉顏色差異不明顯,與蓮花形狀相似、顏色差異明顯。除此之外,蓮蓬生長環(huán)境(圖1)中存在著水面、山巒、天空等背景元素,且在風(fēng)力的影響下,蓮蓬存在著不規(guī)律的擺動現(xiàn)象。受以上因素的影響,利用基于RGB分量識別的方法[5]具有一定的困難。

        在現(xiàn)有的蓮蓬識別方法中,文獻(xiàn)[6]采用了PCNN分割與形態(tài)學(xué)相結(jié)合的方法預(yù)處理圖像,提取圖像的顏色與形狀特征并根據(jù)特征向量的特點(diǎn)利用PCA算法進(jìn)行降維,再運(yùn)用K-means聚類方法獲得識別模型。蓮蓬識別準(zhǔn)確率可達(dá)88.17%,然而其圖像預(yù)處理需要1~3 s,識別時(shí)長0.131 s,且模型訓(xùn)練較復(fù)雜。蓮蓬識別任務(wù)可看成是具一般性的目標(biāo)檢測任務(wù),在卷積神經(jīng)網(wǎng)絡(luò)出現(xiàn)之前,DPM(Deformable Parts Model)[7]是一種經(jīng)典的目標(biāo)檢測算法,其核心思想是采用支持向量機(jī)(SVM)[8]算法對滑動窗口的HOG[9]特征進(jìn)行分類,在行人檢測[10]等目標(biāo)檢測任務(wù)上DPM具有較好的檢測效果。近年來,以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)為核心的深度學(xué)習(xí)的圖像識別算法憑借其在復(fù)雜圖像特征提取上的優(yōu)勢[11],在目標(biāo)檢測領(lǐng)域取得了革命性進(jìn)展。2014年,Ross Girshick等[12]在CVPR大會上提出了R-CNN目標(biāo)檢測網(wǎng)絡(luò),R-CNN利用選擇性搜索(Selective Search)的方法代替了滑動窗口,在VOC 2012的數(shù)據(jù)集上將目標(biāo)檢測的平均準(zhǔn)確率(mean average precision,mAP)提升了30%。2015年,Ross Girshick[13]和Shaoqing Ren等[14]相繼提出了Fast R-CNN和Faster R-CNN,F(xiàn)aster R-CNN引入了Region Proposal Network(RPN),使候選區(qū)域的提取速度和精度獲得了大幅度提升,檢測幀速率達(dá)5 fps。而在2016年,Joseph Redmon等[15]提出了YOLO模型,將目標(biāo)檢測幀速率提高到了45 fps。之后,Joseph Redmon等[16]再次提出了YOLO v2,相較于前代YOLO,其mAP和檢測速度均得到了顯著提高。從VOC 2007數(shù)據(jù)集的模型檢測測試結(jié)果來看,YOLO v2的檢測速度為67 fps,mAP可達(dá)到76.8%,在目標(biāo)檢測領(lǐng)域表現(xiàn)出色,該模型與其他目標(biāo)檢測模型在VOC 2007數(shù)據(jù)集上測試數(shù)據(jù)對比如表1所示。

        本文將蓮蓬識別與定位問題轉(zhuǎn)化成目標(biāo)檢測問題,提出一種基于YOLO v2的蓮蓬快速檢測方法,實(shí)現(xiàn)蓮蓬的實(shí)時(shí)檢測。結(jié)合蓮蓬種植地實(shí)地考察和互聯(lián)網(wǎng)資源,收集大量的蓮蓬圖片,并進(jìn)一步篩選制作成蓮蓬檢測數(shù)據(jù)集,通過對數(shù)據(jù)集增加擾動而對數(shù)據(jù)集進(jìn)行擴(kuò)充。為了減少模型計(jì)算量、提高檢測速率,結(jié)合深度可分離網(wǎng)絡(luò)結(jié)構(gòu)提出DS Tiny Dar-knet作為蓮蓬的特征提取網(wǎng)絡(luò)。通過對預(yù)選區(qū)域的維度聚類,多分辨率預(yù)訓(xùn)練,提高了檢測模型的檢測精度。選取了Darknet-19、Tiny Darknet和本文改進(jìn)的基于YOLO v2的檢測模型,通過試驗(yàn)對比分析各分類模型在蓮蓬檢測任務(wù)中的效果。

        1 檢測方法

        1.1 YOLO v2檢測模型的特點(diǎn)

        YOLO v2是一個(gè)基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測模型,僅通過單個(gè)卷積神經(jīng)網(wǎng)絡(luò)即可以預(yù)測圖像中若干個(gè)目標(biāo)的位置、尺寸、類別及其置信度。YOLO v2在每一個(gè)卷積層增加了分批數(shù)據(jù)標(biāo)準(zhǔn)化的操作,這種操作可以允許在訓(xùn)練一開始使用較高的學(xué)習(xí)率,加速模型收斂,并有效防止過擬合,提高了模型的范化能力。在候選區(qū)域的提取上引入了預(yù)選區(qū)域的概念,盡管預(yù)選區(qū)域的引入使模型的mAP降低,卻大幅提高了召回率。由于采用了卷積層代替了全連接層,輸入圖像的尺寸可以隨時(shí)改變,因而可以通過多尺度訓(xùn)練的方法提高YOLO v2應(yīng)對不同尺寸圖片時(shí)的檢測魯棒性。

        1.2 蓮蓬檢測過程

        在蓮蓬檢測的過程中選取合適的候選區(qū)域,并對這些候選區(qū)域進(jìn)行預(yù)測,最后對預(yù)測結(jié)果篩選,得到置信度較高的預(yù)測框。其中,目標(biāo)的置信度公式如下:

        Conf(Object)=Pr(Object)×IOU(Pred, Truth)

        式中,Pr(Object)表示預(yù)測框是否存在目標(biāo)物體(存在目標(biāo)物體則為1,不存在為0),IOU(Pred, Truth)表示真實(shí)框與預(yù)測框交并比。

        IOU(Pred, Truth)=

        本文蓮蓬檢測模型基于YOLO v2,采用了類似于RPN[14](Region Proposal Network)的網(wǎng)絡(luò)結(jié)構(gòu),利用卷積層預(yù)測框相對于預(yù)選區(qū)域的偏移量和置信度,從而獲得蓮蓬目標(biāo)的位置和概率。與Faster R-CNN的RPN網(wǎng)絡(luò)不同的是,本文模型采用sigmoid函數(shù)對預(yù)測偏移量進(jìn)行約束,防止預(yù)測框與預(yù)選區(qū)域初始位置距離較遠(yuǎn),導(dǎo)致模型需要很長的時(shí)間確定目標(biāo)位置。

        利用采樣因子為32的卷積層對輸入特征圖進(jìn)行降采樣,使輸入網(wǎng)絡(luò)為416×416網(wǎng)絡(luò)輸出得到13×13的卷積特征圖,對應(yīng)原圖中分為13×13個(gè)預(yù)測空間位置(cell),每個(gè)cell的中心位置作為預(yù)選區(qū)域的起始位置,并在其中放置若干個(gè)不同形狀大小的預(yù)選區(qū)域作為候選區(qū)域。

        每個(gè)預(yù)測框有5個(gè)參數(shù),即tx、ty、tw、th、to。這5個(gè)參數(shù)的預(yù)測公式如下:

        bx=σ(tx)+cx,by=σ(ty)+cy

        bw=pw e,bh=phe

        Conf(Object)=σ(to)

        式中,cx、cy為cell的中心坐標(biāo),pw、ph為預(yù)選區(qū)域的初始尺寸,σ為sigmoid函數(shù)。

        在得到每個(gè)預(yù)測框的置信度后,通過設(shè)置閾值,去掉低分的預(yù)測框,然后對剩下的BoundingBox進(jìn)行非極大抑制(Non Maximum Suppression,NMS)處理,得到多組高分Boun-dingBox,輸出目標(biāo)位置參數(shù)。

        1.3 分類模型

        蓮蓬檢測模型是以蓮蓬圖像分類網(wǎng)絡(luò)作為基礎(chǔ)特征提取網(wǎng)絡(luò),在此基礎(chǔ)上對候選區(qū)域進(jìn)行判斷,從而完成目標(biāo)檢測任務(wù)[17]。因此,優(yōu)化分類模型是提高檢測網(wǎng)絡(luò)效率的重要手段。

        YOLO v2是以Darknet-19[18]作為基礎(chǔ)分類模型。Darknet-19包含19個(gè)卷積層和5個(gè)最大池化層,在網(wǎng)絡(luò)最后采用了全局平均池化(average pooling),采用了類似Inception Net[19]的結(jié)構(gòu),使用了大量3×3卷積層,并在卷積層之間插入1×1卷積層壓縮特征。

        Tiny Darknet[18]是一個(gè)輕量級的分類網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。Tiny Darknet僅由8層卷積層、6層最大池化層和全局平均池化層組成。一次前向傳播僅需8.1億次計(jì)算,而Darknet-19一次前向傳播則需要55.8億次計(jì)算。盡管Tiny Darknet在計(jì)算量上遠(yuǎn)遠(yuǎn)低于Darknet-19,但是由于其網(wǎng)絡(luò)深度有限,其mAP卻相對Darknet-19更低些。對于蓮蓬檢測這種單一目標(biāo)的檢測任務(wù)來說,其精度已經(jīng)可以滿足基本需求,但其在速度上還有優(yōu)化的空間。因此,后文以Tiny Darknet和深度可分離卷積網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),提出了以DS Tiny Darknet作為蓮蓬的特征提取網(wǎng)絡(luò)。

        2 模型改進(jìn)與優(yōu)化

        2.1 基于深度可分離結(jié)構(gòu)的特征提取網(wǎng)絡(luò)

        為了降低蓮蓬識別的計(jì)算量,滿足蓮蓬采摘場合對檢測實(shí)時(shí)性的要求,必須對模型的運(yùn)算量再做一定的優(yōu)化。因此,本文借鑒了Xception[20]模型結(jié)構(gòu),在Tiny Darknet的基礎(chǔ)上提出了DS Tiny Darknet特征提取網(wǎng)絡(luò)。DS Tiny Darknet主要采用了深度可分離網(wǎng)絡(luò)(Depthwise Separable Convolution)[20]的網(wǎng)絡(luò)結(jié)構(gòu)。設(shè)Dk為卷積核尺寸,M是輸入通道數(shù),N是輸出通道數(shù),輸入輸出的特征圖尺寸為Dif和Dof,網(wǎng)絡(luò)結(jié)構(gòu)變換圖如圖3所示。

        可以看出,標(biāo)準(zhǔn)卷積操作(圖3左)的計(jì)算復(fù)雜度為Dk×Dk×M×N×Dif×Dif,計(jì)算復(fù)雜度隨M和N的增加而急劇增加,在Tiny Darknet和Darknet-19等采用金字塔結(jié)構(gòu)的分類網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)深度增加,輸入輸出通道數(shù)都成倍增加,計(jì)算復(fù)雜度大幅增加。深度可分離卷積網(wǎng)絡(luò)(圖3右)由通道分離卷積層(Depthwise Convolution)和逐點(diǎn)卷積層(Pointwise Convolution)組成。首先對每個(gè)通道使用單個(gè)卷積核進(jìn)行卷積操作,然后再用逐點(diǎn)卷積層中1×1的卷積核對depthwise層輸出的所有單通道的feature map進(jìn)行線性疊加。在每層之間都使用了Batch Normalization操作和Leaky-ReLU激活函數(shù)。Depthwise Separable Convolution 的計(jì)算復(fù)雜度為:

        Dk×Dk×M×Dif×Dif+M×N×Dif×Dif

        深度可分離卷積與標(biāo)準(zhǔn)卷積相比,可減少計(jì)算量:

        Tiny Darknet只使用了3×3的卷積核,進(jìn)行上述深度可分離卷積操作后,構(gòu)成DS Tiny Darknet。其計(jì)算復(fù)雜度可減少約為原來的1/9,準(zhǔn)確率也只有微小的下降。結(jié)合檢測模型,構(gòu)成DS Tiny-YOLO。經(jīng)過深度可分離卷積網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化后,模型識別速度得到了大幅度提升。

        2.2 蓮蓬候選區(qū)域參數(shù)的聚類

        YOLO v2雖然在VOC數(shù)據(jù)集上均取得了較好的檢測效果,但是其預(yù)選區(qū)域是根據(jù)VOC數(shù)據(jù)集的特點(diǎn)聚類的,部分預(yù)選區(qū)域長寬比過大,與蓮蓬形狀特征差距較大,對蓮蓬定位的精度較差,不適合蓮蓬檢測任務(wù)。對此,本文通過對蓮蓬數(shù)據(jù)集聚類得到合適的預(yù)選區(qū)域。數(shù)據(jù)集的標(biāo)記框參數(shù)有5個(gè),分別是class、x、y、w、h。其中,class為目標(biāo)類別索引,x和y是標(biāo)記框的中心坐標(biāo),w和h是標(biāo)記框的寬度和高度。卷積神經(jīng)網(wǎng)絡(luò)具有平移不變性,因而只需要通過K-means對 w和h聚類即可。在距離度量上,本文采用IOU代替標(biāo)準(zhǔn)K-means中的歐氏距離:

        d(box,centroid)=1-IOU(Pred, Truth)

        且令x,y為0,使標(biāo)記框都在同一位置上,方便對比不同標(biāo)記框之間的相似度,而不受標(biāo)記框位置的影響。

        在蓮蓬檢測目標(biāo)中,本文采用了K-means++的算法進(jìn)行聚類獲得預(yù)選區(qū)域。對于聚類中k的選取,采用誤差平方和(Sum of the Squared Error,SSE)作為判別依據(jù),當(dāng)聚類個(gè)數(shù)達(dá)到一定值時(shí),再增加聚類個(gè)數(shù)SSE的變化也很小,因而SSE函數(shù)的拐點(diǎn)橫坐標(biāo)即可認(rèn)為是最優(yōu)的k。采用K-means++的聚類過程中,SSE的曲線如圖4所示??梢钥闯觯琸達(dá)到5時(shí),SSE的變化趨勢減小。當(dāng)k=5時(shí),K-means聚類得出的值再分別乘上每個(gè)cell的尺寸(grid size)即可得到預(yù)選區(qū)域的參數(shù),因?yàn)檩斎氤叽鐬?16×416,輸出尺寸為13×13,則grid size為416/13=32,最終得到的預(yù)選區(qū)域的參數(shù)分別為(0.003,0.007)、(0.037,0.067)、(0.142,0.136)、(0.305,0.255)、(0.419,0.540),聚類分布如圖5所示。

        2.3 模型的預(yù)訓(xùn)練

        模型的預(yù)訓(xùn)練是網(wǎng)絡(luò)訓(xùn)練過程的重要環(huán)節(jié),直接決定了訓(xùn)練的收斂速度和模型的檢測效果。對DS Tiny Darknet特征提取網(wǎng)絡(luò)采用VOC 2007+2012數(shù)據(jù)集作為預(yù)訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練。由于網(wǎng)絡(luò)結(jié)構(gòu)限制,輸入的圖像均會被統(tǒng)一成相同大小,對此,在得到預(yù)訓(xùn)練模型后,本文對預(yù)訓(xùn)練模型作如下調(diào)整處理。一是選取一部分低分辨率(224×224)蓮蓬分類數(shù)據(jù)集對預(yù)訓(xùn)練模型微調(diào)(fine-tuning),使之適應(yīng)蓮蓬外形特征;二是配置預(yù)訓(xùn)練模型的輸入圖像尺寸為448×448,在蓮蓬數(shù)據(jù)集上訓(xùn)練10個(gè)循環(huán),使分類網(wǎng)絡(luò)適應(yīng)較高分辨率下蓮蓬特征。

        在經(jīng)過上述預(yù)訓(xùn)練微調(diào)過程后,將預(yù)訓(xùn)練分類網(wǎng)絡(luò)應(yīng)用于檢測算法,可有效提高YOLO v2模型檢測的準(zhǔn)確率。

        3 效果檢測試驗(yàn)

        3.1 試驗(yàn)平臺

        本試驗(yàn)是在PC端上完成,PC配置為CPU Intel Core i5-7300、顯卡GTX1060、內(nèi)存8G,訓(xùn)練和測試框架均為Darknet。

        3.2 蓮蓬訓(xùn)練集制作與擴(kuò)充

        在試驗(yàn)中,采用了從網(wǎng)絡(luò)上和實(shí)地拍攝收集的蓮蓬圖片作為蓮蓬識別模型的數(shù)據(jù)樣本,如圖6所示,共計(jì)354張。其中,每張圖片均包含若干個(gè)蓮蓬,共有652個(gè)人工標(biāo)記的蓮蓬樣本。

        為了提高模型應(yīng)對不同光照和方向模糊條件的下檢測魯棒性,需要對原數(shù)據(jù)集進(jìn)行擴(kuò)充。本文設(shè)置了4種飽和度、3種曝光度、3種色調(diào)、2種不同參數(shù)的方向模糊共計(jì)72種組合,可在原數(shù)據(jù)集上生成25 488張圖片,另外在模型中設(shè)置了7種不同的輸入尺寸,每訓(xùn)練10個(gè)批(Batchs)隨機(jī)更換1次尺寸,以適應(yīng)不同大小的蓮蓬。經(jīng)上述操作,豐富了訓(xùn)練數(shù)據(jù)集,同時(shí)也可防止過擬合。

        3.3 試驗(yàn)對比

        在試驗(yàn)中,從蓮蓬種植地錄制的若干視頻文件中截取了100張圖片并標(biāo)注,作為本次對比試驗(yàn)的測試集。分別使用YOLO v2、Tiny Darknet和DS Tiny Darknet與YOLO v2配合進(jìn)行目標(biāo)檢測效果試驗(yàn)對比。

        3.4 結(jié)果分析

        通過試驗(yàn)分析,得出了3種分類模型的平均準(zhǔn)確率、召回率(Recall)和識別幀率,測試結(jié)果如表2所示,DS Tiny Da-rknet的檢測效果如圖7所示。

        YOLO v2+DS Tiny Darknet模型的檢測速度是YOLO v2+Darknet-19的5.8倍,是YOLO v2+Tiny Darknet的3.2倍,模型運(yùn)行速度得到了顯著提高,基本滿足了蓮蓬的快速檢測需求。從表2還可以看出,YOLO v2+Darknet-19的平均準(zhǔn)確率和召回率均最高,YOLO v2+Tiny Darknet與YOLO v2+DS Tiny Darknet在平均準(zhǔn)確率和召回率上與YOLO v2+Darknet-19差距較大。相比于YOLO v2+Tiny Darknet,YOLO v2+DS Tiny Darknet僅準(zhǔn)確率稍有降低。故YOLO v2+DS Tiny Darknet在檢測準(zhǔn)確率上略有不足,但其檢測速度和檢測質(zhì)量已經(jīng)可以為蓮蓬采摘任務(wù)提供實(shí)時(shí)的視覺信息。

        4 結(jié)論與討論

        針對蓮蓬識別的任務(wù),本文研究基于YOLO v2的蓮蓬識別方式,利用對蓮蓬候選區(qū)域聚類、預(yù)訓(xùn)練和深度可分離網(wǎng)絡(luò)結(jié)構(gòu)對模型加速等改進(jìn)措施,制作、擴(kuò)充了蓮蓬圖像數(shù)據(jù)集,使模型對復(fù)雜場景下蓮蓬識別的魯棒性獲得增強(qiáng),并且識別速度也得到提高,從而滿足蓮蓬快速識別的需求。最后,本研究還討論了改進(jìn)模型與Darknet-19和Tiny Darknet的試驗(yàn)對比,結(jié)果表明,改進(jìn)模型在速度上更勝一籌。識別效率的提高在實(shí)際應(yīng)用中可節(jié)約計(jì)算設(shè)備成本,提高多設(shè)備并行協(xié)作的能力,對降低蓮蓬自動識別設(shè)備成本、提高識別效率具有重要借鑒意義。

        5 參考文獻(xiàn)

        [1] 吳芳彤,肖貴平.蓮子的營養(yǎng)保健價(jià)值及其開發(fā)應(yīng)用[J].亞熱帶農(nóng)業(yè)研究,2012,8(4):274-278.

        [2] 魯運(yùn)江.蓮子的營養(yǎng)價(jià)值與食療保健[J].蔬菜,2001(6):36.

        [3] 潘林娜,梁華俤,郭桂玲.蓮子的營養(yǎng)價(jià)值與加工工藝[J].食品工業(yè)科技,1993(1):29-32.

        [4] 魯運(yùn)江.我國子蓮生產(chǎn)現(xiàn)狀、問題及發(fā)展對策[J].蔬菜,2001(4):4-6.

        [5] PARRISH E A,GOKSEL A K.Pictorial pattern recognition applied to fruit harvesting[J]. Trans Asae, 1977, 20(5): 822-827.

        [6] 唐書萍.基于機(jī)器視覺的蓮蓬識別關(guān)鍵技術(shù)研究[D].鎮(zhèn)江:江蘇大學(xué),2016.

        [7] FELZENSZWALB P F,GIRSHICK R B,Mcallester D,et al. Object det-ection with discriminatively trained part-based models[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2010,32(9):1627-1645.

        [8] CORTES C,VAPNIK V.Support-Vector Networks[J].Machine Learning,1995,20(3):273-297.

        [9] DALAL N,TRIGGS B.Histograms of oriented gradients for human det-ection[J].IEEE Computer Society Conference on Computer Vision & Pat-tern Recognition,2005,1(12):886-893.

        [10] 陳芝垚. 基于DPM的行人檢測和行人特征提取算法研究[D].成都:電子科技大學(xué),2016.

        [11] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521(7553):436-444.

        [12] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Columbus,2014:580-587.

        [13] GIRSHICK R.Fast R-CNN.[EB/OL].[2018-02-21].https://blog.csdn.net/xiaqunfeng123/article/details/78716060.

        [14] REN S,HE K,GIRSHICK R,et al.Faster r-cnn:Towards real-time ob-ject detection with region proposal networks[J].IEEE Trans Pattern Anal Mach Intell,2017,39(6):1137-1149.

        [15] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:Uni-fied,real-time object detection[EB/OL].[2018-02-21].https://arxiv.org/

        abs/1506.02640. 2016:779-788.

        [16] REDMON J,F(xiàn)ARHADI A.YOLO9000:Better,F(xiàn)aster,Stronger[EB/OL].[2018-02-21].https://blog.csdn.net/zizi7/article/details/75020156.

        [17] 張素潔,趙懷慈.最優(yōu)聚類個(gè)數(shù)和初始聚類中心點(diǎn)選取算法研究[J].計(jì)算機(jī)應(yīng)用研究,2017,34(6):1617-1620.

        [18] REDMON J.Darknet:Open source neural networks in c[EB/OL].[2018-02-21].http://pjreddie.com/darknet/,2013-2016.

        [19] SZEGEDY C,IOFFE S,VANHOUCKE V,et al.Inception-v4,Inception-ResNet and the impact of residual connections on learning[EB/OL].[2018-02-21].https://blog.csdn.net/kangroger/article/details/69488642.

        [20] CHOLLET F.Xception:Deep learning with depthwise separable conv-olutions[EB/OL].[2018-02-21].https://www.computer.org/csdl/procee-dings/cvpr/2017/0457/00/0457b800-abs.html.

        猜你喜歡
        目標(biāo)檢測識別蓮蓬
        蓮蓬酒 荷花藕
        心聲歌刊(2023年5期)2023-10-10 13:31:32
        出淤泥而不染——蓮蓬與蓮藕
        臥剝蓮蓬聽秋聲
        文苑(2019年22期)2019-12-07 05:29:12
        采摘蓮蓬
        視頻中目標(biāo)檢測算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        行為識別中的人體運(yùn)動目標(biāo)檢測方法
        淺談哈密瓜病蟲害的防治措施
        蘋果樹常見病蟲害防治技術(shù)
        青島市中山公園園林樹木易混淆品種識別
        移動機(jī)器人圖像目標(biāo)識別
        久久不见久久见中文字幕免费| 亚洲大胆视频在线观看| 少妇被猛烈进入中文字幕| 精品精品国产高清a毛片| 中文字幕精品一区二区2021年| 69精品免费视频| 性感人妻一区二区三区| 亚洲国产天堂久久综合网| 男人边做边吃奶头视频| 人人妻人人澡av天堂香蕉| 久久91精品国产91久久麻豆| 久久九九精品国产不卡一区| 色多多性虎精品无码av| 曰本极品少妇videossexhd | 国产精品一区二区午夜久久| 国产精品一区二区三区四区亚洲| av免费网址在线观看| 少妇太爽了在线观看| 男女激情床上视频网站| 青青草手机在线免费观看视频| 人人妻一区二区三区| 亚洲欧美在线播放| 国产性感丝袜美女av| 免费人成视网站在线剧情| 亚洲 另类 日韩 制服 无码 | 久热国产vs视频在线观看| 欧洲色综合| 国产美女高潮流的白浆久久| 日本av在线一区二区| 9lporm自拍视频区| 久久与欧美视频| 蜜桃精品视频一二三区| 日韩一区国产二区欧美三区| 初高中生精品福利视频| 琪琪av一区二区三区| 18禁在线永久免费观看| 少妇内射高潮福利炮| 无码流畅无码福利午夜| 亚洲av综合av一区| 国产午夜精品一区二区三区软件| 国产av一区二区三区区别|