亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv3 的樹上成熟芒果檢測(cè)方法

        2021-03-17 06:43:54李國進(jìn)黃曉潔李修華
        關(guān)鍵詞:特征檢測(cè)模型

        李國進(jìn),黃曉潔,李修華

        (廣西大學(xué) 電氣工程學(xué)院,南寧530004)

        芒果是我國盛產(chǎn)的熱帶水果之一, 目前它的采摘工作主要依靠人工完成。 采摘工作耗費(fèi)大量的人力和時(shí)間,導(dǎo)致其生產(chǎn)成本較高。利用機(jī)器視覺的方法識(shí)別和定位樹上芒果,有利于實(shí)現(xiàn)芒果的機(jī)器采摘,從而降低芒果的生產(chǎn)成本,提高其生產(chǎn)效率。傳統(tǒng)基于視覺的芒果檢測(cè)主要依據(jù)果實(shí)的顏色、形狀和紋理等特征,或是使用簡單的BP 神經(jīng)網(wǎng)絡(luò)來完成檢測(cè)任務(wù)[1-4]。 如HUSSIN 等[5]利用顏色特征除去與芒果顏色無關(guān)的背景,使用霍夫變換進(jìn)行目標(biāo)檢測(cè),檢測(cè)精度只有60%。 PAYNE 等[6]利用密集像素分割方法,提取超級(jí)像素中SIFT 算子,設(shè)計(jì)基于顏色和橢圓形狀的模型,檢測(cè)夜間采集的樹木冠層圖像中的芒果,算法檢測(cè)正確率達(dá)到84%。張烈平等[7]運(yùn)用BP 神經(jīng)網(wǎng)絡(luò)技術(shù),對(duì)損傷芒果進(jìn)行不同等級(jí)的分類,識(shí)別芒果的準(zhǔn)確率達(dá)85.5%。 在受到光照、枝葉遮擋和果實(shí)重疊的影響下,傳統(tǒng)方法識(shí)別果實(shí)的準(zhǔn)確度較低,耗時(shí)較長,無法滿足現(xiàn)代農(nóng)業(yè)中果實(shí)智能化收獲的需求。

        目前,對(duì)于水果的目標(biāo)檢測(cè)方法主要采取深度學(xué)習(xí)的方法,利用深度卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)到圖像中目標(biāo)的隱含特征,解決了上述傳統(tǒng)方法的不足問題,也為實(shí)現(xiàn)樹上芒果的檢測(cè)提供了新的方向[8-10]。 薛月菊等[11]通過設(shè)計(jì)帶密集連接的Tiny-yolo 網(wǎng)絡(luò)結(jié)構(gòu),復(fù)用和融合了網(wǎng)絡(luò)的多層特征及語義信息,對(duì)于未成熟芒果的檢測(cè)取得了97.02%的準(zhǔn)確率。 彭紅星等[12]使用改進(jìn)的SSD 深度學(xué)習(xí)水果檢測(cè)模型對(duì)臍橙、蘋果、皇帝柑和荔枝4 種水果在各種環(huán)境下進(jìn)行檢測(cè),平均檢測(cè)精度達(dá)到88.4%。岑冠軍等[13]采用Faster R-CNN 深度學(xué)習(xí)模型構(gòu)建了芒果圖像識(shí)別算法,對(duì)芒果圖像的計(jì)數(shù)識(shí)別準(zhǔn)確率達(dá)到82.3%;熊俊濤等[14]結(jié)合殘差網(wǎng)絡(luò)和密集連接網(wǎng)絡(luò),構(gòu)成Des-YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)夜間復(fù)雜環(huán)境下對(duì)成熟柑橘的檢測(cè),平均精度為90.75%,檢測(cè)速度為53FPS。為提高自然環(huán)境中樹上芒果檢測(cè)算法的適用性、準(zhǔn)確性和高效性,以實(shí)現(xiàn)芒果果實(shí)的機(jī)器采摘,減少人工采摘作業(yè)耗費(fèi)的成本,綜合考慮算法的實(shí)時(shí)檢測(cè)性和準(zhǔn)確性,本研究提出改進(jìn)的YOLOv3 算法對(duì)不同顏色和種類的芒果進(jìn)行檢測(cè)。 所提方法以YOLOv3 作為芒果果實(shí)檢測(cè)的基礎(chǔ)框架, 采用引入密集模塊和eSE 模塊的改進(jìn)SE_ResNet50 網(wǎng)絡(luò)作為新的特征提取網(wǎng)絡(luò),并與其他不同主干網(wǎng)絡(luò)或基礎(chǔ)框架的檢測(cè)方法在芒果圖像數(shù)據(jù)集上進(jìn)行對(duì)比試驗(yàn)。

        1 材料與方法

        1.1 圖像采集與擴(kuò)增

        在自然條件下采集不同樹上的芒果圖像,對(duì)圖像中的芒果果實(shí)進(jìn)行人工標(biāo)注,建立目標(biāo)檢測(cè)的訓(xùn)練集和測(cè)試集;本研究采用的樹上芒果圖像數(shù)據(jù)集由在芒果成熟階段拍攝的果園芒果照片構(gòu)成,在不同時(shí)間段采集了不同距離、方向和角度的芒果圖像。 初始經(jīng)過篩選后的數(shù)據(jù)集的總共數(shù)目為360 張圖片,包含了順光、逆光、近距離、遠(yuǎn)距離、部分遮擋、顏色和種類各異等情況。 經(jīng)過隨機(jī)亮度、隨機(jī)對(duì)比度、隨機(jī)飽和度、水平鏡像翻轉(zhuǎn)和隨機(jī)裁剪等圖像增強(qiáng)方式,將數(shù)據(jù)集擴(kuò)增至3200 張的圖像,并隨機(jī)劃分其中的2500 張為訓(xùn)練集(含3487 個(gè)芒果目標(biāo)),剩下的700 張為測(cè)試集(含1656 個(gè)芒果目標(biāo))。 圖1 為部分芒果數(shù)據(jù)集圖像。

        1.2 圖像標(biāo)注

        由于YOLOv3 模型的輸入數(shù)據(jù)要求具有分類標(biāo)簽和定位信息,所以在將訓(xùn)練集和測(cè)試集的圖像分別統(tǒng)一重新命名后,還需要對(duì)每一張圖像中的目標(biāo)進(jìn)行人工標(biāo)記感興趣區(qū)域和類別標(biāo)注。本次試驗(yàn)使用標(biāo)注工具LabelImg 完成相應(yīng)的標(biāo)注工作,該工具會(huì)自動(dòng)保存每幅圖像的分辨率大小、用戶所標(biāo)記的包圍目標(biāo)對(duì)象的矩形邊界框的左上角與右下角坐標(biāo)以及目標(biāo)所屬的類別信息,從而將篩選出來的圖像數(shù)據(jù)按照PASCAL VOC2012檢測(cè)標(biāo)準(zhǔn)進(jìn)行標(biāo)注和存儲(chǔ)。

        1.3 YOLOv3 算法原理

        2015~2018 年,REDMON 等[15-17]先后提出了YOLOv1、YOLOv2 和YOLOv3 算法,將目標(biāo)檢測(cè)任務(wù)看作為回歸問題,只需單個(gè)網(wǎng)絡(luò)就能直接從完整的圖像中預(yù)測(cè)出目標(biāo)的邊界框和類別概率。YOLOv3 首次利用帶有殘差神經(jīng)網(wǎng)路[18]的DarkNet53 網(wǎng)絡(luò)作為特征提取器,解決了YOLOv1 和YOLOv2 在小目標(biāo)檢測(cè)上不準(zhǔn)確的問題,提出了在檢測(cè)中運(yùn)用多尺度特征融合和多尺度預(yù)測(cè)的策略,擁有更快的檢測(cè)速度和更高的準(zhǔn)確度。 YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)如圖2。

        圖1 樹上芒果數(shù)據(jù)集示例Figure 1 The examples of mango dataset on trees

        圖2 YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)Figure 2 The YOLOv3 network structure

        YOLOv3 算法首先將原始輸入圖像縮放至608×608 像素的大小,經(jīng)過DarkNet53 網(wǎng)絡(luò)進(jìn)行特征提取后,得到大小為19×19,38×38,76×76 的3 個(gè)尺度的特征圖(網(wǎng)格);其次將3 種特征圖分別輸出到檢測(cè)模塊,利用2倍的上采樣(Upsample)對(duì)相鄰兩尺度的特征圖進(jìn)行串聯(lián)拼接(Concat),即多尺度特征融合;最后通過非極大值抑制方式融合3 種不同尺度特征圖的檢測(cè)結(jié)果。 每個(gè)網(wǎng)格預(yù)測(cè)3 個(gè)邊界框和邊界框的置信度, 以及所有類的類別概率。 置信度反映了邊界框的準(zhǔn)確性和邊界框包含檢測(cè)目標(biāo)的概率大小。 置信度的定義為:

        式中:Pr為預(yù)測(cè)邊界框包含目標(biāo)的可能性,若含有目標(biāo),則為1,否則為0;IoU 為真實(shí)標(biāo)記框與預(yù)測(cè)框的交集和并集之比。

        YOLOv3 網(wǎng)絡(luò)在每個(gè)網(wǎng)格上預(yù)測(cè)每個(gè)邊界框的4 個(gè)坐標(biāo),即tx、ty、tw和th。其中,tx和ty為預(yù)測(cè)邊界框的中心坐標(biāo),tw和th為預(yù)測(cè)邊界框的寬度和高度。 假設(shè)目標(biāo)中心在網(wǎng)格中相對(duì)于圖像左上角有偏移(cx,cy),并且錨框的高度和寬度分別為pw和ph,則經(jīng)過修正后的邊界框坐標(biāo)為:

        Sigmoid 函數(shù)的定義為:

        1.4 YOLOv3 算法改進(jìn)

        在基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法中,主干網(wǎng)絡(luò)用于完成目標(biāo)特征提取任務(wù),其在圖像分類上的精度和速度會(huì)影響目標(biāo)檢測(cè)算法的性能。 通常分類精度越高的網(wǎng)絡(luò)提取目標(biāo)特征的能力越強(qiáng)。 HU 等[19]提出的SE_ResNet50 網(wǎng)絡(luò),在ImageNet 數(shù)據(jù)集上的分類效果優(yōu)于DarkNet53 網(wǎng)絡(luò)。 因此,本研究采用SE_ResNet50 替換DarkNet53 作為YOLOv3 算法的主干網(wǎng)絡(luò),并借鑒密集網(wǎng)絡(luò)思想[20]和VoVNetV2[21]的思想,對(duì)其進(jìn)行改進(jìn),進(jìn)一步提高模型的檢測(cè)性能。 SE_ResNet50 網(wǎng)絡(luò)主要由殘差模塊和SE 模塊構(gòu)成的SE_ResNet 模塊構(gòu)成。 SE模塊可以讓模型關(guān)注更多通道中信息量最大的特征,同時(shí)抑制通道中不重要的特征,帶來模型性能的提升。 SE_ResNet50 采用的SE_ResNet 模塊如圖3。 輸入是H′(高度)×W′(寬度)×C′(特征圖通道數(shù))的特征圖X,經(jīng)過不同的卷積操作(Convs)得到大小為H(高度)×W(寬度)×C(特征圖通道數(shù))的特征圖U;然后,利用全局平均池化(Global Pooling)操作對(duì)U 進(jìn)行“擠壓”,屏蔽其空間上分布的無用信息,提取特征通道的全局信息,輸出1×1×C 大小的特征圖;再經(jīng)過兩個(gè)帶不同激活函數(shù)的全連接層(FC)實(shí)現(xiàn)“激勵(lì)”;Scale 為特征重標(biāo)定操作,將FC輸出的權(quán)重與U 相乘,以增強(qiáng)重要特征;最后將特征圖U*與原輸入特征圖X 進(jìn)行殘差連接后輸出。

        圖3 SE_ResNet 模塊Figure 3 The schema of the SE_ResNet model

        SE 模塊中的首個(gè)全連接層的主要作用是降維,在一定程度上會(huì)造成特征信息丟失,去掉該層,并將保留的全連接層中的Sigmoid 激活函數(shù)改成與其數(shù)值近似而計(jì)算量更小的Hsigmoid 激活函數(shù),得到eSE 模塊[21],圖4。在模型中使用eSE 模塊,能夠有效增強(qiáng)提取到的特征信息,使模型性能得到改善。 其中HSigmoid 函數(shù)的定義為:密集網(wǎng)絡(luò)以前饋的方式將每個(gè)密集模塊中的所有層連接起來,使每一層的輸入都包含了其之前所有層的特征圖。 通過層間連接有效緩解梯度消失問題,加強(qiáng)特征的傳遞和復(fù)用,同時(shí)降低計(jì)算量。 假設(shè)一個(gè)密集模塊含有L 層,其第l 層由前面l 個(gè)層的輸出作為輸入,第l 層的輸出也會(huì)作為其余L-l 層的輸入,則該密集模塊共包含L×(L+1)/2 個(gè)連接。 密集模塊中的第l 層輸出為:

        式中:[x0,x1,…,xl-1]為第l 層之前的輸入特征圖拼接;Hl(·)為非線性組合函數(shù),由批量歸一化(BatchNormalization,BN)操作、ReLU 函數(shù)、Conv1×1、BN 操作、ReLU 函數(shù)和Conv3×3 組成。

        本研究采用的密集模塊如圖5。 共有4 層,大小為19(高度)×19(寬度)×1024(特征圖通道數(shù))的輸入層x0,經(jīng)過H1、H2、H3操作后,得到大小為19×19×1120 的特征圖x3。x3層融合了前3 層x0、x1和x2的特征信息,達(dá)到多層特征復(fù)用的效果。

        圖5 密集模塊Figure 5 The schema of the Dense Block

        本研究算法采用密集模塊替換SE_ResNet50 中的最后3 個(gè)殘差模塊,使網(wǎng)絡(luò)深層充分利用各層之間的特征,實(shí)現(xiàn)芒果特征的多層復(fù)用和融合,并在密集模塊之后增加eSE 模塊和殘差連接以進(jìn)一步增強(qiáng)特征,提升模型性能。 改進(jìn)后的YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)(ISD-YOLOv3)如圖6。

        ISD-YOLOv3 采用改進(jìn)的SE_ResNet50 網(wǎng)絡(luò)提取芒果圖像的特征, 輸出76×76×512 維、38×38×1024 維和19×19×1120 維的特征圖; 接著通過連續(xù)使用1×1 和3×3 大小的二維卷積層、2 倍上采樣操作和串聯(lián)拼接等操作實(shí)現(xiàn)多尺度特征融合與預(yù)測(cè);由3 個(gè)不同尺度特征圖的反復(fù)訓(xùn)練確定模型的權(quán)重參數(shù),最終在測(cè)試階段輸出帶有分類和定位信息的樹上芒果測(cè)試圖像。

        2 試驗(yàn)測(cè)試與結(jié)果分析

        2.1 試驗(yàn)平臺(tái)

        本試驗(yàn)是在配置為CPU Intel Core i3-8100、英偉達(dá)Tesla V100 顯卡、主頻3.6GHz 和內(nèi)存8G 的PC 端上完成。 使用的操作系統(tǒng)為Windows10 專業(yè)版,訓(xùn)練和測(cè)試框架均為Python3.7.3 環(huán)境下的PaddlePaddle1.7.1 機(jī)器學(xué)習(xí)開發(fā)框架。

        2.2 模型參數(shù)選擇

        本試驗(yàn)對(duì)象為3200 張自然環(huán)境下的樹上芒果圖像,其中2500 張為訓(xùn)練集,700 張為測(cè)試集。 在模型訓(xùn)練過程,設(shè)定網(wǎng)絡(luò)中的目標(biāo)類別數(shù)為1,權(quán)重衰減系數(shù)為0.0005,批量大小為8,迭代次數(shù)為14000 次;每次訓(xùn)練輸入圖像的分辨率從設(shè)定的多尺度集{320, 352, …, 608}中隨機(jī)選擇一個(gè)尺度進(jìn)行訓(xùn)練,并通過隨機(jī)裁剪、隨機(jī)調(diào)整飽和度、曝光量以及色調(diào)等方式增強(qiáng)訓(xùn)練樣本,提高網(wǎng)絡(luò)對(duì)不同分辨率輸入圖像的泛化能力和準(zhǔn)確性;初始學(xué)習(xí)率為0.001,當(dāng)網(wǎng)絡(luò)訓(xùn)練迭代7000 次和9000 次時(shí),學(xué)習(xí)率依次降低為0.0001 和0.00001,防止網(wǎng)絡(luò)出現(xiàn)過擬合。 在測(cè)試階段,使用的批量大小為8,IoU 閾值為0.7,類別分?jǐn)?shù)閾值為0.05,輸入圖像的分辨率大小固定為608×608 像素。

        圖6 ISD-YOLOv3 網(wǎng)絡(luò)結(jié)構(gòu)Figure 6 The ISD-YOLOv3 network structure

        2.3 試驗(yàn)測(cè)試結(jié)果及分析

        為更準(zhǔn)確地表現(xiàn)本研究所提出模型的性能,試驗(yàn)使用目標(biāo)檢測(cè)中常用的平均精度(AP)和每秒檢測(cè)的圖片數(shù)量(FPS)作為模型的評(píng)價(jià)指標(biāo)。 AP 是衡量網(wǎng)絡(luò)結(jié)構(gòu)對(duì)目標(biāo)物體敏感度的標(biāo)準(zhǔn)之一,AP 數(shù)值越高就說明卷積神經(jīng)網(wǎng)絡(luò)的檢測(cè)精確度越高。其計(jì)算方式與準(zhǔn)確率(Precision, P)和召回率(Recall, R)有關(guān)。假設(shè)預(yù)測(cè)框與真實(shí)標(biāo)記框的交并比大于IoU 閾值,則將該預(yù)測(cè)框歸為正樣本,否則為負(fù)樣本。 準(zhǔn)確率P(%)和召回率R(%)計(jì)算公式為:

        式中:TP 為正樣本正確檢測(cè)數(shù)量;FP 為正樣本錯(cuò)誤檢測(cè)數(shù)量;FN 為未檢測(cè)出的真實(shí)標(biāo)記框數(shù)量。

        本研究AP 的計(jì)算方式采用COCO 數(shù)據(jù)集評(píng)價(jià)方式中的101 點(diǎn)插值法,即分別選取[0,0.01,…,1]101 個(gè)不同的召回率數(shù)值,計(jì)算每個(gè)數(shù)值對(duì)應(yīng)的最大準(zhǔn)確率,將其求和后取平均得到AP:

        式中:r 為召回率;r′為101 個(gè)不同的數(shù)值。

        通過調(diào)用訓(xùn)練過程保存的模型參數(shù)文件,即生成的權(quán)重文件,可對(duì)芒果數(shù)據(jù)集中的圖片進(jìn)行相應(yīng)的測(cè)試,測(cè)試后可自動(dòng)識(shí)別并定位測(cè)試圖片中的芒果,顯示相應(yīng)的定位信息和類別信息。 試驗(yàn)對(duì)于單個(gè)樹上芒果的部分測(cè)試結(jié)果如圖7。圖中紅色的矩形邊界框?qū)δ繕?biāo)芒果做出了定位,邊界框的左上角標(biāo)明了該目標(biāo)的類別為芒果和被識(shí)別為芒果的概率。由圖7 可知,模型能夠很準(zhǔn)確地定位和識(shí)別單個(gè)不同條件下的芒果;圖7c 雖然有小部分的遮擋,也不影響目標(biāo)檢測(cè)的準(zhǔn)確性。 對(duì)于含有多個(gè)果實(shí)且有重疊的芒果圖像檢測(cè)結(jié)果示例如圖8,除了個(gè)別被嚴(yán)重遮擋的果實(shí)外,對(duì)于含有小部分重疊的芒果,模型依舊能夠正確識(shí)別并準(zhǔn)確定位,說明本研究算法對(duì)于芒果的檢測(cè)具有良好的檢測(cè)性能。

        圖7 單個(gè)樹上芒果測(cè)試結(jié)果實(shí)例Figure 7 The result of single mango test

        圖8 多個(gè)樹上芒果測(cè)試結(jié)果實(shí)例Figure 8 The result of multiple mangoes test

        為進(jìn)一步驗(yàn)證本研究算法的檢測(cè)效果,在同等的試驗(yàn)平臺(tái)和模型參數(shù)下,使用相同的樹上芒果數(shù)據(jù)集,分別在YOLOv3_DarkNet53、YOLOv3_SE_ResNet50、Faster R-CNN[22]以及本研究算法ISD-YOLOv3 共4 種不同算法模型上進(jìn)行算法的訓(xùn)練與測(cè)試。部分測(cè)試結(jié)果如圖9。試驗(yàn)在測(cè)試集上獲得的平均精度AP、檢測(cè)速度以及網(wǎng)絡(luò)模型大小的統(tǒng)計(jì)結(jié)果見表1。

        由圖9 可知,由于圖像1 中的芒果被葉片遮擋面積較大,只有YOLOv3_SE_ResNet50 和本研究算法ISDYOLOv3 能夠正確檢測(cè)出,YOLOv3_DarkNet53 和Faster R-CNN 算法出現(xiàn)了漏檢;圖9 中的圖像2 含有3 個(gè)芒果果實(shí),其中一個(gè)果實(shí)面積很小,其他3 種算法未能檢測(cè)出,本研究算法能正確識(shí)別并定位的芒果數(shù)量最多,說明本研究提出的ISD-YOLOv3 目標(biāo)檢測(cè)算法召回率更高,檢測(cè)目標(biāo)更準(zhǔn)確。

        由表1 可知,由于SE_ResNet50 網(wǎng)絡(luò)引進(jìn)了可以增強(qiáng)通道特征的SE 模塊,采用其作為YOLOv3 算法的主干網(wǎng)絡(luò),與原來使用的DarkNet53 算法相比,在保持較高檢測(cè)速度的同時(shí),平均精度AP 提高6%;本研究的算法ISD-YOLOv3 通過將SE_ResNet50 的部分卷積層改為密集模塊結(jié)合eSE 模塊及殘差連接,增強(qiáng)網(wǎng)絡(luò)的特征復(fù)用,使AP 提高至94.91%,檢測(cè)速度達(dá)到85FPS,在精度和和速度上都明顯高于其他3 種算法。 結(jié)果表明,ISD-YOLOv3 網(wǎng)絡(luò)規(guī)模更小,提高了目標(biāo)識(shí)別精度和速度,可很好地用于水果采摘機(jī)器人的定位檢測(cè)。

        圖9 不同算法模型檢測(cè)結(jié)果示例Figure 9 Detection results of different algorithms

        3 討論與結(jié)論

        HUSSIN 等[5-6]采用基于手工特征的傳統(tǒng)方法識(shí)別芒果, 人工選取果實(shí)的顏色和橢圓形狀作為特征,由于環(huán)境的多樣性變化容易使這些特征發(fā)生明顯改變,造成識(shí)別的精度較低,因而適用性不高。 本研究采用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,通過卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)目標(biāo)隱含的特征,對(duì)樹上芒果進(jìn)行檢測(cè)。 其中的Faster R-CNN[22]算法利用區(qū)域建議網(wǎng)絡(luò)(RPN)生成檢測(cè)框,YOLOv3[17]算法使用檢測(cè)模塊生成檢測(cè)框,與YOLOv3 的檢測(cè)模塊相比,RPN 包含更少的卷積層,但能生成更多的檢測(cè)框。 因此,F(xiàn)aster R-CNN 在網(wǎng)絡(luò)結(jié)構(gòu)上比YOLOv3 小,檢測(cè)的平均精度較高,而檢測(cè)速度僅有6 FPS,無法滿足高效的機(jī)器采摘作業(yè)需要的最低實(shí)時(shí)速度30 FPS。由于YOLOv3 生成的檢測(cè)框數(shù)遠(yuǎn)少于Faster R-CNN,導(dǎo)致其檢測(cè)精度較低,但其能達(dá)到78 FPS的實(shí)時(shí)檢測(cè)速度。 本研究綜合考慮了算法的精度和速度,選擇YOLOv3 作為芒果檢測(cè)方法的主要框架,采用在分類任務(wù)上精度更高的SE_ResNet50 網(wǎng)絡(luò)替換DarkNet53 網(wǎng)絡(luò),能夠提取芒果圖像中更多的果實(shí)通道特征,在保持較高的實(shí)時(shí)檢測(cè)速度的同時(shí),提高了檢測(cè)精度;采用密集模塊和eSE 模塊改進(jìn)SE_ResNet50 網(wǎng)絡(luò),可以減少模型參數(shù),加強(qiáng)深層卷積層中特征信息復(fù)用與融合,進(jìn)一步提高芒果檢測(cè)的實(shí)時(shí)速度和精度。

        表1 不同檢測(cè)算法性能對(duì)比Table 1 Comparison of different detection algorithms

        本研究結(jié)果表明,提出的ISD-YOLOv3 方法對(duì)于自然環(huán)境下的樹上芒果果實(shí)檢測(cè)具備更加良好的實(shí)時(shí)性、準(zhǔn)確性和魯棒性,為現(xiàn)代農(nóng)業(yè)的果實(shí)智能化收獲提供了新的方法。 此外,如何提高識(shí)別重疊度較大且目標(biāo)很小的果實(shí)的準(zhǔn)確度和減少人工標(biāo)注樣本將是今后研究的主要方向。

        猜你喜歡
        特征檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        成人影院视频在线播放| 国产女人精品视频国产灰线| 无码爆乳护士让我爽| 日韩成人极品在线内射3p蜜臀| 精品国内自产拍在线视频| 国产精品亚洲av国产| 亚洲日本精品一区久久精品| 日韩美女av一区二区三区四区| 青青青免费在线视频亚洲视频| 九九久久自然熟的香蕉图片 | 中文字幕有码人妻在线| 精品无码国产自产拍在线观看蜜| 欧美视频二区欧美影视| 欧美xxxxx精品| 日韩人妻久久中文字幕 | 91亚洲人成手机在线观看| 最全精品自拍视频在线| 久久精品国产99久久久| 无码综合天天久久综合网| 就国产av一区二区三区天堂| 国产成人午夜av影院| 国产成人大片在线播放| 欧美人与动人物牲交免费观看久久| 国产精品久久国产精麻豆99网站| 日本精品人妻在线观看| 亚洲国产成人久久精品不卡| 成人午夜性a级毛片免费| 四虎欧美国产精品| 国产精品美女自在线观看| 日韩精品无码一区二区三区| 男女啪啪免费体验区| 精品综合久久久久久99| 国产精品一区二区三区av在线| 久久久噜噜噜久久| 可以免费观看的毛片| 国产一区二区av男人| 中国男女黄色完整视频| 精人妻无码一区二区三区| 国产日产精品一区二区三区四区的特点| 狠狠久久久久综合网| 亚洲免费看三级黄网站|