亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)的果園障礙物檢測(cè)

        2023-03-07 03:31:24蔡舒平潘文浩孫仲鳴
        關(guān)鍵詞:檢測(cè)

        蔡舒平 潘文浩 劉 慧 曾 瀟 孫仲鳴

        (江蘇大學(xué)電氣信息工程學(xué)院,鎮(zhèn)江 212013)

        0 引言

        隨著人們對(duì)果品類的消費(fèi)需求日益增加,國(guó)內(nèi)外果園種植面積不斷擴(kuò)大[1]。傳統(tǒng)的果園種植模式耗時(shí)、費(fèi)力、成本高。近些年,由于人工智能技術(shù)的高速發(fā)展,農(nóng)業(yè)機(jī)器人[2-3]越來(lái)越多地應(yīng)用于果園種植[4],如修剪、采摘和噴灑農(nóng)藥等。智能農(nóng)業(yè)機(jī)器人的自動(dòng)導(dǎo)航技術(shù)受到了科研人員的廣泛關(guān)注[5-7]。果園環(huán)境是一個(gè)復(fù)雜的非結(jié)構(gòu)化環(huán)境,智能農(nóng)業(yè)機(jī)器人在園內(nèi)道路上作業(yè)時(shí),難免會(huì)遇到各類障礙物[8],包括人、樹、燈桿等,如果不及時(shí)發(fā)現(xiàn)和規(guī)避,將會(huì)造成嚴(yán)重的安全問題。為了保證農(nóng)業(yè)機(jī)器人在果園自主作業(yè)時(shí)的安全性和準(zhǔn)確性,能夠快速準(zhǔn)確地檢測(cè)周圍的障礙物非常重要。

        果園障礙物檢測(cè)屬于深度學(xué)習(xí)[9-10]中目標(biāo)檢測(cè)[11]的范疇,目標(biāo)檢測(cè)算法主要分為兩類:一類是基于Region Proposal的目標(biāo)檢測(cè)算法,代表模型包括R-CNN系列,它們屬于兩階段目標(biāo)檢測(cè)算法,即讓算法先生成目標(biāo)候選框,對(duì)候選框區(qū)域的圖像進(jìn)行特征提取,再對(duì)提取到的特征進(jìn)行分類與回歸;另一類是使用端到端思想的一階段目標(biāo)檢測(cè)算法,代表模型包括SSD[12](Single shot multiBox detector)、YOLO[13-15](You only look once)系列等,此類算法僅使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)直接提取圖像特征后對(duì)特征進(jìn)行分類和檢測(cè)框坐標(biāo)的回歸。隨著一階段目標(biāo)檢測(cè)算法的不斷更新,無(wú)論是檢測(cè)速度還是檢測(cè)精度都比兩階段目標(biāo)檢測(cè)算法更具優(yōu)勢(shì)。

        基于穩(wěn)定、高質(zhì)量圖像采集的目標(biāo)檢測(cè)技術(shù)日趨成熟[16]。然而,農(nóng)用機(jī)器人在果園作業(yè)時(shí),行駛經(jīng)過(guò)的地面凹凸不平,車體容易出現(xiàn)劇烈顛簸,導(dǎo)致攝像頭大幅不規(guī)則抖動(dòng),采集的圖像模糊不清,這種模糊嚴(yán)重降低了圖像質(zhì)量,從而對(duì)后續(xù)基于圖像的目標(biāo)檢測(cè)、語(yǔ)義分割等高級(jí)視覺任務(wù)產(chǎn)生負(fù)面影響,在實(shí)際應(yīng)用中,會(huì)降低農(nóng)業(yè)機(jī)器人在作業(yè)過(guò)程中的檢測(cè)精度,導(dǎo)致漏檢或誤檢,作業(yè)效率低。

        目前,林開顏等[17]提出了基于模糊邏輯的植物葉片邊緣檢測(cè)方法,該方法克服了常規(guī)算法未考慮葉片像素和背景像素的顏色差異,從而導(dǎo)致產(chǎn)生大量偽邊緣的問題,但由于是基于傳統(tǒng)的圖像去模糊算法,過(guò)程較為復(fù)雜。馬曉丹等[18]提出了一種將量子遺傳算法的全局搜索能力和模糊推理神經(jīng)網(wǎng)絡(luò)的自適應(yīng)性相結(jié)合的算法來(lái)識(shí)別蘋果果實(shí),該算法有效解決了圖像邊界像素的模糊性和不確定性,但耗時(shí)較長(zhǎng)。FAN等[19]提出一種基于深度學(xué)習(xí)的局部模糊圖像去模糊方法,用于作物病蟲害分類。陳斌等[20]提出一種改進(jìn)YOLO v3-tiny的全景圖像農(nóng)田障礙物檢測(cè),該算法在YOLO v3-tiny的基礎(chǔ)上增加一層52×52的預(yù)測(cè)層來(lái)提升對(duì)小目標(biāo)的檢測(cè)能力,另外還在主干網(wǎng)絡(luò)引入了殘差模塊提高網(wǎng)絡(luò)的檢測(cè)能力,但是該算法依舊存在著模型參數(shù)量較大且針對(duì)輸入模糊圖像檢測(cè)能力不足的問題。薛金林等[21]提出了一種基于改進(jìn)Faster R-CNN和SSRN-DeblurNet的兩階段檢測(cè)方法,有效解決了農(nóng)田中由于模糊障礙物產(chǎn)生的問題,但該算法在訓(xùn)練階段,F(xiàn)aster R-CNN和SSRN-DeblurNet相互獨(dú)立進(jìn)行訓(xùn)練,過(guò)程較為復(fù)雜且耗時(shí)。目前針對(duì)果園環(huán)境下,解決農(nóng)業(yè)機(jī)器人在行進(jìn)間作業(yè)時(shí)產(chǎn)生運(yùn)動(dòng)模糊圖像的一階段去模糊檢測(cè)算法研究依舊不充分。

        為了解決上述問題,本研究提出將改進(jìn)的DeblurGAN-v2去模糊網(wǎng)絡(luò)和YOLOv5s目標(biāo)檢測(cè)網(wǎng)絡(luò)相融合,得到D2-YOLO一階段去模糊識(shí)別網(wǎng)絡(luò)。將模糊圖像轉(zhuǎn)換為相對(duì)清晰的圖像再進(jìn)行檢測(cè),以提高實(shí)際目標(biāo)檢測(cè)過(guò)程精度。

        1 網(wǎng)絡(luò)分析與改進(jìn)

        1.1 DeblurGAN-v2去模糊網(wǎng)絡(luò)

        圖1為DeblurGAN-v2的網(wǎng)絡(luò)結(jié)構(gòu)圖,該網(wǎng)絡(luò)由生成器和鑒別器組成[22-23]。生成器接收噪聲作為輸入并生成樣本,鑒別器接收真實(shí)樣本和生成樣本并嘗試將兩者進(jìn)行區(qū)分。生成器的目標(biāo)是通過(guò)生成無(wú)法與真實(shí)樣本區(qū)分開來(lái)的感知說(shuō)服樣本來(lái)迷惑判別器。兩者始終處于最大最小博弈狀態(tài),直到判別器無(wú)法區(qū)分生成樣本和真實(shí)樣本,達(dá)到納什平衡。其中,生成器使用的骨干網(wǎng)絡(luò)為Inception-ResNet-v2或MobileNet及其變形。DeblurGAN-v2首次將特征金字塔網(wǎng)絡(luò)(FPN)[24]的思想引入到圖像去模糊中。FPN可以提高網(wǎng)絡(luò)的多尺度特征融合能力,實(shí)現(xiàn)準(zhǔn)確率和速度的平衡,其結(jié)構(gòu)如圖2所示。

        圖1 DeblurGAN-v2結(jié)構(gòu)圖

        圖2 特征金字塔網(wǎng)絡(luò)(FPN)框架

        1.2 YOLOv5s目標(biāo)檢測(cè)網(wǎng)絡(luò)

        YOLOv5s網(wǎng)絡(luò)參數(shù)量較少、部署成本低,有利于快速部署至農(nóng)業(yè)機(jī)器人,適用于中大型目標(biāo)障礙物檢測(cè)。YOLOv5s的網(wǎng)絡(luò)結(jié)構(gòu)圖如圖3所示,圖中,Conv表示卷積層(Convolution),CBL綜合模塊由卷積層、批量歸一化層(Batch norm)和激活函數(shù)(Leaky ReLU)組成,CSP(Cross stage partial)表示跨階段部分的結(jié)構(gòu),Residual unit表示殘差模組件,Concat表示通道數(shù)的特征融合。

        圖3 YOLOv5s結(jié)構(gòu)圖

        該網(wǎng)絡(luò)工作流程為:首先對(duì)輸入圖像進(jìn)行自適應(yīng)圖像縮放,其次通過(guò)骨干網(wǎng)絡(luò)(Backbone)對(duì)輸入圖像進(jìn)行特征提取,然后經(jīng)過(guò)頸部網(wǎng)絡(luò)(Neck)對(duì)這些大小不同的特征圖進(jìn)行分層特征融合,最后在預(yù)測(cè)層(Prediction)上對(duì)多個(gè)特征圖進(jìn)行同時(shí)分類和位置回歸。

        1.3 骨干網(wǎng)絡(luò)改進(jìn)

        YOLOv5s使用CSPDarknet作為骨干網(wǎng)絡(luò),其優(yōu)點(diǎn)是不僅增強(qiáng)了卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力,還降低了計(jì)算瓶頸和內(nèi)存成本,同時(shí)保持了準(zhǔn)確性和輕量級(jí)。但是,CSPDarknet參數(shù)量依舊存在可優(yōu)化空間,本研究將CSPDarknet中的標(biāo)準(zhǔn)卷積替換為深度可分離卷積,并將其用作融合網(wǎng)絡(luò)。

        如圖4所示,標(biāo)準(zhǔn)卷積過(guò)程是對(duì)每個(gè)通道的輸入特征圖和對(duì)應(yīng)的卷積核進(jìn)行卷積運(yùn)算,然后將它們相加輸出特征。計(jì)算量Q1為

        圖4 標(biāo)準(zhǔn)卷積和深度可分離卷積

        (1)

        式中Dk——卷積核大小

        M、N——輸入、輸出數(shù)據(jù)通道數(shù)

        Dw、Dh——輸出數(shù)據(jù)長(zhǎng)度和寬度

        深度可分離卷積將標(biāo)準(zhǔn)卷積中的一步運(yùn)算改為3×3深度卷積和1×1逐點(diǎn)卷積,計(jì)算量Q2為

        (2)

        因此,深度可分離卷積與標(biāo)準(zhǔn)卷積的計(jì)算量比為

        (3)

        通常Dk設(shè)為3,改進(jìn)后網(wǎng)絡(luò)計(jì)算量和參數(shù)實(shí)際減少約1/3。

        1.4 損失函數(shù)改進(jìn)

        YOLOv5s的輸出預(yù)測(cè)端使用GIoU_Loss作為邊界框回歸損失函數(shù),得到

        (4)

        式中AC——邊界框和真實(shí)框的最小外接矩陣面積

        u——邊界框和真實(shí)框的并集

        當(dāng)真實(shí)框包含邊界框時(shí),兩者的最小外接矩陣面積和并集相等,此時(shí)GIoU退化為IoU,無(wú)法區(qū)分兩者的相對(duì)位置。

        本文使用CIoU_Loss代替GIoU_Loss,CIoU_Loss取邊界框和真實(shí)框的中心,求兩者的歐氏距離,并引入權(quán)重α來(lái)確定邊界框和真實(shí)框的縱橫比,計(jì)算式為

        (5)

        (6)

        式中ρ——邊界框與真實(shí)框中心點(diǎn)歐氏距離

        c——邊界框與真實(shí)框的最外接矩陣對(duì)角線長(zhǎng)度

        wgt、hgt——真實(shí)框?qū)?、?/p>

        w、h——邊界框?qū)挕⒏?/p>

        v——衡量邊界框和真實(shí)框之間縱橫比一致性參數(shù)

        采用CIoU_Loss作為邊界框回歸損失函數(shù)后,一定程度上提高了預(yù)測(cè)速度和準(zhǔn)確率。

        1.5 D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)

        為了解決模糊圖像給果園障礙物檢測(cè)帶來(lái)的影響,本研究將DeblurGAN-v2去模糊網(wǎng)絡(luò)與YOLOv5s目標(biāo)檢測(cè)網(wǎng)絡(luò)相融合。與圖像去模糊和目標(biāo)檢測(cè)兩步走的方法不同,本研究提出的D2-YOLO去模糊檢測(cè)網(wǎng)絡(luò)屬于一階段檢測(cè)網(wǎng)絡(luò)。D2-YOLO僅使用改進(jìn)的CSPDarknet作為骨干網(wǎng)絡(luò)進(jìn)行特征提取,采用特征金字塔思想將多個(gè)不同的特征圖進(jìn)行層級(jí)特征融合,充分利用去模糊后的清晰圖像進(jìn)行預(yù)測(cè),提高了圖像恢復(fù)質(zhì)量和利用率。圖5為D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)。

        圖5 D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)圖

        整個(gè)網(wǎng)絡(luò)分為前端、中部和末端3部分。當(dāng)網(wǎng)絡(luò)前端接收到輸入圖像經(jīng)過(guò)自適應(yīng)圖像縮放生成416像素×416像素的幀圖像后,通過(guò)卷積和多個(gè)殘差塊進(jìn)行下采樣操作,最終得到13像素×13像素的幀圖像,此部分在YOLOv5s中將采用多尺度特征融合并進(jìn)行預(yù)測(cè)。但在本文中為了恢復(fù)圖像自然信息,會(huì)在網(wǎng)絡(luò)的中間階段進(jìn)行反卷積及上采樣操作,將圖像尺寸重新恢復(fù)成416像素×416像素并得到清晰的RGB三通道圖像,完成去模糊操作。在網(wǎng)絡(luò)末端,首先采用Focus切片操作將恢復(fù)過(guò)后的清晰圖像進(jìn)行處理,再次通過(guò)卷積和多個(gè)殘差塊進(jìn)行下采樣操作,將3個(gè)階段的相同尺寸幀圖像進(jìn)行特征融合,極大增強(qiáng)了圖像自然信息的特征。

        1.6 D2-YOLO訓(xùn)練方法

        首先將采集的圖像進(jìn)行運(yùn)動(dòng)模糊處理。假設(shè)原始圖像為σ(x,y),模糊圖像為φ(x,y),則生成圖像為

        (7)

        式中Crandx——隨機(jī)方向x上的投影

        Crandy——隨機(jī)方向y上的投影

        T——模糊時(shí)間n——隨機(jī)噪聲

        網(wǎng)絡(luò)分3個(gè)階段進(jìn)行訓(xùn)練。第1階段,單獨(dú)對(duì)去模糊過(guò)程進(jìn)行訓(xùn)練,即只用網(wǎng)絡(luò)的前端和中部,價(jià)值函數(shù)V(G,D)為

        (8)

        式中D(x)——取判別器均方根誤差

        第2階段,固定網(wǎng)絡(luò)前端和中部的參數(shù),不再進(jìn)行去模糊,只訓(xùn)練網(wǎng)絡(luò)的末端部分,即目標(biāo)檢測(cè)階段。目標(biāo)檢測(cè)階段總損失函數(shù)為

        Lobjdet=Lcen+Lwh+Lcat+Lcon

        (9)

        其中

        (10)

        (11)

        (12)

        (13)

        式中Lcen——預(yù)測(cè)中心坐標(biāo)損失值

        Lwh——預(yù)測(cè)邊界框?qū)捄透邠p失值

        Lcat——預(yù)測(cè)類別損失值

        Lcon——預(yù)測(cè)置信度損失值

        λcoord——位置損失系數(shù)

        pi(c)——目標(biāo)類別概率

        Ci——第1個(gè)網(wǎng)格中邊界框置信度

        第3階段,總體訓(xùn)練。在前面2個(gè)階段完成之后,對(duì)整個(gè)網(wǎng)絡(luò)再進(jìn)行訓(xùn)練??傮w損失函數(shù)為

        Ltotal=Lobjdet+D(x)

        (14)

        訓(xùn)練好的網(wǎng)絡(luò)經(jīng)過(guò)圖像計(jì)算會(huì)產(chǎn)生4種結(jié)果,分別對(duì)應(yīng)去模糊后416×416的清晰圖像,以及預(yù)測(cè)階段為13×13、26×26、52×52的目標(biāo)檢測(cè)結(jié)果。如果不需要中間去模糊結(jié)果,可以對(duì)中間圖像的輸出進(jìn)行屏蔽,只使用最終的檢測(cè)結(jié)果。

        2 試驗(yàn)

        2.1 圖像采集

        圖像數(shù)據(jù)采集場(chǎng)景由兩部分構(gòu)成,一部分是距離江蘇大學(xué)5 km處的果園,另一部分是江蘇大學(xué)校內(nèi)梅園。在2處場(chǎng)景中共拍攝了2 600幅原始圖像,其中清晰圖像1 500幅,模糊圖像1 100幅,自制模糊圖像1 500幅,共計(jì)4 100幅。圖像由7種果園典型障礙物組成:樹木、行人、電線桿、指示牌、支撐架、垃圾桶和圍欄,其中,樹木種類由桂花樹、臘梅樹、紫薇樹、紅楓樹、櫻花樹和桑樹等喬木以及金森女貞球等灌木組成。

        2.2 試驗(yàn)平臺(tái)

        本試驗(yàn)訓(xùn)練處理平臺(tái)所使用的計(jì)算機(jī)GPU為NVIDIA RTX 4000,CPU為Intel i9 10900K,內(nèi)存為64 GB。計(jì)算機(jī)操作系統(tǒng)為Ubuntu 20.04,搭載CUDA 11.1.1并行計(jì)算框架和CUDNN 8.2.1深度學(xué)習(xí)加速庫(kù)。采用Python 3.7編程語(yǔ)言在Pytorch深度學(xué)習(xí)框架上進(jìn)行試驗(yàn)。果園移動(dòng)機(jī)器人搭載ZED相機(jī)作為果園場(chǎng)景圖像采集設(shè)備,同時(shí)配套軟件工具SDK和OpenCV庫(kù)。

        以BUNKER型履帶式移動(dòng)機(jī)器人底盤為基礎(chǔ),配備本試驗(yàn)使用的便攜式計(jì)算機(jī)、攝像頭等設(shè)備,形成圖像采集移動(dòng)平臺(tái)。圖像采集平臺(tái)和采集場(chǎng)景如圖6所示。

        圖6 圖像采集平臺(tái)及采集場(chǎng)景

        2.3 模型訓(xùn)練

        訓(xùn)練模型采用YOLO數(shù)據(jù)集格式,其中訓(xùn)練數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集和測(cè)試數(shù)據(jù)集比例為8∶1∶1。使用LabelImg軟件對(duì)7類目標(biāo)的最終訓(xùn)練集進(jìn)行標(biāo)注。訓(xùn)練時(shí),采集的圖像尺寸先進(jìn)行padding操作,然后尺寸調(diào)整為416像素×416像素作為輸入圖像,較小的輸入尺寸可以加快網(wǎng)絡(luò)的計(jì)算速度,將圖像順時(shí)針旋轉(zhuǎn)90°、180°,然后裁剪、翻轉(zhuǎn)、隨機(jī)拉伸、隨機(jī)扭曲、添加馬賽克干擾等方法達(dá)到數(shù)據(jù)增強(qiáng)的目的。訓(xùn)練參數(shù)為:批量大小32、動(dòng)量0.97、初始學(xué)習(xí)率0.005、衰減系數(shù)0.9。

        2.4 結(jié)果分析

        表1和圖7為不同去模糊算法性能和結(jié)果對(duì)比,去模糊評(píng)估指標(biāo)包括峰值信噪比(PSNR)和結(jié)構(gòu)相似度(SSIM)[25]。

        從表1可以看出,D2-YOLO的去模糊用時(shí)約為SRN-Deblur的1/10,約為SSRN-DeblurNet的1/3。在去模糊時(shí)間相近的情況下,整體性能優(yōu)于DeblurGAN和DeblurGAN-v2。從圖7可以看出,與模糊圖像相比,D2-YOLO在一定程度上還原了圖像原有的自然信息,使圖像更加清晰。在比較模型中,去模糊結(jié)果優(yōu)于DeblurGAN和DeblurGAN-v2,雖與SRN-Deblur結(jié)果相似,但速度快了將近10倍。

        表1 不同去模糊算法性能對(duì)比

        圖7 不同去模糊算法去模糊結(jié)果對(duì)比

        本文所提出的D2-YOLO網(wǎng)絡(luò)不僅可以去除圖像模糊,而且可以同時(shí)對(duì)障礙物進(jìn)行識(shí)別,為驗(yàn)證D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)檢測(cè)效果,分別與分步訓(xùn)練的DeblurGAN-v2+YOLOv5s、DeblurGAN-v2+Faster-RCNN以及YOLOv5s檢測(cè)網(wǎng)絡(luò)用同樣的數(shù)據(jù)和訓(xùn)練參數(shù)進(jìn)行訓(xùn)練,為防止過(guò)擬合,在代碼中設(shè)置30 Epoch收斂停止訓(xùn)練。評(píng)價(jià)指標(biāo)包括準(zhǔn)確率、召回率、F1值[26]。

        訓(xùn)練完成后,使用果園障礙物數(shù)據(jù)集中的測(cè)試集圖像測(cè)試各個(gè)模型的性能,結(jié)果如表2所示。從表2可以看出,D2-YOLO一階段去模糊識(shí)別網(wǎng)絡(luò)對(duì)果園障礙物進(jìn)行檢測(cè)時(shí),準(zhǔn)確率比DeblurGAN-v2+YOLOv5s、DeblurGAN-v2+Faster-RCNN以及YOLOv5s分別提高1.36、6.82、9.54個(gè)百分點(diǎn),召回率分別提高2.7、5.65、9.99個(gè)百分點(diǎn)。同時(shí),D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)參數(shù)量比DeblurGAN-v2+YOLOv5s小29.5%,比DeblurGAN-v2+Faster-RCNN小92.91%。在檢測(cè)速度方面,D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)比DeblurGAN-v2+YOLOv5s快22.05%,比DeblurGAN-v2+Faster-RCNN快183.55%。雖然D2-YOLO在參數(shù)量以及檢測(cè)速度方面遜色于YOLOv5s,但其準(zhǔn)確率、召回率、F1值均高于YOLOv5s,在兼顧去模糊功能的前提下,模型的參數(shù)量相較于文獻(xiàn)[27]方法縮小77.97%,很大程度上解決了針對(duì)模糊圖像檢測(cè)精度較差的問題,表明D2-YOLO去模糊識(shí)別網(wǎng)絡(luò)具有更優(yōu)秀的性能。圖8為不同模型平均精度均值(mAP)變化曲線。

        圖8 不同模型平均精度均值(mAP)變化曲線

        表2 不同模型檢測(cè)結(jié)果對(duì)比

        為進(jìn)一步驗(yàn)證本文所提方法的優(yōu)越性,于真實(shí)果園和江蘇大學(xué)校內(nèi)共選取12處不同場(chǎng)景進(jìn)行檢測(cè)試驗(yàn)。將試驗(yàn)分為2個(gè)類別:

        第1類,在江蘇大學(xué)校內(nèi)選取3處場(chǎng)景用以模擬真實(shí)果園場(chǎng)景檢測(cè),如圖9a~9c所示。從圖中可以看出,YOLOv5s在接收到模糊圖像后,對(duì)被遮擋住的行人和部分樹木以及電線桿出現(xiàn)漏檢和誤檢現(xiàn)象,但使用D2-YOLO進(jìn)行去模糊后的目標(biāo)檢測(cè),有效解決了這一問題。

        圖9 不同場(chǎng)景下不同模型的檢測(cè)結(jié)果對(duì)比

        第2類,真實(shí)果園中選取9處不同場(chǎng)景進(jìn)行試驗(yàn),其中3處場(chǎng)景中的樹種為金森女貞球等灌木,如圖9d~9f所示,6處場(chǎng)景中的樹種為桂花樹、臘梅樹、紫薇樹、紅楓樹、桑樹等喬木,如圖9g~9l所示,可以看出,無(wú)論是喬木還是灌木,YOLOv5s在接收到模糊圖像后,對(duì)支撐桿和部分樹木均出現(xiàn)誤檢和漏檢現(xiàn)象,對(duì)圍欄位置檢測(cè)也不夠準(zhǔn)確,但是,同樣使用D2-YOLO進(jìn)行去模糊后的目標(biāo)檢測(cè),極大程度上解決了輸入模糊圖像造成的漏檢和誤檢問題,與模擬場(chǎng)景下的檢測(cè)結(jié)果一致,充分驗(yàn)證了本文所提方法的優(yōu)越性。

        3 結(jié)論

        (1)提出了一種D2-YOLO一階段去模糊識(shí)別網(wǎng)絡(luò)。為了減少融合網(wǎng)絡(luò)的參數(shù)量并提高檢測(cè)速度,首先將YOLOv5s骨干中使用的標(biāo)準(zhǔn)卷積替換為深度可分離卷積,并使用CIoU_Loss作為邊界框回歸損失函數(shù)。融合網(wǎng)絡(luò)使用改進(jìn)的CSPDarknet進(jìn)行特征提取,將模糊圖像恢復(fù)圖像原始自然信息后,結(jié)合多尺度特征進(jìn)行模型預(yù)測(cè)。

        (2)將D2-YOLO一階段去模糊識(shí)別網(wǎng)絡(luò)與DeblurGAN-v2+YOLOv5s、DeblurGAN-v2+Faster-RCNN、YOLOv5s模型進(jìn)行對(duì)比試驗(yàn),結(jié)果表明D2-YOLO具有更好的檢測(cè)性能,準(zhǔn)確率和召回率分別達(dá)到91.33%和89.12%,且網(wǎng)絡(luò)參數(shù)量更少,極大程度上解決了相機(jī)抖動(dòng)和物體相對(duì)運(yùn)動(dòng)等原因所導(dǎo)致的圖像模糊給障礙物檢測(cè)帶來(lái)干擾的問題,能夠滿足果園環(huán)境下作業(yè)要求。

        猜你喜歡
        檢測(cè)
        QC 檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        “有理數(shù)的乘除法”檢測(cè)題
        “有理數(shù)”檢測(cè)題
        “角”檢測(cè)題
        “幾何圖形”檢測(cè)題
        欧美巨大性爽| 精品高朝久久久久9999| 日本真人做爰免费视频120秒| 扒开双腿疯狂进出爽爽爽视频| 久久久国产精品福利免费| 精品国产三级国产av| 日韩乱码中文字幕在线| 国产真实乱对白精彩久久老熟妇女 | 国产欧美日本亚洲精品一4区| 男生自撸视频在线观看| 麻豆国产精品va在线观看不卡| 97久久香蕉国产线看观看| 久久精品免视看国产盗摄 | 国内揄拍国内精品人妻久久| 久久久久亚洲av成人网人人网站 | 夫妻免费无码v看片| 国产精品欧美成人| 国产欧美亚洲另类第一页| 国产一区二区黑丝美胸| 久久综合亚洲色一区二区三区 | 国产一区二区精品久久凹凸| 精品国产一区二区三区av新片| 97久久国产亚洲精品超碰热| 国产乱子伦视频大全| 日韩欧美亚洲国产一区二区三区| 日韩五码一区二区三区地址| 三年的高清电影免费看| 国产成人国产在线观看入口| 精品蜜桃av一区二区三区| 日本道免费一区二区三区日韩精品| 久久精品国产精品国产精品污| 亚洲AV永久天堂在线观看| 国产一区二区三区成人av| 亚洲av综合色区| 中文字幕一区二区三区久久网站 | 亚洲1区第2区第3区在线播放| 国产精品天堂avav在线| 亚洲中文字幕乱码| 免费国产自拍视频在线观看| 女人18毛片a级毛片| 欧美日韩久久久精品a片|