亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        對基于深度學(xué)習(xí)的無人機航拍車輛檢測研究

        2022-05-03 08:54:04王飛
        中國科技縱橫 2022年7期
        關(guān)鍵詞:航拍卷積樣本

        王飛

        (包頭職業(yè)技術(shù)學(xué)院,內(nèi)蒙古包頭 014030)

        0.引言

        伴隨著城市的快速發(fā)展,市內(nèi)車輛日漸增多,給道路交通監(jiān)管工作開展帶來了較大難度。因為依靠固定監(jiān)控設(shè)備進行道路監(jiān)控,由于檢測場景有限,將導(dǎo)致監(jiān)管盲區(qū)的產(chǎn)生,不利于監(jiān)管活動的開展。在無人機航拍技術(shù)逐步成熟的條件下,人們開始嘗試?yán)脽o人機進行車輛檢測,依靠其高靈活性、高分辨率、成本低等優(yōu)勢解決道路監(jiān)管覆蓋面有限的問題。但實際應(yīng)用該技術(shù),仍然面臨在復(fù)雜環(huán)境背景下提取車輛特征的問題,需引入深度學(xué)習(xí)算法提高檢測精度,有效增強技術(shù)的實用性。

        1.深度學(xué)習(xí)算法概述

        在機器學(xué)習(xí)領(lǐng)域,深度學(xué)習(xí)為重要分支,能夠通過多層表示反映數(shù)據(jù)間的復(fù)雜關(guān)系,建立的模型在圖像識別、語言處理等方面均能體現(xiàn)一定優(yōu)勢。在車輛檢測方面,卷積神經(jīng)網(wǎng)絡(luò)可以為機器訓(xùn)練提供有力支持,使深度學(xué)習(xí)算法在車輛數(shù)據(jù)集處理方面獲得更優(yōu)性能?,F(xiàn)階段,常用的深度學(xué)習(xí)算法包含RCNN、RPN、YOLO等。其中,RCNN為基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法,可以通過選擇性搜索對候選區(qū)的深度特征進行提取,然后利用SVM分類。采用該算法能夠達到較高準(zhǔn)確度,但重復(fù)計算量較大,造成檢測實踐過長。采用RPN算法能夠與卷積神經(jīng)網(wǎng)絡(luò)共享結(jié)構(gòu)參數(shù),通過全連接層完成目標(biāo)分類提高模型訓(xùn)練和檢測速度[1]。但在車輛檢測方面,航拍圖像較為復(fù)雜,造成網(wǎng)絡(luò)在小目標(biāo)檢測方面誤差較大。而YOLO算法能夠?qū)z測任務(wù)進行回歸處理,完成航拍圖像中目標(biāo)位置坐標(biāo)、類別概率的整體計算,在達到較高檢測速率的同時,提高算法準(zhǔn)確率。運用該算法,將圖像一次性劃分為多個區(qū)域,完成網(wǎng)絡(luò)特征參數(shù)預(yù)測,然后通過分配相應(yīng)權(quán)重和更新訓(xùn)練參數(shù)實施快速訓(xùn)練,不會出現(xiàn)對同一目標(biāo)進行重復(fù)檢測的問題。

        2.無人機航拍車輛檢測分析

        2.1 航拍車輛檢測問題

        通過無人機搭載的航拍設(shè)備進行車輛檢測,需要完成現(xiàn)實場景拍攝,在道路環(huán)境復(fù)雜、天氣多變等條件下,將給車輛邊緣、陰影、等特征提取帶來困難。而航拍擁有較廣的輻射范圍,使得圖像中包含各種復(fù)雜環(huán)境,在車輛檢測方面容易導(dǎo)致漏檢和誤檢情況的發(fā)生,在檢測算法選取方面要求達到較高判別能力,確保結(jié)果達到較高精度[2]。而采用傳統(tǒng)目標(biāo)檢測算法,將根據(jù)滑動窗口大小進行候選區(qū)域選擇,然后進行特征提取和模型訓(xùn)練。從原圖中提取較多候選區(qū),并對每個區(qū)域進行特征提取和分類,將存在重復(fù)計算問題。在圖片中車輛占比較小,同時目標(biāo)多且密集的情況下也容易出現(xiàn)漏檢問題。而車輛的類型較多,部分外觀相似,容易引發(fā)誤檢問題。受復(fù)雜背景因素干擾,目標(biāo)檢測可能無法準(zhǔn)確提取車輛特征,并導(dǎo)致大量參數(shù)冗余,繼而導(dǎo)致車輛檢測精度和速度無法道路交通實時監(jiān)管要求。將YOLOv4當(dāng)成是基礎(chǔ)網(wǎng)絡(luò),能夠進行背景樣本訓(xùn)練,通過數(shù)據(jù)增廣方式區(qū)分檢測目標(biāo)和背景,提高算法抗干擾能力。通過分析選取目標(biāo)檢測框架,然后在主干網(wǎng)添加卷積實現(xiàn)目標(biāo)特征深度融合,可以在不影響模型復(fù)雜度基礎(chǔ)上取得理想檢測效果。

        2.2 影響檢測精度的因素

        YOLOv4建立在原YOLO算法基礎(chǔ)上,可以提供簡單、高效模型,在輸出的目標(biāo)框中完成局部回歸模塊構(gòu)建,將車輛淺層特征和深層特征融合,解決大尺寸航拍圖像多尺度目標(biāo)檢測問題[3]。從影響檢測精度的各項因素上來看,首先存在訓(xùn)練樣本缺乏問題。為此,需要人為擴充數(shù)據(jù)集,完成原圖像切分和多角度旋轉(zhuǎn),生成更多樣本數(shù)據(jù)。其次,無人機多在高空飛行和拍攝,圖像輻射范圍廣,目標(biāo)尺寸、角度差異顯著,無法與其他物體有效區(qū)分。為解決問題,需要先在淺層特征上進行檢測,對不同層特征圖進行融合,獲得足夠語義信息。完成圖像切分后分別輸入模型進行結(jié)果拼接,依靠非最大值抑制法將重復(fù)結(jié)果去除,能夠提高檢測精度。此外,在實際算法應(yīng)用過程中選用Visdrone2019數(shù)據(jù)集,而YOLOv4錨框?qū)?yīng)數(shù)據(jù)集為COCO,在尺寸上與車輛存在明顯差異。采用卷積神經(jīng)網(wǎng)絡(luò)在感受野大時適用于檢測大目標(biāo),只有在感受野小時才能用于小目標(biāo)檢測。采用YOLOv4將在38×38和19×19特征圖上對2個分支進行檢測,由于感受野較大,將影響車輛檢測精度[4]。為解決問題需要采用MLP卷積層加強特征抽象表達,在各局部感受野中完成復(fù)雜運算,有效改善網(wǎng)絡(luò)檢測效果。

        3.基于深度學(xué)習(xí)的無人機航拍車輛檢測

        3.1 目標(biāo)檢測框架建立

        算法核心就是將車輛檢測看成是回歸問題,需要先完成原始圖像尺寸縮放,劃分為多個區(qū)域,由網(wǎng)格單元完成物體檢測,對邊界框和框的置信度進行預(yù)測。單元格中無檢測目標(biāo),置信度為0,否則分?jǐn)?shù)為預(yù)測框與真實標(biāo)簽框交集和并集的比值。各邊界框包含中心相對邊界的偏移量和邊界框相對圖像的寬、高,并包含置信度預(yù)測值。在建立的網(wǎng)絡(luò)中,包含多個卷積層和連接層,前者用于提取特征,后者用于分類和坐標(biāo)預(yù)測。在YOLOv4中,主干網(wǎng)為CSPDarknet53,激活函數(shù)為更加光滑的Mish,可以通過融合卷積層和多個殘差網(wǎng)絡(luò)提高特征提取能力,減少數(shù)據(jù)計算量。添加SPP結(jié)構(gòu),在不同大小卷積核下進行最大池化,完成多尺度融合,獲得多維度特征,減少模型訓(xùn)練時間。采用Mosaic數(shù)據(jù)增強法完成圖像拼接,對物體背景進行檢測,完成模型抗干擾訓(xùn)練。完成各卷積層歸一化處理,加快模型收斂,能夠避免模型出現(xiàn)過擬合問題。采用先驗框測量,可以將全連接層去除,直接通過卷積進行邊界框預(yù)測,獲得中心位置明確的特征圖。在車輛錨點框生成階段,可以先在航拍圖像中隨機選取一個點作為原始聚類中心,對其他數(shù)據(jù)點進行遍歷,根據(jù)與聚類中心的距離選擇距離最近的樣本點,添加到聚類中心集合中[5]。將獲得的N個聚類中心當(dāng)成是標(biāo)準(zhǔn)點,對剩余樣本距離進行分析,在每次完成樣本分配后需要重新計算。為各錨點分配相應(yīng)尺寸能夠生成錨點框。根據(jù)面積長寬比,能夠獲得不同尺寸先驗框,將原始圖像分割為尺寸不同的特征圖,選取重疊度最大的作為錨點框。從圖像單元網(wǎng)格各角點向真實框逼近,能夠生成精準(zhǔn)的候選框。

        3.2 多尺度特征融合

        在特征圖檢測方面,考慮經(jīng)池化后小目標(biāo)的特征數(shù)較少,還應(yīng)實現(xiàn)多尺度特征融合檢測,確保獲得足夠語義信息。具體來講,就是在YOLOv4中添加傳輸層,同時包含低分辨率和高分辨率特征。通過完成特征圖特征變換,將分辨率從26×26變?yōu)?3×13,使通道數(shù)提高4倍,對輸出特征圖進行拼接,可以通過檢測改善小目標(biāo)檢測性能。在YOLOv4中包含9種尺寸的先驗框,根據(jù)感受選擇對應(yīng)尺寸先驗框,能夠提高檢測精度。利用各單元格對邊界框進行預(yù)測時還需完成多個特征圖檢測,然后對結(jié)果進行匯總。但為避免給算法效率帶來影響,需要直接通過傳輸層進行不同尺寸特征圖連接,增強模型感知能力。通過增加采樣倍數(shù),能夠?qū)Υ蟪叽缒繕?biāo)進行檢測,如針對13×13特征圖進行采樣,采用插值法將產(chǎn)生較多冗余信息,直接在單通道上進行像素值映射,可以提高分辨率對輸出圖像尺寸進行擴充。經(jīng)過變換后完成淺層和深層特征圖融合,能夠疊加生成新特征圖。在航拍車輛檢測中,需要檢測的目標(biāo)尺寸存在明顯變化,為成功檢測小目標(biāo)對象,應(yīng)對多尺度特征圖進行融合,減少預(yù)測框生成,在保證檢測效率的同時,提高檢測精度。

        3.3 網(wǎng)格結(jié)構(gòu)與數(shù)據(jù)處理

        按照上述思路對YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)進行改進,需要在主干網(wǎng)倍降采樣最大池化層后增加1×1卷積層,輔助網(wǎng)絡(luò)高效提取目標(biāo)特征。通過特征融合可以獲得細粒度的檢測層,在避免給模型復(fù)雜度帶來影響的同時由深到淺地進行特征采樣,獲得準(zhǔn)確的位置和細節(jié)信息,加強小目標(biāo)檢測提供支持。將特征圖上的信息當(dāng)作基準(zhǔn)生成候選框,需對無人機航拍獲得的數(shù)據(jù)集進行預(yù)處理,通過計算機完成圖像各像素點對比度、噪聲比等參數(shù)分析,通過增強和變換等處理為特征提取提供便利。在航拍數(shù)據(jù)集中,每張圖像都帶有位置信息,平均包含50個目標(biāo),要求檢測器可以在不同角度和尺寸下進行圖像切分處理。在圖像分辨率較高的情況下,直接輸入將造成模型檢測變慢。通過圖像切分方式進行處理,獲得的圖像存在15%重疊區(qū),確保各區(qū)域能夠得到檢測。但采用該方法可能引起重復(fù)檢測問題,還應(yīng)合理進行圖像拼接,以免重復(fù)進行圖像檢測。在YOLOv4中,采用Miхup算法進行圖片拼接處理,加強背景檢測的同時,可以做到準(zhǔn)確定位。在此基礎(chǔ)上,還應(yīng)采取有效數(shù)據(jù)增廣方法提高模型性能,加快模型訓(xùn)練速度。具體來講,就是聯(lián)合采用Mosaic和Miхup方式進行數(shù)據(jù)增廣,每次完成5張訓(xùn)練圖隨機讀取,并通過Mosaic完成4張圖的拼接,構(gòu)成新樣本后與最后1張訓(xùn)練圖通過Miхup方式混疊,生成最終的檢測樣本。

        3.4 模型訓(xùn)練過程

        在模型訓(xùn)練階段,需要加入背景樣本獲得更高識別率,增強網(wǎng)絡(luò)魯棒性。在停車場等場景中對不包含目標(biāo)車輛的背景圖進行拍攝,并通過剪裁等方式獲得背景樣本,可以輔助模型加強誤檢區(qū)判定。通過生成權(quán)重文件,可以完成樣本測試,確保誤剪區(qū)域樣本大小接近原圖大小。將背景樣本和正常樣本以數(shù)據(jù)增廣方式進行混疊處理,能夠?qū)δP蜋z測能力進行鍛煉。具體來講,就是將隨機抽取訓(xùn)練樣本和背景樣本按照Miхup方法混合,生成新樣本中只保留訓(xùn)練樣本檢測框。完成背景樣本訓(xùn)練后,可以進行正常樣本訓(xùn)練,完成圖像切分和多尺度特征圖融合后,輸入到模型中確認(rèn)檢測效果。按照步驟,應(yīng)先完成航拍圖標(biāo)注,標(biāo)記位置信息,生成數(shù)據(jù)集。將圖像切分為尺寸固定的圖像,融合多尺度特征圖后進行模型調(diào)整,完成圖像切分、增廣處理后利用模型檢測。生成新特征圖后,利用模型重新檢測,完成圖像還原,可以輸出檢測結(jié)果。在公開數(shù)據(jù)集上進行預(yù)訓(xùn)練,通過融合訓(xùn)練完成數(shù)據(jù)量擴增,確保模型可以較好收斂,獲得更強的泛化性。將目標(biāo)框放大1.2倍后,對局部區(qū)域進行截取,壓縮為128×128,對坐標(biāo)值進行歸一化處理,獲得較強網(wǎng)絡(luò)魯棒性,有效提高檢測精度。

        3.5 檢測方法實驗分析

        在開展無人機航拍車輛檢測實驗時,選用JC-M15e型號的六旋翼無人機在道路上方實施低空巡檢,搭載半導(dǎo)體激光測距機、高分辨率紅外相機和光學(xué)變倍可見光相機,統(tǒng)一安置在三軸三光目標(biāo)定位吊艙中。訓(xùn)練服務(wù)器配備4×RTX2080Ti顯卡和2×Gold5218核心處理器,擁有128GB內(nèi)存和4TB機械硬盤。在數(shù)據(jù)處理上,配備Xavier NX設(shè)備,擁有6×Carmel ARM內(nèi)核和8GB LRDDR4內(nèi)存。使用的操作系統(tǒng)為Ubuntu18.04,搭載Darknet深度學(xué)習(xí)框架和Python等軟件。在檢測方法效果驗證上,利用1000張航拍圖像進行訓(xùn)練,并利用300張圖像進行測試。同時采用RCNN算法、YOLOv4和改進的YOLOv4算法進行檢測,可以確認(rèn)方法改進效果。根據(jù)檢測到目標(biāo)數(shù)量和總體目標(biāo)數(shù)量比值,能夠確定方法準(zhǔn)確率。為反映航拍圖像中被檢測車輛占車輛總數(shù)比重,需要對召回率指標(biāo)進行計算,如式(1):

        式中,Recall為召回率,F(xiàn)N為未被檢測到的車輛,T為實際車輛總數(shù)。從檢測結(jié)果來看,如表1所示,相較于傳統(tǒng)的RCNN算法僅能達到73%的準(zhǔn)確率,采用YOLOv4算法進行檢測準(zhǔn)確率可以達到80%,而利用改進后的算法能夠達到92%以上。由此可見,經(jīng)過改進后能夠有效降低漏檢概率,使原本無人機航拍車輛檢測中的不完整車輛難識別問題得到解決。在召回率方面,相較于RCNN算法,改進后的YOLOv4檢測方法也能獲得性能的明顯提升。而召回率能夠反映數(shù)據(jù)集查全性能,說明經(jīng)過改進后能夠使原本網(wǎng)絡(luò)無法識別完整車輛的問題得到改善。

        表1 無人機航拍車輛檢測方法實驗結(jié)果

        4.結(jié)語

        在無人機航拍車輛檢測方面,需要引入深度學(xué)習(xí)算法保證檢測效率和精度達到要求。結(jié)合航拍圖像特點對車輛檢測問題展開分析,掌握影響檢測精度的各項因素,可以合理選擇檢測算法,通過YOLOv4輸出目標(biāo)框,然后通過多尺度特征融合進行目標(biāo)特征提取。采用MLP卷積層優(yōu)化網(wǎng)格結(jié)構(gòu),并做好數(shù)據(jù)增廣等處理,能夠同時達到提高檢測精度和避免重復(fù)檢測的目標(biāo)。通過加強模型訓(xùn)練,并開展車輛檢測實驗,可以確定模型檢測精度能夠達到92%以上,能夠在車輛檢測領(lǐng)域獲得較好應(yīng)用前景。

        猜你喜歡
        航拍卷積樣本
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        航拍下的苗圃與農(nóng)場
        中外文摘(2021年10期)2021-05-31 12:10:40
        用樣本估計總體復(fù)習(xí)點撥
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        推動醫(yī)改的“直銷樣本”
        難忘的航拍
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        《航拍中國》美得讓人想哭
        隨機微分方程的樣本Lyapunov二次型估計
        陜西畫報航拍
        陜西畫報(2017年1期)2017-02-11 05:49:48
        中文字幕av在线一二三区| 色婷婷精品久久二区二区蜜臀av| 国产香港明星裸体xxxx视频| 美女视频黄的全免费视频网站| 久久久久成人亚洲综合精品| 伊人久久婷婷综合五月97色| 久久精品国产亚洲av高清三区| 99久久精品午夜一区二区| 成人无码午夜在线观看| 久久久亚洲精品免费视频| 青青草视频网站在线观看| 亚洲av片在线观看| 9191在线亚洲精品| 亚洲影院在线观看av| 嗯啊好爽高潮了在线观看| 亚洲国产美女精品久久久 | 成年女人永久免费看片| 日本熟妇精品一区二区三区| 99国产精品久久一区二区三区| 精品www日韩熟女人妻| 日日摸夜夜欧美一区二区| 国产大全一区二区三区| 国产激情一区二区三区在线蜜臀| 日韩国产精品一区二区三区| 国产免费爽爽视频在线观看| 亚洲V日韩V精品v无码专区小说 | 中文字幕亚洲欧美在线不卡| 久久国产精久久精产国| 亚洲日产AV中文字幕无码偷拍| 国产精品国产三级野外国产| 欧美 国产 综合 欧美 视频| 亚洲男人的天堂精品一区二区 | 24小时免费在线观看av| 人妻丝袜av中文系列先锋影音| 国产成人国产在线观看| 亚洲精品国产熟女久久久| 亚洲av成人片无码网站| 性夜影院爽黄a爽在线看香蕉| 亚洲一区二区视频蜜桃| 亚洲色一区二区三区四区| 日本午夜免费福利视频|