亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的目標(biāo)檢測算法綜述

        2023-12-29 00:00:00姚文清李盛王元陽
        科技資訊 2023年16期

        關(guān)鍵詞: 目標(biāo)檢測 計(jì)算機(jī)視覺 深度學(xué)習(xí) 檢測框架

        中圖分類號(hào): TP391.41;TP18 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1672-3791(2023)16-0185-04

        目標(biāo)檢測是數(shù)字圖像處理和計(jì)算機(jī)視覺的一個(gè)研究熱門方向,廣泛應(yīng)用于智能交通[1]、工業(yè)缺陷檢測[2]、無人輔助駕駛[3]、航空航天[4]、智慧農(nóng)業(yè)[5]等諸多領(lǐng)域,通過計(jì)算機(jī)視覺減少對(duì)人力資本的消耗,具有重要的現(xiàn)實(shí)意義。因此,目標(biāo)檢測也就成為了近年來理論和應(yīng)用的研究熱點(diǎn),它是圖像處理和計(jì)算機(jī)視覺學(xué)科的重要分支,也是智能監(jiān)控系統(tǒng)的核心部分,同時(shí)目標(biāo)檢測也是泛身份識(shí)別領(lǐng)域的一個(gè)基礎(chǔ)性的算法,對(duì)后續(xù)的人臉識(shí)別[6]、姿態(tài)估計(jì)[7]、目標(biāo)跟蹤[8]、圖像分割[9]等任務(wù)起著至關(guān)重要的作用。由于深度學(xué)習(xí)的廣泛運(yùn)用,目標(biāo)檢測算法得到了較為快速的發(fā)展,本文廣泛調(diào)研國內(nèi)外目標(biāo)檢測方法,主要介紹基于深度學(xué)習(xí)的兩種目標(biāo)檢測算法思路,分別為基于侯選窗口的Two-Stage目標(biāo)檢測算法和基于回歸的One-Stage 目標(biāo)檢測算法。

        1 基于候選窗口的Two-Stage 檢測算法

        1.1 R-CNN

        2014 年,RSHICK R 等人提出R-CNN[10],這是繼承傳統(tǒng)目標(biāo)檢測思想的R-CNN 系列的第一代算法,將目標(biāo)檢測作為一個(gè)分類問題來處理,先抽取一系列目標(biāo)的候選區(qū)域,再對(duì)候選區(qū)域進(jìn)行分類。具體如圖1所示。

        1.2 FastR-CNN

        2015年,GIRSHICK R提出了Fast R-CNN[11]檢測器,進(jìn)一步融合了R-CNN 和SPP-Net。在相同的網(wǎng)絡(luò)配置下,F(xiàn)ast R-CNN 可以讓我們同時(shí)訓(xùn)練檢測器和邊界框回歸器。Fast R-CNN 在VOC07 數(shù)據(jù)集上將mAP 從58.5%(RCNN)提升至70.0%,檢測速度超過R-CNN 的200 倍。具體如圖2 所示。

        1.3 FasterR-CNN

        2015年,REN S等人提出了Faster R-CNN[12]檢測模型,F(xiàn)asterR-CNN是第一個(gè)端到端深度學(xué)習(xí)的檢測算法,也是第一個(gè)接近實(shí)時(shí)的目標(biāo)檢測器。FasterR- CNN的主要貢獻(xiàn)是引入了區(qū)域提案網(wǎng)絡(luò)(RPN)從而允許幾乎所有的cost-free的區(qū)域提案。從R-CNN到FasterR-CNN,提案檢測、特征提取、邊界框回歸等目標(biāo)檢測系統(tǒng)中的大部分獨(dú)立區(qū)塊已經(jīng)逐步整合為統(tǒng)一的端到端學(xué)習(xí)框架。

        2 基于回歸的One-Stage 檢測算法

        2.1 YOLO

        2016 年,REDMON J 等人提出了一種單階段算法YOLO[13]目標(biāo)檢測器。YOLO 算法基于GoogleNet 網(wǎng)絡(luò)架構(gòu)思想,其核心思想是將目標(biāo)檢測轉(zhuǎn)化為一個(gè)回歸問題,利用整張圖像作為網(wǎng)絡(luò)的輸入,只需通過一個(gè)卷積神經(jīng)網(wǎng)絡(luò),就能獲得待測目標(biāo)邊界框的位置和所屬類別。

        2.2 YOLOv2

        2017 年,REDMON J 等人在YOLOv1 的基礎(chǔ)上做了很多改進(jìn),提出了YOLOV2[14]。重點(diǎn)解決YOLOV1在召回率、定位精準(zhǔn)度等方面存在的不足之處。與YOLOV1 是利用全連接層直接預(yù)測邊界框坐標(biāo)相比,YOLOV2 借鑒了FasterR-CNN 的理念,引入了Anchor機(jī)制。使用K-means 聚類的方法在訓(xùn)練集中聚類中計(jì)算出更好的Anchor 框,使算法的召回率大大提高。同時(shí)將淺層特征與深層特征相結(jié)合,結(jié)合圖像細(xì)粒度特征,對(duì)探測小尺寸目標(biāo)有所幫助。并提出DarkNet-19骨干網(wǎng)絡(luò)進(jìn)行更高效的特性提取。

        2.3 YOLOv3

        2018 年,REDMON J 等人在YOLOv2 的基礎(chǔ)上做了一些改進(jìn)提出了YOLOv3[15] 。借助殘差網(wǎng)絡(luò)(ResNet)的思想,YOLOv3 特征提取部分用Darknet-53 網(wǎng)絡(luò)結(jié)構(gòu)代替了原來的Darknet-19,Darknet-53 主要由1×1 和3×3 的卷積層組成,為了防止過度擬合每個(gè)卷積層后包含一個(gè)批量歸一化層和一個(gè)LeakyReLU。在Darknet-53 中,卷積層、批量歸一化層和LeakyReLU 共同組成基本卷積單元DBL。因?yàn)樵贒arknet-53 中共包含53 個(gè)這樣的DBL,所以稱其為Darknet-53。利用特征金字塔網(wǎng)絡(luò)(FPN)結(jié)構(gòu)實(shí)現(xiàn)了多尺度檢測,使用邏輯回歸分類方法代替了Softmax,在兼顧實(shí)時(shí)性的同時(shí)保證了目標(biāo)檢測的準(zhǔn)確性。

        2.4 YOLOv4

        2020 年,BOCHKOVSKIY A 等人在YOLOv3 的基礎(chǔ)上做出了進(jìn)一步創(chuàng)新,提出YOLOv4[16]。它將原來的Darknet53 結(jié)構(gòu)換為了CSPDarknet53,引入了路徑增強(qiáng)網(wǎng)絡(luò)PANet 進(jìn)行更好的特征融合和小目標(biāo)檢測,并繼承YOLOV3 Head 層偵測頭進(jìn)行多尺度預(yù)測。在改進(jìn)網(wǎng)狀結(jié)構(gòu)的基礎(chǔ)上,還引入了增加網(wǎng)絡(luò)模型檢測精度的各種Tricks 訓(xùn)練技巧。

        2.5 YOLOv5

        2020 年,Ultralytics 等人提出了YOLOv5,它是在YOLOv4 的基礎(chǔ)上添加了一些新的改進(jìn)思路,使其速度與精度都得到了極大的性能提升。在輸入端模型訓(xùn)練階段,提出了Mosaic 數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計(jì)算、自適應(yīng)圖片縮放等方法;在BackBone 網(wǎng)絡(luò),融合Focus 結(jié)構(gòu)與CSP 結(jié)構(gòu);在Neck 網(wǎng)絡(luò),在BackBone 與最后的Head 輸出層之間插入了FPN 和PAN 結(jié)構(gòu);在Head 輸出層,繼承了YOLOV4 的錨框機(jī)制,主要改進(jìn)了訓(xùn)練時(shí)的損失函數(shù)GIOU_LOSS,以及DIOU_NMS 被預(yù)測框篩選。

        3 算法性能比較與分析

        表1、表2 分別列出了本文所介紹的代表性目標(biāo)檢測算法基于固定骨干網(wǎng)絡(luò)在公開數(shù)據(jù)集檢測精度與檢測速度對(duì)比,其中公開數(shù)據(jù)集分別為PascalVOC 2007+2012 和MS COCO。考慮到不同算法檢測框架在相同數(shù)據(jù)集下的檢測能力不僅與算法網(wǎng)絡(luò)模型和圖片尺寸大小有關(guān),同時(shí)還與計(jì)算機(jī)硬件設(shè)備的有關(guān)。因此,在表1、表2 中所統(tǒng)計(jì)的檢測指標(biāo)為未完全統(tǒng)計(jì)指標(biāo),其中“—”代表未知。從表中數(shù)據(jù)可以看出,本文所介紹的兩階段算法檢測精度高,但實(shí)行性差;單階段目標(biāo)檢測算法兼具檢測精度和實(shí)時(shí)性。

        4 總結(jié)與思考

        本文以侯選窗口的Two-Stage 目標(biāo)檢測算法和回歸的One-Stage 目標(biāo)檢測算法為基礎(chǔ)進(jìn)行了總結(jié),介紹了各檢測器的主要框架模型結(jié)構(gòu),并指出了它們對(duì)于同系列前代檢測器的改進(jìn)之處。最后進(jìn)行不同算法檢測框架在相同數(shù)據(jù)集下的檢測精度與檢測速度的對(duì)比,進(jìn)一步確定不同算法檢測框架的好壞。

        同時(shí),在深度學(xué)習(xí)目標(biāo)檢測算法的未來研究發(fā)展中也存在一些困難,如檢測算法網(wǎng)絡(luò)模型大,訓(xùn)練模型需要計(jì)算能力高的顯卡;小目標(biāo)檢測準(zhǔn)確性差,定位容易丟失;工業(yè)應(yīng)用需要大量訓(xùn)練數(shù)據(jù)集訓(xùn)練模型,采集困難等。因此,如何解決以上問題將是未來深度學(xué)習(xí)目標(biāo)檢測算法研究突破的重點(diǎn)。

        久久精品国产www456c0m| 久久久精品亚洲人与狗| 精品亚洲成av人在线观看| 高潮又爽又无遮挡又免费| 欧美日韩在线观看免费| 麻豆成年视频在线观看| 蜜桃视频一区二区三区四| 欧美激情一区二区三区| 免费夜色污私人影院在线观看| 国产成人精品免费视频大全| 亚洲一区二区三区四区精品| 琪琪色原网站在线观看| 黑人巨大白妞出浆| 国产精品久久久亚洲第一牛牛| 免费在线不卡黄色大片| 久久精品中文字幕无码绿巨人| 久无码久无码av无码| 久久久久久久尹人综合网亚洲 | 成人一区二区三区蜜桃| 91久久精品国产综合另类专区| 疯狂撞击丝袜人妻| 国产系列丝袜熟女精品视频 | 亚洲不卡一区二区视频| 国产成人精品午夜视频| 欧美色图中文字幕| av手机天堂在线观看| 中字乱码视频| 吸咬奶头狂揉60分钟视频| 国产精品女同久久免费观看| av在线播放亚洲天堂| 国产精品美女久久久久av超清 | 亚洲毛片网| 亚洲五码av在线观看| 亚洲欧洲成人精品香蕉网| 中文在线а√天堂官网| 妇女自拍偷自拍亚洲精品| 国偷自拍av一区二区三区| 男人添女人下部高潮全视频| 亚洲va在线va天堂va四虎| 五月婷婷开心六月激情| 青春草在线视频免费观看|