亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Faster-RCNN 的行人檢測方法探討

        2020-07-12 12:56:48朱東弼
        科技視界 2020年26期
        關(guān)鍵詞:行人卷積特征

        李 恒 朱東弼

        0 引言

        行人檢測(Pedestrian Detection)是檢測圖像中的目標(biāo)位置,利用相關(guān)技術(shù)判定所提供的圖像是否存在行人并給出精確的位置標(biāo)識[1]。行人檢測方法可分兩大類,一類是基于背景建模的方法,核心是將前景中的目標(biāo)進行特征提取然后判斷是否存在目標(biāo),但背景建模會受到環(huán)境因素的影響會導(dǎo)致模型復(fù)雜。另一類是基于統(tǒng)計學(xué)習(xí)的檢測方法,它的核心是依據(jù)海量樣本對圖像特征進行提取,然后分類,但是也會受到多種因素干擾而發(fā)生漏檢或者重復(fù)檢測的問題,而影響檢測效果。

        1 基于深度學(xué)習(xí)的現(xiàn)有行人檢測方法分析

        2012 年后,目標(biāo)檢測進入深度學(xué)習(xí)時代,2013 年,Sermanet 等人使用卷積稀疏編碼對卷積神經(jīng)網(wǎng)絡(luò)進行行人檢測的研究[2]。謝林江等人針對復(fù)雜背景因素影響檢測效果問題,提出了改進版的神經(jīng)網(wǎng)絡(luò)模型,使得行人的特征更加明顯[3]。當(dāng)前經(jīng)典的目標(biāo)檢測算法網(wǎng)絡(luò)模型分為兩大類:一類是基于區(qū)域建議的two-stage 算法,如2015 年的開創(chuàng)者RCNN、改進的Fast R-CNN 及2016 年進階版的Faster R-CNN[4],另一大類是one-stage 算法,比如經(jīng)典的YOLO 系列、SSD 等算法,相比于two-stage 算法,這些算法不包含區(qū)域建議模塊,不利于網(wǎng)絡(luò)學(xué)習(xí),從而拉低了整體的準(zhǔn)確率。

        雖然行人檢測系統(tǒng)與深度學(xué)習(xí)相結(jié)合使得檢測效果有所提升,但是由于人體姿態(tài)的復(fù)雜程度和背景因素的影響,且行人屬于小尺度目標(biāo),因此會影響檢測出行人的準(zhǔn)確率。

        2 基于Faster- RCNN 的行人檢測方法

        2.1 行人檢測過程

        Faster-RCNN 行人檢測流程首先使用全卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)對原始圖像進行特征提取,然后對特征圖進行候選框推薦,對于更可能是目標(biāo)物體的給與更高的概率完成候選區(qū)域的推薦。同時對特征圖進行窗口的選擇,由于推薦的窗口大小不同,采用自適應(yīng)池化層進行統(tǒng)一,最后固定檢測框在全連接層實現(xiàn)回歸分類任務(wù)。

        2.2 RPN

        RPN 用于生成網(wǎng)絡(luò)建議框,在輸入圖片時,產(chǎn)生候選框并進行定位顯示分類概率。將RPN 和Faster-RCNN 進行訓(xùn)練,從而得到輸出[4]。對于Faster-RCNN,沒有固定的輸入原始圖片尺寸,但通常將輸入的圖片短邊設(shè)置成600。如對于一張1 200×1 800 的圖片,會把圖片縮放到600×900 上。對于所輸出的特征圖尺寸進行五次成倍數(shù)裁剪,這里有兩個基本的模塊,一是Conv Block,為了改變網(wǎng)絡(luò)維度;另一個是Identity Block,用于加深網(wǎng)絡(luò)。為在圖片中生成候選區(qū)域,要在輸出的特征圖中進行滑窗選擇。針對特征圖中的多個窗口,分別要預(yù)測出k 個目標(biāo)候選區(qū)域,稱為“錨”(Anchor)。每個anchor 有相對應(yīng)的尺寸。如在3×3 的滑窗的中心處,根據(jù)三種不同的長寬比得到九個不同尺寸的矩形三種形狀寸的anchor。使得精確度有所提升。

        2.3 改進RPN

        在一張圖片中,真正需要檢測的目標(biāo)不會占據(jù)太大面積,這會產(chǎn)生過多的負樣本,并且固定的anchor 尺寸使檢測受限,所以提出使用特征去指導(dǎo)每個矩形框的中心,自行生成長寬比,既可以節(jié)約時間,又可以生成合適的長寬比,既可以減少生成anchor 的時間,又可以生成合適的長寬比,這樣對于多變的人體姿態(tài)檢測效果更好。在RPN 結(jié)構(gòu)中每一層都加入Guided Anchoring 模塊,作用是對特征圖進行建議框預(yù)測,其中的一個anchor generation 模塊作用是矩陣框的獲取不同于以往的滑窗,是要在預(yù)測特征圖的每一個點的像素作為目標(biāo)置信度,作用是降低負樣本的數(shù)量,并且高和寬的比例尺寸不是固定不變的,用CNN 的方法進行回歸這樣與行人的尺度可以更好地對齊。另一個模塊是Feature adaption 模塊,將anchor 的高和寬轉(zhuǎn)換成一個有兩個通道的特征圖,之后再次對該特征圖進行卷積,即特征重采樣。用該方法通過RPN 和檢測網(wǎng)絡(luò)共享卷積層的方法縮減圖像中區(qū)域建議框的計算時間來提高檢測精度。

        3 結(jié)論

        為了提高對于行人的檢測能力,本文以Faster R-CNN 模型為基礎(chǔ),提出對RPN 中的模型結(jié)構(gòu)進行改進,可提高行人檢測的精準(zhǔn)度,并且去除了重復(fù)性計算,使得綜合性能有不錯的效果。

        猜你喜歡
        行人卷積特征
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        如何表達“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個特征
        路不為尋找者而設(shè)
        揚子江(2019年1期)2019-03-08 02:52:34
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        抓住特征巧觀察
        我是行人
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        日本看片一区二区三区| 久久午夜夜伦鲁鲁片免费无码| 国语对白做受xxxxx在线中国| 97超级碰碰碰久久久观看| 人妻被公上司喝醉在线中文字幕| 欧美性猛交xxxx乱大交极品| 少妇无码吹潮| 国产女高清在线看免费观看 | av无码国产精品色午夜| 亚洲午夜精品久久久久久人妖| 亚洲制服无码一区二区三区| 国产一级自拍av播放| 久久天天躁狠狠躁夜夜av浪潮| 一本加勒比hezyo无码人妻| 成人片99久久精品国产桃花岛| 国产在线视频一区二区三区| 一边捏奶头一边高潮视频| 少妇人妻200篇白洁| 久久亚洲第一视频黄色| 国产午夜福利小视频在线观看| 中文字幕在线亚洲精品| 永久免费观看的毛片手机视频| 亚洲中文字幕精品一区二区| 国产女主播一区二区久久| 性裸交a片一区二区三区| 亚洲一区二区在线| 视频在线播放观看免费| 邻居少妇张开腿让我爽了一夜| 日本护士吞精囗交gif| 亚洲成aⅴ人片在线观看天堂无码| 成人激情视频在线手机观看| 日日天干夜夜狠狠爱| 91久久精品国产91久久| 亚洲中文字幕不卡一区二区三区 | 亚洲精品久久区二区三区蜜桃臀| 久久久www成人免费精品| 无码成人片一区二区三区| 手机在线国产福利av| 免费欧洲毛片a级视频老妇女| 中文字幕一区二区三区久久网站| 国产伦理自拍视频在线观看|