亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Faster-RCNN 的行人檢測方法探討

        2020-07-12 12:56:48朱東弼
        科技視界 2020年26期
        關(guān)鍵詞:行人卷積特征

        李 恒 朱東弼

        0 引言

        行人檢測(Pedestrian Detection)是檢測圖像中的目標(biāo)位置,利用相關(guān)技術(shù)判定所提供的圖像是否存在行人并給出精確的位置標(biāo)識[1]。行人檢測方法可分兩大類,一類是基于背景建模的方法,核心是將前景中的目標(biāo)進行特征提取然后判斷是否存在目標(biāo),但背景建模會受到環(huán)境因素的影響會導(dǎo)致模型復(fù)雜。另一類是基于統(tǒng)計學(xué)習(xí)的檢測方法,它的核心是依據(jù)海量樣本對圖像特征進行提取,然后分類,但是也會受到多種因素干擾而發(fā)生漏檢或者重復(fù)檢測的問題,而影響檢測效果。

        1 基于深度學(xué)習(xí)的現(xiàn)有行人檢測方法分析

        2012 年后,目標(biāo)檢測進入深度學(xué)習(xí)時代,2013 年,Sermanet 等人使用卷積稀疏編碼對卷積神經(jīng)網(wǎng)絡(luò)進行行人檢測的研究[2]。謝林江等人針對復(fù)雜背景因素影響檢測效果問題,提出了改進版的神經(jīng)網(wǎng)絡(luò)模型,使得行人的特征更加明顯[3]。當(dāng)前經(jīng)典的目標(biāo)檢測算法網(wǎng)絡(luò)模型分為兩大類:一類是基于區(qū)域建議的two-stage 算法,如2015 年的開創(chuàng)者RCNN、改進的Fast R-CNN 及2016 年進階版的Faster R-CNN[4],另一大類是one-stage 算法,比如經(jīng)典的YOLO 系列、SSD 等算法,相比于two-stage 算法,這些算法不包含區(qū)域建議模塊,不利于網(wǎng)絡(luò)學(xué)習(xí),從而拉低了整體的準(zhǔn)確率。

        雖然行人檢測系統(tǒng)與深度學(xué)習(xí)相結(jié)合使得檢測效果有所提升,但是由于人體姿態(tài)的復(fù)雜程度和背景因素的影響,且行人屬于小尺度目標(biāo),因此會影響檢測出行人的準(zhǔn)確率。

        2 基于Faster- RCNN 的行人檢測方法

        2.1 行人檢測過程

        Faster-RCNN 行人檢測流程首先使用全卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)對原始圖像進行特征提取,然后對特征圖進行候選框推薦,對于更可能是目標(biāo)物體的給與更高的概率完成候選區(qū)域的推薦。同時對特征圖進行窗口的選擇,由于推薦的窗口大小不同,采用自適應(yīng)池化層進行統(tǒng)一,最后固定檢測框在全連接層實現(xiàn)回歸分類任務(wù)。

        2.2 RPN

        RPN 用于生成網(wǎng)絡(luò)建議框,在輸入圖片時,產(chǎn)生候選框并進行定位顯示分類概率。將RPN 和Faster-RCNN 進行訓(xùn)練,從而得到輸出[4]。對于Faster-RCNN,沒有固定的輸入原始圖片尺寸,但通常將輸入的圖片短邊設(shè)置成600。如對于一張1 200×1 800 的圖片,會把圖片縮放到600×900 上。對于所輸出的特征圖尺寸進行五次成倍數(shù)裁剪,這里有兩個基本的模塊,一是Conv Block,為了改變網(wǎng)絡(luò)維度;另一個是Identity Block,用于加深網(wǎng)絡(luò)。為在圖片中生成候選區(qū)域,要在輸出的特征圖中進行滑窗選擇。針對特征圖中的多個窗口,分別要預(yù)測出k 個目標(biāo)候選區(qū)域,稱為“錨”(Anchor)。每個anchor 有相對應(yīng)的尺寸。如在3×3 的滑窗的中心處,根據(jù)三種不同的長寬比得到九個不同尺寸的矩形三種形狀寸的anchor。使得精確度有所提升。

        2.3 改進RPN

        在一張圖片中,真正需要檢測的目標(biāo)不會占據(jù)太大面積,這會產(chǎn)生過多的負樣本,并且固定的anchor 尺寸使檢測受限,所以提出使用特征去指導(dǎo)每個矩形框的中心,自行生成長寬比,既可以節(jié)約時間,又可以生成合適的長寬比,既可以減少生成anchor 的時間,又可以生成合適的長寬比,這樣對于多變的人體姿態(tài)檢測效果更好。在RPN 結(jié)構(gòu)中每一層都加入Guided Anchoring 模塊,作用是對特征圖進行建議框預(yù)測,其中的一個anchor generation 模塊作用是矩陣框的獲取不同于以往的滑窗,是要在預(yù)測特征圖的每一個點的像素作為目標(biāo)置信度,作用是降低負樣本的數(shù)量,并且高和寬的比例尺寸不是固定不變的,用CNN 的方法進行回歸這樣與行人的尺度可以更好地對齊。另一個模塊是Feature adaption 模塊,將anchor 的高和寬轉(zhuǎn)換成一個有兩個通道的特征圖,之后再次對該特征圖進行卷積,即特征重采樣。用該方法通過RPN 和檢測網(wǎng)絡(luò)共享卷積層的方法縮減圖像中區(qū)域建議框的計算時間來提高檢測精度。

        3 結(jié)論

        為了提高對于行人的檢測能力,本文以Faster R-CNN 模型為基礎(chǔ),提出對RPN 中的模型結(jié)構(gòu)進行改進,可提高行人檢測的精準(zhǔn)度,并且去除了重復(fù)性計算,使得綜合性能有不錯的效果。

        猜你喜歡
        行人卷積特征
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        如何表達“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個特征
        路不為尋找者而設(shè)
        揚子江(2019年1期)2019-03-08 02:52:34
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        抓住特征巧觀察
        我是行人
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        亚洲av性色精品国产| 正在播放淫亚洲| 亚洲高清国产拍精品熟女| 久久本道久久综合伊人| 日本又色又爽又黄的a片18禁 | 懂色av一区二区三区网久久| 四虎永久在线精品免费网址| 首页 综合国产 亚洲 丝袜 | 久久人妻AV无码一区二区| 精品一区二区三区不老少妇| 丰满人妻猛进入中文字幕| 午夜福利试看120秒体验区| 水蜜桃久久| 日本在线中文字幕一区二区| 丝袜美腿福利一区二区| 国产熟妇按摩3p高潮大叫| 操出白浆在线观看| 日本激情一区二区三区| 99久久国产精品网站| 毛片亚洲av无码精品国产午夜| 中文字幕亚洲欧美日韩在线不卡| 亚洲av不卡电影在线网址最新| 免费人成黄页网站在线观看国内| 亚洲码专区亚洲码专区| 日本真人添下面视频免费 | 香港三级日本三级a视频| 看黄网站在线| 欧美精品久久久久久久自慰| 日本a在线天堂| 成熟的女人毛茸茸色视频| 24小时日本在线视频资源| 日韩AV不卡六区七区| 亚洲免费看三级黄网站| 国产激情视频免费在线观看| 国产日韩精品中文字无码| 亚洲欧美成人中文在线网站 | 精品亚洲少妇一区二区三区| 亚洲国产91高清在线| 亚洲成熟丰满熟妇高潮xxxxx| 三级4级全黄60分钟| AⅤ无码精品视频|