亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向嵌入式設(shè)備的高實(shí)時(shí)微小目標(biāo)跟蹤檢測方法

        2021-12-20 12:35:50冒睿瑞
        計(jì)算機(jī)工程 2021年12期
        關(guān)鍵詞:剪枝輕量化嵌入式

        冒睿瑞,江 波

        (中國電子科技集團(tuán)公司第三十二研究所,上海 201808)

        0 概述

        近年來,隨著嵌入式設(shè)備智能化的發(fā)展,基于戰(zhàn)場末端智能設(shè)備需求量不斷增加,對其性能要求也愈加嚴(yán)格。其中,戰(zhàn)場智能感知作為軍事智能化的關(guān)鍵一環(huán),在各種軍事行動如偵察、打擊、決策以及毀傷評測中承擔(dān)重要使命。在現(xiàn)代戰(zhàn)爭的復(fù)雜場景中,微小目標(biāo)跟蹤檢測識別技術(shù)更貼近現(xiàn)實(shí)場景應(yīng)用需求,相比普通目標(biāo)識別,一直是目標(biāo)感知領(lǐng)域中的技術(shù)難點(diǎn)[1]。微小目標(biāo)在整張圖像中所占比重極小,像素點(diǎn)信息少[2],當(dāng)目標(biāo)背景為復(fù)雜的環(huán)境時(shí),對于提取微小目標(biāo)的特征信息存在巨大挑戰(zhàn),其顏色、邊緣輪廓等都較為模糊。

        面對微小目標(biāo)檢測跟蹤的挑戰(zhàn),國內(nèi)外科研人員基于不同理論開展研究,并提出多種方法。CHEN 等[3]利用上下文模型和小區(qū)域提議生成器提出了最新的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)算法,以提高微小目標(biāo)檢測性能;LI 等[4]提出一種新的感知生成對抗網(wǎng)絡(luò)模型,該模型通過減少微小目標(biāo)與正常尺寸目標(biāo)之間的表示差異來提升微小目標(biāo)的檢測性能;吳言楓等[5]提出一種動態(tài)背景下“低小慢”目標(biāo)自適應(yīng)實(shí)時(shí)檢測技術(shù),根據(jù)圖像的亮度對比度獲得顯著性圖,提取顯著性特征的方法為通過形態(tài)學(xué)梯度,依據(jù)圖像中目標(biāo)所在占比的變化,以及質(zhì)心距離、寬高比等信息篩選真實(shí)目標(biāo),從而進(jìn)行微小目標(biāo)檢測。

        在面向戰(zhàn)場軍事需求時(shí),相比于運(yùn)行高性能人工智能服務(wù)器,微小目標(biāo)跟蹤檢測技術(shù)無法較好地運(yùn)行在嵌入式設(shè)備上,其實(shí)際效果不能滿足戰(zhàn)場實(shí)時(shí)需求?,F(xiàn)有的目標(biāo)檢測管道通常通過學(xué)習(xí)多個尺度上所有對象的特征表示來跟蹤檢測微小目標(biāo)。但是,這種臨時(shí)架構(gòu)的性能增益通常僅限于償還計(jì)算成本。當(dāng)前,基于高性能人工智能服務(wù)器的主流移動目標(biāo)跟蹤檢測系統(tǒng)僅對視頻進(jìn)行采集、存儲和回看,考慮到戰(zhàn)場實(shí)時(shí)性的要求,基于高性能AI 服務(wù)器的移動目標(biāo)跟蹤檢測方法已經(jīng)不再適用直接移植至嵌入式平臺,嵌入式平臺的算力無法與高性能服務(wù)器相比,但其具有高可靠性和高實(shí)時(shí)性的優(yōu)勢,這使得面向嵌入式設(shè)備的目標(biāo)跟蹤檢測技術(shù)在軍事領(lǐng)域具有廣闊的應(yīng)用發(fā)展空間。

        針對上述問題,本文提出一種面向嵌入式設(shè)備的高實(shí)時(shí)微小目標(biāo)跟蹤檢測方法。該方法利用輕量級卷積神經(jīng)網(wǎng)絡(luò),并融合相關(guān)濾波算法,以提升微小目標(biāo)跟蹤檢測的精度和速度。

        1 相關(guān)工作

        1.1 目標(biāo)跟蹤檢測方法

        目標(biāo)跟蹤檢測是機(jī)器視覺領(lǐng)域的一個重要研究課題,在戰(zhàn)場感知領(lǐng)域有重要應(yīng)用。近年來,目標(biāo)跟蹤檢測的研究已經(jīng)取得較大進(jìn)步,但在實(shí)際過程中目標(biāo)可能發(fā)生形變、劇烈運(yùn)動、被遮擋等情況,從而導(dǎo)致目標(biāo)丟失、跟蹤失?。?],因此,目標(biāo)跟蹤的研究仍具有較大挑戰(zhàn)性。文獻(xiàn)[7]提出一種基于快速多尺度估計(jì)的重新檢測目標(biāo)跟蹤算法,在相關(guān)濾波算法的基礎(chǔ)上構(gòu)建一個新的自適應(yīng)檢測指標(biāo),該檢測指標(biāo)可以更加準(zhǔn)確地檢測出當(dāng)前幀是否出現(xiàn)跟蹤失敗的情況。與其他指標(biāo)不同,新的檢測指標(biāo)減少對最大響應(yīng)值的依賴。當(dāng)檢測到目標(biāo)丟失時(shí),通過重新檢測的方法尋回目標(biāo),恢復(fù)跟蹤。若當(dāng)前幀需要進(jìn)行重新檢測,則當(dāng)前幀的模型拒絕更新,仍采用前一幀的模型。文獻(xiàn)[8]通過最小輸出誤差平方和(Minimum Output Sum of Squared Error,MOOSE)濾波器進(jìn)行目標(biāo)跟蹤,當(dāng)使用單幀圖像進(jìn)行初始化時(shí),產(chǎn)生穩(wěn)定的相關(guān)濾波器,在高速運(yùn)動跟蹤中對光照強(qiáng)弱、尺寸比例、目標(biāo)姿態(tài)和非剛性變形的變化具有魯棒性。

        1.2 神經(jīng)網(wǎng)絡(luò)輕量化與優(yōu)化

        深度學(xué)習(xí)模型的訓(xùn)練和推斷耗費(fèi)大量的計(jì)算資源,其中包括內(nèi)存、人工智能處理器等。當(dāng)需要執(zhí)行實(shí)時(shí)模型推斷或在計(jì)算資源有限設(shè)備端運(yùn)行模型訓(xùn)練時(shí),造成計(jì)算瓶頸。

        解決以上問題的有效方法是提高運(yùn)算效率。模型剪枝優(yōu)化加速是深度學(xué)習(xí)領(lǐng)域的一種有效模型壓縮方法,可以有效提高推斷效率,模型剪枝優(yōu)化加速可以提高內(nèi)存使用效率、降低能耗、縮小規(guī)模等。文獻(xiàn)[9]提出一種基于稀疏卷積神經(jīng)網(wǎng)絡(luò)的模型剪枝方法,利用L1 正則化在模型訓(xùn)練中的稀疏化作用,對模型的卷積層和批規(guī)范化(BN)層參數(shù)進(jìn)行稀疏正則化訓(xùn)練,獲得權(quán)值稀疏的神經(jīng)網(wǎng)絡(luò)模型,再根據(jù)濾波器的稀疏性和BN 層的特征縮放系數(shù)對兩者的重要性進(jìn)行判斷,最后用結(jié)構(gòu)化剪枝方法對稀疏濾波器及對應(yīng)的連接進(jìn)行剪枝。文獻(xiàn)[10]提出一種基于層融合特征系數(shù)的動態(tài)網(wǎng)絡(luò)結(jié)構(gòu)化剪枝方法,保證網(wǎng)絡(luò)的結(jié)構(gòu)性,使剪枝后的網(wǎng)絡(luò)能結(jié)合現(xiàn)有的深度學(xué)習(xí)庫和硬件裝置加速方法,并且考慮層與層之間對改變特征圖的綜合影響,將卷積層和BN 層操作表達(dá)為全連接形式,提取由濾波器參數(shù)、BN 層縮放系數(shù)及特征圖方差多個動態(tài)參數(shù)組成的層融合特征系數(shù),通過層融合特征系數(shù)判定卷積網(wǎng)絡(luò)每層中濾波器的重要性,結(jié)合動態(tài)剪枝策略,搜索最優(yōu)的剪枝網(wǎng)絡(luò)。

        神經(jīng)網(wǎng)絡(luò)輕量化與優(yōu)化的另一種方式是對算法進(jìn)行針對性的改進(jìn),提高計(jì)算效率[11]。例如,文獻(xiàn)[12]提出一種基于ShuffleNet 和集成隨機(jī)權(quán)向量函數(shù)連接網(wǎng)絡(luò)分類器的人臉識別方法,該方法克服了深度神經(jīng)網(wǎng)絡(luò)復(fù)雜結(jié)構(gòu)的缺陷,在提高人臉識別準(zhǔn)確度的同時(shí),降低深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練的復(fù)雜度,形成輕量級深層網(wǎng)絡(luò)人臉識別模型。

        2 高實(shí)時(shí)微小目標(biāo)跟蹤檢測方法

        由于微小目標(biāo)的成像尺寸較小,因此只有少量的目標(biāo)紋理信息,容易受到快速運(yùn)動、背景、噪聲、拖尾等因素的干擾,對檢測算法的精度與魯棒性要求很高[13]。傳統(tǒng)主流方法適用于算力與內(nèi)存資源充分的高性能AI 服務(wù)器,然而由于軍事武器裝備平臺的特殊性,戰(zhàn)場端的計(jì)算平臺受空間、供電、散熱等限制,只能使用體積小、功耗低、發(fā)熱小的計(jì)算性能有限的嵌入式平臺,因此算法的計(jì)算速度至關(guān)重要。

        本文將基于嵌入式設(shè)備改進(jìn)的CSPdarkNet53檢測算法與基于相關(guān)濾波理論的目標(biāo)跟蹤算法相融合,并對整體神經(jīng)網(wǎng)絡(luò)進(jìn)行輕量化改造,提出面向嵌入式設(shè)備的高實(shí)時(shí)目標(biāo)檢測跟蹤方法。

        2.1 高實(shí)時(shí)目標(biāo)檢測跟蹤算法

        當(dāng)前主流的基于實(shí)時(shí)視頻的目標(biāo)檢測方法是將實(shí)時(shí)視頻進(jìn)行分幀處理,形成一系列連續(xù)的圖像[14],針對這些圖像單獨(dú)進(jìn)行目標(biāo)檢測,最終將檢測結(jié)果進(jìn)行合成形成目標(biāo)檢測識別視頻。但此類方法對于計(jì)算資源的要求高,不適于嵌入式裝備有限的計(jì)算能力。

        視覺目標(biāo)跟蹤是計(jì)算機(jī)視覺中一個基本問題,根據(jù)是否使用幀間關(guān)系,有兩種解決思路:一種是利用單幀圖像信息進(jìn)行判決,常見方法是使用深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò);另一種是通常使用濾波算法與幀間前后關(guān)系進(jìn)行統(tǒng)計(jì)運(yùn)算[15]。使用深度學(xué)習(xí)算法能夠提取物體關(guān)鍵信息,精度高但運(yùn)算量也較高。濾波算法計(jì)算相較于深度學(xué)習(xí)開銷較小,因而處理速度快,但易受圖像質(zhì)量波動的影響。

        本文對于實(shí)時(shí)視頻分幀后形成的一系列圖像[16],按連續(xù)若干張形成一組,第1 張圖像采用面向嵌入式設(shè)備改進(jìn)的CSPDarkNet53 算法進(jìn)行目標(biāo)檢測,之后若干張圖像采用相關(guān)濾波目標(biāo)跟蹤算法對目標(biāo)進(jìn)行跟蹤識別,相關(guān)濾波目標(biāo)跟蹤算法相比CSPDarkNet53 算法具有優(yōu)異的性能及良好的實(shí)時(shí)性,對于計(jì)算資源的開銷較小,適用于嵌入式設(shè)備的高實(shí)時(shí)目標(biāo)檢測。

        相關(guān)濾波目標(biāo)跟蹤算法的相關(guān)性是指不同事物之間的相關(guān)性。它通常用于描述各種事物之間的相似程度,是一種度量。根據(jù)共振原理,將相關(guān)性引入目標(biāo)跟蹤過程中,通過相關(guān)性與目標(biāo)跟蹤算法的結(jié)合,使得目標(biāo)的跟蹤通過計(jì)算目標(biāo)模型和候選區(qū)域的相關(guān)性來達(dá)到跟蹤目標(biāo)的目的,所得到的相關(guān)性最大位置就是當(dāng)前幀下目標(biāo)的位置[17]。

        相關(guān)濾波是直接且有效的濾波方法,其在目標(biāo)跟蹤中的最早應(yīng)用是在MOSSE 濾波器中,如圖1 所示,2 個目標(biāo)越相關(guān),相關(guān)值越大,即視頻幀序列與初始目標(biāo)越相似,所對應(yīng)的值也就越大[8]。

        圖1 相關(guān)濾波算法Fig.1 Correlation filtering algorithm

        由于在時(shí)間域進(jìn)行卷積操作,計(jì)算量大且時(shí)間較長,因此將其轉(zhuǎn)化成在頻率域上的計(jì)算可以大幅減少計(jì)算量[18]:

        其中:G表示輸出圖像;F表示輸入圖像;M*表示濾波器。為在后續(xù)幀內(nèi)找到最相似的目標(biāo)圖像,通過輸出的平方誤差最小得到最佳的濾波器,目標(biāo)函數(shù)如下:

        通過式(2),可求得濾波器M*的閉合解如下:

        其中:M為當(dāng)前幀的模型;Fi表示輸入圖像表示期望響應(yīng)的共軛。當(dāng)前濾波器的模型僅適應(yīng)于當(dāng)前幀的模型,為使濾波器具有較強(qiáng)魯棒性,濾波器的模型需要根據(jù)需求進(jìn)行更新,從而找到最優(yōu)濾波模型,方法如下:

        Ai更新如下:

        其中:μ是學(xué)習(xí)率,即當(dāng)前幀內(nèi)的濾波器與上個濾波器模型的比值。根據(jù)應(yīng)用需求進(jìn)行模型的更新,以確保跟蹤精度,從而匹配最優(yōu)的濾波模板。

        2.2 下采樣算法優(yōu)化設(shè)計(jì)

        基于嵌入式設(shè)備的微小目標(biāo)檢測對模型的精度和速度都有較高的要求,本文基于CSPDarkNet53 網(wǎng)絡(luò)模型進(jìn)行改進(jìn),在提高算法速度的同時(shí)保證目標(biāo)識別準(zhǔn)確率。

        網(wǎng)絡(luò)的第1 次下采樣對于微小目標(biāo)的識別極為重要,如果采用簡單的池化或單純的卷積進(jìn)行下采樣,則無法保證很好地提取出微小目標(biāo)的特征,導(dǎo)致后面的特征提取丟失微小目標(biāo)[19]。傳統(tǒng)的下采樣一般采用卷積、特征提取的組合,但是這在第1 次下采樣中帶來大量的計(jì)算量。因此,本文采用亞像素卷積的逆過程來實(shí)現(xiàn)下采樣,極大地減少了計(jì)算量和內(nèi)存消耗,同時(shí)保持一定的特征提取性能。原始亞像素卷積如圖2 所示。

        圖2 亞像素卷積Fig.2 Sub-pixel convolution

        亞像素卷積可以將(C×r×r)×H×W的輸入轉(zhuǎn)為C×(r×H)×(r×W),利用這一原理,本文采用其逆過程實(shí)現(xiàn)下采樣,如圖3 所示。

        圖3 下采樣過程Fig.3 Downsampling process

        圖3 所示的亞像素卷積可以將C×H×W的輸入轉(zhuǎn)化為(C×2×2)×(H/2)×(W/2),從而達(dá)到下采樣的目的。該下采樣方法不僅節(jié)省大量的計(jì)算量,同時(shí)也給后面的特征提取保留豐富的細(xì)節(jié)信息,有利于小目標(biāo)的特征提取。

        2.3 輕量化網(wǎng)絡(luò)模型

        骨干(Backbone)網(wǎng)絡(luò)一般用于下采樣后的進(jìn)一步特征提取,在豐富特征語義信息的同時(shí)防止網(wǎng)絡(luò)過深帶來的梯度消失、梯度爆炸等問題。網(wǎng)絡(luò)模型主要采取CSPDarkNet53 骨干網(wǎng)絡(luò),該網(wǎng)絡(luò)模型深達(dá)161 層,參數(shù)以及計(jì)算量大,不適用于嵌入式設(shè)備上的目標(biāo)識別。雖然DarkNet19 網(wǎng)絡(luò)大幅縮減模型層數(shù)和參數(shù)量,但是對于微小目標(biāo)的識別效果不是特別理想。本文提出輕量化網(wǎng)絡(luò)模型,對骨干網(wǎng)絡(luò)CSPDarkNet53 進(jìn)行深度裁剪,輕量化CPSResNet 模塊,滿足本文中嵌入式設(shè)備微小目標(biāo)識別的需求,同時(shí)CSP(Cross Stage Partial)可以兼顧網(wǎng)絡(luò)輕量化與模型檢測的準(zhǔn)確性,增強(qiáng)卷積網(wǎng)絡(luò)的學(xué)習(xí)能力,降低計(jì)算瓶頸以及內(nèi)存成本。其次,本文采用改進(jìn)的PANet 網(wǎng)絡(luò),通過多次融合高低層特征提升微小目標(biāo)檢測的效果。

        2.3.1 輕量化CSPResNet 骨干網(wǎng)絡(luò)

        本文基于CSPDarkNet53 提出一種輕量化的骨干網(wǎng)絡(luò),該骨干網(wǎng)絡(luò)能夠減少網(wǎng)絡(luò)中的模塊數(shù)量及每個模塊中殘差單元的數(shù)量,其次,減少卷積核參數(shù),提高微小目標(biāo)的識別時(shí)間,適用于嵌入式設(shè)備。具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖4 所示。其中網(wǎng)絡(luò)輸入圖片尺寸為1 024×1 024×3。

        圖4 骨干網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Backbone network structure

        如圖4 所示,虛線框中為輕量型骨干網(wǎng)絡(luò),首先相比于原來的CSPDarkNet53 網(wǎng)絡(luò),本文極大地減少了CSP 模塊的數(shù)量,其次降低CSP 模塊中殘差模塊的數(shù)量,最后削減模塊中卷積核的數(shù)量,降低網(wǎng)絡(luò)主干網(wǎng)的參數(shù)。

        主干網(wǎng)絡(luò)中共包含4 個CSP 模塊,這4 個模塊結(jié)構(gòu)相同,如圖5(a)所示,其中卷積2、3、4 部分為殘差模塊。輸入特征進(jìn)入CSP_block 模塊后,分成兩路進(jìn)行處理,組成CSP 結(jié)構(gòu),在左邊處理流程中,卷積2、3、4 部分為殘差模塊。不同模塊中的卷積核參數(shù)如圖5(b)所示。同時(shí),本文將下采樣后的底層特征圖連接到接下來的每一層CSP 模塊后,可以增強(qiáng)底層特征信息的傳輸,避免丟失微小目標(biāo)的少量特征。

        圖5 CSP_block 模塊Fig.5 CSP_block module

        2.3.2 輕量化路徑聚合網(wǎng)絡(luò)

        路徑聚合網(wǎng)絡(luò)(PANet)通過增強(qiáng)自底向上的路徑,充分融合淺層與高層之間的特征信息,從而將特征信息中的有用部分傳遞給子網(wǎng)絡(luò),縮短高層特征與底層特征的距離,以適用于小目標(biāo)檢測識別[20]。但是由于創(chuàng)建多個路徑通道,網(wǎng)絡(luò)計(jì)算量較大,不適合部署在嵌入式設(shè)備上。本文提出了輕量化的PANet,通過減少原來CSPDarkNet53 網(wǎng)絡(luò)中的Neck部分,將主干網(wǎng)直接通過PANet 與CSPDarkNet53 head 相連接,極大地降低了網(wǎng)絡(luò)層數(shù)和計(jì)算量,同時(shí)高低層特征通過多種路徑相連接,強(qiáng)化了小目標(biāo)檢測效果,具體的輕量化PANet 結(jié)構(gòu)如圖6 所示。

        圖6 輕量化PANet 結(jié)構(gòu)Fig.6 Lightweight PANet structure

        2.3.3 剪枝優(yōu)化

        由于神經(jīng)網(wǎng)絡(luò)模型計(jì)算量較大,在嵌入式設(shè)備上運(yùn)行速率較低[21],因此通過采用模型剪枝的方式,對模型中不必要的計(jì)算進(jìn)行刪除,從而簡化模型來提高運(yùn)行速度。對于裁剪網(wǎng)絡(luò)的方式,其主要是判斷每個卷積核對整個網(wǎng)絡(luò)的貢獻(xiàn)程度,本文主要利用深度神經(jīng)網(wǎng)絡(luò)中的批量標(biāo)準(zhǔn)化(BN)層中的參數(shù)γ,確定剪枝參數(shù),以決定每一層中剪除的具體通道[22]。BN 層的相關(guān)參數(shù)加上L1 正則化懲罰來訓(xùn)練模型,其新的損失函數(shù)如下:

        利用小批量統(tǒng)計(jì)的方式規(guī)范化BN 層內(nèi)部激活函數(shù),BN 層轉(zhuǎn)換如下:

        分析基準(zhǔn)網(wǎng)絡(luò)的每一層權(quán)重,采用基于判斷權(quán)重值的大小判定其重要性來進(jìn)行裁剪,對于過濾器,將其所有權(quán)重的絕對值求和,作為評價(jià)該過濾器的指標(biāo),將值低的過濾器裁掉,保留值較高的過濾器,以達(dá)到降低模型復(fù)雜度的目的;在裁剪的過程中,同時(shí)考慮每一層卷積核對剪枝的敏感度,對于裁剪比較敏感的卷積層,對其裁剪程度適當(dāng)減?。划?dāng)刪除部分的卷積核后,輸出層的通道數(shù)發(fā)生變換,刪除其對應(yīng)的通道;在進(jìn)行剪枝操作后,與原模型對比精準(zhǔn)度,通過采用較小的學(xué)習(xí)率微調(diào)剪枝后的模型以回升精度,具體模型剪枝步驟如圖7所示。

        圖7 模型剪枝步驟Fig.7 Model pruning steps

        本文對整個網(wǎng)絡(luò)進(jìn)行排序,然后自行確定剪枝比例,去除參數(shù)值較小的通道,最后進(jìn)行微調(diào),重復(fù)操作,以到達(dá)最優(yōu)的剪枝效果。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)配置

        本文實(shí)驗(yàn)硬件環(huán)境為Jetson AGX Xavier開發(fā)套件板,同時(shí)使用JetPack SDK4.3 軟件套件,主要軟件環(huán)境為L4T32.2、CUDA10.0、CUDNN7.6、OPENCV4.4。本文推理程序主要使用C/C++編寫,采用多種圖像預(yù)讀及處理多線程方法來提高程序執(zhí)行效率,且使用平臺最大電源功耗模式來考驗(yàn)嵌入式平臺下極限推理性能。

        本文實(shí)驗(yàn)數(shù)據(jù)采用三維物體場景渲染器自建軍事場景進(jìn)行圖像采集,通過場景渲染器修改渲染大小來模擬現(xiàn)實(shí)場景目標(biāo),實(shí)驗(yàn)選用5 種尺度目標(biāo)大小考驗(yàn)算法的識別能力,如圖8 所示。數(shù)據(jù)集圖像中分別包含100 像素、400 像素、900 像素、2 500 像素和10 000 像素的待測目標(biāo)。

        圖8 微小目標(biāo)數(shù)據(jù)集示意圖Fig.8 Schematic diagram of tiny target dataset

        訓(xùn)練集內(nèi)含1 024 像素×1 024 像素分辨率的圖片10 000 張,驗(yàn)證集內(nèi)含圖片2 000 張。本文算法主要考驗(yàn)對單類微小目標(biāo)的識別和跟蹤能力,因而采用目標(biāo)檢測中不同的交并比(IoU)閾值下的精確度AP 作為準(zhǔn)確度評價(jià)指標(biāo),AP25、AP50 和AP75 表示在IoU 閾值25、50 和75 下的檢測成功率,采用推理速度FPS,即推理時(shí)間倒數(shù)作為性能評價(jià)指標(biāo)。

        模型訓(xùn)練及前期預(yù)處理使用高性能服務(wù)器,搭載4 塊NVIDIA Tesla P100 加速卡。所有的網(wǎng)絡(luò)模型將其動量設(shè)為0.9,學(xué)習(xí)率設(shè)為0.002 6,權(quán)重衰減設(shè)為0.000 5,并進(jìn)行10 000 次迭代,得到最終的訓(xùn)練結(jié)果。通過設(shè)定不同的稀疏策略進(jìn)行訓(xùn)練,選出綜合最優(yōu)的精度和稀疏度,然后利用通道剪枝以及層剪枝分別壓縮模型的寬度和深度,最后微調(diào)剪枝后的模型以回升精度,從而達(dá)到最優(yōu)的模型剪枝效果。

        本次實(shí)驗(yàn)對比多個主流的目標(biāo)檢測網(wǎng)絡(luò),包含若干個單步法快速檢測網(wǎng)絡(luò),如DarkNet53、DarkNet19、CSP改進(jìn)的DarkNet53 和ResNeXt50+CSP。并且,本文將所提模型與剪枝后的模型分開進(jìn)行對比,能夠進(jìn)一步驗(yàn)證剪枝優(yōu)化的效果。

        3.2 結(jié)果分析

        第1 組實(shí)驗(yàn)使用圖像像素尺寸為1 024 像素×1 024 像素,對比5 種不同像素尺度的微小目標(biāo)檢測準(zhǔn)確率,基準(zhǔn)為本文所提的輕量化檢測網(wǎng)絡(luò),基準(zhǔn)裁剪為裁剪優(yōu)化過后的網(wǎng)絡(luò)。

        本文首先使用所提輕量網(wǎng)絡(luò)訓(xùn)練一個基準(zhǔn)模型,如圖9(a)所示,從圖中可以看出基準(zhǔn)模型的γ值大致服從期望為1 的正態(tài)分布;然后使用稀疏訓(xùn)練出基準(zhǔn)裁剪的模型,如圖9(b)所示,可以明顯看出,經(jīng)過稀疏過程,BN 層的γ值大部分逐漸被壓到接近0,而接近0 的通道其輸出值近似于常量,因而可以進(jìn)行后續(xù)剪枝操作。

        圖9 剪枝前后BN 層γ 值稀疏分布變化Fig.9 The sparse distribution of γ values in BN layer before and after pruning

        利用層剪枝以及通道剪枝策略,模型大小從23.4M 壓縮到2.6M,在900 像素目標(biāo) 下,AP 值減少0.23,通過反復(fù)微調(diào),AP 值回升到80.05,基準(zhǔn)裁剪的模型大幅壓縮減少資源占用,提高了運(yùn)行速度。

        如表1 所示,在極小目標(biāo)情況下(100 像素),傳統(tǒng)的快速單步法檢測網(wǎng)絡(luò)基本無法正常工作,改進(jìn)后的DarkNet53+CSP 依然表現(xiàn)很差,而本文所提卷積網(wǎng)絡(luò)具有一定概率能夠成功識別;在稍大一些的目標(biāo)400 像素~2 500 像素下,能夠看出本文所提模型在識別能力上均領(lǐng)先對照模型,而改進(jìn)的DarkNet53和ResNeXt50+CSP 也比基礎(chǔ)的算法有明顯優(yōu)勢;但在很大目標(biāo)識別上,由于DarkNet53 和DarkNet19 均缺乏多尺度特征提取的能力,預(yù)測精度變得很差,而本文的模型保證了很高的識別成功率。

        表1 多種算法的小目標(biāo)檢測精度對比Table 1 Comparison of tiny target detection accuracy of multiple algorithms

        如表2 所示,本文測試了算法在多種圖像輸入尺寸下嵌入式平臺的實(shí)時(shí)推理性能。在模型輸入尺寸較大的情況下,推理延遲普遍較高,難以滿足高實(shí)時(shí)高負(fù)載應(yīng)用場景的性能需求,而本文所提輕量化模型經(jīng)過裁剪有27.8 frame/s 的速度,大幅領(lǐng)先對比算法。當(dāng)卷積網(wǎng)絡(luò)規(guī)模變小時(shí),推理速度普遍提高,且本文模型均保持性能較優(yōu)。

        表2 多種圖像輸入尺寸下推理性能比較Table 2 Comparison of inference performance under various image input sizes (frame·s-1)

        針對特定現(xiàn)實(shí)場景應(yīng)用,如在中高分辨率尺寸場景下,若在嵌入式平臺進(jìn)行多路圖像處理,因其運(yùn)算量成倍提高,則目前算法推理性能均難以滿足高實(shí)時(shí)要求。本文采用的濾波跟蹤補(bǔ)幀方法能夠大幅提升等效推理性能。如表3 所示的實(shí)驗(yàn)驗(yàn)證了基準(zhǔn)裁剪算法在608 像素×608 像素輸入下,幀間隔對推理速度和精度的影響:推理幀間隔為0 時(shí)為原始算法性能,而當(dāng)補(bǔ)幀間隔為2 時(shí),能夠達(dá)到性能與精度的最佳平衡。

        表3 推理幀間隔對性能和精度的影響Table 3 The effect of inference frame interval on performance and accuracy

        4 結(jié)束語

        針對嵌入式平臺的算力瓶頸導(dǎo)致微小目標(biāo)跟蹤檢測算法的指標(biāo)性能不能滿足現(xiàn)實(shí)戰(zhàn)場需求的問題,本文提出一種面向嵌入式的高實(shí)時(shí)微小目標(biāo)跟蹤檢測方法。將卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行輕量化改進(jìn),對模型進(jìn)行剪枝優(yōu)化,并深度融合相關(guān)濾波跟蹤算法,以提高基于嵌入式平臺的微小目標(biāo)檢測速度和精度。實(shí)驗(yàn)結(jié)果表明,該方法在Nvidia Jetson AGX Xavier 嵌入式平臺的微小目標(biāo)跟蹤檢測中,檢測精度和檢測速度都優(yōu)于目前主流目標(biāo)檢測算法。

        猜你喜歡
        剪枝輕量化嵌入式
        人到晚年宜“剪枝”
        汽車輕量化集成制造專題主編
        基于YOLOv4-Tiny模型剪枝算法
        一種輕量化自卸半掛車結(jié)構(gòu)設(shè)計(jì)
        搭建基于Qt的嵌入式開發(fā)平臺
        剪枝
        天津詩人(2017年2期)2017-03-16 03:09:39
        嵌入式軟PLC在電鍍生產(chǎn)流程控制系統(tǒng)中的應(yīng)用
        瞄準(zhǔn)掛車輕量化 鑼響掛車正式掛牌成立
        專用汽車(2016年1期)2016-03-01 04:13:19
        用戶:輕量化掛車的使用體驗(yàn)
        專用汽車(2015年4期)2015-03-01 04:09:07
        Altera加入嵌入式視覺聯(lián)盟
        中文字幕成人乱码亚洲| 久久99精品国产麻豆| 亚洲人成电影在线无码| 欧美成人精品第一区二区三区| 美女裸体自慰在线观看| www久久久888| 亚洲中文字幕第一第二页| 99久久婷婷国产精品综合| 成人偷拍自拍视频在线观看| 免费成人在线电影| 97色伦图片97综合影院久久| 国产小车还是日产的好| 国产真实一区二区三区| 精品国产av色一区二区深夜久久 | 国产精品厕所| 亚洲AV无码日韩一区二区乱| 国产三级精品三级在线专区| 中文字幕乱码无码人妻系列蜜桃| 亚洲依依成人综合在线网址| 熟女人妻丰满熟妇啪啪| 妇女自拍偷自拍亚洲精品| 在线免费看91免费版.| 国产精品无码一区二区三区在| 国产精品久久久久9999| 亚洲av无码成人黄网站在线观看| 娇妻粗大高潮白浆| 午夜精品久久99蜜桃| 欧美顶级少妇作爱| 久久精品一区二区三区av| 视频一区欧美| 青青草视频在线播放81| 18禁裸体动漫美女无遮挡网站| 天天综合网在线观看视频| 1717国产精品久久| 欧美日韩国产在线成人网| 手机在线免费av网址| 久久精品第九区免费观看| 97高清国语自产拍| 五月天激情综合网| 日本在线播放不卡免费一区二区| 亚洲中文字幕久久在线|