亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于DeepSort的動(dòng)態(tài)車輛多目標(biāo)跟蹤方法研究*

        2023-11-29 02:31:06何維堃彭育輝黃煒姚宇捷陳澤輝
        汽車技術(shù) 2023年11期
        關(guān)鍵詞:殘差軌跡物體

        何維堃 彭育輝 黃煒 姚宇捷 陳澤輝

        (福州大學(xué),福州 350116)

        主題詞:多目標(biāo)跟蹤 DeepSort 自動(dòng)駕駛 Haar-like SENet

        1 前言

        面對(duì)復(fù)雜多變的交通環(huán)境,自動(dòng)駕駛汽車需不斷提高對(duì)車外環(huán)境的感知能力。其中,檢測(cè)與跟蹤道路行駛車輛并預(yù)測(cè)其運(yùn)動(dòng)軌跡是環(huán)境感知研究領(lǐng)域的重要課題。

        近年來(lái),多目標(biāo)跟蹤識(shí)別網(wǎng)絡(luò)在智能駕駛方面的應(yīng)用引起了國(guó)內(nèi)外學(xué)者的普遍關(guān)注[1-2],解決行駛過(guò)程中車輛的身份切換問(wèn)題是本文研究的重點(diǎn)。在基于Deep-Sort 的研究方面,Perera 等將DeepSort 中的卡爾曼濾波替換為無(wú)跡卡爾曼濾波[3];Mu等將卡爾曼濾波替換為拓展卡爾曼濾波[4],使網(wǎng)絡(luò)能更好地處理應(yīng)用場(chǎng)景的非線性問(wèn)題,對(duì)目標(biāo)未來(lái)幀進(jìn)行有效預(yù)測(cè),但依然無(wú)法保證預(yù)測(cè)本身的準(zhǔn)確性;裴云成將交并比(Intersection Over Union,IOU)匹配更換成廣義交并比(Generalized Intersection Over Union,GIOU)[5],使網(wǎng)絡(luò)能更有效地判斷檢測(cè)框和預(yù)測(cè)框之間的權(quán)重分配,但無(wú)法很好地解決特征匹配時(shí)出現(xiàn)失配的問(wèn)題。在DeepSort網(wǎng)絡(luò)中,重識(shí)別網(wǎng)絡(luò)提取的深度特征用于前、后幀物體的特征匹配,在防止身份切換時(shí)能起到很好的作用。金立生等將檢測(cè)器更換為Gaussian YOLO V3,并用重識(shí)別網(wǎng)絡(luò)的中心損失函數(shù)代替交叉熵函數(shù),提高對(duì)車輛特征的提取性能與跟蹤網(wǎng)絡(luò)的判斷能力[6],但當(dāng)光照發(fā)生變化時(shí),網(wǎng)絡(luò)無(wú)法適應(yīng)環(huán)境的改變,從而導(dǎo)致身份切換;Wu等將重識(shí)別網(wǎng)絡(luò)替換為ShuffleNet V2 以適用于計(jì)算能力較低的設(shè)備[7],但在復(fù)雜場(chǎng)景下,無(wú)法很好地提取物體的特征;Liu 等將原有的重識(shí)別網(wǎng)絡(luò)替換為ResNet50[8],加深了網(wǎng)絡(luò)深度,并結(jié)合特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)提取物體的多層特征,但復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)增加了計(jì)算負(fù)擔(dān)。

        綜上,復(fù)雜場(chǎng)景下跟蹤檢測(cè)目標(biāo)時(shí),跟蹤器的準(zhǔn)確性及穩(wěn)定性較差,現(xiàn)有的重識(shí)別網(wǎng)絡(luò)無(wú)法有效地對(duì)不同場(chǎng)景下的車輛進(jìn)行特征提取,前、后幀中目標(biāo)的匹配效果較差。為此,本文采用YOLOX 作為檢測(cè)器,對(duì)基于DeepSort研究中重識(shí)別網(wǎng)絡(luò)的特征匹配方法進(jìn)行改進(jìn),添加Haar-like 特征反映車輛的光暗變化,對(duì)原有的特征匹配機(jī)制進(jìn)行補(bǔ)充,在協(xié)調(diào)匹配速度的同時(shí)加深重識(shí)別網(wǎng)絡(luò)層數(shù)并添加SENet 注意力機(jī)制強(qiáng)化提取車輛外觀特征的能力,最后通過(guò)實(shí)際道路采集的視頻數(shù)據(jù)集對(duì)算法的有效性進(jìn)行驗(yàn)證。

        2 多特征融合匹配

        2.1 距離度量

        DeepSort 是基于匈牙利算法和卡爾曼濾波算法的單假設(shè)跟蹤方法,引入卡爾曼濾波對(duì)軌跡運(yùn)動(dòng)狀態(tài)進(jìn)行預(yù)測(cè),將檢測(cè)結(jié)果經(jīng)重識(shí)別網(wǎng)絡(luò)提取的特征與軌跡儲(chǔ)存的特征共同傳入匈牙利算法,進(jìn)行關(guān)聯(lián)匹配。在匹配過(guò)程中,對(duì)檢測(cè)結(jié)果框、軌跡預(yù)測(cè)框的馬氏距離及深度特征的余弦距離信息進(jìn)行整合判斷。

        余弦距離主要用于衡量檢測(cè)結(jié)果與軌跡的特征向量間的差距。對(duì)于物體被遮擋后再出現(xiàn)的情況,網(wǎng)絡(luò)將軌跡中儲(chǔ)存的特征集與物體在重新出現(xiàn)時(shí)的特征向量進(jìn)行計(jì)算,得出其最小余弦距離:

        式中,d(1)(i,j)為第j個(gè)檢測(cè)框內(nèi)的特征向量與第i個(gè)軌跡的特征向量之間的最小余弦距離;rj為第j個(gè)檢測(cè)框內(nèi)的特征向量;為跟蹤器存儲(chǔ)的第i個(gè)軌跡的特征向量集,其包含第i個(gè)軌跡過(guò)去成功匹配的k個(gè)特征向量;Ri為第i個(gè)軌跡的特征向量庫(kù)。

        馬氏距離用于衡量上一幀中目標(biāo)經(jīng)過(guò)卡爾曼濾波預(yù)測(cè)的位置信息與檢測(cè)結(jié)果的位置信息的差距:

        式中,d(2)(i,j)為第j個(gè)檢測(cè)框和第i個(gè)由跟蹤器預(yù)測(cè)的物體框之間的馬氏距離;dj為第j個(gè)檢測(cè)框的位置信息;yi為第i個(gè)由跟蹤器預(yù)測(cè)的物體框位置信息;Si為第i條軌跡在檢測(cè)空間的協(xié)方差矩陣。

        將基于外觀特征的余弦距離和基于運(yùn)動(dòng)信息的馬氏距離進(jìn)行線性加權(quán)獲得最終的度量:

        式中,ci,j為最終度量標(biāo)準(zhǔn);λ為權(quán)重系數(shù)。

        交通場(chǎng)景中的車輛運(yùn)動(dòng)軌跡是非線性的,而卡爾曼濾波采用線性狀態(tài)方程,因此預(yù)測(cè)能力較弱[9]。通過(guò)物體的運(yùn)動(dòng)狀態(tài)預(yù)測(cè)出的運(yùn)動(dòng)信息估計(jì)量會(huì)存在一定偏差,導(dǎo)致馬氏距離關(guān)聯(lián)方法易失效,從而造成身份跳轉(zhuǎn)的現(xiàn)象。在最終度量中設(shè)置λ=0,使馬氏距離在級(jí)聯(lián)匹配過(guò)程中僅為判定值。當(dāng)2 個(gè)物體的對(duì)象特征一致且兩者的馬氏距離小于一定閾值,則判定匹配成功。

        2.2 Haar-like特征匹配

        自動(dòng)駕駛所涉及的場(chǎng)景多變且復(fù)雜,在車輛的多目標(biāo)跟蹤中,車輛之間的相互遮蔽、場(chǎng)景變換、光下的陰影變換都將導(dǎo)致追蹤目標(biāo)失敗。本文融合傳統(tǒng)特征與深度特征信息,結(jié)合各自的優(yōu)點(diǎn)解決跟蹤過(guò)程中身份跳轉(zhuǎn)的問(wèn)題。

        傳統(tǒng)特征相較于深度特征,在精度方面的表現(xiàn)較差,且泛化能力不足。深度特征的提取受訓(xùn)練集影響較大,訓(xùn)練過(guò)程需要大量的場(chǎng)景圖像數(shù)據(jù),而傳統(tǒng)特征的提取作為人工認(rèn)知驅(qū)動(dòng)的方法,具有解釋性,不需要訓(xùn)練,且對(duì)算力的要求較低。因此,本文算法以原有的深度特征作為主要匹配依據(jù),融合傳統(tǒng)特征Haar-like 作為補(bǔ)充匹配。

        Haar-like[10]是計(jì)算機(jī)視覺(jué)和圖像處理中用于目標(biāo)檢測(cè)的特征描述算子。特征模板內(nèi)有白色和黑色2 種矩形,矩形的位置關(guān)系不同,影響著所提取的特征信息,如邊緣特征、線條特征、中心特征、對(duì)角線特征。通過(guò)特征模塊大小的變換和在圖片子窗口的移動(dòng)得到所需的特征,如圖1所示。其中,圖片特征提取框?yàn)閅OLOX輸出圖片,而非整張圖,可明顯縮短特征提取的時(shí)間。

        圖1 特征模塊移動(dòng)方式

        傳統(tǒng)特征中,Haar-like 能夠表示圖像像素值明暗變化信息,能更好地體現(xiàn)車輛行駛狀態(tài)的特征[11]。在原有的DeepSort中加入Haar-like,將深度神經(jīng)網(wǎng)絡(luò)提取的車輛抽象特征與Haar-like信息相融合[12],可有效增強(qiáng)網(wǎng)絡(luò)對(duì)不同場(chǎng)景的適應(yīng)性。圖2 所示為融入Haar-like 特征的DeepSort網(wǎng)絡(luò)結(jié)構(gòu)。首先,對(duì)檢測(cè)器輸入結(jié)果進(jìn)行深度特征提取和Haar-like 特征提取。在匹配過(guò)程中,將確認(rèn)態(tài)軌跡中所保留的深度特征與重識(shí)別網(wǎng)絡(luò)提取的深度特征進(jìn)行匹配,再將未匹配的軌跡和檢測(cè)物體進(jìn)行Haar-like特征匹配,最后進(jìn)行IOU匹配。

        圖2 融合Haar-like的DeepSort目標(biāo)跟蹤算法流程

        3 重識(shí)別網(wǎng)絡(luò)的優(yōu)化

        車輛目標(biāo)由于遮擋或未被檢測(cè),會(huì)出現(xiàn)與之前的目標(biāo)斷開(kāi)聯(lián)系且在短時(shí)間內(nèi)重新出現(xiàn)在檢測(cè)器中的現(xiàn)象。DeepSort利用重識(shí)別網(wǎng)絡(luò)提取車輛外觀信息,再將外觀信息放入級(jí)聯(lián)匹配。通過(guò)計(jì)算不同幀物體的外觀信息的余弦距離,進(jìn)行物體的相似度配對(duì),將同一輛車重新建立聯(lián)系。

        車輛作為剛體,在不同視角下所呈現(xiàn)的姿態(tài)、大小多變[13]。在自動(dòng)駕駛過(guò)程中,當(dāng)檢測(cè)車輛與攝像頭的距離發(fā)生改變,或檢測(cè)車輛處于半遮擋及轉(zhuǎn)彎的狀態(tài),檢測(cè)車輛的外觀都會(huì)發(fā)生變化。在原網(wǎng)絡(luò)中,重識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,無(wú)法準(zhǔn)確提取行駛過(guò)程中實(shí)時(shí)變化的車輛外觀信息,在重識(shí)別車輛時(shí)具有明顯的局限性。

        3.1 物體框尺寸的計(jì)算

        無(wú)人駕駛車輛行駛過(guò)程中,對(duì)象車輛由于距離變化及遮擋的原因,其寬和高在視頻中的形變量較大。經(jīng)過(guò)YOLOX[14]檢測(cè)器識(shí)別后,檢測(cè)器會(huì)將車輛的物體框傳入追蹤網(wǎng)絡(luò)。重識(shí)別網(wǎng)絡(luò)對(duì)車輛特征進(jìn)行提取的過(guò)程中,需要重新調(diào)整圖像大小。原網(wǎng)絡(luò)中定義了圖片的高為128,寬為64,適用于對(duì)行人的特征提取,但無(wú)法滿足對(duì)車輛的特征提取[15]。為避免過(guò)大幅度地調(diào)整圖片的高和寬,導(dǎo)致識(shí)別誤差,應(yīng)尋找合適的車輛物體框的高和寬。

        本文在自制的道路數(shù)據(jù)集上進(jìn)行標(biāo)注,截取視頻中不同場(chǎng)景下(無(wú)遮擋、被其他車輛、樹(shù)木和路障等遮擋)不同車型(掛車、皮卡和轎車等)大小及形態(tài)不同的物體框,對(duì)識(shí)別的物體框的寬和高進(jìn)行均值處理,求得最優(yōu)的物體框尺寸為高96、寬128。

        3.2 重識(shí)別網(wǎng)絡(luò)加深

        在重識(shí)別網(wǎng)絡(luò)中,提取的語(yǔ)義信息隨著卷積層數(shù)的加深而越來(lái)越明顯。加深網(wǎng)絡(luò)層數(shù),會(huì)帶來(lái)更加強(qiáng)大的非線性表達(dá)能力和復(fù)雜的變換,使提取的信息愈加復(fù)雜、抽象[16]。在特征提取網(wǎng)絡(luò)中,底層網(wǎng)絡(luò)會(huì)提取物體的邊緣信息,較深層的網(wǎng)絡(luò)會(huì)提取物體的紋理特征,更深層的網(wǎng)絡(luò)則會(huì)提取目標(biāo)的形狀,能更好地表達(dá)車輛的整體信息。原始的重識(shí)別網(wǎng)絡(luò)由6個(gè)殘差網(wǎng)絡(luò)組成,最后的特征維度為128。廣泛應(yīng)用于行人的重識(shí)別網(wǎng)絡(luò)由8個(gè)殘差網(wǎng)絡(luò)組成,特征維度為512,增加了特征維度使得分類更加細(xì)致,但其仍無(wú)法進(jìn)行復(fù)雜情況下的車輛特征提取。為了提取車輛更深層次的信息,以滿足實(shí)際行車中的追蹤要求,本文在保證其時(shí)效性的同時(shí)加深了網(wǎng)絡(luò)的深度[17],稱為ResNet13,網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

        表1 ResNet13網(wǎng)絡(luò)結(jié)構(gòu)

        4 重識(shí)別網(wǎng)絡(luò)融合SENet

        SENet[18]在通道維度上增加1個(gè)注意力機(jī)制,并利用損失函數(shù)的自我學(xué)習(xí),調(diào)整不同通道維度的特征權(quán)重,增大有效特征通道的權(quán)重。根據(jù)SENet所提供的各特征通道的重要程度,網(wǎng)絡(luò)能自主地關(guān)注重要的特征通道。其包括擠壓、激勵(lì)和特征重標(biāo)定3個(gè)部分,如圖3所示。

        圖3 SENet結(jié)構(gòu)

        擠壓是將不同特征通道數(shù)(c)的特征圖集的全局信息嵌入,聚合成c×1×1的特征描述符。在不同特征通道數(shù)的特征圖集中加入SENet,將網(wǎng)絡(luò)中的特征圖集聚合成32×1×1、64×1×1、128×1×1、256×1×1、512×1×1的特征描述符。在不同層次上獲得每個(gè)特征圖集的全局描述符:

        式中,zc為特征圖擠壓聚合得到的特征描述;uc為特征圖;w為特征圖的寬;h為特征圖的高。

        獲取不同深度的特征描述符后,激勵(lì)通過(guò)2個(gè)全連接層獲取通道間的關(guān)系,再經(jīng)由Sigmoid函數(shù)轉(zhuǎn)化為不同網(wǎng)絡(luò)深度(32、64、128、256、512)下每個(gè)通道的權(quán)重值:

        式中,s為所有特征圖的權(quán)重集;σ為Sigmoid函數(shù);δ為線性整流(Rectified Linear Unit,ReLU)函數(shù);W1為第1 個(gè)全連接層操作;W2為第2個(gè)全連接層操作;z為所有特征圖擠壓聚合所得的特征描述符集。

        最后,特征重標(biāo)定將激勵(lì)獲得的通道權(quán)重逐通道加權(quán)到不同深度的原始特征圖通道上,減小不重要的特征圖的權(quán)重,提高包含重要分類信息的特征圖權(quán)重:

        式中,為特征圖與對(duì)應(yīng)權(quán)重相乘得到的特征圖;sc為特征圖的權(quán)重。

        ResNet13采用殘差塊結(jié)構(gòu)[19],將輸入的X與由多個(gè)卷積級(jí)聯(lián)輸出的F(X)相加。殘差結(jié)構(gòu)作為小型網(wǎng)絡(luò),X為輸入的觀測(cè)值,H(X)為輸出的殘差網(wǎng)絡(luò)的預(yù)測(cè)值,F(xiàn)(X)為觀測(cè)值與預(yù)測(cè)值之間的差,即殘差。該網(wǎng)絡(luò)結(jié)構(gòu)有利于保護(hù)信息的完整性,且在加深網(wǎng)絡(luò)層數(shù)的同時(shí),能有效解決梯度消失和梯度爆炸的問(wèn)題。在ResNet13中,隨著網(wǎng)絡(luò)層數(shù)的增加,特征圖的深度不斷擴(kuò)張。將SENet加入殘差網(wǎng)絡(luò)中,可以對(duì)網(wǎng)絡(luò)中不同深度的特征圖進(jìn)行重構(gòu),如圖4所示。

        圖4 殘差網(wǎng)絡(luò)結(jié)合SENet結(jié)構(gòu)

        5 試驗(yàn)

        試驗(yàn)采用開(kāi)源的PyTorch 1.6.0 深度學(xué)習(xí)框架,CPU配置為Intel?Aeon?Silver 4108,主頻1.80 GHz,顯卡為GeForce GTX 1080Ti,內(nèi) 存容量為64 GB,系統(tǒng)為Ubuntu16.04 LTS,包含Python 3.7、CUDA 10.1、CuDNN 7.6.5、OpenCV 4.4.0 環(huán)境。數(shù)據(jù)集的采集設(shè)備為長(zhǎng)虹CXC-X6行車記錄儀。

        5.1 重識(shí)別網(wǎng)絡(luò)訓(xùn)練

        將ResNet13 和SENet 應(yīng)用于復(fù)雜場(chǎng)景下對(duì)車輛特征的提取,以VeRi-776[20-21]數(shù)據(jù)集訓(xùn)練所得的準(zhǔn)確率(Accuracy)和損失(Loss)為基準(zhǔn)判斷算法的質(zhì)量。對(duì)重識(shí)別網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)集的訓(xùn)練時(shí),為保證數(shù)據(jù)的準(zhǔn)確性,3組網(wǎng)絡(luò)訓(xùn)練采用相同的參數(shù):學(xué)習(xí)率為0.001,經(jīng)過(guò)20代(epoch),學(xué)習(xí)率乘以0.1。

        準(zhǔn)確率是用于對(duì)重識(shí)別網(wǎng)絡(luò)訓(xùn)練效果進(jìn)行度量的主要指標(biāo),計(jì)算重識(shí)別模型正確分類的樣本數(shù)與總樣本數(shù)之比,本文利用誤差(Error)對(duì)準(zhǔn)確率進(jìn)行表達(dá)。圖5展示了原網(wǎng)絡(luò)6 層殘差網(wǎng)絡(luò)、8 層殘差網(wǎng)絡(luò),以及ResNet13并加入SENet網(wǎng)絡(luò)預(yù)測(cè)期間的誤差曲線。

        圖5 誤差對(duì)比

        誤差公式為:

        式中,α為誤差率;TP為真正例數(shù)量;TN為真負(fù)例數(shù)量;FP為假正例數(shù)量;FN為假負(fù)例數(shù)量。

        損失函數(shù)用于表達(dá)實(shí)際輸出和期望輸出之間的差值,使網(wǎng)絡(luò)更新模型參數(shù),減小誤差。圖6 展示了原網(wǎng)絡(luò)6 層殘差網(wǎng)絡(luò)、8 層殘差網(wǎng)絡(luò),以及ResNet13 并加入SENet網(wǎng)絡(luò)預(yù)測(cè)期間的損失。

        圖6 損失對(duì)比

        損失公式為:

        式中,q(xi)為實(shí)際輸出的各類別的概率分布;p(xi)為期望輸出各類別的分布;n為類別總數(shù);H(p,q)為交叉熵?fù)p失。

        圖5 和圖6 中,原始網(wǎng)絡(luò)的6 層殘差網(wǎng)絡(luò)與本文的重識(shí)別網(wǎng)絡(luò)都進(jìn)行850代的訓(xùn)練對(duì)比。在2個(gè)網(wǎng)絡(luò)訓(xùn)練到第80代時(shí),誤差和損失都迅速減少,隨后下降速度逐漸減緩,直至第200 代時(shí)趨于平穩(wěn)。但原始網(wǎng)絡(luò)在第200 代后,訓(xùn)練的模型精度較差,波動(dòng)較為明顯。在經(jīng)歷850代訓(xùn)練后,誤差和損失依然不理想,誤差為0.55,損失為2.35。本文網(wǎng)絡(luò)在訓(xùn)練過(guò)程中比原始網(wǎng)絡(luò)更加平穩(wěn),誤差和損失也更加精確,誤差為0.03,損失為0.16。因此,本文網(wǎng)絡(luò)在車輛外觀提取方面,比原始網(wǎng)絡(luò)具有更好的性能。

        5.2 跟蹤算法試驗(yàn)

        分別采用DeepSort 的原始版本和本文改進(jìn)的版本對(duì)車輛進(jìn)行追蹤,利用車輛在不同場(chǎng)景(城市、鄉(xiāng)村)下的視頻集進(jìn)行試驗(yàn),驗(yàn)證算法的可行性。本文的試驗(yàn)場(chǎng)景為自制的雙車道的來(lái)往車輛視頻,包括城市和鄉(xiāng)鎮(zhèn),具有一定的普遍性。

        圖7所示為原始網(wǎng)絡(luò)在數(shù)據(jù)集中前、后幀的變化情況。由圖7可知,身份標(biāo)簽為10的車輛在視頻中發(fā)生了身份跳轉(zhuǎn)。

        圖7 原始網(wǎng)絡(luò)的前、后幀變化

        圖8所示為添加Haar-like特征匹配網(wǎng)絡(luò)后,試驗(yàn)的前、后幀變化情況。當(dāng)車輛處于視頻的遠(yuǎn)端角落時(shí),會(huì)發(fā)生形變及特征不清晰的情況。原始重識(shí)別網(wǎng)絡(luò)提取的深度特征不足以應(yīng)對(duì)復(fù)雜的車輛行駛情況,從而發(fā)生身份跳轉(zhuǎn)。添加Haar-like特征匹配網(wǎng)絡(luò)以提取目標(biāo)車輛的光暗變化,從而實(shí)現(xiàn)對(duì)原始網(wǎng)絡(luò)在深度特征匹配之后的補(bǔ)齊。將深度特征無(wú)法匹配的車輛進(jìn)行Haar-like特征再匹配,抑制了身份跳轉(zhuǎn)的發(fā)生。

        圖8 添加Haar-like特征匹配網(wǎng)絡(luò)的前、后幀變化

        圖9所示為原始網(wǎng)絡(luò)在數(shù)據(jù)集中前、后幀的變化情況。車輛失去識(shí)別后再次出現(xiàn)時(shí),身份標(biāo)簽為3的車輛發(fā)生了身份跳轉(zhuǎn)。

        圖9 原始網(wǎng)絡(luò)的前、后幀變化

        圖10所示為改進(jìn)后的ResNet13以及添加了注意力機(jī)制網(wǎng)絡(luò)后,視頻前、后幀的變化情況。在相同視頻幀下,車輛的身份并沒(méi)有發(fā)生切換;在車輛處于半遮擋狀態(tài)時(shí),ResNet13可提高網(wǎng)絡(luò)對(duì)車輛的特征提取效果。結(jié)果表明:SENet 可自動(dòng)學(xué)習(xí)到不同通道特征的重要程度,注意力機(jī)制提高了目標(biāo)特征的權(quán)重,使網(wǎng)絡(luò)專注于信息量大的通道特征,減弱不重要信息的通道特征,將ResNet13與SENet相結(jié)合可達(dá)到更好的匹配結(jié)果。

        圖10 加深網(wǎng)絡(luò)和加入SENet的前、后幀變化

        5.3 追蹤結(jié)果測(cè)試與分析

        采用多目標(biāo)跟蹤精度(Multiple Object Tracking Accuracy,MOTA)、平均數(shù)比率IDF1(Identification F1)和幀速率3 個(gè)評(píng)價(jià)指標(biāo)對(duì)跟蹤算法進(jìn)行評(píng)估。MOTA衡量了跟蹤器在檢測(cè)物體和保持軌跡時(shí)的性能,相比IDF1更專注于檢測(cè)器的性能。IDF1用于判斷跟蹤器在視頻中長(zhǎng)時(shí)間地對(duì)同一事物進(jìn)行準(zhǔn)確跟蹤的能力,著重于計(jì)算物體的初始身份號(hào)碼占其在視頻中出現(xiàn)的所有身份號(hào)碼的比例。幀速率反映了處理速度。對(duì)比算法的評(píng)價(jià)結(jié)果,如表2所示。

        表2 評(píng)價(jià)結(jié)果

        由表2可知,在跟蹤網(wǎng)絡(luò)中加入Haar-like特征且對(duì)重識(shí)別網(wǎng)絡(luò)進(jìn)行改進(jìn),可有效提升跟蹤網(wǎng)絡(luò)的效果。

        6 結(jié)束語(yǔ)

        本文針對(duì)自動(dòng)駕駛汽車,面向外界動(dòng)態(tài)車輛多目標(biāo)跟蹤的場(chǎng)景,提出以YOLOX 為前端檢測(cè)器的DeepSort改進(jìn)算法,利用Haar-like 算法提取車輛的光暗變化特征,實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)原有匹配機(jī)制的補(bǔ)充。此外,通過(guò)ResNet13 網(wǎng)絡(luò)對(duì)重識(shí)別網(wǎng)絡(luò)進(jìn)行更換、添加注意力機(jī)制,從而提高重識(shí)別網(wǎng)絡(luò)對(duì)車輛深度特征的提取能力。采用實(shí)際道路駕駛采集的視頻數(shù)據(jù),對(duì)本文算法和傳統(tǒng)算法進(jìn)行對(duì)比驗(yàn)證,結(jié)果表明:相較于傳統(tǒng)DeepSort 算法,改進(jìn)后算法的MOTA 提高了1.4 百分點(diǎn),IDF1 提升了7.7百分點(diǎn)。

        猜你喜歡
        殘差軌跡物體
        基于雙向GRU與殘差擬合的車輛跟馳建模
        基于殘差學(xué)習(xí)的自適應(yīng)無(wú)人機(jī)目標(biāo)跟蹤算法
        軌跡
        軌跡
        深刻理解物體的平衡
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        我們是怎樣看到物體的
        軌跡
        進(jìn)化的軌跡(一)——進(jìn)化,無(wú)盡的適應(yīng)
        為什么同一物體在世界各地重量不一樣?
        亚洲av手机在线一区| 秋霞午夜无码鲁丝片午夜精品| 99热这里只有精品国产66| 亚洲无av高清一区不卡| 国产情侣自拍一区视频| 天天躁日日躁狠狠久久| 久久精品免费免费直播| 国产人妖一区二区av| 中文乱码字字幕在线国语| 日韩精品区一区二区三vr| 中文字幕国产91| 少妇人妻中文字幕在线| 国模gogo无码人体啪啪| 亚洲国产成人久久综合电影| 国内自拍偷拍亚洲天堂| 精品国产免费一区二区久久| 成视频年人黄网站免费视频| 97久久精品人人做人人爽| 色哟哟av网站在线观看| 美女脱掉内裤扒开下面让人插| 精品无码无人网站免费视频| 日韩手机在线免费视频| 杨幂二区三区免费视频| 色哟哟亚洲色精一区二区| 男人添女人下部高潮全视频| 日韩偷拍一区二区三区视频| 久久成人精品国产免费网站| 国产熟妇与子伦hd| 久久tv中文字幕首页| 在线视频一区二区在线观看| 国产视频一区二区三区在线免费| 成人爽a毛片在线视频| 亚洲三级香港三级久久| 少妇熟女天堂网av天堂| 精品亚洲成a人无码成a在线观看| 亚洲欧美精品91| 久久国产女同一区二区 | 欧美大屁股xxxx高潮喷水| 亚洲成在人线av| 国产特黄1区2区3区4区| 亚洲av无码成人精品国产|