亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向無(wú)人車(chē)近距離行人跟蹤的自適應(yīng)雙重識(shí)別技術(shù)

        2023-07-12 06:21:00黃文藝彭勇禮張春霞
        關(guān)鍵詞:卡爾曼濾波特征檢測(cè)

        黃文藝,王 博,孫 超,盧 兵,彭勇禮,張春霞

        (1.北京理工大學(xué) 電動(dòng)車(chē)輛國(guó)家工程實(shí)驗(yàn)室,北京 100081;2.北京理工大學(xué)深圳汽車(chē)研究院 電動(dòng)車(chē)輛國(guó)家工程實(shí)驗(yàn)室深圳研究院,深圳 518000)

        0 引言

        近年來(lái),隨著人工智能與計(jì)算機(jī)技術(shù)的飛速發(fā)展,自動(dòng)駕駛技術(shù)愈發(fā)成熟。自動(dòng)駕駛車(chē)輛主要通過(guò)搭載激光雷達(dá)、毫米波、攝像頭、超聲波4類(lèi)傳感器對(duì)外界進(jìn)行感知,從而進(jìn)行實(shí)時(shí)規(guī)劃與控制。然而,目前受傳感器精度、算力、成本、法律法規(guī)等因素的影響,無(wú)人駕駛在公共交通環(huán)境方面的應(yīng)用尚未完全開(kāi)展,只有部分測(cè)試路段開(kāi)展了一些研究。相對(duì)城市道路,園區(qū)場(chǎng)景的行駛環(huán)境相對(duì)簡(jiǎn)單,一般在固定路線或者固定區(qū)域內(nèi)完成巡游與漫游工作,可實(shí)現(xiàn)人員搭載、貨物配送、廣告投放、無(wú)人清掃等功能,市場(chǎng)需求巨大。因此,大部分科技公司已經(jīng)對(duì)商用園區(qū)無(wú)人車(chē)開(kāi)展研發(fā)與生產(chǎn),并實(shí)現(xiàn)智能導(dǎo)航、自動(dòng)巡游、自主避障等功能[1]。

        商用園區(qū)無(wú)人車(chē)的主要服務(wù)對(duì)象是園區(qū)內(nèi)的工作人員與行人,因此,對(duì)人的檢測(cè)與跟蹤至關(guān)重要。傳統(tǒng)的行人檢測(cè)算法依賴(lài)相關(guān)領(lǐng)域的專(zhuān)家設(shè)計(jì)特征對(duì)圖像中行人進(jìn)行定位,嚴(yán)重影響檢測(cè)精度與速度。目前主流的基于深度學(xué)習(xí)的行人檢測(cè)算法是通過(guò)大量的行人數(shù)據(jù)集來(lái)自適應(yīng)提取與學(xué)習(xí)特征,其中包括視覺(jué)與激光雷達(dá)的深度學(xué)習(xí)算法。視覺(jué)深度學(xué)習(xí)的行人檢測(cè)算法代表為YOLO[2-6]系列算法,YOLO系列算法作為one-stage算法的代表,雖然其在檢測(cè)的性能上相比two-satge算法略有不足,但在檢測(cè)速度上優(yōu)勢(shì)明顯。激光雷達(dá)深度學(xué)習(xí)的行人檢測(cè)算法代表為PointPillars[7],這兩類(lèi)算法已在工業(yè)界廣泛應(yīng)用。然而,由于激光雷達(dá)的安裝高度導(dǎo)致近距離盲區(qū)及近距離行人數(shù)據(jù)集缺乏,無(wú)法基于激光雷達(dá)與視覺(jué)對(duì)近距離的行人進(jìn)行檢測(cè),一定程度上影響了無(wú)人車(chē)的安全性與智能化。

        因此,本文提出了一種基于自適應(yīng)雙重識(shí)別技術(shù)的視覺(jué)近距離行人跟蹤算法,可解決行人靠近無(wú)人車(chē)無(wú)法被識(shí)別的問(wèn)題。通過(guò)卡爾曼生成預(yù)測(cè)錨框,結(jié)合重識(shí)別網(wǎng)絡(luò)提取對(duì)應(yīng)行人外觀特征,實(shí)現(xiàn)對(duì)行人近距離的跟蹤與測(cè)距[8-9],同時(shí),行人回到視覺(jué)視野后將恢復(fù)消失前的ID,提高了對(duì)行人的跟蹤能力。

        1 YOLO系列算法

        基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法,主要分為單階段(one-stage)和兩階段(two-stage)2類(lèi),其中R-CNN[10]是基于Region proposal的檢測(cè)算法,是two stage算法的代表。該方法先利用圖像分割算法得到目標(biāo)候選區(qū)域,再通過(guò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行分類(lèi)以及回歸操作。Fast-RCNN[11]解決了R-CNN提取特征時(shí)間過(guò)長(zhǎng)的問(wèn)題,但在實(shí)際預(yù)測(cè)過(guò)程中候選框的選定依然占用了較多時(shí)間。在Fast-RCNN 基礎(chǔ)上,Faster-RCNN[12]中提出了無(wú)錨框(anchor-free)的概念,并且加入了一個(gè)區(qū)域預(yù)測(cè)網(wǎng)絡(luò),可以直接產(chǎn)生候選區(qū)域,提升檢測(cè)的精度和速度。上述two stage檢測(cè)方法雖然可以充分提取圖像特征,但都存在檢測(cè)速度過(guò)慢的問(wèn)題。YOLO系列算法是端到端的檢測(cè)算法,是one stage的代表性方法[13]。這類(lèi)方法直接將目標(biāo)的分類(lèi)及定位轉(zhuǎn)化為回歸問(wèn)題,算法速度快,但檢測(cè)準(zhǔn)確率相對(duì)two stage算法較低。目前,YOLOV5已在YOLO系列算法的基礎(chǔ)上對(duì)主干網(wǎng)絡(luò)、激活函數(shù)及損失函數(shù)進(jìn)行了大幅優(yōu)化,是現(xiàn)階段精度和速度表現(xiàn)都十分優(yōu)異的目標(biāo)檢測(cè)算法之一,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。此外,各算法的結(jié)構(gòu)對(duì)比如表1所示,YOLOV1[2]的主干結(jié)構(gòu)是GoogleNet,輸出層采用全連接層,推理過(guò)程中,輸入圖像必須與訓(xùn)練圖像具有相同的圖像分辨率。損失函數(shù)使用的是均方誤差(MSE)損失函數(shù),該函數(shù)的缺陷是將8維定位誤差和20維分類(lèi)誤差置于同等重要程度。YOLOV2[3]相比V1,在繼續(xù)保持處理速度的基礎(chǔ)上,從預(yù)測(cè)更準(zhǔn)確,速度更快,識(shí)別對(duì)象更多3個(gè)方面做了改善,作者將主干網(wǎng)絡(luò)換成了Darknet19,使檢測(cè)速度更快,同時(shí),在頸部增加了passthrough,能夠保留特征圖中的一些細(xì)節(jié)信息,使模型能夠更好地檢測(cè)一些較小的目標(biāo)。同時(shí),將輸出層改成了全卷積層,模型在檢測(cè)的時(shí)候不需固定圖像尺寸。YOLOV3[4]相比V2,為了更好地檢測(cè)目標(biāo),將主干網(wǎng)絡(luò)由Darknet19改成了Darknet53,結(jié)合FPN和融合做法,V3最后在多個(gè)尺度下的特征圖上進(jìn)行檢測(cè),即在不同分支上對(duì)大、中、小目標(biāo)進(jìn)行檢測(cè),同時(shí)將損失目標(biāo)改成交叉熵,即對(duì)圖像中檢測(cè)到的對(duì)象執(zhí)行多標(biāo)簽分類(lèi)。

        圖1 YOLOV5網(wǎng)絡(luò)結(jié)構(gòu)框圖

        表1 YOLO系列算法

        續(xù)表(表1)

        YOLOV4[5]相比V3,在主干網(wǎng)絡(luò)Darknet53做了一些改進(jìn),借鑒CSPnet,解決了主干網(wǎng)絡(luò)中梯度信息重復(fù)問(wèn)題,將梯度的變化從頭到尾集成到特征圖中,因此,減少了模型的參數(shù)量和FLOPS數(shù)值,既保證了推理速度和準(zhǔn)確率,又減少了模型尺寸。同時(shí)在V3的基礎(chǔ)上,增加SPP結(jié)構(gòu),可以增加感受野,增加PAN結(jié)構(gòu)來(lái)concat各個(gè)尺度的特征圖。將損失函數(shù)改成CIOU,將目標(biāo)框的寬高比加入進(jìn)去。YOLOV5相比V4,主干網(wǎng)絡(luò)中使用了Focus結(jié)構(gòu)作為基準(zhǔn)網(wǎng)絡(luò),網(wǎng)絡(luò)的頸部加入了csp結(jié)構(gòu),將損失函數(shù)改成了GIOU函數(shù),這樣改進(jìn)后,使得V5相比V4,在速度和性能上有所提升。YOLOV7[6]在V5的基礎(chǔ)上增加了E-ELAN結(jié)構(gòu),使得V7在速度和精度上有較大提升。同時(shí)V7還能夠檢測(cè)更多細(xì)粒度的對(duì)象,訓(xùn)練和推理速度更占優(yōu)勢(shì),并且占用的內(nèi)存更少,因此,在實(shí)際的應(yīng)用中,V5比V7合適。YOLOV8相比YOLOV5,主要是在backbone中將V5的C3結(jié)構(gòu)改成了C2f模塊,在NECK部分將V5中的PAN-FPN上采樣的CDS1X1刪除,并將C3模塊替換成了C2f模塊,在head部分,將Anchor-based換成Anchor-free結(jié)構(gòu),同時(shí)正負(fù)樣本的分配策略由靜態(tài)分配策略換成動(dòng)態(tài)分配策略(TAL)。通過(guò)以上改進(jìn),YOLOV8相比YOLOV5,在coco數(shù)據(jù)集上的精度有明顯提升,但是在推理速度上變慢了,且YOLOV8在自定義數(shù)據(jù)集上的泛化性沒(méi)有得到廣泛驗(yàn)證,因此,綜合考慮,本研究采用YOLOV5作為檢測(cè)器。

        2 DeepSort跟蹤算法

        Simple online and realtime tracking(SORT)是一種簡(jiǎn)單、有效、實(shí)用的多目標(biāo)跟蹤算法。在SORT算法中,僅僅通過(guò)IOU(交并比)來(lái)進(jìn)行匹配,雖然速度快,但容易出現(xiàn)ID switch(ID變化)。DeepSORT[14]算法是在SORT的基礎(chǔ)上,通過(guò)集成表觀信息來(lái)提升SORT的表現(xiàn)。通過(guò)這個(gè)擴(kuò)展,模型能夠更好地處理目標(biāo)被長(zhǎng)時(shí)間遮擋的情況,將ID switch 指標(biāo)降低了45%,DeepSORT算法的流程如圖2所示。表觀信息是目標(biāo)對(duì)應(yīng)的外觀特征,是通過(guò)在大型行人重識(shí)別數(shù)據(jù)集上訓(xùn)練wide residual network,得到重識(shí)別網(wǎng)絡(luò)的深度關(guān)聯(lián)度量,提取目標(biāo)的獨(dú)立特征。重識(shí)別的網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。網(wǎng)絡(luò)最終輸出是一個(gè)128維的向量,用于代表該部分表觀特征(一般維度越高,區(qū)分度越高,計(jì)算量越大)。最后使用L2范數(shù)將歸一化特征映射到單位超球面上,以便進(jìn)一步使用余弦表觀度量相似度。此外,DeepSORT區(qū)別于SORT的一個(gè)核心算法在于級(jí)聯(lián)匹配算法,通過(guò)讓當(dāng)前Detection結(jié)果匹配上當(dāng)前時(shí)刻最近的Tracker,匹配過(guò)程將優(yōu)先匹配時(shí)間消失較短的Tracker,以解決目標(biāo)長(zhǎng)時(shí)間被遮擋,出現(xiàn)ID switch的問(wèn)題[15-18]。

        圖2 DeepSort流程框圖

        表2 重識(shí)別網(wǎng)絡(luò)架構(gòu)

        3 基于自適應(yīng)雙重識(shí)別技術(shù)的近距離行人檢測(cè)

        隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的行人重識(shí)別算法取得了一系列成果,根據(jù)訓(xùn)練樣本和訓(xùn)練策略的不同,行人重識(shí)別算法可分為基于監(jiān)督學(xué)習(xí)和基于弱監(jiān)督學(xué)習(xí)兩類(lèi)方法,目前大部分的工作集中在監(jiān)督學(xué)習(xí)方面,早期研究將行人重識(shí)別看作一個(gè)多分類(lèi)問(wèn)題,只利用了全局特征,由于實(shí)際場(chǎng)景中會(huì)出現(xiàn)遮擋等情況,使得基于全局特征的模型難以達(dá)到理想的效果,后來(lái)又有學(xué)者提出使用全局特征和局部特征相結(jié)合的方法解決遮擋問(wèn)題,提取更加具有判別性的特征表示[19]。而本文的重識(shí)別網(wǎng)絡(luò)是通過(guò)深度學(xué)習(xí)來(lái)提取跟蹤框中前128維相關(guān)性向量作為行人特征的。通過(guò)該方式,在行人靠近攝像頭,行人全貌未出現(xiàn)在視野中的時(shí)候,能夠有效地對(duì)目標(biāo)進(jìn)行持續(xù)跟蹤。

        目前,基于YOLO與DeepSort的目標(biāo)檢測(cè)與跟蹤算法已在無(wú)人小車(chē)上廣泛搭載,但仍存在行人靠近小車(chē)時(shí)無(wú)法正常檢測(cè)的情況。故本文提出了基于自適應(yīng)雙重識(shí)別技術(shù)的近距離行人檢測(cè)算法,能有效跟蹤行人靠近車(chē)體后的運(yùn)動(dòng)情況,探測(cè)行人與車(chē)體的實(shí)際間距,同時(shí)在行人回到Y(jié)OLO檢測(cè)范圍后,對(duì)其ID進(jìn)行復(fù)原,有效提升了無(wú)人小車(chē)的安全性與智能化水平。

        結(jié)合卡爾曼濾波生成消失行人目標(biāo)候選框且持續(xù)更新,并通過(guò)重識(shí)別技術(shù)對(duì)行人目標(biāo)進(jìn)行特征跟蹤與ID匹配,算法Pipeline流程如圖3所示。

        圖3 基于自適應(yīng)雙重識(shí)別的近距離行人檢測(cè)算法流程框圖

        具體步驟如下:

        步驟1采用YOLOV5與DeepSort持續(xù)對(duì)視野范圍內(nèi)的目標(biāo)進(jìn)行檢測(cè)與跟蹤。

        步驟2當(dāng)行人接近無(wú)人車(chē)導(dǎo)致目標(biāo)丟失時(shí),記錄消失前最后一幀目標(biāo)圖像與目標(biāo)在圖像坐標(biāo)系下的位置p、寬w、高h(yuǎn),并采用重識(shí)別網(wǎng)絡(luò)記錄最后一幀圖像的特征向量Ft。

        步驟3在最后一幀目標(biāo)框的基礎(chǔ)上,按照一定比例增加中心擾動(dòng)與寬高擾動(dòng),生成一定數(shù)量N的先驗(yàn)框,輸出重識(shí)別網(wǎng)絡(luò),得到對(duì)應(yīng)特征向量Fa。

        步驟4求解Fa與Ft的余弦相似度,取最小值對(duì)應(yīng)的先驗(yàn)框Ai為跟蹤框并輸出,以Ai對(duì)應(yīng)框的位置pi及寬wi、高h(yuǎn)i作為卡爾曼狀態(tài)模型的輸入,自適應(yīng)預(yù)測(cè)下一幀先驗(yàn)框生成的初始中心與寬、高,并重復(fù)步驟3,直至目標(biāo)走出視野或重回視野。

        步驟5求解Ai框與DeepSort輸出的跟蹤框的IOU匹配度與特征相似度,若綜合相似度指標(biāo)超過(guò)90%,則將Ai框?qū)?yīng)之前消失的ID賦值匹配目標(biāo)。

        4 實(shí)驗(yàn)

        本文采用YOLOV5與DeepSort為基本檢測(cè)器與跟蹤器負(fù)責(zé)對(duì)中遠(yuǎn)距離行人的檢測(cè)與跟蹤,結(jié)合本文提出的融合卡爾曼濾波與重識(shí)別技術(shù)負(fù)責(zé)對(duì)近距離行人的檢測(cè)與跟蹤。以上算法的結(jié)合不僅可以降低對(duì)中遠(yuǎn)距離跟蹤框的丟失率,同時(shí)可以保證對(duì)近距離行人的持續(xù)跟蹤。

        YOLOV5的訓(xùn)練集由VOC2007中的行人圖片與INRIA行人數(shù)據(jù)集組成,并通過(guò)翻轉(zhuǎn)、灰度、伽馬矯正等數(shù)據(jù)增強(qiáng)方法進(jìn)行擴(kuò)展,共11 000張行人圖片,如圖4所示。此外,DeepSort中的重識(shí)別網(wǎng)絡(luò)采用開(kāi)源的wide residual network提取行人特征。

        圖4 YOLOV5訓(xùn)練數(shù)據(jù)集效果圖

        由于目前尚未公開(kāi)近距離行人檢測(cè)與跟蹤數(shù)據(jù)集,因此,本文通過(guò)實(shí)車(chē)的測(cè)試結(jié)果分析算法的可行性,將該算法部署在無(wú)人小車(chē)上,并測(cè)試行人從遠(yuǎn)至近、從近至遠(yuǎn)的行為過(guò)程,具體幀如圖5所示(其中YOLOV5+DeepSort的跟蹤框?yàn)樗{(lán)色粗線,本方法跟蹤框?yàn)榫G色細(xì)線,補(bǔ)框?yàn)樗{(lán)色細(xì)線)。

        在行人從遠(yuǎn)至近、進(jìn)入YOLO檢測(cè)盲區(qū)、從近至遠(yuǎn)的運(yùn)動(dòng)過(guò)程中,對(duì)比增加近距離行人檢測(cè)算法前后的檢測(cè)效果,綜合分析算法的實(shí)用性。

        圖5 行人由遠(yuǎn)至近跟蹤效果圖

        4.1 行人從遠(yuǎn)至近

        雖然本算法主要為了解決近距離行人丟失后的跟蹤問(wèn)題,但在中遠(yuǎn)距離檢測(cè)過(guò)程中,由于受輕量化模型AP(平均準(zhǔn)確率)不足、遮擋時(shí)間等影響,仍然存在目標(biāo)丟失與ID變化的情況,本算法同樣可解決目標(biāo)短暫丟失的問(wèn)題,效果如圖5所示。圖5(a)中,原始的YOLOV5+DeepSort算法,在模型訓(xùn)練不夠、跟蹤對(duì)連續(xù)幀要求較高的情況下,容易出現(xiàn)丟幀情況,導(dǎo)致在正常視野范圍內(nèi)出現(xiàn)ID變化的情況,圖中行人的ID由1變成了2,而在圖5(b)中,由于增加了對(duì)丟失目標(biāo)的二次跟蹤,因此,圖中行人的ID一直為1,保證了ID的穩(wěn)定性。

        4.2 進(jìn)入YOLO檢測(cè)盲區(qū)

        當(dāng)行人目標(biāo)進(jìn)入YOLO檢測(cè)盲區(qū),無(wú)法再基于DeepSort對(duì)消失目標(biāo)進(jìn)行跟蹤。本算法可在視覺(jué)范圍內(nèi)對(duì)行人目標(biāo)進(jìn)行持續(xù)跟蹤,其效果如圖6所示。

        圖6 行人進(jìn)入近距離盲區(qū)跟蹤效果圖

        圖6(a)中,原始YOLOV5+DeepSort算法由于YOLO訓(xùn)練集中并未訓(xùn)練近距離行人樣本,因此,無(wú)法檢測(cè)與跟蹤近距離的行人,嚴(yán)重影響了車(chē)輛的安全性。而圖6(b)能在同樣的位置對(duì)近距離行人進(jìn)行檢測(cè)與跟蹤,并且行人的ID處于一個(gè)穩(wěn)定狀態(tài),主要是本方法綜合考慮了目標(biāo)行人丟失前的特征信息與位置信息,在無(wú)法檢測(cè)到近距離行人的情況下,自適應(yīng)地尋找最相似錨框作為當(dāng)前幀的跟蹤框,同時(shí)結(jié)合卡爾曼濾波實(shí)時(shí)調(diào)整錨框組中心點(diǎn)位置,提升預(yù)選框的準(zhǔn)確度。

        4.3 行人從近至遠(yuǎn)

        在靠近小車(chē)的過(guò)程中,行人會(huì)由從出現(xiàn)在相機(jī)視野中變成相機(jī)不能拍到行人的全貌,隨后行人再遠(yuǎn)離小車(chē),即由相機(jī)不能拍到行人全貌,再次全貌出現(xiàn)在相機(jī)視野中,在這個(gè)過(guò)程中,行人的外表特征不明顯,一般的檢測(cè)器或跟蹤器會(huì)出現(xiàn)行人ID丟失,或者ID變換,如圖7(a)所示,只采用YOLOV5+Deepsort算法,行人在靠近小車(chē)的時(shí)候,此時(shí)行人的全貌還在相機(jī)的視野中,行人的ID為1,但是,在隨后行人全貌丟失后又出現(xiàn)在相機(jī)視野中的時(shí)候,行人的ID變成了2。而本算法,可以在行人靠近小車(chē),再次回到相機(jī)視野的時(shí)候,能將之前的ID再次復(fù)原,如圖7(b)所示,在靠近小車(chē)的時(shí)候,行人的ID為1,在行人遠(yuǎn)離小車(chē)后重新回到視野時(shí),行人的ID仍然為1,這樣保證目標(biāo)消失前后保持一致。

        為了進(jìn)一步驗(yàn)證本算法的有效性與各參數(shù)對(duì)算法的影響,在MOT16和MOT17數(shù)據(jù)集上對(duì)本文的算法進(jìn)行測(cè)試,MOT16數(shù)據(jù)集是用于衡量多目標(biāo)跟蹤檢測(cè)和跟蹤方法標(biāo)準(zhǔn)的數(shù)據(jù)集,專(zhuān)門(mén)用于行人跟蹤,其中包含的場(chǎng)景較為豐富,且行人的密度很高,對(duì)于行人的跟蹤難度較大,有一定的參考意義。MOT17在MOT16數(shù)據(jù)集的基礎(chǔ)上增加了不同的場(chǎng)景。本文基于MOT16與MOT17測(cè)試集,在單張NVIDIA RTX 2060TI GPU上對(duì)YOLOV4、YOLOV5、本算法(無(wú)卡爾曼)、本算法(不同錨框個(gè)數(shù)N)、本算法在MOTA(多目標(biāo)跟蹤準(zhǔn)確度)、MOTP(多目標(biāo)跟蹤精確度)、IDF1(ID識(shí)別準(zhǔn)確度)與FPS(幀率)上進(jìn)行對(duì)比,如表3、4所示。本算法在MOT16數(shù)據(jù)集和MOT17數(shù)據(jù)集上的測(cè)試結(jié)果如圖8和圖9所示,對(duì)行人的檢測(cè)效果較好。

        表4 MOT17數(shù)據(jù)集各算法結(jié)果

        圖8 MOT16數(shù)據(jù)集測(cè)試效果圖

        圖9 MOT17數(shù)據(jù)集測(cè)試效果圖

        從表3、4分析可得以下結(jié)論:① 本算法相比傳統(tǒng)YOLO系列+DeepSort算法在MOTA與MOTP上有大幅度提高,由于在跟蹤過(guò)程中需要生成錨框并匹配,導(dǎo)致檢測(cè)速度略微降低,說(shuō)明本算法能在目標(biāo)短暫丟失、持續(xù)丟失中保持對(duì)目標(biāo)的跟蹤;② 對(duì)比有無(wú)卡爾曼濾波對(duì)錨框中心的影響可以發(fā)現(xiàn),融合卡爾曼濾波的算法在MTOA與MOTP上有一定程度的提升,說(shuō)明基于卡爾曼濾波預(yù)測(cè)的錨框中心能有效預(yù)測(cè)運(yùn)動(dòng)目標(biāo)走向;③ 基于卡爾曼的錨框數(shù)增加在一定程度上可以增加算法的MOTA與MTOP,但過(guò)多的錨框數(shù)會(huì)增加算法的復(fù)雜度,從而影響算法幀率。

        5 結(jié)論

        本文提出了一種應(yīng)用于無(wú)人小車(chē)的近距離行人檢測(cè)算法。在傳統(tǒng)的YOLOV5+DeepSort算法基礎(chǔ)上,結(jié)合卡爾曼濾波算法,對(duì)由遠(yuǎn)至近、由近至遠(yuǎn)過(guò)程中,行人存在的短暫目標(biāo)丟失和持續(xù)目標(biāo)丟失,進(jìn)行雙重識(shí)別跟蹤,提升跟蹤的穩(wěn)定性。通過(guò)對(duì)目標(biāo)丟失前的運(yùn)動(dòng)信息與特征信息進(jìn)行融合處理,采用自適應(yīng)濾波方法與重識(shí)別方法,對(duì)下一幀目標(biāo)可能存在的位置,進(jìn)行批量預(yù)測(cè)與特征相似度匹配,實(shí)現(xiàn)在傳統(tǒng)檢測(cè)丟失、跟蹤丟失的情況下,持續(xù)有效地捕捉目標(biāo),提升無(wú)人小車(chē)的安全性與智能化。結(jié)果表明,本算法相比傳統(tǒng)的跟蹤算法具有更高的MOTA與MOTP,同時(shí)檢測(cè)速度并無(wú)明顯降低。此外,針對(duì)目標(biāo)持續(xù)丟失的情況,對(duì)比有無(wú)卡爾曼濾波器對(duì)跟蹤結(jié)果的影響,結(jié)果表明,卡爾曼能自適應(yīng)增強(qiáng)預(yù)測(cè)錨框的準(zhǔn)確性,為相似度匹配提供更好的樣本基礎(chǔ)。本文中,跟蹤方法中的線性卡爾曼濾波是在假設(shè)高斯和線性動(dòng)作和觀測(cè)模型下進(jìn)行的,但是現(xiàn)實(shí)情況比較復(fù)雜,因此,后續(xù)嘗試將線性卡爾曼濾波換成無(wú)跡卡爾曼濾波,對(duì)重識(shí)別網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化,以更精準(zhǔn)地捕捉對(duì)象的特征。

        猜你喜歡
        卡爾曼濾波特征檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        基于遞推更新卡爾曼濾波的磁偶極子目標(biāo)跟蹤
        抓住特征巧觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        基于模糊卡爾曼濾波算法的動(dòng)力電池SOC估計(jì)
        基于擴(kuò)展卡爾曼濾波的PMSM無(wú)位置傳感器控制
        色噜噜狠狠色综合中文字幕| 亚洲av无码成人精品区狼人影院| 无码一区二区三区在线| 一区二区日韩国产精品| 亚洲精品熟女乱色一区| 国内精品亚洲成av人片| 国产69精品久久久久久久| 粉嫩少妇内射浓精videos| 国产一级r片内射免费视频| 亚洲精品第四页中文字幕 | 久久久久亚洲av无码麻豆| 亚洲h视频| 中文字幕一区二区三区在线视频| 国产在线观看午夜视频| 婷婷久久香蕉五月综合加勒比| 亚洲av国产av综合av| 亚洲精品一品二品av| 邻居人妻的肉欲满足中文字幕| 人妻aⅴ中文字幕| 一级片久久| 久久精品国产福利亚洲av| 色窝窝亚洲av网在线观看| 免费人成视频在线观看网站| 亚洲国产福利成人一区二区| 中文文精品字幕一区二区| 亚洲午夜精品国产一区二区三区| 国产在线一区二区三区四区不卡| 中文乱码字慕人妻熟女人妻| 亚洲国产成人AV人片久久网站| 在线亚洲精品免费视频| 中文字幕av中文字无码亚| 亚洲 高清 成人 动漫| yw193.can尤物国产在线网页| 美女视频在线观看网址大全| 欧美性色黄大片手机版| 精品无码AⅤ片| 在线观看视频国产一区二区三区| 亚洲精品一区二区国产精华液| 大地资源中文在线观看官网第二页 | 欧美色欧美亚洲另类二区| 欧美丰满熟妇aaaaa片|