黃躍珍 王乃洲 梁添才 趙清利
(1.國防科技大學(xué) 計(jì)算機(jī)學(xué)院,湖南 長沙 410022;2.廣州無線電集團(tuán)有限公司,廣東 廣州 510663;3.深圳市信義科技有限公司,廣東 深圳 518067;4.華南理工大學(xué) 電子與信息學(xué)院,廣東 廣州510640;5.華南理工大學(xué) 自動(dòng)化科學(xué)與工程學(xué)院,廣東 廣州 510640)
隨著城市化進(jìn)程的不斷推進(jìn),城市人口數(shù)量、城市機(jī)動(dòng)車保有量迅速增加,為城市公共安全帶來了極大的壓力。為有效打擊違法、違規(guī)行為,保障城市安全,城市重點(diǎn)路段、場所等建設(shè)有智能監(jiān)控系統(tǒng)[1- 2],以實(shí)現(xiàn)對(duì)行人、機(jī)動(dòng)車、非機(jī)動(dòng)車等目標(biāo)進(jìn)行有效的監(jiān)管。車輛識(shí)別成為智能監(jiān)控系統(tǒng)的重要功能之一。車輛識(shí)別是對(duì)圖像中的車輛目標(biāo)檢測(cè)其位置并識(shí)別目標(biāo)的類型。在實(shí)際應(yīng)用中,由于背景雜亂、光照條件、車輛變形、部分遮擋和運(yùn)動(dòng)模糊等因素,車輛類型的識(shí)別準(zhǔn)確率不高。為提高準(zhǔn)確率,國內(nèi)外學(xué)者進(jìn)行了大量研究。
傳統(tǒng)的車輛識(shí)別方法主要通過圖像的邊緣特征、顏色特征、尺度不變特征變換(SIFT)和方向梯度直方圖(HOG)特征等對(duì)車輛目標(biāo)進(jìn)行識(shí)別。Aarthi等[3]使用圖像的顏色特征變換和Baye-sian分類器來標(biāo)記車輛位置并進(jìn)行分類識(shí)別。Matos等[4]通過圖像邊緣特征和主成分分析法對(duì)車輛圖像進(jìn)行分類。這兩種方法計(jì)算時(shí)間短,能夠快速提取圖像的輪廓特征,但在車輛尺度變化大、部分遮擋、光照變化等情況下,其性能下降劇烈,不能對(duì)車輛進(jìn)行正確識(shí)別。Iqbal等[5]結(jié)合Sobel特征和SIFT特征對(duì)車輛進(jìn)行識(shí)別,但特征維度高,計(jì)算量大。Arróspide等[6]利用HOG提取車型特征,但計(jì)算成本高并且特征表達(dá)能力一般。針對(duì)傳統(tǒng)方法檢測(cè)識(shí)別性能較低的問題,深度學(xué)習(xí)逐漸成為車輛檢測(cè)識(shí)別的主流算法。Yao等[7]對(duì)圖像進(jìn)行先驗(yàn)測(cè)量,得到車輛定位后,采用卷積神經(jīng)網(wǎng)絡(luò)(CNN)對(duì)車輛進(jìn)行分類識(shí)別;Huo等[8]提出了基于區(qū)域的多任務(wù)CNN網(wǎng)絡(luò)模型,用于識(shí)別車輛類型、朝向和光照條件。傳統(tǒng)的CNN算法需要預(yù)設(shè)車輛位置,不利于實(shí)時(shí)的車輛識(shí)別。由于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(RCNN)[9- 11]系列算法在目標(biāo)識(shí)別上取得重大突破,研究人員開始將這些算法應(yīng)用到車輛檢測(cè)識(shí)別中。Tang等[12]提出了超區(qū)域候選網(wǎng)絡(luò)(HRPN),可以改善Faster-RCNN對(duì)小目標(biāo)車輛的識(shí)別效果;Wang等[13]為解決車輛遮擋和變形問題,將對(duì)抗學(xué)習(xí)引入車輛檢測(cè)識(shí)別,可生成困難樣本(車輛嚴(yán)重遮擋和變形的樣本),提高了Fast RCNN的識(shí)別效果;針對(duì)ROI池會(huì)破壞小目標(biāo)的結(jié)構(gòu),Hu等[14]設(shè)計(jì)SINet,提高了對(duì)不同大小的車輛目標(biāo)的識(shí)別效果和速度。RCNN系列算法屬于兩階段方法,該類方法目標(biāo)識(shí)別精度高,但速度慢,無法在邊緣設(shè)備中實(shí)現(xiàn)目標(biāo)實(shí)時(shí)識(shí)別。為提高車輛檢測(cè)識(shí)別的速度,人們引入了一階段方法。如文獻(xiàn)[15- 16]將YOLO系列算法[17- 19]應(yīng)用到車輛檢測(cè)識(shí)別;Cao等[20]對(duì)SSD[21]網(wǎng)絡(luò)進(jìn)行改進(jìn),設(shè)計(jì)了級(jí)聯(lián)模塊和元素相加模塊進(jìn)行特征融合,提高了車輛識(shí)別精度,但檢測(cè)速度有所下降。該類基于YOLO或SSD的算法需要預(yù)先設(shè)定一組特定寬高比的候選框,因而也稱為基于候選框的算法。在基于候選框的算法中,候選框的設(shè)計(jì)很難兼顧到數(shù)量較少的極小或極大目標(biāo),因而在實(shí)際應(yīng)用中,容易造成此類目標(biāo)漏檢。針對(duì)上述問題,基于不用候選框[22- 26]的一階段目標(biāo)識(shí)別方法成為當(dāng)前的研究熱點(diǎn)。如Yu等[27]結(jié)合HRNet[28]和CenterNet[24]對(duì)車輛進(jìn)行檢測(cè)識(shí)別。
針對(duì)現(xiàn)有不用候選框的目標(biāo)檢測(cè)算法在車輛識(shí)別應(yīng)用中出現(xiàn)過多的負(fù)樣本等不足,本文提出了基于改進(jìn)CenterNet的車輛識(shí)別方法,并通過Vehicle車輛車型識(shí)別數(shù)據(jù)集、BDD100K數(shù)據(jù)集和Pascal VOC公開數(shù)據(jù)集驗(yàn)證該方法的有效性與優(yōu)越性。
實(shí)時(shí)性和準(zhǔn)確性是車輛識(shí)別的關(guān)鍵因素。由于CenterNet網(wǎng)絡(luò)是基于不用候選框的一階段目標(biāo)識(shí)別模型,推理速度較快,本文基于CenterNet網(wǎng)絡(luò),對(duì)其進(jìn)行改進(jìn),以提高該網(wǎng)絡(luò)在車輛識(shí)別中的準(zhǔn)確性。
如圖1所示,改進(jìn)的CenterNet網(wǎng)絡(luò)主要包括主干網(wǎng)絡(luò)、瓶頸模塊和輸出網(wǎng)絡(luò)。在主干網(wǎng)絡(luò)中,因ResNet18模型參數(shù)較少,故本文選用其作為基礎(chǔ)網(wǎng)絡(luò)。在瓶頸模塊部分,本文提出了兩種特征融合方式(單尺度自適應(yīng)空間特征融合和逐層自適應(yīng)特征融合)對(duì)網(wǎng)絡(luò)的多級(jí)特征進(jìn)行融合,以提高網(wǎng)絡(luò)的識(shí)別性能。在輸出網(wǎng)絡(luò)部分,網(wǎng)絡(luò)分別對(duì)識(shí)別物中心點(diǎn)預(yù)測(cè)其分類類別、邊框長寬以及中心點(diǎn)的偏置,無需使用模型先驗(yàn)框,直接回歸出預(yù)測(cè)物體的所有信息。
圖1 改進(jìn)的CenterNet網(wǎng)絡(luò)的結(jié)構(gòu)
CenterNet網(wǎng)絡(luò)使用的是采樣率較小的主干模型,如DLA[29]和Hourglass[23]。該模型在使用主流的網(wǎng)絡(luò)結(jié)構(gòu)(如ResNet[30]、Inception[31]、MobileNet[32])時(shí)僅采用了多個(gè)可變形卷積和反卷積上采樣的原始圖像的1/4尺寸進(jìn)行預(yù)測(cè),并沒有實(shí)現(xiàn)多級(jí)特征的重復(fù)利用。為此,本文提出使用單尺度自適應(yīng)空間特征融合模塊和逐層自適應(yīng)特征融合模塊分別融合多級(jí)特征,以提升模型的識(shí)別效果。
1.2.1 單尺度自適應(yīng)空間特征融合
自適應(yīng)空間特征融合(ASFF)是Liu等[33]在YOLOv3基礎(chǔ)上提出的用于融合不同級(jí)別的特征。如圖2所示,ASFF模塊先將不同尺度大小的特征重采樣到目標(biāo)尺寸(上采樣采用插值或者反卷積,下采樣則是采用池化),然后分別在3個(gè)不同的目標(biāo)尺度下對(duì)3個(gè)不同級(jí)別的輸出特征圖進(jìn)行融合,得到3個(gè)特征圖進(jìn)行預(yù)測(cè)。
圖2 ASFF模塊的結(jié)構(gòu)
由圖1和圖2可以看出,ASFF模塊與CenterNet網(wǎng)絡(luò)存在不匹配的問題,ASFF面向多尺度預(yù)測(cè),而CenterNet網(wǎng)絡(luò)為保留其可以不使用非極大值抑制[34](NMS)的特性,只能是單尺度的。因此,本文提出了單尺度自適應(yīng)空間特征融合(SASFF)模塊,用于對(duì)網(wǎng)絡(luò)的多級(jí)特征進(jìn)行融合,如圖3所示。
圖3 SASFF模塊的結(jié)構(gòu)
本文提出的單尺度自適應(yīng)空間特征融合利用自適應(yīng)特征融合(AFF)模塊對(duì)網(wǎng)絡(luò)的多級(jí)特征進(jìn)行融合。區(qū)別于傳統(tǒng)的特征進(jìn)行直接上采樣后相加[35]或者串級(jí)[19],AFF模塊首先通過卷積和上采樣,將不同級(jí)別下的特征調(diào)整成同樣大小的特征,之后按照其空間位置賦予不同的權(quán)重進(jìn)行融合,其表達(dá)式為
(1)
(2)
本文提出的SASFF模塊不僅將網(wǎng)絡(luò)的多級(jí)特征進(jìn)行融合,同時(shí)讓不同級(jí)別的特征的權(quán)重能自適應(yīng)學(xué)習(xí),有效地提高了識(shí)別效果。
1.2.2 自適應(yīng)逐層特征融合
為進(jìn)一步提升模型的實(shí)時(shí)性,本文進(jìn)一步提出了逐層自適應(yīng)特征融合(AHFF)模塊。如圖4所示,與SASFF一次性融合所有的輸入特征不同,AHFF逐層地將不同尺度下的特征通過AFF模塊進(jìn)行融合。該模塊的優(yōu)點(diǎn)在于:逐層的特征融合能夠允許特征由深層的抽象特征逐漸過渡到淺層的具象化特征;逐層的特征融合避免了SASFF在不同尺度下的重復(fù)上下采樣造成的計(jì)算速度下降問題。
圖4 AHFF模塊結(jié)構(gòu)
基于關(guān)鍵點(diǎn)目標(biāo)識(shí)別的損失可以分為熱力圖損失和邊框回歸損失。熱力圖損失用于對(duì)特征圖進(jìn)行密集預(yù)測(cè)目標(biāo)類別,同時(shí)根據(jù)熱力圖的峰值獲取對(duì)應(yīng)的類別的中心點(diǎn)位置。邊框回歸損失則從中心位置預(yù)測(cè)目標(biāo)的邊框,因此邊框的預(yù)測(cè)在很大程度上依賴于中心位置的準(zhǔn)確性。
在邊框回歸損失中,原始CenterNet網(wǎng)絡(luò)分別對(duì)預(yù)測(cè)框的寬高和偏移采用誤差損失函數(shù)。原始CenterNet網(wǎng)絡(luò)假設(shè)寬高與偏移是相互獨(dú)立的優(yōu)化問題,而實(shí)際上邊框的優(yōu)化是相互聯(lián)系的。此外,目標(biāo)邊框的大小也會(huì)對(duì)損失造成影響,即在相同預(yù)測(cè)框與真實(shí)框的交并比(IoU)的情況下,大目標(biāo)往往取得更大的損失,使優(yōu)化傾向于大目標(biāo)。
考慮到上述問題,本文邊框回歸損失采用帶間距的交并比(DIoU) 損失[36],其表達(dá)式為
(3)
式中,d為預(yù)測(cè)框與真實(shí)框的中心之間的距離,c為預(yù)測(cè)框與真實(shí)框矩形閉包的對(duì)角線長度。IoU的表達(dá)式為
(4)
其中,B和Bgt分別為預(yù)測(cè)框和真實(shí)框。由式(3)與圖5可以看出:IoU可以同時(shí)約束預(yù)測(cè)框位置與長寬的回歸,并且對(duì)目標(biāo)邊框的大小不敏感;當(dāng)預(yù)測(cè)框與真實(shí)框不重疊(即IoU為0)時(shí),d2/c2則為損失函數(shù)提供了優(yōu)化方向。
圖5 預(yù)測(cè)框與真實(shí)框的DIoU損失
考慮到中心位置的重要性,文中采用中心損失[22]的變體公式作為熱力圖損失,其表達(dá)式為
(5)
(6)
該損失函數(shù)僅采用目標(biāo)的中心點(diǎn)作為正類,而其他位置均設(shè)為負(fù)類,著重于中心點(diǎn)位置的優(yōu)化。由式(5)可知,損失中的絕大部分均為負(fù)類,導(dǎo)致正負(fù)類采樣極度不均衡。因此,在訓(xùn)練過程中只使用中心點(diǎn)半徑以內(nèi)的點(diǎn)作為訓(xùn)練樣本,同時(shí)對(duì)負(fù)樣本賦予不同的權(quán)重。模型在推理過程中可避免使用NMS。熱力圖損失的特殊設(shè)置使目標(biāo)中心點(diǎn)以外的點(diǎn)只有較小的置信度,而且模型僅在一個(gè)尺度上預(yù)測(cè),因此采用大小為3×3的最大池化層篩選出熱力圖的峰值,并以峰值作為識(shí)別目標(biāo)的中心點(diǎn)。
因此,本文提出的改進(jìn)CenterNet結(jié)合了熱力圖損失和邊框回歸損失,所采用的損失函數(shù)為
L=Lk+LDIoU
(7)
實(shí)驗(yàn)中使用的數(shù)據(jù)集為Vehicle車輛車型識(shí)別數(shù)據(jù)集、自動(dòng)駕駛BDD100K數(shù)據(jù)集[37]和目標(biāo)檢測(cè)Pascal VOC[38]數(shù)據(jù)集。Vehicle車型識(shí)別數(shù)據(jù)集來源于馬路、岔口等地的攝像機(jī)采集的實(shí)際數(shù)據(jù),部分?jǐn)?shù)據(jù)如圖6所示。Vehicle數(shù)據(jù)集共有10個(gè)類別的檢測(cè)目標(biāo),包括前向巴士、前向轎車、前向小貨車、前向面包車、前向貨車、后向巴士、后向轎車、后向小貨車、后向面包車和后向貨車,其類別分別用1到10表示,如圖7所示。在Vehicle數(shù)據(jù)集中,訓(xùn)練集數(shù)據(jù)為25 884幅圖像,測(cè)試集數(shù)據(jù)為6 473幅圖像。BDD100K數(shù)據(jù)集是一個(gè)大規(guī)模、多樣化的駕駛視頻數(shù)據(jù)集,包括10個(gè)檢測(cè)類別,分別為人、公交車、騎行人、交通標(biāo)志、交通燈、卡車、摩托車、火車、自行車和汽車,訓(xùn)練集數(shù)據(jù)為7萬幅圖像,驗(yàn)證集為1萬幅圖像。Pascal VOC數(shù)據(jù)集共分為20類,分別為飛機(jī)、自行車、小鳥、船只、水杯、公交車、汽車、貓、椅子、奶牛、餐桌、狗、馬、摩托車、人、盆栽、綿羊、沙發(fā)、火車和電視,訓(xùn)練集數(shù)據(jù)為16 551幅圖像,測(cè)試集為6 452 幅圖像。在Vehicle數(shù)據(jù)集上采用的評(píng)價(jià)指標(biāo)為平均精度均值(mAP)、預(yù)測(cè)框與真實(shí)框交并比為0.50時(shí)的平均精度(AP50)和預(yù)測(cè)框與真實(shí)框交并比為0.75時(shí)的平均精度(AP75),在BDD100K和Pascal VOC數(shù)據(jù)集上使用的評(píng)價(jià)指標(biāo)為AP50。采用相同的網(wǎng)絡(luò)模型對(duì)不同的數(shù)據(jù)集分別進(jìn)行訓(xùn)練和測(cè)試。
圖6 Vehicle數(shù)據(jù)集樣例
本文中模型訓(xùn)練與測(cè)試均在Ubuntu16.04環(huán)境下,使用的4張顯卡型號(hào)為NVIDIA GTX 1080Ti,采用Python3.7和Pytorch1.2.0框架進(jìn)行訓(xùn)練。網(wǎng)絡(luò)訓(xùn)練參數(shù)如下:圖像輸入尺寸為512×512,初始學(xué)習(xí)率為5×10-4,總訓(xùn)練次數(shù)為140,在訓(xùn)練次數(shù)為90和120時(shí),學(xué)習(xí)率分別下降為5×10-5和5×10-6,訓(xùn)練時(shí)的批量大小為64,優(yōu)化算法采用Adam算法,β1為0.9,β2為0.999。在測(cè)試時(shí),設(shè)置批量大小為1,不使用圖像翻轉(zhuǎn)和圖像多尺度等技巧。
圖7 Vehicle數(shù)據(jù)集各類別圖例
在Vehicle數(shù)據(jù)集上不同模型的車型檢測(cè)結(jié)果如表1所示,所有對(duì)比模型在訓(xùn)練階段輸入的圖像尺寸均為512×512。從表中可知:當(dāng)采用ResNet18-CenterNet模型時(shí),在Vehicle數(shù)據(jù)集上車型識(shí)別的mAP為0.685;當(dāng)采用SASFF模塊時(shí),其mAP較原始的CenterNet(ResNet18-CenterNet)模型提高了0.4個(gè)百分點(diǎn),SASFF模塊將網(wǎng)絡(luò)不同尺度的特征圖進(jìn)行特征融合,故mAP略有提升;當(dāng)采用DIoU損失替換原始的CenterNet模型的損失函數(shù)時(shí),ResNet18-CenterNet-DIoU網(wǎng)絡(luò)在車輛識(shí)別上的mAP為0.694,較ResNet18-CenterNet模型提高了0.9個(gè)百分點(diǎn),證明DIoU 損失能有效改善車型識(shí)別的效果;當(dāng)同時(shí)結(jié)合DIoU損失和特征融合方法時(shí),使用SASFF和AHFF特征融合模塊的網(wǎng)絡(luò)在Vehicle數(shù)據(jù)集的mAP分別為0.701和0.704,分別提升了1.6和1.9個(gè)百分點(diǎn)。對(duì)于基于候選框的模型YOLOv4和YOLOv5,其mAP分別為0.706和0.711,略高于本文提出的模型精度,表明本文提出的模型在車輛檢測(cè)識(shí)別中的效果接近于YOLOv4和YOLOv5模型,且本文模型的大小均低于這兩個(gè)模型的大小。相較于YOLOv4-tiny和EfficientDet-D0,本文模型能提取更多的特征,在準(zhǔn)確率上有明顯的優(yōu)勢(shì)。
對(duì)模型進(jìn)行推理時(shí),本文采用TensorRT6 FP32模式。在推理顯存上,原始ResNet18-CenterNet模型以及ResNet18-CenterNet-DIoU模型的推理顯存為561MB,這表明使用DIoU損失能保持推理顯存。當(dāng)使用特征融合的方法時(shí),SASFF-CenterNet-DIoU和AHFF-CenterNet-DIoU模型的推理顯存分別為633和563 MB,表明SASFF-CenterNet-DIoU的計(jì)算量明顯提高,而AHFF-CenterNet-DIoU所占用的內(nèi)存僅提升2 MB,計(jì)算資源消耗少。本文模型的推理顯存均低于YOLOv4和YOLOv5模型。
表1 不同模型在Vehicle數(shù)據(jù)集上的檢測(cè)結(jié)果
由表1還可以知道:原始ResNet18-CenterNet模型以及ResNet18-CenterNet-DIoU模型的推理時(shí)間均為5.51 ms,這表明使用DIoU 損失能在保持推理顯存和推理速度的同時(shí)提高了識(shí)別精度;當(dāng)使用特征融合的方法時(shí),模型的識(shí)別精度有明顯的提高,但在推理速度方面有所下降,SASFF-CenterNet-DIoU和AHFF-CenterNet-DIoU的推理時(shí)間分別為9.18和6.69 ms;本文模型的推理時(shí)間均低于YOLOv4和YOLOv5模型,EfficientDet-D0的推理時(shí)間為12.32 ms,實(shí)時(shí)車輛檢測(cè)識(shí)別的速度較慢;YOLOv4-tiny的推理速度最快,但在識(shí)別準(zhǔn)確率上有所欠缺;本文模型不僅在車輛檢測(cè)識(shí)別上有較高的準(zhǔn)確率,同時(shí)推理速度快,具有良好的車輛實(shí)時(shí)識(shí)別性能。
在Vehicle數(shù)據(jù)集上各模型的訓(xùn)練損失對(duì)比如圖8所示??梢钥吹剑弘S著訓(xùn)練次數(shù)的提高,ResNet18-CenterNet和ResNet18-CenterNet-DIoU模型的訓(xùn)練損失隨之下降,ResNet18-CenterNet-DIoU模型的訓(xùn)練損失下降的速度快于ResNet18-CenterNet模型,且在模型穩(wěn)定時(shí),ResNet18-CenterNet-DIoU模型的訓(xùn)練損失低于ResNet18-CenterNet模型;當(dāng)使用特征融合SASFF和AHFF時(shí),在模型平穩(wěn)時(shí),使用特征融合SASFF和AHFF模塊的模型的訓(xùn)練損失均為最小,在進(jìn)行推理時(shí)的mAP也相對(duì)較高。
圖8 4個(gè)模型的訓(xùn)練損失
圖9展示了SASFF-CenterNet-DIoU和AHFF-CenterNet模型的車輛檢測(cè)效果??梢钥吹?,實(shí)測(cè)的車輛圖像均能達(dá)到預(yù)期的檢測(cè)效果。
采用本文改進(jìn)的方法在BDD100K自動(dòng)駕駛數(shù)據(jù)集和VOC數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),結(jié)果如表2所示。在BDD100K數(shù)據(jù)集中,原始ResNet18-CenterNet模型的AP50為0.384,加入DIoU 損失后,模型的AP50提高了0.1個(gè)百分點(diǎn)。使用了特征融合模塊SASFF、AHFF后,模型的AP50均為0.436,比原始ResNet18-CenterNet模型提高了5.2個(gè)百分點(diǎn)。在Pascal VOC數(shù)據(jù)集上,加入DIoU損失和AHFF模塊后,AHFF-CenterNet-DIoU模型的AP50為0.742,較ResNet18-CenterNet模型提升了2.5個(gè)百分點(diǎn)。這表明,同時(shí)采用本文提出的特征融合方式和DIoU損失方式,能有效地提高目標(biāo)檢測(cè)的效果。在BDD100K和VOC數(shù)據(jù)集上,YOLOv4和YOLOv5的檢測(cè)準(zhǔn)確率均高于本文模型,原因在于:本文模型主要解決馬路、岔口等場景下的車輛識(shí)別問題,這些車輛大部分為大目標(biāo),而在BDD100K和VOC數(shù)據(jù)集上存在很多小目標(biāo),本文模型不能較好地檢測(cè)識(shí)別小目標(biāo);本文模型采用ResNet18作為主干網(wǎng)絡(luò),相對(duì)于CSPNet網(wǎng)絡(luò)深度不夠,檢測(cè)出來的目標(biāo)不夠充分。由于YOLOv4-tiny和EfficientDet-D0模型的深度較淺,不能提取更多的特征,故其目標(biāo)檢測(cè)準(zhǔn)確率相對(duì)較低。在推理時(shí)間上,各模型在Vehicle、BDD100K和VOC數(shù)據(jù)集上的結(jié)果基本一致,本文模型在保持較高的識(shí)別精度下推理速度也相對(duì)較快。
(a)SASFF-CenterNet-DIoU模型
(b)AHFF-CenterNet-DIoU模型
表2 不同模型在不同數(shù)據(jù)集上的檢測(cè)結(jié)果
為提高車輛識(shí)別的精度,本文提出了基于改進(jìn)的CenterNet的車輛識(shí)別方法。首先,針對(duì)CenterNet僅使用網(wǎng)絡(luò)的最后一層特征,沒有對(duì)網(wǎng)絡(luò)輸出的多級(jí)特征重復(fù)利用的問題,本文提出了使用單尺度自適應(yīng)空間特征融合的方法來改進(jìn)CenterNet,以實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)的多級(jí)特征進(jìn)行融合,有效地提高車輛識(shí)別的精度。由于單尺度自適應(yīng)空間特征融合方式在增加模型大小的同時(shí)降低了推理速度,本文提出了逐層自適應(yīng)特征融合的方法,有效地改善了模型大小和推理時(shí)間,同時(shí)提高了車輛檢測(cè)識(shí)別精度。在損失函數(shù)上,本文丟棄CenterNet預(yù)測(cè)框的長寬損失和偏移損失,使用DIoU損失和熱力圖損失為模型的損失函數(shù),可以提高模型的收斂速度和識(shí)別精度。在BDD100K和Pascal VOC數(shù)據(jù)集上的檢測(cè)結(jié)果表明,本文提出的改進(jìn)CenterNet能明顯提升車輛的識(shí)別精度。今后將嘗試從其他方面對(duì)車輛識(shí)別進(jìn)行研究,以尋求更大的突破。