亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOX-S的車窗狀態(tài)識別算法

        2023-04-29 12:53:09黃鍵徐偉峰蘇攀王洪濤李真真
        吉林大學(xué)學(xué)報(理學(xué)版) 2023年4期

        黃鍵 徐偉峰 蘇攀 王洪濤 李真真

        摘要: 通過對YOLOX-S模型引入可變形卷積神經(jīng)網(wǎng)絡(luò)和焦點損失函數(shù)(Focal loss), 解決原YOLOX-S模型車窗識別準(zhǔn)確率較低的問題. 首先, 通過在YOLOX-S模型的主干特征提取網(wǎng)絡(luò)中引入可變形卷積神經(jīng)網(wǎng)絡(luò), 對卷積核中的各采樣點引入偏移量, 以便在原始圖像中提取到更具有表征的信息, 從而提高車窗識別的精準(zhǔn)度; 其次, 使用Focal loss替代原模型中的二元交叉熵?fù)p失函數(shù), Focal loss能緩解正負(fù)樣本不平衡對訓(xùn)練的影響, 其在訓(xùn)練過程中更關(guān)注難樣本, 從而提高了模型對車窗目標(biāo)的識別性能; 最后, 為驗證改進算法的性能, 實驗收集并標(biāo)注15 627張圖片進行訓(xùn)練和驗證. 實驗結(jié)果表明, 改進后的車窗識別算法的平均目標(biāo)精度提高了3.88%.

        關(guān)鍵詞: 車窗識別; YOLOX-S模型; 可變形卷積神經(jīng)網(wǎng)絡(luò); 焦點損失

        中圖分類號: TP391文獻標(biāo)志碼: A文章編號: 1671-5489(2023)04-0875-08

        Car Window State Recognition Algorithm Based on YOLOX-S

        HUANG Jian1, XU Weifeng1,2, SU Pan1,2, WANG Hongtao1,2, LI Zhenzhen1

        (1. Department of Computer, North China Electric Power University (Baoding), Baoding 071003, Hebei Province, China;

        2. Hebei Key Laboratory of Knowledge Computing for Energy & Power,? Baoding 071003, Hebei Province, China)

        Abstract: We solved the problem of low accuracy in car window recognition of the original YOLOX-S model by introducing deformable convolutional neural networks and Focal loss function (Focal loss) to the YOLOX-S model. Firstly, by introducing deformable convolutional neural networks into the backbone feature extraction network of the YOLOX-S model, offsets were introduced for each sampling point in the convolutional kernel to facilitate the extraction of more representative information from the original image, thereby improving the accuracy of car window recognition. Secondly, using Focal loss instead of binary cross entropy loss function in the original model, Focal loss could alleviate the impact of imbalance between positive and negative samples on training, and it paid? more attention to difficult samples during the training process, thereby improving the? recognition performance of the model for car window targets. Finally, in order to verify the performance of the improved algorithm, 15 627 images were collected and annotated for training and validation in the experiment. The experimental results show that the average target accuracy of the improved car window recognition algorithm increases by 3.88%.

        Keywords: car window recognition; YOLOX-S model; deformable convolutional neural network; Focal loss

        目前, 基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)技術(shù)已廣泛應(yīng)用于各領(lǐng)域. 依靠其強大的特征提取能力, 深度學(xué)習(xí)算法在目標(biāo)檢測識別方面取得了較高的精度. 目標(biāo)檢測可識別圖像中特定物體的類別和圖像中的位置, 已廣泛應(yīng)用于智能交通等領(lǐng)域中的車輛、 標(biāo)識和人臉檢測[1-3]中. 隨著我國城市化水平的不斷提升, 高速公路網(wǎng)的覆蓋范圍不斷擴大, 為有效提高工作效率, 高速公路已采用了全新的收費管理模式, 廣泛設(shè)置了ETC門架系統(tǒng), 這為自動、 智能的人員排查和人員管理技術(shù)的實施提供了基礎(chǔ)條件. 在高速公路上實現(xiàn)智能人員排查和人員管理的關(guān)鍵是準(zhǔn)確識別車內(nèi)人員, 而準(zhǔn)確識別車內(nèi)人員的前提條件是識別人員所乘車輛的車窗開關(guān)狀態(tài), 車窗狀態(tài)檢測算法通過鎖定車輛自動識別車窗的開關(guān)狀態(tài), 因此, 準(zhǔn)確、 高效的車窗狀態(tài)檢測算法是實現(xiàn)智能人員排查和人員管理的前提.

        現(xiàn)有的檢測算法R-CNN[4],F(xiàn)ast R-CNN[5],F(xiàn)aster R-CNN[6],SSD[7],YOLO等, 由于大量的訓(xùn)練數(shù)據(jù)積累和模型更新, 在主流數(shù)據(jù)集上相對傳統(tǒng)方法均有較高的準(zhǔn)確率和召回率. 深度學(xué)習(xí)的目標(biāo)檢測算法根據(jù)其檢測思想的不同可分為兩階段算法和單階段算法. 兩階段目標(biāo)檢測算法先對輸入圖像處理產(chǎn)生候選區(qū)域, 然后再對候選區(qū)域進行檢測. 兩階段網(wǎng)絡(luò)具有較高的精度, 但需要先提取候選區(qū)域再進行檢測, 處理時間比單階段網(wǎng)絡(luò)高, 典型的代表性算法有Faster R-CNN[6],Mask R-CNN[8],Cascade R-CNN[9]和Sparse R-CNN[10]等. 由于兩階段目標(biāo)檢測算法不適用于對實時性要求較高的應(yīng)用場景, 因此為進一步提高目標(biāo)檢測實時性, Redmon等[11]提出了將目標(biāo)檢測轉(zhuǎn)化為回歸問題的簡化算法模型, 在提高檢測速度的同時提高檢測精度, 并提出了一系列基于位置回歸的單階段目標(biāo)檢測模型, 如YOLO和SSD模型等.

        YOLO系列檢測算法屬于單階段類檢測算法, 其在基于深度學(xué)習(xí)的檢測算法中具有速度優(yōu)勢, 但YOLOv1[11]和YOLOv2[12]的檢測精度較低, 難以滿足實際工程對精度的需求, 而精度較高的YOLOv3[13]檢測速度卻無法滿足實際工程對時間的要求, YOLOv4[14]和YOLOv5[15]在檢測精度和速度之間取得了平衡, 但平均目標(biāo)精度有待提高. 文獻[16]提出的解耦頭(Decoupled head)[17\|18],Anchor-free[19\|20]和SimOTA[21]極大提高了平均目標(biāo)精度. 目前在實際應(yīng)用中, 針對車窗狀態(tài)檢測已有許多研究成果, 王亮亮等[2]提出了基于車窗特征的快速車輛檢測算法, 通過識別車窗代替目標(biāo)物進行檢測, 從而提高被遮擋車輛的檢出概率; 汪祖云等[22]提出了基于車窗區(qū)域代替完整車輛的出租車檢測方法, 同時基于檢測到的車窗區(qū)域?qū)崿F(xiàn)對駕駛室的精確定位. 但在高速公路檢測站等公共環(huán)境中為避免排隊和擁堵, 對于車窗識別算法有更高的要求, 需要一種更快速、 精準(zhǔn)的算法.

        針對上述問題, 本文提出一種基于YOLOX-S改進的車窗識別算法. 首先, 利用可變形卷積神經(jīng)網(wǎng)絡(luò)[23]從原始圖像中提取更多的特征信息, 在卷積核中對每個采樣點的位置添加一個偏移量, 實現(xiàn)對當(dāng)前位置的隨機采樣, 從而不局限于之前的規(guī)則格點; 其次, 由于傳統(tǒng)的交叉熵?fù)p失函數(shù)并不能有效應(yīng)對正負(fù)樣本極度不平衡的情況, 即負(fù)樣本占多數(shù)時, 導(dǎo)致訓(xùn)練易收斂到負(fù)樣本, 從而無法有效學(xué)習(xí)正樣本, 引用焦點損失函數(shù)(Focal loss)[24]替換模型中二元交叉熵?fù)p失函數(shù)(Binary cross entropy loss), 從而有效緩解正負(fù)樣本不平衡的問題, 集中訓(xùn)練難以分類的樣本, 提高模型在稀有類目標(biāo)檢測的準(zhǔn)確性. 通過收集的到15 628張圖片對改進算法進行了驗證, 實驗結(jié)果表明, 改進后的車窗識別算法取得了較高的平均精度均值(mean average precision, mAP).

        1 預(yù)備知識

        1.1 YOLOX模型

        YOLOX模型是單階段目標(biāo)檢測算法之一, 它將目標(biāo)區(qū)域預(yù)測和目標(biāo)類別預(yù)測集成到一個單一的神經(jīng)網(wǎng)絡(luò)模型中, 實現(xiàn)了快速、 高精度的目標(biāo)檢測和識別, 目前已成為工業(yè)場景中最實用的物體檢測模型之一. YOLOX模型分為標(biāo)準(zhǔn)網(wǎng)絡(luò)結(jié)構(gòu)(包括YOLOX-S,YOLOX-M,YOLOX-L,YOLOX-X,YOLOX-Darknet53)和輕量級網(wǎng)絡(luò)結(jié)構(gòu)(包括YOLOX-Nano和YOLOX-Tiny). 由于YOLOX-S具有出色的檢測性能和速度, 因此本文以其為基準(zhǔn)模型.

        YOLOX-S由YOLOv5-S改進而得, 由4部分組成: Input,Backbone,Neck和Prediction, 其中Backbone由CSP網(wǎng)絡(luò)和Focus結(jié)構(gòu)組合構(gòu)成. 在下采樣過程中, 先使用切片操作的方法保證信息不丟失, 然后通過卷積操作得到特征圖.

        Neck是目標(biāo)檢測算法模型框架中具有承上啟下作用的關(guān)鍵部件, Neck部分采用特征金字塔網(wǎng)絡(luò)和路徑聚合網(wǎng)絡(luò)(FPN+PAN)的結(jié)構(gòu), 從不同的主干層對不同檢測層進行特征聚合, 加強了網(wǎng)絡(luò)的特征融合能力. 從主干網(wǎng)絡(luò)提取的各層特征還需要送入Neck進行加工處理后才能送入Head, 以便后者更好地做出分類預(yù)測和回歸預(yù)測. YOLOX的Neck部分是特征金字塔網(wǎng)絡(luò)模式, 使富于空間信息的低層特征通過主干網(wǎng)絡(luò)逐步抽象得到富于特征信息的高層特征圖.

        Prediction部分采用準(zhǔn)確率更高、 收斂速度更快的解耦頭, 并且引入Anchor-free機制, 實現(xiàn)與Head部分的完美結(jié)合. 最后采用簡化的SimOTA方法求解最優(yōu)解, 完成最終預(yù)測. 預(yù)測頭對分類、 回歸和類別判斷這三者預(yù)測的路徑各不相同. 解耦頭就是預(yù)測頭采用多個不同的頭解耦輸出, 使各任務(wù)關(guān)注任務(wù)自身所需要的特征信息, 這種方法可以有效避免任務(wù)之間的干擾, 提高模型的性能. 如果預(yù)測頭不采用解耦頭, 則在原圖頂部的Conv2D_BN_SiLU模塊輸出結(jié)果將只會接入一個卷積層, 由后者輸出預(yù)測結(jié)果, 從而導(dǎo)致任務(wù)之間的相互影響, 降低模型的性能.

        Anchor-free, 即無錨框方法. 與采用基于錨框的YOLOX預(yù)測頭的假設(shè)版本相比, 無錨框的YOLOX版本在預(yù)測時的參數(shù)量大幅度減少. 實際上, YOLOX也有錨框, 以YOLOX-Darknet53為例, 最終輸出結(jié)果是85×8 400的特征向量, 后面的8 400扮演的角色即為錨框, 這些錨框需要與原圖像上所有的目標(biāo)框進行關(guān)聯(lián), 從而篩選出正樣本錨框.

        SimOTA是一種目標(biāo)檢測中的正樣本分配算法, 可用于YOLOX網(wǎng)絡(luò)中的預(yù)測頭. 在標(biāo)簽分配過程中, SimOTA采用了中心先驗法確認(rèn)正樣本候選區(qū)域, 然后通過計算各樣本對真實目標(biāo)(ground truth, GT)的分類和回歸損失, 獲得與當(dāng)前GT的交并比(IOU)前10的樣本. 其核心是動態(tài)調(diào)整k值, 可以根據(jù)不同的目標(biāo)大小和密度自適應(yīng)地調(diào)整, 而不需要手動設(shè)置. 即對每個GT, SimOTA會計算其與所有樣本的IOU, 并將這些IOU值從大到小排序. 然后將前dynamic_k個樣本的IOU值求和取整, 得到一個動態(tài)k值, 表示這個GT周圍的樣本密度. 最后, SimOTA會選擇每個GT損失最小的前dynamic_k個樣本作為正樣本. 圖1為YOLOX-S模型的結(jié)構(gòu).

        1.2 可變形卷積神經(jīng)網(wǎng)絡(luò)

        在目標(biāo)檢測任務(wù)中, 需要適應(yīng)目標(biāo)形態(tài)的差異. 為解決該問題, 通常使用形變不變性或增強數(shù)據(jù)集的方法. 這些方法雖然能夠容納已知固定類型的形變, 但在實踐中很難應(yīng)對復(fù)雜的形變. 卷積神經(jīng)網(wǎng)絡(luò)通常使用特征點采集特征圖中固定位置的數(shù)據(jù), 這種方式的幾何形變建模能力主要來自數(shù)據(jù)集的擴展、 網(wǎng)絡(luò)層數(shù)以及人工設(shè)計的模型. 但其仍無法解決復(fù)雜變形的檢測問題.

        針對卷積神經(jīng)網(wǎng)絡(luò)適應(yīng)目標(biāo)不規(guī)則形狀的問題, 需引入可變形卷積的方法. 該方法通過在傳統(tǒng)卷積采樣點的基礎(chǔ)上增加二維偏置實現(xiàn)采樣網(wǎng)絡(luò)的自由變形, 從而使卷積神經(jīng)網(wǎng)絡(luò)能適應(yīng)目標(biāo)的不規(guī)則形狀. 這種偏置值通過增加卷積層獲得, 能定位具有不同局部形態(tài)的對象. 該過程需要的參數(shù)和計算量較少, 因此可使用梯度反向傳播算法進行端到端訓(xùn)練. 通過可變形卷積, 可得到一個簡單的多層模型, 以適應(yīng)目標(biāo)物體形狀的多樣性.

        傳統(tǒng)卷積使用規(guī)則網(wǎng)格R在固定位置對輸入特征圖進行采樣, 并使用權(quán)值ω對采樣值進行加權(quán)求和, 其中網(wǎng)格R定義膨脹參數(shù)和感受野. 一般定義大小為3×3、 膨脹參數(shù)為1的卷積核R為R={(-1,-1),(-1,0),…,(0,1),(1,1)}.(1)特征圖的標(biāo)準(zhǔn)卷積可表示為y(P)=∑Pn∈Rx(P+Pn)×ω(Pn),(2)其中P為特征圖的原始位置, R為每個分塊的索引編號, Pn是對R中所列位置的枚舉, x(P+Pn)表示原始圖, ω(Pn)表示權(quán)重. 由式(2)可知, 標(biāo)準(zhǔn)卷積操作只是對輸入圖像固定的位置進行加權(quán)操作, 其缺少形變建模的能力. 然而可形變卷積通過引入偏移量ΔPn增強卷積核在各采樣點Pn的位置, 其特征圖位置P可表示為y(P)=∑Pn∈Rx(P+Pn+ΔPn)×ω(Pn).(3)

        通過設(shè)計網(wǎng)絡(luò)學(xué)習(xí)偏移量, 可將固定位置的采樣改為可形變位置的采樣, 如圖2所示. 該網(wǎng)絡(luò)的工作原理如下: 在輸入到輸出的特征圖計算中, 表示特征圖兩個方向的二維偏置首先由上部分卷積層計算, 使用與標(biāo)準(zhǔn)卷積核相同大小的卷積核對輸入進行偏置映射, 通過對有偏置的輸入進行普通卷積得到輸出特征圖. 輸入特征圖與有偏置輸出結(jié)果的空間維數(shù)相同, 并且在訓(xùn)練網(wǎng)絡(luò)執(zhí)行時更新學(xué)習(xí)到的輸出特征普通卷積的權(quán)重和可變形卷積偏移量的權(quán)值. 為獲得實際的像素偏移值, 使用雙線性插值運算進行計算.

        2 模型設(shè)計

        采用本文基于改進的YOLOX-S模型進行車窗識別, 第一部分改進是將可變形卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于YOLOX-S模型的Backbone, 其主要優(yōu)勢是從圖像中提取更多的特征信息. 另一部分改進是將篩選目標(biāo)框的損失函數(shù)Binary cross entropy loss改變?yōu)镕ocal loss, 以解決正負(fù)樣本不平衡的問題.

        2.1 具有可變形卷積神經(jīng)網(wǎng)絡(luò)的YOLOX-S模型

        YOLOX-S提取圖像特征采用傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò), 其受卷積核和感受野大小的約束, 網(wǎng)絡(luò)模型對物體幾何形變的能力取決于數(shù)據(jù)本身的多樣性. 本文利用可變形卷積神經(jīng)網(wǎng)絡(luò)對YOLOX-S進行改進, 在不增加額外標(biāo)注信息和訓(xùn)練成本的情況下, 提高網(wǎng)絡(luò)對空間變形的適應(yīng)性, 從而提高YOLOX-S模型的目標(biāo)識別精度.

        YOLOX-S模型使用CSPDarkNet作為主干提取網(wǎng)絡(luò), 包含多個卷積層和模塊(CBS模塊、 CSP1_X模塊、 CSP2_X模塊等), 其中CBS模塊包含3個核心組件: 卷積神經(jīng)網(wǎng)絡(luò)、 批歸一化和Silu激活函數(shù), 通過替換CBS模塊中卷積神經(jīng)網(wǎng)絡(luò)為可變形卷積神經(jīng)網(wǎng)絡(luò)將CBS模塊改為DBS模塊, 然后將CSP1_X模塊和CSP2_X模塊中部分CBS模塊替換為DBS模塊. 通過引入可變形卷積神經(jīng)網(wǎng)絡(luò), YOLOX-S模型能更好地適應(yīng)目標(biāo)物體的不規(guī)則形狀, 從而提高目標(biāo)檢測的準(zhǔn)確率和魯棒性. 同時, 可變形卷積神經(jīng)網(wǎng)絡(luò)還能減少網(wǎng)絡(luò)的參數(shù)量和計算量, 提高網(wǎng)絡(luò)的運行效率. 圖3為引入部分可變形卷積神經(jīng)網(wǎng)絡(luò)的YOLOX-S模型組成元件結(jié)構(gòu)示例.

        2.2 焦點損失函數(shù)的引入

        目前, 單階段檢測器產(chǎn)生誤差的主要原因是正負(fù)樣本的不平衡[24]. 因為它們可以探測到所有位置, 單階段檢測器可以很容易地探測到候選框的總數(shù). 在所有候選框中, 沒有目標(biāo)的候選框遠(yuǎn)多于有目標(biāo)的候選框. 由于大多數(shù)都是簡單易分的負(fù)樣本(屬于背景的樣本), 并且大多數(shù)負(fù)樣本在訓(xùn)練中沒有意義, 使得訓(xùn)練過程不能充分學(xué)習(xí)到樣本類別的信息, 導(dǎo)致模型退化. 因此, 本文引入Focal loss解決正負(fù)樣本數(shù)量不均衡的問題.

        3 實 驗

        3.1 數(shù)據(jù)集

        本文實驗所用數(shù)據(jù)均來自攝像頭采集視頻, 利用Opencv將視頻分割成圖片[25]. 從中選取合適的圖片共15 627張, 將圖片分為前車窗開啟、 前車窗關(guān)閉、 后車窗開啟、 后車窗關(guān)閉4類狀態(tài)進行人工標(biāo)注. 標(biāo)注的工具是LabelImg軟件, 該軟件會生成Pascal Voc格式的XML標(biāo)記文件. 在訓(xùn)練前, 對圖像進行預(yù)處理, 參考數(shù)據(jù)集coco格式, 裁剪訓(xùn)練和測試的圖像尺寸為880×720, 并將數(shù)據(jù)集分為訓(xùn)練集和測試集. 其中訓(xùn)練圖像為14 065張, 測試圖像為1 562張, 如圖4所示.

        3.2 實驗環(huán)境及參數(shù)的設(shè)置

        實驗環(huán)境和基本配置如下: 深度學(xué)習(xí)框架采用Pytorch, 操作系統(tǒng)采用Ubuntu 18.04, 處理器為Intel(R) Xeon(R) Gold 6133 CPU @ 2.50 GHz, 運行內(nèi)存為64 GB, 顯卡為Tesla V100 32 GB, 編程語言采用Python.

        實驗采用YOLOX-S框架集成的mixup和mosaic兩種數(shù)據(jù)增強方法, 使得數(shù)據(jù)集更豐富, 采用多尺度訓(xùn)練方法, 其中輸入分辨率為880×720的圖片, batch訓(xùn)練大小設(shè)置為32, 初始學(xué)習(xí)率為0.05, 開啟半精度訓(xùn)練, 且訓(xùn)練輪次為1 000.

        3.3 實驗結(jié)果與分析

        為檢驗本文提出的改進YOLOX-S模型在目標(biāo)檢測精準(zhǔn)度上的性能, 從所有數(shù)據(jù)中隨機抽取100張[KG*8]圖片進行測試, 并確認(rèn)測試圖片不在訓(xùn)練集中, 測試結(jié)果示例如圖5所示, 其中左上圖識別結(jié)果為后車窗關(guān)閉狀態(tài), 左下圖為前車窗關(guān)閉狀態(tài), 右上圖識別結(jié)果為前車窗關(guān)閉狀態(tài), 右下圖為前車窗關(guān)閉狀態(tài). 本文在車窗數(shù)據(jù)集上分別比較了原始YOLOX-S模型、 引入Focal loss的YOLOX-S模型、 引入部分可變形卷積的YOLOX-S模型和本文模型的4種目標(biāo)檢測方法. 評價指標(biāo)采用mAP和mAP50_90, mAP是多類別的平均AP值, 常用于評估目標(biāo)檢測算法的性能, mAP50_90表示交并比閾值在0.5~0.9上的平均mAP. 測試結(jié)果列于表1. 由表1可見, 本文模型平均精度最高, mAP達(dá)95.59%.

        為對比可變形卷積對提取圖像特征信息的影響, 本文實驗將YOLOX-S模型中所有的卷積神經(jīng)網(wǎng)絡(luò)替換為可變形卷積神經(jīng)網(wǎng)絡(luò), 結(jié)果列于表2. 由表2可見, 替換所有的卷積神經(jīng)網(wǎng)絡(luò)為可變形卷積神經(jīng)網(wǎng)絡(luò)會導(dǎo)致模型過擬合, 從而使精準(zhǔn)度下降.

        綜上所述, 為提高車窗檢測的精度, 本文在YOLOX-S模型中引入了可變形卷積神經(jīng)網(wǎng)絡(luò), 使模型可更好地學(xué)習(xí)目標(biāo)的形態(tài)差異, 從而提升了模型的識別精度. 此外, 由于模型訓(xùn)練中預(yù)測框正負(fù)樣本難以平衡, 本文引入Focal loss替換YOLOX-S模型中區(qū)分前景和背景的Binary cross entropy loss. 實驗結(jié)果表明, 添加可變形卷積的YOLOX-S模型平均目標(biāo)精度(mAP)提高了0.59%, mAP50_90提高了1.23%. 通過引入Focal loss使mAP提高了3.53%, mAP50_90提高了3.16%. 融合二者的新型YOLOX-S模型的mAP提高了3.88%, mAP50_90提高了3.60%. 表明本文模型提升了目標(biāo)檢測的精準(zhǔn)度.

        參考文獻

        [1]陳輝東, 丁小燕, 劉艷霞. 基于深度學(xué)習(xí)的目標(biāo)檢測算法綜述 [J]. 北京聯(lián)合大學(xué)學(xué)報, 2021, 35(3): 39-46. (CHEN H D, DING X Y, LIU Y X. Review of Target Detection Algorithm Based on Deep Learning [J]. Journal of Beijing Union University, 2021, 35(3): 39-46.)

        [2]王亮亮, 王國棟, 趙毅, 等. 基于車窗特征的快速車輛檢測算法 [J]. 青島大學(xué)學(xué)報(自然科學(xué)版), 2019, 32(3): 1-7. (WANG L L, WANG G D, ZHAO Y, et al. Fast Vehicle Detection Algorithms Based on Window Characteristics [J]. Journal of Qingdao University (Natural Science Edition), 2019, 32(3): 1-7.)

        [3]田強, 賈小寧. 基于深度殘差網(wǎng)絡(luò)的車標(biāo)識別 [J]. 吉林大學(xué)學(xué)報(理學(xué)版), 2021, 59(2): 319-324. (TIAN Q, JIA X N. Vehicle Logo Recognition Based on Deep Residual Network [J]. Journal of Jilin University (Science Edition), 2021, 59(2): 319-324.)

        [4]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation [C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2014: 580-587.

        [5]GIRSHICK R. Fast R-CNN [C]//2015 IEEE International Conference on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2015: 1440-1448.

        [6]REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

        [7]LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single Shot Multibox Detector [C]//European Conference on Computer Vision. Berlin: Springer, 2016: 21-37.

        [8]HE K M, GKIOXARI G, DOLLAR P, et al. Mask R-CNN [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 386-397.

        [9]CAI Z, VASCONCELOS N. Cascade R-CNN: Delving into High Quality Object Detection [C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2018: 6154-6162.

        [10]SUN P Z, ZHANG R F, JIANG Y, et al. Sparse R-CNN: End-to-End Object Detection with Learnable Proposals [EB/OL]. (2021-04-26)[2022-02-01]. https://arxiv.org/abs/2011.12450.

        [11]REDMON J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-Time Object Detection [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 779-788.

        [12]REDMON J, FARHADI A. YOLO9000: Better, Faster, Stronger [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 7263-7271.

        [13]REDMON J, FARHADI A. Yolov3: An Incremental Improvement [EB/OL]. (2018-04-18)[2022-02-10]. https://arxiv.org/abs/1804.02767.

        [14]BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: Optimal Speed and Accuracy of Object Detection [EB/OL]. (2020-04-23)[2022-01-20]. https://arxiv.org/abs/2009.10934.

        [15]JOCHER G. Yolov5 [EB/OL]. (2020-08-09)[2022-01-10]. https://github.com/ultralycs/yolov5.

        [16]GE Z, LIU S, WANG F, et al. Yolox: Exceeding Yolo Series in 2021 [EB/OL]. (2021-08-06)[2022-02-20]. https://arxiv.org/abs/2017.08430.

        [17]SONG G L, LIU Y, WANG X G. Revisiting the Sibling Head in Object Detector [EB/OL]. (2020-03-17)[2022-01-20]. https://arxiv.org/abs/2003.07540.

        [18]WU Y, CHEN Y P, YUAN L, et al. Rethinking Classifification and Localization for Object Detection [EB/OL]. (2020-04-02)[2022-02-01]. https://arxiv.org/abs/1904.06493.

        [19]TIAN Z, SHEN C H, CHEN H, et al. FCOS: Fully Convolutional One-Stage Object Detection [C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2020: 9626-9635.

        [20]ZHOU X Y, WANG D Q, KRHENBHL P. Objects as Points [EB/OL]. (2019-04-16)[2022-02-20]. https://arxiv.org/abs/1904.07850.

        [21]GE Z, LIU S T, LI Z M, et al. Ota: Optimal Transport Assignment for Object Detection [EB/OL]. (2021-03-26)[2022-01-20]. https://arxiv.org/abs/2103.14259.

        [22]汪祖云, 廖惠敏, 黃訓(xùn)平, 等. 基于車窗區(qū)域定位的出租汽車駕駛員蓄須行為的自動檢測技術(shù)研究 [J]. 交通運輸研究, 2018, 4(4): 41-47. (WANG Z Y, LIAO H M, HUANG X P, et al. Automatic Detection Technology of Taxi Driver Is Beard Based on Car Window Area Location [J]. Transport Research, 2018, 4(4): 41-47.)

        [23]DAI J F, QI H Z, XIONG Y W, et al. Deformable Convolutional Networks [C]//Proceedings of the IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2017: 764-773.

        [24]LIN T Y, GOYAL P, GIRSHICK R, et al. Focal Loss for Dense Object Detection [EB/OL]. (2018-02-07)[2022-02-01]. https://arxiv.org/abs/1708.02002.

        [25]李菊霞. 基于深度學(xué)習(xí)的二值圖像目標(biāo)輪廓識別算法 [J]. 吉林大學(xué)學(xué)報(理學(xué)版), 2020, 58(5): 1189-1194. (LI J X. Binary Image Target Contour Recognition Algorithm Based on Deep Learning [J]. Journal of Jilin University (Science Edition), 2020, 58(5): 1189-1194.)

        (責(zé)任編輯: 韓 嘯)

        收稿日期: 2022-06-18.

        第一作者簡介: 黃 鍵(1993—), 男, 漢族, 碩士研究生, 從事計算機視覺的研究, E-mail: 220192221099@ncepu.edu.cn. 通信作者簡介: 徐偉峰(1982—), 男, 漢族, 博士, 從事計算機視覺和空管系統(tǒng)的研究, E-mail: weifengxu@163.com.

        基金項目: 國家自然科學(xué)基金(批準(zhǔn)號: 61802124)、 全國高等院校計算機基礎(chǔ)教育研究會項目(批準(zhǔn)號: 2019-AFCEC-125)和中央高校基本科研業(yè)務(wù)費專項基金(批準(zhǔn)號: 2021MS089).

        国产极品女主播国产区| 国产真实乱对白在线观看| 视频一区视频二区亚洲免费观看| 亚洲综合中文日韩字幕| 18禁免费无码无遮挡不卡网站 | 亚洲视频观看一区二区| 日产一区二区三区免费看| 99久久免费国产精品| AV无码最在线播放| 亚洲视频在线播放免费视频| 日韩精品免费在线视频一区| 综合五月激情二区视频| 毛茸茸的中国女bbw| 国产一区二区三区韩国| 日本一区二区三区激视频| 东北女人啪啪对白| 在线人成免费视频69国产| 91老司机精品视频| 色婷婷精品国产一区二区三区| 少妇连续高潮爽到抽搐| 人妻少妇精品中文字幕av| 双腿张开被9个黑人调教影片| 无码中文字幕专区一二三| h视频在线免费观看视频| 国产欧美日韩精品丝袜高跟鞋| 亚洲av成人一区二区三区在线观看| 97无码人妻一区二区三区蜜臀 | 国产精品久久久久久久久免费 | 亚洲av乱码二区三区涩涩屋| 国产尤物av尤物在线观看| 久久久伊人影院| 国产丝袜在线福利观看| 成人免费播放视频777777| 精品欧洲av无码一区二区三区| 99re国产电影精品| 国产av熟女一区二区三区密桃| 国产色xx群视频射精| 国产激情电影综合在线看 | 色欲人妻综合aaaaa网| 97超级碰碰人妻中文字幕| 日本高清视频在线一区二区三区 |