亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自動(dòng)駕駛汽車目標(biāo)檢測(cè)算法研究進(jìn)展

        2025-08-22 00:00:00方文俊楊燕紅王昊
        汽車工程師 2025年8期

        【Abstract】With the introductionofdeep learning technology inrecent years,target detection algorithms forautonomous vehiclehave madesignificantprogress.This paperanalyzesandorganizes thetraditionalobjectdetectionalgorithmsanddep learningobjectdetectionalgorithmscurrntlyapliedinautonomousdrivingfromtheperspectiveof thedevelopmentofobject detectiontechnology,analyzes milestone detectors,network structuresand the latestdetection methods,and exploresthe development direction of target detection technology.

        Key words: Autonomous driving, Environmental perception,Deep learning,Target detection, Detector

        【引用格式】方文俊,楊燕紅,王昊.自動(dòng)駕駛汽車目標(biāo)檢測(cè)算法研究進(jìn)展[J].汽車工程師,2025(8):1-14.FANGWJ,YANGYH,WANGH.ResearchProgressof Target DetectionAlgorithmforAutonomousVehicle[J].Automotive Engineer,2025(8):1-14.

        1前言

        中具有重要作用。

        以往, 90% 的車輛事故是人為失誤造成的,而自動(dòng)駕駛汽車能夠有效避免人工駕駛的很多安全問題。自動(dòng)駕駛過程需要利用精確的定位系統(tǒng)、智能化環(huán)境感知技術(shù),以及全面的控制算法來應(yīng)對(duì)各種駕駛場景,因此,目標(biāo)檢測(cè)技術(shù)在自動(dòng)駕駛過程

        準(zhǔn)確檢測(cè)周圍車輛的位置、速度、行駛方向等關(guān)鍵信息,可使自動(dòng)駕駛車輛預(yù)判潛在的碰撞風(fēng)險(xiǎn),并及時(shí)作出合理決策。早期,一般通過大量人工提取特征再識(shí)別的方法進(jìn)行目標(biāo)檢測(cè),而隨著算法的深人與深度學(xué)習(xí)技術(shù)的出現(xiàn),自動(dòng)駕駛汽車使用攝像頭和基于深度學(xué)習(xí)的方法進(jìn)行目標(biāo)檢測(cè)和分類4,極大地提高了車輛的實(shí)時(shí)檢測(cè)水平。

        本文針對(duì)自動(dòng)駕駛汽車環(huán)境感知領(lǐng)域常見的目標(biāo)檢測(cè)算法和基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法進(jìn)行梳理,分析了車輛目標(biāo)檢測(cè)中小尺度漏檢、遮擋等問題的解決方案,最后總結(jié)目標(biāo)檢測(cè)算法面臨的挑戰(zhàn)及未來可能的發(fā)展方向。

        2車輛的目標(biāo)檢測(cè)算法

        人類視覺系統(tǒng)在面對(duì)復(fù)雜場景時(shí)具有搜索和定位感興趣自標(biāo)的能力,可以很容易地注意到圖像中的目標(biāo)物體而忽略背景。這種視覺注意能力受認(rèn)知生理和心理的控制,是人類處理視覺信息的重要機(jī)制。為在車載場景中實(shí)現(xiàn)類似的感知能力,計(jì)算機(jī)視覺系統(tǒng)通過模擬人類注意機(jī)制,使自動(dòng)駕駛車輛能精準(zhǔn)識(shí)別道路中的自標(biāo)并過濾冗余信息。計(jì)算機(jī)視覺識(shí)別的任務(wù)主要包括:圖像分類,即將圖像分配到某個(gè)特定類別;目標(biāo)檢測(cè),對(duì)圖像進(jìn)行處理、分析和理解,以識(shí)別目標(biāo)類別,并通過邊界框預(yù)測(cè)每個(gè)目標(biāo)的位置;實(shí)例分割,識(shí)別不同的對(duì)象,并為每個(gè)對(duì)象分配一個(gè)單獨(dú)的分類像素級(jí)掩碼,即識(shí)別并分割出圖像中的每一個(gè)特定實(shí)例對(duì)象;語義分割,將圖像分割為多個(gè)具有語義的區(qū)域,為每個(gè)像素分配特定的類別標(biāo)簽,從而提供對(duì)圖像更豐富的理解。

        目標(biāo)檢測(cè)是計(jì)算機(jī)視覺任務(wù)的核心難點(diǎn),且在自動(dòng)駕駛系統(tǒng)中扮演著關(guān)鍵角色,其技術(shù)的發(fā)展大致經(jīng)歷了傳統(tǒng)目標(biāo)檢測(cè)和基于深度學(xué)習(xí)的目標(biāo)檢測(cè)兩個(gè)階段[8]。

        2.1傳統(tǒng)目標(biāo)檢測(cè)算法

        傳統(tǒng)目標(biāo)檢測(cè)方法通常分為3個(gè)步驟,即區(qū)域提議、特征提取、分類器訓(xùn)練,如圖1所示。其中,特征提取可以強(qiáng)調(diào)主要信息并降低次要信息的影響,分類器的優(yōu)劣將極大影響目標(biāo)檢測(cè)的準(zhǔn)確率。大量研究提出了多種特征提取方法,如方向梯度直方圖(HistogramofOrientedGradient,HOG)、光流法[、可變形部件模型(DeformablePartModel,DPM)[-2]、哈爾(Haar)特征[3]、尺度不變特征變換(Scale-InvariantFeatureTransform,SIFT)[4等,并提出了多種分類器,如支持向量機(jī)(SupportVectorMachine,SVM)[5]、引導(dǎo)聚集算法(Bootstrapaggregating,Bagging)[、非線性SVM、AdaBoost[17]等。

        2.1.1 特征提取方法

        HOG是Dalal等提出的一種用于行人檢測(cè)的特征描述子。由于梯度或者邊緣方向的分布可有效表達(dá)局部物體的外觀或形狀,所以在HOG中,梯度方向的直方圖被視為特征。該方法將圖像分為若干個(gè)單元(CeI1),分別計(jì)算每個(gè)單元中每個(gè)像素的梯度和方向并構(gòu)建直方圖,得到多維特征向量,再將若干個(gè)單元組合成塊,對(duì)塊進(jìn)行歸一化,對(duì)塊內(nèi)單元的特征向量進(jìn)行拼接得到最終的特征向量。因其在圖像的局部區(qū)域操作,所以能夠很好地避免圖像的幾何和光學(xué)形變。在此基礎(chǔ)上,Tian8利用HOG特征和SVM開展夜間車輛檢測(cè),在夜間弱光條件下有效增強(qiáng)了移動(dòng)車輛的檢測(cè)能力。文獻(xiàn)[19]使用直方圖擴(kuò)展和灰度微分值方法(Gray-levelDifferentialValueMethod,GDVM)進(jìn)行車輛檢測(cè),結(jié)果表明,傳統(tǒng)方法在復(fù)雜環(huán)境下有效,但在雨天和弱光條件下效果不佳,故傳統(tǒng)方法在處理顯著環(huán)境變化時(shí)存在局限性。

        HOG在處理遮擋重疊問題時(shí)存在一定困難,促使Felzenszwalb等提出了DPM。DPM是一種基于多尺度可變形零件模型混合的物體檢測(cè)系統(tǒng),DPM算法采用改進(jìn)的HOG特征及SVM和滑動(dòng)窗口(SlidingWindows)聯(lián)合的檢測(cè)思想對(duì)輸入的圖像進(jìn)行特征提取,針對(duì)特定目標(biāo)制作相應(yīng)的激勵(lì)模板,并在原始圖像中計(jì)算得到該激勵(lì)的效果圖,再由激勵(lì)的分布確定目標(biāo)位置。雖然DPM具有直觀簡單、運(yùn)算速度快、能適應(yīng)變形等特點(diǎn),但其性能略有不足、激勵(lì)特征需要人為設(shè)計(jì)的特點(diǎn)大幅增加了工作量,所以DPM不具有普適性。后續(xù)研究2針對(duì)DPM性能不足的問題,基于顏色融合DPM,通過HSI色彩空間轉(zhuǎn)換進(jìn)行圖像傳輸,提取色彩空間各通道的信息并訓(xùn)練DPM,再通過自適應(yīng)融合方法將DPM融合,取得了良好的檢測(cè)效果,實(shí)現(xiàn)了對(duì)傳統(tǒng)DPM的優(yōu)化。

        特征提取技術(shù)發(fā)展過程中,研究人員發(fā)現(xiàn)傳統(tǒng)的目標(biāo)檢測(cè)側(cè)重于目標(biāo)的靜態(tài)特征提取,而目標(biāo)的運(yùn)動(dòng)信息難以獲取,因此光流法(OpticalFlow)應(yīng)運(yùn)而生。光流法基于圖像序列在時(shí)間域上的變化獲取上一幀與當(dāng)前幀的關(guān)系,計(jì)算相鄰幀之間對(duì)象的運(yùn)動(dòng)趨勢(shì)[2。結(jié)合光流法和顏色直方圖的方法可以同時(shí)對(duì)車輛和天氣進(jìn)行檢測(cè),并處理復(fù)雜天氣條件下所需要的細(xì)微識(shí)別任務(wù)。由于光流法受光照噪聲影響嚴(yán)重,且車輛檢測(cè)通常在復(fù)雜的光照環(huán)境下進(jìn)行,所以此方法在車輛檢測(cè)中局限性較大。

        受Papageorgiou等[22使用的Haar基函數(shù)啟發(fā),Viola和Jones提出使用積分圖計(jì)算類哈爾(Haar-Like)特征,Haar-Like特征是一種用于目標(biāo)檢測(cè)或識(shí)別的圖像特征描述子,通過對(duì)圖像中每個(gè)像素以及由像素組成的相鄰矩形區(qū)域進(jìn)行特定操作,來獲取能夠代表整體圖像某些特征的描述信息。整體圖像計(jì)算完成后,任意一個(gè)Haar-Like特征都可以在恒定時(shí)間內(nèi)以任意尺度或位置進(jìn)行計(jì)算。Haar-Like特征分為三類:邊緣特征、線性特征,以及中心特征和對(duì)角線特征。用兩種矩形框聯(lián)合生成特征模板,利用特征模板內(nèi)兩種矩形像素的差值表示該模版的特征值,特征模板可用于圖像中的任一位置,且大小可任意變化,所以Haar-Like特征的取值對(duì)特征模板中的類別、位置、大小特別敏感,因此在固定大小的圖像窗口內(nèi)可以提取出大量的Haar-Like特征,從而大幅提高特征提取效率。

        此后,研究人員發(fā)現(xiàn),如果目標(biāo)存在于不同尺度的圖像中會(huì)導(dǎo)致之前的特征提取方法失效,SIFT能夠找到對(duì)尺度和旋轉(zhuǎn)不變的特征,并進(jìn)行提取以創(chuàng)建對(duì)部分遮擋、雜亂、噪聲和照明變化具有魯棒性的對(duì)象識(shí)別系統(tǒng)。雖然SIFT具有魯棒性、局部性、可重復(fù)性等,但其計(jì)算成本高,且在極端情況下性能可能受到影響。

        各類特征提取方法的特點(diǎn)如表1所示。從HOG到SIFT的發(fā)展過程明確地體現(xiàn)出特征提取方法從簡單的基礎(chǔ)功能實(shí)現(xiàn)逐步向復(fù)雜條件下高性能、普適性方向發(fā)展的趨勢(shì)。但是,上述傳統(tǒng)算法普遍存在的主要缺點(diǎn)是需要人為制作特征提取器來學(xué)習(xí)對(duì)象的不同描述子,導(dǎo)致工作量增加、時(shí)間延長。目標(biāo)檢測(cè)任務(wù)在從圖像序列中生成局部特征后,提取的特征必須由機(jī)器學(xué)習(xí)分類器識(shí)別[23]。

        2.1.2 分類器

        分類器主要用于解決分類問題。最經(jīng)典的分類器是SVM,主要解決二分類問題,其核心思想是通過在特征空間中找到一個(gè)最優(yōu)的超平面進(jìn)行分類,且間隔最大。因需要的存儲(chǔ)空間小、訓(xùn)練和分類速度快,SVM的應(yīng)用最廣泛。針對(duì)非線性分類問題,非線性SVM將數(shù)據(jù)映射到高維特征空間,以便找到一個(gè)線性可分的超平面來分隔不同類別的數(shù)據(jù)點(diǎn)。非線性SVM對(duì)非線性數(shù)據(jù)的適應(yīng)能力強(qiáng),但其對(duì)大規(guī)模數(shù)據(jù)集的訓(xùn)練時(shí)間較長,且核函數(shù)的選擇較為困難。為解決非線性SVM訓(xùn)練時(shí)間較長的問題,Bagging基于自助采樣(BootstrapSampling)和偏差-方差分解定理,并引入隨機(jī)性與個(gè)體學(xué)習(xí)器相互獨(dú)立的方法,減輕了過擬合問題并可實(shí)現(xiàn)并行訓(xùn)練,因此能夠大幅度縮短訓(xùn)練時(shí)間。該方法首先將一個(gè)隨機(jī)樣本放入采集的集合中,再將其放回原本的數(shù)據(jù)集,重復(fù) N 次采樣后可獲得一個(gè)大小為 N 的樣本集合,重復(fù) P 次,得到 P 個(gè)含有 N 個(gè)樣本的采樣集合,然后使用該采樣集合訓(xùn)練出個(gè)體學(xué)習(xí)器并將其組合起來,最后根據(jù)不同的問題采用不同的方法進(jìn)行預(yù)測(cè),如針對(duì)回歸問題預(yù)測(cè)平均值、針對(duì)分類問題預(yù)測(cè)多數(shù)投票或者平均概率。但是,Bagging方法存在對(duì)異常值十分敏感、參數(shù)選擇對(duì)結(jié)果影響較大的問題。

        表1各類特征提取方法及其特點(diǎn)

        隨著技術(shù)發(fā)展和實(shí)際需求的變化,AdaBoost基于Boosting集成學(xué)習(xí),能夠在每一輪迭代后更新樣本和弱學(xué)習(xí)器的權(quán)重,并且在每一輪迭代的基礎(chǔ)上以同樣的方法再訓(xùn)練一個(gè)弱分類器,直至到達(dá)最大迭代次數(shù)或者獲得足夠小的誤差后將所有弱學(xué)習(xí)器的輸出整合為一個(gè)整體。AdaBoost具有準(zhǔn)確率高、能自動(dòng)選擇有效特征、靈活性強(qiáng)的優(yōu)勢(shì),但其計(jì)算量較大,對(duì)異常值和噪聲敏感。不同分類器的特點(diǎn)如表2所示。

        表2各類分類器及其特點(diǎn)

        2.2基于深度學(xué)習(xí)技術(shù)的目標(biāo)檢測(cè)算法

        傳統(tǒng)目標(biāo)檢測(cè)方法大多具有明顯的缺點(diǎn),如依賴手動(dòng)特征工程,此外,此類模型因無法在不需要大量重新訓(xùn)練的情況下快速納入新數(shù)據(jù),適應(yīng)惡劣天氣或動(dòng)態(tài)環(huán)境的能力有限。深度學(xué)習(xí)在20世紀(jì)90年代作為機(jī)器學(xué)習(xí)和人工智能的一個(gè)子領(lǐng)域出現(xiàn)[24。目標(biāo)檢測(cè)領(lǐng)域中傳統(tǒng)算法對(duì)規(guī)?;幚硖卣髂芰Σ蛔?,深度學(xué)習(xí)算法可以較好地彌補(bǔ)這些缺點(diǎn)[25]?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)方法與傳統(tǒng)目標(biāo)檢測(cè)方法在理論和應(yīng)用方面存在顯著區(qū)別,如深度學(xué)習(xí)可實(shí)現(xiàn)更高抽象級(jí)別、更高精度和更快執(zhí)行的能力。近年來,在計(jì)算機(jī)視覺領(lǐng)域,由于數(shù)據(jù)量的不斷增加和硬件的快速發(fā)展,基于深度學(xué)習(xí)的車輛檢測(cè)算法的實(shí)時(shí)性已經(jīng)可與傳統(tǒng)的基于手動(dòng)特征的車輛檢測(cè)算法相媲美,而深度學(xué)習(xí)方法在檢測(cè)精度方面遠(yuǎn)超傳統(tǒng)算法。這一時(shí)期的里程碑檢測(cè)器如圖2所示。

        2.2.1 深度學(xué)習(xí)網(wǎng)絡(luò)算法的演進(jìn)

        2012年,世界見證了卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)的重生,AlexNet2在ImageNet舉辦的大規(guī)模視覺識(shí)別挑戰(zhàn)賽(ImageNetLarge ScaleVisual RecognitionChallenge,ILSVRC)上首次使用了深度學(xué)習(xí)方法。該比賽使用ImageNet數(shù)據(jù)庫,包含 120×104 張、1000個(gè)類別的圖像。AlexNet在 top-1 和 top-5 中分別實(shí)現(xiàn)了 37.5% 和 17.0% 的錯(cuò)誤率,分類效果有了質(zhì)的提升。隨后,OverFeat針對(duì)當(dāng)時(shí)檢測(cè)和分類的瓶頸,首次明確解釋了CNN的定位與檢測(cè)原理。該檢測(cè)算法使用全卷積網(wǎng)絡(luò)和滑動(dòng)窗口技術(shù),將大量的滑動(dòng)窗口放入圖像中,滑動(dòng)窗口給出對(duì)象類別的置信度得分和邊界框,與對(duì)象有 50% 重疊的邊界框?qū)⒈缓喜ⅰ⒗鄯e,并利用回歸算法預(yù)測(cè)最終邊界框。然而,該方法所需算力較大,因此效率較低。

        在2014年的ILSVRC中,視覺幾何組網(wǎng)絡(luò)(Visual GeometryGroup Network,VGGNet)[28]在分類任務(wù)中錯(cuò)誤率達(dá)到 7.32% ,在定位任務(wù)中的錯(cuò)誤率為 25.32% 。為減少所需參數(shù)量,該模型通過堆積疊加,使用多個(gè) 3×3 卷積核代替大尺度卷積核,并多次使用 2×2 的池化,使結(jié)構(gòu)簡潔明了,同時(shí)利用多個(gè)卷積層增加了非線性,提高了模型的性能,如圖3所示。VGGNet至今仍在圖像特征提取中廣泛應(yīng)用。

        圖3VGGNet模型

        2014年,IanGoodfellow等首次提出生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[29],該網(wǎng)絡(luò)包括一個(gè)名為生成器的神經(jīng)網(wǎng)絡(luò)和一個(gè)名為判別器的神經(jīng)網(wǎng)絡(luò),開創(chuàng)了許多新的研究方向。但是基于GAN的模型訓(xùn)練和優(yōu)化仍然較為繁瑣,模型易崩潰,結(jié)果不易收斂且不穩(wěn)定,故基于GAN的變體陸續(xù)出現(xiàn),如深度卷積生成對(duì)抗網(wǎng)絡(luò)(DeepConvolutionalGenerativeAdversarialNetworks,DCGAN)[3、信息生成對(duì)抗網(wǎng)絡(luò)(InformationMaximizingGenerativeAdversarialNetworks,infoGAN)[3等。

        通常,深度學(xué)習(xí)模型層數(shù)越多,能捕獲的信息就越多,但是層數(shù)過多會(huì)導(dǎo)致梯度爆炸或退化問題。為減輕網(wǎng)絡(luò)的訓(xùn)練負(fù)擔(dān)、解決深層網(wǎng)絡(luò)的退化問題,2015年,He等提出了ResNet32,此后,模型層數(shù)提高到了百層以上。ResNet通過殘差學(xué)習(xí)的方法提出殘差結(jié)構(gòu),并使用批歸一化(BatchNormalization,BN)加速訓(xùn)練。在2015年的ILSVRC比賽中,152層ResNet的top-5任務(wù)錯(cuò)誤率僅為3.57% ,準(zhǔn)確率較此前的模型大幅提升。盡管ResNet通過快捷連接降低了訓(xùn)練難度,但它并未充分利用先前層的功能。在逐元素運(yùn)算中,淺層中的原始特征丟失,因此不能在以后直接使用。不同于ResNet,密集連接卷積網(wǎng)絡(luò)(DenselyConnectedConvolutionalNetwork,DenseNet)[33]相互連接了所有層,保留了淺層特征,并通過將輸人與殘差輸出連接實(shí)現(xiàn)特征重用,提升了效率,在參數(shù)大小相同的條件下,DenseNet的性能優(yōu)于ResNet。在DenseNet中,來自淺層的大多數(shù)新開發(fā)的特征是重復(fù)的,并產(chǎn)生了很高的計(jì)算成本。結(jié)合ResNet與DenseNet的優(yōu)點(diǎn),研究人員提出了一種雙路徑網(wǎng)絡(luò)(Dual-PathNetwork,DPN)[34,該網(wǎng)絡(luò)能共享公共特征,且其雙路徑架構(gòu)可保留靈活性以獲取新的特征。它與DenseNet、ResNet以及次代殘差網(wǎng)絡(luò)(ResidualNetworkwithNext,ResNeXt)這類網(wǎng)絡(luò)在模式分析、統(tǒng)計(jì)建模和計(jì)算學(xué)習(xí)視覺對(duì)象分類(PatternAnalysis,Statistical Modelling and ComputationalLearningVisual Object Classes,PASCAL VOC)挑戰(zhàn)賽的檢測(cè)與分割數(shù)據(jù)集中,相比DPN具有更優(yōu)良的性能。2016年,沙漏網(wǎng)絡(luò)(HourglassNetwork,HourglassNet)[35被提出,其最早用于人類姿勢(shì)識(shí)別,是具有沙漏模塊序列的完全卷積結(jié)構(gòu)。沙漏模塊能夠同時(shí)捕獲局部和全局信息,非常適合目標(biāo)檢測(cè)任務(wù)。

        受各網(wǎng)絡(luò)的復(fù)雜程度和設(shè)備算力的影響,深度學(xué)習(xí)的目標(biāo)檢測(cè)很難搭載在移動(dòng)端。2017年,移動(dòng)網(wǎng)絡(luò)(MobileNetwork,MobileNet)[誕生,該網(wǎng)絡(luò)利用深度可分離卷積構(gòu)建輕量級(jí)的深度神經(jīng)網(wǎng)絡(luò),為移動(dòng)設(shè)備和嵌入式設(shè)備的性能提升提供了可能,且其顯著降低了計(jì)算成本和參數(shù)數(shù)量,而分類精度沒有明顯損失。小尺度物體自身的像素信息較少,在下采樣過程中極易被遺棄,而許多網(wǎng)絡(luò)利用單個(gè)高層特征,從而忽略了這一問題,文獻(xiàn)[37]構(gòu)造了不同尺度的特征信息并進(jìn)行融合,旨在提升檢測(cè)算法對(duì)不同尺寸檢測(cè)目標(biāo)的魯棒性??勺冃尉矸e網(wǎng)絡(luò)(DeformableConvolutionalNetwork,DCN)[38]解決了卷積核權(quán)重的固定導(dǎo)致的同一CNN在處理一幅圖像的不同位置時(shí)感受野大小相同的問題。而DetNet(DetectionNetwork,DetNet)通過在多尺度特征圖上采用擴(kuò)張卷積、保持高分辨率特征圖等措施改進(jìn)感受野,解決了多尺度物體識(shí)別問題。2017年,檢測(cè)驅(qū)動(dòng)增強(qiáng)網(wǎng)絡(luò)(Detection-drivenEnhancementNetwork,DeNet)4描述了一個(gè)用CNN進(jìn)行稀疏估計(jì)的框架,并提出了一種感興趣區(qū)域(RegionofInterest,ROI)檢測(cè)器和分類模型,提高了檢測(cè)性能,使用在語義分割背景下描述的反卷積和跳過層,中小型物體的檢測(cè)率得到了提升。2024年, Xu 等[41提出一種高階特征關(guān)聯(lián)網(wǎng)絡(luò)(High-OrderFeatureAssociationNetwork,HOFA-NET),該網(wǎng)絡(luò)可有效捕捉信道和空間維度特征之間的相互依賴關(guān)系,產(chǎn)生更可分的特征,有效提升對(duì)密集物體、小尺寸物體的檢測(cè)性能。為解決小尺度物體缺乏特征信息的問題,Dai等設(shè)計(jì)了自適應(yīng)樣本分配策略(AdaptiveSampleAssignmentStrategy,ASAS)和微小目標(biāo)聚焦增強(qiáng)模塊,有效增強(qiáng)了高層次語義信息對(duì)微小物體的傳播能力。這些網(wǎng)絡(luò)奠定了現(xiàn)代深度學(xué)習(xí)的發(fā)展基礎(chǔ)。

        2.2.2 目標(biāo)檢測(cè)器

        目標(biāo)檢測(cè)器分為兩階段檢測(cè)器和單階段檢測(cè)器,前者在檢測(cè)中表現(xiàn)出更高的精度,而后者具有更快的速度。兩種檢測(cè)器都生成建議,主要區(qū)別在于兩階段檢測(cè)器生成僅具有前景或背景信息的稀疏建議集,而單階段檢測(cè)器將圖像中的每個(gè)區(qū)域均視為潛在建議,并相應(yīng)地估計(jì)每個(gè)位置的潛在對(duì)象的類和邊界框坐標(biāo)。常見的兩階段檢測(cè)器有區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-ConvolutionalNeuralNetwork,R-CNN)及其變體快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(FastR-CNN)更快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(FasterR-CNN)空間金字塔池化網(wǎng)絡(luò)(SpatialPyramidPoolingNetwork,SPP-Net)、基于區(qū)域的全卷積網(wǎng)絡(luò)(Region-basedFullyConvolutionalNetwork,R-FCN)等。從深度學(xué)習(xí)技術(shù)提出開始到目前最為有效的單階段檢測(cè)器有YOLO(YouOnlyLookOnce)、單步多框檢測(cè)器(SingleShotMultiBoxDetector,SSD)、視網(wǎng)膜網(wǎng)絡(luò)(RetinaNet)、DETR(DEtectionTRansformer)等。

        2.2.2.1 兩階段檢測(cè)器

        兩階段檢測(cè)器包括兩個(gè)任務(wù)階段:提案生成,識(shí)別輸入中可能是目標(biāo)對(duì)象的區(qū)域;對(duì)生成的提案進(jìn)行預(yù)測(cè),采用基于深度學(xué)習(xí)的模型為提案設(shè)置正確的分類標(biāo)簽。典型的兩階段檢測(cè)器及其特點(diǎn)如表3所示。

        R-CNN43是一種簡單且可擴(kuò)展的檢測(cè)算法,是CNN之后目標(biāo)檢測(cè)領(lǐng)域極具特點(diǎn)的里程碑之一。R-CNN具有優(yōu)良的特征提取和分類性能,其流程如圖4所示:首先采用區(qū)域建議生成2000個(gè)候選框,再將每個(gè)候選框處理成227像素 ×227 像素大小后放入網(wǎng)絡(luò)中提取特征,獲得4096維特征后將其送人SVM分類器,通過非極大值抑制(Non-MaximumSuppression,NMS)篩選出最可能的框,即對(duì)目標(biāo)進(jìn)行定位,最后修正候選框位置并使用最小二乘法解決回歸問題完成檢測(cè)。該算法簡單且可拓展,在PASCALVOC2012數(shù)據(jù)集中的平均精度均值(mean AveragePrecision, mAP )達(dá)到53.3% 。但是R-CNN簡單的操作帶來了檢測(cè)速度慢、占用存儲(chǔ)空間大、特征提取容易重復(fù)計(jì)算的問題。

        表3典型的兩階段檢測(cè)器

        圖4R-CNN流程

        SPP-Net44是一種改進(jìn)的R-CNN算法。通常,CNN模型需要將輸入數(shù)據(jù)的尺寸固定,如AlexNet需輸人224像素 ×224 像素的圖像,而候選區(qū)域尺度各異,難以直接輸入CNN中實(shí)現(xiàn)區(qū)域的特征提取。SPP-Net在R-CNN的基礎(chǔ)上提出了兩項(xiàng)重大改進(jìn):一是去除裁剪/扭曲圖像歸一化過程,解決了圖像畸形導(dǎo)致的信息消失和存儲(chǔ)問題45;二是在R-CNN的基礎(chǔ)上提出了以3種池化方式對(duì)特征進(jìn)行池化并對(duì)結(jié)果進(jìn)行拼接的空間金字塔池化層。通過上述兩項(xiàng)改進(jìn)措施,SPP-Net極大提高了R-CNN的訓(xùn)練速度和推理速度,在PASCALVOC2007數(shù)據(jù)集中的mAP達(dá)到 59.2% 。但是,SPP-Net依舊存在多級(jí)檢測(cè)和忽略所有先前的層、只微調(diào)其他全連接層的問題。候選框的選擇非常耗時(shí),且候選框的提取、CNN特征的計(jì)算、SVM分類、邊界框回歸均需要獨(dú)立訓(xùn)練,并保存大量中間結(jié)果,無法實(shí)現(xiàn)訓(xùn)練參數(shù)的全局優(yōu)化,而FastR-CNN可以解決上述問題,提高速度和精度。

        FastR-CNN4作為R-CNN的變體,融人了SPP-Net的特點(diǎn),并解決了SPP-Net的局限性問題。FastR-CNN將要輸入的圖像歸一化后再進(jìn)行特征提取,并在最后一層特征圖上映射候選框,提高了算力的利用率。與R-CNN不同,F(xiàn)astR-CNN在分類前不需要將特征存儲(chǔ)在硬盤中。在PASCALVOC2007數(shù)據(jù)集上,F(xiàn)astR-CNN的mAP達(dá)到了 70.0% 0

        SPP-Net和FastR-CNN等為縮短檢測(cè)網(wǎng)絡(luò)運(yùn)行所需時(shí)間而采用區(qū)域提案方法,但區(qū)域提案需要大量計(jì)算資源,成為其發(fā)展的瓶頸。FasterR-CNN在使用FastR-CNN框架的基礎(chǔ)上,提出了區(qū)域提案網(wǎng)絡(luò)(RegionProposalNetwork,RPN),RPN可通過端對(duì)端訓(xùn)練生成高質(zhì)量候選框,并在訓(xùn)練時(shí)采用與目標(biāo)檢測(cè)網(wǎng)絡(luò)共享的卷積層,大幅提高了檢測(cè)速度,但其在生成候選框時(shí)仍需花費(fèi)大量時(shí)間。FasterR-CNN在PASCALVOC2007數(shù)據(jù)集上的mAP達(dá)到 73.2%

        R-FCN48是一個(gè)兩階段檢測(cè)器,為解決目標(biāo)檢測(cè)的位置敏感性和分類位置不敏感性的矛盾問題,提出位置敏感得分映射(Position-SensitiveScoreMap)。該檢測(cè)器進(jìn)行圖像預(yù)處理后,將其送入分類網(wǎng)絡(luò),在分類網(wǎng)絡(luò)的最后一個(gè)卷積層有3個(gè)分支,第一種是在特征圖上通過RPN生成候選框,第二種是在特征圖上進(jìn)行位置敏感得分映射,映射維度是 K×K×(C+1) ,第三種是在特征圖上計(jì)算4×K×K 維的位置敏感度得分映射,其中, K,C 分別為位置敏感得分映射的網(wǎng)格大?。▽⒑蜻x區(qū)域劃分為 K×K 子區(qū)域)、目標(biāo)類別數(shù)。最后,在計(jì)算得到的映射上實(shí)現(xiàn)了ROI池的功能,可識(shí)別并獲取所需要的地址和類別信息。該檢測(cè)器與FasterR-CNN相比,具有較高的速率,精確度略有提升。

        兩階段方法存在對(duì)錨點(diǎn)的多次細(xì)化,故與單階段方法相比,檢測(cè)結(jié)果更為精準(zhǔn)。

        2.2.2.2 單階段檢測(cè)器

        單階段檢測(cè)器通過一個(gè)階段完成目標(biāo)的類別預(yù)測(cè)和邊界框回歸,側(cè)重于檢測(cè)速度,精度尚可。相對(duì)于兩階段檢測(cè)器,單階段檢測(cè)器不需要生成候選區(qū)域后再進(jìn)行預(yù)測(cè),因此有效提升了檢測(cè)速度。部分典型的單階段檢測(cè)器及其特點(diǎn)如表4所示。

        表4典型的單階段檢測(cè)器

        YOLO[49]是JosephRedmon等于2015年提出的一種深度學(xué)習(xí)時(shí)代最具代表性的單階段檢測(cè)器,經(jīng)多次版本迭代,目前已能實(shí)現(xiàn)優(yōu)秀的檢測(cè)效果。與兩階段檢測(cè)不同,這種算法不采用滑動(dòng)窗口技術(shù)和區(qū)域建議技術(shù),而是將神經(jīng)網(wǎng)絡(luò)應(yīng)用到整個(gè)圖像中,將輸入的圖像分割為幾個(gè)格子區(qū),每個(gè)格子區(qū)預(yù)測(cè)邊界框和對(duì)象在其中的置信度,再通過對(duì)比置信度來判斷相對(duì)特定類的置信度得分,但每個(gè)網(wǎng)格只能分類和定位一個(gè)對(duì)象,使其很難檢測(cè)到小尺度的物體和被遮擋的物體,且僅應(yīng)用最后一個(gè)特征圖進(jìn)行預(yù)測(cè),也難以用于預(yù)測(cè)多尺度和多縱橫比的對(duì)象。YOLO已經(jīng)陸續(xù)發(fā)展出多個(gè)版本,如:YOLOv5著力于減小模型的復(fù)雜度和提高實(shí)時(shí)性;YOLOv75通過引入優(yōu)化的結(jié)構(gòu)(如動(dòng)態(tài)標(biāo)簽分配和模型結(jié)構(gòu)重新參數(shù)化),在速度和準(zhǔn)確性方面優(yōu)于大多數(shù)檢測(cè)器;YOLOv8[51拋棄基于錨的方法,引入了無錨分裂Ultralytics頭,它有助于提高檢測(cè)過程的準(zhǔn)確性和效率,并且也采用了先進(jìn)的骨干網(wǎng)絡(luò)(Backbone)架構(gòu)提高特征提取和檢測(cè)的性能。 YOLOv10[52] 為解決之前版本因計(jì)算冗余導(dǎo)致參數(shù)利用率低、效率次優(yōu)的問題和改進(jìn)模型性能,首先提出了一種雙標(biāo)簽分配和無NMS的一致雙分配策略,用于解決后處理中的冗余預(yù)測(cè)問題,隨后改進(jìn)模型的體系結(jié)構(gòu),設(shè)計(jì)出了新的輕量化分類頭、空間信道解耦下采樣和秩引導(dǎo)塊,以減輕顯式的計(jì)算冗余,實(shí)現(xiàn)更為高效的模型架構(gòu),最后,通過研究大卷積核提出部分自關(guān)注模塊來提升模型性能,參數(shù)、計(jì)算量大幅度減少,并且在COCO數(shù)據(jù)集上取得了 54.4% 的平均精度(AveragePrecision,AP)。2024年,或許受實(shí)時(shí)檢測(cè)轉(zhuǎn)換器(Real-TimeDEtectionTRansformer,RT-DETR)[53能夠在實(shí)時(shí)檢測(cè)中擊敗當(dāng)時(shí)的YOLO算法的影響,YOLOv11橫空出世,相比于之前的版本,其更新了更適用于特征提取的主干網(wǎng)絡(luò)和頸部(Neck)結(jié)構(gòu),并優(yōu)化了訓(xùn)練流程,使訓(xùn)練更為迅速,可在速度與精度間很好地保持平衡,更滿足實(shí)際需求。YOLO算法在自動(dòng)駕駛場景中也存在一定的局限性,首先是存在小目標(biāo)難以檢測(cè)的情況,其次是版本較早的YOLO算法對(duì)硬件資源的要求較高,難以在自動(dòng)駕駛車輛上部署,最后是在復(fù)雜交通環(huán)境中以及惡劣天氣條件下實(shí)時(shí)檢測(cè)精度急劇下降,影響實(shí)時(shí)檢測(cè)的可靠性。為解決上述問題,YOLO系列后期的優(yōu)化重心可以放在針對(duì)提升圖像遠(yuǎn)端小目標(biāo)的檢測(cè)精度以及通過提升模型抗干擾能力提高惡劣環(huán)境下的召回率,保證其在自動(dòng)駕駛領(lǐng)域中的適用性。

        SSD[54] 是Liu提出的一種強(qiáng)大且應(yīng)用廣泛的單階段目標(biāo)檢測(cè)算法。在PASCALVOC2007測(cè)試集上,SSD在300像素 ×300 像素圖像的檢測(cè)任務(wù)中,mAP達(dá)到 74.3% ,且實(shí)現(xiàn)了59幀/s的幀速率。SSD是一種多尺度的檢測(cè)方法,且以VGG16網(wǎng)絡(luò)為基礎(chǔ),通過增加卷積層來獲得更多的特征圖。SSD使用的特征圖包括38像素 ?×38 像素、19像素 ×19 像素、10像素 ×10 像素、5像素 ?×5 像素、3像素 ?×3 像素、1像素 ?×1 像素共6種。大尺度特征圖用于檢測(cè)小尺度的目標(biāo),包括遠(yuǎn)處的車輛、交通燈等,小尺度特征圖用于檢測(cè)大尺度的目標(biāo),如近處車輛等,模型如圖5所示。與之前的檢測(cè)器只在頂層進(jìn)行檢測(cè)不同,SSD具有多種檢測(cè)層來檢測(cè)不用尺度的對(duì)象。

        圖5SSD模型

        RetinaNet5通過修正正負(fù)樣本不平衡實(shí)現(xiàn)與兩階段方法同等的檢測(cè)準(zhǔn)確度。在RetinaNet提出之前,相對(duì)于兩階段目標(biāo)檢測(cè),單階段目標(biāo)檢測(cè)的精確度相差甚遠(yuǎn)。焦點(diǎn)損失的提出使單階段方法具有與兩階段方法相差無幾的準(zhǔn)確性以及更快的檢測(cè)速度。

        2018年后,目標(biāo)檢測(cè)出現(xiàn)了新的方向,即無錨框(AnchorBox)檢測(cè)。CornerNet、中心點(diǎn)網(wǎng)絡(luò)(CenterNet)、極值點(diǎn)網(wǎng)絡(luò)(ExtremeNet)、代表性點(diǎn)(RepresentativePoints,RepPoints)、網(wǎng)格區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Grid Region Convolutional Neural Network,GridR-CNN)等是基于關(guān)鍵點(diǎn)的無錨框檢測(cè)。無特征選擇錨(FeatureSelectiveAnchor-Free,F(xiàn)SAF)模型、導(dǎo)向錨定區(qū)域提案(RegionProposalbyGuidedAnchoring,GARPN)、自適應(yīng)樣本選擇(AdaptiveTrainingSampleSelection,ATSS)、Foveabox等是基于中心點(diǎn)的無錨框檢測(cè)。CornerNet5開創(chuàng)性地拋棄錨框,采用關(guān)鍵點(diǎn)來檢測(cè)目標(biāo),用一對(duì)角點(diǎn)表示目標(biāo)的位置,在特征圖的每個(gè)位置預(yù)測(cè)熱圖(Heatmaps)、嵌入向量(Embeddings)和角偏移(Offsets),熱圖用于計(jì)算角點(diǎn)的概率,嵌入向量用于匹配成對(duì)的角點(diǎn),角偏移用于回歸角點(diǎn)的位置。該檢測(cè)器采用HourglassNet作為骨干網(wǎng)絡(luò),搭配新提出的角點(diǎn)池化(CornerPooling)來預(yù)測(cè)熱圖。CornerNet在COCO數(shù)據(jù)集上的AP達(dá)到了 42.1% ,超過了當(dāng)時(shí)所有的單階段模型。2019年,CenterNet[57]將基于中心的方法和基于角點(diǎn)的方法相結(jié)合,通過關(guān)鍵點(diǎn)(中心點(diǎn))檢測(cè)物體,回歸到物體的尺寸、維度、三維范圍、姿態(tài)等屬性,將物體檢測(cè)問題有效轉(zhuǎn)化為關(guān)鍵點(diǎn)估計(jì)問題。CenterNet通過預(yù)測(cè)中心點(diǎn)熱圖來定位目標(biāo)中心,生成邊界框,同時(shí)利用中心點(diǎn)熱圖過濾掉低置信度的檢測(cè)結(jié)果,且在推斷時(shí)只需一次前向傳播,無需NMS后處理。2019年,ExtremeNet5被提出,其通過檢測(cè)目標(biāo)的4個(gè)極點(diǎn)進(jìn)行目標(biāo)定位,然后通過幾何關(guān)系將其組合起來生成最終的邊界框,性能與其他主流檢測(cè)算法相當(dāng)。ExtremeNet的檢測(cè)方法十分獨(dú)特,但是也借鑒了CornerNet的設(shè)計(jì)思路,但其依賴于較多的后處理方法,故仍有許多優(yōu)化空間。與此同時(shí),文獻(xiàn)[59]提出了GridR-CNN,它用基于角點(diǎn)的定位機(jī)制取代了線性邊界框回歸器。綜上,CornerNet、CenterNet等基于關(guān)鍵點(diǎn)的算法本質(zhì)上與基于錨框的算法相似,通過預(yù)測(cè)目標(biāo)中心點(diǎn)及邊框距中心點(diǎn)的距離來檢測(cè)目標(biāo)。文獻(xiàn)[60]提出了一種FSAF框架,是一種可以在結(jié)構(gòu)中加入特征金字塔網(wǎng)絡(luò)(FeaturePyramidNetwork,F(xiàn)PN)的單階段檢測(cè)器。FSAF將在線特征選擇應(yīng)用于多級(jí)無錨框分支的訓(xùn)練,訓(xùn)練過程中,F(xiàn)SAF將每個(gè)對(duì)象動(dòng)態(tài)分配到最合適的特征級(jí)別,以訓(xùn)練基于中心的分支,取得了較好的檢測(cè)效果。RepPoints提出使用點(diǎn)集的方式來表示目標(biāo),該方法基于全卷積網(wǎng)絡(luò),在分類和最后一次回歸時(shí)使用DCN,在準(zhǔn)確度與計(jì)算量之間實(shí)現(xiàn)了非常好的平衡。

        2.3深度學(xué)習(xí)在車輛目標(biāo)檢測(cè)中的應(yīng)用

        自動(dòng)駕駛車輛的目標(biāo)檢測(cè)算法需滿足2個(gè)條件:實(shí)現(xiàn)道路上目標(biāo)的高精確度檢測(cè);檢測(cè)速度能夠滿足車載控制器實(shí)時(shí)控制車輛的要求?;谏疃葘W(xué)習(xí)的算法可以在使用較少計(jì)算資源的前提下實(shí)現(xiàn)較高的檢測(cè)精度,成為自動(dòng)駕駛系統(tǒng)必不可少的目標(biāo)檢測(cè)方法。如圖6所示,目標(biāo)檢測(cè)存在一些普遍的困難:當(dāng)車輛在弱光照條件下或夜間行駛時(shí),因光線不充足,感知系統(tǒng)難以獲取足夠的信息;車輛高速行駛時(shí),車載相機(jī)拍攝到的照片會(huì)變得模糊;在雨、雪、霧天氣條件下,因受到遮擋,拍攝的照片也會(huì)不清晰;車輛行駛時(shí),常出現(xiàn)小自標(biāo)隱藏在復(fù)雜環(huán)境中導(dǎo)致漏檢的情況,從而影響行駛安全性。

        圖0十假口你應(yīng)側(cè)的般難點(diǎn)

        針對(duì)車輛夜間行駛條件下的檢測(cè)困難問題,一些研究62-63通過改進(jìn)和設(shè)計(jì)新的網(wǎng)絡(luò)結(jié)構(gòu)提升弱光環(huán)境下的檢測(cè)準(zhǔn)確率,如文獻(xiàn)[64]通過對(duì)圖像增強(qiáng)算法進(jìn)行改進(jìn)并與YOLO算法融合,使夜間條件下的檢測(cè)精度大幅提升,平均檢測(cè)精度達(dá) 95.92% ,比YOLOv5s精度提升了1.19百分點(diǎn),這表明圖像增強(qiáng)技術(shù)可以很好地優(yōu)化車載目標(biāo)檢測(cè)任務(wù)中獲取的信息,解決夜間環(huán)境等車輛邊界難以區(qū)分的情況。然而,在實(shí)際應(yīng)用中也發(fā)現(xiàn)了一些問題,如當(dāng)遇到一些車輛輪廓微弱并且車燈等泛光嚴(yán)重的情況時(shí),增強(qiáng)處理后的圖像仍然難以準(zhǔn)確區(qū)分車輛邊界和特征,導(dǎo)致檢測(cè)準(zhǔn)確率有所下降。這表明在復(fù)雜多變的現(xiàn)實(shí)環(huán)境中,單一的圖像增強(qiáng)技術(shù)無法完全應(yīng)對(duì)所有不利因素,當(dāng)前的技術(shù)瓶頸之一就是缺乏對(duì)多種惡劣天氣和復(fù)雜路況的適應(yīng)性。文獻(xiàn)[65]、文獻(xiàn)[66]提出的方法也能夠很好地改善夜間弱光環(huán)境下車輛檢測(cè)的準(zhǔn)確率。針對(duì)雨、雪、霧天氣下照片不清晰以及目標(biāo)遮擋的問題,HasanAbbasi等提出了一種霧感知自適應(yīng)YOLO算法,通過使用霧化評(píng)估器算法配合YOLO算法提高了霧化條件下的目標(biāo)檢測(cè)性能。文獻(xiàn)[68]通過將去霧模塊與多尺度視網(wǎng)膜皮層理論(Multi-ScaleRetinex,MSR)相結(jié)合,增強(qiáng)了雨霧天氣等復(fù)雜環(huán)境條件下的檢測(cè)性能。另一項(xiàng)研究通過將卷積注意力模塊(ConvolutionalBlockAttentionModule,CBAM)加人YOLOv5的跨階段部分連接(CrossStagePartial,CSP)層來改善霧條件下的檢測(cè)準(zhǔn)確率。文獻(xiàn)[70]利用多層次特征融合的去雨霧模塊對(duì)圖像進(jìn)行優(yōu)化,通過對(duì)6000張含雨水圖片與6000張含霧氣圖片進(jìn)行實(shí)際測(cè)試,其搭載的算法對(duì)真實(shí)測(cè)試集雨霧條件下車輛檢測(cè)的準(zhǔn)確率接近 89% 。這些方法均通過對(duì)圖像進(jìn)行去雨霧操作提升檢測(cè)效果,但是在實(shí)際的自動(dòng)駕駛?cè)蝿?wù)中,大雨會(huì)導(dǎo)致信息的嚴(yán)重冗余,多種類型的霧氣

        會(huì)造成不同程度的圖像模糊,類似于團(tuán)霧天氣使場景中對(duì)比度顯著下降,導(dǎo)致檢測(cè)算法難以準(zhǔn)確獲取實(shí)際信息,影響其對(duì)檢測(cè)目標(biāo)的判斷。這反映出當(dāng)前車輛檢測(cè)算法在應(yīng)對(duì)不同類型惡劣天氣時(shí)的適應(yīng)性有待提高,無法準(zhǔn)確區(qū)分被雨滴或霧氣遮擋的車輛目標(biāo)輪廓,這是需要進(jìn)一步攻克的技術(shù)難題。

        車輛目標(biāo)檢測(cè)對(duì)實(shí)時(shí)性要求嚴(yán)苛,所以搭載精度高的單階段檢測(cè)器十分必要,迄今為止,單階段檢測(cè)器中性能最為突出的毫無疑問是YOLO,因此車輛目標(biāo)檢測(cè)領(lǐng)域中基于YOLO的算法層出不窮,研究人員為解決小物體難以檢測(cè)、漏檢率高等問題,提出了更為有效的小目標(biāo)檢測(cè)方法[71-73]。Zhang等4針對(duì)漏檢率高、遠(yuǎn)景小物體特征提取能力和感知能力差、對(duì)目標(biāo)定位能力較弱等問題,通過將YOLOv7的骨干網(wǎng)絡(luò)替換為Res3Unit以及在空間金字塔池化跨階段部分連接(Spatial Pyramid PoolingCross Stage Partial Connection,SPPCSPC)層后增加即插即用的混合注意力機(jī)制模塊ACmix,并在特征融合和檢測(cè)頭連接處使用感受野局部注意力(ReceptiveFieldLocal Attention,RFLA)中的高斯感受野方案(GaussianReceptiveField Scheme),相較于YOLOv7,成功將平均準(zhǔn)確檢測(cè)率提升2.4百分點(diǎn),幀速率達(dá)到了96幀/s。這意味著在實(shí)時(shí)性上能夠更好地滿足交通流量較大時(shí)對(duì)車輛目標(biāo)快速準(zhǔn)確檢測(cè)的需求。Qiu等為在檢測(cè)精度和計(jì)算代價(jià)之間取得平衡,從無人機(jī)的角度提出了一種新的特殊車輛檢測(cè)算法YOLO-GNS。該算法基于單級(jí)無頭上下文結(jié)構(gòu)的特征提取算法針對(duì)幻影網(wǎng)絡(luò)(GhostNetwork,GhostNet)的缺點(diǎn)進(jìn)行改進(jìn),與YOLOv7相比, mAP 提高了4.4百分點(diǎn),幀速率提高 1.6% Cai等基于YOLOv4將 CSPDarknet(Cross Stage PartialDarknet)最后的輸出層替換為DCN,然后設(shè)計(jì)了特征融合模塊路徑聚合網(wǎng)絡(luò) ++ (Path AggregationNetwork ++ PAN++ ),并提出一種網(wǎng)絡(luò)剪枝算法,相較于原算法,在各類數(shù)據(jù)集上成功提升了 mAP ,并能以高于66幀/s的速度進(jìn)行檢測(cè)。為了處理移動(dòng)車輛的遮蔽問題,文獻(xiàn)[77]使用U型網(wǎng)絡(luò)(U-Net)和深度卷積網(wǎng)絡(luò),通過將卷積網(wǎng)絡(luò)在不同尺度上的信息整合到不同分辨率的圖像中,使檢測(cè)準(zhǔn)確率顯著提高,Li等通過將深度信息與YOLOv5相結(jié)合,降低了漏檢和誤檢率,并獲得了距離信息。雖然上述方法能夠在漏檢、誤檢方面取得良好的效果,但是在車輛密集與遮擋程度嚴(yán)重的情況下,其漏檢和誤檢問題依然頗為突出,因?yàn)檎趽醯某潭炔煌瑫?huì)導(dǎo)致車輛不同程度的特征丟失,使算法難以準(zhǔn)確識(shí)別,需要在實(shí)際交通情況下克服這一難點(diǎn)。

        2023年,Wang等提出了CenterNet-Auto算法,將特征提取網(wǎng)絡(luò)RepVGG與CenterNet相結(jié)合,在不增加參數(shù)的情況下,對(duì)FPN進(jìn)行優(yōu)化以提高其特征提取能力,并提出了一種新的ABMin檢測(cè)頭,充分利用邊界特征輔助中心點(diǎn)回歸到其他物體屬性,在不損失檢測(cè)精度的前提下提高了檢測(cè)速度。BDD數(shù)據(jù)集上的驗(yàn)證結(jié)果表明,其準(zhǔn)確性和速度有較大優(yōu)勢(shì),推進(jìn)了實(shí)時(shí)車輛檢測(cè)技術(shù)。

        3總結(jié)與展望

        傳統(tǒng)的目標(biāo)檢測(cè)方法中特征提取算法工作量大、易受弱光和惡劣圖像質(zhì)量的影響,深度學(xué)習(xí)算法在網(wǎng)絡(luò)結(jié)構(gòu)及后處理方法等方面已被證明具有比傳統(tǒng)檢測(cè)算法更佳的性能,且更易研究,但仍受復(fù)雜環(huán)境和算力的巨大影響。深度學(xué)習(xí)算法被認(rèn)為是一種黑箱子,其工作過程難以解釋,而且在早期發(fā)展過程中因中央處理器(CentralProcessingUnit,CPU)、圖形處理器(GraphicsProcessingUnit,GPU)和內(nèi)存的性能不足而受到制約,其在車輛自標(biāo)檢測(cè)領(lǐng)域極易出現(xiàn)小目標(biāo)、遮擋導(dǎo)致的漏檢和誤檢,在復(fù)雜環(huán)境下容易出現(xiàn)檢測(cè)率下降的問題,目前諸多研究正在努力克服這些局限性并已取得了一些成果,還有更多的研究旨在提升整體檢測(cè)準(zhǔn)確度。未來,針對(duì)車輛目標(biāo)檢測(cè),需要在以下幾個(gè)方面開展更為深入的研究:

        a.小目標(biāo)檢測(cè)。小目標(biāo)檢測(cè)一直存在背景復(fù)雜情況下特征信息少的問題,可以深人研究注意力機(jī)制如何聚焦小目標(biāo)特征區(qū)域,以更好地捕捉其關(guān)鍵信息,也可以通過研究更適合小目標(biāo)檢測(cè)的檢測(cè)頭或高分辨率輕量級(jí)網(wǎng)絡(luò)的架構(gòu)搭建和參數(shù)優(yōu)化等,保證較高分辨率以精準(zhǔn)檢測(cè)小目標(biāo)。

        b.多模態(tài)融合。在自動(dòng)駕駛領(lǐng)域中,激光雷達(dá)點(diǎn)云數(shù)據(jù)與視覺數(shù)據(jù)融合、聲波雷達(dá)數(shù)據(jù)與視覺數(shù)據(jù)融合等是當(dāng)前的研究熱點(diǎn),模態(tài)融合在一定程度上提升了車輛對(duì)周圍環(huán)境的感知能力,但是也面臨一些挑戰(zhàn):不同硬件導(dǎo)致所采集數(shù)據(jù)的形式和頻率不同,需要進(jìn)行校準(zhǔn);模態(tài)的增多意味著數(shù)據(jù)量增大,會(huì)導(dǎo)致計(jì)算資源需求量急劇增大。未來,可通過新型傳感器研發(fā)提供更為優(yōu)質(zhì)的數(shù)據(jù)或者針對(duì)計(jì)算資源不足的環(huán)境進(jìn)行輕量化模型設(shè)計(jì),在保證

        性能的前提下降低計(jì)算需求量。同時(shí)也需加強(qiáng)推進(jìn)文本特征、語音特征、圖像特征的融合,以及類似Transform的模型從自然語言處理(NaturalLanguageProcessing,NLP)到計(jì)算機(jī)視覺(ComputerVision,CV)領(lǐng)域的應(yīng)用,以滿足更為復(fù)雜環(huán)境條件下的車輛目標(biāo)檢測(cè)。

        c.精度與召回率之間的平衡。部分檢測(cè)算法檢測(cè)準(zhǔn)確度較高,但召回率略有欠缺,嚴(yán)重制約了算法在復(fù)雜檢測(cè)任務(wù)中的效能,需要新的方法在精度與召回率之間取得平衡,如通過有效融合多種數(shù)據(jù)源、優(yōu)化特征提取架構(gòu)、優(yōu)化后處理方式提升算法在復(fù)雜環(huán)境下對(duì)各類目標(biāo)的檢測(cè)能力。

        d.高品質(zhì)數(shù)據(jù)資源庫?;诒O(jiān)督的深度學(xué)習(xí)模型需要通過數(shù)據(jù)驅(qū)動(dòng),所以需要足夠大量的準(zhǔn)確數(shù)據(jù)支持其訓(xùn)練以保證模型的準(zhǔn)確性,未來可著力于制作各領(lǐng)域的高質(zhì)量數(shù)據(jù)集。

        參考文獻(xiàn)

        [1]茅智慧,朱佳利,吳鑫,等.基于YOLO的自動(dòng)駕駛目標(biāo) 檢測(cè)研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(15):68- 77. MAOZH,ZHUJL,WUX,etal.Review ofYOLOBased Target Detection for Autonomous Driving[J].Computer Engineering and Applications,2022,58(15): 68-77.

        [2]LIU J.Application of Object Detection in Autonomous Driving[C]// Proceedings of the 2023 2nd International Conference on 3D Immersion,Interaction and MultiSensory Experiences (ICDIIME). Madrid,Spain:IEEE, 2023.

        [3]段偉.汽車自動(dòng)駕駛技術(shù)簡述[J].中國自動(dòng)識(shí)別技術(shù), 2024(2): 66-68. DUAN W.A BriefOverview ofAutonomous Vehicle Technology[J]. China Auto-ID,2024(2): 66-68.

        [4]HNEWA M,RADHA H. Object Detection under Rainy Conditions for AutonomousVehicles:AReview of State-ofthe-Art and Emerging Techniques[J].IEEE Sigal Processing Magazine,2021,38(1): 53-67.

        [5]ITTI L,KOCHC,NIEBUR E.A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998,20(11): 1254-1259.

        [6]HUANG T S.Computer Vision:Evolution and Promise[C]// 1996 CERN School of Computing. Geneva, Switzerland: CERN,1996.

        [7]WU X W, SAHOO D,HOI S CH. Recent Advances in Deep Learning for Object Detection[J]. Neurocomputing, 2020,396:39-64.

        [8]ZUU Z X, SHI Z W,GUU Y H, et al. Ubject Detection in 20 Years: A Survey[J]. Proceedings of the IEEE,2019:111 (3): 257-276.

        [9]DALAL N,TRIGGS B.Histograms of Oriented Gradients for Human Detection[C]// 2025 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, CA, USA: IEEE,2005.

        [10] BEAUCHEMIN S S,BARRON JL. The Computation of Optical Flow[J]:ACM Computing Surveys,1995,27(3): 433-466.

        [11] FELZENSZWALB P F, GIRSHICK R B, MCALLESTER D, et al.Object Detection with Discriminatively Trained PartBased Models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(9):1627-1645.

        [12]FELZENSZWALB P F,GIRSHICKR B, MCALLESTER D A. Cascade Object Detection with Deformable Part Models [C]// 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco,CA,USA: IEEE,2010.

        [13] VIOLA P A, JONES M J. Rapid Object Detection Using a Boosted Cascade of Simple Features[Cl// 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Kauai,HI, USA: IEEE,2001.

        [14]LOWEDG.Object Recognition from Local Scale-Invariant Features[J]. Proceedings of the Seventh IEEE International Conference on Computer Vision (ICCV).Kerkyra, Grece: IEEE,1999.

        [15]HEARST M A,DUMAIS ST,OSUNA E,et al. Support Vector Machines[J]. IEEE Intelligent Systemsand Their Applications, 1998, 13(4): 18-28.

        [16] BREIMANL. Bagging Predictors[J]. Machine Learning, 1996,24:123-140.

        [17]FREUND Y,SCHAPIRE R.A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting[J]. Journal of Computerand System Sciences, 1997,55(1): 119-139.

        [18] TIAN Q, ZHANG L, WEI Y X,et al. Vehicle Detection and Tracking at Night in Video Surveillance[J].International Journal of Online Engineering,2013,9(S6): 60-64.

        [19]WUBF,JUANGJH.Adaptive Vehicle Detector Approach forComplex Environments[J]. IEEE Transactionson Intelligent Transportation Systems,2012,13(2): 817-827.

        [20] ZHANG D B.Vehicle Target Detection Methods Based on Color Fusion Deformable Part Model[J]. Eurasip Journal on Wireless CommunicationsandNetworking,2018,2018(1):94.

        [21] PADILLA D A, VILLAVERDE JF, MAGDARAOG JJT, et al.Vehicle and Weather Detection Using Real Time Image Processng Using Uptical Flow and Uolor Histogram [C]//20195th International Conference onControl, Automation and Robotics (ICCAR). Beijing, China: IEEE, 2019.

        [22] PAPAGEORGIOU C P, OREN M, POGGIO T. A General Framework for Object Detection[J].Sixth International Conference on Computer Vision.Bombay,India: IEEE,1998.

        [23]KARANGWA J,LIU J, ZENG Z. Vehicle Detection for Autonomous Driving:A Review of Algorithms and Datasets [J].IEEE Transactionson Intelligent Transportation Systems,2023,24(11): 11568-11594.

        [24] ASIM M,WANG Y,WANG K Z,et al.A Reviewon Computational Intelligence Techniques in Cloud and Edge Computing[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2020,4(6): 742-763.

        [25]陳曉,楊琪,姚海洋,等.基于細(xì)?;卣鞲兄乃履繕?biāo) 檢測(cè)算法[J].陜西科技大學(xué)學(xué)報(bào),2024,42(4):177-183. CHENX,YANGQ,YAO HY,etal.Underwater Target Detection Algorithm Based on Fine-Grained Feature Perception[J]. Journal of Shaanxi University of Science and Technology,2024,42(4): 177-183.

        [26] KRIZHEVSKY A, SUTSKEVER I, HINTON GE. ImageNet Classification with Deep Convolutional Neural Networks[C]//Proceedingsof the25th International Conference on Neural Information Processing Systems. Lake Tahoe,NV,USA: Curran Associates Inc.,2012.

        [27] SERMANET P,EIGEN D, ZHANG X,et al. OverFeat: Integrated Recognition,Localization and Detection Using Convolutional Networks[EB/OL]. (2014-02-24)[2025-02- 21]. https://arxiv.org/abs/1312.6229.

        [28] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition[EB/OL]. (2015-04-10)[2025-02-21]. https://arxiv.org/abs/ 1409.1556.

        [29]WANGH,YUYJ,CAIYF,et al.AComparative Studyof State-of-the-Art Deep Learning Algorithms for Vehicle Detection[J].IEEEIntellgent Transportation Systems Magazine,2019,11(2): 82-95.

        [30]MEHRALIAN M, KARASFI B. RDCGAN: Unsupervised RepresentationLearningwithRegularizedDeep Convolutional Generative Adversarial Networks[C]// 2018 9th Conference on Artificial Intellgence and Robotics and 2nd Asia-Pacific International Symposium. Kish Island, Iran: IEEE,2018.

        [31]CHEN X,DUAN Y,HOUTHOOFT R,et al.InfoGAN: Interpretable Representation Learning by Information Maximizing GenerativeAdversarialNets[C]//30th Juuiai riutsssgssitin (NIPS). Barcelona,Spain: Curran Assciates Inc., 2016.

        [32] HE K, ZHANG X,REN S, et al. Deep Residual Learning for Image Recognition[J]. 2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV, USA: IEEE,2016.

        [33]HUANGG,LIU Z,VAN DER MAATENL,et al.Densely ConnectedConvolutionalNetworks[J].2O17IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI, USA: IEEE,2016.

        [34] SHI H M,ZHOUQ,NIY H,et al.DPNET:Dual-Path Network for Efficient Object Detectioj with Lightweight Self-Attention[J].2022 IEEE International Conference on Image Processing.Bordeaux,F(xiàn)rance: IEEE,2021.

        [35] NEWELL A,YANG K Y,DENG J. Stacked Hourglass Networks for Human Pose Estimation[M]//LEIBEB, MATAS J, SEBE N, et al. Computer Vision - ECCV 2016. Cham,Switzerland:Springer International Publishing, 2016:483-499.

        [36] HOWARD A G, ZHU M L, CHEN B, et al. MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications[EB/OL]. (2017-04-17)[2025-02-21]. https:// arxiv.org/abs/1704.04861.

        [37]LIN TY,DOLLARP,GIRSHICKR,etal.FeaturePyramid Networks for Object Detection[J].2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE,2017.

        [38] DAI J F,QI H Z,XIONG Y W,et al. Deformable Convolutional Networks[C]//2O17 IEEE International Conference on Computer Vision.Venice,Italy: IEEE,2017.

        [39] LI Z M,PENG C, Yu G,et al. DetNet: A Backbone network for Object Detection[EB/OL]. (2018-04-19)[2025-02-21]. https://arxiv.org/abs/1804.06215.

        [40] TYCHSEN-SMITH L, PETERSSON L. DeNet: Scalable Real-Time Object Detection with Directed Sparse Sampling [C]// 2017 IEEE International Conference on Computer Vision.Venice,Italy:IEEE,2017.

        [41] XU Y P, WU X,WANG L, et al.HOFA-Net: A HighOrder Feature Association Network for Dense Object Detection in Remote Sensing[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2024,17: 1513-1522.

        [42] DAI HH, GAO S S, HUANG H, et al. An Adaptive Sample Assignment Network for Tiny Object Detection[J].IEEE Transactions on Multimedia,2024,26: 2918-2931.

        [43] GIRSHICK R,DONAHUE J, DARRELL T, et al.Rich Featiire Hierarehies for Accurate Ohieet Deteetion and Semantic Segmentation[J]. 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE,2014.

        [44]HEKM, ZHANGXY,REN SQ,et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,37(9): 1904-1916.

        [45] WANG J, ZHANG T J, CHENG Y,et al. Deep Learning for Object Detection: A Survey[J]. Computer Systems Science amp; Engineering,2021,38(2): 165-182.

        [46] GIRSHICK R.Fast R-CNN[C]// 2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile: IEEE,2015.

        [47]REN SQ,HE K M,GIRSHICKR,et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017, 39(6): 1137-1149.

        [48] DAI JF,LI Y,HE K M,et al.R-FCN: Object Detection via Region-Based Fully Convolutional Networks[M]// 30th Conference on Neural Information Processing Systems. Barcelona, Spain: Curran Associates Inc.,2016.

        [49] REDMON J, DIVVALA S, GIRSHICK R, et al. You Only Look Once:Unified,Real-Time Object Detection[C]// 2016 IEEEConference onComputer Visionand Pattern Recognition.LasVegas,NV,USA: IEEE,2016.

        [50]WANGCY,BOCHKOVSKIYA,LIAO HY M.YOLOv7: Trainable Bag-of-Freebies Sets New State-of-the-Art for Real-TimeObjectDetectors[C]//2023IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver,BC, Canada: IEEE,2023.

        [51]VARGHESE R,SAMBATH M.YOLOv8:A Novel Object Detection Algorithm with Enhanced Performance and Robustness[C]//2024International Conference on Advances in Data Engineering and Intellgent Computing Systems (ADICS). Chennai, India: IEEE,2024.

        [52] WANGA, CHEN H, LIU L H, et al. YOLOv1O: Real-Time End-to-End Object Detection[C]// Annual Conference on NeuralInformationProcessingSystems.Vancouver, Canada: MIT Press,2024.

        [53] ZHAO Y A,LV W Y, XU S L,et al. DETRs Beat YOLOs on Real-Time Object Detection[C]// Proceedings of the 2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). Seattle,WA,USA: IEEE,2024.

        [54] WEI L, DRAGOMIR A,DUMITRU E,et al. SSD: Single Shot MultiBoxDetector[M]//LEIBEB,MATASJ,SEBE N, et al.Computer Vision-ECCV 2O16.Cham,Switzerland: Snvin .0016 Dense Object Detection[J]. 2O17 IEEE International Conference on Computer Vision.Venice, Italy:IEEE,2017.

        [56] LAW H, DENG J. CornerNet: Detecting Objects as Paired Keypoints[J]. International Journal of Computer Vision, 2020,128(3): 642-656.

        [57]DUANKW,BAI S,XIELX,et al.CenterNet:Keypoint Tripletsfor ObjectDetection[C]//2019IEEE/CVF International Conference on Computer Vision. Seoul, Korea: IEEE,2019.

        [58] ZHOU X Y,ZHUO J C,KRHENBUHl P.Bottom-up Object Detection by Grouping Extreme and Center Points [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach,CA,USA: IEEE,2019.

        [59]LUX,LI BY,YUE Y X,et al.Grid R-CNN[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach,CA,USA: IEEE,2018.

        [60] ZHU C C,HE Y H, SAVVIDES M.Feature Selective Anchor-Free Module for Single-Shot Object Detection[C]/ 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Long Beach,CA,USA: IEEE,2019.

        [61] YANG Z,LIU S H,HU H,et al. RepPoints: Point Set Representation for Object Detection[C]// 2019 IEEE/CVF International Conference on Computer Vision. Seoul, Korea: IEEE,2019.

        [62] XUYQ,CHUKB,ZHANGJ.NighttimeVehicle Detection Algorithm Based on Improved Faster-RCNN[J]. IEEE Access,2024,12: 19299-19306.

        [63]YUY,CHENWX,CHENFX,et al.Night-TimeVehicle Model Recognition Based on Domain Adaptation[J]. Multimedia Tools and Applications,2024,83: 9577-9596.

        [64]袁子強(qiáng).圖像增強(qiáng)與夜間車輛識(shí)別算法研究[D].成都: 電子科技大學(xué),2023. YUAN Z Q. Research on Image Enhancement and Night Vehicle Recognition Algorithm[D].Chengdu:University of Electronic Science and Technology of China,2023.

        [65] ZHANG H, YANG KF,LI Y J, et al. Night-Time Vehicle Detection Based on Hierarchical Contextual Information[J]. IEEE Transactions on Intelligent Transportation Systems, 2024,25(10): 14628-14641.

        [66] XUE T, ZHANG ZQ,MA WN,et al.Nightime Pedestrian and Vehicle Detection Based on a Fast Saliency and Multifeature Fusion Algorithmfor Infrared Images[J]. IEEE Transactions on Intelligent Transportation Systems,2022, 23:16741-16751.

        [67] ABBASI H, AMINI M, YU F R. Fog-Aware Adaptive VOIn nL: L__c1/ Proceedings of the 2O23 IEEE Sensors Applications Symposium (SAS).Ottawa, ON,Canada: IEEE,2023.

        [68]LI W.Vehicle Detection in Foggy Weather Based on an EnhancedYOLO Method[C]//2022International Conference on Machine Vision,Automatic Identification and Detection. Nanjing, China: IOP Publishing Ltd.,2022.

        [69]WANGXJ,WANGC.VehicleMulti-TargetDetectionin Foggy Scene Based on Foggy env-YOLO Algorithm[C]/ Proceedingsof the2O22 IEEE 7th International Conference on Intelligent Transportation Engineering (ICITE).Beijing, China:IEEE,2022.

        [70]孫再鳴.雨霧天氣下的車輛目標(biāo)檢測(cè)關(guān)鍵技術(shù)研究[D]. 北京:華北電力大學(xué),2023. SUNZ M.Research on Key Technologies of Vehicle Detection in Haze and Rain[D].Beijing:North China Electric Power University,2023.

        [71] CARRASCO D P, RASHWAN H A,GARCIA M A, et al. T-YOLO:Tiny Vehicle DetectionBased on YOLOand Multi-Scale Convolutional NeuralNetworks[J].IEEE Access,2023,11: 22430-22440.

        [72]HU S,ZHAO B X,DING TJ,et al.Prior-YOLO: EnhancingIntelligent Vehicle Small ObjectDetectionwith DrivingStatus-InformedYOLOv8[C]//20233rd International Conference on Computer Science,Electronic Information Engineering and Intellgent Control Technology (CEI).Wuhan,China: IEEE,2023.

        [73]YANX,SHENBB,LIH.SmallObjectsDetectionMethod forUAVsAerialImageBasedonYOLOv5s[C]/ Proceedingsof the2O23 IEEE 6th International Conference on Electronic Information and Communication Technology (ICEICT).Qingdao,China: IEEE,2023.

        [74]ZHANGYH,SUNYP,WANGZ,etal.YOLOv7-RARfor UrbanVehicleDetection[J].Sensors,2023,23(4).

        [75]QIUZ,BAIH,CHENT.SpecialVehicleDetectionfrom UAV Perspective via YOLO-GNS Based Deep Learning Network[J].Drones,2023,7(2).

        [76]CAIYF,LUAN TY,GAOHB,et al.YOLOv4-5D:An Effective and Efficient Object Detector for Autonomous Driving[J]. IEEE Transactions on Instrumentationand Measurement,2021,70.

        [77]NATTEV S,KADICHERLA J, KATUKOJWALA SD,et al.Semantic Segmentation Using U-Net for Autonomous Driving[C]// 2O24 Third International Conferenceon Distributed Computingand Electrical Circuitsand Electronics (ICDCECE).Ballari, India: IEEE,2024.

        [78]LILH,F(xiàn)ANGMH,YINYH,etal.A Traffic SceneObject Detection Method Combining Deep Learning and Stereo VisionAlgorithm[C]//2O21 IEEEInternational Conference on Real-Time Computing and Robotics (RCAR). Xining, China:IEEE,2021.

        [79]WANGH,XUYS,WANGZN,etal.CenterNet-Auto:A Multi-Object Visual Detection Algorithm for Autonomous Driving Scenes Based on Improved CenterNet[J].IEEE TransactionsonEmergingTopics in Computational Intelligence,2023,7(3): 742-752.

        (責(zé)任編輯斛畔)

        修改稿收到日期為2025年1月6日。

        《汽車工程師》征稿啟事

        《汽車工程師》于1974年創(chuàng)刊,是由中國第一汽車集團(tuán)有限公司主管、中國第一汽車股份有限公司主辦的國內(nèi)外公開發(fā)行的汽車應(yīng)用技術(shù)類學(xué)術(shù)期刊,為RCCSE中國準(zhǔn)核心學(xué)術(shù)期刊、CACJ中國應(yīng)用型擴(kuò)展期刊,被哥白尼精選數(shù)據(jù)庫、EBSCO學(xué)術(shù)數(shù)據(jù)庫、歐洲學(xué)術(shù)出版中心(EuroPub)數(shù)據(jù)庫、J-Gate數(shù)據(jù)庫收錄。

        《汽車工程師》以報(bào)道汽車產(chǎn)品設(shè)計(jì)領(lǐng)域的技術(shù)研究成果為主,專注于技術(shù)開發(fā)與應(yīng)用層面的創(chuàng)新成果,提供汽車設(shè)計(jì)創(chuàng)新解決方案?!镀嚬こ處煛穼盐针妱?dòng)化、智能化、網(wǎng)聯(lián)化、共享化的汽車技術(shù)主流發(fā)展趨勢(shì),努力吸收優(yōu)質(zhì)稿源,為我國汽車工程技術(shù)創(chuàng)新能力提升貢獻(xiàn)力量。重點(diǎn)征稿方向包括:鋰離子電池與新體系電池、動(dòng)力電池?zé)峁芾砼c熱失控、燃料電池及其關(guān)鍵零部件、車用電機(jī)及其控制器、自動(dòng)駕駛汽車環(huán)境感知與感知融合、自動(dòng)駕駛汽車定位與建圖、自動(dòng)駕駛汽車測(cè)試、人工駕駛-無人駕駛車輛混行條件下的自動(dòng)駕駛控制、智能線控底盤、一體化底盤、功能安全和預(yù)期功能安全。

        熱忱歡迎汽車行業(yè)的專家學(xué)者不吝賜稿,反映國家重點(diǎn)扶持項(xiàng)目、自然科學(xué)基金項(xiàng)目和其他重點(diǎn)項(xiàng)目等研究成果的稿件將優(yōu)先發(fā)表,我們期待與您共同踐行“把論文寫在祖國大地上\"的指示精神,為強(qiáng)大中國汽車工業(yè)作貢獻(xiàn)!

        本刊使用協(xié)同采編系統(tǒng)處理稿件,請(qǐng)登陸期刊網(wǎng)站注冊(cè)后投稿,投稿要求見本刊網(wǎng)站中“下載中心\"欄目的作者指南,網(wǎng)址:http:/tjqc.cbpt.cnki.net。

        欧美寡妇xxxx黑人猛交| 最新国产精品国产三级国产av| 久草中文在线这里只有精品| 五月天激情电影| 欧美黑人又粗又硬xxxxx喷水| 亚洲AV激情一区二区二三区| 东京道一本热码加勒比小泽| 日韩三级一区二区三区| 国产成人精品无码一区二区老年人 | 一区二区三区视频在线观看| 人妻少妇乱子伦精品无码专区电影| 国产精品丝袜黑色高跟鞋| 中文字幕一区二区网站| 亚洲天堂亚洲天堂亚洲色图| av永久天堂一区二区三区| 久久成人麻豆午夜电影| 亚洲国产精品第一区二区三区| 偷拍视频网址一区二区| 高清不卡一区二区三区| 亚洲国产夜色在线观看| 久久精品国产白丝爆白浆| 国产高清乱码又大又圆| 国产性生交xxxxx免费| 日本一区二区三区中文字幕最新 | 无码高潮久久一级一级喷水| 国产在线一区二区三区四区乱码| 成人亚洲一区二区三区在线| 国产精品爽爽va在线观看无码| 人人妻人人澡av| 国产老熟女精品一区二区| 欧美a级毛欧美1级a大片免费播放| 成年女人免费v片| 国产色婷亚洲99精品av网站| 日韩精品无码熟人妻视频| 亚洲欧美日韩综合久久| 久久精品韩国日本国产| 亚洲av五月天一区二区| 国产国拍亚洲精品mv在线观看| 午夜视频网址| 男人的精品天堂一区二区在线观看| 久久久久久久极品内射|