亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于對比學習的駕駛員異常駕駛行為檢測算法

        2025-08-22 00:00:00李仲倫于光達楊帥鄒世野張鶴群汪春雨
        汽車工程師 2025年8期

        中圖分類號:TP391.41 文獻標志碼:A DOI: 10.20104/j.cnki.1674-6546.20240304

        【Abstract】In the processof driving a vehicle,the complex and changing environment inside the vehicle,the change of lightingconditionsandthediversityofdrivers’behavioralposturesaffectthedetectionandrecognitionofabnormaldriver behavior.Toaddressthisisue,thispaper proposesadriverabnormaldriving behaviordetectionalgorithmbasedoncontrast learning.Thepaperfirstlyconsiders driver’sdriving behaviordetectionasabinaryclassficationtask,andutilizesacontrast learningapproach tocompare driver’snormaldriving withabnormal driving samplesandto improve the performanceof the modelbycontrastinglossfunctions.Secondlythedepthimagesrightaheadandabovethedriverservesasinputstosolvethe problemsofcomplex in-vehicleenvironmenttochangethelight intensityand blindspots inviewpointbyproviding thedepth informationofthedriver.Finaly3DconvolutionisintroducedinthelightweightnetworkMobileNetV2,andeoratioof channel blending isaddedtotheconvolutionlayerofeachbotleneck structuretoimprovetheauracyofrecognition.Test results show that accuracy of the proposed algorithm reaches 94.18% in the Driver’s Abnormality Detection (DAD) dataset and ROC AUC reaches O.962,which shows theefectivenessof the algorithm indriver’sabnormal behaviordetection.

        Keywords:Abnormal driving behavior detection,Contrast learning,Second classification,3D Convolution Neural Networks(CNN)

        【引用格式】李仲倫,于光達,楊帥,等.基于對比學習的駕駛員異常駕駛行為檢測算法[J].汽車工程師,2025(8):29-36. LI ZL,YUGD,YANG S,etal.Driver Abnormal Driving Behavior Detection Algorithm Basedon Contrast Learning[J]. Automotive Engineer, 2025(8): 29-36.

        1前言

        HighwayTraffic SafetyAdministration,NHTSA)的數(shù)據(jù), 80% 的交通事故和 16% 的公路死亡是由駕駛員分心駕駛引起的。駕駛員異常駕駛行為(如疲勞、根據(jù)美國國家公路交通安全管理局(National注意力分散等)易導致道路事故的發(fā)生,造成生命及財產(chǎn)損失。因此,對駕駛員的駕駛行為進行實時監(jiān)測及提醒,可有效減少交通事故的發(fā)生。

        駕駛員異常駕駛行為檢測的傳統(tǒng)方法主要有3種:基于生理信號的檢測算法,駕駛員需佩戴生理信號采集裝置以便將生理信號與疲勞狀態(tài)相關聯(lián),該方法會令駕駛員產(chǎn)生不適;基于圖像處理的檢測算法,通過對圖像特征的提取和分析實現(xiàn)檢測,該方法會受到圖像質(zhì)量、角度、遮擋等因素影響,導致檢測精度降低;基于駕駛操作行為的檢測算法,該方法可能受到駕駛員個人習慣和行為的影響,無法檢測某些類型的異常駕駛行為。

        近年來,基于深度學習的行為檢測方法被提出。陳軍等設計了一種級聯(lián)卷積神經(jīng)網(wǎng)絡檢測結(jié)構(gòu),并采用超分辨率測試序列模型對駕駛員分心駕駛行為進行檢測。Tawari等提出了一種分布式相機框架,用于收集頭部姿勢的動態(tài)信息以估計駕駛員的視線方向。上述檢測方法具有實時性強、準確率高、無需接觸身體等優(yōu)點,但仍有許多問題需要解決,如易受光照強度變化的影響、對新情況的適應能力差等。

        本文針對現(xiàn)有研究存在的問題,通過對比學習的方法區(qū)分駕駛員正常駕駛和異常駕駛行為,實現(xiàn)駕駛員異常駕駛行為檢測。

        2基于對比學習的檢測算法

        2.1 開集識別

        深度神經(jīng)網(wǎng)絡在模型訓練過程中需大量標記樣本作為支撐,但真實駕駛場景復雜多變,獲得所有類別的標記樣本并不現(xiàn)實。開集識別(OpenSetRecognition,OSR)將已知類的數(shù)據(jù)識別為具體類別,將不屬于已知類的數(shù)據(jù)識別為未知類別。開集識別與閉集識別的對比如圖1所示,在閉集識別中,算法根據(jù)訓練集中已有的樣本,為每個類劃分相應的空間,未知的類別會被錯誤地分到一個類別;在開集識別中,算法為每個類確定一個與之關聯(lián)的有限區(qū)域,可以產(chǎn)生新的類,并檢測出異常。

        圖1閉集識別與開集識別

        圖2基于對比學習算法識別正常駕駛、異常駕駛行為

        在傳統(tǒng)的分類任務中,模型只需對已知的類別進行分類。在開集識別中,模型還需對未知類別進行分類,這對模型的泛化能力提出了更高的要求。

        對比學習是一種基于比較的算法,通過將相似的樣本歸為同一類別、將不相似的樣本歸為不同類別進行分類,可應用于開集識別。本文中所有與正常樣本不相似的樣本均被定義為異常樣本。

        2.2 對比學習算法

        2.2.1 算法結(jié)構(gòu)

        對比學習屬于表征學習,目的是學習一種數(shù)據(jù)變換方式,它通過比較數(shù)據(jù)的不同視圖或變化來學習數(shù)據(jù)的特征表示。對比學習的基礎是包含正樣本和負樣本的成對樣本,其中,正樣本屬于同一類別或具有相似特征,負樣本屬于不同類別或具有不同特征。本文的目的是在訓練期間學習正常駕駛模板向量 vn ,測試時,任何超過閾值γ的行為均被認為是異常駕駛行為,如圖2所示。

        27正常駕駛 N國 色

        基于對比學習的模型,如SimCLR(SimpleframeworkforContrastiveLearningofvisualRepresentations)[8]、BYOL(BootstrapYourOwnLatent)9]、SwAV (Swapping Assignments betweenmultipleViews)[o等,在行為識別領域取得了不錯的效果?;趯Ρ葘W習的數(shù)據(jù)增強方法,如Mixup[、CutMix[2等,可以提高行為識別模型的性能。本文使用的對比學習框架[3如圖3所示。

        框架主要由3個部分組成:

        a.編碼器。神經(jīng)網(wǎng)絡編碼器f(將數(shù)據(jù)視圖映射到特征空間,得到特征向量,并且該特征向量能夠很好地表示輸入數(shù)據(jù)的語義信息。在訓練過程中,使用對比損失函數(shù)訓練編碼器,使同一輸入、不同增強版本的特征向量更加相似,不同輸入的特征向量區(qū)別更加明顯。因此,編碼器學習到的特征表示更具判別性,從而提高模型在分類任務中的性能。本文 fθ( )采用具有參數(shù) θ 的3D卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetworks,CNN)結(jié)構(gòu),通過3DCNN用 hi=fθ(xi) 將輸入 xi 轉(zhuǎn)化為

        圖3駕駛員異常駕駛行為檢測的對比學習框架

        b.投影頭。投影頭是具有一個由線性整流函數(shù)(RectifiedLinearUnit,ReLU)激活的隱藏層的多層感知機(MultilayerPerceptron,MLP),投影頭 gβ( )用于將 hi 映射到另一個潛在空間 vi ,并且具有參數(shù) β 以實現(xiàn) vi=gβ(hi) 的變換,其中 vi∈R128 。本文MLP由2個全連接(FullyConnected,F(xiàn)C)層組成,對輸入圖像的高維特征進行非線性變換,將其映射到一個低維特征空間,從而提取圖像中的有用信息。然后對嵌人維度 vi 進行歸一化,L2范數(shù)歸一化可使不同的特征維度具有同等重要性,以避免某些特征維度對損失函數(shù)的影響過大,使模型更加穩(wěn)定。

        c.對比損失。對比損失強制要求來自正常駕駛類別的歸一化在嵌入彼此之間時比來自異常行為類別的嵌入更加接近。因此,對比損失中的正樣本對總是從正常驅(qū)動剪輯中選擇,而異常驅(qū)動剪輯僅用作負樣本。具體來說,對比損失函數(shù)將兩個樣本的特征表示作為輸入,計算它們的相似性得分,并與預先定義的閾值進行比較。得分高于閾值,表示兩個樣本在特征空間中相似,低于閾值則表示不相似。

        2.2.2 編碼器結(jié)構(gòu)

        2D卷積雖然能夠提取圖像的空間特征,但由于缺少時序信息,很難用于視頻識別。3D卷積引入了時序的上下文信息,可以更好地提取時空特征,捕捉視頻的運動信息和場景變化。2D卷積與3D卷積的區(qū)別如圖4所示。

        圖42D卷積與3D卷積的區(qū)別

        在駕駛員行為識別任務中,為將算法更好地適配到資源有限的車載設備,需對網(wǎng)絡進行輕量化處理。SqueezeNet4使用Fire卷積模塊減少參數(shù)量,從而實現(xiàn)輕量化。ShuffleNet[使用逐點卷積和通道混洗降低計算量、提高準確率。EfficientNet通過同時對網(wǎng)絡深度、寬度和圖像分辨率進行縮放,實現(xiàn)在降低模型體積和計算成本的同時,提高模型的準確性。此外,還有NASNet、FBNet8等輕量化網(wǎng)絡。

        本文選用輕量化網(wǎng)絡MobileNetV2[9,它以MobileNetV1為基礎,使用可分離卷積代替?zhèn)鹘y(tǒng)卷積,分別對空間特征、通道特征進行卷積處理,大幅減少了參數(shù)數(shù)量和計算量,且在識別檢測中應用廣泛[20]。本文對其進行3D轉(zhuǎn)換,使其能夠利用3D卷積捕捉連續(xù)幀之間的運動狀態(tài),從而提高狀態(tài)預測能力。3D-MobileNetV2從卷積層1開始,然后通過7個MobileNetV2模塊及卷積層2,最后進入池化層和全連接層。模型結(jié)構(gòu)如圖5所示,模塊1~模塊7的結(jié)構(gòu)如圖6所示,模型體系架構(gòu)如表1所示。其中, F,F(xiàn) 為圖像的通道數(shù), D,W,H 分別為圖像的深度、寬度、高度, Conv 表示卷積,DwConv表示深度可分離卷積,BN表示歸一化,ReLU6為激活函數(shù),是線性修正單元(RectifiedLinearUnit,ReLU)的變體,Add表示將多個特征圖或張量相加,Stride表示步幅。

        圖53D-MobileNetV2模型結(jié)構(gòu)

        圖6不同步長的MobileNetV2模塊結(jié)構(gòu)

        為提高預測的準確性,本文對3D-MobileNetV2進行改進,在原網(wǎng)絡基礎上,在每個瓶頸(Bottleneck)的中間卷積層加入通道混洗,以減少模型參數(shù)和計算量,同時提高模型的精度。通道混洗是一種新型的卷積神經(jīng)網(wǎng)絡結(jié)構(gòu),通過將輸入特征圖分組并對每個組內(nèi)的通道進行混洗,實現(xiàn)通道之間的信息交流。該方法可在不增加計算量的前提下,提高模型的精度和泛化能力。同時,在Bottleneck輸出后接入批量規(guī)范化(BatchNorm)層和

        Mish激活函數(shù)。BatchNorm通過規(guī)范化的手段減少內(nèi)部協(xié)變量偏移,使激活函數(shù)的輸入值位于激活函數(shù)對輸入較為敏感的區(qū)域,從而使梯度變大,提高神經(jīng)網(wǎng)絡的訓練速度和泛化能力,防止過擬合。Mish激活函數(shù)沒有上限和飽和區(qū)域,在訓練過程中不會出現(xiàn)梯度消失的問題。3D-MobileNetV2的Bottleneck結(jié)構(gòu)如表2所示。

        表13D-MobileNetV2體系架構(gòu)

        表23D-MobileNetV2的Bottleneck結(jié)構(gòu)

        2.2.3 對比損失函數(shù)

        在訓練的迭代中,每個批量包括 K 個正常視頻剪輯和 M 個異常視頻剪輯。編碼層和投影層創(chuàng)建的視覺序列為 vni 和 vai,i∈{1,…,K+M} ,分別來自正常和異常訓練剪輯。每個批量包括 K(K-1) 個正常樣本對和 KM 個異常樣本對,將其輸入到對比損失函數(shù)中。 Lij 通過計算由溫度參數(shù) τ 和指數(shù)函數(shù)縮放的潛在表示之間的點積來計算正常樣本對與異常樣本對之間的相似性:

        每個批量的損失函數(shù)為:

        其中:

        式中: τ∈(0,∞) 為溫度參數(shù),可以影響模型的輸出概率分布,提高泛化能力和魯棒性。

        數(shù)據(jù)本身、錯誤標注或噪聲導致異常樣本與正常樣本可能相似,以致負樣本對的求和較大,造成優(yōu)化困難。為解決該問題,對異常樣本對的總和進行縮放,使聚合的異常樣本對的整體相似度保持較小,并增加正常樣本對的權(quán)重,以平衡公式中各項的影響力。

        在使用對比損失訓練后,投影層通常在測試階段被丟棄[12,17]。在自監(jiān)督對比學習的背景下,編碼階段學習的潛在表示 hi 將更加通用,并進一步作為分類任務的預訓練模型]。對于監(jiān)督學習任務,投影層 (vi) 學習到的表示可能更有價值,因為它們利用投影層上學習到的對比損失與監(jiān)督學習任務保持正常和異常類的距離一致。通過計算式(2),在同一批量中,編碼器被更新,以最大化正常驅(qū)動特征向量之間的相似性、最小化正常驅(qū)動向量及所有其他異常驅(qū)動向量之間的相似性。

        3試驗驗證

        3.1 數(shù)據(jù)集及試驗環(huán)境

        目前,大多數(shù)駕駛員行為檢測方法采用可見光攝像頭作為圖像采集的傳感器??梢姽鈧鞲衅饕资墉h(huán)境光照強度影響,光照條件較差可能會影響駕駛員行為檢測的準確率,造成一定的安全隱患。為解決上述問題,本文在乘員艙的前方和正上方放置2個深度相機,可以獲取場景的深度信息,并可在低光照環(huán)境下工作。深度圖像是將采集器采集到的場景中各點的距離作為像素值的圖像,直接反映景物可見表面的幾何形狀,可以更好地完成駕駛員行為檢測任務。前置攝像頭記錄駕駛員頭部、身體的動作,頂部攝像頭記錄駕駛員雙手的動作。2個相機能更好地反映駕駛員的駕駛狀態(tài),解決視野盲區(qū)的問題。

        本文使用駕駛員異常檢測(DriverAnomalyDetection,DAD)數(shù)據(jù)集[17]。DAD數(shù)據(jù)集的分辨率為224像素 ×171 像素,幀率為45幀/s。該數(shù)據(jù)集包含550min 的正常駕駛記錄和 100min 的異常駕駛記錄,其中異常駕駛行為包括頭部和身體的運動(伸手到后面、與乘員交談)及手部交互(手機通話、發(fā)消息,喝水)等。

        本文試驗設置的批量大小是32,最大迭代次數(shù)為100。網(wǎng)絡使用隨機梯度下降(Stochastic

        GradientDescent,SGD)優(yōu)化器進行參數(shù)更新。初始學習率設置為0.01,以0.9的速率進行指數(shù)衰減。試驗使用的圖形處理器為NVIDIAGeForceRTX3060、中央處理器為 2.7GHz Intel Core i7-12700H。

        3.2 評價指標

        本文采用準確率(Accuracy)、受試者操作特征(ReceiverOperatingCharacteristic,ROC)曲線、ROC曲線下面積(AreaUnderCurve,AUC)作為模型分類性能的指標。

        準確率能夠評價模型對全部樣本的判斷能力:

        式中: NrpΩrN,Nrp,NFN 分別為真正例、真負例、假正例、假負例的數(shù)量。

        ROC是一種二分類模型的性能度量,是以假正率(FalsePositiveRate,F(xiàn)PR)為橫坐標、真正率(TruePositiveRate,TPR)為縱坐標繪制的曲線。假正率RFP 真正率 RTP 的計算公式分別為:

        AUC用于二分類模型的評價,其取值范圍為0.5~1.0 ,越接近1.0,說明檢測方法真實性越強,等于0.5時真實性最低、無應用價值。

        3.3試驗結(jié)果及分析

        CNN通常指用于圖像分類的二維CNN,3DCNN增加了時間維度,可以從時間和空間維度上提取特征。為驗證三維卷積模型的有效性,本文分別進行2D、3D卷積網(wǎng)絡試驗,試驗結(jié)果如表3所示。

        表3不同CNN的參數(shù)量、準確率、AUC比較

        3DCNN模型用于將每個正常駕駛訓練剪輯 xi, i∈{1,…,N} 編碼為一組歸一化的512維特征表示。然后,可計算正常駕駛模板向量 vn

        為對測試視頻片段 xi 進行分類,再次將其編碼為歸一化的512維向量,并計算編碼片段與 vn 之間的余弦相似度 Ki

        最后,將相似度得分低于閾值 γ 的片段歸類為異常駕駛行為。同時, Ki 表征了異常行為的嚴重程度。

        為更加直觀地分析本文方法的性能,部分測試可視化結(jié)果如圖7、圖8所示,表明本文方法能夠準確檢測出駕駛員是否具有異常駕駛行為。

        圖7正常駕駛的可視化結(jié)果

        圖8異常駕駛的可視化結(jié)果

        3.4消融試驗結(jié)果及分析

        為驗證本文提出的雙視角和損失函數(shù)的有效性,保持試驗原有的設置條件,對網(wǎng)絡進行重新訓練。

        雙視角使用決策級融合的方法將兩個視角的信息融合在一起,通過特征提取、特征融合、決策模型、融合策略等多個環(huán)節(jié)實現(xiàn)信息的融合與決策:

        式中: K(add)?K(top)?K(front) 分別為相加的融合相似度、頂部視角融合相似度、前部視角融合相似度。

        雙視角有效性驗證方面,本文對前置視角、頂部視角及前置和頂部雙視角3種不同視角的有效性進行說明。3種視角的準確率、AUC對比如表4所示,本文提出的雙視角方案的2項指標明顯優(yōu)于另外2種視角方案。

        損失函數(shù)有效性驗證方面,分別使用交叉熵損失(Cross-EntropyLoss)函數(shù)、加權(quán)交叉熵損失函數(shù)及本文提出的對比損失函數(shù)對網(wǎng)絡進行重新訓練,并根據(jù)評價指標進行比較。

        表4不同視角的試驗結(jié)果

        交叉熵損失通常用于解決分類問題,衡量模型的預測結(jié)果與真實標簽之間的差距。在二分類的情況下,其計算公式為:

        式中: LcEL 為交叉熵損失, N 為樣本總數(shù), yi 為樣本 i 的標簽(正類為1,負類為0), pi 為樣本 i 預測為正類的概率。

        加權(quán)交叉熵損失函數(shù)是對交叉熵損失函數(shù)的改進,在計算損失時對不同類別的樣本賦予不同的權(quán)重。在二分類問題中,其計算公式為:

        式中 :L(w) 為加權(quán)交叉熵損失函數(shù)。

        不同損失函數(shù)的試驗結(jié)果如表5所示,本文提出的對比損失函數(shù)的2項指標明顯優(yōu)于另外2種函數(shù)。

        表5不同損失函數(shù)的試驗結(jié)果

        3.5 模型泛化性討論及分析

        現(xiàn)有的深度學習模型均基于歷史數(shù)據(jù)進行訓練,對于新情況的適應能力較差。在實際駕駛過程中,駕駛行為的多樣性給識別任務帶來了困難。為驗證模型的泛化性,選用訓練集中未出現(xiàn)的駕駛類別進行驗證。本文提出的算法對摘/戴眼鏡、調(diào)整后視鏡、吃東西等新出現(xiàn)的異常行為仍能夠準確分類,部分可視化結(jié)果如圖9所示。

        圖9新增異常駕駛行為的可視化結(jié)果

        4結(jié)束語

        本文針對駕駛員行為檢測中光照強度變化、視角盲區(qū)以及姿態(tài)多樣性的問題,提出了一種對比學習的檢測方法,通過學習正常駕駛行為的嵌入,檢測異常駕駛行為。本文方法在駕駛員異常檢測數(shù)據(jù)集上取得了優(yōu)異的效果,在后續(xù)研究中,可在網(wǎng)絡中加入注意力機制,使網(wǎng)絡更加關注駕駛員的頭部和手部,提升駕駛員異常行為識別的準確率。

        參考文獻

        [1]YANG YB,ZHOULJ,LENG MJ, et al. Early Warning of Traffic Accident in Shanghai Based on Large Data Set Mining[C]// 2O16 International Conference on Intelligent Transportation,Big Data amp; Smart City (ICITBS). Changsha, China:IEEE,2016.

        [2]DINGUS TA,GUO F,LEE S,et al.Driver Crash Risk Factors and Prevalence Evaluation Using Naturalistic Driving Data[J].Proceedings of the National Academy of Sciences of the United States of America,2016,113(10): 2636-2641.

        [3] 陳軍,張黎,周博,等.基于級聯(lián)卷積神經(jīng)網(wǎng)絡的駕駛員 分心駕駛行為檢測[J].科學技術與工程,2020,20(14): 5702-5708. CHEN J,ZHANG L,ZHOU B,et al.Driver Distracted DrivingBehaviorDetectionBasedonCascaded Convolutional Neural Networks[J]. Science Technology and Engineering,2020,20(14): 5702-5708.

        [4]TAWARI A,TRIVEDI M M. Robust and Continuous Estimation of Driver Gaze Zone by Dynamic Analysis of Multiple Face Videos[C]//2014 IEEE Intelligent Vehicles Symposium Proceedings.Dearborn, Michigan, USA: IEEE, 2014: 344-349.

        [5]高菲,楊柳,李暉.開放集識別研究綜述[J].南京大學學 報(自然科學),2022,58(1):115-134. GAO F,YANG L,LI H.A Review of Open Set Identification Research[J]. Journal of Nanjing University (Natural Science),2022,58(1): 115-134.

        [6]CHEN JM,WANG GJ,LU JC,et al.Open-Set Classification for Signal Diagnosis of Machinery Sensor in Industrial Environment[J]. IEEE Transactions on Industrial Informatics,2023,19(3): 2574-2584.

        [7] 王一豐,郭淵博,陳慶禮,等.基于對比學習的細粒度未 知惡意流量分類方法[J].通信學報,2022,43(10):12-25. WANGYF,GUOYB,CHENQL,et al.AFine-Grained Approach to Classify Unknown Malicious Traffic Based on Comparative Learning[J]. Journal on Communications,

        [8] CHEN T, KORNBLITH S, NOROUZI M,et al.A Simple FrameworkforContrastiveLearningofVisual Representations[C]// Proceedings of the 37th International Conference on Machine Learning. Vienna, Austria: PMLR, 2020: 1597-1607.

        [9] GRILL JB, STRUB F,ALTCHE F,et al. Bootstrap Your Own Latent: A New Approach to Self-Supervised Learning [C]// Conference on Neural Information Processing Systems (Neur IPS 2020). Online: Neur IPS,2020: 21271-21284.

        [10] CARON M,MISRA I,MAIRAL J,et al. Unsupervised Learning ofVisual Features by Contrasting Cluster Asignments[Cl//ConferenceonNeural Information Processing Systems (Neur IPS 202O).Online: Neur IPS, 2020:9912-9924.

        [11] ZHANG H Y,CISSE M, DAUPHIN Y N,et al. Mixup: BeyondEmpirical Risk Minimization[C]// International Conference on Learning Representations. Vancouver, Canada: ICLR, 2018.

        [12]YUN S D, HAN D Y,CHUN S H,et al. CutMix: Regularization Strategy to Train Strong Classfiers with Localizable Features[C]// International Conferenceon Computer Vision (ICCV 2019). Seoul,Korea: IEEE/CVF, 2019:6022-6031.

        [13] KOPUKLU O, ZHENG JP,XU H, et al. Driver Anomaly Detection:A Dataset and Contrastive Learning Approach [C]//2021 IEEE Winter Conference on Applications of Computer Vision.Waikoloa,HI, USA: IEEE,2021: 91-100.

        [14] IANDOLA F N, HAN S, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-Level Accuracywith 5Ox Fewer Parameters and

        [15] ZHANG X Y, ZHOU X Y,LIN M X, et al. ShuffleNet: An Extremely Efficient Convolutional Neural Networkfor Mobile Devices[C]//2018 IEEE/CVF Conferenceon Computer Vision and Pattern Recognition (CVPR 2018). Salt Lake City, Utah,USA: IEEE/CVF,2018:6848-6856.

        [16] TAN M X,LE Q V. EficientNet: Rethinking Model Scaling forConvolutionalNeuralNetworks[C]//International Conference on Machine Learning. Long Beach, California, USA: PMLR,2019: 6105-6114.

        [17] ZOPH B, VASUDEVAN V, SHLENS J, et al. Learning Transferable Architectures for Scalable Image Recognition [C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2O18). Salt Lake City,Utah, USA: IEEE/CVF,2018: 8697-8710.

        [18]WUBC,DAI XL,ZHANGPZ,etal.FBNet:HardwareAwareEfficientConvNet Designvia Differentiable Neural Architecture Search[C]// 2019 IEEE/CVP Conference on Computer Vision and Pattern Recognition(CVPR 2019). LongBeach,California,USA:IEEE/CVP,2019:10734- 10742.

        [19]SANDLERM,HOWARDA,ZHUM,etal.MobileNetV2: Inverted ResidualsandLinearBottlenecks[C]//2O18IEEE/ CVF Conference on ComputerVisionand Pattern

        Recognition (CVPR 2018).Salt Lake City,Utah,USA:IEEE/CVF,2018:4510-4520.[20]張東,高丙朋.基于改進MobileNet網(wǎng)絡的人臉識別方法[J].山西大學學報(自然科學版),2023,46(1):147-153.ZHANGD,GAOBP.FacialRecognitionMethodBasedonImprovedMobileNetNetwork[J].JournalofShanxiUniversity(Natural ScienceEdition),2023,46(1):147-153.(責任編輯斛畔)修改稿收到日期為2024年7月5日。

        2025年《汽車技術》專項征稿啟事

        尊敬的汽車及相關技術領域?qū)<覍W者、研發(fā)工程師、高校師生:

        隨著汽車技術的飛速發(fā)展,2025年將見證多項關鍵技術的突破與應用?!镀嚰夹g》雜志作為中國汽車行業(yè)的核心學術期刊,特此發(fā)布2025年專項征稿啟事,聚焦以下十大技術征稿方向,以期推動汽車技術的創(chuàng)新與進步。

        1.多模態(tài)大模型在自動駕駛感知決策中的應用:研究多模態(tài)大模型技術推動自動駕駛感知決策能力的創(chuàng)新突破。2.跨域融合智能芯片技術:研究跨域融合智能芯片在汽車智能化控制系統(tǒng)中的應用,以及其對性能協(xié)同的影響。3.AI賦能的合成數(shù)據(jù)在自動駕駛研發(fā)中的應用:研究利用AI技術生成合成數(shù)據(jù),解決自動駕駛數(shù)據(jù)短缺問題。4.AI大模型在智能座艙中的多模態(tài)交互技術:研究AI大模型如何整合視覺、聽覺、觸覺等多種感官信息,實現(xiàn)更加自然和直觀的人機交互體驗。5.C-V2X技術在車路云一體化中的應用:研究C-V2X技術如何支持車路云一體化,包括車車通信(V2V)、車路通信(V2I)、車云通信(V2N)等關鍵技術的發(fā)展和應用。6.智能底盤新構(gòu)型及集成控制技術:研究智能底盤線控化、分布式驅(qū)動、動底融合控制、智能底盤與自動駕駛?cè)诤峡刂频汝P鍵技術。7.新能源乘用車百公里行駛電耗降低技術:研究如何通過硬件創(chuàng)新和軟件優(yōu)化降低電耗,提升整車續(xù)航里程。8.固態(tài)電池電解質(zhì)材料創(chuàng)新與界面工程優(yōu)化:研究氧化物、硫化物、聚合物等固態(tài)電解質(zhì)材料的最新研究進展,以及固態(tài)電池中電極與電解質(zhì)之間的界面問題,提高電池的充放電效率和循環(huán)穩(wěn)定性。

        9.電池系統(tǒng)安全技術:研究主被動一體化的熱安全防護、熱失控早期火災探測預警、滅火裝置等

        10.高效高密度電驅(qū)動總成技術:研究具有更高轉(zhuǎn)速、更高效率和更小型化的電驅(qū)動系統(tǒng)技術。

        征稿要求:

        1.投稿請注明“*****\"技術方向?qū)m椪鞲遄謽?,本刊對符合征稿方向的稿件將?yōu)先審核,一經(jīng)錄用優(yōu)先發(fā)表;2.文章字數(shù)控制在6000~8000字范圍之內(nèi);3.請按科技論文要求撰寫文章摘要,摘要中文字數(shù)控制在180字左右;4.文章必須附有公開發(fā)表的、體現(xiàn)本領域最新研究成果的參考文獻,并在文中標注文獻引用處;5.文章主要作者應提供其簡介,包括出生年、性別、職稱、學歷、研究方向及技術成果等;6.來稿的保密審查工作由作者單位負責,確保署名無爭議,文責自負;7.請勿一稿多投;8.本刊使用網(wǎng)站投稿,詳細投稿要求見本刊網(wǎng)站中\(zhòng)"下載中心\"欄的\"作者指南”,網(wǎng)址:http://cjs.cbpt.cnki.net。這些技術方向反映了汽車技術領域的最新研究熱點,《汽車技術》雜志誠邀廣大科研人員圍繞這些方向投稿,我們期待您的佳作,共同推動汽車技術的發(fā)展與創(chuàng)新。感謝您對《汽車技術》雜志的支持與貢獻!《汽車技術》雜志是中國第一汽車集團有限公司主辦的國內(nèi)外公開發(fā)行的汽車前瞻與應用技術類月刊,為我國高質(zhì)量科技期刊分級目錄人選期刊、中國科學引文數(shù)據(jù)庫(CSCD)來源期刊、中文核心期刊、中國科技核心期刊、RCCSE中國核心學術期刊(A)、Scopus數(shù)據(jù)庫收錄期刊、俄羅斯《文摘雜志》(AJ)收錄期刊、日本科學技術振興機構(gòu)數(shù)據(jù)庫人選期刊、EBSCO學術數(shù)據(jù)庫收錄期刊、歐洲學術出版中心(EuroPub)數(shù)據(jù)庫收錄期刊。

        99色网站| 国产色xx群视频射精| 一本色综合久久| av一区无码不卡毛片 | 夜夜爽一区二区三区精品| 国产乱人视频在线观看播放器| 亚洲综合中文一区二区| 白嫩丰满少妇av一区二区| 亚洲免费网站观看视频| 亚洲国产精品久久久久秋霞1| av男人操美女一区二区三区| 美女很黄很色国产av| 无码少妇一区二区性色av | 亚洲精品在线视频一区二区| 免费人妻无码不卡中文字幕系| 全免费a级毛片免费看视频| 国产激情一区二区三区在线蜜臀| 日本在线观看一二三区| 国产在线精品一区二区中文| 久久精品国产精品青草色艺| 精品中文字幕日本久久久| 免费国产黄线在线播放| 色婷婷一区二区三区四| 精品熟人妻一区二区三区四区不卡| 中国熟妇人妻xxxxx| 欧美乱人伦中文字幕在线不卡| 国产av一区二区日夜精品剧情 | 天天狠狠综合精品视频一二三区| 国产91九色视频在线播放| 国产一区二区三区在线综合视频 | 日韩在线永久免费播放| 亚洲av伊人久久综合密臀性色| 亚洲中字幕永久在线观看| 中文字幕女同人妖熟女| 无码国产精品一区二区免费式直播| 热99精品| 国产日本精品一区二区| 性猛交ⅹxxx富婆视频| 内射后入在线观看一区| 日韩在线手机专区av| 精品久久av一区二区|