亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的汽車產(chǎn)品檢測優(yōu)化研究

        2024-01-01 00:00:00柳東威王旭廖佳妹
        商用汽車 2024年2期
        關(guān)鍵詞:圖像分類卷積神經(jīng)網(wǎng)絡(luò)

        關(guān)鍵詞:圖像分類;卷積神經(jīng)網(wǎng)絡(luò);汽車產(chǎn)品檢測

        0引言

        隨著科技革命和產(chǎn)業(yè)變革的深入推進(jìn),“信息科技+”的“嫁接對象”越來越廣泛,人工智能等先進(jìn)技術(shù)正逐步對傳統(tǒng)產(chǎn)業(yè)的基礎(chǔ)設(shè)施、作業(yè)模式等進(jìn)行全方位、全鏈條的改造。在汽車行業(yè)中,企業(yè)在申報(bào)產(chǎn)品準(zhǔn)入時需要在工信部平臺網(wǎng)站上填報(bào)新車型的備案參數(shù)。目前大多數(shù)汽車檢測機(jī)構(gòu)在備案參數(shù)的校核工作上,仍主要依賴于檢測人員根據(jù)填寫規(guī)范和視同條件進(jìn)行逐項(xiàng)人工比對,這不僅導(dǎo)致重復(fù)性勞動強(qiáng)度大,而且在面對企業(yè)申報(bào)量增多、填報(bào)水平參差不齊等情況下,參數(shù)校核的質(zhì)量難以得到保障,進(jìn)而可能妨礙檢測申報(bào)業(yè)務(wù)的順利進(jìn)行。因此,汽車檢測行業(yè)急需信息技術(shù)的創(chuàng)新與應(yīng)用,以提高生產(chǎn)效率、推進(jìn)行業(yè)高質(zhì)量發(fā)展。

        汽車企業(yè)填報(bào)的產(chǎn)品備案數(shù)據(jù)類型多樣,除了包含文字與數(shù)字信息外,還涉及各種角度的汽車產(chǎn)品照片,如產(chǎn)品的右前45°方向、左前45°方向照片,以及正后部、側(cè)后下部防護(hù)裝置照片等。這些照片在《備案參數(shù)表》及其填報(bào)指南中有著嚴(yán)格的排列位置和方位要求。如果企業(yè)上傳的圖像內(nèi)容與要求不匹配,將無法通過審查。作為一種深度學(xué)習(xí)模型,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)在圖像識別與分類領(lǐng)域已得到廣泛應(yīng)用…,例如交通場景下的車輛識別和定位,以及對車輛類型、車型大小、車輛承重等屬性的分類。然而,在車身方向檢測方面的應(yīng)用尚需進(jìn)一步完善。

        基于上述背景,本文通過分析卷積神經(jīng)網(wǎng)絡(luò)的演化進(jìn)程和性能特點(diǎn),選取出適用于汽車產(chǎn)品檢測場景的模型。隨后,通過采集和標(biāo)注大量圖像數(shù)據(jù),利用這些數(shù)據(jù)對模型進(jìn)行訓(xùn)練,并通過調(diào)節(jié)相關(guān)參數(shù)來優(yōu)化模型性能。最終,使模型能夠準(zhǔn)確識別車身朝向,從而助力檢測工作的精細(xì)化、智能化發(fā)展,加快檢測行業(yè)的信息化、現(xiàn)代化轉(zhuǎn)型。

        1卷積神經(jīng)網(wǎng)絡(luò)發(fā)展綜述

        1.1卷積神經(jīng)網(wǎng)絡(luò)的基本特征

        傳統(tǒng)神經(jīng)網(wǎng)絡(luò)在圖像數(shù)字化處理時,難以有效保留原有圖像特征,因此圖像識別率較低。然而,卷積神經(jīng)網(wǎng)絡(luò)憑借聯(lián)結(jié)稀疏、參數(shù)權(quán)值共享、能夠提取多維特征等優(yōu)勢,顯著提升了圖像識別率。特別是在2012年的ImageNet大賽中,卷積神經(jīng)網(wǎng)絡(luò)大幅度超越了傳統(tǒng)方法。

        卷積神經(jīng)網(wǎng)絡(luò)主要由卷積層、池化層和全連接層構(gòu)成。在卷積層中,卷積核在原始圖像上進(jìn)行滑動,通過卷積操作提取特征,見公式1:

        池化層的作用是對卷積層輸出的特征圖像進(jìn)行降維,減少參數(shù)量。全連接層的功能則是整合卷積層和池化層提取到的特征,完成對計(jì)劃的識別和分類。

        1.2卷積神經(jīng)網(wǎng)絡(luò)的常用模型

        1998年,利用二維卷積進(jìn)行圖像處理的LeNet-5模型實(shí)現(xiàn)了卷積核共享,奠定了現(xiàn)代CNN的基礎(chǔ),但該模型的應(yīng)用對象主要為手寫字符和英文字符,不擅長處理復(fù)雜問題。2012年提出的AlexNet模型通過ReLU激活函數(shù)緩解了梯度消失的問題,設(shè)置隨機(jī)失活以減少過擬合,在ILSVRC 2012競賽中將分類準(zhǔn)確率提升至80%以上。2014年,牛津大學(xué)計(jì)算機(jī)視覺組提出的VGGNet模型在當(dāng)年的ImageNet競賽中斬獲定位任務(wù)(Localization Task)第1名和分類任務(wù)(ClassificationTask)第2名。與AlexNet相比,VGGNet具有更深的網(wǎng)絡(luò)深度和更簡潔的形式,模型使用3x3的小卷積核代替大尺度卷積核,在不影響感受野的前提下減少了參數(shù)量,提高了對圖像特征的學(xué)習(xí)能力,其采用的2x2小尺寸池化核也可增加通道數(shù),使得提取的圖像特征更加豐富。同樣在2014年,Szegedy等人提出GoogLeNet模型,在其中加入Inception結(jié)構(gòu),通過融合不同尺度的特征信息,提高網(wǎng)絡(luò)的性能和效率,并在接下來的幾年中不斷優(yōu)化Inception結(jié)構(gòu)或添加其他結(jié)構(gòu),陸續(xù)發(fā)布InceptionV2、InceptionV3、InceptionV4、Inception-ResNet-V1、Inception-ResNet-V2等模型。2015年面世的ResNet模型,通過殘差模塊有效地緩解了梯度消失和梯度爆炸的問題,但需要比較長的訓(xùn)練時間。2016年提出的SqueezeNet模型,在保證準(zhǔn)確率相同的情況下,降低了參數(shù)量,減小了CNN架構(gòu),但具有相對較差的實(shí)時性。2017年,采用密集連接方式的DenseNet模型實(shí)現(xiàn)了特征復(fù)用,具有較高的泛化能力和抗過擬合性能,但該模型的計(jì)算復(fù)雜度大,需要巨量存儲空間,難以得到現(xiàn)有深度學(xué)習(xí)框架的支持。針對移動設(shè)備的使用需求,Howard等人提出了輕量級的MobileNetVI模型,并針對模型性價比低、準(zhǔn)確性難以保障等問題,不斷改進(jìn)模型結(jié)構(gòu),陸續(xù)推出MobileNetV2、MobileNetV3模型,不過MobileNetV3仍然具有訓(xùn)練難度高、細(xì)粒度分類效果差的缺點(diǎn)。2019年提出的EfficientNetV1模型在準(zhǔn)確率方面表現(xiàn)優(yōu)秀,但處理較大圖像的速度很慢。為了在參數(shù)量和速度之間取得更加合理的平衡,EfficientNetV2于2021年被提出,實(shí)現(xiàn)了更高效的特征提取。

        綜上所述,卷積神經(jīng)網(wǎng)絡(luò)經(jīng)歷了多次演化,在訓(xùn)練速度、準(zhǔn)確率、抗過擬合性能等方面不斷得到提升,并仍在持續(xù)改進(jìn)。不同的CNN模型具有各自的優(yōu)勢和缺點(diǎn)(見圖1),因此適用于不同的應(yīng)用場景,研究人員需要根據(jù)實(shí)際情況進(jìn)行選擇。目前,車輛的識別和定位主要使用R-CNN、YOLO等模型,車輛的分類則常用LeNet、AlexNet、VGG、GoogLeNet等模型。

        為了填報(bào)備案參數(shù)而給車輛產(chǎn)品拍照時,拍攝角度和距離均相對固定,因此目標(biāo)車輛在上傳照片中所占比例大小相對穩(wěn)定,即檢測對象的尺度相對穩(wěn)定。但是汽車與掛車的種類多樣,對于不同結(jié)構(gòu)或不同用途的車輛,其后部的視覺圖像差異較大,比如欄板式、廂式和罐式車輛的后部外觀具有明顯差別,而同樣屬于罐式運(yùn)輸車的混凝土攪拌運(yùn)輸車和危險(xiǎn)品運(yùn)輸車也在外觀上存在差異。因此,企業(yè)備案照片的車身方向分類任務(wù),需要模型具有比較優(yōu)秀的圖像特征學(xué)習(xí)能力。

        VGGNet模型憑借小卷積核獲得了提取豐富圖像特征的性能,具備較強(qiáng)的遷移學(xué)習(xí)能力,而且結(jié)構(gòu)簡潔,易于在現(xiàn)有的深度學(xué)習(xí)框架上實(shí)現(xiàn)。綜合考慮分類效果與實(shí)現(xiàn)成本等因素,本文選擇VGGNet模型對圖片中的車身方向進(jìn)行分類。

        2模型訓(xùn)練與評估

        2.1數(shù)據(jù)采集與處理

        本次研究的圖片數(shù)據(jù)來自中汽研汽車檢驗(yàn)中心(武漢)有限公司的整車與智能網(wǎng)聯(lián)試驗(yàn)研究部的電子數(shù)據(jù)庫,這些照片均為樣車核查照片,拍攝時間為2020年和2021年。

        為了進(jìn)行模型訓(xùn)練與驗(yàn)證,本研究在數(shù)據(jù)庫中隨機(jī)挑選了1014張車輛前部照片和1023張車輛后部照片,并分別標(biāo)注“front”和“rear”的標(biāo)簽,作為訓(xùn)練集與驗(yàn)證集的基礎(chǔ)數(shù)據(jù)。對于部分格式異常、無法被程序正確讀取的圖片數(shù)據(jù),本文利用Python編程語言進(jìn)行了自動剔除,經(jīng)過清洗后的有效數(shù)據(jù)共2003條。

        測試集則包含了19張圖片,其中車輛前部圖片6張,車輛后部圖片13張。由于不同商用車的車輛前部外觀差異相對較小,因此用于測試的車輛前部照片相對較少,涵蓋了車身顏色不同、室內(nèi)室外場景不同等情況。而車輛后部圖片則更加多樣化,覆蓋了多個不同的車輛種類。

        2.2模型構(gòu)建與優(yōu)化

        2.2.1模型結(jié)構(gòu)設(shè)計(jì)

        VGGNet包含5層卷積層、3層全連接層和1層softmax輸出層,層與層之間由maxpool(最大池化)層進(jìn)行分隔。所有的隱藏層都采用了ReLU函數(shù)作為激活函數(shù)。Simonyan等人根據(jù)不同的卷積層子層數(shù)量,設(shè)計(jì)了A、A-LRN、B、C、D、E6種網(wǎng)絡(luò)結(jié)構(gòu)。在本文中,我們選取最常用的D型結(jié)構(gòu)(也被稱為VGG16)作為基礎(chǔ),并使用TensorFlow深度學(xué)習(xí)框架構(gòu)建模型。我們使用的硬件環(huán)境是英特爾酷睿15的CPU,操作系統(tǒng)為windowsl0,并使用PyCharm作為編譯工具進(jìn)行Python編程?;谏鲜鲈O(shè)置,我們構(gòu)建了初始的VGG16模型。具體的模型結(jié)構(gòu)如圖2所示,圖中的卷積層參數(shù)用“conv感受野大小一通道數(shù)”的形式表示。例如,conv3-64表示該卷積層使用了尺寸為3x3的卷積核,并具有64個輸出通道。

        2.2.2模型參數(shù)優(yōu)化

        初始模型經(jīng)過訓(xùn)練后,性能并不理想(見圖3左),驗(yàn)證集的Loss值約為0.3,且與訓(xùn)練集的Loss值相差較大,這顯示出過擬合現(xiàn)象,同時驗(yàn)證集的準(zhǔn)確率(Accuracy)也并不高,并且過早地趨于穩(wěn)定,陷入了學(xué)習(xí)瓶頸。針對這些問題,本次研究通過不斷調(diào)節(jié)模型的相關(guān)參數(shù)來提升模型性能。

        (1)“學(xué)習(xí)率”參數(shù)指權(quán)重在模型訓(xùn)練期間更新的量,過大的學(xué)習(xí)率可能導(dǎo)致模型性能在訓(xùn)練后期產(chǎn)生明顯振蕩,而過小的學(xué)習(xí)率可能導(dǎo)致模型收斂速度過慢甚至不收斂。學(xué)習(xí)率衰減的策略可以確保模型在訓(xùn)練初期使用較大的學(xué)習(xí)率進(jìn)行模型優(yōu)化,而在訓(xùn)練后期逐漸減小學(xué)習(xí)率以避免過大波動,從而更接近最優(yōu)解,有效提高模型的精度。

        (2)“dropout”參數(shù)的設(shè)置,可以在訓(xùn)練過程中隨機(jī)丟棄一定比例的神經(jīng)元,以減少神經(jīng)元之間的依賴關(guān)系,從而緩解過擬合問題,提高模型的泛化能力。

        (3)“epoch”參數(shù)表示整個數(shù)據(jù)集在網(wǎng)絡(luò)中完成一次前向計(jì)算和反向傳播的過程。epoch數(shù)量越大,權(quán)重更新的次數(shù)也越多。如果epoch過小,權(quán)重可能沒有得到充分的更新,模型的特征值曲線可能還未進(jìn)入優(yōu)化擬合狀態(tài)。

        (4)參數(shù)的初始化對深度學(xué)習(xí)模型的訓(xùn)練也至關(guān)重要。采用“截?cái)嗾龖B(tài)分布”的初始化方法可以減少異常值的影響,有利于模型擬合。

        考慮到以上參數(shù)設(shè)置對模型的影響,以及初始模型存在的問題,本次研究進(jìn)行了以下優(yōu)化:

        (1)將初始學(xué)習(xí)率由0.01減小至0.001,并設(shè)置了學(xué)習(xí)率衰減策略。

        (2)在全連接層中添加了dropout,并嘗試了多個dropout取值,最終依據(jù)模型性能表現(xiàn)將神經(jīng)元的丟棄比例確定為0.6。

        (3)參數(shù)初始化方法采用“截?cái)嗾龖B(tài)分布”。

        (4)epoch數(shù)量在經(jīng)歷多次試驗(yàn)后增大至150,以確保模型得到充分的訓(xùn)練。

        優(yōu)化后的模型性能見圖3右,訓(xùn)練集與驗(yàn)證集的Loss值均在epoch為80之后趨于平穩(wěn),兩者之間的差距相較于初始模型有所減小。驗(yàn)證集的Loss值最終低于0.2,Accuracy也高達(dá)0.95,顯示出較好的分類能力。

        2.3建模結(jié)果評估

        除了上文提到的Accuracy(準(zhǔn)確率),Precision(精確率)和Recall(召回率)也是評價模型性能的重要指標(biāo)。Precision又稱“查準(zhǔn)率”,表示在預(yù)測結(jié)果為正的樣本中,實(shí)際為正的樣本的比例;Recall又稱“查全率”,表示在實(shí)際為正的樣本中,預(yù)測結(jié)果為正的樣本的比例,可反映模型對所有真實(shí)正例樣本的識別能力。由于Precision和Recall通常是相互制約的,研究人員常用它們的調(diào)和平均值(F1-Score)來衡量二分類(或多任務(wù)二分類)模型的精確度。F1-Score可以同時兼顧分類模型的精確率和召回率,計(jì)算方法見公式(3),取值范圍為0~1,值越大則意味著模型越好。

        優(yōu)化后的VGG Ixlet模型的各項(xiàng)評價指標(biāo)值如圖4所示,并整理為表1。模型的Accuracy和F1-Score均取值為0.95,表明該模型具有較為優(yōu)秀的性能。

        模型構(gòu)建完成后,對測試集的圖片數(shù)據(jù)進(jìn)行分類,分類結(jié)果全部正確(見表2),且有1/2的預(yù)測概率高達(dá)95%以上,進(jìn)一步驗(yàn)證了該模型優(yōu)秀的分類準(zhǔn)確度。對于不同的車身主體顏色、室內(nèi)室外環(huán)境、車輛類型,模型均能較為準(zhǔn)確地識別出車身的朝向,表現(xiàn)出較好的泛化能力與學(xué)習(xí)能力,因此,該模型特別適合試驗(yàn)環(huán)境多樣、試驗(yàn)對象種類繁雜的汽車檢測行業(yè)。

        模型對真實(shí)備案照片的分類也非常成功,圖5為某企業(yè)上傳至工信部平臺的備案照片,圖6為模型的輸出結(jié)果,高達(dá)99.82%和98.78%的準(zhǔn)確預(yù)測概率表明該模型在實(shí)際備案核查工作中的應(yīng)用具有較強(qiáng)的可行性與科學(xué)性。

        3結(jié)束語

        本文綜合考慮了多種卷積神經(jīng)網(wǎng)絡(luò)模型的性能特點(diǎn)與汽車產(chǎn)品檢測行業(yè)的實(shí)際需求,選取了VGGNet模型進(jìn)行訓(xùn)練。經(jīng)過訓(xùn)練后的模型能夠較為準(zhǔn)確地識別出企業(yè)備案照片中的車輛朝向(前或后),這一成果有助于節(jié)約企業(yè)與檢測機(jī)構(gòu)的勞動成本,降低工作失誤率,提升生產(chǎn)效率,從而助力汽車檢測行業(yè)實(shí)現(xiàn)“科技為擎,賦智賦能”的目標(biāo)。

        在后續(xù)的研究中,可以進(jìn)一步細(xì)化車身朝向的分類種類,例如將“前向”細(xì)分為“左前45°”“正前”“右前45°”等,以使得模型的應(yīng)用更加貼近實(shí)際工作需求,為汽車檢測行業(yè)提供更加全面、細(xì)致的服務(wù)。

        猜你喜歡
        圖像分類卷積神經(jīng)網(wǎng)絡(luò)
        基于數(shù)據(jù)挖掘的圖像分類算法
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于云計(jì)算的圖像分類算法
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        基于錨點(diǎn)建圖的半監(jiān)督分類在遙感圖像中的應(yīng)用
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        一種基于引導(dǎo)濾波和MNF的高光譜遙感圖像分類方法
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于最大似然法的南京市土地利用類型分類研究
        商(2016年22期)2016-07-08 14:32:30
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
        亚洲一区二区女优视频| 真人二十三式性视频(动)| 二区在线视频| 亚洲中文字幕第二十三页| 有坂深雪中文字幕亚洲中文| 国产色xx群视频射精| 日本夜爽爽一区二区三区| 精品系列无码一区二区三区| 国产人成无码中文字幕| 丁香婷婷色| 日本美女性亚洲精品黄色| 亚洲午夜久久久精品影院| 国产成人亚洲精品无码mp4| 精品综合久久久久久8888| 精品日韩在线观看视频| 亚洲av无码专区在线| 欧美性xxxx狂欢老少配| 91精品啪在线观看国产18| 国产99视频一区二区三区| 天堂av在线美女免费| 国产在线精品成人一区二区三区| 国产精品无码久久久久免费AV| 日韩国产一区二区三区在线观看 | 亚洲人成色777777老人头| 久久久久一| 亚洲国产精品自拍成人| 日韩av无码精品一二三区| 在线一区不卡网址观看| 精品日韩av专区一区二区| 女人无遮挡裸交性做爰| 97久久天天综合色天天综合色hd| 最新国产美女一区二区三区| 久久这里都是精品99| 欧美午夜刺激影院| 日韩AV有码无码一区二区三区| 亚洲综合国产精品一区二区| 人人鲁人人莫人人爱精品| 最新69国产成人精品视频免费| 亚洲中文有码一区二区| 久久久精品国产免大香伊| 久久精品国内一区二区三区|