摘 要:隨著安全氣囊設(shè)計的多樣化,安全氣囊裁剪片的設(shè)計也越來越相似。現(xiàn)階段工廠仍然采用人工識別安全氣囊裁剪片的方式,不僅需要投入大量的人力和時間,其準(zhǔn)確率還受人員主觀因素的影響。為解決這一問題,設(shè)計了一種基于深度學(xué)習(xí)的安全氣囊裁剪片識別系統(tǒng)。首先,通過拍攝采集了6種相似OPW安全氣囊的耳片照片共1 000張,構(gòu)建了實(shí)驗(yàn)所用的數(shù)據(jù)集;然后,訓(xùn)練了基于深度學(xué)習(xí)的安全氣囊裁剪片識別模型,并應(yīng)用當(dāng)前常用的幾種深度學(xué)習(xí)模型進(jìn)行實(shí)驗(yàn),進(jìn)而選取合適的模型;接著,對所選的模型進(jìn)行改進(jìn),將其識別準(zhǔn)確率提高至93%;最后,開發(fā)Web端,用戶通過訪問網(wǎng)頁端即可識別裁剪片,實(shí)現(xiàn)移動端的識別操作。在Web端對OPW安全氣囊的6種相似耳片進(jìn)行了識別實(shí)驗(yàn),結(jié)果表明所設(shè)計的系統(tǒng)能夠?qū)崿F(xiàn)預(yù)期的功能,相較于人工識別效果更好,具有替代人工識別的可能性。
關(guān)鍵詞:安全氣囊;裁剪片;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò):VGG16;移動端;識別系統(tǒng)
中圖分類號:TP39 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-1302(2025)01-00-04
0 引 言
安全氣囊作為汽車的安全部件,已被廣泛應(yīng)用于各類車型中。隨著人們對汽車內(nèi)飾的要求逐漸提升,汽車車型的研發(fā)也逐步趨向于少量多類,而這導(dǎo)致了安全氣囊出現(xiàn)很多相似設(shè)計,使得用于縫制安全氣囊的裁剪片也有很多的相似性。例如,圖1所示的一體化(OPW)安全氣囊雖為全織型,但也需要縫制一些掛耳等,以便能固定至汽車內(nèi),滿足其性能要求。為防止因裁剪片的混用而導(dǎo)致爆破失敗的事情發(fā)生,工廠常用人工對比圖片的方式進(jìn)行裁剪片的識別。然而這種方式下不僅需要投入大量的人力與時間,其準(zhǔn)確率還受人員主觀因素的影響。
近年來,隨著人工智能的興起,利用深度學(xué)習(xí)的方法進(jìn)行物體識別的技術(shù)已越來越成熟[1-6]。文獻(xiàn)[7]利用卷積神經(jīng)網(wǎng)絡(luò)對蘋果葉片進(jìn)行圖像分類,模型準(zhǔn)確率為98.14%;文獻(xiàn)[8]利用卷積神經(jīng)網(wǎng)絡(luò)分類算法對21個品種的釀酒葡萄進(jìn)行了識別,準(zhǔn)確率可達(dá)到94%以上。但已有研究中鮮有對安全氣囊裁剪片進(jìn)行識別的研究報道。
本文以安全氣囊袋上的耳片為主要識別對象,設(shè)計了一種基于深度學(xué)習(xí)的安全氣囊裁剪片識別系統(tǒng),從而改變傳統(tǒng)的人工識別方式,提高工廠的生產(chǎn)效率和質(zhì)量。
1 深度學(xué)習(xí)訓(xùn)練模型的選取及算法改進(jìn)
本文設(shè)計的基于深度學(xué)習(xí)的安全氣囊裁剪片識別模型如圖2所示。創(chuàng)建模型的主要步驟如下:
(1)選定識別對象,并進(jìn)行數(shù)據(jù)采集及數(shù)據(jù)擴(kuò)充,進(jìn)而得到增廣的數(shù)據(jù)集;
(2)使用目前應(yīng)用較廣、識別效果最好的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練;
(3)對選擇的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行優(yōu)化,以提高其準(zhǔn)確率。
1.1 數(shù)據(jù)采集
本文所研究的識別對象主要為OPW氣囊的耳片。本課題共采集了6種OPW氣囊的耳片,共1 000張照片。其中,800張構(gòu)成訓(xùn)練集,200張構(gòu)成測試集。這些耳片的主要區(qū)別在于固定孔位、長寬比例的不同。采集的數(shù)據(jù)均使用線上標(biāo)注工具make sense進(jìn)行標(biāo)注。
1.2 模型訓(xùn)練及選取
首先,將收集的1 000張圖片的像素設(shè)置為28×28。然后,采用目前圖像識別領(lǐng)域中應(yīng)用較廣的幾種卷積網(wǎng)絡(luò)算法,如AlexNet8、Inception10、ResNet18、VGG16,分別進(jìn)行1 000輪訓(xùn)練(batch size為32)。其訓(xùn)練結(jié)果見表1。
根據(jù)上述訓(xùn)練結(jié)果,選取準(zhǔn)確率較高、損失較少的模型VGG16,進(jìn)行進(jìn)一步的模型改進(jìn)。
1.3 選取模型的改進(jìn)
選取識別效果較優(yōu)秀的模型VGG16后,進(jìn)行下述處理:
(1)圖片像素提升為32×32;
(2)對采集的數(shù)據(jù)進(jìn)行水平鏡像、垂直鏡像、旋轉(zhuǎn)90°、180°、270°,得到增廣的數(shù)據(jù);
(3)在VGG16模型中保持VGG16的卷積堆疊塊和池化層的原結(jié)構(gòu)不動,在全連接層凍結(jié)80%的神經(jīng)元,以提升其訓(xùn)練效率。
經(jīng)過100輪的訓(xùn)練后,結(jié)果如圖3所示,Loss值明顯更加收斂。
對模型進(jìn)行改進(jìn)之后,數(shù)據(jù)對比見表2。
2 基于Web端的識別系統(tǒng)的實(shí)現(xiàn)
完成基于深度學(xué)習(xí)的模型訓(xùn)練后,利用訓(xùn)練樣本建立起圖像的基礎(chǔ)模型,該模型顯著提升了圖像識別系統(tǒng)的識別能力。本章將重點(diǎn)介紹在手機(jī)移動端Web上通過該模型對樣品進(jìn)行識別的具體實(shí)現(xiàn)過程,包括系統(tǒng)架構(gòu)詳解、終端可行性分析、通信機(jī)制選擇、服務(wù)架構(gòu)設(shè)計、系統(tǒng)測試方法以及測試結(jié)果等。
2.1 系統(tǒng)架構(gòu)
本文研究的圖像識別系統(tǒng)整體架構(gòu)如圖4所示。
上文中對深度學(xué)習(xí)訓(xùn)練模型進(jìn)行改進(jìn)并經(jīng)過100輪的訓(xùn)練后,模型的Loss值趨于收斂,這表明模型基本具備圖像識別功能。本文將該功能以接口形式封裝成圖像識別系統(tǒng)。
在該模型的實(shí)際應(yīng)用中,可以采用移動手機(jī)終端的瀏覽器訪問并打開Web端服務(wù),通過識別拍照上傳的圖片,調(diào)用服務(wù)器的圖像識別算法模型接口服務(wù),最后經(jīng)過算法模型識別后返回結(jié)果。其整體應(yīng)用架構(gòu)示意圖如圖5所示。
2.2 終端可行性分析
在選擇移動終端時,仔細(xì)分析對比了使用APP和Web端的優(yōu)劣。
2.2.1 使用APP實(shí)現(xiàn)
一般情況下,對于圖像識別系統(tǒng)終端軟件的解決方案大都是針對Android或者iOS端進(jìn)行APP開發(fā),其優(yōu)勢為用戶體驗(yàn)感較好。相比較Web項(xiàng)目,APP一般具有更豐富的UI交互效果和更友好的用戶體驗(yàn),支持更快速、更直觀的操作和反饋[9-11]。但APP開發(fā)也有以下劣勢:
(1)開發(fā)難度高。開發(fā)APP需要使用特定的開發(fā)語言和框架,如Java、Swift、Objective-C等,同時還需要考慮不同操作系統(tǒng)和設(shè)備之間的兼容性問題。
(2)安卓和iOS系統(tǒng)的兼容問題。需要開發(fā)2套APP系統(tǒng)才能同時滿足安卓系統(tǒng)和iOS系統(tǒng)。
(3)維護(hù)成本高。APP的更新和維護(hù)復(fù)雜,每次代碼優(yōu)化都需要重新編譯打包,需要消耗更多的時間和資源。
2.2.2 使用Web項(xiàng)目實(shí)現(xiàn)
相比之下,使用Web端雖然在用戶體驗(yàn)上相較于APP略顯不足,但其他優(yōu)勢較明顯,具體如下:
(1)開發(fā)難度低。Web項(xiàng)目主要使用HTML、CSS和JavaScript編寫。
(2)適配能力好。Web項(xiàng)目一般適用于大多數(shù)安卓和iOS手機(jī),一套代碼可以同時在2種系統(tǒng)的手機(jī)瀏覽器中展示。
(3)維護(hù)成本低。代碼的優(yōu)化迭代隨時更新隨時生效,減少了編譯打包的時間資源消耗。
經(jīng)過比較,本系統(tǒng)最終選取Web項(xiàng)目開發(fā)來實(shí)現(xiàn)移動終端的開發(fā)選型,用戶可直接使用安卓或iOS手機(jī)的瀏覽器打開Web端網(wǎng)頁服務(wù)提供的網(wǎng)站,隨時隨地拍照并上傳圖片進(jìn)行識別。其優(yōu)點(diǎn)為:方便使用,易實(shí)現(xiàn),省去了開發(fā)APP的成本和占用手機(jī)的部分空間,使用維護(hù)都比較簡便[12]。
2.3 通信方式
將網(wǎng)站代碼部署在服務(wù)器中,通過接入互聯(lián)網(wǎng)或局域網(wǎng)對外提供網(wǎng)站服務(wù),用戶的手機(jī)終端主要通過無線局域網(wǎng)或5G網(wǎng)絡(luò)與服務(wù)器保持通信,具體有以下2種情況:
(1)5G:若將服務(wù)器部署在外部公網(wǎng),用戶手機(jī)端可以通過5G通信對網(wǎng)站進(jìn)行訪問;
(2)WiFi:若將服務(wù)器部署在工廠內(nèi)網(wǎng)且不對外提供訪問服務(wù),用戶手機(jī)端可以通過連接工廠內(nèi)部WiFi網(wǎng)絡(luò)對網(wǎng)站進(jìn)行訪問。
2.4 服務(wù)架構(gòu)設(shè)計
服務(wù)器中包含算法服務(wù)、接口層服務(wù)和Web端服務(wù),每個服務(wù)獨(dú)立部署且相互提供服務(wù)。
2.4.1 算法服務(wù)
在服務(wù)器中,通過Python開發(fā)并經(jīng)過深度學(xué)習(xí)之后形成的算法服務(wù)模型可以為接口層提供計算識別服務(wù)。
2.4.2 接口層服務(wù)
使用Python開發(fā)接口層服務(wù),將算法服務(wù)封裝成接口http://192.168.3.25:5000/predict,該接口的輸入?yún)?shù)為“被識別圖片”,輸出參數(shù)為對應(yīng)裁剪片的名稱,調(diào)用該接口即可調(diào)用內(nèi)部的算法服務(wù)進(jìn)行計算識別。
2.4.3 Web端服務(wù)
使用HTML5開發(fā)Web端服務(wù),將接口功能嵌入到頁面中,使得用戶能夠直接在網(wǎng)頁上操作。用戶通過手機(jī)端拍照后將圖片上傳到Web端,手動點(diǎn)擊“識別”按鈕,即可觸發(fā)接口層服務(wù)的調(diào)用,并最終在頁面上展示識別結(jié)果。
2.5 系統(tǒng)測試與結(jié)果
根據(jù)上文的研究結(jié)果和系統(tǒng)部署,基于深度學(xué)習(xí)算法模型[13]的圖像識別系統(tǒng)已經(jīng)實(shí)現(xiàn)。本節(jié)將對系統(tǒng)的識別功能進(jìn)行檢驗(yàn)。先啟動系統(tǒng),再通過手機(jī)端瀏覽器打開網(wǎng)站并進(jìn)入圖片識別主頁面。系統(tǒng)的實(shí)機(jī)演示效果如圖6所示。
點(diǎn)擊圖6中的“選擇圖片”上傳圖片。系統(tǒng)會彈出“拍照”和“文件”2個選項(xiàng)供選擇,如圖7所示,分別支持實(shí)時拍照和上傳之前已經(jīng)拍好的照片。若上傳錯誤,點(diǎn)擊“清除”,則清空圖片并返回主頁面。
上傳樣品圖片后的演示頁面如圖8所示。
上傳好樣品圖片后,點(diǎn)擊“識別”按鈕,通過訓(xùn)練好的模型對其進(jìn)行識別,并返回結(jié)果“MTG_TAB_1”,演示頁面如圖9所示。
3 結(jié) 語
本文研究的主要目的是將深度學(xué)習(xí)應(yīng)用至實(shí)際生產(chǎn)中,將安全氣囊裁剪片生產(chǎn)過程中的人工識別方式改進(jìn)為通過移動端進(jìn)行實(shí)物識別的方式。本文通過訓(xùn)練模型并開發(fā)Web端,使用戶可以通過Web端訪問服務(wù),并得到識別的數(shù)據(jù)。后期工作仍需要持續(xù)改進(jìn),當(dāng)前使用的數(shù)據(jù)集局限于6種,后續(xù)需增加更多種類,增強(qiáng)其泛化能力;另外還需要持續(xù)改進(jìn)模型,提升其準(zhǔn)確度。
參考文獻(xiàn)
[1] LIU L, WANG R, XIE C, et al. PestNet: an end-to-end deep learning approach for large-scale multi-class pest detection and classification [J]. IEEE access, 2019, 7: 45301-45312.
[2] GU J, WANG Z, KUEN J, et al. Recent advances in convolutional neural networks [J/OL]. arXiv preprint arXiv:1512.07108, 2015.
[3] KRIZHEVSKY A, SUTSKEVER I, HINTON G. ImageNet classification with deep convolutional neural networks [C]// Neural Information Processing Systems. Lake Tahoe, Nevada, USA: NIPS, 2012: 1106-1114.
[4] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [J/OL]. arXiv preprint arXiv: 1409.1556, 2014.
[5] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 770-778.
[6] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [J]. Computer science, 2014.
[7] CHEN J, HAN J, LIU C, et al. A deep-learning method for the classification of apple varieties via leaf images from different growth periods in natural environment [J]. Symmetry, 2022, 14(8): 1671.
[8] LIU Y, SU J, SHEN L, et al. Development of a mobile application for identification of grapevine (vitis vinifera l.) cultivars via deep learning [J]. International journal of agricultural and biological engineering, 2021, 14(5): 172-179.
[9] 岳有軍,李雪松,趙輝,等.基于改進(jìn) VGG 網(wǎng)絡(luò)的農(nóng)作物病害圖像識別[J].農(nóng)機(jī)化研究,2022,44(6):18-24.
[10]莊寧.基于TensorFlow的Android端本地圖像分類的應(yīng)用設(shè)計與實(shí)現(xiàn)[D].杭州:浙江工業(yè)大學(xué),2019.
[11]劉洋.手機(jī)端植物病害識別與嚴(yán)重程度估計[D].蘭州:甘肅農(nóng)業(yè)大學(xué),2021.
[12]吳耀平.基于Web指紋識別的暗網(wǎng)漏洞研究[D].廣州:廣州大學(xué),2023.
[13]趙亮,郭杜杜,王慶慶,等.基于深度學(xué)習(xí)的遙感影像道路提取[J].現(xiàn)代電子技術(shù),2023,46(23):48-54.