收稿日期:2023-08-28
基金項(xiàng)目:江蘇省高等學(xué)校大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(202211276105Y)
摘" 要:為了讓復(fù)雜的深度學(xué)習(xí)模型能夠在計(jì)算資源有限的嵌入式終端設(shè)備上實(shí)時(shí)運(yùn)行,需要對(duì)深度學(xué)習(xí)模型進(jìn)行壓縮和改進(jìn)。為此提出一種可應(yīng)用于樹(shù)莓派嵌入式設(shè)備的輕量級(jí)目標(biāo)檢測(cè)算法SSD,用MobileNet替代經(jīng)典的SSD目標(biāo)檢測(cè)算法中的VGG主干網(wǎng)絡(luò),減少了主干網(wǎng)絡(luò)的特征參數(shù)數(shù)量。同時(shí)利用TFLite工具對(duì)模型進(jìn)行壓縮處理,實(shí)現(xiàn)了可部署于樹(shù)莓派上的目標(biāo)檢測(cè)模型。通過(guò)在VOC2007數(shù)據(jù)集上與VGG主干網(wǎng)絡(luò)做比對(duì)發(fā)現(xiàn),MobileNet在嵌入式終端設(shè)備上實(shí)時(shí)檢測(cè)的幀率提高了14幀/秒,平均精度(mAP)達(dá)到了75.81%。
關(guān)鍵詞:目標(biāo)檢測(cè);樹(shù)莓派;MobileNet;SSD算法;VGG16
中圖分類(lèi)號(hào):TP391.4" 文獻(xiàn)標(biāo)識(shí)碼:A" 文章編號(hào):2096-4706(2023)21-0094-05
Research on Target Recognition and Detection Based on Raspberry Pi
YOU Yongru1, CHEN Mengfan1, CHEN Junxia1, DU Lanyi1, ZHU Xuanyu2, TIAN Lihong1
(1.School of Information and Communication Engineering, Nanjing Institute of Technology, Nanjing" 211167, China;
2.School of Electric Power Engineering, Nanjing Institute of Technology, Nanjing" 211167, China)
Abstract: In order to enable complex deep learning models to run in real-time on embedded terminal devices with limited computational resources, deep learning models need to be compressed and improved. For this purpose, this paper proposes a lightweight object detection algorithm SSD which can be applied to Raspberry PI embedded devices, replaces the VGG backbone network in the classical SSD object detection algorithm with MobileNet, and reduces the number of feature parameters of the backbone network. At the same time, the TFLite tool is used to compress the model and realize the target detection model that can be deployed on the Raspberry Pi. By comparing it with the VGG backbone network on the VOC2007 dataset, it is found that MobileNet improves the frame rate of real-time detection on embedded terminal devices by 14 frames per second, with an average accuracy (mAP) of 75.81%.
Keywords: object detection; Raspberry Pi; MobileNet; SSD algorithm; VGG16
0" 引" 言
目標(biāo)檢測(cè)是一種計(jì)算機(jī)視覺(jué)技術(shù),它可以識(shí)別圖像或視頻中的特定對(duì)象,并將其框定標(biāo)出。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,例如安防監(jiān)控、自動(dòng)駕駛、醫(yī)療影像分析等。
2000年之后,物體識(shí)別領(lǐng)域有了較大的發(fā)展。首先在圖像特征層面,人們?cè)O(shè)計(jì)了各種各樣的圖像特征,像SIFT、HOG、LBP,等等。與此同時(shí),機(jī)器學(xué)習(xí)技術(shù)的發(fā)展也為模式識(shí)別提供了各種強(qiáng)大的分類(lèi)器。人們還在對(duì)物體建模方面做了一些工作,旨在用更靈活的模型,而不是單一的模板去定義物體。常見(jiàn)的傳統(tǒng)目標(biāo)檢測(cè)算法有Viola-Jones[1]、HOG+SVM[2]、DPM、NMS等。V-J人臉檢測(cè)算法采用積分圖像(integral image)技術(shù)加速對(duì)Haar-like輸入特征的計(jì)算,采用AdaBoost算法[3]進(jìn)行特征選擇選擇出幾個(gè)關(guān)鍵的視覺(jué)特征,采用檢測(cè)級(jí)聯(lián)技術(shù)提高準(zhǔn)確率,允許圖像的背景區(qū)域被很快丟棄,從而將更多的計(jì)算放在可能是目標(biāo)的區(qū)域上,減少了計(jì)算開(kāi)銷(xiāo)。HOG+SVM行人檢測(cè)算法使用HOG描述符從圖像中提取出人體的信息,將訓(xùn)練集中的正例和負(fù)例樣本提取出的HOG特征傳入到SVM分類(lèi)器中進(jìn)行訓(xùn)練,通過(guò)正樣本和負(fù)樣本交替迭代的方法進(jìn)行訓(xùn)練以實(shí)現(xiàn)行人檢測(cè)。DPM算法是對(duì)輸入的圖像提取圖像特征,制作激勵(lì)模板得到激勵(lì)效果圖,根據(jù)激勵(lì)的目標(biāo)確定目標(biāo)位置。NMS算法消除檢測(cè)得到的多余框,找到目標(biāo)物體的最佳位置。以上這些傳統(tǒng)算法計(jì)算復(fù)雜度低,然而檢測(cè)精度較差。
基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法有R-CNN[4]、Faster R-CNN[5]、YOLO[6]等。R-CNN用選擇性搜索算法生成大約2 000個(gè)候選區(qū)域,將其尺寸轉(zhuǎn)換成固定大小的用CNN提取候選區(qū)域的特征,然后使用SVM分類(lèi)器來(lái)判斷候選區(qū)域的類(lèi)別,利用線性回歸模型,讓每個(gè)物體都生成更精確的邊界框,使目標(biāo)檢測(cè)更精準(zhǔn)。Faster R-CNN針對(duì)感興趣區(qū)域的生成方式,對(duì)R-CNN進(jìn)行優(yōu)化。YOLO舍棄候選框提取,直接采用回歸的方法進(jìn)行物體分類(lèi)和候選框預(yù)測(cè),簡(jiǎn)化了網(wǎng)絡(luò)結(jié)構(gòu),將檢測(cè)速度提升至了Faster R-CNN的10倍左右。深度學(xué)習(xí)算法雖然具有較高的檢測(cè)精度,但模型的復(fù)雜度較高,很難在計(jì)算資源有限的硬件終端上部署。
為實(shí)現(xiàn)深度學(xué)習(xí)模型在嵌入式終端設(shè)備上的部署,本文基于經(jīng)典的SSD(Single Shot MultiBox Detector)[7]目標(biāo)檢測(cè)算法,對(duì)其主干特征網(wǎng)絡(luò)進(jìn)行了替換優(yōu)化,減少了模型復(fù)雜度,使其能夠在終端設(shè)備上實(shí)時(shí)地進(jìn)行目標(biāo)檢測(cè)。主要優(yōu)化方法是使用輕量級(jí)的MobileNet網(wǎng)絡(luò)取代經(jīng)典SSD算法中的VGG主干網(wǎng)絡(luò),將模型中的訓(xùn)練參數(shù)量降低了一個(gè)數(shù)量級(jí)[8]。
1" 硬件介紹
樹(shù)莓派4B的硬件配置(圖1):1.5 GHz,4核64位,ARM Cortex-A72 CPU(~3×倍性能)、1 GB / 2 GB / 4 GB LPDDR4 SDRAM內(nèi)存、全吞吐量千兆以太網(wǎng)、雙頻802.11ac無(wú)線網(wǎng)絡(luò)、藍(lán)牙5.0、兩個(gè)USB 3.0和兩個(gè)USB 2.0接口,雙顯示器支持、分辨率高達(dá)4K、VideoCore VI顯卡,支持 OpenGL ES 3.x、HEVC視頻4Kp60硬解碼、完全兼容早期的樹(shù)莓派產(chǎn)品。
USB攝像頭參數(shù):插值1 000萬(wàn)(軟件)的像素、WMV錄像格式、BMP/JPG拍照格式、640×480或352×288或320×240或160×120捕捉畫(huà)面。
2" MobileNet SSD原理
SSD屬于一種單次多框的探測(cè)器,主要是應(yīng)用于解決目標(biāo)檢測(cè)問(wèn)題等領(lǐng)域,包括定位和分類(lèi)。輸入一張圖片后,SSD處理后輸出多個(gè)方框的位置信息和它們的類(lèi)別信息。測(cè)試時(shí),將圖片輸入SSD網(wǎng)絡(luò),會(huì)輸出一個(gè)多維矩陣,通過(guò)進(jìn)行非極大值抑制(NMS)可以得到每個(gè)目標(biāo)的位置和標(biāo)簽信息。
SSD具備以下主要特點(diǎn):
1)繼承了YOLO將檢測(cè)轉(zhuǎn)化為回歸的思想,一次性完成目標(biāo)定位和分類(lèi)。
2)根據(jù)FasterRCNN中的Anchor,提出了類(lèi)似的PriorBox。
3)添加了基于特征金字塔(Pyramidal Feature Hierarchy)的檢測(cè)方法,即從不同感受野的特征圖上預(yù)測(cè)目標(biāo)。
MobileNet-SSD和VGG16-SSD都是常見(jiàn)的用于物體檢測(cè)的模型,它們的主要區(qū)別在于使用的卷積網(wǎng)絡(luò)結(jié)構(gòu)不同。MobileNet是一種輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò),它使用深度可分離卷積來(lái)減少參數(shù)數(shù)量,并在保持準(zhǔn)確性的同時(shí)降低了模型的計(jì)算復(fù)雜度;相比之下,VGG16是一種更加復(fù)雜的卷積神經(jīng)網(wǎng)絡(luò),它具有更多的卷積層和參數(shù),因此需要更多的計(jì)算資源和存儲(chǔ)空間。由于MobileNet-SSD模型相對(duì)較小且具有更少的參數(shù),因此它比VGG16-SSD模型具有更快的推理速度,這意味著它可以在移動(dòng)設(shè)備和嵌入式設(shè)備等資源受限的環(huán)境中更加有效地運(yùn)行。此外,MobileNet-SSD模型在一些常見(jiàn)的物體檢測(cè)數(shù)據(jù)集上的表現(xiàn)也非常不錯(cuò),例如COCO數(shù)據(jù)集和PASCAL VOC數(shù)據(jù)集。雖然VGG16-SSD模型在一些更具挑戰(zhàn)性的數(shù)據(jù)集上可能表現(xiàn)更好,但在大多數(shù)情況下,MobileNet-SSD模型也可以提供足夠的準(zhǔn)確性。
MobileNet-SSD和VGG16-SSD都是從6個(gè)不同尺度的特征圖上提取特征來(lái)做Detections,具體數(shù)值如表1所示,從通道數(shù)量上看,兩者是完全一致的;從特征圖分辨率上看,MobileNet-SSD只有VGG16-SSD的一半,在考慮模型大小的同時(shí)優(yōu)化了延遲,速度的加快帶來(lái)了實(shí)時(shí)檢測(cè)質(zhì)量的提升[9]。
由圖2可知,SSD算法的結(jié)構(gòu)流程如下:
1)在Moblienet網(wǎng)絡(luò)中輸入尺寸大小為300×
300×3的圖像,Conv4層之后的特征圖大小為19×
19×512。
2)然后,利用3×3×1 024的卷積層Conv6和池化操作,生成10×10×1 024維的特征圖。
3)接著,經(jīng)過(guò)Conv7進(jìn)行1×1×1 024卷積后,獲得10×10×1 024的特征圖。
4)隨后,通過(guò)進(jìn)行一個(gè)1×1×256和3×3×
512-s2(即步長(zhǎng)為2)的卷積操作Conv8,最終得到一個(gè)5×5×512的特征圖。
5)繼續(xù)進(jìn)行卷積,使用1×1×128和3×3×
256-s2卷積,將Conv9的輸出轉(zhuǎn)化為3×3×256的特征圖。
6)進(jìn)行Conv10卷積操作,包括1×1×128和3×3×256-s1的卷積,輸出2×2×256的特征圖。
7)在Conv11中繼續(xù)進(jìn)行卷積,使用1×1×128和3×3×256-s1卷積,生成1×1×256的特征圖。
圖2中,Conv4、7、8、9、10、11都和8 732分類(lèi)以及最終的非極大值抑制NMS相關(guān)聯(lián)。以Conv4為例,其輸出特征圖大小為19×19×512。對(duì)于每個(gè)像素,在該特征圖上通過(guò)類(lèi)似于Faster-RCNN中Anchor的方式生成4個(gè)候選框,一共得到5 776個(gè)候選框。接下來(lái),針對(duì)每個(gè)候選框,使用一個(gè)為3×3×(4×(Classes+4))的卷積核進(jìn)行分類(lèi)和回歸操作。同理,Conv7、Conv8和Conv9中每個(gè)像素都會(huì)產(chǎn)生6個(gè)候選框,且Conv10和Conv11中每個(gè)像素會(huì)產(chǎn)生4個(gè)候選框,總共有8 732個(gè)候選框。對(duì)每個(gè)候選框按分類(lèi)與回歸結(jié)果進(jìn)行處理,再進(jìn)行非極大值抑制處理,最終得出檢測(cè)結(jié)果。
SSD將總體的目標(biāo)損失函數(shù)定義為定位損失(loc)和置信度損失(conf)的加權(quán)和,屬于多任務(wù)損失函數(shù),如式(1)所示:
(1)
式(1)中,N表示對(duì)應(yīng)于真實(shí)標(biāo)簽(Ground Truth)框的數(shù)量,如果N = 0,則形成的損失為0;α參數(shù)用于調(diào)整置信度損失和定位損失相互間的百分比,默認(rèn)α = 1。
其中,對(duì)定位損失loc進(jìn)行計(jì)算,如式(2)所示:
(2)
式(2)中, = {1,0},表示的是第i個(gè)預(yù)測(cè)框和第j個(gè)真實(shí)框兩者關(guān)于類(lèi)別k的匹配度。
對(duì)置信度損失conf進(jìn)行計(jì)算,如式(3)所示:
(3)
式(3)中,i表示第i個(gè)默認(rèn)框,j表示第j個(gè)真實(shí)框,p表示第p個(gè)類(lèi)。其中" = {1,0}表示第i個(gè)prior box匹配到了第j個(gè)類(lèi)別為p的真實(shí)框(匹配到取1,沒(méi)有匹配到取0)[10]。
3" 實(shí)驗(yàn)結(jié)果及分析
3.1" 實(shí)驗(yàn)設(shè)置
該實(shí)驗(yàn)主要分為對(duì)比模型準(zhǔn)確率,對(duì)比可訓(xùn)練參數(shù)與幀率,因此實(shí)驗(yàn)也分為模型性能對(duì)比和指標(biāo)對(duì)比。測(cè)試階段方面使用VOC2007數(shù)據(jù)集,是一種常用的計(jì)算機(jī)視覺(jué)數(shù)據(jù)集,包含20個(gè)不同的對(duì)象類(lèi)別,如人、車(chē)、貓、狗等。數(shù)據(jù)集包含了25 000張圖像,其中包括了12 000張訓(xùn)練圖像、5 000張驗(yàn)證圖像和12 500張測(cè)試圖像。每個(gè)圖像都有相應(yīng)的標(biāo)注文件,包括對(duì)象類(lèi)別、邊界框和對(duì)象分割掩模。實(shí)驗(yàn)采用VGG-SSD模型和Moblienet-SSD-lite模型進(jìn)行對(duì)比測(cè)驗(yàn),提供對(duì)比圖片和數(shù)據(jù)。
模型性能對(duì)比使用VOC2007數(shù)據(jù)庫(kù),對(duì)20多種不同物體進(jìn)行識(shí)別得到不同算法的準(zhǔn)確率,根據(jù)不同模型得出mAP進(jìn)行對(duì)比。
目標(biāo)檢測(cè)中的mAP代表平均精度(mean Average Precision),是評(píng)估目標(biāo)檢測(cè)算法性能的一種常用指標(biāo)。
將AP(Average Precision)即每個(gè)類(lèi)別的精度——召回曲線下面的面積求平均,得到mAP,如式(4)所示:
(4)
式(4)中,C表示總類(lèi)別數(shù)目,APi表示第i類(lèi)的AP值。mAP的值范圍為0到1之間,值越高,代表算法的性能越好。以相同物體不同模型的準(zhǔn)確率作為指標(biāo),同一物體模型的準(zhǔn)確率越高,則代表模型性能越好。
效率對(duì)比在模型性能對(duì)比的基礎(chǔ)上,添加了可訓(xùn)練參數(shù)和幀率的指標(biāo),模型的可訓(xùn)練參數(shù)越少,則代表模型復(fù)雜度越低,與此同時(shí),幀率越大,代表實(shí)時(shí)效率越高。
3.2" 模型性能對(duì)比
使用VOC2007數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),通過(guò)相同的算法不同模型,通過(guò)Moblienet-SSD-lite和VGG-SSD于測(cè)試集上測(cè)試,得出各模型在數(shù)據(jù)集里不同類(lèi)別的準(zhǔn)確率。
表2所示是兩個(gè)模型在20個(gè)不同的對(duì)象類(lèi)別中分別的mAP,例如:對(duì)于椅子的檢測(cè),VGG16-SSD的mAP達(dá)到了68.10%,MobileNet-SSD的mAP則較低,僅有63.87%,還有對(duì)于餐桌的檢測(cè),兩者的差值也達(dá)到了5%。但是對(duì)于馬的檢測(cè)等,VGG16-SSD的達(dá)到了89.08%,MobileNet-SSD的達(dá)到了91.00%,兩者已經(jīng)只相差2%,更為樂(lè)觀的是在對(duì)于人和火車(chē)的檢測(cè)中,MobileNet-SSD的mAP甚至超過(guò)了VGG16-SSD,VGG16-SSD的mAP達(dá)到了78.56%,而MobileNet-SSD的mAP也達(dá)到了75.81%,在一定程度上,我們可以知道兩種模型的精度已經(jīng)十分接近。在嵌入式系統(tǒng)中,MobileNet-SSD相較于代價(jià)更大VGG16-SSD更具有實(shí)用性。
3.3" 效率對(duì)比
通過(guò)實(shí)驗(yàn),從日志文本中讀取指標(biāo):可訓(xùn)練參數(shù)和幀率。并且得到損失關(guān)于步數(shù)和時(shí)間的csv,備份為Excel表格,進(jìn)行數(shù)據(jù)對(duì)比畫(huà)圖,VGG-SSD和MobileNet-SSD-lite都是基于SSD的目標(biāo)檢測(cè)模型,但它們?cè)谀P徒Y(jié)構(gòu)和性能上有所不同。損失率是深度學(xué)習(xí)模型訓(xùn)練過(guò)程中的一個(gè)重要指標(biāo),它可以用來(lái)評(píng)估模型的性能,以及調(diào)整模型的參數(shù)以優(yōu)化網(wǎng)絡(luò)訓(xùn)練。通常,訓(xùn)練模型時(shí)的損失率越低,模型就越準(zhǔn)確。
如表3所示,MobileNet-SSD模型的可訓(xùn)練參數(shù)只有8 777 646,而VGG-SSD模型的可訓(xùn)練參數(shù)可達(dá)到26 285 486,前者比后者少一個(gè)數(shù)量級(jí),可以看出MobileNet-SSD對(duì)于模型的復(fù)雜度降低的有較強(qiáng)的能力。同時(shí)在實(shí)時(shí)性檢測(cè)效率方面,MobileNet-SSD模型實(shí)時(shí)幀率比VGG16-SSD模型高14幀/秒。
VGG16-SSD能處理大量的參數(shù)數(shù)目,表現(xiàn)其具備很高的擬合能力;但也有明顯的弊端,如訓(xùn)練時(shí)間過(guò)長(zhǎng),調(diào)參難度較大。需要的存儲(chǔ)容量大,不利于主干網(wǎng)絡(luò)的部署。神經(jīng)網(wǎng)絡(luò)深度比較深,參數(shù)量比較大,因此VGG16-SSD需要較長(zhǎng)的訓(xùn)練時(shí)間及較高的計(jì)算資源。
MobileNet-SSD-lite使用的是MobileNet作為基礎(chǔ)網(wǎng)絡(luò),MobileNet是一種輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò),其主要特點(diǎn)是網(wǎng)絡(luò)深度較淺,參數(shù)量較少,因此具有較快的計(jì)算速度和較小的模型大小。
如圖3所示,藍(lán)色的線(下方)代表VGG16-SSD在經(jīng)典神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)曲線,黃色的線(上方)則代表MobileNet-SSD在經(jīng)典神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)曲線,可以看出在迭代200次時(shí)MobileNet-SSD損失率已經(jīng)十分接近VGG16-SSD。在圖3(a)中,在同一數(shù)據(jù)集中,MobileNet-SSD損失率已經(jīng)十分接近VGG16-SSD的情況下,此時(shí)VGG16-SSD與MobileNet-SSD訓(xùn)練步數(shù)是相同的;在圖3(b)中,也同時(shí)在MobileNet-SSD損失率接近VGG16-SSD的情況下,迭代200次時(shí),MobileNet-SSD使用的時(shí)間僅有10小時(shí),而VGG16-SSD卻使用了12小時(shí)之久,比MobileNet-SSD高出2小時(shí),由此可見(jiàn)在嵌入式硬件中,MobileNet-SSD的效率之高。綜上所述,MobileNet-SSD-lite模型在目標(biāo)檢測(cè)任務(wù)上表現(xiàn)已經(jīng)接近VGG-SSD,且在計(jì)算速度和模型大小上具有明顯優(yōu)勢(shì),適合于在嵌入式硬件中使用,具有很強(qiáng)的實(shí)用性。
4" 結(jié)" 論
VGG-SSD和MobileNet-SSD-lite同為基于SSD的目標(biāo)檢測(cè)模型,但在模型結(jié)構(gòu)和性能上有所不同。VGG-SSD使用的是VGG16作為基礎(chǔ)網(wǎng)絡(luò),包括了13個(gè)卷積層,3個(gè)全連接層,網(wǎng)絡(luò)深度較深,參數(shù)量較大,因此需要較長(zhǎng)的訓(xùn)練時(shí)間和較高的計(jì)算資源。VGG-SSD模型在目標(biāo)檢測(cè)任務(wù)上表現(xiàn)較好,但在計(jì)算速度和模型大小上存在一定的劣勢(shì)。MobileNet-SSD-lite使用MobileNet作為基礎(chǔ)網(wǎng)絡(luò),MobileNet是一種輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò),主要特點(diǎn)是網(wǎng)絡(luò)深度較淺,參數(shù)量較少,因此具有較快的計(jì)算速度和較小的模型。
綜上所述,MobileNet-SSD-lite模型在目標(biāo)檢測(cè)任務(wù)上表現(xiàn)與VGG-SSD相似,但在計(jì)算速度和模型大小上具有明顯優(yōu)勢(shì),適合于在計(jì)算資源受限的場(chǎng)景下使用。
參考文獻(xiàn):
[1] DINESH K P,JEETHA B R. Facial Expression Detection and Recognition through VIOLA-JONES Algorithm and HCNN using LSTM Method [J].Technoscience Academy,2021,7(3):463-480.
[2] 何育民,汪朝輝,郭思宇,等.基于HSV+HOG特征和SVM的人臉口罩檢測(cè)算法研究(英文) [J].測(cè)試科學(xué)與儀器:英文版,2022,13(3):9:267-275.
[3] 金立民.基于支持向量機(jī)的無(wú)窮維AdaBoost算法及其應(yīng)用 [J].中國(guó)新通信,2018,20(8):208.
[4] LI J L,WONG H C,LO S L,et al. Multiple Object Detection by a Deformable Part-Based Model and an R-CNN [J].IEEE Signal Processing Letters,2018,25(2):288-292.
[5] 李曉光,付陳平,李曉莉,等.面向多尺度目標(biāo)檢測(cè)的改進(jìn)Faster R-CNN算法 [J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2019,31(7):1095-1101.
[6] REDMON J,F(xiàn)ARHADI A. YOLOv3: An Incremental Improvement [J/OL].arXiv:1804.02767 [cs.CV].[2023-07-28].https://arxiv.org/abs/1804.02767.
[7] 王賀,樊星.基于改進(jìn)SSD的輕量級(jí)目標(biāo)檢測(cè)算法 [J].測(cè)試技術(shù)學(xué)報(bào),2023,37(2):152-157.
[8] SIMONYAN K.ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition [J/OL].arXiv:1409.1556 [cs.CV].[2023-07-28].http://arxiv.org/abs/arXiv:1409.1556.
[9] ZHANG J D,XU J B ,ZHU L Y,et al. An improved MobileNet-SSD algorithm for automatic defect detection on vehicle body paint [J].Multimedia Tools and Applications,2020,79:23367-23385.
[10] LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single Shot MultiBox Detector [J/OL].arXiv:1512.02325 [cs.CV].[2023-07-28].https://arxiv.org/abs/1512.02325.
作者簡(jiǎn)介:尤泳茹(2000—),女,漢族,江蘇鎮(zhèn)江市人,本科在讀,研究方向:人工智能;陳俊霞(2002—),女,漢族,江蘇南通人,本科在讀,研究方向:人工智能;陳夢(mèng)凡(2002—),女,漢族,江蘇南通人,本科在讀,研究方向:人工智能;杜藍(lán)藝(2000—),女,漢族,江蘇南京人,本科在讀,研究方向:人工智能;朱炫羽(2001—),男,漢族,江蘇南京人,本科在讀,研究方向:電氣工程及其自動(dòng)化;田麗鴻(1972—),女,漢族,寧夏中寧人,副教授,碩士,研究方向:數(shù)字信號(hào)處理。