亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的吸煙檢測(cè)研究

        2022-09-28 09:17:38李祥祥李曉華
        關(guān)鍵詞:殘差卷積特征

        李祥祥,李曉華,石 剛

        (新疆大學(xué)信息科學(xué)與工程學(xué)院,新疆 烏魯木齊 830046)

        0 引言

        吸煙有害身體健康,在公共場(chǎng)所吸煙會(huì)對(duì)他人的身體健康造成危害.吸煙會(huì)引發(fā)肺癌、喉癌、功能喪失等疾病,全球每年因煙草致死人數(shù)高達(dá)800萬(wàn)人.在加油站、飛機(jī)場(chǎng)、辦公室、化工廠、森林等地吸煙極易引起火災(zāi),造成重大經(jīng)濟(jì)損失和人員傷亡.為了他人生命和財(cái)產(chǎn)健康著想,禁止在公共場(chǎng)所吸煙已經(jīng)成為所有人的道德規(guī)范和行為準(zhǔn)則,國(guó)家也已采取很多措施嚴(yán)禁公共場(chǎng)所吸煙.

        傳統(tǒng)的吸煙檢測(cè)方案主要包含3種:煙霧傳感器、紅外成像儀、可穿戴設(shè)備.但這3種方案都有局限性,煙草的煙霧稀薄且極容易逸散,在通風(fēng)場(chǎng)所和占地很大的室內(nèi)場(chǎng)所中煙霧濃度低,很難達(dá)到煙霧傳感器的檢測(cè)閾值;紅外成像儀通過(guò)感知物體的溫度進(jìn)行吸煙檢測(cè),但公共場(chǎng)所環(huán)境復(fù)雜、人員眾多,容易造成誤檢情況;可穿戴設(shè)備通過(guò)各種傳感器檢測(cè)佩戴人員在吸煙時(shí)的運(yùn)動(dòng)和生理特征進(jìn)行吸煙檢測(cè),該方案需要被檢測(cè)人員佩戴可穿戴設(shè)備,難以普及.

        除了使用各種設(shè)備,研究人員還研究了針對(duì)監(jiān)控視頻的吸煙檢測(cè)方案.傳統(tǒng)圖像處理算法可以很好的應(yīng)用于吸煙檢測(cè)任務(wù),該方案的檢測(cè)過(guò)程共分4步:(1)圖像預(yù)處理.在目標(biāo)檢測(cè)算法中,圖像質(zhì)量的好壞直接影響檢測(cè)的精度.通過(guò)幾何變換、灰度化、圖像增強(qiáng)等方法的處理,修正圖像的角度、減少噪聲、突出重要特征.(2)候選框的提取.候選框主要用于待檢測(cè)目標(biāo)的定位.通過(guò)設(shè)定不同大小和步長(zhǎng)的滑動(dòng)窗口,由左至右、由上至下滑動(dòng)提取候選框.(3)特征提取.在候選框中提取預(yù)先設(shè)定的特征.方向梯度直方圖[1](Histogram of Oriented Gradient,HOG)通過(guò)將圖像分為多個(gè)小塊(如8×8像素),計(jì)算每個(gè)小塊的梯度分布直方圖,每4個(gè)小塊得到一個(gè)特征向量.Haar通過(guò)積分圖獲取圖像的邊緣特征、線性特征和點(diǎn)特征.尺度不變特征變換[2](Scale-invariant feature transform,SIFT)提取檢測(cè)目標(biāo)的關(guān)鍵點(diǎn),通過(guò)關(guān)鍵點(diǎn)計(jì)算特征方向和特征向量.(4)分類.通過(guò)Adaboost[3]、支持向量機(jī)[4](SVM)、決策樹(shù)(Decision Tree)等分類器,對(duì)滑動(dòng)窗口中提取的特征進(jìn)行進(jìn)一步處理和分類.

        傳統(tǒng)圖像處理算法存在一定的缺陷.隨著硬件設(shè)備計(jì)算性能的提高和深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)各種算法的不斷完善,使用神經(jīng)網(wǎng)絡(luò)算法完成目標(biāo)檢測(cè)任務(wù)開(kāi)始成為主流.特別是在2012年ILSVRC大賽中,AlexNet[5]取得第一名的好成績(jī),力壓一眾傳統(tǒng)目標(biāo)檢測(cè)算法.其后神經(jīng)網(wǎng)絡(luò)算法不斷發(fā)展,并憑借超高的檢測(cè)精度和分類性能在各個(gè)領(lǐng)域不斷取得突破,如人臉識(shí)別、目標(biāo)檢測(cè)、手勢(shì)識(shí)別、車輛識(shí)別、人體姿態(tài)識(shí)別等.

        本文采用神經(jīng)網(wǎng)絡(luò)算法,檢測(cè)吸煙者的人臉和煙支,對(duì)比兩者的位置關(guān)系判定是否存在吸煙行為.為了達(dá)到實(shí)時(shí)檢測(cè)的目的,參考單階段目標(biāo)檢測(cè)算法,利用改進(jìn)后殘差結(jié)構(gòu)[6](Residual Block)、跨階段局部網(wǎng)絡(luò)[7](CSPNet)、注意力機(jī)制(Attention)構(gòu)造主干網(wǎng)絡(luò),將更多小目標(biāo)的特征傳入更深的卷積層,解決特征丟失問(wèn)題;對(duì)主干網(wǎng)絡(luò)輸出的多層次特征圖進(jìn)行特征融合,提高各特征圖信息的豐富程度,增強(qiáng)了小目標(biāo)的檢測(cè)精度;改進(jìn)了激活函數(shù)、損失函數(shù)、歸一化方法、融合圖像的上下文信息,提高了模型的魯棒性.

        1 難點(diǎn)及解決方案

        1.1 實(shí)時(shí)檢測(cè)

        深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法進(jìn)行圖像處理和目標(biāo)檢測(cè)任務(wù)時(shí),通常卷積網(wǎng)絡(luò)的層數(shù)會(huì)堆疊幾十乃至上百層.主要是因?yàn)樯疃葘W(xué)習(xí)目標(biāo)檢測(cè)任務(wù)十分復(fù)雜,訓(xùn)練圖像數(shù)量極大、背景復(fù)雜、檢測(cè)目標(biāo)尺寸不一,為了提高對(duì)檢測(cè)目標(biāo)的表征能力和泛化能力,通過(guò)加深卷積網(wǎng)絡(luò)的層數(shù)的方式提高模型的學(xué)習(xí)能力,讓復(fù)雜的目標(biāo)檢測(cè)任務(wù)成為可能.

        1.1.1 單階段目標(biāo)檢測(cè)算法

        深度學(xué)習(xí)目標(biāo)檢測(cè)算法發(fā)展多年,目前主要有兩種檢測(cè)思路:雙階段目標(biāo)檢測(cè)算法和單階段目標(biāo)檢測(cè)算法.

        雙階段目標(biāo)檢測(cè)算法采用目標(biāo)定位(候選框提取)和目標(biāo)分類分離的策略,主要算法包含RCNN[8]、Faster R-CNN、Mask R-CNN[9]、Cascade RCNN[10]等.其目標(biāo)定位算法是在傳統(tǒng)目標(biāo)檢測(cè)算法的基礎(chǔ)上發(fā)展而來(lái)的,早期的算法還是采用滑動(dòng)窗口方式,之后為了提高模型的檢測(cè)速度,提出了選擇性搜索(Selective Search)和區(qū)域建議網(wǎng)絡(luò)(Region Proposal Network,RPN)的方案.選擇性搜索的實(shí)現(xiàn)思路是首先將圖像分割成很多的小塊,然后使用貪心策略計(jì)算每?jī)蓚€(gè)相鄰區(qū)域的相似度,合并最相似的兩塊,直到最終只剩下一塊完整的圖片.在合并的過(guò)程中,首先合并最小的圖像,將合并的圖像塊保存起來(lái)并設(shè)置權(quán)重,得到圖像的分層表示.區(qū)域建議網(wǎng)絡(luò)的實(shí)現(xiàn)思路是首先預(yù)設(shè)9個(gè)大小不一的候選窗口,這些候選窗口也叫錨(anchors),在輸入圖像上設(shè)置若干錨點(diǎn),每個(gè)錨點(diǎn)設(shè)置9個(gè)錨,讓錨與真實(shí)框進(jìn)行對(duì)比后進(jìn)行平移和縮放,在經(jīng)過(guò)Softmax排序和非極大值抑制(Non-Maximum Suppression,NMS)后得到最有可能的候選框.

        選擇性搜索方案主要應(yīng)用于R-CNN、Fast R-CNN等,區(qū)域建議網(wǎng)絡(luò)主要應(yīng)用于Faster R-CNN、Mask R-CNN等.綜合上述方案提出的候選框和主干網(wǎng)絡(luò)輸出的特征圖,經(jīng)過(guò)ROI池化后生成候選特征圖,最后經(jīng)過(guò)全連接層的處理,完成目標(biāo)檢測(cè)算法的定位和分類任務(wù).單階段目標(biāo)檢測(cè)算法將定位和分類問(wèn)題轉(zhuǎn)換為回歸問(wèn)題,利用錨的思想,在主干網(wǎng)絡(luò)提取的特征圖上選出多個(gè)錨框,針對(duì)每個(gè)錨框進(jìn)行回歸定位和分類,最后使用非極大值抑制得到最優(yōu)預(yù)測(cè)結(jié)果.單階段目標(biāo)檢測(cè)算法主要包含SSD[11]、YOLO、CornerNet[12]、CenterNet等.雙階段方案擁有更高的檢測(cè)精度,但檢測(cè)速度較慢;單階段方案檢測(cè)精度稍低,但檢測(cè)速度很快.為了達(dá)到實(shí)時(shí)檢測(cè)的目標(biāo),本文采用單階段方案.

        1.1.2 深度可分離卷積

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是深度學(xué)習(xí)視覺(jué)領(lǐng)域的代表算法,卷積層是卷積神經(jīng)網(wǎng)絡(luò)的主要構(gòu)成部分,減少卷積層的權(quán)重參數(shù)和計(jì)算量就可以在很大程度上提高目標(biāo)檢測(cè)速度.

        大多數(shù)卷積神經(jīng)網(wǎng)絡(luò)采用常規(guī)卷積,如圖1(a)所示,卷積核(Kernel Filters)的通道數(shù)與輸入特征圖(Feature Maps)的通道數(shù)(Channels)保持一致,卷積核的寬(width)和高(height)一般為3×3 (一些卷積層中可能使用5×5、7×7,甚至更大),卷積核的個(gè)數(shù)與輸出特征圖的通道數(shù)保持一致.常規(guī)卷積所涉及的權(quán)重參數(shù)量大,耗費(fèi)計(jì)算資源多.為了提高檢測(cè)速度,本文使用深度可分離卷積作為本文模型的基礎(chǔ)卷積,大量實(shí)驗(yàn)證明深度可分離卷積的檢測(cè)精度與常規(guī)卷積類似但檢測(cè)速度有所提高.深度可分離卷積[13](Depthwise separable Convolution)由深度卷積(Depthwise Convolution,DW)和逐點(diǎn)卷積(Pointwise Convolution,PW)組成.深度卷積如圖1(b)所示,卷積核的通道數(shù)固定為1,卷積核的個(gè)數(shù)與輸入特征圖的通道數(shù)一致.為了輸出需要的特征圖,使用逐點(diǎn)卷積進(jìn)一步操作.逐點(diǎn)卷積如圖1(c)所示,卷積核的通道數(shù)與輸入特征保持一致,卷積核的寬和高固定為1,卷積核的個(gè)數(shù)與輸出特征圖的通道數(shù)保持一致.

        (a)常規(guī)卷積

        這里引入浮點(diǎn)運(yùn)算數(shù)(Floating Point Operations,F(xiàn)LOPs)和參數(shù)量(Params)的概念來(lái)衡量模型的復(fù)雜度.設(shè)輸入特征圖的尺度為(Hin,Win,Cin),卷積層處理后的輸出特征圖的尺度為(Hout,Wout,Cout).其中H代表特征圖的高,W代表特征圖的寬,C代表特征圖的通道數(shù).卷積核的高和寬總是一樣大小,設(shè)為K.浮點(diǎn)運(yùn)算數(shù)可以用來(lái)衡量模型的計(jì)算量,其計(jì)算公式為

        FLOPs=(Cin×2×K×K)×
        Hout×Wout×Cout.

        (1)

        參數(shù)量的計(jì)算公式為

        Params=(Cin×K×K+1)×Cout.

        (2)

        當(dāng)輸入特征圖的通道數(shù)為3,卷積核的寬和高均為3,輸出特征圖尺寸為64×64×4時(shí),常規(guī)卷積和深度可分離卷積的計(jì)算量和權(quán)重參數(shù)量如表1所示,深度可分離卷積的參數(shù)量和計(jì)算量對(duì)比常規(guī)卷積均有所降低.

        表1 兩種卷積的參數(shù)量和計(jì)算量

        1.2 小目標(biāo)檢測(cè)

        吸煙檢測(cè)屬于小目標(biāo)檢測(cè)任務(wù).小目標(biāo)物體有兩種定義方式,一種是待檢測(cè)目標(biāo)的長(zhǎng)寬占原圖像的10% (相對(duì)尺寸),另一種是待檢測(cè)目標(biāo)小于32×32像素(絕對(duì)尺寸).小目標(biāo)檢測(cè)任務(wù)一直是深度學(xué)習(xí)卷積網(wǎng)絡(luò)模型的一個(gè)難題,小目標(biāo)物體分辨率低、容易受到抖動(dòng)的干擾,而且圖像模糊,又因?yàn)樾∧繕?biāo)本身所占圖像像素低,攜帶信息很少,沒(méi)有明顯的特征.且小目標(biāo)物體容易受到噪聲、遮擋等因素的干擾,圖像增強(qiáng)、去噪聲的方法也很難恢復(fù)原本特征.

        1.2.1 主干網(wǎng)絡(luò)設(shè)計(jì)

        目前的目標(biāo)檢測(cè)模型的主干(backbone)網(wǎng)絡(luò)部分通常會(huì)進(jìn)行多次下采樣處理,導(dǎo)致小目標(biāo)在特征圖中的尺寸基本上只有個(gè)位數(shù)的像素大小,且小目標(biāo)特征在傳入更深的網(wǎng)絡(luò)層時(shí)特征丟失嚴(yán)重,因此目標(biāo)分類器對(duì)小目標(biāo)的分類效果極差.本文設(shè)計(jì)的主干網(wǎng)絡(luò)在力求降低網(wǎng)絡(luò)的參數(shù)量和計(jì)算量的同時(shí),將更多的小目標(biāo)特征送入更深的網(wǎng)絡(luò)層.

        目標(biāo)檢測(cè)模型通常由3個(gè)部分組成:主干網(wǎng)絡(luò)(backbone)、頸部(neck)和檢測(cè)頭(head).主干網(wǎng)絡(luò)是目標(biāo)檢測(cè)模型網(wǎng)絡(luò)層數(shù)最多,特征提取能力最強(qiáng)的結(jié)構(gòu),主干網(wǎng)絡(luò)提取的目標(biāo)特征直接影響到模型的檢測(cè)效果.神經(jīng)網(wǎng)絡(luò)的檢測(cè)效果和神經(jīng)網(wǎng)絡(luò)的層數(shù)有著很大的關(guān)系,通常層數(shù)越多檢測(cè)精度就越高,相應(yīng)的訓(xùn)練難度也就越高.并且當(dāng)網(wǎng)絡(luò)層數(shù)達(dá)到一定程度后,網(wǎng)絡(luò)會(huì)達(dá)到飽和狀態(tài),即達(dá)到了檢測(cè)的最好效果.再增加網(wǎng)絡(luò)層數(shù),檢測(cè)效果會(huì)下降,訓(xùn)練損失值開(kāi)始增加,這一現(xiàn)象被稱為退化(degradation).為解決退化問(wèn)題,He等[6]提出殘差網(wǎng)絡(luò).殘差網(wǎng)絡(luò)由一系列可重復(fù)利用的殘差塊(見(jiàn)圖2a)組成,殘差塊分為兩個(gè)部分,直接映射(左分支)和殘差部分(右分支).直接映射分支不做任何處理.殘差部分一般由2~3個(gè)卷積操作、批處理和激活函數(shù)組成.之后殘差部分和直接映射相加合并,再經(jīng)過(guò)一次ReLU激活函數(shù)的處理得到輸出結(jié)果.實(shí)驗(yàn)表明,殘差網(wǎng)絡(luò)很好地解決了深度神經(jīng)網(wǎng)絡(luò)的退化問(wèn)題,在同等層數(shù)的網(wǎng)絡(luò)中,殘差網(wǎng)絡(luò)收斂速度更快,且在去除個(gè)別網(wǎng)絡(luò)層后,殘差網(wǎng)絡(luò)的性能表現(xiàn)不會(huì)有大的變化.

        本文對(duì)殘差塊進(jìn)行了改進(jìn)(見(jiàn)圖2b).左分支的直接映射保持不變.將右分支原本的常規(guī)卷積用深度可分離卷積替換(深度卷積+逐點(diǎn)卷積),達(dá)到減少模型的參數(shù)量和計(jì)算量的目的.激活函數(shù)由ReLU函數(shù)替換為Mish函數(shù),Mish函數(shù)也屬于ReLU 系列,只是在正負(fù)值交界處增加了一個(gè)平滑的過(guò)渡曲線以保證模型擁有更好的泛化能力.每個(gè)深度可分離卷積輸出的特征圖均使用批歸一化處理,以約束特征權(quán)重的數(shù)值范圍,避免梯度消失、梯度爆炸、過(guò)擬合等問(wèn)題.本文稱改進(jìn)后的殘差塊為可分離殘差塊,可分離殘差塊是可復(fù)用結(jié)構(gòu),可以添加到主干網(wǎng)絡(luò)的任意位置.本文利用多個(gè)可分離殘差塊組成殘差模塊(Residual module).如圖3(a)所示,采用CSPNet(Cross Stage Partial Network,跨階段局部網(wǎng)絡(luò))的思想,將輸入特征拆分成兩部分,每部分擁有輸入特征的一半通道數(shù).左分支的特征不做處理,右分支的特征經(jīng)過(guò)多個(gè)可分離殘差塊的處理(可根據(jù)需要調(diào)節(jié)數(shù)目),最后對(duì)2個(gè)分支的特征進(jìn)行拼接,得到輸出特征.

        圖2 殘差塊(a)和改進(jìn)的可分離殘差塊(b)框圖

        本文設(shè)計(jì)的可分離殘差塊和殘差模塊都遵循一個(gè)原則:將淺層的特征圖盡可能傳遞到更深的卷積層中.這樣做有很多優(yōu)點(diǎn),首先是避免了退化問(wèn)題.要想獲得更好的目標(biāo)檢測(cè)效果,模型的卷積層數(shù)必須很深.當(dāng)卷積層數(shù)超過(guò)飽和層數(shù)之后,特征學(xué)習(xí)能力直線下降.可分離殘差塊和殘差模塊中的CSP結(jié)構(gòu)將淺層的優(yōu)秀特征直接傳遞到深層,優(yōu)化了深層的特征學(xué)習(xí)情況.更加重要的優(yōu)點(diǎn)是避免了小目標(biāo)物體特征在進(jìn)入更深的卷積層時(shí)的特征丟失問(wèn)題,能有效提高小目標(biāo)物體的檢測(cè)精度.

        卷積網(wǎng)絡(luò)經(jīng)過(guò)一系列的卷積和池化操作得到各種尺度的特征圖,但特征圖中的數(shù)據(jù)對(duì)于檢測(cè)效果的貢獻(xiàn)程度不同.為了強(qiáng)化貢獻(xiàn)度高的特征數(shù)據(jù)削弱貢獻(xiàn)度低的特征數(shù)據(jù),引入注意力機(jī)制,根據(jù)貢獻(xiàn)度為特征圖加權(quán).注意力機(jī)制最先在機(jī)器翻譯領(lǐng)域取得了不錯(cuò)的效果,而后在視覺(jué)領(lǐng)域也開(kāi)始發(fā)力.2017年,SENet[14](squeeze and excitation networks)設(shè)計(jì)了一種可重用通道注意力模塊,對(duì)輸入特征圖進(jìn)行壓縮(squeeze)和激發(fā)(excitation)操作獲得每個(gè)通道權(quán)重參數(shù),并將加權(quán)后的特征圖作為輸出.該注意力模塊能有效提高模型的檢測(cè)性能.2018年,CBAM[15](Convolutional Block Attention Module)注意力模塊結(jié)合特征圖的通道和空間注意力特征,進(jìn)一步提高了模型檢測(cè)性能.

        本文在CBAM的基礎(chǔ)上略作改進(jìn)設(shè)計(jì)注意力模塊,如圖3(b)所示.輸入特征在注意力模塊中分成2個(gè)支路,一個(gè)支路使用通道注意力處理得到通道權(quán)重,另一個(gè)支路不做處理,2個(gè)支路結(jié)果相乘得到通道加權(quán)特征圖;通道加權(quán)特征圖又分為2個(gè)支路,一個(gè)支路使用空間注意力處理得到空間權(quán)重,另一個(gè)支路不做處理,2個(gè)支路結(jié)果相乘得到空間加權(quán)特征圖并輸出.設(shè)特征圖的尺寸為H(特征圖的高)×W(特征圖的寬)×C(特征圖的通道數(shù)),通道注意力分別使用全局最大池化和全局平均池化得到2個(gè)1×1×C的特征,之后為了更好地?cái)M合通道間復(fù)雜的相關(guān)性,使用共享多層網(wǎng)絡(luò)(全連接層+Mish激活函數(shù)+全連接層)進(jìn)行處理得到2個(gè)1×1×C的特征,相加并進(jìn)行Sigmoid激活后得到一個(gè)1×1×C的通道權(quán)重特征,與H×W×C的輸入特征圖相乘后得到通道加權(quán)特征圖.空間注意力分別使用最大池化和平均池化得到2個(gè)H×W×1的特征,按照通道拼接為一個(gè)H×W×2的特征,經(jīng)過(guò)卷積和Sigmoid函數(shù)激活后得到一個(gè)H×W×1的空間權(quán)重特征,與H×W×C的輸入特征圖相乘后得到空間加權(quán)特征圖.本文改進(jìn)的注意力機(jī)制可以在通道和空間2個(gè)尺度衡量特征圖的貢獻(xiàn)程度,能有效加強(qiáng)小目標(biāo)特征的學(xué)習(xí)能力,提高檢測(cè)精度.

        (a)殘差模塊 (b)注意力模塊 (c)主干網(wǎng)絡(luò)

        主干網(wǎng)絡(luò)的結(jié)構(gòu)如圖3(c)所示,輸入圖像首先使用2個(gè)卷積層進(jìn)行預(yù)處理,減少特征圖的寬高,增加了通道數(shù).之后使用4組殘差模塊和注意力模塊的組合,提取不同層次的特征圖.殘差模塊中卷積層數(shù)多,用于提取待檢測(cè)目標(biāo)的特征信息.注意力模塊評(píng)價(jià)殘差模塊輸出特征圖的貢獻(xiàn)度,輸出加權(quán)特征圖.該主干網(wǎng)絡(luò)在降低參數(shù)量和計(jì)算量基礎(chǔ)上,能夠提取更多的小目標(biāo)特征,保證了小目標(biāo)實(shí)時(shí)檢測(cè)的需求.

        1.2.2 特征融合策略

        感受野(receptive field)用來(lái)表示網(wǎng)絡(luò)內(nèi)部不同卷積層的輸出特征圖中每個(gè)元素在輸入圖像上的映射區(qū)域大小.感受野越小則能接觸到的原始圖像越小,特征圖更趨向于表達(dá)目標(biāo)的局部細(xì)節(jié)特征,包括紋理、邊緣、顏色、形狀等,可以很好地表達(dá)小目標(biāo)物體的特征;而感受野越大則能接觸到的原始圖像越大,會(huì)將小目標(biāo)周圍的背景納入學(xué)習(xí)范圍,特征圖更趨向于表達(dá)更加抽象的全局特征,喪失了小目標(biāo)的特征,適用于更大物體的目標(biāo)檢測(cè).

        本文目標(biāo)檢測(cè)模型的整體結(jié)構(gòu)如圖4所示,主干網(wǎng)絡(luò)在注意力模塊處理后輸出3個(gè)層次的特征,較淺層輸出的特征圖擁有較小的感受野,適合小目標(biāo)檢測(cè);層數(shù)越深其感受野越大,更加適合大目標(biāo)檢測(cè).為了進(jìn)一步提高小目標(biāo)的檢測(cè)精度,引入PAN[16]網(wǎng)絡(luò)(如圖4的頸部所示),融合主干網(wǎng)絡(luò)多層次的輸出特征,結(jié)合淺層的細(xì)節(jié)信息和深層的語(yǔ)義信息,提高小目標(biāo)的定位和分類效果.特征融合對(duì)于各個(gè)尺度的目標(biāo)特征都有一定程度的增強(qiáng),之后從大中小3個(gè)尺度對(duì)圖像進(jìn)行目標(biāo)檢測(cè).

        圖4 目標(biāo)檢測(cè)模型整體結(jié)構(gòu)

        本文構(gòu)建的目標(biāo)檢測(cè)模型使用深度可分離卷積代替常規(guī)卷積,如表2所示.深度可分離卷積方案在模型大小、參數(shù)量和計(jì)算量3個(gè)尺度都有明顯優(yōu)化.

        表2 不同卷積組成模型對(duì)比

        2 模型優(yōu)化策略

        神經(jīng)網(wǎng)絡(luò)模型除了卷積層和池化層的特征提取部分,還包括了一些僅增加少量推理成本的結(jié)構(gòu),可以起到修正特征數(shù)據(jù)、提高模型學(xué)習(xí)能力的作用.首先是圖像增強(qiáng)技術(shù),不對(duì)模型進(jìn)行改動(dòng),只對(duì)訓(xùn)練圖像進(jìn)行裁剪、縮放、旋轉(zhuǎn)、模擬遮擋等操作,提高圖像環(huán)境的復(fù)雜度和圖像數(shù)量,使模型可以適應(yīng)更加復(fù)雜的環(huán)境,提高泛化能力.

        激活函數(shù)通過(guò)激活特征圖中符合條件的特征數(shù)據(jù),使模型擁有了非線性建模的能力,可以更好地?cái)M合復(fù)雜的檢測(cè)任務(wù).但sigmoid和tanh 函數(shù)在反向傳導(dǎo)的過(guò)程中會(huì)導(dǎo)致梯度消失問(wèn)題.ReLU 函數(shù)保留了正值的梯度,將負(fù)值轉(zhuǎn)化為0,解決了梯度消失問(wèn)題,且模型能夠更快收斂.但是也導(dǎo)致了“死亡神經(jīng)元”問(wèn)題,輸入持續(xù)為負(fù)的神經(jīng)元激活值總為0.批歸一化將每個(gè)卷積層的輸出特征數(shù)據(jù)歸一化為均值為0、方差為1的數(shù)據(jù),并根據(jù)訓(xùn)練得到平移因子和尺度因子對(duì)數(shù)據(jù)進(jìn)行一定的處理.批歸一化解決了梯度消失、梯度爆炸的問(wèn)題;能有效提高收斂速度;擁有正則化的特點(diǎn),減少過(guò)擬合.本文構(gòu)建的目標(biāo)檢測(cè)模型主要使用Mish激活函數(shù),公式為

        Mish=x·tanh(ln(1+ex)).

        (3)

        Mish函數(shù)屬于ReLU系列激活函數(shù),但在正負(fù)值的交界處有一個(gè)弧度,過(guò)渡得更加平滑(見(jiàn)圖5中虛線).這使得Mish函數(shù)擁有更加平滑的梯度(見(jiàn)圖5中實(shí)線),泛化能力更好.且Mish對(duì)較小的負(fù)值進(jìn)行激活,緩解了部分神經(jīng)元永遠(yuǎn)無(wú)法激活的問(wèn)題.

        損失函數(shù)是衡量目標(biāo)檢測(cè)模型檢測(cè)效果好壞的標(biāo)準(zhǔn),將模型前向傳播的預(yù)測(cè)結(jié)果和真實(shí)標(biāo)簽進(jìn)行對(duì)比計(jì)算,得到損失值判定檢測(cè)效果.根據(jù)損失反向傳播優(yōu)化學(xué)習(xí)模型的特征信息.早期損失函數(shù)均方誤差(MSE)對(duì)預(yù)測(cè)框中心點(diǎn)坐標(biāo)和寬高信息分別對(duì)待,沒(méi)有考慮到整體的關(guān)系.使用交并比(IoU)計(jì)算預(yù)測(cè)框和真實(shí)框的重合程度,有效提高了目標(biāo)檢測(cè)的效果.本文使用由IoU 發(fā)展而來(lái)的CIoU損失函數(shù).CIoU比IoU 多考慮了一些影響預(yù)測(cè)效果的因素,如重疊程度、目標(biāo)尺寸、懲罰項(xiàng)、預(yù)測(cè)框和真實(shí)框中心點(diǎn)之間的距離.CIoU的計(jì)算公式為:

        (4)

        (5)

        其中:ρ2(b,bgt)表示真實(shí)框和預(yù)測(cè)框中心點(diǎn)的歐式距離;c代表預(yù)測(cè)框和真實(shí)框?qū)蔷€的距離;α和ν是添加的懲罰項(xiàng),其計(jì)算公式如為:

        (6)

        (7)

        圖5 Mish函數(shù)及其導(dǎo)數(shù)曲線

        3 實(shí)驗(yàn)結(jié)果及分析

        本文使用pytorch深度學(xué)習(xí)框架完成相關(guān)代碼的編寫(xiě),使用NVIDIA RTX 2080Ti顯卡進(jìn)行訓(xùn)練,使用NVIDIA GTX 1050Ti完成測(cè)試工作,對(duì)應(yīng)操作系統(tǒng)分別為Ubuntu18和Windows10,配置CUDA10和CUDNN7.5工具.

        3.1 數(shù)據(jù)集

        由于吸煙檢測(cè)任務(wù)沒(méi)有公開(kāi)的數(shù)據(jù)集,本文使用自己構(gòu)建的吸煙數(shù)據(jù)集完成吸煙檢測(cè)任務(wù).從互聯(lián)網(wǎng)上爬取的有關(guān)吸煙的圖片和視頻,同時(shí)自己錄制吸煙視頻片段.抽取視頻中有吸煙行為的關(guān)鍵幀,與網(wǎng)絡(luò)中吸煙圖片結(jié)合組成本文數(shù)據(jù)集.數(shù)據(jù)集共4 893張圖片,使用LabelImg工具進(jìn)行標(biāo)注,標(biāo)注內(nèi)容包括人的臉部和煙支的位置,其中80%用于訓(xùn)練,20%用于測(cè)試.

        3.2 實(shí)驗(yàn)過(guò)程

        使用本文構(gòu)建的模型針對(duì)本文構(gòu)建的數(shù)據(jù)集進(jìn)行訓(xùn)練(如圖6所示),得到吸煙檢測(cè)模型.將監(jiān)控視頻作為輸入,吸煙檢測(cè)模型讀取視頻中每一幀圖像,用吸煙檢測(cè)模型先針對(duì)人的臉部進(jìn)行檢測(cè),若圖像中不存在人的臉部則判斷不存在吸煙行為;若存在則針對(duì)煙支進(jìn)行檢測(cè),只有當(dāng)檢測(cè)到煙支且煙支位置與人的臉部位置重合,同時(shí)煙支面積小于臉部面積1/3 時(shí),認(rèn)定存在吸煙行為.

        圖6 吸煙檢測(cè)流程

        3.3 實(shí)驗(yàn)結(jié)果

        本文模型在Ubuntu18系統(tǒng)上的RTX2080Ti上進(jìn)行訓(xùn)練,共進(jìn)行1 000次迭代,每個(gè)批次16張圖片,使用余弦退火衰減學(xué)習(xí)率,Adam優(yōu)化函數(shù)加快收斂速度.圖7(a)和圖7(b) 分別表示模型在訓(xùn)練過(guò)程中損失值的變化過(guò)程及吸煙檢測(cè)的mAP面積.

        (a)損失曲線 (b)AP

        本文算法與Faster RCNN、SSD、YOLOv3、YOLOv4等模型在本文數(shù)據(jù)集上進(jìn)行目標(biāo)檢測(cè)實(shí)驗(yàn).驗(yàn)證均使用GTX1050Ti顯卡,如表3所示,本文算法在檢測(cè)速度(FPS)和檢測(cè)精度(mAP)都比其他算法優(yōu)秀.在實(shí)際場(chǎng)景中的吸煙檢測(cè)效果如圖8所示.

        表3 不同算法在本文數(shù)據(jù)集中的表現(xiàn)

        (a)結(jié)果1-臉部 (b)結(jié)果1-臉部-煙支 (c)結(jié)果2-臉部 (d)結(jié)果2-臉部-煙支

        為了進(jìn)一步驗(yàn)證所構(gòu)建的目標(biāo)檢測(cè)模型對(duì)于小目標(biāo)的檢測(cè)能力,本文在公開(kāi)數(shù)據(jù)集AU-AIR2019[17]上進(jìn)行訓(xùn)練和測(cè)試.AU-AIR2019數(shù)據(jù)集是使用無(wú)人機(jī)針對(duì)戶外車輛和人員拍攝的視頻,經(jīng)過(guò)篩選取出32 823個(gè)關(guān)鍵幀圖像構(gòu)成的數(shù)據(jù)集.共包含汽車(car)、廂式貨車(van)、敞篷火車(truck)、人(human)、拖車(trailer)、自行車(bicycle)、公共汽車(bus)、摩托車(motorbike)等8個(gè)類別.本文檢測(cè)結(jié)果與基線(YOLOv3-Tiny、MobileNet-SSDLite)的對(duì)比如表4所示.本文算法在小目標(biāo)物體檢測(cè)任務(wù)中具有很好的效果.檢測(cè)效果如圖9所示.

        表4 不同算法在AU-AIR數(shù)據(jù)集中的表現(xiàn)

        (a)檢測(cè)結(jié)果1 (b)檢測(cè)結(jié)果2

        4 結(jié)束語(yǔ)

        為配合公共場(chǎng)所禁煙,本文構(gòu)建小目標(biāo)檢測(cè)模型,針對(duì)監(jiān)控圖像進(jìn)行吸煙行為檢測(cè).實(shí)驗(yàn)表明,針對(duì)煙支這種小目標(biāo)的檢測(cè)擁有很好的效果.模型主要從檢測(cè)的實(shí)時(shí)性和準(zhǔn)確性兩個(gè)方面出發(fā),在保持且略有增加準(zhǔn)確性的基礎(chǔ)上,有效提高檢測(cè)速度.為了實(shí)現(xiàn)檢測(cè)的實(shí)時(shí)性,本文采用單階段目標(biāo)檢測(cè)方案,并提出利用深度可分離卷積代替常規(guī)卷積作為本文基礎(chǔ)卷積層,減少了模型的參數(shù)量和計(jì)算量,提高了檢測(cè)效率.在提高準(zhǔn)確性方面,改進(jìn)殘差網(wǎng)絡(luò)和CSP 網(wǎng)絡(luò),將淺層的局部特征傳遞到更深層,避免了小目標(biāo)特征丟失的問(wèn)題,可以使用更深的網(wǎng)絡(luò)層;融合淺層的局部特征和深層的全局特征,提高小目標(biāo)檢測(cè)效果.為了提高模型的泛化能力和魯棒性,采用Mish激活函數(shù)獲取更加光滑的梯度,采用CIoU 提高邊界框回歸的精度,采用批歸一化提高模型的泛化能力,采用注意力機(jī)制衡量特征圖每個(gè)尺度的貢獻(xiàn)度.在自制吸煙數(shù)據(jù)集中有很好的表現(xiàn),但受限于自制數(shù)據(jù)集圖像數(shù)量較少和背景環(huán)境單一,在實(shí)際應(yīng)用環(huán)境中效果較弱,需要后期收集更多、環(huán)境因素更復(fù)雜的吸煙數(shù)據(jù)集,增加模型對(duì)復(fù)雜環(huán)境的泛化能力.

        猜你喜歡
        殘差卷積特征
        基于雙向GRU與殘差擬合的車輛跟馳建模
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        基于殘差學(xué)習(xí)的自適應(yīng)無(wú)人機(jī)目標(biāo)跟蹤算法
        如何表達(dá)“特征”
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠(chéng)的四個(gè)特征
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        抓住特征巧觀察
        平穩(wěn)自相關(guān)過(guò)程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        91精品国产免费青青碰在线观看| 日日躁夜夜躁狠狠躁| 国产av永久无码天堂影院| 欧美日韩中文制服有码| 精品亚洲人伦一区二区三区| 一区二区在线观看日本视频| 国语自产偷拍在线观看| 国产亚洲精久久久久久无码77777 丝袜足控一区二区三区 | 国产一区二区长腿丝袜高跟鞋| 波多野42部无码喷潮在线| 日本丶国产丶欧美色综合| 亚洲青青草视频在线播放| 精品一级一片内射播放| 国产av无码专区亚洲av蜜芽| 99热在线精品播放| 亚洲av日韩一区二三四五六七| 国产自拍偷拍精品视频在线观看| 国产精品第一国产精品| 91亚洲国产成人aⅴ毛片大全| 国产美女冒白浆视频免费| 国产精品国产三级国产aⅴ下载| 国产香蕉尹人在线观看视频| 国产av一区二区三区丝袜| 特级国产一区二区三区| 人人摸人人搞人人透| 国产最新网站| 日本高清长片一区二区| 久久免费看黄a级毛片| 国产成人无码一区二区三区在线| 爆乳日韩尤物无码一区| 精品亚洲av一区二区| 69av视频在线| 粉嫩的18在线观看极品精品| 日韩人妻另类中文字幕| 国产在线视频一区二区三区| 中出高潮了中文字幕| 国产精品一二三区亚洲| 精品无码国产自产拍在线观看蜜| 人妻少妇精品无码专区二| 亚洲第一页在线免费观看| 欧美激情肉欲高潮视频|