姜曉鳳,王保棟,夏英杰,李金屏
(濟(jì)南大學(xué) 信息科學(xué)與工程學(xué)院,山東 濟(jì)南 250022;山東省網(wǎng)絡(luò)環(huán)境智能計(jì)算技術(shù)重點(diǎn)實(shí)驗(yàn)室(濟(jì)南大學(xué)), 山東 濟(jì)南 250022;山東省“十三五”高校信息處理與認(rèn)知計(jì)算重點(diǎn)實(shí)驗(yàn)室(濟(jì)南大學(xué)),山東 濟(jì)南 250022)
吸煙對(duì)自己和他人的身體健康會(huì)造成很大危害,同時(shí)吸煙也會(huì)污染環(huán)境,稍有不慎還會(huì)引發(fā)火災(zāi)。因此,吸煙行為檢測(cè)得到學(xué)者越來越多的重視。公共場(chǎng)所吸煙行為檢測(cè)的方法主要分為基于傳感器和基于視覺的吸煙行為檢測(cè)。基于傳感器的吸煙行為檢測(cè)方法主要通過煙霧傳感器、可穿戴傳感器[1]等。但是,由于香煙煙霧易擴(kuò)散,容易受到環(huán)境的干擾,煙霧傳感器很難適用于公共場(chǎng)所吸煙行為檢測(cè),而可穿戴傳感器一般只適用于主動(dòng)戒煙人群。因此,基于計(jì)算機(jī)視覺的吸煙行為檢測(cè)得到越來越多的關(guān)注,主要方法分為基于傳統(tǒng)算法和基于深度學(xué)習(xí)的吸煙行為檢測(cè)。
傳統(tǒng)算法的吸煙行為檢測(cè)主要從香煙煙霧方面考慮,利用煙霧的顏色特征和變化特征進(jìn)行分析,如汪祖云等利用香煙煙霧在HSV顏色空間下特有的顏色特征實(shí)現(xiàn)對(duì)疑似煙霧區(qū)域的定位,分析煙霧的面積變化速率特征和質(zhì)心相對(duì)角度正弦變化特征,對(duì)煙霧進(jìn)行檢測(cè)[2]。但在實(shí)際場(chǎng)景中,顏色很容易受到環(huán)境的影響,此方法只能針對(duì)特定場(chǎng)景下的吸煙行為檢測(cè)。
近年來,深度學(xué)習(xí)已經(jīng)廣泛應(yīng)用到各學(xué)科領(lǐng)域[3-5],因此部分學(xué)者利用深度學(xué)習(xí)來檢測(cè)人體吸煙行為。一些學(xué)者發(fā)現(xiàn)吸煙行為從點(diǎn)燃煙到吸入煙再到呼出煙的過程中,手部到嘴部的距離是有節(jié)奏、有規(guī)律的,一段時(shí)間內(nèi)的這種過程可以認(rèn)定為一個(gè)吸煙周期,將人體吸煙行為檢測(cè)轉(zhuǎn)化為基于深度學(xué)習(xí)的人體姿態(tài)估計(jì)問題來解決。劉婧等利用人體關(guān)節(jié)點(diǎn)信息,關(guān)注關(guān)節(jié)點(diǎn)的運(yùn)動(dòng)軌跡,檢測(cè)運(yùn)動(dòng)軌跡是否符合周期性規(guī)律進(jìn)行吸煙動(dòng)作識(shí)別[6]。由于吸煙行為和其他行為(如吃飯、打電話)存在一定的相似性,因此當(dāng)圖像中的手部動(dòng)作不清晰或不完整時(shí),很難準(zhǔn)確地檢測(cè)出吸煙行為。也有一些學(xué)者將吸煙行為檢測(cè)轉(zhuǎn)化為基于深度學(xué)習(xí)的煙頭目標(biāo)檢測(cè)問題來解決。其中,一類方法是首先找到圖片中人臉區(qū)域,在人臉區(qū)域找到煙頭,判斷是否存在吸煙行為,如李倩等將檢測(cè)到的人臉圖片作為煙支檢測(cè)區(qū)域,利用Faster R-CNN算法對(duì)初步判斷可能存在煙支的圖像進(jìn)行煙支目標(biāo)檢測(cè)并判斷是否存在吸煙行為[7-8];另一類方法是直接目標(biāo)定位嘴部,檢測(cè)嘴部區(qū)域是否存在香煙煙頭,判斷是否存在吸煙行為,如馬曉菲通過神經(jīng)網(wǎng)絡(luò)算法和回歸樹方法快速定位嘴部區(qū)域,采用殘差網(wǎng)絡(luò)對(duì)感興趣區(qū)(region of interest,ROI)內(nèi)目標(biāo)進(jìn)行檢測(cè)和狀態(tài)識(shí)別進(jìn)而判斷出吸煙行為[9]。但是,目標(biāo)檢測(cè)算法檢測(cè)煙頭極易識(shí)別出錯(cuò),并不能很好地檢測(cè)出吸煙行為,如圖1所示,圖中手持為粉筆錯(cuò)誤檢測(cè)為香煙。
圖1 目標(biāo)檢測(cè)煙頭誤報(bào)示例
因此,本文提出了一種基于人體關(guān)鍵點(diǎn)和YOLOv4的吸煙行為檢測(cè)方法,在利用深度學(xué)習(xí)對(duì)煙頭進(jìn)行目標(biāo)檢測(cè)的基礎(chǔ)上,加入人體關(guān)鍵點(diǎn)檢測(cè),通過計(jì)算距離、角度、時(shí)間周期判斷吸煙動(dòng)作是否發(fā)生。
由于煙頭目標(biāo)較小,用目標(biāo)檢測(cè)算法檢測(cè)香煙識(shí)別準(zhǔn)確率不高。通過對(duì)吸煙行為的大量觀察,發(fā)現(xiàn)人在吸煙時(shí),手部運(yùn)動(dòng)軌跡存在一定的周期性,因此本文在利用深度學(xué)習(xí)對(duì)煙頭進(jìn)行目標(biāo)檢測(cè)的基礎(chǔ)上,加入人體動(dòng)作信息綜合判斷是否存在吸煙行為。
本文方法首先獲取視頻每幀圖像中的人體和人臉關(guān)鍵點(diǎn);其次基于每個(gè)人的關(guān)鍵點(diǎn)位置找到手部的位置,計(jì)算出手部到嘴部的距離、手-肘-肩膀之間的角度、吸煙的時(shí)間周期,建立吸煙行為檢測(cè)判別模型,判斷是否有吸煙動(dòng)作;然后利用YOLOv4檢測(cè)圖像中是否存在香煙煙頭;最后結(jié)合以上兩方面,當(dāng)人們的行為滿足吸煙動(dòng)作規(guī)則和圖像中存在香煙煙頭時(shí),判斷人們存在吸煙行為。本文方法流程圖如圖2所示。
圖2 吸煙檢測(cè)整體流程圖
人體的日常行為通常以人體某個(gè)點(diǎn)為基礎(chǔ)帶動(dòng)動(dòng)作發(fā)生,因此找到人體各個(gè)部位的關(guān)鍵點(diǎn)是檢測(cè)吸煙動(dòng)作的前提。通過對(duì)現(xiàn)有姿態(tài)估計(jì)方法的研究發(fā)現(xiàn),在人體關(guān)鍵點(diǎn)檢測(cè)方面,AlphaPose采用自頂向下的方法能及時(shí)準(zhǔn)確地檢測(cè)到人體關(guān)鍵點(diǎn);在人臉關(guān)鍵點(diǎn)檢測(cè)方面,RetinaFace采用MobilenetV1-0.25和Resnet兩種網(wǎng)絡(luò)作為主干特征提取網(wǎng)絡(luò),其中MobilenetV1-0.25可以在CPU上實(shí)現(xiàn)實(shí)時(shí)檢測(cè),Resnet可以實(shí)現(xiàn)更高的精度。基于上述分析,本文利用AlphaPose獲得14個(gè)人體關(guān)鍵點(diǎn)的位置信息,主要利用的關(guān)鍵點(diǎn)有右(左)手腕、右(左)手肘、右(左)腳、右(左)肩膀,如圖3a所示。由于手與手腕、肘的斜率相同,調(diào)查發(fā)現(xiàn)吸煙時(shí)手彎曲的長(zhǎng)度占胳膊長(zhǎng)度的0.4,按照0.4的比例計(jì)算得到右(左)手坐標(biāo)值。利用RetinaFace檢測(cè)出圖像中人臉5個(gè)關(guān)鍵點(diǎn),分別是左眼、右眼、鼻子、左嘴角、右嘴角,如圖3b所示。將AlphaPose和RetinaFace兩個(gè)模型進(jìn)行結(jié)合,得到每一幀圖像中人體人臉關(guān)鍵點(diǎn),如圖3c所示。
圖3 關(guān)鍵點(diǎn)顯示
通過日常對(duì)吸煙行為的大量觀察發(fā)現(xiàn),吸煙動(dòng)作存在一定規(guī)律。在一個(gè)人吸煙行為的開始階段,其手部慢慢靠近嘴部,手部與嘴部的距離越來越近;在吸煙行為的過程階段,其手部會(huì)在嘴部停留片刻,手部與嘴部的距離保持不變;在吸煙行為的結(jié)束階段,其手部慢慢遠(yuǎn)離嘴部,手部與嘴部的距離越來越遠(yuǎn)。在吸煙過程中,吸煙動(dòng)作反復(fù)呈現(xiàn)上述規(guī)律直到停止吸煙,因此選擇手部與嘴部的距離作為吸煙行為的基本特征之一。
利用AlphaPose和RetinaFace獲得人體關(guān)鍵點(diǎn)的位置信息,通過手部與嘴部位置坐標(biāo),計(jì)算手部與嘴部中心之間的距離,即
(1)
式中:(x1,y1)表示手部位置坐標(biāo);(x2,y2)表示嘴部位置坐標(biāo)。
由于不同人的行為習(xí)慣不同,拿香煙的慣用手選擇也會(huì)不同,故并行判斷左(右)手與嘴部的位置關(guān)系。
在不同場(chǎng)景中,整個(gè)人體在圖像中的大小不同,手部與嘴部之間的距離會(huì)隨著人體在圖像中的大小而有所不同,因此對(duì)手部與嘴部之間的距離d用比值的方法進(jìn)行歸一化處理,
(2)
式中:e表示手部與嘴部之間的距離歸一化后的數(shù)值;d表示手部與嘴部之間的距離;h表示人體的高度。
此外,吸煙動(dòng)作在角度特征上也存在一定的規(guī)律性。在一個(gè)人吸煙行為的開始階段,其手部慢慢靠近嘴部,手-肘-肩膀之間的角度會(huì)越來越小;在吸煙行為的過程階段,其手部會(huì)在嘴部停留片刻,手-肘-肩膀之間的角度保持不變;在吸煙行為的結(jié)束階段,其手部慢慢遠(yuǎn)離嘴部,手-肘-肩膀之間的角度越來越大。在吸煙過程中,吸煙動(dòng)作反復(fù)呈現(xiàn)上述規(guī)律直到停止吸煙,因此選擇手-肘-肩膀之間的角度作為吸煙行為的基本特征之一。
手-肘-肩膀的角度示意圖如圖4所示,根據(jù)獲得的手、肘、肩膀的位置坐標(biāo)信息計(jì)算手-肘-肩膀之間的角度,即
圖4 角度示意圖
(3)
式中:θ表示手-肘-肩膀之間的角度;a表示肘與肩膀之間的距離;b表示手與肩膀之間的距離;c表示手與肘之間的距離。考慮到吸煙者的慣用手不同,故并行判斷 左(右)手、左(右)肘與左(右)肩膀的位置關(guān)系。
利用提取的距離與角度信息,建立分類模型來判斷是否存在吸煙行為。通過對(duì)數(shù)據(jù)集的大量觀察,設(shè)置條件:e<0.26;θ<60°。當(dāng)滿足上述條件時(shí),記錄此時(shí)的時(shí)間t;當(dāng)上述條件不滿足時(shí),t為0。若滿足條件持續(xù)的時(shí)間f≥3 s且1 min內(nèi)次數(shù)s≥3次時(shí),認(rèn)為手部存在吸煙動(dòng)作。
YOLOv4算法在YOLOv3的基礎(chǔ)上,從數(shù)據(jù)處理、主干網(wǎng)絡(luò)、激活函數(shù)、損失函數(shù)等方面進(jìn)行優(yōu)化,使得模型在檢測(cè)精度和速度上有了進(jìn)一步提升。YOLOv4將CSPDarknet53作為骨干網(wǎng)絡(luò),將SPP和PANet結(jié)構(gòu)作為加強(qiáng)特征提取網(wǎng)絡(luò),使用CLOU作為回歸LOSS,使用Mish作為激活函數(shù),用來提取目標(biāo)特征。此外,YOLOv4在結(jié)構(gòu)上具有多尺度的特點(diǎn),通過上采樣把高層特征的語義信息傳播到低層網(wǎng)絡(luò)然后與底層特征的高分辨率信息相融合,提高了對(duì)小目標(biāo)檢測(cè)物體的檢測(cè)效果。結(jié)合YOLOv4檢測(cè)精度高、速度快且適用于小目標(biāo)物體檢測(cè)等特點(diǎn),本文采用YOLOv4模型對(duì)視頻中每一幀圖像進(jìn)行香煙煙頭檢測(cè),來判斷視頻中是否存在香煙。
首先,利用網(wǎng)絡(luò)爬蟲創(chuàng)建香煙煙頭檢測(cè)數(shù)據(jù)集,共包含5 000張圖像;然后,利用labelimg對(duì)3 000張圖像進(jìn)行標(biāo)注,標(biāo)注時(shí)將香煙用矩形框標(biāo)出,并設(shè)置標(biāo)簽為smoke;最后,使用YOLOv4算法進(jìn)行訓(xùn)練,設(shè)置學(xué)習(xí)率為0.001,批量大小為8,訓(xùn)練60輪,最終得到煙頭檢測(cè)模型。
為了驗(yàn)證本文方法的有效性,在Inter Xeon W-2133 CPU,RTX2080Ti GPU,16 GiB RAM,CUDA 10.1的計(jì)算機(jī)上進(jìn)行實(shí)驗(yàn);在室內(nèi)室外多種場(chǎng)景下錄制近距離單人全身視頻300個(gè)。視頻分為2類:一類是吸煙視頻200個(gè);另一類是其他行為如喝水、打電話等視頻100個(gè)。YOLOv4檢測(cè)香煙煙頭的測(cè)試集由采集的300個(gè)視頻和香煙煙頭檢測(cè)數(shù)據(jù)集中隨機(jī)選擇的2 000張圖像構(gòu)成。
對(duì)本文自制的數(shù)據(jù)集從距離、角度、時(shí)間周期進(jìn)行觀察分析,對(duì)每一類出現(xiàn)的規(guī)律隨機(jī)選用一個(gè)視頻的效果圖展示。
2.1.1 距離分析
從手部與嘴部之間的距離分析吸煙行為,實(shí)驗(yàn)結(jié)果如圖5所示。
圖5 吸煙與非吸煙者手部與嘴部的距離歸一化對(duì)比
圖5a為吸煙者手部與嘴部的距離變化過程,圖5b為非吸煙者手部與嘴部的距離變化過程。可以發(fā)現(xiàn),吸煙時(shí)人的手部與嘴部之間的距離呈現(xiàn)一定的周期性。當(dāng)吸煙行為正在發(fā)生時(shí),手部與嘴部之間的距離最近,吸煙需持續(xù)一段時(shí)間,即圖中波谷狀態(tài),e≈0.245;一次吸煙行為結(jié)束呼出煙霧的過程中,手部逐漸遠(yuǎn)離嘴部直至最遠(yuǎn),即圖中波峰狀態(tài),e≈0.285;如此反復(fù),直至吸煙結(jié)束。在吸煙的過程中,會(huì)出現(xiàn)手部的抖動(dòng)等現(xiàn)象,故圖中波谷處會(huì)有上下波動(dòng)。
2.1.2 角度分析
從手-肘-肩膀之間的角度分析吸煙行為,實(shí)驗(yàn)結(jié)果如圖6所示。圖6a為吸煙者手-肘-肩膀之間的角度變化過程,圖6b為非吸煙者手-肘-肩膀之間的角度變化過程??梢园l(fā)現(xiàn),吸煙時(shí)人的手-肘-肩膀之間的角度呈現(xiàn)一定的周期性。當(dāng)吸煙行為正在發(fā)生時(shí),手-肘-肩膀之間構(gòu)成的角度最小,即圖中波谷處,θ≈40°;吸煙行為結(jié)束呼出煙霧的過程中,手慢慢遠(yuǎn)離嘴部,手-肘-肩膀之間構(gòu)成的角度逐漸變大至最大即圖中波峰處,θ≈140°;如此反復(fù),直至吸煙結(jié)束。
圖6 吸煙與非吸煙者手-肘-肩膀之間的角度對(duì)比
2.1.3 時(shí)間周期分析
分析吸煙行為時(shí),從手部與嘴部之間的距離和手-肘-肩膀之間的角度出發(fā)進(jìn)行多個(gè)視頻測(cè)試,發(fā)現(xiàn)人在吸煙時(shí),e≈0.26,θ≈60°。因此,設(shè)置閾值:當(dāng)e<0.26,θ<60°時(shí),認(rèn)為人可能有吸煙動(dòng)作,記錄此時(shí)的時(shí)間;當(dāng)不滿足條件時(shí),設(shè)置此時(shí)的時(shí)間為0。實(shí)驗(yàn)結(jié)果如圖7所示,圖7a為吸煙者時(shí)間變化曲線,圖7b為非吸煙者時(shí)間變化曲線??梢园l(fā)現(xiàn),吸煙者的吸煙時(shí)間呈現(xiàn)一定的規(guī)律性。
圖7 吸煙與非吸煙者時(shí)間對(duì)比
調(diào)查發(fā)現(xiàn),不同人雖然吸煙時(shí)的習(xí)慣不同,但是吸一次煙的時(shí)間一般在20 s左右,因此若每次吸煙的時(shí)間t≥3 s且一分鐘內(nèi)次數(shù)s≥3次時(shí),認(rèn)為有吸煙動(dòng)作,并畫出人體的ROI區(qū)域,如圖8a所示;若沒有吸煙行為,則不畫,如圖8b所示。
圖8 吸煙行為檢測(cè)
為了驗(yàn)證基于人體關(guān)鍵點(diǎn)的吸煙行為檢測(cè)方法的準(zhǔn)確性,本文采用準(zhǔn)確率Ac、召回率Rc指標(biāo)對(duì)該方法進(jìn)行評(píng)價(jià)。
(4)
(5)
式中:TP表示檢測(cè)到吸煙者吸煙,實(shí)際上存在吸煙者吸煙;TN表示未檢測(cè)到吸煙者吸煙,實(shí)際不存在吸煙者吸煙;FP檢測(cè)到吸煙者吸煙,實(shí)際上不存在吸煙者吸煙;FN表示未檢測(cè)到吸煙者吸煙,實(shí)際上存在吸煙者吸煙。通過計(jì)算,Ac=90.1%,Rc=91.2%。
利用創(chuàng)建的測(cè)試集測(cè)試煙頭檢測(cè)模型,測(cè)試效果如圖9所示。對(duì)于存在煙頭的圖像(如圖9a所示),使用了紅色方框進(jìn)行標(biāo)注,添加smoke字樣,并給出置信度數(shù)值。對(duì)于未檢測(cè)到煙頭的圖像(如圖9b所示),沒有任何的顯示。對(duì)于完全露出的香煙,本模型給出了正確的檢測(cè)結(jié)果;但對(duì)于被遮擋的香煙,本模型的識(shí)別能力較弱。最終得出,Ac=91.8%,Rc=92.3%。
圖9 香煙煙頭檢測(cè)結(jié)果
本文方法將基于人體關(guān)鍵點(diǎn)的吸煙行為檢測(cè)方法與基于YOLOv4的煙頭檢測(cè)方法相結(jié)合。當(dāng)行為檢測(cè)判定人體存在吸煙動(dòng)作且YOLOv4檢測(cè)出煙頭時(shí),認(rèn)定人體一定存在吸煙行為;當(dāng)行為檢測(cè)判定人體不存在吸煙動(dòng)作但YOLOv4檢測(cè)出煙頭時(shí),認(rèn)定人體較大可能存在吸煙行為;當(dāng)行為檢測(cè)判定人體存在吸煙動(dòng)作但YOLOv4為檢測(cè)出煙頭時(shí),認(rèn)定人體可能存在吸煙行為;當(dāng)行為檢測(cè)判定人體不存在吸煙動(dòng)作且YOLOv4未檢測(cè)出煙頭時(shí),認(rèn)定人體一定不存在吸煙行為。實(shí)驗(yàn)結(jié)果見圖10。通過計(jì)算,本文方法的Ac=95.0%,Rc=94.1%。
圖10 實(shí)驗(yàn)結(jié)果
在本文自建的數(shù)據(jù)集上,使用基于人體關(guān)鍵點(diǎn)的吸煙行為檢測(cè)方法、基于YOLOv4檢測(cè)香煙方法以及本文算法進(jìn)行了實(shí)驗(yàn)??梢钥吹剑疚奶岢鰴z測(cè)方法的準(zhǔn)確率和召回率要高于其他方法(如表1所示),表明本文方法優(yōu)于之前只從吸煙動(dòng)作或香煙方面檢測(cè)吸煙行為的方法[10-17]。
表1 不同方法在本文數(shù)據(jù)集上的檢測(cè)結(jié)果
為了檢測(cè)本文算法的普適性和實(shí)用性,將本文方法分別與其他吸煙行為檢測(cè)方法進(jìn)行對(duì)比:基于深度學(xué)習(xí)的實(shí)時(shí)吸煙檢測(cè)算法[1],即使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)攝像頭所拍攝的視頻進(jìn)行處理,經(jīng)過圖像特征提取、特征融合、目標(biāo)分類以及目標(biāo)定位等過程,定位煙頭的位置,進(jìn)而判斷出吸煙行為;基于人體關(guān)節(jié)點(diǎn)的多人吸煙動(dòng)作識(shí)別算法[6],即利用人體關(guān)節(jié)點(diǎn)信息,檢測(cè)關(guān)節(jié)點(diǎn)的運(yùn)動(dòng)軌跡是否符合周期性規(guī)律從而實(shí)現(xiàn)吸煙動(dòng)作識(shí)別。比較結(jié)果如表2所示,基于深度學(xué)習(xí)的實(shí)時(shí)吸煙檢測(cè)算法[1]與基于人體關(guān)節(jié)點(diǎn)的多人吸煙動(dòng)作識(shí)別算法[6]的準(zhǔn)確率相對(duì)較低。由于香煙目標(biāo)較小,所以基于深度學(xué)習(xí)的實(shí)時(shí)吸煙檢測(cè)算法[1]檢測(cè)煙頭時(shí),易識(shí)別出錯(cuò),并不能很好地檢測(cè)出吸煙行為;基于人體關(guān)節(jié)點(diǎn)的多人吸煙動(dòng)作識(shí)別算法[6]只是從吸煙行為的周期性進(jìn)行判斷,不能很好地區(qū)分一些類似行為如喝水、打電話等,具有一定的片面性。對(duì)比結(jié)果顯示,本文方法的準(zhǔn)確率較高,具有較好的效果。
表2 不同方法檢測(cè)吸煙行為的結(jié)果對(duì)比
針對(duì)僅使用目標(biāo)檢測(cè)檢測(cè)公共場(chǎng)所下的吸煙行為準(zhǔn)確率不高的問題,本文提出了一種基于人體關(guān)鍵點(diǎn)和YOLOv4的吸煙行為檢測(cè)方法。首先,在傳入視頻的每一幀圖像中獲得人體和人臉的關(guān)鍵點(diǎn),將這些關(guān)鍵點(diǎn)進(jìn)行個(gè)人匹配;其次,基于每個(gè)人的關(guān)鍵點(diǎn)位置找到手部的位置,計(jì)算出手部到嘴部的距離、手-肘-肩膀之間的角度、吸煙的時(shí)間周期,設(shè)置吸煙行為規(guī)則,判斷是否有吸煙動(dòng)作;然后,檢測(cè)圖像中是否存在香煙煙頭;最后,結(jié)合以上兩方面,當(dāng)滿足吸煙動(dòng)作規(guī)則且圖像中存在煙頭時(shí),判斷人們存在吸煙行為。實(shí)驗(yàn)結(jié)果表明,在自采集的吸煙數(shù)據(jù)中,該方法能夠及時(shí)有效地檢測(cè)出吸煙行為。
但是,本文提出的方法還存在一定的局限性。例如,當(dāng)人們距離監(jiān)控較遠(yuǎn)時(shí),圖像不清晰無法檢測(cè)到人體關(guān)鍵點(diǎn)或?qū)⑽矬w誤測(cè)成人體。不同場(chǎng)景下人的姿勢(shì)也不同,人之間會(huì)出現(xiàn)遮擋問題,不能得出很好的檢測(cè)結(jié)果。本文提出的方法主要針對(duì)單人吸煙行為進(jìn)行檢測(cè),檢測(cè)多人吸煙行為仍需進(jìn)一步探究。