亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于時空域深度神經(jīng)網(wǎng)絡(luò)的野火視頻煙霧檢測

        2019-09-13 03:38:32高聯(lián)欣宋巖貝李佳欣
        關(guān)鍵詞:煙霧卷積特征

        張 斌 魏 維 高聯(lián)欣 宋巖貝 李佳欣

        (成都信息工程大學(xué)計(jì)算機(jī)學(xué)院 四川 成都 610225)

        0 引 言

        在現(xiàn)實(shí)生活中,火災(zāi)突發(fā)性難以控制,特別是野外森林火災(zāi)的發(fā)生不僅會使自然生態(tài)系統(tǒng)遭到嚴(yán)重破壞,而且還會對人類生命財產(chǎn)構(gòu)成了嚴(yán)重威脅。由于煙霧的出現(xiàn)早于火焰之前,因此開發(fā)一種有效的早期森林火災(zāi)煙霧的檢測方法具有重大的理論和現(xiàn)實(shí)意義。目前,研究者們在文獻(xiàn)中提出的基于視頻的火災(zāi)煙霧檢測算法大多集中在顏色和形狀等特征上,他們通常構(gòu)建一個多維特征向量,然后作為SVM、神經(jīng)網(wǎng)絡(luò)、Adaboost等分類算法的輸入。

        文獻(xiàn)[1]提出一種基于圖像處理技術(shù)的特征提取算法和基于計(jì)算智能策略的分類器來檢測煙霧的方法。該方法在檢測過程著重于提取煙霧的顏色特征、邊緣特征和運(yùn)動區(qū)域檢測等,然后使用兩層前饋神經(jīng)網(wǎng)絡(luò)來判別不同幀中的煙霧的區(qū)域,但是該算法對于野外復(fù)雜場景下的煙霧檢測適用范圍有限。文獻(xiàn)[2]提出了一種基于時空特征袋(BOF)模型的特征提取方法,他們從當(dāng)前幀塊中提取HOG作為空間特征,并且基于由熱對流而使煙霧擴(kuò)散方向向上的事實(shí),提取HOOF作為時間特征。通過結(jié)合靜態(tài)和動態(tài)特征,最后通過隨機(jī)森林分類器進(jìn)行分類,該方法檢測效果良好。文獻(xiàn)[3]通過連接局部二值模式(LBP)和基于局部二值模式方差(LBPV)金字塔的直方圖序列提取了一個有效的特征向量,并采用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行煙霧檢測識別,但是該算法對于稀薄煙霧的檢測效果較差。文獻(xiàn)[4]通過高斯混合模型(GMM)進(jìn)行背景建模后提取疑似煙霧區(qū)域,并通過NR-LBP(非冗余局部二進(jìn)制模式)特征描述煙霧紋理,然后通過支持向量機(jī)進(jìn)行分類,但是在檢測野外火災(zāi)煙霧下會出現(xiàn)誤判。文獻(xiàn)[5]首先使用背景差分法找出運(yùn)動目標(biāo)區(qū)域,然后設(shè)置一個采樣緩沖區(qū)進(jìn)行運(yùn)動區(qū)域檢測,接著利用自定義閾值函數(shù)進(jìn)行煙霧的顏色、面積增長率和運(yùn)動方向的分析,最后根據(jù)這些特征進(jìn)行分類識別,但是該方法對于野外遠(yuǎn)距離煙霧檢測效果較差。

        傳統(tǒng)的視頻火災(zāi)煙霧檢測方法通過依靠專業(yè)知識來手工設(shè)計(jì)的相關(guān)特征,然后創(chuàng)建基于規(guī)則的模型和判別特征。但這樣的研究方法不能很好地適用于各種情況。近年來,基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)模型在圖像分類[6]和物體檢測[7]等多個計(jì)算機(jī)視覺應(yīng)用領(lǐng)域中,與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比具有更強(qiáng)大的特征學(xué)習(xí)和特征表達(dá)能力。Xu等[8]在視頻圖像序列上利用AlexNet網(wǎng)絡(luò)結(jié)構(gòu)檢測人造的煙霧圖像,準(zhǔn)確率最高達(dá)到了94.7%。Frizzi等[9]構(gòu)建了自己的CNN,類似于著名的LeNet-5網(wǎng)絡(luò)結(jié)構(gòu),增加了卷積層中的特征圖數(shù)量。作者在真實(shí)的煙霧場景進(jìn)行測試,達(dá)到了97.9%的精確度,這比傳統(tǒng)的機(jī)器學(xué)習(xí)方法的性能更高。陳俊周等[10]提出了一種級聯(lián)的卷積神經(jīng)網(wǎng)絡(luò)煙霧識別框架,他們將CNN引入到煙霧的靜態(tài)紋理和動態(tài)紋理中以進(jìn)行特征提取,該方法有效降低了非煙霧區(qū)域的誤檢率。

        CNN直接在原始RGB幀上運(yùn)行,而不需要特征提取階段。雖然目前很多文章中使用更深層次的CNN網(wǎng)絡(luò)結(jié)構(gòu)來提取特征,但它們并沒有利用上時域中的特征。煙霧具有動態(tài)性,它會隨著時間的變化而改變形狀,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)則可以累積一組連續(xù)幀之間的運(yùn)動信息。因此,本文提出使用CNN和RNN的組合來進(jìn)行視頻煙霧的檢測,詳細(xì)的煙霧檢測框架如圖1所示。

        圖1 基于時空域深度神經(jīng)網(wǎng)絡(luò)的野火視頻煙霧檢測框架

        算法首先通過使用在文獻(xiàn)[11]中提出的煙霧運(yùn)動目標(biāo)檢測方法來檢測出視頻幀中的運(yùn)動區(qū)域;然后,將這些候選運(yùn)動區(qū)域作為空間流網(wǎng)絡(luò)的輸入以提取空域特征;為了充分利用視頻中煙霧的運(yùn)動信息,當(dāng)候選運(yùn)動區(qū)域被空間流網(wǎng)絡(luò)CNN識別為有煙時,則取出該區(qū)域左右相鄰兩幀圖像的相對應(yīng)區(qū)域,并對連續(xù)兩幀圖像通過時間流網(wǎng)絡(luò)進(jìn)行處理,以獲取相鄰幀中對應(yīng)區(qū)域之間的運(yùn)動信息,最后輸入給RNN進(jìn)行時間上的運(yùn)動特征累積,以進(jìn)一步降低誤檢?,F(xiàn)有的只利用空域特征的深層次CNN以及本文方法(去掉時間流網(wǎng)絡(luò)和RNN部分)進(jìn)行了對比實(shí)驗(yàn),結(jié)果表明,本文所提出的網(wǎng)絡(luò)模型實(shí)驗(yàn)結(jié)果表現(xiàn)出了較高的分類檢測準(zhǔn)確率,最后在多個真實(shí)視頻場景中進(jìn)行了測試,實(shí)驗(yàn)結(jié)果表明本文算法具有良好的準(zhǔn)確性和實(shí)時性。

        1 運(yùn)動目標(biāo)檢測

        常用的提取運(yùn)動目標(biāo)檢測的方法有:光流法、幀間差法和背景減除法等。本文的視頻煙霧檢測過程由運(yùn)動區(qū)域提取和對運(yùn)動區(qū)域進(jìn)行特征提取并分類識別這兩大部分組成,具體的視頻煙霧檢測框架如圖1所示。

        在圖像處理中,幀差法是一種通過對視頻圖像序列中相鄰兩幀作差分運(yùn)算來獲得運(yùn)動目標(biāo)輪廓的方法[12]。當(dāng)監(jiān)控場景中出現(xiàn)物體運(yùn)動時,通過差分圖像可以快速獲得運(yùn)動區(qū)域,但當(dāng)移動目標(biāo)快速運(yùn)動時就會出現(xiàn)“重影”和“孔洞”現(xiàn)象,但對于運(yùn)動較緩慢的煙霧,其檢測效果不理想。因此,根據(jù)幀差法的原理,本文使用在文獻(xiàn)[11]中提出的基于混合高斯模型和改進(jìn)的四幀差法相結(jié)合的算法來檢測運(yùn)動目標(biāo)。具體算法描述如下:

        (1) 通過改進(jìn)的四幀差法的算法和混合高斯模型分別對視頻圖像進(jìn)行運(yùn)動目標(biāo)檢測及背景建模以獲取前景圖像。

        (2) 將它們得到的圖像進(jìn)行邏輯“或”運(yùn)算并進(jìn)行形態(tài)學(xué)處理,目的是為了去除圖像中的噪聲以及空洞現(xiàn)象等,最終提取出比較完整的運(yùn)動目標(biāo)區(qū)域。文獻(xiàn)[11]運(yùn)動目標(biāo)區(qū)域檢測的算法流程圖如圖2所示,算法最終對視頻的檢測結(jié)果如圖3所示。

        圖2 運(yùn)動目標(biāo)區(qū)域檢測流程圖

        圖3 運(yùn)動目標(biāo)檢測效果示例圖

        2 候選運(yùn)動區(qū)域縮放

        首先通過在文獻(xiàn)[11]中提出的算法從視頻幀中提取出疑似煙霧運(yùn)動區(qū)域,再通過空間流網(wǎng)絡(luò)來初步計(jì)算這些候選運(yùn)動區(qū)域是否含有煙霧的特征。因?yàn)榭臻g流網(wǎng)絡(luò)結(jié)構(gòu)對輸入圖片的大小是固定的,所以必須將這些疑似煙霧運(yùn)動區(qū)域的圖像數(shù)據(jù)轉(zhuǎn)換到固定的大小。因此我們采用插值縮放[13]的方法(這種方法很簡單,就是不管圖片的長寬比例,不管它是否扭曲,全部縮放成CNN輸入的大小),然后將這些縮放后的候選運(yùn)動區(qū)域輸入到CNN以提取用于初步確定該區(qū)域是煙霧域還是非煙霧域的特征。

        3 基于時空域深度神經(jīng)網(wǎng)絡(luò)的煙霧識別模型設(shè)計(jì)

        由于煙霧沒有固定的輪廓和顏色,在傳統(tǒng)的火災(zāi)煙霧圖像識別研究中,研究者們需要根據(jù)一定的專業(yè)和先驗(yàn)知識來手工設(shè)計(jì)和處理特征。然而基于手工設(shè)計(jì)和處理特征的傳統(tǒng)煙霧檢測算法難以描述煙霧的本質(zhì)屬性,從而影響煙霧檢測的準(zhǔn)確性。但是卷積神經(jīng)網(wǎng)絡(luò)不需要將特征提取和分類訓(xùn)練兩個過程分開,它在訓(xùn)練的時候就自動提取最有效的特征,具有強(qiáng)大的特征提取能力。同時CNN訓(xùn)練的模型對縮放、平移、旋轉(zhuǎn)等畸變具有不變性,有著很強(qiáng)的泛化性。因此,我們將縮放后的這些候選運(yùn)動區(qū)域作為空間網(wǎng)絡(luò)的輸入以提取空域特征,并在有煙的基礎(chǔ)上進(jìn)一步利用RNN進(jìn)行時間上的運(yùn)動特征累積,最后使用Softmax損失函數(shù)進(jìn)行分類識別。

        3.1 時間流網(wǎng)絡(luò)結(jié)構(gòu)

        空間流CNN架構(gòu)包括1個輸入層、4個卷積層、2個子采樣層、3個全連接層,我們利用Softmax回歸模型對最后1個全連接層進(jìn)行分類,以初步判斷該候選區(qū)域是否含有煙霧。具體設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        圖4 空間流網(wǎng)絡(luò)結(jié)構(gòu)

        空間流網(wǎng)絡(luò)的輸入大小為64×64的RGB彩色圖像,然后依次經(jīng)過兩次卷積運(yùn)算,取卷積核大小為5×5,步長為1,濾波數(shù)為32對輸入圖像進(jìn)行卷積。第三層為池化層,作用是對激活函數(shù)的結(jié)果再進(jìn)行池化操作,即降采樣。我們使用最大池化方法,保留最顯著的特征,并提升模型的畸變?nèi)萑棠芰?。池化層使用池化的核大小?×3,步長為2。第四和第五兩個卷積層的卷積核大小為3×3,步長為1。最后兩個全連接層每層有60個神經(jīng)元,輸出層有2個神經(jīng)元,分別與最后的分類結(jié)果(有煙霧與無煙霧)相對應(yīng)。為避免在全連接層上出現(xiàn)過擬合的現(xiàn)象,在全連接層中,網(wǎng)絡(luò)采用Dropout[14]方法避免過擬合情況的發(fā)生。在每一個卷積層后用一個修正線性單元(Rectified Linear Unit,ReLU)激活函數(shù),目的是將前面卷積核的濾波輸出結(jié)果,進(jìn)行非線性的激活函數(shù)處理。ReLU激活函數(shù)[15]的公式如下:

        f(x)=max(0,x)

        (1)

        當(dāng)輸入特征值x<0時,輸出為0,訓(xùn)練完成后為0的神經(jīng)元越多,稀疏性越大,提取出來的特征就越具有代表性,泛化能力越強(qiáng);當(dāng)輸入特征值x>0時,輸出等于輸入,無梯度耗散問題,收斂快。

        3.2 運(yùn)動流網(wǎng)絡(luò)結(jié)構(gòu)

        在實(shí)際應(yīng)用中, 霧氣、云等都可能與火災(zāi)煙霧具有相似的特征,但火災(zāi)煙霧會隨著時間的變化而改變它的形狀。光流原理是利用圖像序列中像素在時間域上的變化以及相鄰幀之間的相關(guān)性來找到上一幀跟當(dāng)前幀之間存在的對應(yīng)關(guān)系,從而計(jì)算出相鄰幀之間物體的運(yùn)動信息的一種方法[16]。因此,為進(jìn)一步充分利用視頻中煙霧的運(yùn)動信息,當(dāng)候選運(yùn)動區(qū)域被空間流網(wǎng)絡(luò)CNN識別為有煙后,提取該煙霧區(qū)域左右相鄰兩幀圖像的相對應(yīng)區(qū)域,并對連續(xù)兩幀圖像通過時間流網(wǎng)絡(luò)進(jìn)行處理,以獲取相鄰幀中對應(yīng)區(qū)域之間的運(yùn)動信息,最后輸入給RNN進(jìn)行時間上的運(yùn)動特征累積,以進(jìn)一步降低誤檢。

        時間流網(wǎng)絡(luò)包含了4個卷積層,在每個卷積層之后使用非線性函數(shù)Tanh函數(shù)。把該煙霧相對應(yīng)區(qū)域左右相鄰兩幀圖像的連續(xù)兩幀作為輸入,輸入大小為64×64×4。每一層具體網(wǎng)絡(luò)參數(shù)設(shè)置如表1所示,網(wǎng)絡(luò)的最后一層是全連接層,輸出向量為60維。

        表1 時間流網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù)設(shè)置

        續(xù)表1

        3.3 運(yùn)動信息累積

        在煙霧檢測問題中,累積的運(yùn)動信息非常有用,為了更好地提取視頻序列中運(yùn)動背景信息的運(yùn)動特征,我們采用RNN網(wǎng)絡(luò),該網(wǎng)絡(luò)可以處理任意長度的時間序列,從而可以通過該神經(jīng)網(wǎng)絡(luò)解決聚合運(yùn)動上下文信息的問題。尤其是RNN網(wǎng)絡(luò)具有前饋連接,其允許在一段時間內(nèi)保存信息并基于當(dāng)前幀和前一幀的信息產(chǎn)生輸出。一個標(biāo)準(zhǔn)的RNN結(jié)構(gòu)圖如圖5所示,對于給定的RNN網(wǎng)絡(luò),橫向連接用作存儲器單元,其允許在任何時間的信息流動。

        圖5 一個標(biāo)準(zhǔn)的RNN結(jié)構(gòu)圖

        圖5中,x、h和o分別表示輸入層、隱藏層和輸出層,L為損失函數(shù),y為訓(xùn)練集的標(biāo)簽,t代表t時刻的狀態(tài),V、W、U是權(quán)值。則RNN在t時刻的輸出以及最終模型的預(yù)測輸出如下所示:

        o(t)=Vh(t)+c

        (2)

        (3)

        式中:σ為激活函數(shù),一般使用Tanh函數(shù)。

        4 實(shí) 驗(yàn)

        本文使用Keras[17]和Tensorflow[18]來構(gòu)建和訓(xùn)練所提出的CNN模型。為了便于比較,我們還使用Keras和Tensorflow實(shí)現(xiàn)了其他3個經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)以及一個具有深層次的網(wǎng)絡(luò)VGG-16。所有的實(shí)驗(yàn)都是在配備Intel(R) Core i3-6100 CPU @ 3.70 GHz和NVIDIA Tesla M40 GPU的PC上運(yùn)行的Ubuntu 16.04操作系統(tǒng)中進(jìn)行的。實(shí)驗(yàn)中還使用到OpenCV-3.1.0庫和Python 3.5。

        4.1 數(shù)據(jù)集

        空間流網(wǎng)絡(luò)的實(shí)驗(yàn)數(shù)據(jù)集圖片來源于袁非牛教授實(shí)驗(yàn)室。數(shù)據(jù)集分為4組,分別命名為Set1、Set2、Set3和Set4。Set1有1 383張圖像,Set2有1 505張圖像,Set3有10 712張圖像,Set4有10 617張圖像。我們將Set3和Set4合并作為一個訓(xùn)練集,共計(jì)21 329張圖像;將Set1和Set2合并作為一個測試集,共計(jì)2 888張圖像。

        如圖6所示,煙霧和非煙霧的內(nèi)部和外部類別差異非常大。圖6展示了數(shù)據(jù)集中的一些示例圖像,所有圖像都來自生活中真實(shí)的場景。

        (a) 煙霧圖像 (b) 非煙霧圖像圖6 部分圖像數(shù)據(jù)集示例

        我們將來源于土耳其比爾肯大學(xué)信號處理小組、韓國啟明大學(xué)計(jì)算機(jī)視覺和模式識別實(shí)驗(yàn)室、意大利薩萊諾大學(xué)機(jī)器智能實(shí)驗(yàn)室、內(nèi)華達(dá)大學(xué)雷諾分校的計(jì)算機(jī)視覺實(shí)驗(yàn)室的野外火災(zāi)煙霧數(shù)據(jù)集,以及從YouTube、Youku等視頻網(wǎng)站收集并截取出大量野外火災(zāi)煙霧的視頻段,構(gòu)建為一個新的共5 000個視頻段的時間流網(wǎng)絡(luò)數(shù)據(jù)集。其中有煙和無煙部分分別從有煙視頻與無煙視頻中截取,且均不與測試視頻重復(fù)。實(shí)驗(yàn)中隨機(jī)選擇80%樣本作為訓(xùn)練集,其余的作為測試集。

        圖7 部分視頻集數(shù)據(jù)示例

        4.2 網(wǎng)絡(luò)模型訓(xùn)練

        本文實(shí)驗(yàn)是基于Keras[17]平臺實(shí)現(xiàn)的,且卷積網(wǎng)絡(luò)模型的訓(xùn)練使用了GPU并行處理。CNN使用4.1節(jié)中的數(shù)據(jù)集進(jìn)行訓(xùn)練。在訓(xùn)練過程中,我們選擇了Adam optimizer[19]來優(yōu)化網(wǎng)絡(luò)損耗,Epoch設(shè)置為200,一次處理圖片的最小輸入的數(shù)量(BATCH_SIZE)為64,設(shè)置動量系數(shù)為0.9和權(quán)重衰減值為0.000 5,初始學(xué)習(xí)率為0.001,學(xué)習(xí)率在每10 epoch后縮小0.95倍。

        4.3 評價指標(biāo)

        對于林火視頻煙霧檢測的性能測試,我們使用文獻(xiàn)[20]提出的評估方法,公式如下:

        (4)

        (5)

        (6)

        式中:ACC表示準(zhǔn)確率,N為樣本總數(shù);TPR表示被預(yù)測為煙霧的煙霧樣本結(jié)果數(shù),即檢測率;TNR表示被預(yù)測為非煙霧的非煙霧樣本結(jié)果數(shù),即誤檢率;TP表示煙霧總數(shù)中正確檢測到煙霧的數(shù)量;FN表示未被識別的實(shí)際煙霧區(qū)域的數(shù);FP表示認(rèn)定為煙霧的非煙霧數(shù)量;TN表示認(rèn)定為非煙霧區(qū)域的非煙霧區(qū)域數(shù)量。

        將本文方法與AlexNet[15]、Frizzi[9]、文獻(xiàn)[21]中提出的算法以及和本文方法(去掉時間流網(wǎng)絡(luò))進(jìn)行了對比,F(xiàn)rizzi[9]中使用的是一個具有8層結(jié)構(gòu)的網(wǎng)絡(luò),而文獻(xiàn)[21]中則采用的是較深層次的網(wǎng)絡(luò)。我們基本上使用了4.2節(jié)中描述的與訓(xùn)練相關(guān)的超參數(shù),并根據(jù)不同的網(wǎng)絡(luò)架構(gòu)調(diào)整了輸入圖像的大小。為了公平比較,所有比較的算法都使用同一個訓(xùn)練集,并且所有的網(wǎng)絡(luò)模型都是從零開始訓(xùn)練。

        表2 與不同的方法比較結(jié)果

        從表2的數(shù)據(jù)結(jié)果可以分析出,與AlexNet、Frizzi和文獻(xiàn)[21]中煙霧檢測方法相比較,我們的方法在煙霧檢測準(zhǔn)確率和檢測率都有更好的表現(xiàn)。盡管AlexNet、Frizzi中和文獻(xiàn)[21]中的網(wǎng)絡(luò)在煙霧檢測方法檢測準(zhǔn)確率較高,但是這三種網(wǎng)絡(luò)結(jié)構(gòu)是無法累積一段視頻的上下文的運(yùn)動信息的。相比較而言,本文中的網(wǎng)絡(luò)模型在去掉時間流網(wǎng)絡(luò)和RNN單元之后,煙霧檢測的準(zhǔn)確率和檢測率都下降了至少1%,由此說明時間流網(wǎng)絡(luò)和RNN單元在本文的煙霧檢測框架中起著重要的作用,意味著RNN單元累積了有效的上下文運(yùn)動信息,這種上下文信息不僅能夠很好地學(xué)習(xí)到圖像的特征,還具有較高的檢測正確率,有利于提高煙霧檢測的準(zhǔn)確率。

        4.4 本文算法用于視頻煙霧檢測結(jié)果

        本文算法在多個視頻場景中進(jìn)行測試,鑒于篇幅有限,圖8僅列出9組視頻的檢測結(jié)果,其中視頻1至視頻5為含有煙霧的視頻,視頻6至視頻9為與無煙霧的干擾視頻,主要是自然景觀中的云霧,視頻圖像大小為320×240像素??梢钥闯霰疚乃惴ㄔ诙喾N場景下都具有良好的檢測效果和一定的抗干擾能力。

        圖8 9組測試視頻的檢測結(jié)果圖

        實(shí)驗(yàn)測試結(jié)果如表3、表4所示。從表3中可以看出,在視頻1中,文獻(xiàn)[21]的算法比本文方法提早檢測到煙霧,但本文算法在其他場景下的檢測性能都不錯。從表4中可以看出,在無煙霧的測試條件下,不同視頻場景中出現(xiàn)了與煙霧顏色相近的白霧、移動的烏云以及擺動的樹葉等干擾物,本文的算法在這些場景中都沒有出現(xiàn)誤檢的情況,這說明本文算法具有較強(qiáng)的抗干擾能力,但是其他四種算法相對來說有一定的誤檢??偠灾?,實(shí)驗(yàn)結(jié)果表明本文視頻煙霧檢測算法具有良好的準(zhǔn)確性和實(shí)時性,并證明了時間流網(wǎng)絡(luò)和RNN單元在本文的煙霧檢測框架中起著重要的作用,在視頻煙霧檢測方面有更好的表現(xiàn)。

        表3 有煙霧測試視頻的檢測結(jié)果

        表4 無煙霧測試視頻的檢測結(jié)果

        5 結(jié) 語

        傳統(tǒng)的煙霧檢測方法是從輸入圖像中手動提取特征,然后使用分類器對煙霧進(jìn)行分類和識別,這個過程通常比較復(fù)雜和繁瑣。本文提出一種基于時空域深度神經(jīng)網(wǎng)絡(luò)特征提取與分類的林火視頻煙霧檢測算法。算法提取出候選運(yùn)動區(qū)域的空域特征,當(dāng)候選運(yùn)動區(qū)域被空間流網(wǎng)絡(luò)CNN識別為有煙時,進(jìn)一步充分利用視頻中相鄰幀中對應(yīng)區(qū)域之間的運(yùn)動信息,最后輸入給RNN進(jìn)行時間上的運(yùn)動特征累積,以進(jìn)一步降低誤檢。與僅提取空域特征的煙霧檢測方法進(jìn)行了對比,實(shí)驗(yàn)結(jié)果表明,本文方法能夠在多個視頻場景下準(zhǔn)確檢測煙霧區(qū)域,檢測性能得到改善,降低了檢測失敗率,并且具有一定的抗干擾能力。

        猜你喜歡
        煙霧卷積特征
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        薄如蟬翼輕若煙霧
        如何表達(dá)“特征”
        影視劇“煙霧繚繞”就該取消評優(yōu)
        華人時刊(2019年13期)2019-11-26 00:54:38
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個特征
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        咸陽鎖緊煙霧與塵土
        抓住特征巧觀察
        會下沉的煙霧
        色av综合av综合无码网站| 亚洲在线视频免费视频| 18禁裸男晨勃露j毛网站| www国产亚洲精品久久网站| 野外三级国产在线观看| 色婷婷一区二区三区77| 大奶白浆视频在线观看| 精品水蜜桃久久久久久久 | 国产人成亚洲第一网站在线播放| 少妇人妻中文字幕在线| 亚洲精品国产精品乱码视色| 中文字幕一区二区三区乱码| 国产在线不卡免费播放| 情头一男一女高冷男女| 日本动漫瀑乳h动漫啪啪免费| 亚洲色大成网站www永久一区| 无码专区无码专区视频网址| 蜜桃视频羞羞在线观看| 18精品久久久无码午夜福利| 老熟女多次高潮露脸视频| 天堂av在线免费播放| 可免费观看的av毛片中日美韩| 4hu四虎永久在线观看| AV无码一区二区三区国产| 中国av一区二区三区四区| 无码专区人妻系列日韩精品| 色视频www在线播放国产人成| 亚洲国产日韩欧美高清片a| 韩国日本一区二区在线| 男女高潮免费观看无遮挡| 香蕉视频毛片| 国产av三级精品车模| 在厨房被c到高潮a毛片奶水| 国精产品一区二区三区| 一区二区三区四区亚洲综合| 神马影院日本一区二区| 国产高清在线精品一区二区三区| 亚洲地区一区二区三区| 自拍视频在线观看国产| 亚洲精品夜夜夜妓女网| 青春草国产视频|