亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于前景區(qū)域生成對抗網(wǎng)絡(luò)的視頻異常行為檢測研究

        2024-03-04 06:05:54鄺永年
        關(guān)鍵詞:前景檢測

        鄺永年,王 豐

        (廣東工業(yè)大學(xué) 信息工程學(xué)院, 廣東 廣州 510006)

        視頻異常行為檢測是計算機視覺應(yīng)用的重要領(lǐng)域。針對復(fù)雜的視頻監(jiān)控應(yīng)用場景,文獻[1]提出異常行為應(yīng)被定義為發(fā)生概率低的行為,文獻[2]提出異常行為是不可預(yù)測的行為。傳統(tǒng)的視頻異常行為檢測方法[1-5],主要基于視頻數(shù)據(jù)的動作特征和外觀特征。如基于動態(tài)紋理的概率模型[4]以及混合概率[5]的主成分分析,建模光流捕捉局部運動特征,實現(xiàn)視頻異常行為檢測。

        近年來,涌現(xiàn)出很多基于深度學(xué)習(xí)網(wǎng)絡(luò)的視頻異常行為檢測方法[6-12]?;诎氡O(jiān)督訓(xùn)練深度學(xué)習(xí)技術(shù)成為主流的視頻異常檢測方法。基于半監(jiān)督訓(xùn)練的視頻異常檢測方法需要重點設(shè)計重構(gòu)架構(gòu)或預(yù)測架構(gòu)。文獻[6]提出用卷積自動編碼器學(xué)習(xí)長時間視頻中運動模式的規(guī)律特征,并通過重構(gòu)誤差判斷是否存在異常行為。文獻[7]對自動編碼器添加記憶模塊,用于查詢檢索與重構(gòu)圖像最接近的內(nèi)存項;文獻[8]在自動編碼器中添加卷積長短記憶網(wǎng)絡(luò),補充時間信息。為檢測物體的外觀和運動信息,文獻[9]構(gòu)建由卷積自動編碼器和U型網(wǎng)絡(luò)(U-Net) 組成的深度卷積神經(jīng)網(wǎng)絡(luò)。在預(yù)測架構(gòu)中,以連續(xù)的視頻幀作為輸入,以一幀預(yù)測幀作為輸出。文獻[2]基于生成對抗網(wǎng)絡(luò),以U-Net為生成器,馬爾可夫判別器(Patch Generative Adversarial Networks, Patch GAN)[13]為判別器,并加入運動約束。文獻[10]向外觀自編碼器和動作自編碼器分別輸入連續(xù)幀圖和幀差圖進行預(yù)測。文獻[11]結(jié)合自動編碼器,補充深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)所欠缺的可解釋性,增強檢測視頻異常幀的能力。文獻[12]基于時空自注意力機制,通過增強圖卷積網(wǎng)絡(luò),捕捉人體關(guān)節(jié)的局部和全局信息,進而檢測判斷異常行為的發(fā)生。

        值得注意的是,當前基于半監(jiān)督訓(xùn)練深度學(xué)習(xí)技術(shù)的視頻異常幀異常行為檢測方法,主要是基于峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)準則,檢測準確率和運行時間有待改善。為改進半監(jiān)督訓(xùn)練深度學(xué)習(xí)網(wǎng)絡(luò)對視頻異常行為的檢測性能,本文通過區(qū)分視頻幀的前景與背景,增強前景信息和弱化背景信息,提出基于前景區(qū)域的峰值信噪比(Foreground area Peak Signal-to-Noise Ratio, F-PSNR)準則,能有效改進現(xiàn)有網(wǎng)絡(luò)的視頻異常行為檢測性能,并降低檢測運行時間。

        1 視頻異常行為檢測的網(wǎng)絡(luò)模型

        本文采用的深度學(xué)習(xí)網(wǎng)絡(luò)如圖1所示。將視頻流分解和處理成具有連續(xù)時間序列和相同尺寸的視頻幀。給定輸入連續(xù)t幀視頻幀,按順序輸入生成器網(wǎng)絡(luò),生成對應(yīng)第t+1幀實際幀的預(yù)測幀。通過加入強度、梯度、運動以及對抗約束,構(gòu)建出生成器網(wǎng)絡(luò)的損失函數(shù)。

        圖1 網(wǎng)絡(luò)架構(gòu)Fig.1 Network architecture

        1.1 生成器網(wǎng)絡(luò)

        U-Net網(wǎng)絡(luò)作為生成器網(wǎng)絡(luò),其包括編碼模塊和解碼模塊。編碼模塊通過卷積操作提取所需的圖像特征;解碼模塊通過反卷積操作恢復(fù)圖像幀。每次卷積或反卷積操作都會出現(xiàn)梯度消失以及信息缺失的問題。使用U-Net作為生成器網(wǎng)絡(luò),通過其特有的連接操作可以有效減少梯度消失以及信息缺失。每個卷積層的特征與其對應(yīng)的同分辨率的反卷積層的特征進行連接,作為下一個反卷積層的輸入。這種連接操作使網(wǎng)絡(luò)將淺層特征圖的信息通過與更高層的特征圖結(jié)合起來,保證了上下文信息的完整性。

        為使生成器網(wǎng)絡(luò)的預(yù)測視頻幀盡可能接近對應(yīng)的實際視頻幀,本文訓(xùn)練條件生成對抗網(wǎng)絡(luò),最小化其損失函數(shù)LG。其中,損失函數(shù)LG包含強度損失Lp、梯度損失Lg、 光流損失Lo以 及對抗損失LGa;λp、λg、λo、λa分 別為強度損失Lp、梯度損失Lg、光流損失Lo以及對抗損失LG

        a 在總損失函數(shù)中所占的權(quán)重,滿足λp+λg+λo+λa=1。

        具體的損失函數(shù)LG建模如下。

        式中:F?t+1、Ft+1分 別為生成的第t+1幀預(yù)測視頻幀和其相對應(yīng)實際幀。強度損失函數(shù)用來約束預(yù)測視頻幀F(xiàn)? 與實際視頻幀F(xiàn)之間的內(nèi)容差異,即保持生成的預(yù)測視頻幀的像素值在RGB空間上盡可能與實際視頻幀的像素值保持相似,建模如下。

        式中:F?、F分別為生成的預(yù)測視頻幀和其相對應(yīng)實際幀的像素數(shù)據(jù);F?i,j,k、Fi,j,k為該預(yù)測視頻幀其相對應(yīng)實際幀的在空間索引為 (i,j)處 第k通道的像素值;Row、C ol 為視頻幀行、列像素數(shù),C nl為視頻幀顏色通道數(shù)。

        梯度損失函數(shù)Lg用來約束預(yù)測視頻幀與實際視頻幀之間的邊緣梯度信息,銳化生成圖像,突出邊緣信息,建模如下。

        為了提取視頻中的運動信息,通過光流網(wǎng)絡(luò)(FlowNet) 模型生成光流圖。f(Ft+1,Ft)表示光流網(wǎng)絡(luò)計算連續(xù)2幀F(xiàn)t和Ft+1的光流圖。2幀視頻幀行、列像素數(shù)均為R ow、 Col。光流網(wǎng)絡(luò)生成的行、列像素數(shù)為Row、C ol,2個通道數(shù)的光流圖,第1個通道表示幀在水平方向即行方向的光流分量,第2個通道表示幀在垂直方向即列方向的光流分量。光流損失函數(shù)Lo建模如下。

        式中:fi,j,k(Ft+1,Ft)為 光流網(wǎng)絡(luò)計算2幀F(xiàn)t和Ft+1的光流圖在空間索引為(i,j)第k光流方向通道的光流分量值。

        生成對抗網(wǎng)絡(luò)由生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò)組成。生成器網(wǎng)絡(luò)的作用是通過學(xué)習(xí)訓(xùn)練集視頻的特征,在判別器網(wǎng)絡(luò)的指導(dǎo)下,輸出盡可能擬合為訓(xùn)練集視頻幀的真實分布,從而生成具有訓(xùn)練集特征的相似數(shù)據(jù)。而判別器網(wǎng)絡(luò)則負責(zé)區(qū)分輸入判別器網(wǎng)絡(luò)的視頻幀是真實視頻幀的還是生成器網(wǎng)絡(luò)生成的虛假視頻幀,并通過對抗學(xué)習(xí)中的對抗損失反饋給生成器網(wǎng)絡(luò)。生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò)交替訓(xùn)練,生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò)的對抗損失減少,判別器網(wǎng)絡(luò)能有效識別生成器網(wǎng)絡(luò)輸出的低質(zhì)量視頻幀,促使生成器網(wǎng)絡(luò)輸出判別器網(wǎng)絡(luò)難以識別的高質(zhì)量視頻幀。生成器網(wǎng)絡(luò)輸出視頻幀的質(zhì)量和判別器網(wǎng)絡(luò)的判別能力達到均衡。

        生成對抗網(wǎng)絡(luò)架構(gòu)能有效用于預(yù)測。在視頻異常行為檢測任務(wù)中,生成器網(wǎng)絡(luò)學(xué)習(xí)正常行為的連續(xù)視頻幀并預(yù)測下一幀,盡可能將預(yù)測幀擬合為其對應(yīng)的實際幀。加入判別器網(wǎng)絡(luò),形成生成對抗網(wǎng)絡(luò)架構(gòu)后,總體結(jié)構(gòu)模型簡單,提高了生成器生成預(yù)測幀圖像質(zhì)量,從而實現(xiàn)了較高的異常行為檢測精度。

        對抗學(xué)習(xí)通過區(qū)分實際視頻幀和生成的預(yù)測視頻幀,優(yōu)化生成對抗網(wǎng)絡(luò)的生成器與判別器。判別器的判別結(jié)果分為0和1,其中0和1分別代表假標簽以及真標簽。訓(xùn)練生成器網(wǎng)絡(luò)的目標是通過學(xué)習(xí)正常視頻幀的特征生成出更加接近實際視頻幀的預(yù)測視頻幀,即生成使判別器判斷為真標簽的視頻幀。因此,生成網(wǎng)絡(luò)的對抗損失函數(shù)建模為

        式中:D(·)i,j為判別器判斷視頻幀中空間索引(i,j)處為真標簽的概率,D(·)i,j∈[0,1]。

        1.2 判別器網(wǎng)絡(luò)

        本文生成對抗網(wǎng)絡(luò)的判別器網(wǎng)絡(luò)采用Patch GAN[13]。Patch GAN把一幅圖像劃分為若干圖像塊,最后輸出一個對應(yīng)圖像塊的判別結(jié)果的矩陣,判別結(jié)果分為0類和1類,其中0和1分別代表假標簽以及真標簽。像素點的判別結(jié)果即為其所屬圖像塊的判別結(jié)果。整張圖像的判別結(jié)果取所有圖像塊的判別結(jié)果的平均值。

        訓(xùn)練判別器時,生成器的權(quán)重是固定的。判別器網(wǎng)絡(luò)的目標是將生成器生成的視頻幀判斷為假標簽,將實際視頻幀判斷為真標簽。建模判別器的對抗損失函數(shù)為

        2 視頻異常行為得分函數(shù)

        2.1 前景提取

        本文提出的視頻異常行為檢測方法感興趣的區(qū)域為前景區(qū)域,因此需要先將前景區(qū)域提取出來。如圖2所示。本文中使用的前景提取方法為背景差分法的混合高斯模型(Mixture of Gaussians, MOG)算法[14],實際視頻幀通過前景提取獲取到前景掩碼后,再與掩碼進行與運算后得到實際視頻幀的前景區(qū)域。生成視頻幀通過與所對應(yīng)的實際視頻幀的前景掩碼進行與運算后得到生成視頻幀的前景區(qū)域。

        以幀F(xiàn)t+1說明前景掩碼矩陣Gt+1:前景提取器判斷圖像的像素點是否為前景,如該像素點為前景,則掩碼該像素點的值置1所對應(yīng)的地方,如為背景,則掩碼該像素點的值置0所對應(yīng)的地方,以此獲得前景掩碼二值矩陣Gt+1,Gt+1∈RRow×Col。

        2.2 前景區(qū)域峰值信噪比

        本文采用前景區(qū)域峰值信噪比F-PSNR作為計算兩幀差異值的判斷準則。定義前景區(qū)域峰值信噪比F-PSNR如下。

        當峰值信噪比數(shù)值越大時,預(yù)測視頻幀和實際視頻幀的相似度越高,表明該實際視頻幀是正常行為幀的概率越大;當峰值信噪比越小時,表示該視頻幀為異常行為幀的概率越大。

        2.3 異常行為檢測得分函數(shù)

        將測試集的F-PSNR數(shù)值作歸一化處理,定義歸一化異常行為檢測得分函數(shù)S(t)如下。

        3 分析與討論

        3.1 實驗數(shù)據(jù)集

        考慮視頻異常行為檢測任務(wù)的經(jīng)典數(shù)據(jù)集UCSDPed1[4]數(shù)據(jù)集、UCSD-Ped2[4]數(shù)據(jù)集以及CUHKAvenue[15]數(shù)據(jù)集。

        (1) UCSD-Ped1[4]數(shù)據(jù)集:包含34個正常視頻訓(xùn)練集以及36個異常視頻測試集,正常行為定義為正常行走的路人,異常行為有騎車、溜冰、機動車等行為,該數(shù)據(jù)集的所有視頻分辨率為320×240。

        (2) UCSD-Ped2[4]數(shù)據(jù)集:包含16個正常視頻訓(xùn)練集以及14個異常視頻測試集,正常行為定義為正常行走的路人,異常行為有騎車、溜冰、機動車等行為。數(shù)據(jù)集的所有視頻分辨率為320×240。

        (3) CUHK-Avenue[15]數(shù)據(jù)集:包含15個正常視頻訓(xùn)練集以及21個異常視頻測試集,正常行為定義為正常行走的路人,異常行為有奔跑、隨手拋棄垃圾、橫跨草坪等行為。數(shù)據(jù)集的視頻分辨率為640×360。

        3.2 實驗設(shè)置

        使用的深度學(xué)習(xí)訓(xùn)練框架為 Pytorch,所有的實驗都基于NVIDIA RTX3080。將輸入的視頻幀大小調(diào)整到 256×256 以滿足網(wǎng)絡(luò)的輸入標準。訓(xùn)練時使用自適應(yīng)矩估計梯度下降法進行參數(shù)優(yōu)化。訓(xùn)練次數(shù)設(shè)置為80 000輪次,每組訓(xùn)練批次有4組數(shù)據(jù),每組數(shù)據(jù)輸入連續(xù)4幀實際幀并輸出1幀預(yù)測幀。以訓(xùn)練后得到的生成器網(wǎng)絡(luò)為基準網(wǎng)絡(luò)進行后續(xù)實驗。

        本文采用U-Net生成器網(wǎng)絡(luò)。輸入連續(xù)的4幀256×256的RGB三顏色通道圖像,輸出1幀256×256的RGB三顏色通道圖像。其中,卷積層以及反卷積層使用的卷積核的尺寸為3×3,最大池化層所使用的卷積核的尺寸為2×2。

        本文采用Patch GAN判別器網(wǎng)絡(luò)。輸入1幀256×256的RGB三顏色通道圖像,輸出8×8的二值矩陣。其中,前5層卷積層卷積核的尺寸為3×3、步長為2的卷積層,最后一層卷積核的尺寸為1×1。

        本實驗刻畫接受者操作特征(Receiver Operating Characteristic, ROC)曲線,取曲線下面積(Area Under Curve,AUC)作為視頻異常幀檢測性能評價指標。AUC值越高,表示該網(wǎng)絡(luò)的異常行為檢測效果越好。本文考慮以下2種對比方案。

        對比方案1:通過生成器得出預(yù)測幀,計算PSNR后歸一化得出異常得分;

        對比方案2:通過生成器得出預(yù)測幀,對實際幀以及預(yù)測幀進行前景提取后的圖像,計算PSNR后歸一化得出異常得分。

        3.3 性能結(jié)果分析

        圖3顯示了UCSD-Ped1測試集的ROC曲線。對比方案1的AUC值為0.794 6,對比方案2的AUC值為0.794 4,本文方案的AUC值為0.802 3。這表明了本文基于前景區(qū)域的異常行為幀檢測方案的有效性。根據(jù)圖3的ROC曲線前段,對比方案1相較于本文所提方案的效果好,原因在于生成器對于某些小畫幅的正常行為不能很好地預(yù)測。這表明F-PSNR相較于PSNR對異常行為的預(yù)測更加敏感。

        圖3 UCSD-Ped1測試集實驗結(jié)果Fig.3 Experience result in UCSD-Ped1

        圖4顯示了UCSD-Ped1測試集的第2段視頻,該視頻含有200幀,存在的異常行為是人行道中騎自行車。相比于基于PSNR準則,本文基于F-PSNR準則的方案對正常行為的檢測取得更高的異常檢測得分,而對異常行為的檢測取得較低的異常檢測得分,使異常檢測得分具有更高的分辨率,故能很好地對正常行為以及異常行為進行區(qū)分。

        圖4 UCSD-Ped1測試集第2段視頻實驗結(jié)果Fig.4 Experience result of the 2nd test video in UCSD-Ped1

        圖5顯示了UCSD-Ped1測試集某視頻幀前景提取的實驗結(jié)果。圖5(a)是原視頻幀,圖5(b)是原視頻幀通過前景提取的前景區(qū)域,圖5(c)是本實驗提取前景的掩碼??梢钥吹?,在UCSD-Ped1測試集的場景下,前景提取能很好地提取出前景區(qū)域,表明F-PSNR能實現(xiàn)較好的視頻異常行為檢測性能。圖6顯示了UCSD-Ped2測試集的ROC曲線。對比方案1的AUC值為0.868 8,對比方案2的AUC值為0.866 1,本文方案的AUC值為0.878 8。本文基于前景增強異常行為檢測方案具有顯著的性能增益。圖6的ROC曲線后段,對比方案1相較于本文所提方案的效果好,這是因為網(wǎng)絡(luò)對于某些小畫幅的正常行為無法有效地預(yù)測。此外,相比于檢測全景區(qū)域的峰值信噪比PSNR準則,僅檢測前景區(qū)域的峰值信噪比FPSNR準則對異常行為具有較強的檢測敏感性,導(dǎo)致F-PSNR誤判了預(yù)測幀的正常行為。

        圖5 UCSD-Ped1測試集前景分析Fig.5 Foreground analysis in UCSD-Ped1

        圖6 UCSD-Ped2測試集實驗結(jié)果Fig.6 Experience result in UCSD-Ped2

        圖7顯示了UCSD-Ped2測試集的第4段視頻,該視頻含有180幀,存在的異常行為是人行道中騎自行車以及駕駛機動車。相比于基于PSNR準則,本文基于F-PSNR準則的方案對異常行為的檢測取得較低的異常檢測得分,使異常檢測得分具有更高的分辨率,能很好地對正常行為以及異常行為進行區(qū)分,因而具有較好的視頻異常行為檢測性能。

        圖7 UCSD-Ped2測試集第4段視頻實驗結(jié)果Fig.7 Experience result of the 4th test video in UCSD-Ped2

        圖8顯示了UCSD-Ped2測試集某視頻幀前景提取的實驗結(jié)果。圖8(a)是原視頻幀,圖8(b)是原視頻幀通過前景提取的前景區(qū)域,圖8(c)是本實驗提取前景的掩碼。在UCSD-Ped2測試集的場景下,前景提取能很好地提取出前景區(qū)域, F-PSNR具有較好的視頻異常行為檢測性能。

        圖8 UCSD-Ped2測試集前景分析Fig.8 Foreground analysis in UCSD-Ped2

        圖9顯示了CUHK-Avenue測試集的ROC曲線。對比方案1的AUC值為0.850 6,對比方案2的AUC值為0.810 8,本文方案的AUC值為0.873 2。本文方案相比對比方案1以及對比方案2均有提升。對比方案2相比于對比方案1性能下降的原因在于前景提取未能很好地將前景提取出來。但部分前景信息的缺失并未導(dǎo)致本文方案F-PSNR評估的準確率下降。實驗結(jié)果表明,部分前景信息的缺失對實驗結(jié)果并未造成明顯的影響,本文方案依舊優(yōu)于傳統(tǒng)方案。

        圖9 CUHK-Avenue測試集實驗結(jié)果Fig.9 Experience result in CUHK-Avenue

        圖10顯示了CUHK-Avenue測試集某視頻幀前景提取的實驗結(jié)果。圖10(a)是原視頻幀,圖10(b)缺失了圖10(a)紅框內(nèi)的前景人物的前景區(qū)域,圖10(c)是本實驗提取前景的掩碼。因背景與前景融合在一起,前景提取未能有效提取前景,這導(dǎo)致CUHK-Avenue測試集中前景信息的缺失。圖10實驗結(jié)果表明,視頻異常行為檢測方案的設(shè)計重點是前景信息提取。

        圖10 CUHK-Avenue測試集前景分析Fig.10 Foreground analysis in CUHK-Avenue

        表1顯示了PSNR與F-PSNR在3個數(shù)據(jù)集中的測試集檢測時間。在CUHK-Avenue測試集中,F(xiàn)PSNR相比PSNR檢測時間減少了46.23%;在UCSDPed1測試集中,F(xiàn)-PSNR相比PSNR檢測時間減少了44.37%;在UCSD-Ped2測試集中,F(xiàn)-PSNR相比PSNR檢測時間減少了41.41%。相比于傳統(tǒng)的PSNR準則,F(xiàn)-PSNR準則能有效降低計算復(fù)雜度。

        表1 檢測時間對比Table 1 Detection time comparison table

        4 結(jié)論

        本文提出了基于前景區(qū)域生成對抗網(wǎng)絡(luò)的視頻異常行為檢測的改進方案,通過建立F-PSNR準則,計算視頻幀的異常得分,進而完成視頻異常行為檢測任務(wù)。所提方案能有效提升視頻異常行為檢測的準確率,并降低檢測運行時間。實驗結(jié)果表明,所提基于F-PSNR準則的檢測方法的性能在UCSDPed1數(shù)據(jù)集及UCSD-Ped2、CUHK-Avenue數(shù)據(jù)集上有所提升。未來將改進視頻異常行為檢測的深度學(xué)習(xí)網(wǎng)絡(luò)模型,提高前景區(qū)域信息的有效利用率。

        猜你喜歡
        前景檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        我國旅游房地產(chǎn)開發(fā)前景的探討
        法德軸心的重啟及前景
        “幾何圖形”檢測題
        “角”檢測題
        四種作物 北方種植有前景
        離岸央票:需求與前景
        中國外匯(2019年11期)2019-08-27 02:06:32
        量子糾纏的來歷及應(yīng)用前景
        太空探索(2016年10期)2016-07-10 12:07:01
        中文字幕精品一二三四五六七八| 三级日本理论在线观看| 精品无码av无码专区| 亚洲h在线播放在线观看h| 日本亚洲欧美高清专区| 久草精品手机视频在线观看| 麻豆精品一区二区三区| 麻豆国产成人av高清在线| 国产农村妇女精品一区| 国产盗摄xxxx视频xxxx| 69av视频在线观看| 一本久久a久久精品综合| 国产一区av男人天堂| 日本中文字幕一区二区高清在线 | 在线观看av永久免费| 亚洲无码激情视频在线观看| 久久精品亚洲精品国产区| 日本阿v片在线播放免费| 久久综合狠狠综合久久| 久久九九有精品国产尤物| 一区二区三区视频偷拍| 日本高清在线一区二区三区| 300部国产真实乱| 无码日韩AⅤ一区二区三区 | 人妻熟女妇av北条麻记三级| 亚洲男人天堂一区二区| 国产精品国三级国产av| 中文乱码人妻系列一区二区| 国产99精品精品久久免费| 亚洲国产成人久久精品一区| 亚洲精品久久久久久久不卡四虎 | 爆爽久久久一区二区又大又黄又嫩| 国产亚洲AV无码一区二区二三区| 亚洲天堂av在线免费播放| 一边捏奶头一边高潮视频| 亚洲国产综合精品 在线 一区| 人妻系列影片无码专区| 漂亮人妻被强了中文字幕| 天天天天躁天天爱天天碰2018| 四虎成人精品国产一区a| 免费观看日本一区二区三区|