亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)嵌套模型的人群異常行為檢測

        2019-04-01 09:10:08孫月馳
        關(guān)鍵詞:復(fù)雜度像素卷積

        孫月馳 李 冠

        (山東科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院山東省智慧礦山信息技術(shù)重點(diǎn)實(shí)驗(yàn)室 山東 青島 266590)

        0 引 言

        基于機(jī)器視覺的智能視頻監(jiān)控系統(tǒng)能夠?qū)崟r(shí)檢測公共區(qū)域中行人、車輛等目標(biāo)的狀態(tài)變化,自動(dòng)檢測運(yùn)動(dòng)目標(biāo)的異常行為[1]。本文主要研究的人群異常行為分為人群異常行為(聚集、混亂、擁擠等)、非人體進(jìn)入(車輛駛?cè)?、騎車駛?cè)氲?等[2]。智能視頻監(jiān)控系統(tǒng)從視頻序列中提取大量運(yùn)動(dòng)目標(biāo)的特征信息,進(jìn)行異常行為的檢測,已成為預(yù)防公共突發(fā)事件的有效工具[3]。異常事件檢測[4]旨在自動(dòng)識(shí)別監(jiān)控視頻中的異常事件,檢測方法主要根據(jù)提取運(yùn)動(dòng)目標(biāo)的各種特征信息,將特征信息進(jìn)行聚類、分類等處理,進(jìn)而判斷運(yùn)動(dòng)目標(biāo)的運(yùn)動(dòng)狀態(tài)是否異常。隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,針對視頻序列中異常事件檢測算法得到廣泛的應(yīng)用,根據(jù)提取運(yùn)動(dòng)目標(biāo)特征信息的方式,可以將人群中異常檢測方法歸納成四類:

        第一類為基于行為關(guān)系的分析。該類方法運(yùn)用統(tǒng)計(jì)分析關(guān)系事件或行為,其中概率模型應(yīng)用于描述不同行為之間的關(guān)系。例如,H?m?l?inen等[5]搭建統(tǒng)計(jì)顯著關(guān)聯(lián)規(guī)則模型(SARM)搜索統(tǒng)計(jì)顯著的行為關(guān)聯(lián)規(guī)則,該算法在搜索統(tǒng)計(jì)非冗余關(guān)聯(lián)規(guī)則上表現(xiàn)突出;Kwon等[6]將異常事件檢測轉(zhuǎn)化為圖模型編輯問題,視頻由圖來表示,圖中每個(gè)節(jié)點(diǎn)代表在空間和時(shí)間上分割視頻而獲得的事件,節(jié)點(diǎn)之間的權(quán)重描述了事件之間的關(guān)聯(lián)關(guān)系;Yuan等[7]將統(tǒng)計(jì)假設(shè)檢驗(yàn)的想法引入到異常事件檢測框架,視頻活動(dòng)被視為一組事件模式的線性組合,異常事件被認(rèn)為是包含異常模式的事件,同時(shí)具有異常檢測器分?jǐn)?shù),利用高斯混合來估算復(fù)雜的噪聲分布更利于對視頻事件建模,提高了異常檢測精度。該類方法檢測效果較好,然而,需要大量的訓(xùn)練樣本才能獲得穩(wěn)定可靠的關(guān)系模型。

        第二類為基于運(yùn)動(dòng)軌跡的分析。該類方法通過提取研究對象的軌跡特征信息,檢測跟蹤對象的運(yùn)動(dòng)軌跡是否異常。例如,F(xiàn)ang等[8]通過搭建自適應(yīng)外觀模型,利用可靠的數(shù)據(jù)關(guān)聯(lián)策略和合理的軌跡約束運(yùn)動(dòng)模型來提升對目標(biāo)檢測和追蹤的效率;Yuan等[9]首次提出信息結(jié)構(gòu)背景描述符SCD(Structural Context Descriptor)來描述人群中的個(gè)體,通過計(jì)算SCD的變化,設(shè)計(jì)出多目標(biāo)追蹤單元,用以追蹤不同幀圖像中同一目標(biāo)的軌跡,通過線上時(shí)空分析SCD變化,來判斷人群異常情;Zhou等[10]嘗試構(gòu)建一種新的統(tǒng)計(jì)框架來檢測擁擠場景中異常軌跡的人群行為,首先,由特征跟蹤器KLT(Kanade Lucas-Tomasi)獲取行人的軌跡特征,形成代表性軌跡表示人群的潛在運(yùn)動(dòng)模式,最后由馬爾可夫模擬模型判斷人群中異常的行為。該類算法在雜亂和擁擠的場景中不能準(zhǔn)確地檢測和定位視頻事件,在處理霧天、雨天等背景模糊的場景時(shí)識(shí)別精度不理想。

        第三類為基于底層特征的分析。該方法通過提取運(yùn)動(dòng)目標(biāo)的低級(jí)特征進(jìn)行分析運(yùn)動(dòng)狀態(tài),根據(jù)研究對象的不同搭建各種各樣行為模式的模型。例如,Reddy等[11]針對檢測擁擠場景中異常目標(biāo)提出了一種具有相對較低復(fù)雜度的異常檢測算法,該方法基于每幀的前景掩碼分析相關(guān)單元是否存在異常,根據(jù)檢測目標(biāo)的運(yùn)動(dòng)狀態(tài)、大小和紋理分別建模;Li等[12]通過搭建表示復(fù)雜人群場景空間和時(shí)間的常態(tài)模型,將空間或時(shí)間常態(tài)與外觀或動(dòng)態(tài)融合在一個(gè)常態(tài)模型中,對異常事件進(jìn)行檢測。該類算法擁有一個(gè)共同特點(diǎn)需要人工輔助,設(shè)計(jì)有效的描述模型需要耗費(fèi)大量時(shí)間。

        第四類為基于深度學(xué)習(xí)[13]的視覺特征分析。該類方法通過基于深度學(xué)習(xí)用來提取視頻中運(yùn)動(dòng)目標(biāo)的特征信息,根據(jù)視頻的特征信息進(jìn)行人群異常事件的識(shí)別。例如,Sabokrou等[14]提出一種基于立方體補(bǔ)丁的方法,首先,使用3D自動(dòng)編碼器進(jìn)行識(shí)別正常立方體,再使用更復(fù)雜、更深的3D卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行評估,將深度自動(dòng)編碼器和CNN分成多個(gè)子級(jí)用作級(jí)聯(lián)分類器,最終實(shí)現(xiàn)對異常事件檢測;Ravanbakhsh等[15]為解決異常檢測的問題引入生成對抗網(wǎng)絡(luò),組成生成對抗網(wǎng)絡(luò)的發(fā)生器(G)和鑒別器(D)分別進(jìn)行深度網(wǎng)絡(luò)學(xué)習(xí),發(fā)生器(G)僅學(xué)習(xí)生成正常模式,鑒別器(D)學(xué)習(xí)區(qū)分正常和非正常模式;Kiran等[16]提出深度卷積架構(gòu)用于特征學(xué)習(xí)來進(jìn)行視頻中異常事件的檢測。此類模型由多種組件構(gòu)成,產(chǎn)生較多參數(shù)增加了算法的復(fù)雜性。

        針對上述方法的不足,本文提出一種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)人群異常行為識(shí)別方法,該方法通過嵌套mlpconv層改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),利用混合高斯模型有效、精確地提取視頻中前景目標(biāo),嵌套多層的mlpconv層自動(dòng)學(xué)習(xí)前景目標(biāo)的深度層次特征,生成的特征圖經(jīng)過向量化處理輸入到與全連接層相連的Soft max分類器進(jìn)行人群中異常行為檢測。仿真實(shí)驗(yàn)結(jié)果表明,該算法減少對冗余信息的獲取,縮短了算法運(yùn)算時(shí)間和學(xué)習(xí)時(shí)間,改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)在泛化性能和非線性擬合能力都有提高,對人群異常行為檢測取得較高準(zhǔn)確率。

        1 人群異常行為檢測流程與方法研究

        本文提出基于卷積神經(jīng)網(wǎng)絡(luò)嵌套模型的人群異常行為檢測方法的主要流程,圖1為人群異常行為檢測算法流程圖。該算法分為四個(gè)步驟:檢測和提取運(yùn)動(dòng)目標(biāo)、獲取特征信息、構(gòu)建嵌套網(wǎng)絡(luò)模型、進(jìn)行異常行為檢測。

        圖1 人群異常行為檢測算法流程圖

        1.1 檢測和提取運(yùn)動(dòng)目標(biāo)

        目前,視頻中運(yùn)動(dòng)目標(biāo)檢測的方法主要有:光流法、幀間差分法和背景差分法三種[17]。本文選取背景差分法中的混合高斯模型GMM[18](Gaussian Mixture model),該模型與其他提取前景目標(biāo)的方法比較,不但能夠成功檢測到運(yùn)動(dòng)目標(biāo),而且還能減少背景場景中微小重復(fù)運(yùn)動(dòng)的物體對前景目標(biāo)檢測的影響。視頻中運(yùn)動(dòng)目標(biāo)檢測的工作流程如圖2所示,首先高斯分布對每個(gè)像素建立背景模型,再進(jìn)行背景模型參數(shù)自動(dòng)更新,最后實(shí)現(xiàn)對視頻中運(yùn)動(dòng)目標(biāo)的成功檢測和提取。

        圖2 混合高斯模型的工作流程圖

        1.1.1 混合高斯背景建模

        對于任意像素點(diǎn),其歷史像素序列可以下式描述[19]:

        {x1,x2,…,xt}={Ii(x,y),1≤i≤t}

        (1)

        式中:Ii(x,y)為第i個(gè)時(shí)刻的灰度值。

        在t時(shí)刻,像素點(diǎn)(x,y)的概率函數(shù)計(jì)算公式為[20]:

        (2)

        (3)

        1.1.2 混合高斯模型參數(shù)更新

        按優(yōu)先級(jí)大小將幀像素值Ii(x,y)的高斯分布進(jìn)行排序,滿足式(4),說明幀像素值Ii(x,y)與高斯分布匹配成功,幀像素值Ii(x,y)的高斯分布的參數(shù)依次按照式(4)至式(8)進(jìn)行更新;不滿足式(4),幀像素值Ii(x,y)與高斯分布匹配不成功,高斯分布的參數(shù)不變,權(quán)重值按式(9)進(jìn)行更新。

        |It(x,y)-μi,t-1|

        (4)

        Wi,t=(1-α)Wi,t-1+α

        (5)

        μ=(1-β)μi,t-1+βIi(x,y)

        (6)

        μi,t-1)T(It(x,y)-μi,t-1)

        (7)

        β=αη(It(x,y)|μ,δi,t)

        (8)

        Wi,t=(1-α)Wi,t-1+α

        (9)

        式中:α、β分別表示混合高斯模型的學(xué)習(xí)率、更新率。

        1.1.3 混合高斯模型對運(yùn)動(dòng)目標(biāo)的提取

        (10)

        式中,T為設(shè)置的閾值。

        獲取了前B個(gè)高斯分布作為背景模型,將當(dāng)前像素值Ii(x,y)與生成背景進(jìn)行匹配,如果當(dāng)前像素值Ii(x,y)與生成背景匹配不成功,當(dāng)前像素Ii(x,y)點(diǎn)為運(yùn)動(dòng)目標(biāo);否則,當(dāng)前像素Ii(x,y)點(diǎn)為背景點(diǎn)。經(jīng)過上述過程之后,混合高斯模型實(shí)現(xiàn)對視頻中運(yùn)動(dòng)目標(biāo)的檢測及提取。與其他方法提取前景目標(biāo)的結(jié)果對比圖如圖3所示。圖3(a)是原始視頻序列,圖3(b)是其他方法提取的前景目標(biāo),圖3(c)是混合高斯模型提取的前景目標(biāo)。

        (a) (b) (c)圖3 與其他方法提取前景目標(biāo)的結(jié)果對比

        1.2 獲取運(yùn)動(dòng)目標(biāo)的特征信息

        1.2.1mlpconv層

        mlpconv層由一個(gè)線性卷積層和一個(gè)多層感知機(jī)MLP(Multy-Layer Perception)構(gòu)成,局部感受視野中的輸入映射對應(yīng)的特征向量。mlpconv層使用由多個(gè)帶非線性激活函數(shù)的全連接層構(gòu)成的MLP來提取運(yùn)動(dòng)目標(biāo)的特征信息,將提取的特征信息轉(zhuǎn)化為特征圖,再將特征圖作為下一層的輸入[22]。

        mlpconv層計(jì)算過程如下所示:

        (11)

        (12)

        (13)

        式中:(i,j)是特征圖中像素的位置,xi,j是以像素點(diǎn)(i,j)為中心的輸入塊,k1、k2和kn等是特征圖中的各通道序號(hào),n則是MLP的層數(shù)。

        2.2.2BatchNormaliztion技術(shù)

        在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過程中,隨著各層參數(shù)的變化,特別是算法的學(xué)習(xí)率和權(quán)值初始化會(huì)需要很長時(shí)間尋找合適值,降低了神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。在使用飽和非線性激活函數(shù)來訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型時(shí),輸入數(shù)據(jù)會(huì)誤入激活函數(shù)的飽和區(qū)域,使神經(jīng)網(wǎng)絡(luò)的收斂性速度降低。

        Ioffe等[23]通過BN(Batch Normaliztion)技術(shù)規(guī)范化每一層的輸入來解決上述問題。BN技術(shù)使得輸入數(shù)據(jù)具有零均值和單位方差:

        (14)

        規(guī)范化處理后,參數(shù)需要相應(yīng)的縮放和平移:

        (15)

        1.3 構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)嵌套模型

        卷積神經(jīng)網(wǎng)絡(luò)嵌套模型的核心思想為:嵌套網(wǎng)絡(luò)模型可以出色地自動(dòng)學(xué)習(xí)到深度層次特征,該模型獲取的深層次特征主要是局部特征,在獲取運(yùn)動(dòng)目標(biāo)特征信息時(shí)局部特征在背景中分離目標(biāo)發(fā)揮重要作用,此外,嵌套網(wǎng)絡(luò)模型在應(yīng)對背景目標(biāo)劇烈變化時(shí)也具有一定的魯棒性。

        網(wǎng)絡(luò)嵌套模型訓(xùn)練時(shí),首先,對含有單個(gè)mlpconv層的卷積神經(jīng)網(wǎng)絡(luò)模型的權(quán)值初始化,再進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,整個(gè)訓(xùn)練過程結(jié)束,得到單個(gè)mlpconv層權(quán)值的更新;然后,接入第二個(gè)mlpconv層,第二個(gè)mlpconv層的輸入是第一個(gè)mlpconv層的輸出,進(jìn)行第二個(gè)mlpconv層的權(quán)值初始化,再進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,整個(gè)訓(xùn)練過程結(jié)束,得到第二個(gè)mlpconv層權(quán)值的更新。當(dāng)有新的mlpconv層加入,按照上述過程進(jìn)行權(quán)值初始化、卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練以及權(quán)值更新。

        此外,在進(jìn)行卷積計(jì)算之后使用BN技術(shù),也使得非線性單元能夠產(chǎn)生比較穩(wěn)定的分布,達(dá)到去飽和的效果。在嵌套mlpconv層加入BN操作,模型中特征圖的計(jì)算方式如下:

        (16)

        (17)

        (18)

        式中:BN(g)表示BN層,(i,j)是特征圖中像素的位置,xi,j是以像素點(diǎn)(i,j)為中心的輸入塊,k1、k2和kn等是特征圖中的各通道序號(hào),n則是MLP的層數(shù)。圖4為基于卷積神經(jīng)網(wǎng)絡(luò)嵌套模型。

        圖4 基于卷積神經(jīng)網(wǎng)絡(luò)的嵌套模型

        2 實(shí)驗(yàn)與結(jié)果分析

        在3.0 GHzCPU、64位Windows7操作系統(tǒng),采用MATLAB 2016a、Open CV作為開發(fā)工具進(jìn)行仿真實(shí)驗(yàn)。為了驗(yàn)證提出算法的有效性,本文選取常用于人群行為識(shí)別研究的基準(zhǔn)數(shù)據(jù)集,即UCSD[24]((University of California,San Diego)數(shù)據(jù)集和UMN[25](University of Minnesota)數(shù)據(jù)集。這兩個(gè)數(shù)據(jù)集涵蓋了室內(nèi)和室外、局部異常和全部異常等情況。仿真實(shí)驗(yàn)中,定量評價(jià)采用AUC評價(jià)指標(biāo)、等錯(cuò)誤率(EER)以及運(yùn)行時(shí)間(Time)等指標(biāo)。

        輸入數(shù)據(jù)是將每一幀都裁剪為80×60的灰度圖像,卷積神經(jīng)網(wǎng)絡(luò)模型的三個(gè)卷積層采用的卷積核分別是9×7、7×7、6×4的尺度,兩個(gè)下采樣層采用的卷積核均為3×3尺度。輸入的80×60×9的視頻塊最終被轉(zhuǎn)化為128維的特征向量。

        2.1 在UCSD數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果

        USCD[24]數(shù)據(jù)集由加州大學(xué)圣地亞哥分校創(chuàng)建,數(shù)據(jù)集是通過安裝在一定高度、俯視人行道的攝像機(jī),采集自然狀態(tài)下發(fā)生的異常行為,主要針對人群中個(gè)體行為的識(shí)別研究。數(shù)據(jù)集由98個(gè)視頻組成,被分成ped1和ped2兩個(gè)數(shù)據(jù)子集,每個(gè)場景錄制的視頻錄像被分成約200幀的片段,像素分辨率分別為158 pixel×238 pixel和240 pixel×360 pixel。圖5為UCSD數(shù)據(jù)集中的非人類實(shí)體入侵和異常人類行為場景的示例。

        圖5 UCSD數(shù)據(jù)集中非人類實(shí)體入侵和異常人類行為示例

        在UCSD ped1和UCSD ped2數(shù)據(jù)集驗(yàn)證該算法的有效性,本文選取在上述數(shù)據(jù)庫取得較好識(shí)別率的算法進(jìn)行對比,例如:TCP模型[26]、AMDN(double fusion)模型[27]、運(yùn)動(dòng)能量(Motion Energy)模型[28]、時(shí)空卷積神經(jīng)網(wǎng)絡(luò)(ST-CNN)模型[29]及Commotion模型[30]等。

        由表1可知,在UCSD ped1數(shù)據(jù)集上,采用幀級(jí)度量時(shí),本文算法的EER較低,顯著提高了AUC評價(jià)指標(biāo);采用像素級(jí)度量時(shí),在EER指標(biāo)、AUC評價(jià)指標(biāo)上提高不是很明顯,但是兩個(gè)指標(biāo)均高于其他算法的指標(biāo)。在UCSD ped2數(shù)據(jù)集上,采用幀級(jí)度量測試,本文算法在EER指標(biāo)、AUC評價(jià)指標(biāo)方面占優(yōu)勢,AUC評價(jià)指標(biāo)提高0.11。

        表1 AUC和EER在于Ped1(UCSD數(shù)據(jù)集)上的 幀和像素級(jí)比較

        2.2 在UMN數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果

        另外,在UMN數(shù)據(jù)集也進(jìn)行了實(shí)驗(yàn)驗(yàn)證,該數(shù)據(jù)集前一半視頻作為訓(xùn)練集,后一半作為測試集,在該數(shù)據(jù)集上采用幀級(jí)度量下的EER和AUC評價(jià)指標(biāo)對算法的性能進(jìn)行評估。驗(yàn)證結(jié)果如表2所示。在UMN數(shù)據(jù)集上采用幀級(jí)度量下的EER和AUC評價(jià)指標(biāo)對算法的性能測試結(jié)果,可以得出,本文算法在AUC評價(jià)指標(biāo)與已有算法的性能上相當(dāng),在EER指標(biāo)上優(yōu)于其他算法,該算法在耗時(shí)方面得到了提高。

        表2 AUC和EER用于UMN數(shù)據(jù)集上的幀和像素級(jí)比較

        2.3 時(shí)間復(fù)雜度分析對比

        算法的時(shí)間復(fù)雜度是一個(gè)函數(shù),它定量描述了該算法的運(yùn)行時(shí)間。

        2.3.1 單個(gè)卷積層的時(shí)間復(fù)雜度

        時(shí)間復(fù)雜度是指執(zhí)行算法所需要的計(jì)算工作量,單層卷積層時(shí)間復(fù)雜度計(jì)算如下:

        Time~O(M2·K2·Cin·Cout)

        (19)

        式中:M表示每個(gè)卷積核輸出特征圖(Feature Map)的邊長;K表示每個(gè)卷積核(Kernel)的邊長;Cin表示每個(gè)卷積核的通道數(shù),即輸入通道數(shù)(上一層的輸出道數(shù));Cout表示卷積層具有的卷積核個(gè)數(shù),即輸出通道數(shù)。

        由式(19)可以得知,卷積層的時(shí)間復(fù)雜度由輸出特征圖面積M2、卷積核面積K2、輸入Cin和輸出通道數(shù)Cout決定;輸出特征圖的尺寸又由輸入矩陣尺寸X、卷積核尺寸K、Padding、Stride決定,輸出特征圖的邊長M表達(dá)式為:

        (20)

        2.3.2 卷積神經(jīng)網(wǎng)絡(luò)的整體的時(shí)間復(fù)雜度

        單層卷積神經(jīng)網(wǎng)絡(luò)的復(fù)雜度由式(19)計(jì)算,卷積神經(jīng)網(wǎng)絡(luò)(包含多層結(jié)構(gòu))整體時(shí)間復(fù)雜度為每層時(shí)間復(fù)雜度的和,計(jì)算公式如下:

        (21)

        式中:D表示神經(jīng)網(wǎng)絡(luò)所具有的卷積層數(shù),即網(wǎng)絡(luò)深度;l表示神經(jīng)網(wǎng)絡(luò)第l個(gè)卷積層;Cl表示神經(jīng)網(wǎng)絡(luò)第l個(gè)卷積層的輸出通道數(shù)Cout,即該層的卷積核個(gè)數(shù);第l個(gè)卷積層的輸入通道數(shù)Cin是第(l-1)個(gè)卷積層輸出通道數(shù)。

        在時(shí)間復(fù)雜度方面,本文選取TCP模型、AMDN(double fusion)模型、運(yùn)動(dòng)能量(Motion Energy)模型、時(shí)空卷積神經(jīng)網(wǎng)絡(luò)(ST-CNN)模型及Commotion模型與本文算法進(jìn)行對比。由式(13)可以計(jì)算出各算法的時(shí)間復(fù)雜度,因?yàn)楦魉惴ǖ木唧w參數(shù)數(shù)據(jù)不明確,本文只計(jì)算算法時(shí)間復(fù)雜度屬于哪個(gè)階,常見的時(shí)間復(fù)雜度關(guān)系為:O(1)

        如表3所示,本文算法與其他算法時(shí)間復(fù)雜度大部分在O(n2)階上,分析其他算法神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型在輸出特征圖面積M2、卷積核面積K2、輸入Cin和輸出通道數(shù)Cout均比本文算法的復(fù)雜,可以得出結(jié)論本文算法在時(shí)間復(fù)雜度上優(yōu)于其他算法。

        表3 本文算法與其他算法時(shí)間復(fù)雜度

        3 結(jié) 語

        本文提出基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)對人群異常行為檢測方法,通過嵌套mlpconv層改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),利用混合高斯模型有效、精確地提取出視頻序列中前景目標(biāo),混合高斯模型在復(fù)雜場景背景中表現(xiàn)出魯棒性,不但能夠成功檢測到運(yùn)動(dòng)目標(biāo),而且減少了背景場景中微小重復(fù)運(yùn)動(dòng)的物體對前景目標(biāo)檢查的影響。嵌套多層的mlpconv層自動(dòng)學(xué)習(xí)已經(jīng)提取到的前景運(yùn)動(dòng)目標(biāo)的深度層次特征,改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)減少對冗余信息的獲取。在UCSD和UMN數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果表明,在算法運(yùn)算時(shí)間和學(xué)習(xí)時(shí)間上得到優(yōu)化,對人群中異常行為檢測更迅速、準(zhǔn)確,改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)在泛化性能和非線性擬合能力上的表現(xiàn)也很優(yōu)秀。

        猜你喜歡
        復(fù)雜度像素卷積
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        “像素”仙人掌
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        一種低復(fù)雜度的慣性/GNSS矢量深組合方法
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        求圖上廣探樹的時(shí)間復(fù)雜度
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        某雷達(dá)導(dǎo)51 頭中心控制軟件圈復(fù)雜度分析與改進(jìn)
        亚洲一区二区刺激的视频| 午夜精品久久久久久久| 女人被爽到高潮视频免费国产| 99精产国品一二三产品香蕉| 国产成人av综合亚洲色欲| 久青青草视频手机在线免费观看| 男女视频网站在线观看| 亚洲综合网站久久久| 久久国产精品二国产精品| 国产成年无码aⅴ片在线观看| 最新日本女优中文字幕视频| 国内精品视频一区二区三区八戒| 把插八插露脸对白内射| 国自产偷精品不卡在线| 极品粉嫩小仙女高潮喷水视频| 男女性行为免费视频网站 | 国产伦理一区二区| 伊人久久大香线蕉免费视频| 国产视频网站一区二区三区| 网址视频在线成人亚洲| 狠狠色噜噜狠狠狠777米奇| 色欲av亚洲一区无码少妇| 国产九九在线观看播放| 亚洲午夜经典一区二区日韩| 不卡av电影在线| 无码AV高潮喷水无码专区线| 蜜桃伦理一区二区三区| 亚洲av日韩一区二区| 无码ol丝袜高跟秘书在线观看 | 91自国产精品中文字幕| 狼人伊人影院在线观看国产| 小鲜肉自慰网站| 男人j进女人p免费视频| 男女动态视频99精品| 中文亚洲av片不卡在线观看| 亚洲人成亚洲精品| 亚洲色无码中文字幕| 亚洲女同恋av中文一区二区| 日韩亚洲欧美中文在线| 国产男女插插一级| 自拍偷区亚洲综合第一页|