亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自適應(yīng)學(xué)習(xí)率的運(yùn)動目標(biāo)高效檢測算法

        2020-02-11 06:57:46郝曉麗牛保寧呂進(jìn)來
        電子科技大學(xué)學(xué)報 2020年1期
        關(guān)鍵詞:高斯差分邊緣

        郝曉麗,劉 偉,牛保寧,呂進(jìn)來

        (太原理工大學(xué)信息與計算機(jī)學(xué)院 山西 晉中 030600)

        運(yùn)動目標(biāo)檢測能夠識別目標(biāo)運(yùn)動所引起的幀間差異,是計算機(jī)視覺研究的一個重要分支[1]。運(yùn)動目標(biāo)檢測的核心是快速、完整地獲取視頻圖像中的運(yùn)動物體??焖傩砸螳@取運(yùn)動目標(biāo)時,保持算法的低復(fù)雜度,實現(xiàn)實時檢測。完整性不僅要保證所獲取目標(biāo)輪廓的完整性,更強(qiáng)調(diào)充分、完整地獲取運(yùn)動目標(biāo)的內(nèi)部信息。

        為了快速獲取目標(biāo),人們通常采用幀間差分法和基于Vibe的背景建模法[2]。幀間差分法依據(jù)相鄰幀間的圖像差異獲取目標(biāo),該方法計算簡單、實時性強(qiáng)。但由于幀間圖像同一位置的灰度值非常相近,容易導(dǎo)致空洞現(xiàn)象,使得運(yùn)動目標(biāo)的內(nèi)部信息提取不完整。而基于Vibe的背景建模則是將當(dāng)前幀的像素值與其鄰域N個樣本集建立起的背景模型進(jìn)行比較,通過設(shè)定閾值將該像素點(diǎn)判定為前景或背景,該方法運(yùn)算速率快,易于實現(xiàn)。但由于受限于基于少量樣本建立的背景模型,當(dāng)樣本趨于無窮大時才能準(zhǔn)確描述場景,在實際場景的應(yīng)用中,當(dāng)發(fā)生瞬時的光線突變時,背景模型來不及更新,容易將前景誤判為背景,產(chǎn)生“空洞”現(xiàn)象。針對此問題,文獻(xiàn)[3]采用膨脹、腐蝕形態(tài)學(xué)方法填充運(yùn)動目標(biāo)內(nèi)部細(xì)小的空洞,解決了部分“空洞”現(xiàn)象;但由于像素點(diǎn)的擴(kuò)充及消除,使得圖像中連通區(qū)域的大小發(fā)生改變,很難得到完整且面積接近真實目標(biāo)的檢測結(jié)果。文獻(xiàn)[4]在傳統(tǒng)三幀差分基礎(chǔ)上,運(yùn)用Canny算子擴(kuò)充圖像邊緣,減弱了“空洞”現(xiàn)象,但對于運(yùn)動過快的物體,由于相鄰幀間差異過大,易產(chǎn)生“重影”。而文獻(xiàn)[5]通過HSV顏色空間和Vibe算法的結(jié)合實現(xiàn)運(yùn)動目標(biāo)內(nèi)部信息的檢測。

        為了保證所獲取目標(biāo)的完整性,通常采用背景差分法[6]和LK光流法[7],LK光流法通過各個像素的矢量特征對視頻圖像進(jìn)行動態(tài)分析,從而得到完整目標(biāo),但其計算量過大,導(dǎo)致實時性和可用性差。背景差分根據(jù)當(dāng)前幀與背景模型之間的差異,構(gòu)建各像素點(diǎn)的高斯模型,通過目標(biāo)像素與高斯模型的匹配,以獲取運(yùn)動目標(biāo)。此方法通過建立穩(wěn)定的背景模型來保證獲取目標(biāo)內(nèi)部信息的完整性[8]。建立背景模型的方法有均值背景建模[9]、CodeBook背景建模[10]、單高斯背景建模[11]等。但上述方法所建立的背景模型僅適用于單一場景,在復(fù)雜背景下由于背景像素點(diǎn)與噪音的干擾,易造成目標(biāo)信息的丟失及誤判。而基于混合高斯建模的背景差分法[12]以不斷更新背景模型的方式實現(xiàn)運(yùn)動目標(biāo)的完整提取,但在學(xué)習(xí)過程中,高斯模型的更新多采用固定速率,忽略了在不同階段的背景建模中,其更新速率應(yīng)存在差異的事實。若僅以固定的更新速率完成背景模型的更新,易造成算法復(fù)雜度增加,實時性受到影響。針對實時性差等問題,文獻(xiàn)[13]運(yùn)用幀間差分實時性好的優(yōu)勢,來提高混合高斯建模的運(yùn)算速度,但由于模型的更新速率無法適應(yīng)背景信息的變化,使得算法對動態(tài)背景的適應(yīng)性減弱;同時在物體運(yùn)動緩慢或過快時,易造成像素點(diǎn)重疊較多或位置區(qū)域變化過大,若延用傳統(tǒng)相鄰幀間差分方式,會造成目標(biāo)信息的丟失或“重影”。

        運(yùn)用深度學(xué)習(xí)的方法實現(xiàn)運(yùn)動目標(biāo)檢測是近幾年的研究熱點(diǎn)。如文獻(xiàn)[14]提出了基于Faster RCNN的行人檢測方法,利用CNN提取圖像特征,通過聚類和構(gòu)建區(qū)域建議網(wǎng)絡(luò)(RPN)提取可能含有行人的區(qū)域,再利用檢測網(wǎng)絡(luò)對目標(biāo)區(qū)域進(jìn)行判別和分類,從而得到運(yùn)動目標(biāo)。它提高了目標(biāo)檢測的準(zhǔn)確度及速度,但會對一些形似目標(biāo)的靜止物體產(chǎn)生虛警與誤判。

        因此,目前的運(yùn)動目標(biāo)檢測算法主要存在兩方面的問題:1)當(dāng)存在背景動態(tài)變化、噪聲干擾及物體運(yùn)動緩慢時,目標(biāo)圖像中對比度低的部分區(qū)域易被誤判為背景,導(dǎo)致內(nèi)部信息無法完整獲取,易產(chǎn)生“空洞”問題;2)在物體快速運(yùn)動時,由于邊緣像素的位置發(fā)生較大變化,在差分運(yùn)算時運(yùn)動目標(biāo)的輪廓易產(chǎn)生“重影”及邊緣缺失的現(xiàn)象。

        針對上述問題,本文提出了基于自適應(yīng)學(xué)習(xí)率高斯建模的改進(jìn)三幀差分算法,主要提出了兩點(diǎn)改進(jìn):1)鑒于三幀差分實時性強(qiáng)的優(yōu)勢,為保證快速且盡可能完整地獲取目標(biāo)輪廓,采用任意幀間差分法,使差分結(jié)果不僅包括相鄰幀間的差分信息,還包括跨幀差分的目標(biāo)信息,以此增加差分圖像所包含的邊緣信息,防止由于像素點(diǎn)獲取過多所造成的“重影”;2)鑒于混合高斯背景建模具有完整提取目標(biāo)信息、抗干擾能力強(qiáng)的優(yōu)勢,為彌補(bǔ)三幀差分法極易帶來的“空洞”問題,提出基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模法對目標(biāo)的內(nèi)部信息進(jìn)行提取,通過背景模型的自適應(yīng)修正,實現(xiàn)目標(biāo)內(nèi)部信息的充分獲取,提高目標(biāo)檢測的完整性。

        1 基于自適應(yīng)學(xué)習(xí)率高斯建模的改進(jìn)三幀差分法

        為了快速、完整地從視頻序列中獲取運(yùn)動目標(biāo),本節(jié)分別就目標(biāo)檢測中的混合高斯背景建模[15]以及三幀差分法[16]提出改進(jìn)。

        1.1 基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模

        混合高斯建模運(yùn)用不斷更新的背景模型,通過像素點(diǎn)與背景模型的匹配,實現(xiàn)像素點(diǎn)的準(zhǔn)確分類,然而,由于現(xiàn)實場景環(huán)境復(fù)雜,易出現(xiàn)光照突變、物體遮擋等情況,若采用固定的模型更新速率,導(dǎo)致背景模型的更新速度無法適應(yīng)背景信息的變化,易造成“鬼影”及誤檢現(xiàn)象。因此,為了解決上述問題,本文引入“自適應(yīng)學(xué)習(xí)率”的概念,設(shè)計并實現(xiàn)基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模,針對不同幀設(shè)定與之相適應(yīng)的學(xué)習(xí)率,以達(dá)到背景模型不斷更新的目的。

        1.1.1 問題與解決思路

        為了更好地消除動態(tài)環(huán)境對目標(biāo)獲取的影響,本文采用一種模型更新速率不斷調(diào)整的混合高斯背景建模法,通過設(shè)定幀數(shù)閾值TH,將背景建模劃分為兩個階段,當(dāng)幀數(shù)小于閾值TH時,背景模型處于創(chuàng)建初期,為消除物體由靜止到運(yùn)動造成的“鬼影”,需要通過較快的更新速度,增加高斯模型的權(quán)重及均值,以加速背景更新。當(dāng)幀數(shù)大于閾值TH時,背景模型中的干擾信息得到去除,為避免將靜止或運(yùn)動緩慢的目標(biāo)吸收為背景的一部分,以目標(biāo)像素及相鄰8像素在當(dāng)前幀與背景模型中的差異度為依據(jù)調(diào)整學(xué)習(xí)率,實現(xiàn)背景模型的自適應(yīng)修正,保證模型對動態(tài)環(huán)境的適應(yīng)性。

        1.1.2 高斯模型的更新

        在模型創(chuàng)建之初,往往存在由靜止到運(yùn)動的目標(biāo),若學(xué)習(xí)率 α取值過小,由于模型更新速度不及時,易出現(xiàn)“鬼影”現(xiàn)象;在模型中的干擾因素去除之后,若 α取值過大,容易將運(yùn)動緩慢的目標(biāo)判斷為背景,出現(xiàn)誤檢。因此,本文設(shè)定幀閾值,針對閾值之前視頻幀,以較快的、逐漸遞減的學(xué)習(xí)率更新背景模型,消除由于目標(biāo)運(yùn)動造成的“鬼影”;針對閾值之后的視頻幀,減慢更新速度,并依據(jù)檢測效果對學(xué)習(xí)率進(jìn)行調(diào)整,保證模型的可靠性,以防止過度更新造成的目標(biāo)丟失。學(xué)習(xí)率的設(shè)置為:

        式中,α為學(xué)習(xí)率; λ1,λ2為常數(shù);f為幀數(shù);ΔD為目標(biāo)像素與相鄰8像素在當(dāng)前幀與背景模型中的差值,TH為幀數(shù)閾值,參考量 ΔD為:

        式中,I(x+i,y+j)為目標(biāo)圖像像素點(diǎn);B(x+i,y+j)為背景模型像素點(diǎn)。

        根據(jù)上述公式,在背景模型創(chuàng)建之初,模型的學(xué)習(xí)率隨著幀數(shù)f的增加不斷降低,但仍保持較高的更新速率,可以充分消除背景模型中的干擾信息。當(dāng)幀數(shù)f大于閾值后,以目標(biāo)像素及相鄰8像素在當(dāng)前幀與背景模型中的差異度為依據(jù)調(diào)整學(xué)習(xí)率,充分、及時地反映目標(biāo)像素的變化,從而調(diào)整背景模型的更新速度。

        當(dāng)f≤TH時,隨著幀數(shù)的增加,學(xué)習(xí)率逐漸遞減,模型更新速度由快減慢,通常 α為 [0.03,0.06]時模型的更新效果最優(yōu),即的取值應(yīng)為[ 0.03,0.06]。當(dāng)f>TH時,以目標(biāo)圖像及相鄰像素點(diǎn)在當(dāng)前幀與背景模型中的差值作為模型學(xué)習(xí)率修正的參考量,只需依據(jù)差異程度對學(xué)習(xí)率進(jìn)行調(diào)整即可,即學(xué)習(xí)率隨著差值的減小而降低,從而保證所獲模型的可靠性,減少誤檢現(xiàn)象。

        式(1)中,λ2(1?exp(?ΔD2))應(yīng)滿足而即可得 λ1的取值范圍據(jù)此可得同時,閾值TH滿足求解其值為因其為整數(shù),取18。

        因此,基于自適應(yīng)學(xué)習(xí)率的混合高斯建模即可消除初始時期背景建模中的干擾因素,又能保證后續(xù)背景模型更新的可靠性。

        1.2 基于邊緣提取的三幀差分改進(jìn)算法

        1.2.1 問題與解決思路

        基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模通過設(shè)定不同的學(xué)習(xí)率,使得所獲目標(biāo)更加完整,并通過自適應(yīng)學(xué)習(xí)率加速背景模型的迭代速度,加快了目標(biāo)檢測速度。但由于目標(biāo)邊緣的位置不斷變化,使得像素點(diǎn)獲取不完整,目標(biāo)邊緣缺失的問題仍然存在,且由于混合高斯建模的復(fù)雜性,算法復(fù)雜度依然較高。為解決算法實時性差的問題,本文運(yùn)用三幀差分實現(xiàn)快速提取目標(biāo)輪廓。然而在目標(biāo)運(yùn)動過快時,由于邊緣像素的位置發(fā)生較大變化,僅采用傳統(tǒng)相鄰幀間差分的方式,檢測出的運(yùn)動目標(biāo)輪廓易存在“重影”及邊緣缺失的現(xiàn)象。因此,本文提出改進(jìn)的三幀差分方式,將相鄰幀間差分的方式改變?yōu)槿我鈳g差分法,增加差分圖像所包含的邊緣信息,消除“重影”。但其邊緣信息仍存在缺失的狀況,為解決此問題,本文借鑒Canny算子能夠有效讀取強(qiáng)邊緣和弱邊緣、抑制噪聲[17]的優(yōu)勢,運(yùn)用其填充目標(biāo)邊緣信息,進(jìn)一步完善目標(biāo)輪廓。

        1.2.2 基于邊緣提取的三幀差分改進(jìn)算法

        本文采用任意幀間差分的方式,使差分結(jié)果充分包含視頻圖像中由于物體運(yùn)動所體現(xiàn)出的差異,一定程度上增加目標(biāo)的輪廓信息,避免目標(biāo)快速運(yùn)動時由于邊緣像素提取過多造成的“重影”問題,從而降低了邊緣像素點(diǎn)的誤檢率。其次,針對三幀差分中目標(biāo)邊緣不連續(xù)的問題,引入Canny算子,將其所提取的目標(biāo)輪廓與三幀差分結(jié)果融合,以此作為改進(jìn)后的三幀差分結(jié)果的邊緣補(bǔ)充,使得物體的邊緣更加完整、連續(xù)、平滑。

        算法描述如下:

        1)圖像的預(yù)處理。對視頻圖像進(jìn)行中值濾波處理,減少噪聲干擾,并提取三幀連續(xù)圖像Ik?2、Ik?1、Ik。

        2)設(shè)定差分圖像。將Ik?1與Ik?2差分得到Dk1,Ik與Ik?1差分得到Dk2,Ik與Ik?2差分得到Dk3,使得差分圖像充分包含由于目標(biāo)運(yùn)動所造成的像素差異,以此增加目標(biāo)信息,精確目標(biāo)邊緣,減少由于像素點(diǎn)獲取過多造成的“重影”問題。

        3)運(yùn)用自適應(yīng)閾值T實現(xiàn)差分圖像的二值化:

        4)為使目標(biāo)邊緣更完整、平滑,從以下4個方面補(bǔ)充邊緣像素點(diǎn):

        ①運(yùn)用Canny算子提取三幀圖像的邊緣信息,由于獲取的目標(biāo)邊緣范圍較大,為更加精確目標(biāo)邊緣,將三幀邊緣圖像“與”運(yùn)算得到圖像C。

        ②由于二值圖像Rk3為跨幀差分結(jié)果,雖然其所包含的目標(biāo)信息最為豐富,但差分固有特性易導(dǎo)致邊緣不連續(xù)、缺失的問題。運(yùn)用RC=Rk3orC進(jìn)一步補(bǔ)充邊緣像素點(diǎn),提升目標(biāo)邊緣的完整度。

        ③運(yùn)用RR=Rk1orRk2一定程度上彌補(bǔ)由于物體運(yùn)動緩慢所造成的空洞問題,避免漏檢。

        ④為過濾掉冗余像素點(diǎn),將邊緣檢測與改進(jìn)三幀差分算法所識別出的目標(biāo)邊緣區(qū)域進(jìn)行像素點(diǎn)匹配,確定兩者相交的區(qū)域FD,該區(qū)域即為FD=RC and RR,F(xiàn)D為運(yùn)動目標(biāo)。

        為了直觀地表明本文所提出的基于邊緣提取的三幀差分改進(jìn)算法與傳統(tǒng)三幀差分的不同,選用CAVIAR測試集中的兩個視頻作為測試數(shù)據(jù),視頻均為靜態(tài)背景下的單運(yùn)動目標(biāo),幀速率為25幀/s,且視頻中目標(biāo)所運(yùn)動的距離相同,其中圖1a中的第一幅圖運(yùn)動目標(biāo)為行走狀態(tài),相同運(yùn)動距離所得視頻幀數(shù)為83幀,即幀間差異較小,第二幅圖運(yùn)動目標(biāo)為奔跑狀態(tài),相同運(yùn)動距離所得視頻幀數(shù)為45幀,即幀間差異較大。選擇視頻中第30幀圖像,用本文算法與傳統(tǒng)的三幀差分算法分別進(jìn)行檢測,檢測結(jié)果如圖1所示。

        由上圖可知,在目標(biāo)運(yùn)動緩慢時,傳統(tǒng)的三幀差分算法由于相鄰幀間重疊區(qū)域較大,同一位置的像素點(diǎn)未發(fā)生明顯變化,導(dǎo)致目標(biāo)內(nèi)部產(chǎn)生空洞且邊緣信息缺失,而本文的改進(jìn)算法較大程度地獲取了目標(biāo)的輪廓信息,并在一定程度上解決了目標(biāo)空洞的問題;在目標(biāo)快速運(yùn)動時,傳統(tǒng)的三幀差分算法由于相鄰幀間差異過大,使得邊緣像素點(diǎn)在差分運(yùn)算時產(chǎn)生重影,且空洞及邊緣不連續(xù)的現(xiàn)象仍然存在,而本文的改進(jìn)算法有效解決了目標(biāo)邊緣的“重影”問題,在充分提取目標(biāo)邊緣的同時有效改善了目標(biāo)內(nèi)部信息獲取不完整的問題。

        1.3 基于自適應(yīng)學(xué)習(xí)率高斯建模的改進(jìn)三幀差分算法

        基于自適應(yīng)學(xué)習(xí)率的混合高斯建模提高了運(yùn)動目標(biāo)的完整性,有效抑制了動態(tài)環(huán)境對目標(biāo)檢測的影響,提高了目標(biāo)檢測的準(zhǔn)確率,但其算法復(fù)雜度高,且獲取的目標(biāo)邊緣缺失、間斷。而基于邊緣提取的三幀差分改進(jìn)算法實時性強(qiáng),能充分獲取目標(biāo)輪廓,但由于相鄰幀的重疊區(qū)域較大,“空洞”現(xiàn)象較為嚴(yán)重。因此,本文結(jié)合兩種算法的優(yōu)勢,提出基于自適應(yīng)學(xué)習(xí)率高斯背景建模的改進(jìn)三幀差分算法,在對前景圖像完整提取的同時,提高了算法的運(yùn)行速度。圖2為算法的模塊圖。

        2 實驗分析與驗證

        為對本文算法進(jìn)行驗證,采用配置為corei5-8300H,內(nèi)存為8 GB,顯卡為MX150,硬盤容量為256 G的Windows操作平臺,并在matlab2014b中實現(xiàn)本文算法。本實驗的視頻數(shù)據(jù)選自CAVIAR測試集與IBM公開視頻集。

        2.1 自適應(yīng)學(xué)習(xí)率對混合高斯背景建模的影響

        為了驗證自適應(yīng)學(xué)習(xí)率的混合高斯建模算法能完整提取運(yùn)動目標(biāo),將該算法分別與文獻(xiàn)[12]及文獻(xiàn)[15]進(jìn)行比較,其中文獻(xiàn)[12]采用固定學(xué)習(xí)率的混合高斯建模,文獻(xiàn)[15]將傳統(tǒng)混合高斯模型與三幀差分結(jié)合,運(yùn)用3種算法分別對第40幀視頻圖像中的運(yùn)動目標(biāo)進(jìn)行檢測。圖3為檢測結(jié)果對比圖,圖3a為視頻圖像,圖3b、3c、3d分別為運(yùn)用文獻(xiàn)[12]、文獻(xiàn)[15]和本文方法進(jìn)行目標(biāo)檢測的結(jié)果。圖3b中采用固定學(xué)習(xí)率的混合高斯建模進(jìn)行目標(biāo)檢測,在物體緩慢運(yùn)動時,過快的高斯模型更新導(dǎo)致部分目標(biāo)信息丟失;圖3c中通過混合高斯與三幀差分的結(jié)合,所得目標(biāo)輪廓較為完整,但仍有部分目標(biāo)信息無法獲??;本文算法采用自適應(yīng)學(xué)習(xí)率進(jìn)行混合高斯建模,提取的目標(biāo)特征完整,且邊緣清晰,基本避免了信息丟失及邊緣間斷的問題。

        為了更直觀地表明視頻幀數(shù)、自適應(yīng)學(xué)習(xí)率、運(yùn)動目標(biāo)完整性之間的關(guān)系,本文針對CAVIAR數(shù)據(jù)集中運(yùn)動物體突然進(jìn)入的視頻進(jìn)行檢測,檢測中學(xué)習(xí)率自適應(yīng)調(diào)整的過程如圖4a所示。由圖中可以看出,在背景模型創(chuàng)建之初,為消除“鬼影”,需采用較快的學(xué)習(xí)率更新背景模型,但隨著背景模型的逐步穩(wěn)定,模型的學(xué)習(xí)率不斷降低;當(dāng)背景模型中的干擾因素去除之后,模型的學(xué)習(xí)率自適應(yīng)更新并減慢更新速度。圖4b反映了在不同學(xué)習(xí)率下所提取的目標(biāo)像素點(diǎn)占總目標(biāo)像素點(diǎn)的比例,得出所獲目標(biāo)的完整度與學(xué)習(xí)率之間的關(guān)系。

        為了進(jìn)一步驗證自適應(yīng)學(xué)習(xí)率對混合高斯背景建模檢測準(zhǔn)確率的影響,將本文算法與上述算法對同一視頻圖像進(jìn)行處理,分析三者所得目標(biāo)的完整度,統(tǒng)計結(jié)果如圖5所示。

        由圖5可知,相同目標(biāo)的視頻圖像中,采用本算法所檢測到的目標(biāo)像素大于文獻(xiàn)[12]及文獻(xiàn)[15],因此基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模所提取的運(yùn)動目標(biāo)的完整度更高,即檢測準(zhǔn)確率高于其他算法,相比文獻(xiàn)[12],本文算法的目標(biāo)完整度提高了38.56%,相比文獻(xiàn)[15],本文算法的目標(biāo)完整度提高了15.31%。

        綜上所述,本文提出的基于自適應(yīng)學(xué)習(xí)率的混合高斯建模,提高了算法的檢測準(zhǔn)確率,使目標(biāo)的完整度得到提升。

        2.2 驗證基于邊緣提取的三幀差分改進(jìn)算法

        為了驗證本文提出的基于邊緣提取的三幀差分改進(jìn)算法能有效提取目標(biāo)邊緣,將該算法分別與文獻(xiàn)[3]、文獻(xiàn)[4]進(jìn)行比較,其中,文獻(xiàn)[3]將三幀差分與數(shù)學(xué)形態(tài)性結(jié)合,文獻(xiàn)[4]將傳統(tǒng)三幀差分和邊緣檢測結(jié)合,分別將3種算法用于第35幀視頻圖像中的運(yùn)動目標(biāo)檢測。圖6為檢測結(jié)果對比圖,圖6a為視頻圖像,圖6b、6c、6d分別為運(yùn)用文獻(xiàn)[3]、文獻(xiàn)[4]和本文方法進(jìn)行目標(biāo)檢測的結(jié)果。

        可以看出,圖6b所得邊緣信息在經(jīng)過形態(tài)學(xué)處理后背景噪音基本消除,但目標(biāo)輪廓的呈現(xiàn)仍有欠缺;圖6c在邊緣清晰度上較6b有所提升,但由于相鄰幀的差分方式,目標(biāo)邊緣的像素點(diǎn)獲取過多,存在“重影”現(xiàn)象;圖6d采用本文算法,所得目標(biāo)邊緣平滑且連續(xù),在保證輪廓信息準(zhǔn)確性的同時完整性也有所提升。

        2.3 多場景驗證

        為了充分驗證本文算法的優(yōu)越性,選用IBM數(shù)據(jù)集中不同背景下的多目標(biāo)視頻作為測試數(shù)據(jù),其中視頻1用于靜態(tài)背景的運(yùn)動目標(biāo)檢測,視頻2用于動態(tài)背景的運(yùn)動目標(biāo)檢測。分別運(yùn)用文獻(xiàn)[9]、文獻(xiàn)[5]、文獻(xiàn)[14]中的算法及本文算法對視頻數(shù)據(jù)進(jìn)行處理,并對實驗結(jié)果進(jìn)行分析。其中,文獻(xiàn)[9]采用均值背景建模與三幀差分相結(jié)合的方式,文獻(xiàn)[5]結(jié)合顏色特征與Vibe背景建模,文獻(xiàn)[14]采用Faster-RCNN神經(jīng)網(wǎng)絡(luò)檢測運(yùn)動目標(biāo)。

        2.3.1 靜態(tài)背景的目標(biāo)檢測

        實驗選用靜態(tài)背景的視頻圖像對運(yùn)動目標(biāo)進(jìn)行檢測。將其中第25幀作為檢測數(shù)據(jù),實驗結(jié)果如圖7所示,在靜態(tài)背景下對多個運(yùn)動目標(biāo)進(jìn)行檢測,文獻(xiàn)[9]由于采用均值背景建模,基本提取了運(yùn)動目標(biāo)的輪廓信息,但由于對光照變化敏感,目標(biāo)的內(nèi)部信息沒有完整獲取,存在漏檢現(xiàn)象。文獻(xiàn)[5]所得目標(biāo)圖像較為完整,但干擾像素點(diǎn)較多,存在誤檢目標(biāo),且目標(biāo)邊緣間斷。文獻(xiàn)[14]采用Faster-RCNN神經(jīng)網(wǎng)絡(luò),獲取了大部分運(yùn)動目標(biāo),但對距離遠(yuǎn)、目標(biāo)小的物體無法準(zhǔn)確檢測,且存在誤檢現(xiàn)象。本文算法基本提取了圖像中所包含的運(yùn)動目標(biāo),過濾了圖像中的背景噪聲,使得邊緣信息連續(xù)、平滑,避免了文獻(xiàn)[9]算法的“空洞”問題以及文獻(xiàn)[5]算法與文獻(xiàn)[14]的誤檢現(xiàn)象。

        2.3.2 動態(tài)背景的運(yùn)動目標(biāo)檢測

        當(dāng)運(yùn)動目標(biāo)處于動態(tài)環(huán)境,背景信息會不斷變化,易對目標(biāo)檢測的準(zhǔn)確性造成影響,因此本實驗選用動態(tài)背景視頻(晃動的燈)中第35幀圖像進(jìn)行檢測。實驗結(jié)果如圖8所示,文獻(xiàn)[9]所提算法對環(huán)境光照變化和背景的多模態(tài)性比較敏感,目標(biāo)圖像只獲取了部分目標(biāo)信息,“空洞”現(xiàn)象嚴(yán)重,且存在背景像素的干擾(晃動的燈)。文獻(xiàn)[5]所得目標(biāo)圖像較文獻(xiàn)[9]更為完整,消除了部分干擾信息,但受限于Vibe建立的樣本集數(shù)量,因此目標(biāo)內(nèi)部仍存在“空洞”,同時目標(biāo)的邊緣信息缺失。文獻(xiàn)[14]采用Faster-RCNN神經(jīng)網(wǎng)絡(luò),較為準(zhǔn)確地檢測到了運(yùn)動目標(biāo),但其所獲得的目標(biāo)范圍較大,且過于依賴網(wǎng)絡(luò)訓(xùn)練樣本的數(shù)量,準(zhǔn)確率的波動性較大。本文算法完整地提取了運(yùn)動目標(biāo),邊緣信息連續(xù)、平滑,并有效地抑制了動態(tài)背景對檢測準(zhǔn)確性的影響。

        為了進(jìn)一步驗證本文所提算法在運(yùn)動目標(biāo)檢測中的可行性,選擇查全率(Recall)、查準(zhǔn)率(Precision)及F-Measure(FM)3個標(biāo)準(zhǔn)作為目標(biāo)檢測結(jié)果的評價指標(biāo),F(xiàn)-Measure為查全率與查準(zhǔn)率的加權(quán)調(diào)和平均,其值越大代表算法越可靠:

        式中,TP為正確檢測的運(yùn)動目標(biāo)數(shù);FN為未被檢測出的運(yùn)動目標(biāo)數(shù);FP為誤檢的運(yùn)動目標(biāo)數(shù)。

        分別采用3種算法對視頻1及視頻2中前30幀圖像進(jìn)行檢測,以5幀為間隔,獲取不同幀數(shù)下各算法的查全率、查準(zhǔn)率及FM值,并求取平均值,結(jié)果如表1所示。可知,文獻(xiàn)[9]采用均值背景建模的檢測方法,通過多幀的平均值構(gòu)建背景模型,運(yùn)算速度快,但易受光照和復(fù)雜背景的影響,“漏檢”與“誤檢”目標(biāo)較多,其查全率與查準(zhǔn)率為三者最低。文獻(xiàn)[5]中檢測算法采用基于Vibe的背景建模,對動態(tài)環(huán)境有一定的抗干擾能力,運(yùn)算效率高,因此查全率較文獻(xiàn)[9]算法有所提高,但受光照變換的影響,運(yùn)動目標(biāo)未能全部提取,存在漏檢現(xiàn)象,且目標(biāo)信息獲取不完整。文獻(xiàn)[14]采用的Faster-RCNN神經(jīng)網(wǎng)絡(luò)具有較高的檢測準(zhǔn)確率,且實時性好,但其在復(fù)雜環(huán)境中無法對較小的運(yùn)動目標(biāo)有效檢測,因此查全率較低。本文算法采用混合高斯背景建模,對動態(tài)環(huán)境適應(yīng)性強(qiáng),能準(zhǔn)確檢測運(yùn)動目標(biāo),在提升查全率的同時保證較高的查準(zhǔn)率,并根據(jù)FM值進(jìn)一步表明本文算法更為可靠。

        表1 算法評價結(jié)果

        3 結(jié) 束 語

        本文為了提高運(yùn)動目標(biāo)檢測算法在動態(tài)背景中檢測的完整性及快速性,提出一種改進(jìn)的基于自適應(yīng)學(xué)習(xí)率高斯建模的改進(jìn)三幀差分算法。針對目標(biāo)檢測過程中背景變換及像素點(diǎn)獲取不完整所導(dǎo)致目標(biāo)內(nèi)部信息缺失的問題,采用基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模,加快高斯模型的迭代速度,實現(xiàn)背景模型的自適應(yīng)更新。考慮到基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模算法復(fù)雜度仍然較高,且存在邊緣不連續(xù)的缺陷,提出基于邊緣提取的三幀差分改進(jìn)算法,將采用任意幀間差分法的三幀差分與邊緣圖像結(jié)合,獲取更為完整的目標(biāo)輪廓,并將結(jié)果作為基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模算法的補(bǔ)充。本文算法結(jié)合了混合高斯建模,能完整地提取目標(biāo)內(nèi)部信息,抗干擾能力強(qiáng),能快速提取目標(biāo)輪廓、實時性高。實驗結(jié)果表明,本文算法可以有效地消除動態(tài)背景及光照變換造成的干擾,在復(fù)雜環(huán)境中仍可以完整提取目標(biāo)。

        猜你喜歡
        高斯差分邊緣
        小高斯的大發(fā)現(xiàn)
        數(shù)列與差分
        天才數(shù)學(xué)家——高斯
        一張圖看懂邊緣計算
        基于差分隱私的大數(shù)據(jù)隱私保護(hù)
        有限域上高斯正規(guī)基的一個注記
        相對差分單項測距△DOR
        太空探索(2014年1期)2014-07-10 13:41:50
        差分放大器在生理學(xué)中的應(yīng)用
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        走在邊緣
        雕塑(1996年2期)1996-07-13 03:19:02
        狂插美女流出白浆视频在线观看| 午夜短视频日韩免费| 国产91在线|亚洲| 少妇精品偷拍高潮少妇在线观看| 2019nv天堂香蕉在线观看 | 亚洲一区二区三区无码久久| 亚洲一区二区三区偷拍女厕 | 日韩精品无码av中文无码版| 亚洲黄色性生活一级片| 亚洲成人av在线播放不卡| 亚洲爆乳无码精品aaa片蜜桃 | 五十路丰满中年熟女中出| 99成人精品| 日本激情久久精品人妻热 | 久久久久久九九99精品| 亚洲国产精品一区二区第四页| 日韩极品视频在线观看免费| 天堂蜜桃视频在线观看| 国产日产综合| 在线免费观看韩国a视频| 成年男人午夜视频在线看| 情爱偷拍视频一区二区| 在线观看免费人成视频色9| 人妻少妇无码中文幕久久| 亚洲中文字幕乱码在线观看| 久久亚洲色一区二区三区| 欧美成人一区二区三区在线观看 | 少妇白浆高潮无码免费区| 538亚洲欧美国产日韩在线精品 | 女人被狂躁到高潮视频免费网站| 久久久受www免费人成| 国产成人精品午夜福利在线| 日本黑人人妻一区二区水多多| 男女av一区二区三区| 精品一区二区三区无码免费视频| 国产国拍亚洲精品福利| 毛片成人18毛片免费看| 麻豆一区二区三区蜜桃免费| 福利一区二区三区视频午夜观看| 日本一区中文字幕在线播放| 加勒比一本heyzo高清视频|