郝曉麗,劉 偉,牛保寧,呂進(jìn)來(lái)
(太原理工大學(xué)信息與計(jì)算機(jī)學(xué)院 山西 晉中 030600)
運(yùn)動(dòng)目標(biāo)檢測(cè)能夠識(shí)別目標(biāo)運(yùn)動(dòng)所引起的幀間差異,是計(jì)算機(jī)視覺(jué)研究的一個(gè)重要分支[1]。運(yùn)動(dòng)目標(biāo)檢測(cè)的核心是快速、完整地獲取視頻圖像中的運(yùn)動(dòng)物體??焖傩砸螳@取運(yùn)動(dòng)目標(biāo)時(shí),保持算法的低復(fù)雜度,實(shí)現(xiàn)實(shí)時(shí)檢測(cè)。完整性不僅要保證所獲取目標(biāo)輪廓的完整性,更強(qiáng)調(diào)充分、完整地獲取運(yùn)動(dòng)目標(biāo)的內(nèi)部信息。
為了快速獲取目標(biāo),人們通常采用幀間差分法和基于Vibe的背景建模法[2]。幀間差分法依據(jù)相鄰幀間的圖像差異獲取目標(biāo),該方法計(jì)算簡(jiǎn)單、實(shí)時(shí)性強(qiáng)。但由于幀間圖像同一位置的灰度值非常相近,容易導(dǎo)致空洞現(xiàn)象,使得運(yùn)動(dòng)目標(biāo)的內(nèi)部信息提取不完整。而基于Vibe的背景建模則是將當(dāng)前幀的像素值與其鄰域N個(gè)樣本集建立起的背景模型進(jìn)行比較,通過(guò)設(shè)定閾值將該像素點(diǎn)判定為前景或背景,該方法運(yùn)算速率快,易于實(shí)現(xiàn)。但由于受限于基于少量樣本建立的背景模型,當(dāng)樣本趨于無(wú)窮大時(shí)才能準(zhǔn)確描述場(chǎng)景,在實(shí)際場(chǎng)景的應(yīng)用中,當(dāng)發(fā)生瞬時(shí)的光線突變時(shí),背景模型來(lái)不及更新,容易將前景誤判為背景,產(chǎn)生“空洞”現(xiàn)象。針對(duì)此問(wèn)題,文獻(xiàn)[3]采用膨脹、腐蝕形態(tài)學(xué)方法填充運(yùn)動(dòng)目標(biāo)內(nèi)部細(xì)小的空洞,解決了部分“空洞”現(xiàn)象;但由于像素點(diǎn)的擴(kuò)充及消除,使得圖像中連通區(qū)域的大小發(fā)生改變,很難得到完整且面積接近真實(shí)目標(biāo)的檢測(cè)結(jié)果。文獻(xiàn)[4]在傳統(tǒng)三幀差分基礎(chǔ)上,運(yùn)用Canny算子擴(kuò)充圖像邊緣,減弱了“空洞”現(xiàn)象,但對(duì)于運(yùn)動(dòng)過(guò)快的物體,由于相鄰幀間差異過(guò)大,易產(chǎn)生“重影”。而文獻(xiàn)[5]通過(guò)HSV顏色空間和Vibe算法的結(jié)合實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)內(nèi)部信息的檢測(cè)。
為了保證所獲取目標(biāo)的完整性,通常采用背景差分法[6]和LK光流法[7],LK光流法通過(guò)各個(gè)像素的矢量特征對(duì)視頻圖像進(jìn)行動(dòng)態(tài)分析,從而得到完整目標(biāo),但其計(jì)算量過(guò)大,導(dǎo)致實(shí)時(shí)性和可用性差。背景差分根據(jù)當(dāng)前幀與背景模型之間的差異,構(gòu)建各像素點(diǎn)的高斯模型,通過(guò)目標(biāo)像素與高斯模型的匹配,以獲取運(yùn)動(dòng)目標(biāo)。此方法通過(guò)建立穩(wěn)定的背景模型來(lái)保證獲取目標(biāo)內(nèi)部信息的完整性[8]。建立背景模型的方法有均值背景建模[9]、CodeBook背景建模[10]、單高斯背景建模[11]等。但上述方法所建立的背景模型僅適用于單一場(chǎng)景,在復(fù)雜背景下由于背景像素點(diǎn)與噪音的干擾,易造成目標(biāo)信息的丟失及誤判。而基于混合高斯建模的背景差分法[12]以不斷更新背景模型的方式實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的完整提取,但在學(xué)習(xí)過(guò)程中,高斯模型的更新多采用固定速率,忽略了在不同階段的背景建模中,其更新速率應(yīng)存在差異的事實(shí)。若僅以固定的更新速率完成背景模型的更新,易造成算法復(fù)雜度增加,實(shí)時(shí)性受到影響。針對(duì)實(shí)時(shí)性差等問(wèn)題,文獻(xiàn)[13]運(yùn)用幀間差分實(shí)時(shí)性好的優(yōu)勢(shì),來(lái)提高混合高斯建模的運(yùn)算速度,但由于模型的更新速率無(wú)法適應(yīng)背景信息的變化,使得算法對(duì)動(dòng)態(tài)背景的適應(yīng)性減弱;同時(shí)在物體運(yùn)動(dòng)緩慢或過(guò)快時(shí),易造成像素點(diǎn)重疊較多或位置區(qū)域變化過(guò)大,若延用傳統(tǒng)相鄰幀間差分方式,會(huì)造成目標(biāo)信息的丟失或“重影”。
運(yùn)用深度學(xué)習(xí)的方法實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測(cè)是近幾年的研究熱點(diǎn)。如文獻(xiàn)[14]提出了基于Faster RCNN的行人檢測(cè)方法,利用CNN提取圖像特征,通過(guò)聚類和構(gòu)建區(qū)域建議網(wǎng)絡(luò)(RPN)提取可能含有行人的區(qū)域,再利用檢測(cè)網(wǎng)絡(luò)對(duì)目標(biāo)區(qū)域進(jìn)行判別和分類,從而得到運(yùn)動(dòng)目標(biāo)。它提高了目標(biāo)檢測(cè)的準(zhǔn)確度及速度,但會(huì)對(duì)一些形似目標(biāo)的靜止物體產(chǎn)生虛警與誤判。
因此,目前的運(yùn)動(dòng)目標(biāo)檢測(cè)算法主要存在兩方面的問(wèn)題:1)當(dāng)存在背景動(dòng)態(tài)變化、噪聲干擾及物體運(yùn)動(dòng)緩慢時(shí),目標(biāo)圖像中對(duì)比度低的部分區(qū)域易被誤判為背景,導(dǎo)致內(nèi)部信息無(wú)法完整獲取,易產(chǎn)生“空洞”問(wèn)題;2)在物體快速運(yùn)動(dòng)時(shí),由于邊緣像素的位置發(fā)生較大變化,在差分運(yùn)算時(shí)運(yùn)動(dòng)目標(biāo)的輪廓易產(chǎn)生“重影”及邊緣缺失的現(xiàn)象。
針對(duì)上述問(wèn)題,本文提出了基于自適應(yīng)學(xué)習(xí)率高斯建模的改進(jìn)三幀差分算法,主要提出了兩點(diǎn)改進(jìn):1)鑒于三幀差分實(shí)時(shí)性強(qiáng)的優(yōu)勢(shì),為保證快速且盡可能完整地獲取目標(biāo)輪廓,采用任意幀間差分法,使差分結(jié)果不僅包括相鄰幀間的差分信息,還包括跨幀差分的目標(biāo)信息,以此增加差分圖像所包含的邊緣信息,防止由于像素點(diǎn)獲取過(guò)多所造成的“重影”;2)鑒于混合高斯背景建模具有完整提取目標(biāo)信息、抗干擾能力強(qiáng)的優(yōu)勢(shì),為彌補(bǔ)三幀差分法極易帶來(lái)的“空洞”問(wèn)題,提出基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模法對(duì)目標(biāo)的內(nèi)部信息進(jìn)行提取,通過(guò)背景模型的自適應(yīng)修正,實(shí)現(xiàn)目標(biāo)內(nèi)部信息的充分獲取,提高目標(biāo)檢測(cè)的完整性。
為了快速、完整地從視頻序列中獲取運(yùn)動(dòng)目標(biāo),本節(jié)分別就目標(biāo)檢測(cè)中的混合高斯背景建模[15]以及三幀差分法[16]提出改進(jìn)。
混合高斯建模運(yùn)用不斷更新的背景模型,通過(guò)像素點(diǎn)與背景模型的匹配,實(shí)現(xiàn)像素點(diǎn)的準(zhǔn)確分類,然而,由于現(xiàn)實(shí)場(chǎng)景環(huán)境復(fù)雜,易出現(xiàn)光照突變、物體遮擋等情況,若采用固定的模型更新速率,導(dǎo)致背景模型的更新速度無(wú)法適應(yīng)背景信息的變化,易造成“鬼影”及誤檢現(xiàn)象。因此,為了解決上述問(wèn)題,本文引入“自適應(yīng)學(xué)習(xí)率”的概念,設(shè)計(jì)并實(shí)現(xiàn)基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模,針對(duì)不同幀設(shè)定與之相適應(yīng)的學(xué)習(xí)率,以達(dá)到背景模型不斷更新的目的。
1.1.1 問(wèn)題與解決思路
為了更好地消除動(dòng)態(tài)環(huán)境對(duì)目標(biāo)獲取的影響,本文采用一種模型更新速率不斷調(diào)整的混合高斯背景建模法,通過(guò)設(shè)定幀數(shù)閾值TH,將背景建模劃分為兩個(gè)階段,當(dāng)幀數(shù)小于閾值TH時(shí),背景模型處于創(chuàng)建初期,為消除物體由靜止到運(yùn)動(dòng)造成的“鬼影”,需要通過(guò)較快的更新速度,增加高斯模型的權(quán)重及均值,以加速背景更新。當(dāng)幀數(shù)大于閾值TH時(shí),背景模型中的干擾信息得到去除,為避免將靜止或運(yùn)動(dòng)緩慢的目標(biāo)吸收為背景的一部分,以目標(biāo)像素及相鄰8像素在當(dāng)前幀與背景模型中的差異度為依據(jù)調(diào)整學(xué)習(xí)率,實(shí)現(xiàn)背景模型的自適應(yīng)修正,保證模型對(duì)動(dòng)態(tài)環(huán)境的適應(yīng)性。
1.1.2 高斯模型的更新
在模型創(chuàng)建之初,往往存在由靜止到運(yùn)動(dòng)的目標(biāo),若學(xué)習(xí)率 α取值過(guò)小,由于模型更新速度不及時(shí),易出現(xiàn)“鬼影”現(xiàn)象;在模型中的干擾因素去除之后,若 α取值過(guò)大,容易將運(yùn)動(dòng)緩慢的目標(biāo)判斷為背景,出現(xiàn)誤檢。因此,本文設(shè)定幀閾值,針對(duì)閾值之前視頻幀,以較快的、逐漸遞減的學(xué)習(xí)率更新背景模型,消除由于目標(biāo)運(yùn)動(dòng)造成的“鬼影”;針對(duì)閾值之后的視頻幀,減慢更新速度,并依據(jù)檢測(cè)效果對(duì)學(xué)習(xí)率進(jìn)行調(diào)整,保證模型的可靠性,以防止過(guò)度更新造成的目標(biāo)丟失。學(xué)習(xí)率的設(shè)置為:
式中,α為學(xué)習(xí)率; λ1,λ2為常數(shù);f為幀數(shù);ΔD為目標(biāo)像素與相鄰8像素在當(dāng)前幀與背景模型中的差值,TH為幀數(shù)閾值,參考量 ΔD為:
式中,I(x+i,y+j)為目標(biāo)圖像像素點(diǎn);B(x+i,y+j)為背景模型像素點(diǎn)。
根據(jù)上述公式,在背景模型創(chuàng)建之初,模型的學(xué)習(xí)率隨著幀數(shù)f的增加不斷降低,但仍保持較高的更新速率,可以充分消除背景模型中的干擾信息。當(dāng)幀數(shù)f大于閾值后,以目標(biāo)像素及相鄰8像素在當(dāng)前幀與背景模型中的差異度為依據(jù)調(diào)整學(xué)習(xí)率,充分、及時(shí)地反映目標(biāo)像素的變化,從而調(diào)整背景模型的更新速度。
當(dāng)f≤TH時(shí),隨著幀數(shù)的增加,學(xué)習(xí)率逐漸遞減,模型更新速度由快減慢,通常 α為 [0.03,0.06]時(shí)模型的更新效果最優(yōu),即的取值應(yīng)為[ 0.03,0.06]。當(dāng)f>TH時(shí),以目標(biāo)圖像及相鄰像素點(diǎn)在當(dāng)前幀與背景模型中的差值作為模型學(xué)習(xí)率修正的參考量,只需依據(jù)差異程度對(duì)學(xué)習(xí)率進(jìn)行調(diào)整即可,即學(xué)習(xí)率隨著差值的減小而降低,從而保證所獲模型的可靠性,減少誤檢現(xiàn)象。
式(1)中,λ2(1?exp(?ΔD2))應(yīng)滿足而即可得 λ1的取值范圍據(jù)此可得同時(shí),閾值TH滿足求解其值為因其為整數(shù),取18。
因此,基于自適應(yīng)學(xué)習(xí)率的混合高斯建模即可消除初始時(shí)期背景建模中的干擾因素,又能保證后續(xù)背景模型更新的可靠性。
1.2.1 問(wèn)題與解決思路
基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模通過(guò)設(shè)定不同的學(xué)習(xí)率,使得所獲目標(biāo)更加完整,并通過(guò)自適應(yīng)學(xué)習(xí)率加速背景模型的迭代速度,加快了目標(biāo)檢測(cè)速度。但由于目標(biāo)邊緣的位置不斷變化,使得像素點(diǎn)獲取不完整,目標(biāo)邊緣缺失的問(wèn)題仍然存在,且由于混合高斯建模的復(fù)雜性,算法復(fù)雜度依然較高。為解決算法實(shí)時(shí)性差的問(wèn)題,本文運(yùn)用三幀差分實(shí)現(xiàn)快速提取目標(biāo)輪廓。然而在目標(biāo)運(yùn)動(dòng)過(guò)快時(shí),由于邊緣像素的位置發(fā)生較大變化,僅采用傳統(tǒng)相鄰幀間差分的方式,檢測(cè)出的運(yùn)動(dòng)目標(biāo)輪廓易存在“重影”及邊緣缺失的現(xiàn)象。因此,本文提出改進(jìn)的三幀差分方式,將相鄰幀間差分的方式改變?yōu)槿我鈳g差分法,增加差分圖像所包含的邊緣信息,消除“重影”。但其邊緣信息仍存在缺失的狀況,為解決此問(wèn)題,本文借鑒Canny算子能夠有效讀取強(qiáng)邊緣和弱邊緣、抑制噪聲[17]的優(yōu)勢(shì),運(yùn)用其填充目標(biāo)邊緣信息,進(jìn)一步完善目標(biāo)輪廓。
1.2.2 基于邊緣提取的三幀差分改進(jìn)算法
本文采用任意幀間差分的方式,使差分結(jié)果充分包含視頻圖像中由于物體運(yùn)動(dòng)所體現(xiàn)出的差異,一定程度上增加目標(biāo)的輪廓信息,避免目標(biāo)快速運(yùn)動(dòng)時(shí)由于邊緣像素提取過(guò)多造成的“重影”問(wèn)題,從而降低了邊緣像素點(diǎn)的誤檢率。其次,針對(duì)三幀差分中目標(biāo)邊緣不連續(xù)的問(wèn)題,引入Canny算子,將其所提取的目標(biāo)輪廓與三幀差分結(jié)果融合,以此作為改進(jìn)后的三幀差分結(jié)果的邊緣補(bǔ)充,使得物體的邊緣更加完整、連續(xù)、平滑。
算法描述如下:
1)圖像的預(yù)處理。對(duì)視頻圖像進(jìn)行中值濾波處理,減少噪聲干擾,并提取三幀連續(xù)圖像Ik?2、Ik?1、Ik。
2)設(shè)定差分圖像。將Ik?1與Ik?2差分得到Dk1,Ik與Ik?1差分得到Dk2,Ik與Ik?2差分得到Dk3,使得差分圖像充分包含由于目標(biāo)運(yùn)動(dòng)所造成的像素差異,以此增加目標(biāo)信息,精確目標(biāo)邊緣,減少由于像素點(diǎn)獲取過(guò)多造成的“重影”問(wèn)題。
3)運(yùn)用自適應(yīng)閾值T實(shí)現(xiàn)差分圖像的二值化:
4)為使目標(biāo)邊緣更完整、平滑,從以下4個(gè)方面補(bǔ)充邊緣像素點(diǎn):
①運(yùn)用Canny算子提取三幀圖像的邊緣信息,由于獲取的目標(biāo)邊緣范圍較大,為更加精確目標(biāo)邊緣,將三幀邊緣圖像“與”運(yùn)算得到圖像C。
②由于二值圖像Rk3為跨幀差分結(jié)果,雖然其所包含的目標(biāo)信息最為豐富,但差分固有特性易導(dǎo)致邊緣不連續(xù)、缺失的問(wèn)題。運(yùn)用RC=Rk3orC進(jìn)一步補(bǔ)充邊緣像素點(diǎn),提升目標(biāo)邊緣的完整度。
③運(yùn)用RR=Rk1orRk2一定程度上彌補(bǔ)由于物體運(yùn)動(dòng)緩慢所造成的空洞問(wèn)題,避免漏檢。
④為過(guò)濾掉冗余像素點(diǎn),將邊緣檢測(cè)與改進(jìn)三幀差分算法所識(shí)別出的目標(biāo)邊緣區(qū)域進(jìn)行像素點(diǎn)匹配,確定兩者相交的區(qū)域FD,該區(qū)域即為FD=RC and RR,F(xiàn)D為運(yùn)動(dòng)目標(biāo)。
為了直觀地表明本文所提出的基于邊緣提取的三幀差分改進(jìn)算法與傳統(tǒng)三幀差分的不同,選用CAVIAR測(cè)試集中的兩個(gè)視頻作為測(cè)試數(shù)據(jù),視頻均為靜態(tài)背景下的單運(yùn)動(dòng)目標(biāo),幀速率為25幀/s,且視頻中目標(biāo)所運(yùn)動(dòng)的距離相同,其中圖1a中的第一幅圖運(yùn)動(dòng)目標(biāo)為行走狀態(tài),相同運(yùn)動(dòng)距離所得視頻幀數(shù)為83幀,即幀間差異較小,第二幅圖運(yùn)動(dòng)目標(biāo)為奔跑狀態(tài),相同運(yùn)動(dòng)距離所得視頻幀數(shù)為45幀,即幀間差異較大。選擇視頻中第30幀圖像,用本文算法與傳統(tǒng)的三幀差分算法分別進(jìn)行檢測(cè),檢測(cè)結(jié)果如圖1所示。
由上圖可知,在目標(biāo)運(yùn)動(dòng)緩慢時(shí),傳統(tǒng)的三幀差分算法由于相鄰幀間重疊區(qū)域較大,同一位置的像素點(diǎn)未發(fā)生明顯變化,導(dǎo)致目標(biāo)內(nèi)部產(chǎn)生空洞且邊緣信息缺失,而本文的改進(jìn)算法較大程度地獲取了目標(biāo)的輪廓信息,并在一定程度上解決了目標(biāo)空洞的問(wèn)題;在目標(biāo)快速運(yùn)動(dòng)時(shí),傳統(tǒng)的三幀差分算法由于相鄰幀間差異過(guò)大,使得邊緣像素點(diǎn)在差分運(yùn)算時(shí)產(chǎn)生重影,且空洞及邊緣不連續(xù)的現(xiàn)象仍然存在,而本文的改進(jìn)算法有效解決了目標(biāo)邊緣的“重影”問(wèn)題,在充分提取目標(biāo)邊緣的同時(shí)有效改善了目標(biāo)內(nèi)部信息獲取不完整的問(wèn)題。
基于自適應(yīng)學(xué)習(xí)率的混合高斯建模提高了運(yùn)動(dòng)目標(biāo)的完整性,有效抑制了動(dòng)態(tài)環(huán)境對(duì)目標(biāo)檢測(cè)的影響,提高了目標(biāo)檢測(cè)的準(zhǔn)確率,但其算法復(fù)雜度高,且獲取的目標(biāo)邊緣缺失、間斷。而基于邊緣提取的三幀差分改進(jìn)算法實(shí)時(shí)性強(qiáng),能充分獲取目標(biāo)輪廓,但由于相鄰幀的重疊區(qū)域較大,“空洞”現(xiàn)象較為嚴(yán)重。因此,本文結(jié)合兩種算法的優(yōu)勢(shì),提出基于自適應(yīng)學(xué)習(xí)率高斯背景建模的改進(jìn)三幀差分算法,在對(duì)前景圖像完整提取的同時(shí),提高了算法的運(yùn)行速度。圖2為算法的模塊圖。
為對(duì)本文算法進(jìn)行驗(yàn)證,采用配置為corei5-8300H,內(nèi)存為8 GB,顯卡為MX150,硬盤(pán)容量為256 G的Windows操作平臺(tái),并在matlab2014b中實(shí)現(xiàn)本文算法。本實(shí)驗(yàn)的視頻數(shù)據(jù)選自CAVIAR測(cè)試集與IBM公開(kāi)視頻集。
為了驗(yàn)證自適應(yīng)學(xué)習(xí)率的混合高斯建模算法能完整提取運(yùn)動(dòng)目標(biāo),將該算法分別與文獻(xiàn)[12]及文獻(xiàn)[15]進(jìn)行比較,其中文獻(xiàn)[12]采用固定學(xué)習(xí)率的混合高斯建模,文獻(xiàn)[15]將傳統(tǒng)混合高斯模型與三幀差分結(jié)合,運(yùn)用3種算法分別對(duì)第40幀視頻圖像中的運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)。圖3為檢測(cè)結(jié)果對(duì)比圖,圖3a為視頻圖像,圖3b、3c、3d分別為運(yùn)用文獻(xiàn)[12]、文獻(xiàn)[15]和本文方法進(jìn)行目標(biāo)檢測(cè)的結(jié)果。圖3b中采用固定學(xué)習(xí)率的混合高斯建模進(jìn)行目標(biāo)檢測(cè),在物體緩慢運(yùn)動(dòng)時(shí),過(guò)快的高斯模型更新導(dǎo)致部分目標(biāo)信息丟失;圖3c中通過(guò)混合高斯與三幀差分的結(jié)合,所得目標(biāo)輪廓較為完整,但仍有部分目標(biāo)信息無(wú)法獲取;本文算法采用自適應(yīng)學(xué)習(xí)率進(jìn)行混合高斯建模,提取的目標(biāo)特征完整,且邊緣清晰,基本避免了信息丟失及邊緣間斷的問(wèn)題。
為了更直觀地表明視頻幀數(shù)、自適應(yīng)學(xué)習(xí)率、運(yùn)動(dòng)目標(biāo)完整性之間的關(guān)系,本文針對(duì)CAVIAR數(shù)據(jù)集中運(yùn)動(dòng)物體突然進(jìn)入的視頻進(jìn)行檢測(cè),檢測(cè)中學(xué)習(xí)率自適應(yīng)調(diào)整的過(guò)程如圖4a所示。由圖中可以看出,在背景模型創(chuàng)建之初,為消除“鬼影”,需采用較快的學(xué)習(xí)率更新背景模型,但隨著背景模型的逐步穩(wěn)定,模型的學(xué)習(xí)率不斷降低;當(dāng)背景模型中的干擾因素去除之后,模型的學(xué)習(xí)率自適應(yīng)更新并減慢更新速度。圖4b反映了在不同學(xué)習(xí)率下所提取的目標(biāo)像素點(diǎn)占總目標(biāo)像素點(diǎn)的比例,得出所獲目標(biāo)的完整度與學(xué)習(xí)率之間的關(guān)系。
為了進(jìn)一步驗(yàn)證自適應(yīng)學(xué)習(xí)率對(duì)混合高斯背景建模檢測(cè)準(zhǔn)確率的影響,將本文算法與上述算法對(duì)同一視頻圖像進(jìn)行處理,分析三者所得目標(biāo)的完整度,統(tǒng)計(jì)結(jié)果如圖5所示。
由圖5可知,相同目標(biāo)的視頻圖像中,采用本算法所檢測(cè)到的目標(biāo)像素大于文獻(xiàn)[12]及文獻(xiàn)[15],因此基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模所提取的運(yùn)動(dòng)目標(biāo)的完整度更高,即檢測(cè)準(zhǔn)確率高于其他算法,相比文獻(xiàn)[12],本文算法的目標(biāo)完整度提高了38.56%,相比文獻(xiàn)[15],本文算法的目標(biāo)完整度提高了15.31%。
綜上所述,本文提出的基于自適應(yīng)學(xué)習(xí)率的混合高斯建模,提高了算法的檢測(cè)準(zhǔn)確率,使目標(biāo)的完整度得到提升。
為了驗(yàn)證本文提出的基于邊緣提取的三幀差分改進(jìn)算法能有效提取目標(biāo)邊緣,將該算法分別與文獻(xiàn)[3]、文獻(xiàn)[4]進(jìn)行比較,其中,文獻(xiàn)[3]將三幀差分與數(shù)學(xué)形態(tài)性結(jié)合,文獻(xiàn)[4]將傳統(tǒng)三幀差分和邊緣檢測(cè)結(jié)合,分別將3種算法用于第35幀視頻圖像中的運(yùn)動(dòng)目標(biāo)檢測(cè)。圖6為檢測(cè)結(jié)果對(duì)比圖,圖6a為視頻圖像,圖6b、6c、6d分別為運(yùn)用文獻(xiàn)[3]、文獻(xiàn)[4]和本文方法進(jìn)行目標(biāo)檢測(cè)的結(jié)果。
可以看出,圖6b所得邊緣信息在經(jīng)過(guò)形態(tài)學(xué)處理后背景噪音基本消除,但目標(biāo)輪廓的呈現(xiàn)仍有欠缺;圖6c在邊緣清晰度上較6b有所提升,但由于相鄰幀的差分方式,目標(biāo)邊緣的像素點(diǎn)獲取過(guò)多,存在“重影”現(xiàn)象;圖6d采用本文算法,所得目標(biāo)邊緣平滑且連續(xù),在保證輪廓信息準(zhǔn)確性的同時(shí)完整性也有所提升。
為了充分驗(yàn)證本文算法的優(yōu)越性,選用IBM數(shù)據(jù)集中不同背景下的多目標(biāo)視頻作為測(cè)試數(shù)據(jù),其中視頻1用于靜態(tài)背景的運(yùn)動(dòng)目標(biāo)檢測(cè),視頻2用于動(dòng)態(tài)背景的運(yùn)動(dòng)目標(biāo)檢測(cè)。分別運(yùn)用文獻(xiàn)[9]、文獻(xiàn)[5]、文獻(xiàn)[14]中的算法及本文算法對(duì)視頻數(shù)據(jù)進(jìn)行處理,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析。其中,文獻(xiàn)[9]采用均值背景建模與三幀差分相結(jié)合的方式,文獻(xiàn)[5]結(jié)合顏色特征與Vibe背景建模,文獻(xiàn)[14]采用Faster-RCNN神經(jīng)網(wǎng)絡(luò)檢測(cè)運(yùn)動(dòng)目標(biāo)。
2.3.1 靜態(tài)背景的目標(biāo)檢測(cè)
實(shí)驗(yàn)選用靜態(tài)背景的視頻圖像對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)。將其中第25幀作為檢測(cè)數(shù)據(jù),實(shí)驗(yàn)結(jié)果如圖7所示,在靜態(tài)背景下對(duì)多個(gè)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè),文獻(xiàn)[9]由于采用均值背景建模,基本提取了運(yùn)動(dòng)目標(biāo)的輪廓信息,但由于對(duì)光照變化敏感,目標(biāo)的內(nèi)部信息沒(méi)有完整獲取,存在漏檢現(xiàn)象。文獻(xiàn)[5]所得目標(biāo)圖像較為完整,但干擾像素點(diǎn)較多,存在誤檢目標(biāo),且目標(biāo)邊緣間斷。文獻(xiàn)[14]采用Faster-RCNN神經(jīng)網(wǎng)絡(luò),獲取了大部分運(yùn)動(dòng)目標(biāo),但對(duì)距離遠(yuǎn)、目標(biāo)小的物體無(wú)法準(zhǔn)確檢測(cè),且存在誤檢現(xiàn)象。本文算法基本提取了圖像中所包含的運(yùn)動(dòng)目標(biāo),過(guò)濾了圖像中的背景噪聲,使得邊緣信息連續(xù)、平滑,避免了文獻(xiàn)[9]算法的“空洞”問(wèn)題以及文獻(xiàn)[5]算法與文獻(xiàn)[14]的誤檢現(xiàn)象。
2.3.2 動(dòng)態(tài)背景的運(yùn)動(dòng)目標(biāo)檢測(cè)
當(dāng)運(yùn)動(dòng)目標(biāo)處于動(dòng)態(tài)環(huán)境,背景信息會(huì)不斷變化,易對(duì)目標(biāo)檢測(cè)的準(zhǔn)確性造成影響,因此本實(shí)驗(yàn)選用動(dòng)態(tài)背景視頻(晃動(dòng)的燈)中第35幀圖像進(jìn)行檢測(cè)。實(shí)驗(yàn)結(jié)果如圖8所示,文獻(xiàn)[9]所提算法對(duì)環(huán)境光照變化和背景的多模態(tài)性比較敏感,目標(biāo)圖像只獲取了部分目標(biāo)信息,“空洞”現(xiàn)象嚴(yán)重,且存在背景像素的干擾(晃動(dòng)的燈)。文獻(xiàn)[5]所得目標(biāo)圖像較文獻(xiàn)[9]更為完整,消除了部分干擾信息,但受限于Vibe建立的樣本集數(shù)量,因此目標(biāo)內(nèi)部仍存在“空洞”,同時(shí)目標(biāo)的邊緣信息缺失。文獻(xiàn)[14]采用Faster-RCNN神經(jīng)網(wǎng)絡(luò),較為準(zhǔn)確地檢測(cè)到了運(yùn)動(dòng)目標(biāo),但其所獲得的目標(biāo)范圍較大,且過(guò)于依賴網(wǎng)絡(luò)訓(xùn)練樣本的數(shù)量,準(zhǔn)確率的波動(dòng)性較大。本文算法完整地提取了運(yùn)動(dòng)目標(biāo),邊緣信息連續(xù)、平滑,并有效地抑制了動(dòng)態(tài)背景對(duì)檢測(cè)準(zhǔn)確性的影響。
為了進(jìn)一步驗(yàn)證本文所提算法在運(yùn)動(dòng)目標(biāo)檢測(cè)中的可行性,選擇查全率(Recall)、查準(zhǔn)率(Precision)及F-Measure(FM)3個(gè)標(biāo)準(zhǔn)作為目標(biāo)檢測(cè)結(jié)果的評(píng)價(jià)指標(biāo),F(xiàn)-Measure為查全率與查準(zhǔn)率的加權(quán)調(diào)和平均,其值越大代表算法越可靠:
式中,TP為正確檢測(cè)的運(yùn)動(dòng)目標(biāo)數(shù);FN為未被檢測(cè)出的運(yùn)動(dòng)目標(biāo)數(shù);FP為誤檢的運(yùn)動(dòng)目標(biāo)數(shù)。
分別采用3種算法對(duì)視頻1及視頻2中前30幀圖像進(jìn)行檢測(cè),以5幀為間隔,獲取不同幀數(shù)下各算法的查全率、查準(zhǔn)率及FM值,并求取平均值,結(jié)果如表1所示。可知,文獻(xiàn)[9]采用均值背景建模的檢測(cè)方法,通過(guò)多幀的平均值構(gòu)建背景模型,運(yùn)算速度快,但易受光照和復(fù)雜背景的影響,“漏檢”與“誤檢”目標(biāo)較多,其查全率與查準(zhǔn)率為三者最低。文獻(xiàn)[5]中檢測(cè)算法采用基于Vibe的背景建模,對(duì)動(dòng)態(tài)環(huán)境有一定的抗干擾能力,運(yùn)算效率高,因此查全率較文獻(xiàn)[9]算法有所提高,但受光照變換的影響,運(yùn)動(dòng)目標(biāo)未能全部提取,存在漏檢現(xiàn)象,且目標(biāo)信息獲取不完整。文獻(xiàn)[14]采用的Faster-RCNN神經(jīng)網(wǎng)絡(luò)具有較高的檢測(cè)準(zhǔn)確率,且實(shí)時(shí)性好,但其在復(fù)雜環(huán)境中無(wú)法對(duì)較小的運(yùn)動(dòng)目標(biāo)有效檢測(cè),因此查全率較低。本文算法采用混合高斯背景建模,對(duì)動(dòng)態(tài)環(huán)境適應(yīng)性強(qiáng),能準(zhǔn)確檢測(cè)運(yùn)動(dòng)目標(biāo),在提升查全率的同時(shí)保證較高的查準(zhǔn)率,并根據(jù)FM值進(jìn)一步表明本文算法更為可靠。
表1 算法評(píng)價(jià)結(jié)果
本文為了提高運(yùn)動(dòng)目標(biāo)檢測(cè)算法在動(dòng)態(tài)背景中檢測(cè)的完整性及快速性,提出一種改進(jìn)的基于自適應(yīng)學(xué)習(xí)率高斯建模的改進(jìn)三幀差分算法。針對(duì)目標(biāo)檢測(cè)過(guò)程中背景變換及像素點(diǎn)獲取不完整所導(dǎo)致目標(biāo)內(nèi)部信息缺失的問(wèn)題,采用基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模,加快高斯模型的迭代速度,實(shí)現(xiàn)背景模型的自適應(yīng)更新??紤]到基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模算法復(fù)雜度仍然較高,且存在邊緣不連續(xù)的缺陷,提出基于邊緣提取的三幀差分改進(jìn)算法,將采用任意幀間差分法的三幀差分與邊緣圖像結(jié)合,獲取更為完整的目標(biāo)輪廓,并將結(jié)果作為基于自適應(yīng)學(xué)習(xí)率的混合高斯背景建模算法的補(bǔ)充。本文算法結(jié)合了混合高斯建模,能完整地提取目標(biāo)內(nèi)部信息,抗干擾能力強(qiáng),能快速提取目標(biāo)輪廓、實(shí)時(shí)性高。實(shí)驗(yàn)結(jié)果表明,本文算法可以有效地消除動(dòng)態(tài)背景及光照變換造成的干擾,在復(fù)雜環(huán)境中仍可以完整提取目標(biāo)。