亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于小波分析的codeword算法改進(jìn)

        2014-11-07 02:59:22黃昊馬杰
        科技資訊 2014年16期

        黃昊++馬杰

        摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。

        關(guān)鍵詞:行為檢測 codeword 前景分離

        中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02

        行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。

        1 運(yùn)動(dòng)目標(biāo)檢測

        1.1 簡介

        一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。

        codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的?;旌细咚鼓P蛯?duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。

        1.2 codeword模型的建立

        codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:

        ,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。

        (1)L←0,←Φ(空集)。

        (2)for t=1…N。

        ①xt=(R,G,B),I2←R2+G2+B2

        ②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm

        (a)colordist(xt,vm)≤ε1

        (b)brightness(I,〈m,m〉) = true

        ③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL

        VL←(R,G,B)

        auxL←〈I,I,1,t-1,t,t〉

        ④否則更新所匹配的codeword cm

        Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉

        Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )

        auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉

        end

        對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。

        codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。

        2 改進(jìn)算法的提出和實(shí)現(xiàn)

        2.1 改進(jìn)算法的基本思想

        從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。

        針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。

        2.2 改進(jìn)算法的實(shí)現(xiàn)

        結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:

        某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。

        在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:

        ||xt||2=R2+G2+B2,

        ||vi||2=R-i2+G-i2+B-i2,

        〈xt,vi〉2=(R-iR+G-iG+B-iB)2

        顏色差異δ通過以下公式計(jì)算

        p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,

        colordist(xt,vi)2=δ2=||xt||2—p2.

        亮度差異判斷條件為:

        如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假

        Ilow = α,Ihi = min{β,/α}。其中α<1,β>1

        建立了背景之后,下一步就是分離前景,具體算法如下:

        x=(G,R,B),I2←R2+G2+B2

        對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:

        colordist(x,cm)≤ε2

        brightness(I,〈m,m〉)=true

        使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。

        如果沒有匹配,則x為前景,否則為背景。

        其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。

        3 改進(jìn)算法的測試

        改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。

        參考文獻(xiàn)

        [1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.

        [2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.

        [3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.

        [4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint

        摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。

        關(guān)鍵詞:行為檢測 codeword 前景分離

        中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02

        行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。

        1 運(yùn)動(dòng)目標(biāo)檢測

        1.1 簡介

        一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。

        codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的。混合高斯模型對(duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。

        1.2 codeword模型的建立

        codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:

        ,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。

        (1)L←0,←Φ(空集)。

        (2)for t=1…N。

        ①xt=(R,G,B),I2←R2+G2+B2

        ②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm

        (a)colordist(xt,vm)≤ε1

        (b)brightness(I,〈m,m〉) = true

        ③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL

        VL←(R,G,B)

        auxL←〈I,I,1,t-1,t,t〉

        ④否則更新所匹配的codeword cm

        Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉

        Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )

        auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉

        end

        對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。

        codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。

        2 改進(jìn)算法的提出和實(shí)現(xiàn)

        2.1 改進(jìn)算法的基本思想

        從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。

        針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。

        2.2 改進(jìn)算法的實(shí)現(xiàn)

        結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:

        某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。

        在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:

        ||xt||2=R2+G2+B2,

        ||vi||2=R-i2+G-i2+B-i2,

        〈xt,vi〉2=(R-iR+G-iG+B-iB)2

        顏色差異δ通過以下公式計(jì)算

        p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,

        colordist(xt,vi)2=δ2=||xt||2—p2.

        亮度差異判斷條件為:

        如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假

        Ilow = α,Ihi = min{β,/α}。其中α<1,β>1

        建立了背景之后,下一步就是分離前景,具體算法如下:

        x=(G,R,B),I2←R2+G2+B2

        對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:

        colordist(x,cm)≤ε2

        brightness(I,〈m,m〉)=true

        使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。

        如果沒有匹配,則x為前景,否則為背景。

        其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。

        3 改進(jìn)算法的測試

        改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。

        參考文獻(xiàn)

        [1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.

        [2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.

        [3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.

        [4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint

        摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。

        關(guān)鍵詞:行為檢測 codeword 前景分離

        中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02

        行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。

        1 運(yùn)動(dòng)目標(biāo)檢測

        1.1 簡介

        一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。

        codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的。混合高斯模型對(duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。

        1.2 codeword模型的建立

        codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:

        ,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。

        (1)L←0,←Φ(空集)。

        (2)for t=1…N。

        ①xt=(R,G,B),I2←R2+G2+B2

        ②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm

        (a)colordist(xt,vm)≤ε1

        (b)brightness(I,〈m,m〉) = true

        ③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL

        VL←(R,G,B)

        auxL←〈I,I,1,t-1,t,t〉

        ④否則更新所匹配的codeword cm

        Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉

        Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )

        auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉

        end

        對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。

        codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。

        2 改進(jìn)算法的提出和實(shí)現(xiàn)

        2.1 改進(jìn)算法的基本思想

        從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。

        針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。

        2.2 改進(jìn)算法的實(shí)現(xiàn)

        結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:

        某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。

        在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:

        ||xt||2=R2+G2+B2,

        ||vi||2=R-i2+G-i2+B-i2,

        〈xt,vi〉2=(R-iR+G-iG+B-iB)2

        顏色差異δ通過以下公式計(jì)算

        p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,

        colordist(xt,vi)2=δ2=||xt||2—p2.

        亮度差異判斷條件為:

        如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假

        Ilow = α,Ihi = min{β,/α}。其中α<1,β>1

        建立了背景之后,下一步就是分離前景,具體算法如下:

        x=(G,R,B),I2←R2+G2+B2

        對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:

        colordist(x,cm)≤ε2

        brightness(I,〈m,m〉)=true

        使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。

        如果沒有匹配,則x為前景,否則為背景。

        其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。

        3 改進(jìn)算法的測試

        改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。

        參考文獻(xiàn)

        [1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.

        [2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.

        [3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.

        [4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint

        亚洲专区在线观看第三页| 日本一二三区免费在线| 中文字幕亚洲乱码熟女1区2区| 久久精品国产视频在热| 天天综合色中文字幕在线视频| 偷窥偷拍一区二区三区| 国产视频自拍一区在线观看 | 久久久精品人妻一区二区三区日本 | 国产98在线 | 免费| 国产成人久久精品区一区二区| 国产成人精品日本亚洲语音1| 国产高清在线91福利| 粉嫩av一区二区在线观看| 大屁股流白浆一区二区三区 | 欧美老肥妇做爰bbww| 久久精品欧美日韩精品| 极品尤物高潮潮喷在线视频 | 国产精品嫩草影院av| 国产人妖视频一区二区| 久久福利资源国产精品999| 邻居少妇张开腿让我爽视频| 欧美xxxxx高潮喷水| 亚洲av无码电影在线播放| 亚洲av无码精品色午夜果冻不卡| 国产成人精品三级91在线影院| 黑丝美女喷水在线观看| 女优一区二区三区在线观看| 精品国产三级a∨在线| 无码av免费一区二区三区试看| 国产精品久久久久…| 国产精品国产三级国产专播| 欧美牲交a欧美牲交aⅴ| 久久aⅴ人妻少妇嫩草影院| 无码国产激情在线观看| 国产精品亚洲A∨天堂不卡| 午夜一区二区三区在线视频| 亚洲福利一区二区不卡| 国产人成精品免费久久久| 久热这里只有精品视频6| 久久免费精品国产72精品剧情| 一本色道加勒比精品一区二区|