亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于混合高斯模型的儲物柜存取貨行為檢測方法

        2015-05-13 04:31:17林淦斌
        科技創(chuàng)新導(dǎo)報 2015年3期

        林淦斌

        摘 要:針對儲物柜存取貨物場景的實(shí)際情況和人員行為的特點(diǎn),提出一種通過融合時間調(diào)整機(jī)制控制前景融入背景的改進(jìn)型混合高斯建模檢測方法,并引入手臂識別機(jī)制。融合時間調(diào)整機(jī)制減小了由于人員停止運(yùn)動而錯誤決策為背景的可能性;手臂識別算法模型有效地識別人員伸手動作。實(shí)驗(yàn)結(jié)果表明,該方法可以簡單有效地從連續(xù)的圖像序列中檢測出人員在儲物柜場景下的存取貨物行為。

        關(guān)鍵詞:混合高斯模型 時間調(diào)整機(jī)制 手臂識別 存取貨行為檢測

        中圖分類號:TP391 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-098X(2015)01(c)-0052-03

        儲物柜場景存取貨物行為檢測的主要任務(wù)是從連續(xù)的圖像序列中判別出從運(yùn)動到靜止于儲物柜前并伸出胳膊打開儲物柜存取貨物的人員。傳統(tǒng)監(jiān)控應(yīng)用場景下,攝像頭常開記錄下每一個時刻攝像頭覆蓋區(qū)域的畫面;然而,當(dāng)事件未發(fā)生時候所獲取的視頻往往沒有任何價值而又無差別地占用了存儲空間,且長時間處于工作狀態(tài)下的攝像頭功耗較大。儲物柜場景下,通常關(guān)心的是儲物柜中的貨物是否被誤取,因此只需有人員打開儲物柜事件發(fā)生時觸發(fā)攝像頭記錄存儲當(dāng)前時刻視頻以供翻查佐證?;谠搼?yīng)用場景,檢測系統(tǒng)需要實(shí)現(xiàn)兩個功能:首先,如何把從運(yùn)動到靜止于儲物柜前的人員從圖像序列中提取出來;其次,如何從提取出來的人員前景圖像中判別人員是否有伸出胳膊動作從而觸發(fā)攝像頭錄像并存儲。

        根據(jù)儲物柜存取貨物場景的實(shí)際情況和人員行為的特點(diǎn),本文改進(jìn)傳統(tǒng)的混合高斯模型,提出一種通過融合時間調(diào)整機(jī)制控制前景融入背景的改進(jìn)型混合高斯建模檢測方法,并引入手臂識別機(jī)制,具體檢測流程如圖1所示。實(shí)驗(yàn)結(jié)果表明該方法有良好的魯棒性和自適應(yīng)性,可用于儲物柜場景存取貨物行為檢測。

        1 改進(jìn)型混合高斯背景模型

        1.1 混合高斯背景模型

        背景模型對目標(biāo)的識別和跟蹤至關(guān)重要。目前已有的大多數(shù)背景提取算法或基于靜態(tài)背景,或計算復(fù)雜,難以應(yīng)用于光照緩慢變化和背景存在小幅度重復(fù)運(yùn)動視頻的實(shí)時處理。其中,背景差法[1]對環(huán)境的變化(如光照等)較敏感,且分割精度易受噪聲影響。幀差法[2]不能完全提取出所有相關(guān)的特征像素點(diǎn),在運(yùn)動實(shí)體內(nèi)部容易產(chǎn)生空洞現(xiàn)象。光流法[3]需要多次迭代運(yùn)算,時間消耗大?;旌细咚鼓P蚚4]由于采用多個高斯分布加權(quán)建模,能夠描述像素值分布的雙峰或多峰狀態(tài),對背景的自適應(yīng)性高,在時空效率都適中的情況下能提供相對精確的背景模型,而引起了眾多從事目標(biāo)檢測與跟蹤[5-6]、視頻監(jiān)控[7]等相關(guān)領(lǐng)域的專家和學(xué)者的關(guān)注。

        單高斯背景模型(Single Gaussian Background Model,SGBM)的基本思想是:將圖像中每一個像素點(diǎn)的顏色值看成是一個隨機(jī)過程X,并假設(shè)該點(diǎn)的某一像素值出現(xiàn)的概率服從高斯分布。混合高斯背景模型(Gaussian Mixture Model)是在SGBM中將單個高斯分布作為相應(yīng)某一像素值的概率密度分布,對其進(jìn)行了擴(kuò)展,通過多個高斯概率密度函數(shù)的加權(quán)平均來平滑地近似任意形狀的密度分布函數(shù)。令I(lǐng)(x,y,t)表示像素點(diǎn)(x,y)在t時刻的像素值,則有

        其中α為學(xué)習(xí)率,取值在0~1之間。如果第i個高斯分布與當(dāng)前像素匹配,則Di,t=1,否則Di,t=0。

        1.2 基于融合時間調(diào)整機(jī)制的背景模型

        儲物柜場景中經(jīng)常存在人員突然停止并長時間站立在某柜子前的情況,混合高斯模型很難正確檢測出運(yùn)動速度緩慢的物體,尤其當(dāng)運(yùn)動目標(biāo)突然停止運(yùn)動時,容易把靜止目標(biāo)融入背景。本文根據(jù)該場景的特點(diǎn),對傳統(tǒng)的混合高斯模型進(jìn)行了改進(jìn),具體步驟如下:

        背景學(xué)習(xí)階段——由于儲物柜場景中背景相對固定,不會經(jīng)常發(fā)生變化,所以可以在背景學(xué)習(xí)階段賦值很高的學(xué)習(xí)率α快速建立背景;而且,該階段中越靠前出現(xiàn)的圖片幀是背景的可能性越大,因此算法中設(shè)置越靠前的圖片幀學(xué)習(xí)率越大,并設(shè)置一個學(xué)習(xí)周期。

        背景更新階段——儲物柜場景中時常會出現(xiàn)人員突然停止并長時間站立在某柜子前的情況,因此該階段算法中通過設(shè)置很小的學(xué)習(xí)率來避免將靜止的人員融入背景。

        通過如上所述的融合時間調(diào)整機(jī)制,可以十分簡便且有效地控制儲物柜場景中前景融入背景的時間。

        1.3 實(shí)驗(yàn)結(jié)果

        為了檢驗(yàn)算法的有效性,在VC++2010平臺下,分別對傳統(tǒng)混合高斯背景模型和本文改進(jìn)方法進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)數(shù)據(jù)所拍攝視頻片段每幀圖像大小為640×480像素。視頻流中進(jìn)入場景的人員在363幀停止行進(jìn)站立于儲物柜前進(jìn)行操作,直到597幀之后繼續(xù)有大幅度動作。圖2為部分實(shí)驗(yàn)結(jié)果,圖縱列分別表示363幀、390幀、420幀和596幀的前景提取結(jié)果。對比實(shí)驗(yàn)結(jié)果可以看出該文方法可以正確檢測出長時間靜止人員。

        2 手臂識別算法模型

        2.1 算法流程

        手部識別算法是基于站立在儲物柜前人員的高斯前景圖像進(jìn)行分析的。根據(jù)前景提取結(jié)果經(jīng)由數(shù)學(xué)形態(tài)學(xué)平滑處理后,對每一個目標(biāo)利用“爬蟲法”[8]提取出目標(biāo)外接矩形框作為興趣區(qū)域,隨后對區(qū)域內(nèi)前景進(jìn)行手部識別。具體算法分析流程如下:

        在高斯前景圖像上,對矩形框區(qū)域進(jìn)行分析;

        在矩形框區(qū)域,對高斯前景圖像做X軸和Y軸投影;

        在X軸的投影上,分析投影的柱狀圖取閾值thr(thr可根據(jù)實(shí)際情況訓(xùn)練調(diào)試),將柱狀圖中各柱體同thr比較,提取出小于thr的柱子X坐標(biāo);

        分析上一步提取出的柱子,檢測其連通性,提取出連通區(qū)最長的一段,認(rèn)為該段就是手臂;

        分析最長段的兩端,如果一端柱狀圖明顯高于另一端,那么就認(rèn)為該端是身體軀干部分,另外一端是手部。

        2.2 實(shí)驗(yàn)結(jié)果

        依據(jù)上述算法流程,實(shí)驗(yàn)結(jié)果分別選取一幀進(jìn)行顯示,效果圖如圖3所示。圖中紅色方框表示所識別到的胳膊部分,黃色方框表示在胳膊基礎(chǔ)上進(jìn)一步識別到的手部大致位置。實(shí)驗(yàn)結(jié)果表明,該算法可以有效地從提取出來的人員前景圖像中判別人員是否有伸出胳膊動作。

        3 結(jié)束語

        該文提出一種通過融合時間調(diào)整機(jī)制控制前景融入背景的改進(jìn)型混合高斯建模檢測方法,并引入手臂識別算法模型。融合時間調(diào)整機(jī)制控制了前景融入背景的時間,減小了由于人員停止運(yùn)動而錯誤決策為背景的可能性;手臂識別算法模型有效地識別人員伸手動作。實(shí)驗(yàn)結(jié)果表明,這套方法可以簡單有效地從連續(xù)的圖像序列中檢測出人員在儲物柜場景下的存取貨物行為。

        參考文獻(xiàn)

        [1] Haritaoglu I,Harwood D, Davis L S G.A human body part labeling system using silhouettes[C]//Fourteenth International Conference on Pattern Recognition,1998:77-82.

        [2] 洪炳熔,賀懷清.虛擬人的步行和跑步運(yùn)動控制方法的研究[J].高科技通訊,2001(3):91-95.

        [3] Meyer D,Denzler J,Niemann H.Model based extraction of articulated objects in image sequences for gait analysis[C]//Proc IEEE International Conference on Image Processing,Santa Barbara,California,1997:78-81.

        [4] 李志慧,張長海,曲昭偉,等.交通流視頻檢測中背景模型與陰影檢測算法[J].吉林大學(xué)學(xué)報:工學(xué)版,2006,36(6):993-997.

        [5] 王勇,譚毅華,田金文.基于陰影消除和混合高斯模型的視頻分割算法[J].光電工程,2008,35(3):21-25.

        [6] 彭可,陳燕紅,唐宜清.一種室內(nèi)環(huán)境的運(yùn)動目標(biāo)檢測混合算法[J].計算機(jī)工程與應(yīng)用,2008,44(5):239-241.

        [7] Pavlidis I,Morellas V,Tsiamyrtzis P,et al.Urban surveillance system:From the laboratory to the commercial world[J].Proceedings of the IEEE,2001,89(10):1478-1497.

        [8] 崔鳳魁,張豐收,白露,等.二值圖像目標(biāo)鄰域點(diǎn)法邊界跟蹤算法[J].洛陽工學(xué)院學(xué)報,2001,22(1):28-30.

        国产日韩欧美在线| 亚洲一区二区三区影院| 亚洲av日韩av天堂一区二区三区| 无限看片在线版免费视频大全 | 国产真实夫妇视频| 日韩永久免费无码AV电影| 国产一区不卡视频在线| 亚洲天堂二区三区三州| 精品久久久久成人码免费动漫| 久久精品国产精品青草色艺| 亚洲专区在线观看第三页| 亚洲国产av一区二区四季| 欧美人妻少妇精品久久黑人| 最近高清中文在线字幕观看 | 网址视频在线成人亚洲| 无码毛片内射白浆视频| 久久久噜噜噜www成人网| 白丝美女被狂躁免费视频网站 | 国产精品中文久久久久久久| 精品乱码一区二区三区四区| 日本精品人妻在线观看| 天堂蜜桃视频在线观看| 国产日产综合| 国产成人亚洲综合一区 | 中美日韩在线一区黄色大片| 蜜桃日本免费看mv免费版| 精品人妻少妇一区二区不卡| 精品人妻一区二区蜜臀av| 伊人久久大香线蕉av五月| 丰满人妻熟妇乱又伦精品软件| 亚洲AV无码国产成人久久强迫| 亚洲一区二区三区毛片| 国产精品美女久久久网av| 特黄a级毛片免费视频| 国产码欧美日韩高清综合一区| 人妻夜夜爽天天爽三区麻豆av| 青春草在线视频免费观看| 四虎精品免费永久在线| 久久亚洲一区二区三区四区五| 精品露脸国产偷人在视频| 欧美激情内射喷水高潮|