亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于混合信息的運(yùn)動目標(biāo)檢測優(yōu)化研究

        2021-04-29 09:18:00徐武郭興文聰唐文權(quán)孔玲玲
        應(yīng)用科技 2021年1期
        關(guān)鍵詞:分類器背景像素

        徐武,郭興,文聰,唐文權(quán),孔玲玲

        云南民族大學(xué) 電氣信息工程學(xué)院,云南 昆明 650500

        近些年,運(yùn)動目標(biāo)檢測被廣泛用于視頻檢測及工業(yè)檢測等方面。運(yùn)動目標(biāo)檢測主要功能是快速、準(zhǔn)確地將視頻中的運(yùn)動目標(biāo)提取出來[1]。

        部分學(xué)者提出,利用顏色圖像信息或者是深度圖像信息進(jìn)行目標(biāo)檢測[2]。文獻(xiàn)[3]利用深度圖像信息進(jìn)行目標(biāo)檢測,再利用“與運(yùn)算”進(jìn)行特征信息融合,改善了目標(biāo)與背景模型距離較近的問題,但是沒有考慮到光照突變對實(shí)驗(yàn)本身的影響。文獻(xiàn)[4]采用顏色信息進(jìn)行前景目標(biāo)的檢測,但是當(dāng)背景模型是復(fù)雜多變的情況時,該種方法難以解決問題。文獻(xiàn)[5]分別利用彩色圖像特征與深度圖像特征進(jìn)行目標(biāo)檢測,通過邏輯運(yùn)算將特征信息進(jìn)行融合處理,但當(dāng)邊緣存在噪聲點(diǎn)時,檢測效果明顯降低,且存在漏檢現(xiàn)象[6]。

        針對以上存在的問題,本文在RGB色彩空間模型的基礎(chǔ)上,采用SOFM模型改善色彩空間顏色的真實(shí)性;再根據(jù)像素值的邊緣特性以及上一幀圖像的檢測信息,為分類器分配合適的權(quán)重值,解決彩色視頻檢測存在的問題。

        1 顏色空間建模

        由于大部分視頻都為彩色視頻,因此視頻圖像的特征信息可以作為運(yùn)動目標(biāo)檢測判斷依據(jù)[7]。不同彩色圖像對應(yīng)不同的顏色特征信息,導(dǎo)致顏色空間的選擇成為影響前景檢測性能的重要因素。

        本文采用SOFM模型空間模型完成運(yùn)動目標(biāo)檢測,如圖1所示。

        圖1 目標(biāo)檢測流程

        SOFM模型通過已有背景模型進(jìn)行訓(xùn)練,像素值認(rèn)為是樣本,對前景模型目標(biāo)進(jìn)行判斷[8]。若視頻任意位置Y處的顏色值記為S,公式如下:

        式中:α表示背景模型;β表示移動對象;θ表示約束參數(shù)。式(1)表示S與Y的概率關(guān)系,式(2)則是對相關(guān)參數(shù)進(jìn)行定義。

        此背景模型主要利用混合概率表示每一類像素對應(yīng)的特征信息,完成任何顏色前景背景模型的創(chuàng)建,構(gòu)建模型如式(3)及式(4)所示:

        式中:L表示顏色總空間;g(L)表示L的三維卷積。從式(4)中可以看出,由于每一個神經(jīng)元對應(yīng)一組輸入數(shù)據(jù)集,并且任意位置點(diǎn)的背景像素值與場景特征有關(guān)聯(lián)。因此,利用概率自組織映射模型可以解決任意像素的背景顏色分布[9]:

        式中M代表SOFM模型的神經(jīng)元個數(shù)。

        假設(shè)神經(jīng)元分布在一個矩陣空間里,則任何兩個神經(jīng)元K、G的歐氏距離記為

        式中:l(K,G)代表神經(jīng)元K、G之間的拓?fù)渚嚯x;TK、TG表示K、G在矩形空間里所處位置信息。

        為減小算法的冗余度,可以把映射中的神經(jīng)元作為一個高斯概率密度分布模型[10],如式(5)所示:

        式中:σ2代表方差;σ1表示σ的上邊界;σ2表示σ的下邊界。式(6)的約束條件能夠保證SOFM模型準(zhǔn)確地描述輸入像素的分布。

        2 基于混合信息的運(yùn)動目標(biāo)檢測

        2.1 距離圖像與彩色圖像的配準(zhǔn)

        當(dāng)獲取視頻場景的視頻序列以后,得到視頻序列的內(nèi)外部參數(shù),再對視頻序列的距離圖像信息和彩色圖像信息進(jìn)行融合配準(zhǔn)處理,最終距離圖像獲取的分辨率與彩色圖像獲取的分辨率一致[11]。

        2.2 運(yùn)動目標(biāo)檢測

        本文優(yōu)化算法的流程圖,如圖2所示。

        圖2 基于混合信息的優(yōu)化流程

        在RGB色彩空間處理基礎(chǔ)上,首先利用經(jīng)配準(zhǔn)融合處理的距離圖像和彩圖圖像,構(gòu)建像素級分類器CLC和CLD;其次,輸入圖像的像素c,將深度圖像信息CA送至CLD分類器進(jìn)行處理,顏色圖像信息CB送至CLC分類器進(jìn)行處理,二者輸出的結(jié)果形成一個新的矩陣QC[3],如式(7)所示:

        式中:q(wnc)|CA、q(wmc)|CA表示CLD分類器得到的像素c是背景模型q(wnc)、q(wmc) 的概率值;q(wnc)|CB、q(wmc)|CB表示CLC分類器得到的像素c是背景模型q(wnc)、q(wmc)的概率值[12]。由于圖像每個區(qū)域間存在差異,因此,各個區(qū)域的顏色信息和深度信息對檢測結(jié)果有著不同程度的影響[4]。故需要對分類器的輸出值設(shè)定權(quán)重值Wj(j∈{A,B})。此時,像素c的概率值為q(wj|c),見式(8):

        式中:q(wj|c)表示分類器像素c處的概率值;q(wj|cA)表示距離圖像A對應(yīng)的概率值;q(wj|cB)表示彩色圖像B對應(yīng)的概率值;wA、wB代表權(quán)重值。wA+wB=1,像素c屬于較大q(wj|c)與之對應(yīng)的wj類。

        2.3 權(quán)重選取方案

        配準(zhǔn)融合處理的距離圖像存在如下問題:1)由于視頻中的場景信息不相同,導(dǎo)致配準(zhǔn)融合處理過后的距離圖像,出現(xiàn)信息缺失[13];2)由于圖像自身存在較大的邊緣噪聲,進(jìn)而導(dǎo)致邊緣的信息誤差值大[14]。針對以上存在的問題,結(jié)合顏色信息和深度信息對區(qū)域的差異影響,故選擇一種權(quán)重值選取方案,操作流程如下所示:

        1)對第g幀的像素c進(jìn)行深度信息判斷[15],當(dāng)像素c獲得深度信息時,執(zhí)行步驟2);否則,采用顏色圖像信息對運(yùn)動目標(biāo)進(jìn)行檢測,公式為

        式中:wA(c,g)表示g時刻像素c獲取的CLD分類器的圖像信息值;wB(c,g)表示g時刻像素c獲取的CLC分類器的圖像信息值。此時,像素c未獲取到深度信息。

        2)選擇Prewitt算子對像素c進(jìn)行邊緣區(qū)塊檢測處理,當(dāng)像素c的梯度值F(s)大于閾值H時,則認(rèn)為是邊緣區(qū)域,跳轉(zhuǎn)3);當(dāng)像素c的梯度值F(s)小于閾值H時,則判定為中間區(qū)域;當(dāng)像素c被判定為邊緣區(qū)域時,跳轉(zhuǎn)執(zhí)行步驟4);

        3)當(dāng)深度信息受邊緣噪聲較大影響時,需要對權(quán)重值進(jìn)行調(diào)整,以此減小邊緣噪聲影響,權(quán)重調(diào)整公式為

        4)當(dāng)運(yùn)動目標(biāo)逐漸向背景模型移動時,會導(dǎo)致CLD分類器出現(xiàn)漏檢現(xiàn)象。故本文加入了視頻上一幀的檢測結(jié)果L(c,g-1)對權(quán)重值重新進(jìn)行分配。

        ①當(dāng)L(c,g-1)被判定為背景模型時,按照式(12)進(jìn)行權(quán)重值選擇:

        ②當(dāng)L(c,g-1)被判定為運(yùn)動目標(biāo)時,則需要對第g-1幀的像素c存在的深度圖像信息與CLD分類器的距離關(guān)系進(jìn)行計(jì)算,公式為

        式中:κ代表深度圖像信息與CLD分類器的距離關(guān)系。若 κ(c,g?1)的值越大,代表像素c運(yùn)動目標(biāo)與背景模型的距離值越大;反之,若 κ(c,g?1)的值越小,代表像素c運(yùn)動目標(biāo)與背景模型的距離值越小。為防止運(yùn)動目標(biāo)靠近背景模型時出現(xiàn)漏檢情況,需對wA的 值進(jìn)行動態(tài)調(diào)整[15],即:wA伴 隨 κ的增大而增大。本文利用廣義邏輯函數(shù)對權(quán)重wA的值進(jìn)行分配,權(quán)重wA的分配公式為

        式中:B為常量,通常取值為0.5;Yc為樣本值。

        2.4 分類器設(shè)定

        文章利用CLC分類器、CLD分類器,得到每一種分類器像素c的概率值q(wj|c)。假定運(yùn)動目標(biāo)概率值和背景模型概率值相同,依據(jù)貝葉斯公式[16],可將式(8)重新定義為

        式 中,q(cA|wnc)、q(cA|wmc)表 示CLD分 類器 得到 的像 素c為 背 景 模 型R(wnc) 的 后 驗(yàn) 概 率 值;q(cB|wnc)、q(cB|wmc)表示CLC分類器得到的像素c為背景模型R(wmc)的后驗(yàn)概率值。

        3 實(shí)驗(yàn)仿真的對比分析

        本文實(shí)驗(yàn)采用TOF相機(jī)進(jìn)行視頻采集,分辨率為1 800×1 080。為驗(yàn)證本文改進(jìn)算法的有效性,本文對運(yùn)動目標(biāo)與背景模型顏色類似、背景模型運(yùn)動和光照突變3種不同類型的室內(nèi)視頻幀序列進(jìn)行仿真。本文所有實(shí)驗(yàn)均采用MATLAB 2018b軟件進(jìn)行仿真分析。

        3.1 實(shí)驗(yàn)參數(shù)的設(shè)定

        本文算法受到諸多參數(shù)的限制影響,這些參數(shù)的設(shè)定值將會對算法產(chǎn)生影響,為保證算法在整體上獲得良好性能優(yōu)勢,在結(jié)合大量實(shí)驗(yàn)數(shù)據(jù)的基礎(chǔ)上對表1的參數(shù)值進(jìn)行設(shè)定。

        表1 算法參數(shù)的設(shè)定

        3.2 運(yùn)動目標(biāo)與背景模型顏色類似

        當(dāng)運(yùn)動目標(biāo)與背景模型顏色相同時,序列1背景模型見圖3(a)所示,圖3(b)選擇的盒子顏色與背景模型顏色相同。為保證實(shí)驗(yàn)結(jié)果的準(zhǔn)確性,只保留圖3(b)中的盒子部分,如圖3(c)所示。在圖4(a)中,采用CLC分類器進(jìn)行目標(biāo)檢測,從圖中明顯看出,檢測結(jié)果存在嚴(yán)重缺失;在圖4(b)中,利用CLD分類器融合特征信息進(jìn)行目標(biāo)檢測,檢測的目標(biāo)基本完整,但由于噪聲點(diǎn)的影響,導(dǎo)致檢測出的目標(biāo)邊緣不清晰;圖4(c)采用本文改進(jìn)算法進(jìn)行目標(biāo)檢測,該算法檢測效果最佳。與圖4(d)手工檢測結(jié)果對比,兩者檢測結(jié)果相近。

        圖3 序列1第342幀圖像

        圖4 序列1檢測結(jié)果

        3.3 背景模型運(yùn)動

        若背景模型快速移動時,序列2的背景模型如圖5(a)所示,在圖5(b)中,第165幀圖像背景模型開始運(yùn)動,圖5(c)為第342幀信息融合后的距離圖像。圖6(a)是采用CLC分類器對背景模型進(jìn)行更新,此時,檢測圖中出現(xiàn)“鬼影”;圖6(b)是采用CLD分類器依據(jù)本文提出的背景更新策略,對背景中移動物體進(jìn)行判斷,且有效克制了“鬼影”現(xiàn)象,但由于噪聲點(diǎn)的影響,導(dǎo)致檢測出的目標(biāo)邊緣不清晰;圖6(c)采用改進(jìn)算法進(jìn)行目標(biāo)檢測,本文改進(jìn)算法可以對運(yùn)動的背景模型進(jìn)行快速、準(zhǔn)確判斷,且有效消除了“鬼影”區(qū)域,檢測效果最佳,與圖6(d)手工檢測結(jié)果基本相同。

        圖5 序列2第165幀圖像

        圖6 序列2檢測結(jié)果

        3.4 光照突變

        序列3為光照突變的視頻序列,第769幀時光照突變。為保證實(shí)驗(yàn)結(jié)果的準(zhǔn)確性,仍然對檢測目標(biāo)進(jìn)行截取處理;為確保實(shí)驗(yàn)檢測結(jié)果的一般性,在進(jìn)行圖像截取時,截取部分未進(jìn)行特征信息融合處理。在圖7的檢測結(jié)果圖中,圖7(a)采用CLC分類器不能適應(yīng)光照快速突變;圖7(b)利用CLD分類器融合特征信息進(jìn)行目標(biāo)檢測,檢測的目標(biāo)基本完整,但由于噪聲點(diǎn)的影響,導(dǎo)致檢測出的目標(biāo)邊緣不清晰;圖7(c)采取的本文算法雖無法獲取距離圖像的完整信息,但受到光照突變的影響較小,與圖7(d)的手工檢測結(jié)果相對比,存在些許差異,但從整體來講,本文算法可以有效抑制“鬼影”以及光照突變的情況。

        圖7 序列3第769幀檢測結(jié)果

        3.5 實(shí)驗(yàn)結(jié)果的定量分析

        為了更加準(zhǔn)確地對3種算法進(jìn)行評估分析,選定多個評價指標(biāo)對其進(jìn)行評估,評估參數(shù)主要包括召回率(Re)、精度(Pr)、F數(shù),其中,召回率、F數(shù)、精度的值越大,說明算法的性能越好;計(jì)算公式為

        式中:TP表示被成功檢測為運(yùn)動目標(biāo)時的像素值;TN表示被成功檢測為背景模型時的像素值;FN表示被錯判為背景模型時的像素值;FP表示被錯判為運(yùn)動目標(biāo)時的像素值;F數(shù)表示對Pr和Re兩項(xiàng)指標(biāo)進(jìn)行綜合評價,F(xiàn)數(shù)可以更加全面地對算法的性能進(jìn)行綜合評估。表2為幾種算法的評估對比。

        從表2數(shù)據(jù)可以看出,采用本文算法所得到的精度、召回率以及F數(shù)均為最優(yōu),驗(yàn)證了本文改進(jìn)算法的可行性。

        表2 3種算法的綜合評估指標(biāo)

        4 結(jié)論

        1)采用SOFM模型有效改善了色彩空間模型的真實(shí)性;

        2)在SOFM模型基礎(chǔ)上,利用CLC和CLD分類器進(jìn)行檢測,有效避免了光照突變、背景模型顏色相似、背景模型運(yùn)動等問題;

        3)通過對召回率、精度、F數(shù)的綜合考評分析。本文采用算法的評價指標(biāo)均為最優(yōu),進(jìn)而驗(yàn)證了本文算法的可行性。

        猜你喜歡
        分類器背景像素
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        “新四化”背景下汽車NVH的發(fā)展趨勢
        《論持久戰(zhàn)》的寫作背景
        “像素”仙人掌
        BP-GA光照分類器在車道線識別中的應(yīng)用
        電子測試(2018年1期)2018-04-18 11:52:35
        晚清外語翻譯人才培養(yǎng)的背景
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        日韩国产欧美成人一区二区影院 | 真实国产精品vr专区| 俄罗斯老熟妇色xxxx| 久精品国产欧美亚洲色aⅴ大片 | 99亚洲女人私处高清视频| 所有视频在线观看免费| 精品成在人线av无码免费看| 无码综合天天久久综合网| 精品一区二区三区免费爱| 91亚洲国产成人久久精品网站| 国产一区二区三区青青草| 亚洲av无码日韩av无码网站冲| 天天天天躁天天爱天天碰| 成人xx免费无码| 国产偷拍盗摄一区二区| 午夜福利视频一区二区二区| 日本丰满熟妇videossexhd| 久久精品国产亚洲av蜜臀| 人妖另类综合视频网站| 精品女同一区二区三区亚洲| 黄片视频免费观看蜜桃| 少妇粉嫩小泬喷水视频www| 男女边吃奶边做边爱视频| 亚洲专区在线观看第三页| 国产精品一区二区三区在线观看 | 久久人妻av无码中文专区| 高清国产亚洲精品自在久久| 无码av专区丝袜专区| 亚洲av麻豆aⅴ无码电影 | 风流老熟女一区二区三区| 亚洲性无码av在线| 久久综合激激的五月天| 刚出嫁新婚少妇很紧很爽| 亚洲男同gay在线观看| 亚洲丁香五月激情综合| 国产人妖一区二区在线| 国产不卡在线观看视频| 免费无码av一区二区三区| 无遮无挡三级动态图| 少妇被日到高潮的视频| 中文字日产幕码三区的做法步 |