亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        模板匹配下圖像局部視覺背景分割方法仿真

        2022-02-09 02:19:34芶小珊黃興祿王文杰
        計(jì)算機(jī)仿真 2022年12期
        關(guān)鍵詞:背景特征區(qū)域

        芶小珊,黃興祿,王文杰

        (成都大學(xué)計(jì)算機(jī)學(xué)院,四川 成都 610000)

        1 引言

        圖像局部視覺背景分割技術(shù)在圖像處理領(lǐng)域中屬于熱門課題,圖像局部視覺背景分割技術(shù)在不同領(lǐng)域中已經(jīng)得到了廣泛應(yīng)用,如圖像顯示領(lǐng)域、圖像檢索領(lǐng)域、圖像壓縮領(lǐng)域等[1]。圖像分割是將圖像分割為若干個(gè)區(qū)域,圖像分析的關(guān)鍵步驟即為圖像局部視覺背景分割[2],通過圖像局部視覺背景分割可以實(shí)現(xiàn)目標(biāo)參數(shù)的測(cè)量與提取,完成更高層次的圖像理解和解析,因此對(duì)圖像局部視覺背景分割方法的分析和研究具有重要意義。

        曾紹華[3]等人在熵原理的基礎(chǔ)上建立相似度矩陣,結(jié)合類內(nèi)方差最小化和類間方差最大化的準(zhǔn)則建立灰度變換模型獲取聚類中心,通過密度峰值聚類算法完成圖像局部視覺背景分割,該方法無法準(zhǔn)確地獲取圖像待分割區(qū)域,導(dǎo)致圖像分割結(jié)果的誤差較大。熊煒[4]等人通過相關(guān)預(yù)處理提高圖像的對(duì)比度,并對(duì)圖像完成形態(tài)比對(duì)操作,估計(jì)圖像背景,通過卷積網(wǎng)絡(luò)完成圖像局部視覺背景的分割,該方法無法區(qū)分區(qū)域圖像的背景區(qū)域與目標(biāo)區(qū)域,在分割過程中容易將背景區(qū)域劃分為目標(biāo)區(qū)域,導(dǎo)致分割結(jié)果的假陽性率高,方法分割后的圖像質(zhì)量較差。許玥[5]等人通過U-net和VGG16建立網(wǎng)絡(luò)模型,獲取圖像的特征,并選取卷積方式和激活函數(shù),利用改進(jìn)后的網(wǎng)絡(luò)模型完成圖像局部視覺背景的分割。該方法分割后的圖像覆蓋系數(shù)較低,分割精度低。

        為了解決上述方法中存在的應(yīng)用問題,提出基于模板匹配的圖像局部視覺背景分割方法。與文獻(xiàn)方法相比,所提方法增加了分割區(qū)域識(shí)別部分,通過模板匹配方法識(shí)別圖像中的待分割區(qū)域,在待分割區(qū)域中完成局部視覺背景分割,解決了上述方法中存在的問題,提高了方法的整體有效性。

        2 分割區(qū)域識(shí)別

        基于模板匹配的圖像局部視覺背景分割方法通過模板匹配獲取圖像待分割區(qū)域。

        1)形成模板

        在不同方位下相同目標(biāo)的圖像存在一些差別,在不同方位范圍中每類目標(biāo)需要形成對(duì)應(yīng)的模板,即在不同方位范圍中同一個(gè)目標(biāo)對(duì)應(yīng)著若干個(gè)模板,為提高運(yùn)算識(shí)別效率,需要減少模板的數(shù)量,基于模板匹配的圖像局部視覺背景分割方法通過方位分區(qū)法統(tǒng)計(jì)方位區(qū)間中存在的圖像,建立標(biāo)準(zhǔn)模板。統(tǒng)計(jì)之前,為了提高模板質(zhì)量,在方位單元中需要對(duì)準(zhǔn)處理目標(biāo)圖像的位置,用M1(x,y)描述初始模板。采用遞推的方式在方位單元中根據(jù)方位大小累計(jì)平均處理剩余的目標(biāo)圖像,并在處理之前對(duì)平均后的圖像和目標(biāo)圖像進(jìn)行對(duì)準(zhǔn)處理。

        設(shè)目標(biāo)圖像在某方位單元中的數(shù)量為k,累計(jì)平均處理前(k-1)幅圖像獲得平均圖像Mk-1(x,y),用Wx,y表示Mk-1(x,y)的掩膜矩陣,用Gk(x,y)表示方位單元中存在的待平均的第k幅圖像,通過下述公式描述圖像Gk(x,y)與圖像Mk-1(x,y)的對(duì)準(zhǔn)過程

        ×[Mk-1(x,y)-Gk(x-xs,y-ys)]|)2

        (1)

        式中,(xopt,yopt)為對(duì)準(zhǔn)最佳位置對(duì)應(yīng)的坐標(biāo);(xs,ys)表示相對(duì)于模板目標(biāo)圖像Gk(x,y)的平移量。

        通過下式對(duì)對(duì)準(zhǔn)后的Gk(x,y)與Mk-1(x,y)做平均運(yùn)算

        (2)

        k幅圖像在方位單元中通過上述過程構(gòu)成平均圖像。為了提高對(duì)準(zhǔn)精度,根據(jù)平均處理后的Mk(x,y)重新確定Wk(x,y)。迭代上述過程,當(dāng)k=K時(shí),由K幅目標(biāo)圖像在方位單元中構(gòu)成平均模板。

        2)匹配準(zhǔn)則

        基于模板匹配的圖像局部視覺背景分割方法通過距離度量方法[6]計(jì)算圖像的相似程度。

        (3)

        (4)

        通過下述公式完成匹配

        (5)

        式中,i=1,2,…,I,I表示每類目標(biāo)的模板數(shù)量;j=1,2,…,J,J表示目標(biāo)類別總數(shù);(i0,j0)表示圖像分割區(qū)域。

        3 圖像局部視覺背景分割方法

        在圖像局部視覺背景分割過程中度量視覺顯著度屬于重要步驟,其主要目的為計(jì)算像素在圖像中的顯著性,可通過灰度圖像表示視覺顯著性計(jì)算結(jié)果,獲得顯著圖。像素在原始圖像中的顯著值與顯著圖對(duì)應(yīng)。

        1)提取底層特征

        區(qū)域自身特征與附近環(huán)境之間存在的差異決定了其顯著性,顯著區(qū)域通常存在至少一種特征與附近環(huán)境之間存在差異[7,8]。相同特征在不同圖像中對(duì)視覺顯著性產(chǎn)生的影響都不相同。顏色和亮度都可以作為圖像的顯著特征,因此需要在圖像中提取不同的視覺特征。

        基于模板匹配的圖像局部視覺背景分割方法只對(duì)顏色特征和亮度特征。

        與RGB顏色空間相比,HIS顏色空間與人的視覺特征性更貼近,可通過亮度、飽和度和色調(diào)對(duì)顏色進(jìn)行描述。

        為了提取圖像的顏色特征和亮度特征,用HIS顏色空間代替原始的RGB顏色空間:

        (6)

        式中,H、S、I分別表示圖像的色調(diào)、亮度和飽和度特征;R、G、B表示RGB顏色空間三個(gè)方向的分量。

        2)生成顯著圖

        基于模板匹配的圖像局部視覺背景分割方法通過稀少性、全局顯著性和局部顯著性獲取顯著圖。

        ①局部顯著性

        像素與附近像素的對(duì)比度決定了像素的顯著性,像素的顯著性隨著對(duì)比度的增大而增大[9,10]。針對(duì)像素在圖像中局部顯著性的計(jì)算,所提方法通過頻域分析完成,在圖像中相位譜和幅度譜產(chǎn)生的作用和含義都不相同。相位譜的主要作用是在圖像中反映像素值的實(shí)際變化情況,通常情況下包括結(jié)構(gòu)特征;像素特征值在圖像中的大小可通過幅度譜進(jìn)行反映。

        用F(u,v)描述圖像的幅度譜,其表達(dá)式如下

        (7)

        式中,M為圖像的大小;f(x,y)為像素在圖像中的特征值;|F(u,v)|=[R2(u,v)+I2(u,v)]1/2表示圖像經(jīng)過傅里葉變換后獲得的幅度譜;φ(u,v)表示圖像對(duì)應(yīng)的相位譜。

        通過下式計(jì)算像素在圖像中對(duì)應(yīng)的局部顯著性值SLocal(x,y)

        (8)

        ②全局顯著性

        設(shè)SGlobal(x,y)表示圖像中像素對(duì)應(yīng)的全局顯著性,其計(jì)算公式如下

        (9)

        式中,favg(x,y)表示像素在圖像中的平均特征值。

        ③稀少性

        稀少性越高表明像素在圖像中的顯著性值越高,通過下式對(duì)像素在圖像中的稀少性SRarity(x,y)進(jìn)行計(jì)算

        (10)

        式中,hist(·)為特征直方圖。

        ④特征顯著圖

        通過下式綜合上述計(jì)算得到的稀少性、全局顯著性和局部顯著性,獲得圖像的特征顯著圖Sf

        Sf=w1SLocal(x,y)+w2SGlobal(x,y)+w3SRarity(x,y)

        (11)

        式中,w1、w2、w3分別表示局部顯著性值、全局顯著性值、稀少性對(duì)應(yīng)的權(quán)重。

        ⑤特征整合

        不同特征顯著圖在圖像局部視覺背景分割過程中的貢獻(xiàn)是存在差異的,為了獲取最終的顯著圖,需要合理組合多個(gè)特征顯著圖?;谀0迤ヅ涞膱D像局部視覺背景分割方法通過分布情況、顯著點(diǎn)數(shù)量和位置完成特征和加權(quán)的選擇。

        根據(jù)稀少性原則可知,特征顯著圖中存在的顯著點(diǎn)越多對(duì)最終顯著圖產(chǎn)生的貢獻(xiàn)越小,用權(quán)值Warea=Numsalient描述顯著點(diǎn)在顯著圖中的數(shù)量。

        圖像的中心位置通常容易集中人們的注意力,因此顯著區(qū)域一般情況下為圖像的中心區(qū)域,用Wlocation表示圖像中心與顯著點(diǎn)之間存在的平均距離,其計(jì)算公式如下

        (12)

        式中,N為顯著點(diǎn)在特征顯著圖中存在的數(shù)量;center為圖像中心位置;spi為顯著圖中存在的顯著點(diǎn)。

        當(dāng)顯著點(diǎn)在特征顯著圖中較為分散,集中度較低時(shí),針對(duì)最終顯著圖,該特征顯著圖產(chǎn)生的貢獻(xiàn)較小,用Wdistribution表示顯著點(diǎn)與顯著點(diǎn)之間存在的平均距離,其計(jì)算公式如下

        (13)

        式中,centeroid為顯著點(diǎn)對(duì)應(yīng)的中心位置。

        根據(jù)上述過程獲取的顯著點(diǎn)分布、位置和數(shù)量[11,12],通過下式獲得最終的顯著圖S

        (14)

        式中,Wi表示第i個(gè)特征顯著圖對(duì)應(yīng)的最終權(quán)值;Sfi表示第i個(gè)特征顯著圖;Wfi為權(quán)值綜合。

        3)背景分割

        設(shè)EB表示背景圖像在分割過程中對(duì)應(yīng)的信息熵,EF表示前景圖像在分割過程中對(duì)應(yīng)的信息熵,通過下式根據(jù)獲取的最終顯著圖設(shè)置閾值T,分割圖像,獲得二值黑白圖像[13]

        (15)

        式中,pi表示在顯著圖中出現(xiàn)灰度值i的概率;L為在顯著圖中存在的最大像素灰度值。通過上述公式對(duì)圖像進(jìn)行分割,獲得的黑色區(qū)域?yàn)樵紙D像中的背景部分,獲得的白色區(qū)域?yàn)樵紙D像中存在的前景目標(biāo)[14]。

        通過上述過程對(duì)圖像進(jìn)行分割,獲得的二值圖像中存在一些白色區(qū)域,這些區(qū)域之間不連續(xù),對(duì)其進(jìn)行形態(tài)學(xué)操作[15],獲得最終的二值圖像B(x,y)

        (16)

        在原始圖像中疊加上式獲取的二值圖像,完成局部視覺背景的分割。

        4 實(shí)驗(yàn)與分析

        為了驗(yàn)證基于模板匹配的圖像局部視覺背景分割方法的整體有效性,需要測(cè)試基于模板匹配的圖像局部視覺背景分割方法。

        分別采用基于模板匹配的圖像局部視覺背景分割方法、文獻(xiàn)[3]方法和文獻(xiàn)[4]方法進(jìn)行如下測(cè)試:

        1)分類誤差

        分類誤差ME的計(jì)算公式如下

        (17)

        式中,B0、BT分別為人工分割圖像和算法分割圖像的背景;F0、FT為人工分割圖像和算法分割圖像的目標(biāo);|·|為元素在集合中的數(shù)量。

        圖1 分類誤差測(cè)試結(jié)果

        分析圖1中的數(shù)據(jù)可知,隨著圖像數(shù)量的增加,三種方法的分類誤差均有所增大,但與文獻(xiàn)[3]方法和文獻(xiàn)[4]方法的分類誤差相比,所提方法的分類誤差增長幅度較小,且數(shù)值較低,表明所提方法可有效的完成圖像局部視覺背景分割,因?yàn)樗岱椒ㄍㄟ^模板匹配獲取圖像的待分割區(qū)域,在待分割區(qū)域中進(jìn)行視覺背景分割,降低了方法的分類誤差。

        2)假陽性率

        假陽性率FPR的計(jì)算公式如下

        (18)

        所提方法、文獻(xiàn)[3]方法和文獻(xiàn)[4]方法的假陽性率測(cè)試結(jié)果如圖2所示。

        圖2 假陽性率測(cè)試結(jié)果

        假陽性率越低表明圖像的背景分割質(zhì)量越好,根據(jù)圖2可知,所提方法、文獻(xiàn)[3]方法和文獻(xiàn)[4]方法的假陽性率均隨著圖像數(shù)量的增加而增加,對(duì)比三種方法的測(cè)試結(jié)果可知,在相同圖像數(shù)量下所提方法的假陽性率最低,表明所提方法分割處理后的圖像質(zhì)量最好。

        3)疊加系數(shù)

        疊加系數(shù)OI可通過下式計(jì)算得到

        (19)

        不同方法的疊加系數(shù)如圖3所示。

        圖3 疊加系數(shù)測(cè)試結(jié)果

        疊加系數(shù)越高,表明圖像局部視覺背景分割精度越高,分析圖3中的數(shù)據(jù)可知,在多次圖像局部視覺背景分割測(cè)試中,所提方法獲得的疊加系數(shù)均在80%以上,遠(yuǎn)高于文獻(xiàn)[3]方法和文獻(xiàn)[4]方法獲得的疊加系數(shù),通過測(cè)試可知,所提方法的疊加系數(shù)最高,圖像局部視覺背景分割精度高,表明所提方法具有良好的分割性能。

        5 結(jié)束語

        多媒體時(shí)代圖像信息越來越多,有效檢索、管理和組織圖像數(shù)據(jù)庫成為目前研究的熱點(diǎn)問題。根據(jù)圖像內(nèi)容完成檢索是解決上述問題的有效途徑。圖像檢索結(jié)合了數(shù)據(jù)庫方法和圖像信息,在實(shí)際應(yīng)用和理論研究中得到了廣泛的應(yīng)用。目前圖像局部視覺背景分割方法存在分類誤差大、假陽性率高和覆蓋系數(shù)低的問題,提出基于模板匹配的圖像局部視覺背景分割方法,首先獲取了圖像的待分割區(qū)域,其次在該區(qū)域中通過顯著圖完成局部視覺背景的分割,解決了目前方法中存在的問題,為圖像檢索技術(shù)的發(fā)展奠定了基礎(chǔ)。

        猜你喜歡
        背景特征區(qū)域
        “新四化”背景下汽車NVH的發(fā)展趨勢(shì)
        《論持久戰(zhàn)》的寫作背景
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        晚清外語翻譯人才培養(yǎng)的背景
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        亚洲中文字幕不卡一区二区三区| 免费人妻无码不卡中文字幕18禁| 国产亚洲精品久久久久婷婷瑜伽 | 亚洲欧美日韩综合久久| 欧美又粗又长又爽做受| 野外亲子乱子伦视频丶| 色婷婷日日躁夜夜躁| 亚洲AⅤ无码国精品中文字慕| 亚洲无码图| 亚洲精品女优中文字幕| 精品亚洲天堂一区二区三区| 98色婷婷在线| 人妻夜夜爽天天爽| 欧美gv在线观看| 国产精品黑色丝袜在线播放| 日本免费影片一区二区| 亚洲精品国偷拍自产在线| 精品人妻一区二区三区四区| 久久精品亚洲牛牛影视| 国产激情视频免费观看| 亚洲精品一区二在线观看| 狠狠色丁香婷婷久久综合| 久久久久亚洲精品天堂| 2021最新久久久视精品爱| 日本在线观看一二三区| 久久久亚洲av成人网站 | 无码人妻精品中文字幕| 一区二区三区国产亚洲网站| 久久久午夜毛片免费| 精品国产女主播一区在线观看 | 久久婷婷人人澡人人喊人人爽 | 久久精品国产亚洲av热明星| 精品女同一区二区三区| 免费观看的a级毛片的网站| 亚洲tv精品一区二区三区| 我想看久久久一级黄片| 中文字幕人妻饥渴浪妇| 国产免费拔擦拔擦8x高清在线人| 少妇三级欧美久久| 日韩一区二区三区天堂| 制服丝袜一区二区三区|