亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視頻檢索中的鏡頭邊界檢測(cè)方法研究

        2018-03-20 11:28:18王紅霞晏杉杉
        關(guān)鍵詞:查全率查準(zhǔn)率信息量

        王紅霞,晏杉杉

        (沈陽(yáng)理工大學(xué) 信息科學(xué)與工程學(xué)院,沈陽(yáng) 110159)

        近年來(lái),隨著網(wǎng)絡(luò)的飛速發(fā)展和多媒體技術(shù)的普及,大量日益增長(zhǎng)的視頻數(shù)據(jù)不斷進(jìn)入日常的生活。從海量視頻中尋找所需要的視頻,成為關(guān)注的熱點(diǎn)問題。傳統(tǒng)的視頻檢索是基于文本檢索,不僅費(fèi)時(shí)費(fèi)力,還存在由于人的主觀性標(biāo)注造成檢索效率低下的問題。基于內(nèi)容的視頻檢索根據(jù)視頻的低層特征解決了基于文本檢索方法存在的檢索效率不高的問題,相對(duì)提高了視頻檢索的查準(zhǔn)率和查全率,但依然可以進(jìn)一步改進(jìn)。視頻檢索,對(duì)視頻進(jìn)行鏡頭分割是第一步。對(duì)視頻進(jìn)行邊界檢測(cè),將視頻從檢測(cè)到的邊界處依次分割開,形成一個(gè)個(gè)獨(dú)立鏡頭的過程即為鏡頭分割。

        鏡頭的轉(zhuǎn)換方式分為突變鏡頭和漸變鏡頭兩種。突變鏡頭算法包括:基于直方圖的鏡頭切變檢測(cè)方法、基于像素比較的鏡頭邊界檢測(cè)方法、基于邊緣檢測(cè)的鏡頭邊界檢測(cè)方法和基于壓縮視頻的鏡頭邊界檢測(cè)方法。漸變鏡頭算法包括:雙閾值法[1]、模型法、聚類和模糊聚類法。文獻(xiàn)[2]提出了基于多特征的視頻鏡頭檢測(cè)方法,降低了閃光序列和字幕邊緣等因素的影響,增強(qiáng)了算法的通用性和魯棒性,但存在自適應(yīng)閾值難確定的不足。文獻(xiàn)[3]提出基于累積幀的自適應(yīng)雙閾值鏡頭邊界檢測(cè)算法,利用塊匹配補(bǔ)償物體運(yùn)動(dòng),減少了物體運(yùn)動(dòng)對(duì)鏡頭分割的影響,但存在由于閃光造成的誤差缺陷。文獻(xiàn)[4]提出了基于顏色直方圖的視頻突變鏡頭邊界檢測(cè)方法,該方法能有效的檢測(cè)突變和漸變,但當(dāng)運(yùn)動(dòng)速度較快時(shí),存在大運(yùn)動(dòng)對(duì)檢測(cè)的影響,導(dǎo)致漏檢和誤檢。針對(duì)已有算法存在的不足,本文提出一種基于HSV(Hue、Saturation、Value)和互信息量的視頻鏡頭邊界檢測(cè)算法,來(lái)提高鏡頭檢測(cè)的正確率。

        1 基于HSV和互信息量的視頻鏡頭邊界檢測(cè)算法

        1.1 概述

        首先選取HSV顏色空間來(lái)提取視頻幀的顏色特征。一般情況下,每幀圖像的4個(gè)角及4條邊的內(nèi)容相對(duì)中心內(nèi)容而言,不是非常重要,且?guī)瑘D像底部的字幕或右上角的時(shí)間會(huì)降低鏡頭邊界檢測(cè)的準(zhǔn)確性,因此利用分塊加權(quán)得到的HSV顏色直方圖通過歐式距離計(jì)算相鄰視頻幀間的距離,把大于設(shè)定閾值的幀放入鏡頭邊界集合中。由于HSV顏色直方圖具有在背景顏色相似的情況下,無(wú)法獲取正確特征和對(duì)閃光、平移、旋轉(zhuǎn)敏感的缺點(diǎn),因此會(huì)導(dǎo)致漏檢或錯(cuò)檢的情況,影響查全率和查準(zhǔn)率。所以,選取信息學(xué)特征互信息量來(lái)進(jìn)行二次鏡頭邊界檢測(cè)。其次,利用信息熵作為視頻幀間的相似度度量來(lái)對(duì)通過HSV顏色直方圖法得到的鏡頭邊界集合做二次檢測(cè),計(jì)算視頻幀間的相似度,這樣可去除錯(cuò)檢的鏡頭邊界,得到一組新的鏡頭邊界集合。最后,由于雙閾值法既能檢測(cè)鏡頭的突變又能檢測(cè)鏡頭的漸變,所以,定義一個(gè)較大和一個(gè)較小的閾值來(lái)分別檢測(cè)視頻幀鏡頭的突變和漸變。

        1.2 HSV顏色空間

        顏色信息是圖像的一種重要的視覺特征,且是任何一幅圖像都具有的特征,所以,可以采用顏色特征對(duì)視頻進(jìn)行鏡頭檢測(cè),這需要用到顏色空間模型[5]。常見的顏色空間模型有RGB、CMY/CMYK、HSV和YUV/YIQ/YCrCb模型。通過比較可知,HSV顏色空間更適合比較彩色圖像的相似程度,因此本文選取HSV顏色空間模型,其具有與人類描述色彩方式的一致性和允許對(duì)色調(diào)、飽和度及強(qiáng)度值的獨(dú)立控制等優(yōu)點(diǎn)。

        HSV模型是一個(gè)由人類感知來(lái)描述顏色的均勻顏色空間,利用線性的標(biāo)尺,彩色之間的距離同HSV模型坐標(biāo)上點(diǎn)的歐幾里德距離成正比。HSV顏色空間中,H(Hue)表示色調(diào);S(Saturation)表示飽和度;V(Value)表示亮度。色調(diào)是指紅、綠、藍(lán)、紫等基本色;飽和度是指顏色的純度,鮮紅色飽和度高,粉紅色飽和度低;亮度就是光的強(qiáng)度。

        在HSV顏色空間模型中,每種顏色和其補(bǔ)色都相差180°。模型的頂面是V=1,其包含著RGB模型中的R=1、G=1、B=1所對(duì)應(yīng)的三個(gè)面。HSV空間的坐標(biāo)系統(tǒng)可采用六棱錐來(lái)表示,如圖1所示。0°對(duì)應(yīng)的是紅色,120°對(duì)應(yīng)的是綠色,240°對(duì)應(yīng)的是藍(lán)色。在六棱錐的頂點(diǎn)處,V為0;H與S沒有定義,表示的是黑色。

        一般情況下,將視頻進(jìn)行解壓縮,得到一系列RGB模式的幀圖像,RGB值可直接從幀圖像中得到,通過公式(1)把RGB值轉(zhuǎn)換為HSV值。

        當(dāng)B≤G時(shí),

        當(dāng)B>G時(shí),

        (1)

        把HSV顏色空間非等間隔量化為7、2、2個(gè)等級(jí),量化公式見式(2)。

        K=9H+3S+V

        (2)

        圖1 HSV顏色空間坐標(biāo)系圖

        如果只是簡(jiǎn)單的提取圖像幀的顏色特征,難免會(huì)忽略顏色在不同位置的分布情況。一般情況下,圖像幀的主要內(nèi)容都放在鏡頭中央,無(wú)太大意義且無(wú)實(shí)質(zhì)影響的部分,則放在四個(gè)角落或四邊的邊緣位置。為突出視頻幀的主要內(nèi)容,減少無(wú)關(guān)信息對(duì)于圖像幀整體特征的影響,可將視頻幀圖像在水平和垂直兩個(gè)方向以文獻(xiàn)[6]按1∶6∶1的比例分割成3×3的子塊。此按比例分塊的方法考慮了像素的位置信息,但忽略了每一個(gè)分塊的重要性。在很多視頻中,由于鏡頭晃動(dòng)使圖像幀四周的內(nèi)容略微改變,但并不出現(xiàn)鏡頭切換,所以,由每一個(gè)分塊的重要程度為相應(yīng)位置以文獻(xiàn)[7]按1∶2∶1、2∶4∶2、1∶2∶1的比例賦予不同權(quán)重,權(quán)重W可表示為式(3)。

        (3)

        相鄰幀之間的幀間差值可用對(duì)應(yīng)分塊間的直方圖距離的加權(quán)和表示,每對(duì)應(yīng)分塊間的距離見式(4)[8]。

        (4)

        計(jì)算出相鄰兩幀對(duì)應(yīng)分塊間的直方圖差值,分別記為D1、D2、…、D9。則相鄰兩幀間差值Dij由加權(quán)系數(shù)和區(qū)間直方圖差值計(jì)算得到,見式(5)。

        (5)

        1.3 互信息特征

        隨著信息論在視頻檢索領(lǐng)域越來(lái)越廣泛的應(yīng)用,用互信息量[9]MI(Mutual Information)來(lái)進(jìn)行鏡頭檢測(cè)的方法越來(lái)越普遍?;バ畔⒘渴切畔⒄摾锏囊环N有用的信息度量,可以看成一個(gè)隨機(jī)變量中包含另一個(gè)隨機(jī)變量的信息量?;バ畔⑹墙y(tǒng)計(jì)兩個(gè)隨機(jī)變量相關(guān)性的測(cè)度,具有非負(fù)性、獨(dú)立性和對(duì)稱性?;バ畔⒘恐笍膬蓚€(gè)事件中獲得信息量去表現(xiàn)兩個(gè)事件的相關(guān)性,分析前后兩幀的某種特征的信息量變化來(lái)判斷鏡頭變換與否,通過相鄰幀的互信息量的差異比較相似度的指標(biāo)來(lái)檢測(cè)鏡頭,這一特性使得其可以很方便的運(yùn)用到鏡頭分割中。如果兩個(gè)關(guān)鍵幀的相似性很大,則兩個(gè)關(guān)鍵幀之間的MI值也很大,反之,MI值較小。

        目前,作為圖像配準(zhǔn)的一個(gè)準(zhǔn)則,用互信息量來(lái)測(cè)量?jī)蓚€(gè)隨機(jī)變量,統(tǒng)計(jì)相關(guān)性。假設(shè)X是一個(gè)離散型的隨機(jī)變量,其n個(gè)取值分別為a1、a2、…、an。各個(gè)取值出現(xiàn)的概率分別為p1=p(a1)、p2=p(a2)、…、pn=p(an)且p1到pn的概率求和為1,見式(6)。

        (6)

        隨機(jī)變量的出現(xiàn)是不確定的,且出現(xiàn)的概率大小不同,但存在一個(gè)概率分布的函數(shù)f(p1,p2,…,pn),在滿足連續(xù)性、等概率時(shí)為單調(diào)函數(shù)和可加性三個(gè)條件時(shí),函數(shù)形式確定,見式(7)。

        (7)

        通常把式(7)稱為熵,用Hs表示,其可對(duì)隨機(jī)變量的不確定程度進(jìn)行度量,用式(8)表示。

        (8)

        若設(shè)定圖像A和B,其互信息量MI可定義為式(9)。

        MI(A,B)=Hs(A)+Hs(B)-Hs(A,B)

        (9)

        式中,Hs(A)和Hs(B)分別為圖像A和B的熵;Hs(A,B)為二者的聯(lián)合熵。

        隨機(jī)變量X和Y的平均互信息和聯(lián)合熵的關(guān)系可表示為式(10)。

        I(X,Y)=Hs(X)+Hs(Y)-Hs(XY)

        (10)

        式中Hs(X)和Hs(Y)分別為X、Y的邊界熵。

        平均互信息可通過其信息量和條件熵來(lái)定義,見式(11)。

        I(X,Y)=Hs(X)+Hs(X|Y)

        (11)

        將互信息量推廣到二維空間,可求出兩幅圖像之間的互信息量。視頻相鄰兩幀圖像相似性較大,則互信息量較大;相似性較小,互信息量則較小。分別計(jì)算相鄰兩幀圖像對(duì)應(yīng)位置HSV的互信息量,見式(12)。

        (12)

        1.4 具體算法

        算法的具體流程如圖2所示。

        圖2 算法的具體流程圖

        算法步驟如下:

        (1)啟動(dòng)算法,計(jì)算所有相鄰視頻幀的幀間差值,求出均值和方差分別為m和σ,T代表閾值,T=m+S×σ,經(jīng)過大量實(shí)驗(yàn),S設(shè)定為1和7,得到小的最佳閾值為3,大的最佳閾值為6,分別用來(lái)檢測(cè)漸變和突變。

        (2)對(duì)視頻幀分塊,加權(quán)求和后得到顏色直方圖,用歐式距離得到的幀間差值與較小的閾值3做比較,若幀間差值大于3,則認(rèn)為鏡頭發(fā)生了變化。

        (3)對(duì)上述得到的變化鏡頭幀序列進(jìn)行基于互信息量的二次檢測(cè),若兩幀之間的相似度大于上述得到的幀的平均相似度,則認(rèn)為此幀為錯(cuò)檢的幀。

        (4)突變檢測(cè),二次檢測(cè)后得到的幀序列,若存在第一次檢測(cè)時(shí)幀間差值大于6的視頻幀,則直接判斷此處為鏡頭切變的位置。

        (5)漸變檢測(cè),二次檢測(cè)后得到的幀序列中,把第一次檢測(cè)到的第一個(gè)幀間差值大于3且小于6的幀,判斷可能是漸變鏡頭的起始位置;下一幀幀間差值同樣大于3小于6,以此類推,直到小于3為止,判斷該幀為漸變鏡頭的結(jié)束幀;把這一段視頻幀序列作為鏡頭漸變的位置。

        2 仿真實(shí)驗(yàn)

        本文采用查準(zhǔn)率和查全率兩個(gè)性能評(píng)價(jià)指標(biāo)[10]。根據(jù)式(13)、式(14)對(duì)查準(zhǔn)率和查全率的定義來(lái)衡量算法的性能。

        查準(zhǔn)率=

        (13)

        查全率=

        (14)

        用Matlab做實(shí)驗(yàn),較小的最佳閾值為3,較大的最佳閾值為6。在確定了最佳閾值后,先對(duì)突變鏡頭進(jìn)行檢測(cè),再對(duì)漸變鏡頭進(jìn)行檢測(cè)。在對(duì)突變鏡頭進(jìn)行檢測(cè)時(shí),先利用HSV顏色直方圖檢測(cè)發(fā)生突變鏡頭的位置,再利用互信息量進(jìn)行二次檢測(cè),對(duì)顏色直方圖得到的結(jié)果進(jìn)行更新。在對(duì)漸變變鏡頭進(jìn)行檢測(cè)時(shí),綜合利用兩種特征,進(jìn)行漸變檢測(cè)。

        選取10組AVI格式,其中包含淡入、淡出、造化、疊化等編輯手法的不同視頻序列,利用本文提出的算法,來(lái)檢測(cè)視頻中對(duì)突變鏡頭邊界和漸變鏡頭邊界,同時(shí),對(duì)手工標(biāo)注的鏡頭數(shù)得到的查準(zhǔn)率和查全率進(jìn)行比較,驗(yàn)證本文方法的可行性和準(zhǔn)確性,檢測(cè)效果如表1所示。

        表1 不同視頻段查準(zhǔn)率和查全率

        從表1實(shí)驗(yàn)數(shù)據(jù)來(lái)看,本文提出的鏡頭分割算法對(duì)于每一段視頻都得到了較高的查準(zhǔn)率和查全率,方法可行。

        選取不同方法,對(duì)于以上提供的視頻序列求其平均查準(zhǔn)率和平均查全率,與本文方法的結(jié)果進(jìn)行比較,結(jié)果如表2所示。

        表2 不同方法平均查準(zhǔn)率和查全率

        由表2數(shù)據(jù)可知,本文方法的平均查準(zhǔn)率和查全率分別為82.7%和88.5%,本文方法較其它幾種方法,查準(zhǔn)率和查全率有一定程度的提高,由此可以得出,本文方法對(duì)于鏡頭邊界檢測(cè)有較好的適用性。

        3 結(jié)論

        本文所提出的基于HSV和互信息量的鏡頭邊界檢測(cè)算法對(duì)于查準(zhǔn)和查全都有較好的數(shù)據(jù)顯示;提高了分割鏡頭準(zhǔn)確率,對(duì)漏檢鏡頭情況有所補(bǔ)充;對(duì)于移速較高、光照影響較大的鏡頭存在的錯(cuò)檢有所改進(jìn),為后續(xù)提取關(guān)鍵幀的查準(zhǔn)率和查全率有一定的借鑒作用。

        猜你喜歡
        查全率查準(zhǔn)率信息量
        基于信息理論的交通信息量度量
        海量圖書館檔案信息的快速檢索方法
        基于數(shù)據(jù)挖掘技術(shù)的網(wǎng)絡(luò)信息過濾系統(tǒng)設(shè)計(jì)
        基于詞嵌入語(yǔ)義的精準(zhǔn)檢索式構(gòu)建方法
        大數(shù)據(jù)環(huán)境下的文本信息挖掘方法
        基于深度特征分析的雙線性圖像相似度匹配算法
        如何增加地方電視臺(tái)時(shí)政新聞的信息量
        新聞傳播(2016年11期)2016-07-10 12:04:01
        基于多尺度互信息量的數(shù)字視頻幀篡改檢測(cè)
        基于聯(lián)合熵和交互信息量的視頻篡改檢測(cè)
        中文分詞技術(shù)對(duì)中文搜索引擎的查準(zhǔn)率及查全率的影響
        蜜桃av噜噜一区二区三区9| 巨乳av夹蜜桃站台蜜桃机成人| 搡老女人老妇女老熟妇69| 亚洲乱码中文字幕一线区| 亚洲日韩中文字幕无码一区| 亚洲精品无码不卡av| 亚洲中文欧美日韩在线| 日韩亚洲一区二区三区在线| 亚洲欧洲日产国码av系列天堂| 国产人妻精品一区二区三区| 国产一级三级三级在线视| 日韩精品资源在线观看免费| 国产无套中出学生姝| 8av国产精品爽爽ⅴa在线观看| 久久精品国产亚洲婷婷| 日本91一区二区不卡| 在线观看特色大片免费视频| 亚洲 高清 成人 动漫| 无码伊人久久大蕉中文无码| 日本一区二区免费高清| 欧美牲交a欧美牲交aⅴ免费真| 久久中文字幕av一区二区不卡| 日韩精品有码中文字幕在线| 成人国产激情自拍视频| 久久中文精品无码中文字幕下载| 亚洲中文av一区二区三区| 日韩av一区二区无卡| 亚洲午夜av久久久精品影院色戒| 内射精品无码中文字幕| 综合图区亚洲另类偷窥| 亚洲成人福利在线观看| av网址不卡免费在线观看| 青青草免费手机视频在线观看| 粉嫩虎白女毛片人体| 亚洲国产欧美另类va在线观看| 亚洲国产91高清在线| 国产日韩av在线播放| 欧美三级不卡视频| 国产内射视频免费观看| 国产精品白丝久久av网站| 极品美女扒开粉嫩小泬|