亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多特征分層的視頻摘要提取算法

        2020-09-15 01:01:46周巨羅兵
        關(guān)鍵詞:關(guān)鍵幀聚類特征

        周巨,羅兵

        (五邑大學(xué) 智能制造學(xué)部,廣東 江門 529020)

        手機(jī)、網(wǎng)絡(luò)等視頻相關(guān)設(shè)備和技術(shù)的進(jìn)步使得視頻數(shù)據(jù)快速增加,大量的視頻數(shù)據(jù)也對(duì)視頻摘要提取產(chǎn)生了更大的需求.視頻摘要是從原始視頻數(shù)據(jù)中提取出的能反映原視頻主要信息內(nèi)容的單幀或一組少量視頻幀,用于視頻預(yù)覽、視頻分類、視頻識(shí)別等應(yīng)用.

        現(xiàn)有的視頻摘要生成算法分為基于特征提取和基于視頻鏡頭分割兩類[1].其中基于特征的方法為了有效利用多幀圖像的多特征信息,無法預(yù)先去除冗余幀,每一幀都需要計(jì)算多特征值,再進(jìn)行多次聚類,計(jì)算量大,且每種特征權(quán)重難以進(jìn)行有效設(shè)定[2-3].而基于鏡頭分割的視頻摘要提取方法利用局部特征將視頻根據(jù)內(nèi)容分割成不同的視頻片段,來獲取整個(gè)視頻的結(jié)構(gòu)信息,但由于局部特征的時(shí)空局限性,出現(xiàn)多場(chǎng)景、多鏡頭的復(fù)雜視頻內(nèi)容變化時(shí),易缺失重要幀或生成冗余幀,提取生成的視頻摘要不能有效表示原視頻的主要內(nèi)容,性能難以滿足實(shí)際需要[4-5].

        本文設(shè)計(jì)了一種基于多特征分層的視頻摘要提取生成算法,分層采取先快后慢的策略,每層使用不同的特征進(jìn)行鏡頭分割、片段聚類,最后得到保留時(shí)序信息的視頻鏡頭準(zhǔn)確分割及各段關(guān)鍵幀.再對(duì)關(guān)鍵幀進(jìn)行局部特征聚類相似度比較,得到候選視頻摘要.根據(jù)實(shí)際應(yīng)用需要,再結(jié)合全局特征,從候選視頻摘要中得到最終視頻摘要.

        本文設(shè)計(jì)的分層多特征視頻摘要生成算法的特點(diǎn)是:

        1)分層提取多特征進(jìn)行視頻鏡頭分割,先用簡(jiǎn)單特征分割,再對(duì)分割點(diǎn)采用復(fù)雜特征聚類,大大減少了計(jì)算量;

        2)結(jié)合了像素、顏色、特征點(diǎn)信息進(jìn)行分層視頻鏡頭分割,更全面地依據(jù)視頻內(nèi)容變化情況完整地分割鏡頭,具有旋轉(zhuǎn)不變性、錯(cuò)誤率低、魯棒性好的優(yōu)點(diǎn),降低了視頻摘要冗余度;

        3)結(jié)合全局特征提取方式,保留了全局結(jié)構(gòu)信息,彌補(bǔ)了局部特征方法的不足與結(jié)構(gòu)信息出現(xiàn)偏差的缺點(diǎn),能夠全面準(zhǔn)確地表達(dá)視頻內(nèi)容;

        4)在生成視頻摘要的同時(shí),完成了基于視頻內(nèi)容的視頻鏡頭分割.

        本文提出的視頻摘要生成算法主要分為兩個(gè)階段:視頻鏡頭分割與視頻摘要生成.

        1 基于多特征的視頻鏡頭分割

        視頻摘要提取前一般對(duì)原始視頻先進(jìn)行預(yù)處理,去除空幀、錯(cuò)誤幀.鏡頭分割階段首先從像素特征、顏色特征和關(guān)鍵點(diǎn)匹配三個(gè)方向進(jìn)行特征選擇.使用多個(gè)特征,能夠更好地依據(jù)視頻內(nèi)容變化完成視頻鏡頭分割,保證視頻鏡頭分割的結(jié)構(gòu)完整.選取速度相對(duì)快且效果好的三種算法提取不同特征:差異值哈希算法、HSV 改進(jìn)算法和特征點(diǎn)匹配及描述算法(Oriented FAST and Rotated BRIEF,ORB).根據(jù)三種算法的計(jì)算復(fù)雜度和性能特點(diǎn),將最快速簡(jiǎn)單的差異值哈希算法放在第一層,初步對(duì)所有視頻幀進(jìn)行相似度比對(duì),得到初步分割好的視頻片段;再用各片段間的首尾幀依次采用HSV 改進(jìn)算法進(jìn)行聚類,粘合視頻鏡頭得到第二層分割的視頻片段.此時(shí)片段間需要計(jì)算的幀圖像逐層減少,此時(shí)引入ORB 特征點(diǎn)匹配算法,其聚類效果更好,同時(shí)避免了人為指定聚類中心帶來的干擾.

        圖像差異值哈希算法多用于相似圖搜索和圖像相似度計(jì)算[6].圖像在計(jì)算機(jī)中以像素點(diǎn)的形式保存,像素值的差異是圖像最直觀的差異.基于哈希算法的視頻鏡頭分割算法直接利用像素差異進(jìn)行等比例縮放后進(jìn)行比對(duì)而分割視頻,速度極快,雖然存在準(zhǔn)確率低、效果差的缺陷,但是可以用于初步分割,將內(nèi)容基本一致的視頻幀按照時(shí)間順序分割為小片段,為后續(xù)性能更好但速度較慢的特征提取算法減少冗余幀.

        解碼得到的最初視頻RGB 圖像不能直觀地表示色彩明暗、色調(diào)及鮮艷度等顏色信息,因而轉(zhuǎn)化為HSV 表示.由于目前較多視頻是由手持設(shè)備拍攝,各種輕微的抖動(dòng)都會(huì)導(dǎo)致拍攝角度變化而造成顏色明度的變化,實(shí)際上視頻內(nèi)容并沒有太大變化,這樣易將相同內(nèi)容的幀的進(jìn)行錯(cuò)誤的分割.在HSV 顏色空間中,色度H 及飽和度S 分量直接與人眼接受彩色信息緊密相連,而亮度V 分量與圖像的顏色信息沒有直接關(guān)系,對(duì)視頻分割作用較小,因此本文只對(duì)H 和S 分量做16 級(jí)量化,并按照式(1)合成為一維特征向量.

        在相似度判別上,本文使用歐氏距離來計(jì)算兩幀圖像之間的相似度.設(shè)Sim(R,I) 為R、I 兩幀圖像的歐氏距離,Sim(R,I) 越小則越相似.設(shè)兩幀圖像按式(1)計(jì)算得到的一維特征向量歸一化后的結(jié)果分別為,則他們的歐氏距離可由式(2)計(jì)算得到.

        通過HSV 特征的歐氏距離聚類視頻,仍然會(huì)受顏色特征干擾而影響分割.常常是幀間出現(xiàn)了某些顏色特征變化,但視頻內(nèi)容并未發(fā)生大的變化.因此進(jìn)一步采用ORB 算法,通過兩幅圖像之間匹配到的ORB 特征點(diǎn)數(shù)目與兩幅圖像平均的特征點(diǎn)數(shù)目的比值來判定聚類,通過相似度匹配將視頻片段再次聚類.

        ORB 算法包括ORB 特征點(diǎn)匹配和特征點(diǎn)描述兩部分.相對(duì)于其他特征點(diǎn)匹配算法,傳統(tǒng)的ORB算法速度快、效果好,但不具備旋轉(zhuǎn)不變性.為了解決此問題,本文使用oFAST(FAST Keypoint Orientation)算法進(jìn)行特征點(diǎn)提取.oFAST 算法在FAST(Features from Accelerated Test)算法提取出特征點(diǎn)之后,給其定義一個(gè)特征點(diǎn)方向,得到二進(jìn)制串描述符,以此實(shí)現(xiàn)ORB 特征點(diǎn)的旋轉(zhuǎn)不變性.在描述子方面,本文使用rBRIEF 算法選擇點(diǎn)對(duì)進(jìn)行特征點(diǎn)描述,同時(shí),采用漢明(Hamming)距離進(jìn)行相似度計(jì)算.ORB 特征點(diǎn)匹配算法視頻幀間的顏色特征變化不敏感更集中于實(shí)際內(nèi)容的變化.通過相鄰幀之間匹配到的特征點(diǎn)數(shù)量與相鄰幀平均的特征點(diǎn)數(shù)量的比值來作為相似度判別.

        通過三層多特征相似度判斷,得到了三次聚類后的視頻分割片段.

        2 視頻摘要的生成

        2.1 基于局部特征的關(guān)鍵幀選取算法

        下一步在已分割好的各視頻片段中提取關(guān)鍵幀來作為候選的視頻摘要.首先將視頻分割聚類中第三次ORB 特征點(diǎn)匹配聚類時(shí),已計(jì)算了ORB 特征值的各視頻片段邊界幀構(gòu)成集合Oj,其中j 為最終視頻分割后的視頻片段數(shù)目.這樣集合Oj中的圖像數(shù)目為最終分割得到的視頻片段數(shù)目 hj的兩倍,即2 hj.

        然后以O(shè)RB 特征匹配點(diǎn)的數(shù)量來衡量視頻內(nèi)容發(fā)生突變的情況.設(shè)定斜率閾值α,Km為視頻片段m 最終將提取出的候選關(guān)鍵幀數(shù)目,m=1,2,3,…,j.由視頻片段m 中兩個(gè)邊界幀與集合Oj中的其他圖像的ORB 特征匹配點(diǎn)數(shù)量 ORBnum來確定Km.Km初值為1,視頻片段m 中邊界幀圖像與集合Oj中其他圖像的索引序號(hào)差為dist,若則 Km+ 1.計(jì)算邊界幀與集合Oj中所有其他圖像的比值后得到各視頻片段的候選關(guān)鍵幀數(shù)目Km.

        對(duì)于每個(gè)視頻片段,根據(jù)片段中每幀圖像的特征向量xi來計(jì)算相鄰圖像間的幀間距離D (xjm,xjn).將幀間距最近的兩類合為一類,并計(jì)算各類的聚類中心:

        其中Cnum為各類最新聚類中心,num 為聚類的類編號(hào),lnum為該類幀圖像數(shù)目.反復(fù)聚類,直到聚類到Km個(gè)類結(jié)束,然后將每個(gè)類中與該類聚類中心幀間距離最小的幀圖像作為候選視頻摘要提出.最終候選視頻摘要的數(shù)目K 為 K1+K2+…+ Kj.

        2.2 基于全局特征生成最終視頻摘要

        通過2.1 節(jié)得到候選視頻摘要,都是基于視頻鏡頭分割的視頻摘要,最大限度地保證完整反映了原視頻內(nèi)容.此時(shí)直接輸出候選視頻摘要,將得到較好的召回率,但精確率相對(duì)低,可以適用于召回率要求高的應(yīng)用,本文稱之為方法一.

        由于方法一中相似視頻片段會(huì)有冗余的視頻摘要,為了進(jìn)一步得到既保留了時(shí)序信息又能準(zhǔn)確描述視頻內(nèi)容的視頻摘要,使用歐氏距離對(duì)候選視頻摘要提取全局特征進(jìn)行聚類,將相似的候選視頻摘要再次聚類為一類,然后在同類中選出最具代表性的幀作為靜態(tài)視頻摘要進(jìn)行輸出,如圖1 所示,本文將這種方法稱之為方法二,將得到更高的精確率.

        具體算法為:

        1)計(jì)算候選 視頻摘要關(guān)鍵幀集合 E={e1,e2,…,eK}中兩兩候選 視頻摘要 ei、ej的歐氏距離

        圖1 對(duì)候選視頻摘要根據(jù)全局特征再次聚類

        2)設(shè)定閾值φ,若Sim(ei,ej)<φ,將其歸為一類;

        3)聚類后關(guān)鍵幀的選擇:根據(jù)每一類中原關(guān)鍵幀的數(shù)目n,當(dāng)n=1時(shí),直接輸出當(dāng)前幀;當(dāng)n=2時(shí),將時(shí)序靠前的幀作為摘要輸出;當(dāng)n≥3時(shí),輸出每一類中離平均值最近的關(guān)鍵幀作為摘要.

        3 實(shí)驗(yàn)及結(jié)果分析

        3.1 評(píng)估方法與數(shù)據(jù)集

        本文使用OpenCV 與Python3.6 作為開發(fā)軟件,運(yùn)行系統(tǒng)為Ubuntu16.0 64 位操作系統(tǒng),硬件配置為Inter Core i5-4590 處理器和12GB 內(nèi)存.

        實(shí)驗(yàn)結(jié)果的評(píng)估方法采用F-measure 統(tǒng)計(jì)量對(duì)本文的實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)估,將使用精確率(Precision)、召回率(Recall)和F-score 3 個(gè)指標(biāo),分別按式(4)~(6)計(jì)算[7].

        其中,Nc為提取得到的正確的視頻摘要數(shù)目,Nf指提取出的錯(cuò)誤的視頻摘要數(shù)目,Nm指未提取出而丟失的視頻摘要數(shù)目.

        實(shí)驗(yàn)選擇公共視頻數(shù)據(jù)集VSUMM 數(shù)據(jù)集進(jìn)行視頻摘要提取,該數(shù)據(jù)集自帶手動(dòng)創(chuàng)建的用戶視頻摘要作為評(píng)價(jià)視頻摘要的標(biāo)準(zhǔn)[2].但是該數(shù)據(jù)集與目前實(shí)際應(yīng)用中的視頻數(shù)據(jù)相比存在分辨率不夠高、幀圖像質(zhì)量較差的問題,因此本文也將在本課題組建的WY-316 數(shù)據(jù)集進(jìn)行相關(guān)實(shí)驗(yàn),以此驗(yàn)證對(duì)目前網(wǎng)絡(luò)視頻數(shù)據(jù)的效果.WY-316 數(shù)據(jù)集為MP4 格式的隨機(jī)爬取于商業(yè)視頻網(wǎng)站的視頻,幀率以及分辨率均不固定,根據(jù)內(nèi)容分為51 類.WY-316 數(shù)據(jù)集隨機(jī)抽取每類視頻共計(jì)102 個(gè),每個(gè)視頻均附有由5 位用戶人工選取的用戶摘要.這些視頻數(shù)據(jù)均未經(jīng)過再處理,更符合實(shí)際應(yīng)用中視頻數(shù)據(jù)由于視頻拍攝工具的多樣化導(dǎo)致的幀率分辨率多樣化實(shí)際情形,更能驗(yàn)證算法的魯棒性.

        3.2 實(shí)驗(yàn)結(jié)果評(píng)估與分析

        表1 是用兩種不同的特征選擇分別在VSUMM 數(shù)據(jù)集和WY-316 數(shù)據(jù)集上生成視頻摘要的性能比較,兩種方法除圖像分量數(shù)采用不同外,其余參數(shù)均相同.

        在VSUMM 數(shù)據(jù)集上,本文提出的H、S 兩分量方法相比H、S、V 三分量方法的精確率、召回率均有所提高,在WY-316 數(shù)據(jù)集上,召回率提高更明顯.在時(shí)間消耗上,兩分量方法比三分量方法減少了7.7%.由此可見,本文對(duì)HSV 顏色特征的改進(jìn)方法優(yōu)于傳統(tǒng)方法.在WY-316 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果顯示,該方法對(duì)新的網(wǎng)絡(luò)視頻數(shù)據(jù)效果更好,使用H、S 分量顏色直方圖進(jìn)行聚類比使用H、S、V 三分量更能避免因人為因素造成的抖動(dòng)干擾的影響,顯示了更好的魯棒性.

        按本文2.2 節(jié)提出的方法一、方法二與現(xiàn)有傳統(tǒng)視頻摘要算法分別在VSUMM 數(shù)據(jù)集進(jìn)行視頻摘要提取得到的實(shí)驗(yàn)數(shù)據(jù)比較如表2 所示,數(shù)據(jù)為該數(shù)據(jù)集所有實(shí)驗(yàn)的平均值.

        表1 使用不同通道的特征提取方法在VSUMM 數(shù)據(jù)集和WY-316 數(shù)據(jù)集上的比較

        表2 本文算法與其他傳統(tǒng)算法在VSUMM 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果

        由表2 可以看到,在VSUMM 數(shù)據(jù)集上,方法二的精確率遠(yuǎn)高于VSUMM 算法、VISCOM 算法、VRHDPS 算法以及文獻(xiàn)[8]算法.本文方法二在提出候選視頻摘要后,再次考慮全局特征,減少相似候選視頻摘要,能最大限度保證視頻摘要準(zhǔn)確描述視頻內(nèi)容;方法一在召回率上優(yōu)于其他算法,精確率優(yōu)于VSUMM 算法、VISCOM 算法和文獻(xiàn)[8]算法,方法一從切割好的視頻鏡頭中選出視頻摘要,能最大限度地保留時(shí)序信息,完整地表達(dá)了原視頻內(nèi)容.方法一的F-score 遠(yuǎn)高于其他算法,方法二的F-score 略低于文獻(xiàn)[8]算法而高于其他算法,本文提出的算法整體性能更好.

        為了更加直觀顯示本文所提出算法的實(shí)際效果,對(duì)網(wǎng)絡(luò)視頻WY-316 數(shù)據(jù)集用不同方法提取的視頻摘要對(duì)比如圖2 所示.可以看出,VSUMM 算法生成的摘要在光影變化較大的情況下易產(chǎn)生冗余,VISCOM 和VRHDPS 算法雖然冗余較少,但是摘要長(zhǎng)度短,未能完整表達(dá)視頻內(nèi)容,文獻(xiàn)[8]算法雖然較為完整地表達(dá)了視頻內(nèi)容,但仍有明顯的冗余.本文方法二雖然沒有完整表達(dá)視頻內(nèi)容,但是沒有冗余,精確率最高,方法一與用戶摘要基本匹配,展示的摘要更加完整和豐富.

        用本文提出的兩種方法對(duì)VSUMM 數(shù)據(jù)集提取視頻摘要與用戶摘要的對(duì)比如圖3 所示.用戶1~5 為VSUMM 數(shù)據(jù)集V14 視頻自帶的5 個(gè)用戶摘要,將其與本文算法生成的視頻摘要對(duì)比可以看出,方法二視頻摘要長(zhǎng)度為9 張,小于用戶摘要平均長(zhǎng)度15.4 張;方法一視頻摘要長(zhǎng)度為16 張,接近用戶摘要平均長(zhǎng)度.總體來看,本文提出的兩種方法能夠適應(yīng)不同用戶的需求,也能夠適應(yīng)不同應(yīng)用的實(shí)際需要.

        圖2 對(duì)于網(wǎng)絡(luò)視頻數(shù)據(jù)不同算法生成的視頻摘要

        圖3 本文提取的視頻摘要與數(shù)據(jù)集用戶摘要對(duì)比

        4 結(jié)論

        本文設(shè)計(jì)了基于多特征分層的視頻摘要提取算法,對(duì)原始視頻數(shù)據(jù)首先按照視頻特征計(jì)算復(fù)雜度分別使用像素特征差異、顏色特征差異和特征點(diǎn)匹配差異進(jìn)行多特征視頻鏡頭分割,然后根據(jù)視頻內(nèi)容突變情況,自適應(yīng)確定聚類數(shù)目,并得到候選視頻摘要;在最終視頻生成階段,引入全局特征,保留結(jié)構(gòu)信息,并采取了兩種不同的方法,用以滿足側(cè)重精確率和召回率的不同應(yīng)用需求.在公共數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果顯示,本文算法由于其分層結(jié)構(gòu)和多特征信息利用,在加快了處理速度的同時(shí),提高了視頻摘要質(zhì)量;每層單獨(dú)處理,避免了多特征權(quán)值分配問題;改進(jìn)的HSV 顏色特征提取算法,比傳統(tǒng)使用HSV 顏色特征的提取算法在速度和性能上都得以提高.通過多特征相似度對(duì)視頻幀在時(shí)序順序上進(jìn)行相鄰幀聚類,保留了時(shí)序信息;結(jié)合全局特征提取方式,彌補(bǔ)了局部特征方法的不足.如何結(jié)合時(shí)序信息和視頻分割的視頻片段生成動(dòng)態(tài)視頻摘要、如何引入更有效的特征相似度計(jì)算方法來提高視頻摘要質(zhì)量和加快提取速度,將是需要進(jìn)一步研究的重點(diǎn).

        猜你喜歡
        關(guān)鍵幀聚類特征
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        基于DBSACN聚類算法的XML文檔聚類
        抓住特征巧觀察
        基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
        基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
        基于改進(jìn)的遺傳算法的模糊聚類算法
        基于聚散熵及運(yùn)動(dòng)目標(biāo)檢測(cè)的監(jiān)控視頻關(guān)鍵幀提取
        一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
        論“關(guān)鍵幀”在動(dòng)畫制作中的作用
        视频一区视频二区亚洲免费观看| 无码人妻av免费一区二区三区| 欧美成人精品一区二区综合| 久久99精品久久久66| 青青草成人原视频在线播放视频| 最新露脸自拍视频在线观看| 在线视频观看免费视频18| 久久综合给日咪咪精品欧一区二区三| 最大色网男人的av天堂| 91色老久久偷偷精品蜜臀懂色| 亚欧美日韩香蕉在线播放视频| 中国一级毛片在线观看| 精品国产一区二区三区久久狼 | 亚洲一区二区三区av资源| 午夜免费福利小电影| 色拍拍在线精品视频| 国产精品亚洲一区二区极品| 牲欲强的熟妇农村老妇女| 国产精品国产三级国产av品爱 | 国产高潮刺激叫喊视频| 午夜人妻中文字幕福利| 自拍视频在线观看首页国产| 女人被弄到高潮的免费视频| 国产成人久久精品区一区二区| 成人偷拍自拍在线视频| 插上翅膀插上科学的翅膀飞| 日本丰满熟妇bbxbbxhd| 久久亚洲午夜牛牛影视| 国产一区二区在线免费视频观看 | 乱人伦中文字幕在线不卡网站| 在线视频自拍视频激情| 日本一二三区视频在线| 欧美人与物videos另类xxxxx | 国产精品无码久久综合| 日韩黑人欧美在线视频观看| 美女一区二区三区在线观看视频| 91伦理片视频国产精品久久久| 男女性高爱潮免费网站 | 激情人妻网址| 日韩中文字幕在线观看一区| 天堂aⅴ无码一区二区三区|