李 皓 張興忠
(太原理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 山西 太原 030024)
?
基于球哈希和改進(jìn)的灰度差算法的視頻拷貝檢測(cè)
李皓張興忠
(太原理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院山西 太原 030024)
摘要針對(duì)大規(guī)模的視頻版權(quán)保護(hù)中檢索準(zhǔn)確率低和檢索速度慢的問(wèn)題,提出一種基于球哈希和改進(jìn)的灰度差算法的視頻拷貝檢測(cè)方法。首先,對(duì)傳統(tǒng)的灰度差提取關(guān)鍵幀的算法進(jìn)行改進(jìn),提出利用灰度差與灰度差累積量相結(jié)合的方法提取關(guān)鍵幀,減少了提取關(guān)鍵幀時(shí)產(chǎn)生的累積誤差,提高視頻檢索的準(zhǔn)確率;然后,提取關(guān)鍵幀的SIFT特征,并且利用著名的球哈希算法對(duì)SIFT特征建立索引,把128維的高維浮點(diǎn)向量變?yōu)槎邓饕?提高檢索速度。實(shí)驗(yàn)結(jié)果表明該方法不僅提高了視頻檢索的準(zhǔn)確率和檢索速度,而且保證了較高的查全率。
關(guān)鍵詞版權(quán)保護(hù)視頻拷貝檢測(cè)灰度差SIFT特征球哈希
0引言
隨著互聯(lián)網(wǎng)的普及,以及各種壓縮技術(shù)和大容量存儲(chǔ)技術(shù)的不斷出現(xiàn),使得視頻的傳播、制作、存儲(chǔ)越來(lái)越容易,視頻網(wǎng)站服務(wù)日漸成熟[1]。大量影視作品在未經(jīng)授權(quán)的情況下通過(guò)視頻服務(wù)網(wǎng)站在網(wǎng)絡(luò)上進(jìn)行傳播,對(duì)著作權(quán)所有人的權(quán)利造成了直接的損害。這種行為導(dǎo)致電影票房的下降和電視收視率的降低,以及音像制品銷(xiāo)量的下降。為保護(hù)著作權(quán)人的合法權(quán)益,減少侵權(quán)行為的發(fā)生,視頻版權(quán)保護(hù)技術(shù)的研究的重要性日益凸顯并成為目前研究的熱點(diǎn)。
視頻版權(quán)保護(hù)面臨的主要挑戰(zhàn)之一是視頻數(shù)量大。例如,全球著名視頻網(wǎng)站YouTube每天平均上傳6000多個(gè)視頻(平均每秒上傳0.7個(gè))。上傳視頻的平均長(zhǎng)度是5分鐘,每天上傳視頻的總長(zhǎng)度約為5000個(gè)小時(shí)。如果要對(duì)近10年的視頻進(jìn)行版權(quán)保護(hù),需要用每天上傳的5000個(gè)小時(shí)的視頻和過(guò)去10年中4.38億個(gè)小時(shí)的視頻比較。除此之外,視頻的剪切、旋轉(zhuǎn)、轉(zhuǎn)換編碼格式等視頻拷貝攻擊也增加了視頻版權(quán)保護(hù)的難度。
本文提出了一個(gè)基于內(nèi)容的視頻拷貝檢測(cè)方法。目的是通過(guò)把上傳的文件和已存文件進(jìn)行對(duì)比,檢測(cè)出侵權(quán)視頻。為了提高檢測(cè)的準(zhǔn)確率和檢測(cè)速度,提出基于灰度差與灰度差累積量相結(jié)合的方法提取關(guān)鍵幀,并且利用球哈希算法為關(guān)鍵幀的SIFT特征建立二值索引的視頻拷貝檢測(cè)方法。
1相關(guān)工作
近年來(lái),眾多學(xué)者投身于視頻版權(quán)保護(hù)技術(shù)的研究。數(shù)字水印技術(shù)[2]和基于內(nèi)容的視頻拷貝檢測(cè)技術(shù)[3]是目前視頻版權(quán)保護(hù)具有代表性的兩種方法。數(shù)字水印技術(shù)需在視頻發(fā)布之前嵌入水印進(jìn)行保護(hù),嵌入在視頻中的數(shù)字水印容易被破壞而失去版權(quán)保護(hù)功能,因此將數(shù)字水印應(yīng)用到實(shí)際中還存在一定的局限性。相反,基于內(nèi)容的視頻拷貝檢測(cè)技術(shù)直接從視頻內(nèi)容本身提取特征,無(wú)需嵌入任何信息,與數(shù)字水印技術(shù)相比更具實(shí)用價(jià)值。
基于內(nèi)容的視頻拷貝檢測(cè)技術(shù)中的一個(gè)關(guān)鍵問(wèn)題是如何提取視頻關(guān)鍵幀[4],高效地分割視頻的關(guān)鍵幀是精確檢索視頻的基礎(chǔ)。傳統(tǒng)的視頻關(guān)鍵幀提取方法有:基于邊緣檢測(cè)的方法、基于直方圖的分割方法和基于灰度差的方法。這些方法在提取關(guān)鍵幀時(shí)都是以提取前一關(guān)鍵幀為基準(zhǔn)來(lái)提取下一關(guān)鍵幀,在提取關(guān)鍵幀時(shí)會(huì)產(chǎn)生嚴(yán)重的累積誤差,影響視頻檢索的準(zhǔn)確率。本文對(duì)傳統(tǒng)的基于灰度差的方法進(jìn)行改進(jìn),提出了基于灰度差與灰度差累積量相結(jié)合的方法提取視頻關(guān)鍵幀。
在提取視頻關(guān)鍵幀后提取關(guān)鍵幀特征。文獻(xiàn)[5]提出LSH-MPEG方法,在該方法中MPEG圖像特征被用來(lái)檢測(cè)拷貝視頻,但是MPEG特征對(duì)于顏色退化等攻擊魯棒性較差,通常作為一種基準(zhǔn)特征使用,本文在實(shí)驗(yàn)部分也與該方法進(jìn)行比較。Liu N[6]于2010年提取關(guān)鍵幀的空間灰度序特征來(lái)檢測(cè)拷貝視頻,實(shí)驗(yàn)表明該特征對(duì)于各種輕微拷貝攻擊(如顏色變化、重編碼、分辨率變化等)有較好的魯棒性。文獻(xiàn)[7]采用運(yùn)動(dòng)向量特征作為視頻關(guān)鍵幀特征,特征提取時(shí)間長(zhǎng),不適用于大規(guī)模的視頻版權(quán)保護(hù)。雖然全局特征的提取和相似度匹配速度較快,但是匹配的能力不足,影響了視頻查找的準(zhǔn)確率。為了提高視頻檢索的準(zhǔn)確率,我們采用經(jīng)典的SIFT局部特征,并在其基礎(chǔ)上進(jìn)行改進(jìn)。
在查詢大型數(shù)據(jù)庫(kù)時(shí)建立索引來(lái)加快檢索速度是基于內(nèi)容的視頻拷貝檢測(cè)的另一個(gè)關(guān)鍵技術(shù)。本文采用球哈希算法為SIFT特征建立索引,球哈希是一種二值哈希算法。與傳統(tǒng)的樹(shù)形結(jié)構(gòu)索引相比,二值哈希算法具有數(shù)據(jù)結(jié)構(gòu)更加緊湊、占用內(nèi)存小、實(shí)用性高的優(yōu)點(diǎn)。
目前,二值哈希算法主要分為數(shù)據(jù)獨(dú)立的哈希算法和數(shù)據(jù)依賴的哈希算法兩大類。在數(shù)據(jù)獨(dú)立的哈希算法中,哈希函數(shù)的選擇和輸入的數(shù)據(jù)是無(wú)關(guān)的。局部敏感哈希LSH(Locality-Sensitive Hashing)[8]是被廣泛應(yīng)用的一種數(shù)據(jù)獨(dú)立哈希算法。最近,數(shù)據(jù)依賴哈希算法被廣泛研究,該類算法由于考慮到數(shù)據(jù)分布特點(diǎn),因此可以選擇出更好的哈希函數(shù)。數(shù)據(jù)依賴哈希算法包括譜哈希算法[9],半自動(dòng)哈希算法[10],聯(lián)合優(yōu)化算法[11],迭代量化方法[12]等。
上面提到的所有的哈希算法都是基于超平面把數(shù)據(jù)點(diǎn)劃分成兩個(gè)不同的集合來(lái)計(jì)算相應(yīng)的二進(jìn)制編碼。與上面提到的方法不同,球哈希算法是通過(guò)超球面來(lái)劃分?jǐn)?shù)據(jù)點(diǎn)集合的,實(shí)驗(yàn)表明球哈希算法具有更快地檢索速度。本文利用球哈希算法把相似的高維數(shù)SIFT特征點(diǎn)映射到相似的二值索引,通過(guò)查找近似的二值索引就可以有效地查詢相似的數(shù)據(jù)點(diǎn)。
2基于球哈希和改進(jìn)的灰度差算法的視頻拷貝檢測(cè)
基于視頻內(nèi)容的版權(quán)保護(hù)技術(shù)的基本處理流程包括:關(guān)鍵幀提取、特征提取、建立索引、關(guān)鍵幀匹配[13]四個(gè)關(guān)鍵步驟?;诟倪M(jìn)的灰度差關(guān)鍵幀提取算法和球哈希索引的視頻拷貝檢測(cè)框架如圖1所示。
圖1 基于球哈希和改進(jìn)的灰度差算法的視頻拷貝檢測(cè)框架
2.1視頻關(guān)鍵幀提取
傳統(tǒng)的灰度差關(guān)鍵幀提取方法,在實(shí)際使用時(shí)會(huì)產(chǎn)生累積誤差,為提高視頻檢索的準(zhǔn)確率對(duì)原始的灰度差關(guān)鍵幀提取算法進(jìn)行改進(jìn),提出灰度差與灰度差累積量相結(jié)合的方法提取關(guān)鍵幀。
圖像灰度差計(jì)算公式:
(1)
式中Ht(j)表示直方圖中灰度j的像素點(diǎn)數(shù)0≤j≤255,下標(biāo)t表示第t個(gè)幀。
灰度差累積量計(jì)算公式:
(2)
式中k表示視頻幀積累的個(gè)數(shù)。式(2)是k個(gè)式1的和。
關(guān)鍵幀必須滿足兩個(gè)判定條件:一是當(dāng)前幀與前一關(guān)鍵幀之間的灰度差大于設(shè)定的閾值1;二是當(dāng)前幀與前一關(guān)鍵幀之間的累積量C大于設(shè)定的閾值2。該方法可以有效地減小由原始的灰度差方法在提取關(guān)鍵幀時(shí)帶來(lái)的誤差,提高視頻檢測(cè)的準(zhǔn)確度。
2.2SIFT特征提取
在視頻關(guān)鍵幀提取后,提取關(guān)鍵幀的SIFT特征。SIFT由David Lowe在1999年提出[14],是近十年來(lái)影響較大的一種特征描述方式。SIFT特征是圖像的局部特征,其對(duì)尺度、視角、光照、旋轉(zhuǎn)等多種嚴(yán)重的變換具有很好的魯棒性。此外,SIFT特征還具有多量性、高速性和可擴(kuò)展性。SIFT算法大致分為五個(gè)步驟:
1) 構(gòu)建尺度空間一個(gè)圖像的尺度空間L(x,y,σ)定義為一個(gè)尺度變化的高斯函數(shù)G(x,y,σ)與原圖像I(x,y)的卷積。
L(x,y,σ)=G(x,y,σ)*I(x,y)
(3)
其中*表示卷積運(yùn)算,G(x,y,σ)是尺度可變的高斯函數(shù),公式如下:
(4)
式中(x,y)是空間坐標(biāo),σ大小決定圖像的平滑程度,大σ對(duì)應(yīng)粗糙尺度(低分辨率),反之對(duì)應(yīng)精細(xì)尺度(高分辨率)。
2) 空間極值點(diǎn)檢測(cè)利用高斯差分函數(shù)DOG算子(Difference of Gaussian)進(jìn)行極值檢測(cè),高斯差分函數(shù)如下:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)
=L(x,y,kσ)-L(x,y,σ)
(5)
為尋找DOG函數(shù)的極值點(diǎn),每一個(gè)像素點(diǎn)要和它所有的相鄰點(diǎn)比較,看其是否比它的圖像域和尺度域的相鄰點(diǎn)大或者小。
3) 精確定位特征點(diǎn)的位置通過(guò)擬和三維二次函數(shù)以精確確定關(guān)鍵點(diǎn)的位置和尺度(達(dá)到亞像素精度),去除低對(duì)比度的關(guān)鍵點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn),以增強(qiáng)匹配穩(wěn)定性、提高抗噪聲能力。
4) 確定方向根據(jù)圖像的局部梯度方向,給每個(gè)關(guān)鍵點(diǎn)分配方向。
5) 關(guān)鍵點(diǎn)特征描述通過(guò)以上步驟,每個(gè)關(guān)鍵點(diǎn)擁有三個(gè)信息:位置、尺度以及方向。給每個(gè)關(guān)鍵點(diǎn)建立一個(gè)128維的浮點(diǎn)數(shù)向量描述符。
2.3球哈希
為提高視頻的檢索速度,利用球哈希算法為關(guān)鍵幀的SIFT描述符建立索引。球哈希算法的定義如下:X={x1,…,xn},xi∈RD為D維空間中的n個(gè)數(shù)據(jù)點(diǎn)的集合,利用c個(gè)球哈希函數(shù)把集合X映射到一個(gè)二進(jìn)制空間{-1,+1}c中,其中c表示二進(jìn)制編碼的長(zhǎng)度。
每個(gè)球哈希函數(shù)定義為:
其中pk表示圓心,tk表示圓的半徑,d(·,·)表示RD中兩個(gè)點(diǎn)的歐式距離。每個(gè)哈希函數(shù)的值表示點(diǎn)x是否在以pk為球心,tk為半徑的球面內(nèi)。當(dāng)點(diǎn)x在球面內(nèi)時(shí),函數(shù)值為+1,否則,函數(shù)值為-1。
2.3.1球哈希函數(shù)的獨(dú)立性
在哈希算法中,保證數(shù)據(jù)點(diǎn)對(duì)每個(gè)哈希函數(shù)的均衡分布和各個(gè)哈希函數(shù)的相互獨(dú)立性是非常重要的,因?yàn)闈M足這兩個(gè)屬性不僅可以實(shí)現(xiàn)數(shù)據(jù)點(diǎn)對(duì)不同二進(jìn)制編碼的均衡分布,而且可以提高查詢速度[15]和查詢結(jié)果的準(zhǔn)確率[16]。為了使球哈希函數(shù)滿足這兩個(gè)屬性必須滿足以下兩個(gè)條件:
首先,每個(gè)哈希函數(shù)的值為+1或-1的概率是相等的且均為0.5,即每個(gè)哈希函數(shù)滿足如下關(guān)系:
(6)
其次,保證任意兩個(gè)哈希函數(shù)之間是相互獨(dú)立的,定義vk代表事件hi(x)=+1。當(dāng)且僅當(dāng)Pr[Vi∩Vj]=Pr[Vi]∩Pr[Vj]時(shí),事件vi和vj是相互獨(dú)立的。如果每個(gè)數(shù)據(jù)點(diǎn)對(duì)每一個(gè)二進(jìn)制位的分布是均衡的(滿足式(6)),那么任意兩個(gè)獨(dú)立的二進(jìn)制位滿足式(7):
Pr[hi(x)=+1,hj(x)=+1]=Pr[hi(x)=+1]∩
(7)
2.3.2迭代優(yōu)化
為了計(jì)算各個(gè)哈希函數(shù)的中心點(diǎn)pk和半徑tk, 提出一個(gè)迭代的過(guò)程。通過(guò)該迭代過(guò)程得到c個(gè)哈希函數(shù),使得這些哈希函數(shù)同時(shí)滿足式(6)和式(7)。
該迭代過(guò)程分為兩步:首先,從點(diǎn)集X抽取一個(gè)子集S={s1,s2,…,sm},并且在點(diǎn)集S中隨機(jī)選取c(c=256)個(gè)數(shù)據(jù)點(diǎn)作為c個(gè)哈希函數(shù)中心點(diǎn)的初始值。
然后,重新修改哈希函數(shù)的中心點(diǎn)pk和半徑tk,迭代過(guò)程中,用到兩個(gè)變量,分別為oi和oi,j,定義如下:
oi=|{sk|hi(sk)=+1,1≤k≤m}|
oi,j=|{sk|hi(sk)=+1,hj(sk)=+1,1≤k≤m}|
其中1≤i,j≤c,oi表示第i個(gè)哈希函數(shù)在點(diǎn)集S中值為+1的個(gè)數(shù);oi,j表示點(diǎn)集S中使第i個(gè)哈希函數(shù)和第j個(gè)哈希函數(shù)的值同時(shí)為+1的點(diǎn)的個(gè)數(shù)。
算法1迭代優(yōu)化算法:
輸入:采樣點(diǎn)集合S={s1,s2,…,sm},容錯(cuò)率εm和εs,哈希函數(shù)數(shù)目c;
輸出:圓心的位置p1,…,pc,每個(gè)哈希函數(shù)的半徑t1,…,tc。
從點(diǎn)集S中隨機(jī)選取c個(gè)數(shù)據(jù)點(diǎn)來(lái)初始化圓心p1,…,pc;
計(jì)算任意兩個(gè)哈希函數(shù)的oi,j的值。
repeat
for i = 1 to c - 1 do
for j = i + 1 to c do
fj←i=-fi←j
end for
end for
for i = 1 to c do
pi=pi+fi
end for
2.3.3哈希索引的距離計(jì)算公式
大部分基于超平面的二值哈希算法是用漢明距離來(lái)計(jì)算兩個(gè)二進(jìn)制編碼的距離的,漢明距離是計(jì)算兩個(gè)二進(jìn)制編碼異或后1的個(gè)數(shù)。這種測(cè)量距離的方法計(jì)算出了兩個(gè)點(diǎn)所跨越的超平面的個(gè)數(shù),但是,漢明距離不能很好地表示封閉球面的性質(zhì)。為了充分利用球哈希函數(shù)的特性,提出一個(gè)球哈希距離計(jì)算公式:
(8)
式中bi,bj是由球哈希函數(shù)計(jì)算得到的兩個(gè)二進(jìn)制編碼, ⊕是異或運(yùn)算符,|bi⊕bj|表示兩個(gè)二進(jìn)制編碼中不同二進(jìn)制位的個(gè)數(shù),∧是位與運(yùn)算符, |bi∧bj|表示兩個(gè)二進(jìn)制編碼中同為+1的位的個(gè)數(shù)。分母表示在同一個(gè)球面內(nèi)的位數(shù),分子表示不在同一個(gè)球面內(nèi)的位數(shù),分?jǐn)?shù)值越大表示兩個(gè)二進(jìn)制編碼的距離越遠(yuǎn)。
3實(shí)驗(yàn)及結(jié)果分析
實(shí)驗(yàn)環(huán)境:本文實(shí)驗(yàn)在Intel Core i7-3770 3.40 GHz,8 G內(nèi)存,采用OpenCV標(biāo)準(zhǔn)庫(kù),在Windows Server 2008下用C++語(yǔ)言實(shí)現(xiàn)。
3.1實(shí)驗(yàn)數(shù)據(jù)
實(shí)驗(yàn)數(shù)據(jù)為CC_WEB_VIDEO[17],CC_WEB_VIDEO是大規(guī)模網(wǎng)絡(luò)視頻數(shù)據(jù)集,該數(shù)據(jù)庫(kù)由香港城市大學(xué)和卡內(nèi)基梅隆大學(xué)合作收集而來(lái)。該視頻集包括從YouTube, Google和Yahoo視頻分享網(wǎng)站采集得到的24組查詢視頻,平均每組查詢視頻的冗余量為27%,共12 790個(gè)視頻。
相似視頻主要分為格式變化和內(nèi)容改變兩大類:格式變化包括:視頻格式改變(flv, mv, avi, mpg, mp4等視頻格式)、幀率變化、分辨率的改變;內(nèi)容改變包括:光度變化(顏色改變或亮度改變)、視頻編輯變化(插入標(biāo)題或插入logo)、內(nèi)容修改(增加與內(nèi)容不相關(guān)的幀)。
3.2評(píng)價(jià)指標(biāo)
與一般的檢索類似,CC_WEB_VIDEO數(shù)據(jù)集上的評(píng)價(jià)指標(biāo)主要包括:準(zhǔn)確率、查全率、檢索時(shí)間,具體指標(biāo)定義如下:
(9)
(10)
式中Ni表示檢索第i個(gè)視頻返回的視頻片段集,Mi表示目標(biāo)視頻集中與第i個(gè)查詢視頻相似的視頻片段集。式(9)中的Pi表示第i個(gè)查詢視頻的準(zhǔn)確率,式(10)中的Ri表示第i個(gè)查詢視頻的查全率。檢索時(shí)間指完成一次檢索需要的時(shí)間。
3.3實(shí)驗(yàn)結(jié)果及分析
為檢測(cè)基于球哈希和改進(jìn)的灰度差算法的視頻拷貝檢測(cè)的性能,實(shí)驗(yàn)中用本文的方法(Special-Gray方法)和沒(méi)有建立索引的SIFT方法(SIFT方法)和文獻(xiàn)[5]中基于LSH索引和MPEG特征的方法(LSH-MEPG方法)進(jìn)行比較,選取了24個(gè)查詢視頻,用查全率、準(zhǔn)確率和檢索時(shí)間三項(xiàng)指標(biāo)進(jìn)行評(píng)估。基于SIFT方法、基于LSH-MPEG方法和Special-Gray方法的比較結(jié)果如圖2、圖3、表1所示。
圖2 查全率比較
圖3 準(zhǔn)確率比較
LSH-MEPG方法SIFT方法Special-Gray方法16.7364.45.5
從圖2可以看出這三種方法中LSH-MPEG方法的查全率最高,SIFT方法和Special-Gray方法的召回率略低于LSH-MPEG的方法,但是基本保持在80%以上。該實(shí)驗(yàn)結(jié)果表明本文的Special-Gray方法有較高的查全率。
但是,從圖3中可以看到三種方法中本文Special-Gray方法準(zhǔn)確率最高??梢钥闯鯯IFT方法比LSH-MPEG方法有較高的準(zhǔn)確率,這是由于MPEG特征對(duì)顏色退化等攻擊魯棒性較差,而SIFT特征比MPEG特征信息量豐富,獨(dú)特性好,而匹配精度高。本文的Special-Gray方法的準(zhǔn)確率比SIFT方法高,這是因?yàn)樵摲椒ú粌H提取了關(guān)鍵幀的SIFT特征,而且采用了灰度差和灰度差累積量相結(jié)合的方法提取關(guān)鍵幀,減少了幀間累積誤差,進(jìn)一步提高了視頻檢索的準(zhǔn)確率。
由表1可看出Special-Gray方法的平均檢索速度最快,與沒(méi)有索引的SIFT方法相比檢索時(shí)間縮短了10倍,與采用局部敏感哈希算法的LSH-MPEG方法相比檢索時(shí)間縮短了3倍。這是由于在Special-Gray方法中為SIFT特征建立了球哈希索引,把128維的浮點(diǎn)數(shù)向量變成了256維的二值向量,提高了檢索速度。
綜上所述,與其它兩種方法相比,LSH-MPEG具有方法檢索速度快和召回率高的特點(diǎn),但是準(zhǔn)確率低,不具有實(shí)用性。SIFT方法檢索時(shí)間太長(zhǎng),影響了檢索效率。Special-Gray方法在較高的準(zhǔn)確率和較快的檢索速度的前提下,保持了較高的查全率,在視頻拷貝檢測(cè)方面更具實(shí)用價(jià)值。
4結(jié)語(yǔ)
本文對(duì)傳統(tǒng)灰度差關(guān)鍵幀提取算法進(jìn)行了改進(jìn),提出了灰度差和灰度差累積量相結(jié)合的方法提取關(guān)鍵幀,提高了提取關(guān)鍵幀的準(zhǔn)確率,并且利用球哈希算法對(duì)SIFT特征建立索引,把高維浮點(diǎn)向量變?yōu)槎迪蛄浚岣吡藱z索速度。今后的研究方向是在此基礎(chǔ)上進(jìn)一步提高視頻的檢索的查全率,增強(qiáng)視頻檢索的實(shí)用性。
參考文獻(xiàn)
[1] 王光文. 論視頻網(wǎng)站UGC經(jīng)營(yíng)者的版權(quán)侵權(quán)注意義務(wù)[J]. 國(guó)際新聞界, 2012, 34(3): 28-34.
[2] 聶廷遠(yuǎn), 賈蕭, 萬(wàn)勝偉, 等. 多重加密的數(shù)字水印生成方法[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2013, 34(9): 3054-3057.
[3] 劉紅, 文朝暉, 王曄. 基于內(nèi)容的視頻拷貝檢測(cè)研究[J]. 計(jì)算機(jī)工程, 2010, 36(7): 227-229.
[4] 陳青華, 程恭, 謝曉方, 等. 一種改進(jìn)的自適應(yīng)關(guān)鍵幀提取方法[J]. 兵工自動(dòng)化, 2011, 30(9): 90-92.
[5] Murabayashi N, Yoshida K. Copied video detection with MPEG-7 video signature and multiple direct-mapped cache[C]//Hybrid Intelligent Systems (HIS), 2011 11th International Conference on. IEEE, 2011: 190-195.
[6] Liu N, Zhao Y, Zhu Z. Commercial recognition in TV streams using coarse-to-fine matching strategy[M]//Advances in Multimedia Information Processing-PCM 2010. Springer Berlin Heidelberg, 2010: 296-307.
[7] Schoeffmann K, Boeszoermenyi L. Video sequence identification in TV broadcasts[M]//Advances in Multimedia Modeling. Springer Berlin Heidelberg, 2011: 129-139.
[8] 林朝暉, 于俊清, 何云峰, 等. 高維分布式局部敏感哈希索引方法[J]. 計(jì)算機(jī)科學(xué)與探索, 2013, 7(9): 811-818.
[9] Weiss Y, Torralba A, Fergus R. Spectral hashing[C]//Advances in neural information processing systems. 2009: 1753-1760.
[10] Wang J, Kumar S, Chang S F. Semi-supervised hashing for scalable image retrieval[C]//Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on. IEEE, 2010: 3424-3431.
[11] He J, Radhakrishnan R, Chang S F, et al. Compact hashing with joint optimization of search accuracy and time[C]//Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 753-760.
[12] Gong Y, Lazebnik S. Iterative quantization: A procrustean approach to learning binary codes[C]//Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 817-824.
[13] Li J, Liang Y, Zhang B. Video copy detection based on spatiotemporal fusion model[J]. Tsinghua Science and Technology, 2012, 17(1): 51-59.
[14] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[15] He J, Radhakrishnan R, Chang S F, et al. Compact hashing with joint optimization of search accuracy and time[C]//Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 753-760.
[16] Joly A, Buisson O. Random maximum margin hashing[C]//Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 873-880.
[17] Shang L, Yang L, Wang F, et al. Real-time large scale near-duplicate web video retrieval[C]//Proceedings of the International Conference on Multimedia. ACM, 2010: 531-540.
VIDEO COPY DETECTION BASED ON SPHERICAL HASHING AND IMPROVED GRAY DIFFERENCE ALGORITHM
Li HaoZhang Xingzhong
(CollegeofComputerScienceandTechnology,TaiyuanUniversityofTechnology,Taiyuan030024,Shanxi,China)
AbstractFor the problem of low retrieval accuracy and slow retrieval speed in large-scale video copyright protection, we proposed a video copy detection method, it is based on spherical Hashing and improved gray difference algorithm. First, we improved the traditional algorithm of extracting key frames based on gray difference, proposed a method to extract key frames which combines the gray difference with gray difference accumulation, thus reduced the cumulative errors when extracting key frames, as well as improved the accuracy of video retrieval. Secondly, we extracted the SIFT feature of key frames and used the famous spherical Hashing algorithm to establish hashing index for SIFT feature, and converted the 128 high-dimensional floating-point vectors to binary hashing indexes, therefore improved retrieval speed. Experimental results showed that this method not only improved video retrieval accuracy and retrieval speed, but also ensured a higher recall rate.
KeywordsCopyright protectionVideo copy detectionGray differenceSIFT featureSpherical Hashing
中圖分類號(hào)TP391
文獻(xiàn)標(biāo)識(shí)碼A
DOI:10.3969/j.issn.1000-386x.2016.01.046
收稿日期:2014-07-03。國(guó)家科技支撐項(xiàng)目子課題(2012BAH0 4F02-2);山西省國(guó)際科技合作項(xiàng)目(2012081034-2);人社部留學(xué)人員科技活動(dòng)項(xiàng)目(2011-508)。李皓,碩士生,主研領(lǐng)域:計(jì)算機(jī)視覺(jué),圖像處理,模式識(shí)別。張興忠,副教授。