亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于時(shí)空域結(jié)構(gòu)的立體視頻質(zhì)量評(píng)價(jià)方法

        2016-06-28 14:12:57車(chē)慧麗彭宗舉
        光電工程 2016年11期
        關(guān)鍵詞:視點(diǎn)空域立體

        車(chē)慧麗,郁 梅,2,陳 芬,彭宗舉

        (1.寧波大學(xué) 信息科學(xué)與工程學(xué)院,浙江 寧波315211;2.南京大學(xué) 計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,南京210093)

        一種基于時(shí)空域結(jié)構(gòu)的立體視頻質(zhì)量評(píng)價(jià)方法

        車(chē)慧麗1,郁 梅1,2,陳 芬1,彭宗舉1

        (1.寧波大學(xué) 信息科學(xué)與工程學(xué)院,浙江 寧波315211;2.南京大學(xué) 計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,南京210093)

        如何準(zhǔn)確有效的評(píng)價(jià)立體視頻質(zhì)量對(duì)于視頻通信系統(tǒng)的發(fā)展有著重要的作用。本文著重于從單視點(diǎn)相鄰幀中提取的結(jié)構(gòu)信息相關(guān)性提出了一種立體視頻質(zhì)量評(píng)估方法??沼蛱荻葘?duì)空域失真和時(shí)域局部失真同樣敏感,對(duì)于立體視頻的左右視點(diǎn),首先結(jié)合時(shí)空域梯度特征和對(duì)圖像質(zhì)量評(píng)價(jià)有顯著影響的顏色特征,得到單視點(diǎn)視頻的時(shí)空域結(jié)構(gòu)相似度。在時(shí)空域質(zhì)量融合階段,時(shí)空域局部質(zhì)量首先通過(guò)空域融合得到單視點(diǎn)幀級(jí)質(zhì)量值,然后再利用左右視點(diǎn)能量比率圖加權(quán)的方法將同一時(shí)刻左右視點(diǎn)之間的質(zhì)量值融合為立體視頻單幀質(zhì)量值。最后考慮人眼不對(duì)稱追蹤效應(yīng)進(jìn)行單幀質(zhì)量融合得到最終的立體視頻質(zhì)量。在NAMA3DS1-COSPAD1數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)表明該方法可以準(zhǔn)確預(yù)測(cè)立體視頻質(zhì)量且時(shí)間復(fù)雜度非常低。

        視頻質(zhì)量評(píng)價(jià);時(shí)空域信息;質(zhì)量融合;時(shí)域效應(yīng)

        0 引言

        隨著3D顯示技術(shù)的快速發(fā)展,3D視頻已經(jīng)進(jìn)入到公眾的娛樂(lè)生活中。相比于傳統(tǒng)的2D視頻,3D視頻包含附加的信息并且兩只眼睛可以在同一時(shí)刻觀看不同的圖像,通過(guò)雙目融合,兩個(gè)視點(diǎn)合成為一幅圖像并且在人類(lèi)視覺(jué)系統(tǒng)中產(chǎn)生立體深度感[1]。在3D視頻的獲取、編碼、傳輸和顯示的過(guò)程中左右視點(diǎn)就會(huì)產(chǎn)生不同類(lèi)型和不同程度的失真,人類(lèi)視覺(jué)系統(tǒng)就會(huì)感受到不同的質(zhì)量感。因此,如何有效的評(píng)價(jià)3D視頻的質(zhì)量是一個(gè)值得探索的重要問(wèn)題。

        由于人是視頻圖像的最終接受者和使用者,最精確和最可靠的質(zhì)量評(píng)價(jià)方法就是采用視頻觀看者所給出的分?jǐn)?shù),也就是所謂的主觀質(zhì)量評(píng)價(jià)方法[2]。但是該方法費(fèi)時(shí)費(fèi)力并且不能嵌入到實(shí)時(shí)應(yīng)用系統(tǒng)中。為了彌補(bǔ)主觀質(zhì)量評(píng)價(jià)方法的不足,在實(shí)際中我們通常采用客觀評(píng)價(jià)方法,也就是利用定量的數(shù)學(xué)模型來(lái)估計(jì)視頻質(zhì)量,這個(gè)方法要解決的關(guān)鍵問(wèn)題是客觀評(píng)價(jià)值與人類(lèi)主觀感受一致。

        目前,立體圖像和立體視頻的質(zhì)量評(píng)價(jià)模型主要可以分為兩個(gè)類(lèi)型,第一個(gè)類(lèi)型是用戶體驗(yàn)質(zhì)量的評(píng)價(jià)。在文獻(xiàn)[3]中,Xing L等考慮到談話節(jié)目的級(jí)別,攝像機(jī)基線和場(chǎng)景內(nèi)容,提出了一種客觀評(píng)價(jià)方法。在文獻(xiàn)[4]中,MittalA等從視差圖和空間圖像中提取簡(jiǎn)單的統(tǒng)計(jì)特性并利用主成分分析法和前向特征選擇的方法來(lái)選擇與主觀評(píng)價(jià)值相一致的特征用來(lái)評(píng)價(jià)用戶體驗(yàn)質(zhì)量。第二種類(lèi)型就是度量由于壓縮或編碼而造成的失真度。文獻(xiàn)[5]介紹了一種針對(duì)JPEG編碼失真的立體無(wú)參考立體視頻質(zhì)量評(píng)價(jià)方法。文獻(xiàn)[6]將像素劃分為邊緣、紋理和平滑區(qū)域,然后利用傳統(tǒng)2D圖像質(zhì)量評(píng)價(jià)方法(IQMs)來(lái)得到每個(gè)區(qū)域的質(zhì)量值并賦予不同的權(quán)重值,最后采用將兩個(gè)視點(diǎn)質(zhì)量值進(jìn)行平均。考慮到雙目空間靈敏度,Wang[7]等提出了一種立體圖像質(zhì)量評(píng)價(jià)方法,該算法利用圖像對(duì)中每個(gè)像素點(diǎn)的JND值作為雙目空間靈敏度并將其用作IQMs中的權(quán)重值。Jin[8]等在視點(diǎn)間找到相似塊構(gòu)造3D數(shù)組,對(duì)每個(gè)3D數(shù)組應(yīng)用3D-DCT變換后計(jì)算原始圖像塊和失真圖像塊變換系數(shù)的均方誤差。雖然這些評(píng)價(jià)方法與人類(lèi)主觀評(píng)價(jià)值相一致,但是并沒(méi)有將相鄰幀的運(yùn)動(dòng)信息考慮進(jìn)去并且依賴于比較耗時(shí)的立體匹配,因此不能應(yīng)用于實(shí)時(shí)系統(tǒng)中。

        一個(gè)好的立體視頻質(zhì)量評(píng)價(jià)算法不但要有較高的預(yù)測(cè)準(zhǔn)確性,對(duì)時(shí)空域失真都敏感,還要有盡可能低的算法復(fù)雜度,對(duì)高清視頻序列進(jìn)行實(shí)時(shí)處理。本文提出了一種基于時(shí)空域結(jié)構(gòu)的全參考立體視頻質(zhì)量評(píng)價(jià)方法。首先,受SSIM的啟發(fā),我們假設(shè)人類(lèi)視覺(jué)系統(tǒng)(Human Visual System,HVS)高度自適應(yīng)的從運(yùn)動(dòng)場(chǎng)景中提取時(shí)空域結(jié)構(gòu)信息,將整個(gè)立體視頻左右視點(diǎn)的視頻序列看作兩個(gè)靜態(tài)的三維矩陣,通過(guò)時(shí)空域梯度幅值和顏色信息兩個(gè)特征計(jì)算時(shí)空域結(jié)構(gòu)相似度,分別得到左右視點(diǎn)視頻序列的時(shí)空域局部質(zhì)量矩陣;然后,再將整個(gè)立體視頻左右視點(diǎn)看作動(dòng)態(tài)的時(shí)間序列,先通過(guò)空域融合方法分別得到左右視點(diǎn)中每幀的質(zhì)量,再利用左右視點(diǎn)單幀圖像能量比率圖加權(quán)的方法將左右視點(diǎn)中同一時(shí)刻的質(zhì)量值加權(quán)得到評(píng)價(jià)值,最后模擬HVS中不對(duì)稱追蹤效應(yīng)對(duì)每幀的質(zhì)量進(jìn)行時(shí)域加權(quán),得到最終的立體視頻序列客觀質(zhì)量。

        1 基于時(shí)空域結(jié)構(gòu)的立體視頻質(zhì)量評(píng)價(jià)方法

        本文算法通過(guò)時(shí)空域結(jié)構(gòu)相似度和時(shí)空域局部質(zhì)量融合分別計(jì)算單視點(diǎn)視頻序列的質(zhì)量,同時(shí)考慮視頻的時(shí)域失真和空域失真。對(duì)得到的左右視點(diǎn)質(zhì)量值采用能量比率圖能量加權(quán)方法得到立體視頻質(zhì)量值,使得該方法對(duì)各類(lèi)型的編碼失真和傳輸失真都有很好的評(píng)價(jià)性能,同時(shí)避開(kāi)了非常耗時(shí)的運(yùn)動(dòng)估計(jì),降低了立體視頻質(zhì)量評(píng)價(jià)復(fù)雜度。圖1是本文提出算法的流程框圖。

        圖1 基于時(shí)空域結(jié)構(gòu)的立體視頻質(zhì)量評(píng)價(jià)方法框圖Fig.1Diagram of the spatio-temporal structural-based stereoscopic video quality metric

        1.1 時(shí)空域結(jié)構(gòu)相似度

        許多圖像質(zhì)量評(píng)價(jià)算法都表明梯度可以有效提取圖像的結(jié)構(gòu)信息,這啟發(fā)我們選擇梯度作為我們方法中的一個(gè)特征,同時(shí)檢測(cè)原始和失真視頻的空域結(jié)構(gòu)信息差異和時(shí)域運(yùn)動(dòng)信息差異。在本文中,用3D Prewitt算子計(jì)算視頻序列的梯度幅值。本文中使用的3D Prewitt算子的三個(gè)模板的權(quán)值系數(shù)如圖2所示。

        圖23 D Prewitt算子的三個(gè)方向模板Fig.2Three masks of the 3D Prewitt operator

        以左視點(diǎn)視頻序列為例,原始和失真視頻的亮度分量分別記為Yr和Yd,視頻的空域分辨力為W×H,視頻序列共有F幀,將整個(gè)視頻的亮度分量看作H×W×F的三維矩陣,與3D Prewitt算子進(jìn)行三維卷積,計(jì)算原始視頻的梯度幅值Gr和失真視頻的梯度幅值Gd:

        其中:符號(hào)·表示矩陣的數(shù)量乘積運(yùn)算,c1是正常數(shù)。顏色信息的失真同樣會(huì)影響視頻的質(zhì)量,在視頻壓縮過(guò)程中,色度分量通常采用與亮度分量一樣的編碼方式,這使得顏色失真對(duì)視頻質(zhì)量有顯著影響,因此在視頻質(zhì)量評(píng)價(jià)算法中,顏色失真也是需要考慮的一個(gè)重要因素。因此計(jì)算色度分量的相似度作為顏色相似度。原始和失真視頻的兩個(gè)色度分量分別記為Ur,Vr和Ud,Vd,顏色相似度矩陣Csim為

        其中:c2,c3都是正常數(shù)。本文中c1,c2和c3都用于防止分式無(wú)意義并微調(diào)各特征的靈敏度。結(jié)合梯度相似度和顏色相似度得到原始和失真視頻序列的時(shí)空域結(jié)構(gòu)相似度,即時(shí)空域局部質(zhì)量矩陣QLS為

        其中:λ是大于0的參數(shù),用于調(diào)整顏色分量的權(quán)重,本文中λ=3,用于強(qiáng)調(diào)顏色信息失真較嚴(yán)重區(qū)域?qū)σ曨l質(zhì)量的影響。

        1.2 空域質(zhì)量融合

        在許多圖像質(zhì)量評(píng)價(jià)中,通常用平均融合方法進(jìn)行局部質(zhì)量的融合,本文采用更加高效的標(biāo)準(zhǔn)差融合法將幀級(jí)局部質(zhì)量融合成幀質(zhì)量。以左視點(diǎn)視頻序列為例,時(shí)空域局部質(zhì)量矩陣QLS中每個(gè)像素點(diǎn)的局部質(zhì)量值記為QLS(x,y,t),其中,則左視點(diǎn)視頻序列中每幀的質(zhì)量值Qframe_l(t)為

        用同樣的方法,可以計(jì)算出右視點(diǎn)視頻序列中每一幀的質(zhì)量值Qframe_r(t)。這里需要注意,與平均融合方法相反,標(biāo)準(zhǔn)差融合得到的值越小,表示該幀的質(zhì)量越好。

        1.3 左右視點(diǎn)質(zhì)量融合

        (Ir,l,Ir,r)和(Id,l,Id,r)分別表示原始和失真立體視頻中的左右視點(diǎn)單幀圖像,首先通過(guò)計(jì)算局部方差來(lái)得到每幅圖像的局部能量圖,即從原始和失真圖像中的每個(gè)空間點(diǎn)處提取局部圖像塊的方差,用標(biāo)準(zhǔn)差為1.5的11×11大小的中心對(duì)稱高斯加權(quán)函數(shù),歸一化為單位權(quán)重,得到的能量圖表示為(Er,l,Er,r),(Ed,l,Ed,r)。

        原始立體圖像對(duì)有最好的質(zhì)量,這就是雙目融合;當(dāng)至少一個(gè)單視點(diǎn)圖像在某些空間位置失真時(shí),可能會(huì)影響來(lái)自兩個(gè)視點(diǎn)之間圖像結(jié)構(gòu)的一致性,產(chǎn)生雙目競(jìng)爭(zhēng)。在兩個(gè)視點(diǎn)之間計(jì)算局部能量比率圖:

        能量比率圖提供了有用的局部雙目競(jìng)爭(zhēng)信息,這可以結(jié)合單視點(diǎn)圖像的質(zhì)量用來(lái)預(yù)測(cè)3D圖像質(zhì)量。高能量的圖像區(qū)域包含更多的信息,如果視覺(jué)感知的終極目標(biāo)是從視覺(jué)場(chǎng)景中高效提取有用信息,那么高能量區(qū)域更可能引起關(guān)注,所以有更高權(quán)重。為了強(qiáng)調(diào)在雙目競(jìng)爭(zhēng)中高能量圖像區(qū)域的重要性,采用能量加權(quán)法[9]:

        立體視頻單幀的質(zhì)量值可表示為

        1.4 時(shí)域質(zhì)量融合

        根據(jù)HVS中的視覺(jué)特性,人眼對(duì)連續(xù)視頻幀質(zhì)量變化存在不對(duì)稱感知,即對(duì)質(zhì)量降低比對(duì)質(zhì)量提高更加敏感。因此,本文采用不對(duì)稱感知模型[10]中的低通函數(shù)對(duì)每幀視頻質(zhì)量分進(jìn)行預(yù)處理,求得中間結(jié)果。這個(gè)特性可以通過(guò)不對(duì)稱的質(zhì)量上升和下降權(quán)重實(shí)現(xiàn),最終的視頻序列的客觀質(zhì)量值:

        其中:QLP(1)=Qframe(1),α和β分別表示質(zhì)量上升和下降時(shí)的權(quán)重,并滿足條件α<β,其值之間的差異性體現(xiàn)了人眼不對(duì)稱感知特性,即人眼對(duì)質(zhì)量降低比質(zhì)量提高更加敏感。

        2 實(shí)驗(yàn)結(jié)果及分析

        為了驗(yàn)證該算法的有效性,使用法國(guó)南特大學(xué)提供的NAMA3DS1-COSPAD1立體視頻數(shù)據(jù)庫(kù)(以下簡(jiǎn)稱NAMA3D數(shù)據(jù)庫(kù))[11]進(jìn)行測(cè)試。該對(duì)稱高清立體視頻數(shù)據(jù)庫(kù)包括10對(duì)未經(jīng)壓縮的高質(zhì)量自然場(chǎng)景參考立體視頻序列對(duì)(分辨率為1 920×1 080,幀率為25 f/s),同時(shí),NAMA3D數(shù)據(jù)庫(kù)中還包含5種(H.264壓縮失真、JPEG2000壓縮失真、圖像下采樣、圖像銳化、下采樣和銳化復(fù)合失真)失真類(lèi)型共100對(duì)失真立體視頻序列對(duì)。

        2.1 參數(shù)選擇

        本文有六個(gè)參數(shù)需要確定其取值。c1、c2、c3和λ具體的取值是采用遍歷的方式進(jìn)行粗調(diào),由于視頻的數(shù)據(jù)量較大,本文采用的是在該視頻庫(kù)中選取一個(gè)子集進(jìn)行遍歷,該子集包含3個(gè)原始視頻和其對(duì)應(yīng)的30個(gè)失真視頻,經(jīng)過(guò)遍歷選取使斯皮爾曼秩相關(guān)系數(shù)(Spearman Rank Order Correlation Coefficient,SROCC)值達(dá)到最大的c1、c2、c3和λ。本文中這四個(gè)參數(shù)的取值分別為c1=90,c2=c3=300,λ=3。

        圖3 參數(shù)α,β與SROCC的關(guān)系Fig.3The relationship ofα,βand SROCC

        2.2 性能比較

        為了定量分析該立體視頻質(zhì)量評(píng)價(jià)方法,文中根據(jù)視頻質(zhì)量專(zhuān)家(VQEG)Phase I test報(bào)告,采用文獻(xiàn)[12]中介紹的Logistic函數(shù)將各客觀評(píng)價(jià)算法評(píng)價(jià)結(jié)果非線性回歸到主觀評(píng)價(jià)結(jié)果(DMOS)空間,然后采用秩相關(guān)系數(shù)(SROCC)標(biāo)準(zhǔn)來(lái)衡量各評(píng)價(jià)算法的性能,用來(lái)測(cè)定客觀評(píng)價(jià)算法結(jié)果相對(duì)主觀評(píng)價(jià)結(jié)果的單調(diào)性。

        將本文中提出的評(píng)價(jià)方法和7種著名的質(zhì)量評(píng)價(jià)算法,包括4種全參考圖像質(zhì)量評(píng)價(jià)算法:PSNR、SSIM[13]、VIF[14]、MS-SSIM[15]和3種全參考視頻質(zhì)量評(píng)價(jià)算法:VQM[16]、RVQM[17]、PARMENIA[18],在NAMA3D數(shù)據(jù)庫(kù)上進(jìn)行評(píng)價(jià)性能的比較,四種圖像質(zhì)量評(píng)價(jià)方法通過(guò)簡(jiǎn)單的幀質(zhì)量平均加權(quán)用于視頻質(zhì)量評(píng)價(jià)中,實(shí)驗(yàn)結(jié)果如表1所示。由表可知,在所有的失真類(lèi)型中,表1中的所有方法對(duì)于JPEG2K失真視頻的評(píng)價(jià)值都是最高的,多種失真類(lèi)型的復(fù)合增加了評(píng)價(jià)的難度,所以表1中的方法對(duì)于復(fù)合失真視頻的評(píng)價(jià)值都不高。本文提出的方法對(duì)NAMA3D數(shù)據(jù)庫(kù)整體失真視頻的評(píng)價(jià)效果要優(yōu)于對(duì)比算法,特別是對(duì)于JPEG2K失真類(lèi)型,其SROCC可達(dá)到0.94,而對(duì)于H.264壓縮失真類(lèi)型,其評(píng)價(jià)性能稍遜于VQM和VIF,VQM利用統(tǒng)計(jì)學(xué)原理模擬實(shí)際的人眼視覺(jué)系統(tǒng)并提取人眼可以感知的多種圖像特征值,雖然本文的方法只考慮了亮度、色度和時(shí)空域結(jié)構(gòu)信息,但SROCC值也可達(dá)到0.83,表明本文算法對(duì)于該失真類(lèi)型也是有效的。本文所提出的方法對(duì)下采樣、銳化及其復(fù)合失真視頻的評(píng)價(jià)值要高于其對(duì)比算法,證明本文提出的方法還是比較符合人眼視覺(jué)感知的。

        2.3 復(fù)雜度對(duì)比

        表1 各種評(píng)價(jià)方法在NAMA3D數(shù)據(jù)庫(kù)不同失真類(lèi)型上的SROCC值Table 1SROCC results of different assessment metrics on NAMA3D database for separate degradation types

        為了比較本文提出的算法與其他7種經(jīng)典的質(zhì)量評(píng)價(jià)算法的復(fù)雜度,對(duì)NAMA3D數(shù)據(jù)庫(kù)中一個(gè)1 920 ×1 080的400幀的視頻序列進(jìn)行測(cè)試。7種經(jīng)典算法均由Matlab實(shí)現(xiàn),代碼均來(lái)自原作者,我們提出的方法也用Matlab實(shí)現(xiàn),沒(méi)有經(jīng)過(guò)任何優(yōu)化。實(shí)驗(yàn)在ALIENWARE筆記本(Intel(R)Core(TM)i7-4900 CPU @2.80GHz,32GRAM,Windows764-bit, MATLAB?R2012b)上進(jìn)行,其結(jié)果如圖4。顯而易見(jiàn),本文提出的算法復(fù)雜度較低,運(yùn)行時(shí)間僅是PSNR的5倍,和MS-SSIM相當(dāng),與其評(píng)價(jià)性能相當(dāng)?shù)腣IF的時(shí)間復(fù)雜度是本文提出方法的6倍。

        圖4 文中各方法的運(yùn)行時(shí)間比較(包括左右視點(diǎn))Fig.4Timing(both left and right)for all mentioned objective measures)

        3 結(jié)論

        本文通過(guò)結(jié)合時(shí)空域結(jié)構(gòu)信息,提出了一種簡(jiǎn)單高效的立體視頻質(zhì)量評(píng)價(jià)方法。首先通過(guò)時(shí)空域梯度同時(shí)檢測(cè)空域失真和時(shí)域失真,結(jié)合顏色信息計(jì)算時(shí)空域結(jié)構(gòu)相似度,然后通過(guò)空域融合分別得到立體視頻左右視點(diǎn)的幀級(jí)質(zhì)量,在左右視點(diǎn)質(zhì)量的融合過(guò)程中,通過(guò)計(jì)算左右視點(diǎn)單幀圖像的能量比率圖作為權(quán)重值,得到立體視頻單幀質(zhì)量值,考慮不對(duì)稱追蹤效應(yīng)進(jìn)行時(shí)域融合得到立體視頻的質(zhì)量。在公開(kāi)的視頻數(shù)據(jù)庫(kù)NAMA3D上的實(shí)驗(yàn)結(jié)果表明,本文提出的方法達(dá)到了較高的評(píng)價(jià)性能和較低的時(shí)間復(fù)雜度。

        [1]HAN Yi,YUAN Zhenhui,Gabriel-Miro Muntean.An innovative no-reference metric for real-time 3D stereoscopic video quality assessment[J].IEEE Transactions on Broadcasting(S0018-9316),2016,99:1-10.

        [2]YU Mei,ZHENG Kaihui,JIANG Gangyi,et al.Binocular perception based reduced-reference stereo video quality assessment method[J].Journal of Visual Communication and Image Representation(S1047-3203),2016,38:246-255.

        [3]XING Liyuan,YOU Junyong,Touradj Ebrahimi.A perceptual quality metric for stereoscopic crosstalk perception[C]//IEEE International Conference on Image Processing,Hong Kong,China,Sept 26-29,2010:4033-4036.

        [4]Mittal A,MoorthyA K,Ghosh J,et al.Algorithmic assessment of 3D quality of experience for images and videos[C]//Digital Signal Processing Workshop and IEEE Signal Processing Education Workshop,Sedona,USA,Jan 4-7,2011:338-343.

        [5]Sazzad Z M P,Yamanaka S,Kawayokeita Y,et al.Stereoscopic image quality prediction[C]//First International Workshop on Quality of Multimedia Experience QOMEX,San Diego,CA,July 29-31,2013:180-185.

        [6]MAO Xiangying,YU Mei,WANG Xu,et al.Stereoscopic image quality assessment model with three-component weighted structure similarity[C]//International Conference on Audio Language and Image Processing,Shanghai,China,Nov 23-25,2010:1175-1179.

        [7]WANG Xu,Sam Kwong,ZHANG Yun.Considering binocular spatial sensitivity in stereoscopic image quality assessment[C]// IEEE Visual Communications and Image Processing(VCIP),Tainan,China,Nov 6-9,2011:1-4.

        [8]JIN Lina,Atanas Boev,Atanas Gotchev,et al.3D-DCT based perceptual quality assessment of stereo video[C]//IEEE International Conference on Image Processing,Brussels,Belgium,Sept 11-14,2011:2521-2524.

        [9]WANG Jiheng,ZENG Kai,WANG Shiqi,et al.Quality prediction of asymmetrically distorted stereoscopic 3D images[J]. IEEE Transactions on Image Processing(S1057-7149),2015,24(2):3400-3414.

        [10]Masry M,Hemami S S,Sermadevi Y.A scalable wavelet-based video distortion metric and applications[J].IEEE Transactions on Circuits&Systems for Video Technology(S1051-8215),2006,16(2):260-273.

        [11]Urvoy M,Barkowsky M,Cousseau R,et al.NAMA3DS1-COSPAD1:Subjective video quality assessment database on coding conditions introducing freely available high quality 3D stereoscopic sequences[C]//IEEE on Fourth International Workshop Quality of Multimedia Experience(QoMEX),Yarra Valley,Australia,July 5-7,2012:109-114.

        [12]Hamid Rahim S,Alan Conrad B,Gustavo D V.An information fidelity criterion for image quality assessment using natural scene statistics[J].IEEE Transactions on Image Processing(S1057-7149),2005,14(12):2117-2128.

        [13]WANG Zhou,Alan Conrad B,Hamid Rahim S,et al.Image quality assessment:from error visibility to structural similarity[J]. IEEE Transactions on Image Processing(S1057-7149),2004,13(4):600-612.

        [14]Sheikh H R,Alan C Bovik.Image information and visual quality[J].IEEE Transactions on Image Processing(S1057-7149),2006,15(2):430-444.

        [15]WANG Zhou,Simoncelli E P,Alan C Bovik.Multiscale structural similarity for image quality assessment[C]//The Thirty-SeventhAsilomar Conference on Signals Systems and Computers,Asilomar,Nov 9-12,2003:1398-1402.

        [16]Pinson M H,Wolf S.A new standardized method for objectively measuring video quality[J].IEEE Transactions on Broadcasting(S0018-9316),2004,50(3):312-322.

        [17]Dumic E,Grgic S.Reduced video quality measure based on 3d steerable wavelet transform and modified structural similarity index[C]//Proceedings of the 55th International Symposium ELMAR,Zadar,Sept 25-27,2013:65-69.

        [18]Jiménez Bermejo D.High definition video quality assessment metric built upon full reference ratios[D].Madrid:Universidad Politecnica De Madrid,2012.

        Spatio-temporal Structural-based Stereoscopic Video Quality Metric

        CHE Huili1,YU Mei1,2,CHEN Fen1,PENG Zongju1
        (1.Faculty of Information Science and Engineering,Ningbo University,Ningbo315211,Zhejiang,China;2.National Key Lab of Software New Technology,Nanjing University,Nanjing210093,China)

        How to evaluate the stereoscopic video quality accurately and effectively plays an important role for the development of video communication system.We propose a stereoscopic video quality assessment method which focuses on the structure information extracted from adjacent frames of single view.Spatio-temporal structural information is sensitive to both spatial distortions and temporal distortions.For two views of stereoscopic video,we firstly calculate spatio-temporal structure based local quality according to spatio-temporal gradient characteristic and chrominance information,and these local quality scores are integrated to obtain frame level scores for single view.Then,we use energy ratio map of two views as weight values to fuse the two view scores into single frame score.Finally,all the frame level scores are combined via asymmetric tracking effect.Experiments on NAMA3DS1-COSPAD1 database demonstrate that the proposed method achieves highly competitive prediction accuracy and delivers very low computational complexity.

        stereoscopic video quality assessment;spatial-temporal information;quality fusion;temporal effects

        TP391

        A

        10.3969/j.issn.1003-501X.2016.11.013

        1003-501X(2016)11-0082-06

        2016-04-28;

        2016-06-08

        國(guó)家自然科學(xué)基金(61271270);浙江省自然科學(xué)基金(LY15F010005)

        車(chē)慧麗(1991-),女(漢族),山東菏澤人。碩士研究生,主要研究工作是3D視頻處理與質(zhì)量評(píng)價(jià)。E-mail:blesschehuili@126.com。

        郁梅(1968-),女(漢族),江蘇無(wú)錫人。教授,主要研究工作是多媒體信號(hào)處理與通信。E-mail:yumei2@126.com。

        猜你喜歡
        視點(diǎn)空域立體
        我國(guó)全空域防空體系精彩亮相珠海航展
        念個(gè)立體咒
        立體登陸
        炫酷立體卡
        基于貝葉斯估計(jì)的短時(shí)空域扇區(qū)交通流量預(yù)測(cè)
        淺談我國(guó)低空空域運(yùn)行管理現(xiàn)狀及發(fā)展
        基于能量空域調(diào)控的射頻加熱花生醬均勻性研究
        視點(diǎn)
        河南電力(2016年5期)2016-02-06 02:11:24
        讓你每天一元錢(qián),物超所值——《今日視點(diǎn)—2014精萃》序
        新聞前哨(2015年2期)2015-03-11 19:29:22
        兩會(huì)視點(diǎn)
        国产成人久久精品流白浆| 插我一区二区在线观看| 免费a级毛片无码a∨男男| 国产成人国产在线观看入口| 91热爆在线精品| 国产精品国产三级国产专区50| 久久久久亚洲av无码a片| 伊人久久久精品区aaa片| 日子2020一区二区免费视频| 日韩精品人妻少妇一区二区| 一本色道久久综合亚洲| 日本午夜精品一区二区三区电影 | 色与欲影视天天看综合网| 亚洲色欲综合一区二区三区| 无码毛片高潮一级一免费| 国产一区二区一级黄色片| 不卡的av网站在线观看| 人妻少妇久久中文字幕一区二区 | 欧美日韩国产成人高清视频| 99热成人精品国产免国语的| 偷拍一区二区三区黄片| 免费成人电影在线观看| 亚洲av无码第一区二区三区| 9丨精品国产高清自在线看| 熟女免费视频一区二区| 亚洲精品无码高潮喷水a片软| 亚洲av日韩精品久久久久久| 国产伪娘人妖在线观看 | 国产精品女同久久久久电影院| 免费观看黄网站| 91精品在线免费| 99精品国产综合久久麻豆| 女人张开腿让男桶喷水高潮| 五月综合高清综合网| 丰满熟女人妻一区二区三区| 人妻中文字幕在线网站| 人妻少妇av无码一区二区| 国产精品亚洲专区无码不卡| 粉嫩极品国产在线观看免费一区| 欧美黑人xxxx又粗又长| 国产精品亚洲午夜不卡|