亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖像內(nèi)容視覺感知的圖像質(zhì)量客觀評(píng)價(jià)方法?

        2018-06-14 06:31:34姚軍財(cái)劉貴忠
        物理學(xué)報(bào) 2018年10期
        關(guān)鍵詞:主客觀人眼特性

        姚軍財(cái) 劉貴忠

        1)(西安交通大學(xué)電子與信息工程學(xué)院,西安 710049)

        2)(陜西理工大學(xué)物理與電信工程學(xué)院,漢中 723000)

        1 引 言

        隨著光電、信息和通信技術(shù)的快速發(fā)展,圖像技術(shù)的應(yīng)用日益廣泛.但是,在圖像的獲取、存儲(chǔ)、傳輸和處理過程中均會(huì)發(fā)生不同程度的改變,導(dǎo)致圖像有一定的失真,直接影響了觀察者的主觀感知效果和服務(wù)質(zhì)量.因此,需要一種有效而又實(shí)用的度量失真圖像質(zhì)量的評(píng)價(jià)方法.有效可靠的圖像質(zhì)量客觀評(píng)價(jià)方法不僅能自動(dòng)評(píng)價(jià)其優(yōu)劣,而且還能對(duì)圖像進(jìn)行質(zhì)量監(jiān)控,指導(dǎo)參數(shù)設(shè)置和優(yōu)化模塊算法,指導(dǎo)和控制網(wǎng)絡(luò)傳輸?shù)?目前,雖然圖像質(zhì)量評(píng)價(jià)方面的研究工作取得了較多的成果,但還遠(yuǎn)遠(yuǎn)不能滿足實(shí)際應(yīng)用的要求和需要,主要是因?yàn)槠淇陀^質(zhì)量評(píng)價(jià)與主觀感知結(jié)果存在一定的差距.因此,研究盡可能逼近人眼主觀感知、有效且方便的圖像質(zhì)量客觀評(píng)價(jià)方法非常必要,具有重要的理論研究意義和實(shí)際應(yīng)用價(jià)值[1?3].

        近些年,國內(nèi)外的許多專家學(xué)者對(duì)圖像質(zhì)量客觀評(píng)價(jià)方法做了大量的研究工作,提出了較多的評(píng)價(jià)模型[3?12],其中代表性的有MSE(mean square error),PSNR(peak signal-to-noise ratio),SSIM(structural similarity index)[3],VSNR(visual signal-to-noise ratio)[4],FSIM(feature similarity index)[5],GMSD(gradient magnitude similarity deviation)[6]和VSI(visual saliency-induced index)[7].但分析其評(píng)價(jià)模型,仍存在些許的不足[5,12,13],其主要表現(xiàn)如下.

        1)模型只是計(jì)算圖像間的數(shù)值差異,完全沒有考慮人類感知因素,致使圖像主客觀評(píng)價(jià)結(jié)果差異較大.如PSNR和MSE等基于像素域的評(píng)價(jià)方法,但該方法計(jì)算簡單,以致目前仍是最為普遍的評(píng)價(jià)方法之一.

        2)考慮了部分人眼視覺特性,但主客觀評(píng)價(jià)結(jié)果仍存在一定程度的差異.國內(nèi)外在此方面做了大量的研究,得出了較多的成果[3?10],其中普遍認(rèn)同的是Wang等[3,4]提出的SSIM評(píng)價(jià)模型.該模型是利用人眼對(duì)圖像結(jié)構(gòu)信息的感知特性,從亮度、對(duì)比度和結(jié)構(gòu)三個(gè)方面構(gòu)建的評(píng)價(jià)模型.綜合考慮模型計(jì)算復(fù)雜度、評(píng)價(jià)精度和實(shí)時(shí)性等因素,其評(píng)價(jià)效果優(yōu)于SNR,PSNR,VSNR,FSIM,GMSD和VSI.但該模型主要是基于人眼對(duì)圖像中的結(jié)構(gòu)信息可以自適應(yīng)這一特征提出的,沒有考慮圖像中的視覺冗余[5],即人眼對(duì)圖像的失真存在一定的閾值,當(dāng)失真量低于閾值時(shí),人眼不能感知,則主觀評(píng)價(jià)分?jǐn)?shù)基本不變;但對(duì)于SSIM來說,只要有失真,其評(píng)價(jià)分?jǐn)?shù)便有變化,從而導(dǎo)致了主客觀評(píng)價(jià)的不一致性.

        3)沒有考慮圖像本身內(nèi)容的感知和復(fù)雜度的影響.目前的評(píng)價(jià)方法主要是針對(duì)壓縮和傳輸?shù)韧庠谝蛩赜绊懚M(jìn)行的評(píng)價(jià),如塊效應(yīng)、模糊和振鈴效應(yīng)等,很少考慮圖像內(nèi)容本身的感知,并且基本上沒有考慮圖像內(nèi)容復(fù)雜度的影響,致使主客觀評(píng)價(jià)結(jié)果存在一定程度上的不一致[10,13?15].目前,這方面的研究已成為熱點(diǎn).

        4)評(píng)價(jià)模型比較復(fù)雜.此問題是目前結(jié)合人眼視覺特性進(jìn)行圖像質(zhì)量評(píng)價(jià)研究中的一個(gè)難點(diǎn)問題,結(jié)合人眼視覺特性及其數(shù)學(xué)模型在很大程度上會(huì)增加評(píng)價(jià)模型的計(jì)算復(fù)雜度,如VSNR,FSIM和VSI等.一般評(píng)價(jià)方法是通過提取和分析圖像中引起失真的特征因素、根據(jù)視覺特性和權(quán)重構(gòu)建評(píng)價(jià)模型.此類方法評(píng)價(jià)效果雖然較為顯著,但其針對(duì)性較強(qiáng);且為了提高評(píng)價(jià)準(zhǔn)確度,需要提取更多的有效特征,使得計(jì)算更加復(fù)雜[4,5].

        基于以上的不足,本文結(jié)合圖像內(nèi)容的復(fù)雜性特征和人眼對(duì)亮度感知的非線性、掩蔽特性以及對(duì)比敏感度特性,提出了一種基于人眼對(duì)圖像內(nèi)容感知的質(zhì)量客觀評(píng)價(jià)方法,采用LIVE,TID2008和CSIQ三個(gè)數(shù)據(jù)庫中的共47幅參考圖像和1549幅測試圖像進(jìn)行仿真實(shí)驗(yàn),并與PSNR,SSIM和VSNR等典型的圖像質(zhì)量客觀評(píng)價(jià)模型進(jìn)行了對(duì)比分析.結(jié)果表明:在圖像質(zhì)量客觀評(píng)價(jià)中,考慮人眼對(duì)圖像內(nèi)容和復(fù)雜度的感知有助于提高圖像質(zhì)量主客觀評(píng)價(jià)的一致性,評(píng)價(jià)精度可得到進(jìn)一步的提高.

        2 視覺模型及其在圖像質(zhì)量評(píng)價(jià)中的應(yīng)用

        2.1 對(duì)比敏感度視覺模型

        用戶體驗(yàn)是圖像質(zhì)量客觀評(píng)價(jià)的四大關(guān)鍵因素之一.目前的評(píng)價(jià)方法最主要不足之處是沒有較好地結(jié)合人眼視覺特性,導(dǎo)致主客觀評(píng)價(jià)的不一致[3?7].人眼對(duì)比敏感特性是4個(gè)重要的空間視覺特性之一,國內(nèi)外專家學(xué)者對(duì)其進(jìn)行了大量的研究,提出了較多的數(shù)學(xué)模型,其模型一般稱之為人眼對(duì)比敏感度函數(shù)(contrast sensitivity function,CSF),該函數(shù)主要描述人眼對(duì)比敏感度值(一般采用人眼對(duì)比覺察閾值的倒數(shù)來定量描述)與角頻率(fθ)之間的函數(shù)關(guān)系[16?18].綜合考慮圖像質(zhì)量評(píng)價(jià)算法的復(fù)雜性、CSF模型反映感知特性的效果等方面,分析前人的視覺模型.本文選用由Stephen等[16]提出的人眼亮度對(duì)比敏感度函數(shù)(CSFL),以及由Nadenau[17]提出的人眼紅綠(rg)和藍(lán)黃(by)對(duì)立色對(duì)比敏感度函數(shù)(CSFrg和CSFby),其表達(dá)如(1)—(3)式:

        1)人眼亮度對(duì)比敏感度函數(shù)

        式中,

        其中CL表示人眼覺察亮度目標(biāo)光柵的對(duì)比敏感度閾值;L表示光柵的平均亮度;fθ為人眼觀察光柵時(shí)的角頻率,單位為cpd(cycle per degree);w表示覺察時(shí)空間視角對(duì)應(yīng)的刺激瞳孔的大小[16].

        2)人眼紅綠和藍(lán)黃對(duì)立色對(duì)比敏感度函數(shù)

        式中Crg和Cby分別是定量描述人眼對(duì)紅綠和藍(lán)黃對(duì)立色光柵的彩色對(duì)比敏感度閾值[17,18].

        2.2 視覺模型在圖像評(píng)價(jià)中的應(yīng)用

        在結(jié)合人眼視覺特性的圖像質(zhì)量評(píng)價(jià)中,最為關(guān)鍵的一點(diǎn)是構(gòu)建視覺模型與圖像數(shù)據(jù)之間的關(guān)系[12,16],而兩者之間的聯(lián)系即為頻率.在圖像技術(shù)中,圖像經(jīng)變換后得到頻譜圖,其頻率稱之為空間頻率.而在CSF模型中的頻率是角頻率,其定義為單位視角內(nèi)刺激人眼的光柵條紋的周期數(shù)目,表達(dá)式為[18]

        式中N為視角范圍內(nèi)目標(biāo)光柵條紋的周期數(shù)目,θ為觀察視角.則要將視覺模型CSF應(yīng)用到圖像數(shù)據(jù)中,需要構(gòu)建兩頻率之間的關(guān)系.具體的計(jì)算方法如下.

        圖像經(jīng)離散余弦變換(DCT)后得到的頻譜圖上任意一點(diǎn)的頻譜坐標(biāo)(fx,fy)即為該點(diǎn)的空間頻率,且其任意一點(diǎn)經(jīng)逆變換后得到空域圖.通過實(shí)驗(yàn)發(fā)現(xiàn):任意一點(diǎn)對(duì)應(yīng)的空域圖均是豎直或水平或兩者共存的條紋光柵,且光柵與原頻譜圖大小相同,光柵的周期數(shù)目為.則可以把圖像看成是由若干個(gè)光柵合并而成;而人眼是最好的頻譜濾波器,則人眼觀察頻譜圖像上的點(diǎn)時(shí),可以等效為觀看其點(diǎn)對(duì)應(yīng)的光柵.基于此特點(diǎn),當(dāng)人眼觀察圖像時(shí),人眼即是覺察周期數(shù)目為的光柵,觀察視角為圖像大小范圍所對(duì)應(yīng)的視角;結(jié)合(4)式,則人眼觀察圖像時(shí),圖像上任意一點(diǎn)的角頻率計(jì)算如(5)式,則其較好地將兩頻率聯(lián)系起來.

        根據(jù)以上關(guān)系,當(dāng)人眼觀察圖像時(shí),圖像中任意一點(diǎn)的角頻率都可通過(5)式計(jì)算獲得;再代入到CSF視覺模型(1),(2)和(3)式中,則可以計(jì)算獲得人眼覺察圖像中任意一像素點(diǎn)的對(duì)比敏感度閾值,包括亮度和色度的閾值.從而將CSF用在圖像評(píng)價(jià)中.

        3 圖像質(zhì)量客觀評(píng)價(jià)模型構(gòu)建方法

        人眼接收到的圖像信息主要是對(duì)圖像的亮度和色度信息的感知,則可以把人眼感知到的圖像的亮度和色度作為人眼感知圖像的初步信息.而人眼感知圖像每一點(diǎn)的亮度和色度信息受到兩個(gè)方面的影響:一是該點(diǎn)小范圍內(nèi)其他各點(diǎn)引起的亮度和色度對(duì)比對(duì)其的影響,即局部對(duì)比度的影響;二是人眼對(duì)目標(biāo)本身的敏感程度的影響.考慮二者的影響,以人眼的敏感程度和局部平均對(duì)比度作為感知初步信息的權(quán)重來求和,其信息之和作為人眼感知圖像的信息內(nèi)容(即感知圖像),以此思想構(gòu)建圖像內(nèi)容感知模型.并以此模型求源圖像和失真圖像之間的強(qiáng)度差,以該差作為圖像質(zhì)量客觀評(píng)價(jià)的分?jǐn)?shù),從而構(gòu)建圖像質(zhì)量客觀評(píng)價(jià)模型,模型構(gòu)建思路流程如圖1.

        圖1 提出的圖像質(zhì)量客觀評(píng)價(jià)方法流程圖Fig.1.The architecture for proposed objective evaluation method of image quality.

        1)圖像信息強(qiáng)度感知

        圖像是由亮度和色度混合而成,但無論是亮度,還是色度,對(duì)外的表現(xiàn)均是其能量強(qiáng)度的呈現(xiàn),人眼對(duì)其的感知亦是對(duì)其強(qiáng)度的感知.在目前的圖像質(zhì)量評(píng)價(jià)方法中,表現(xiàn)圖像差異的方法主要是用強(qiáng)度差來描述.但人眼對(duì)能量強(qiáng)度的感知是按對(duì)數(shù)形式變化,從而導(dǎo)致主客觀評(píng)價(jià)的不一致.基于此,采用人眼對(duì)光強(qiáng)度的感知模型((6)式),分別計(jì)算人眼對(duì)圖像的亮度、色度的強(qiáng)度感知值S,以此作為人眼感知圖像亮度和色度的信息.

        式中I為彩色圖像的亮度(L)、紅綠(rg)和藍(lán)黃(by)三個(gè)分量圖中各點(diǎn)的能量強(qiáng)度值,K為常數(shù).

        具體操作為:將圖像從RGB色空間轉(zhuǎn)換到Y(jié)CbCr色空間描述,進(jìn)行亮度和色度分離,得到亮度、紅綠和藍(lán)黃三個(gè)分量圖;并分別對(duì)其進(jìn)行8 pixels×8 pixels大小子塊劃分.利用(6)式,分別計(jì)算三個(gè)分量圖中所有子塊的每一點(diǎn)的亮度對(duì)應(yīng)的主觀感知強(qiáng)度值S,分別記為SL,Srg和Sby.

        2)人眼對(duì)圖像信息強(qiáng)度的敏感

        同一目標(biāo)在不同的空間位置或具有不同的強(qiáng)度,給人眼的感知敏感程度是不同的.研究表明,在觀察圖像時(shí),最為引起人眼注意的范圍是58個(gè)像素點(diǎn)的區(qū)域[16,17].則在圖像技術(shù)中,為了方便處理,一般將關(guān)注的范圍定為8 pixels×8 pixels大小子塊.結(jié)合此特性和人眼對(duì)比敏感度特性,計(jì)算圖像每一子塊中每一像素點(diǎn)的敏感程度.具體操作如下.

        ①對(duì)所有子塊進(jìn)行離散余弦變換,并將每個(gè)子塊頻譜圖的頻譜進(jìn)行平移,使其零頻移至頻譜中心.計(jì)算每個(gè)子塊頻譜圖中每一點(diǎn)的空間頻率.根據(jù)前面的說明,則f為反離散余弦變換空域圖上呈現(xiàn)光柵的條紋的周期數(shù)目,即(4)式中的N.

        ②以8 pixels×8 pixels大小子塊為每次人眼關(guān)注的目標(biāo),計(jì)算其空間視角θ;根據(jù)?1中得出的N值,將N和θ代入(5)式,計(jì)算所有子塊中每一點(diǎn)的角頻率fθ.

        ③將角頻率fθ代入到人眼對(duì)比敏感度視覺模型(即(1),(2)和(3)式)中,分別計(jì)算出人眼對(duì)圖像中每一點(diǎn)的敏感程度值CL,Crg和Cby.

        ④4分別對(duì)SL,Srg和Sby進(jìn)行DCT變換,以CL,Crg和Cby為權(quán)重因子,對(duì)其變換域值加權(quán),再對(duì)其做反離散余弦變換(IDCT),并將所有子塊(數(shù)目為M)合成(CATblock),并排序恢復(fù)整幅圖像(Trefresh),其結(jié)果為人眼主觀感知圖像亮度和色度的值;并依據(jù)YCbCr和RGB之間的經(jīng)典轉(zhuǎn)換(TYCC-RGB)關(guān)系式轉(zhuǎn)換到RGB色空間中,得到人眼主觀感知圖像的R,G,B分量圖,記為Rsubject,Gsubject,Bsubject,如(7)式:

        3)局部環(huán)境對(duì)感知圖像信息強(qiáng)度的影響

        當(dāng)人眼觀看圖像時(shí),人眼感知圖像中的每一點(diǎn)都受到該點(diǎn)周圍多個(gè)像素點(diǎn)的影響.則為了考慮此影響,對(duì)RGB圖像分別以R,G,B三分量圖中每一點(diǎn)自身為中心,計(jì)算該點(diǎn)與周圍最鄰近的8個(gè)點(diǎn)之間的對(duì)比度值,并求其平均值Cmean.以此值作為感知該點(diǎn)受到局部周圍環(huán)境的影響因子.

        4)圖像內(nèi)容感知模型

        以Cmean為權(quán)重因子,分別與主觀感知的Rsubject,Gsubject,Bsubject三分量圖中對(duì)應(yīng)的各點(diǎn)幅值求積.依據(jù)RGB色空間顏色混合法則,將求積后的R,G,B值按比例關(guān)系混合(CATRGB)得到RGB彩色圖像,其即為人眼主觀感知的圖像(表述為感知圖像),記為RGBsubject.計(jì)算如(8)式,其即為人眼感知圖像內(nèi)容模型.

        式中Cm_R,Cm_G和Cm_B為Cmean對(duì)應(yīng)于R,G,B分量圖中的局部對(duì)比度平均值.

        5)圖像質(zhì)量客觀評(píng)價(jià)模型

        按照以上的圖像內(nèi)容感知模型,分別處理,計(jì)算獲得原始圖像的感知圖像RGBsubject-original和失真圖像的感知圖像RGBsubject-distortion,并按對(duì)應(yīng)像素點(diǎn)計(jì)算其平均強(qiáng)度差.基于峰值信噪比(PSNR)的定義式,用平均強(qiáng)度差代替PSNR中的均方誤差(MSE)值計(jì)算,計(jì)算結(jié)果則可作為圖像質(zhì)量客觀評(píng)價(jià)分?jǐn)?shù).其分?jǐn)?shù)值越大,表明圖像質(zhì)量越好,反之則越差.計(jì)算如(9)式,其即為基于人眼對(duì)圖像內(nèi)容感知的圖像質(zhì)量客觀評(píng)價(jià)模型,記為LCCM(image quality evaluation model based on luminance,contrast influence and contrast perception).

        4 實(shí)驗(yàn)結(jié)果與討論

        4.1 實(shí)驗(yàn)結(jié)果

        依據(jù)上述的圖像質(zhì)量客觀評(píng)價(jià)方法,采用LIVE[19,20],TID2008[21,22]和CSIQ[23,24]三個(gè)數(shù)據(jù)庫中的共47幅參考圖像(如圖2,圖3和圖4)和1549幅測試(失真)圖像進(jìn)行仿真實(shí)驗(yàn),對(duì)其進(jìn)行評(píng)價(jià),獲得圖像質(zhì)量客觀評(píng)價(jià)分?jǐn)?shù)LCCM值.其中,測試圖像來源于對(duì)參考圖像進(jìn)行不同失真類型、失真程度的處理而獲得,3個(gè)圖像數(shù)據(jù)庫來源及參數(shù)說明如表1.

        為了說明圖像質(zhì)量客觀評(píng)價(jià)結(jié)果的準(zhǔn)確性,一般將其與主觀評(píng)價(jià)分?jǐn)?shù)MOS(mean opinion score)或DMOS(difference mean opinion score)值做相關(guān)性分析.相關(guān)性分析一般包括:1)做質(zhì)量主客觀評(píng)價(jià)分?jǐn)?shù)的散點(diǎn)圖,2)計(jì)算相關(guān)性參數(shù).其中,散點(diǎn)圖主要是從直觀上反映主客觀評(píng)價(jià)結(jié)果的一致性程度;一般散點(diǎn)圖的縱坐標(biāo)是質(zhì)量主觀評(píng)價(jià)分?jǐn)?shù)MOS或DMOS值,橫坐標(biāo)是采用模型評(píng)價(jià)得出的客觀評(píng)價(jià)分?jǐn)?shù);為了更好地說明主客觀評(píng)價(jià)分?jǐn)?shù)的一致性,采用最小二乘法對(duì)主客觀評(píng)價(jià)分?jǐn)?shù)進(jìn)行擬合,得出擬合曲線;則當(dāng)散點(diǎn)圖中的散點(diǎn)越靠近擬合曲線(即離散程度越低),曲線的單調(diào)性越好,表明主客觀評(píng)價(jià)分?jǐn)?shù)的相關(guān)性越好,一致性越高,則其評(píng)價(jià)模型就越好,反之則越差.相關(guān)性參數(shù)主要是從量化上反映主客觀評(píng)價(jià)結(jié)果的一致性程度;相關(guān)性參數(shù)主要有:Pearson線性相關(guān)系數(shù)(Pearson linear correlation coefficient,LCC),Spearman秩相關(guān)系數(shù)(Spearman rank order correlation coefficient,SROCC),均方根誤差(root mean square error,RMSE)和散點(diǎn)圖的離出率(outlier ratio,OR)[25,26].其中LCC和SROCC值越接近于1,表明相關(guān)性越好,評(píng)價(jià)模型越好,反之則越差;RMSE和OR越小,表明主客觀評(píng)價(jià)結(jié)果偏差越小,評(píng)價(jià)結(jié)果越好,反之則越差.此4個(gè)參數(shù)值能夠較好地從數(shù)值上衡量主客觀評(píng)價(jià)結(jié)果的一致性程度.

        表1 3個(gè)圖像數(shù)據(jù)庫及參數(shù)說明Table 1.Three image databases and the parameters description.

        圖2 LIVE數(shù)據(jù)庫中提供的12幅參考圖像Fig.2.Twelve reference images proposed by LIVE database.

        圖3 TID2008數(shù)據(jù)庫中提供的5幅參考圖像Fig.3.Five reference images provided by TID2008 database.

        圖4 CSIQ數(shù)據(jù)庫中提供的30參考圖像Fig.4.Thirty reference images proposed by CSIQ database.

        為了說明提出的LCCM圖像質(zhì)量客觀評(píng)價(jià)模型的優(yōu)劣,將其評(píng)價(jià)1549幅圖像的結(jié)果與LIVE,TID2008和CSIQ三個(gè)數(shù)據(jù)庫中提供的主觀評(píng)價(jià)分?jǐn)?shù)MOS或DMOS值做相關(guān)性分析,且與SSIM,VSNR,PSNRHVS和FSIM模型的評(píng)價(jià)結(jié)果進(jìn)行對(duì)比,結(jié)果如圖5,計(jì)算的4個(gè)參數(shù)值如表2.

        圖5 LCCM,SSIM,VSNR和PSNRHVS模型評(píng)價(jià)的結(jié)果與3個(gè)數(shù)據(jù)庫中提供的主觀評(píng)價(jià)分?jǐn)?shù)MOS或DMOS值之間的散點(diǎn)圖 (a)LIVE-LCCM;(b)LIVE-SSIM;(c)CSIQ-LCCM;(d)CSIQ-SSIM;(e)TID2008-LCCM;(f)TID2008-VSNR;(g)TID2008-SSIM;(h)TID2008-PSNRHVSFig.5.Scatter plots of LCCM,VSNR,SSIM and PSNRHVS versus MOS or DMOS provided by the LIVE,CSIQ and TID2008 databases:(a)LIVE-LCCM;(b)LIVE-SSIM;(c)CSIQ-LCCM;(d)CSIQ-SSIM;(e)TID2008-LCCM;(f)TID2008-VSNR;(g)TID2008-SSIM;(h)TID2008-PSNRHVS.

        表2 衡量圖像主客觀評(píng)價(jià)一致性的4個(gè)參數(shù)值Table 2.Four parameters to measure the consistency between subjective and objective evaluations of images.

        圖5中的橫坐標(biāo)為采用LCCM,SSIM,VSNR和PSNRHVS模型評(píng)價(jià)的質(zhì)量分?jǐn)?shù),縱坐標(biāo)為主觀評(píng)價(jià)分?jǐn)?shù).從圖5中可以直觀地發(fā)現(xiàn),相對(duì)于SSIM,VSNR和PSNRHVS的評(píng)價(jià)分?jǐn)?shù),LCCM評(píng)價(jià)結(jié)果的離散程度明顯偏小,曲線的單調(diào)性好于其他三種方法的結(jié)果.從相關(guān)性量化數(shù)值上,表2中的結(jié)果表明,LCCM模型的評(píng)價(jià)分?jǐn)?shù)與DMOS或MOS的相關(guān)性系數(shù)LCC和SROCC值比SSIM的均得到了一定程度的提高,提高幅度分別平均為9.5402%和3.2852%;比VSNR和PSNRHVS提高幅度更大.

        4.2 討 論

        為了探討圖像內(nèi)容復(fù)雜性和失真類型對(duì)圖像質(zhì)量評(píng)價(jià)準(zhǔn)確度的影響,以及結(jié)合人眼感知特性提高評(píng)價(jià)精度的途徑,從兩個(gè)方面將LCCM模型評(píng)價(jià)結(jié)果與3個(gè)數(shù)據(jù)庫中提供的主觀評(píng)價(jià)結(jié)果進(jìn)行相關(guān)性分析.

        4.2.1 圖像內(nèi)容復(fù)雜性對(duì)質(zhì)量評(píng)價(jià)的影響

        分析每一幅源圖像在不同的失真下的LCCM評(píng)價(jià)結(jié)果與主觀評(píng)價(jià)結(jié)果的相關(guān)性,并與SSIM評(píng)價(jià)結(jié)果進(jìn)行對(duì)比分析,探討圖像內(nèi)容的復(fù)雜性對(duì)質(zhì)量客觀評(píng)價(jià)準(zhǔn)確度的影響.結(jié)果如圖6—圖10.其中,圖6是TID2008數(shù)據(jù)庫中5幅源圖像(TID-01—TID-05)經(jīng)過17種類型、不同程度失真后,采用LCCM和SSIM模型對(duì)其評(píng)價(jià)的結(jié)果與MOS值之間的散點(diǎn)圖;圖7是LIVE數(shù)據(jù)庫中12幅源圖像(buildings,fountain,dancers,church,womanhat,sailing1,bikes,carnivaldools,building2,cemetery,lighthouse,caps)經(jīng)過5種類型、不同程度失真后,采用LCCM和SSIM模型對(duì)每幅源圖像失真后的系列圖像的評(píng)價(jià)結(jié)果與DMOS值之間的散點(diǎn)圖;圖8和圖9是CSIQ數(shù)據(jù)庫中30幅源圖像(Image01—Image30)經(jīng)過6種類型、不同程度失真后,分別采用LCCM和SSIM模型對(duì)其評(píng)價(jià)的結(jié)果與DMOS值之間的散點(diǎn)圖;圖10是3個(gè)數(shù)據(jù)庫中每幅源圖像經(jīng)過不同失真后,采用LCCM和SSIM模型對(duì)其評(píng)價(jià)的質(zhì)量分?jǐn)?shù)與主觀評(píng)價(jià)分?jǐn)?shù)之間的相關(guān)性參數(shù)的對(duì)比.

        圖6 TID2008數(shù)據(jù)庫中5幅源圖像每幅經(jīng)過17種類型的失真后采用LCCM和SSIM模型對(duì)其評(píng)價(jià)的結(jié)果與MOS值之間的散點(diǎn)圖 (a)—(e)TID-I01-LCCM—TID-I05-LCCM;(f)—(j)TID-I01-SSIM—TID-I05-SSIMFig.6.Scatter plots between MOS and the objective evaluation scores obtained by using the LCCM and SSIM models to evaluate the tested images from any of five reference images in TID2008 database being distorted with 17 types:(a)–(e)TIDI01-LCCM–TID-I05-LCCM;(f)–(j)TID-I01-SSIM–TID-I05-SSIM.

        圖6—圖9中的橫坐標(biāo)為針對(duì)三個(gè)數(shù)據(jù)庫中的失真視頻、采用LCCM或SSIM模型評(píng)價(jià)的質(zhì)量分?jǐn)?shù),縱坐標(biāo)為其視頻主觀評(píng)價(jià)分?jǐn)?shù).通過對(duì)比各散點(diǎn)圖的離散程度和擬合曲線的單調(diào)性,可以直觀地分析主客觀評(píng)價(jià)分?jǐn)?shù)的一致性(即相關(guān)性),從而判斷評(píng)價(jià)模型的優(yōu)劣.結(jié)合3個(gè)數(shù)據(jù)庫中源圖像的內(nèi)容特征,對(duì)比分析圖6—圖9上的散點(diǎn)分布和圖10中的相關(guān)性計(jì)算結(jié)果可以發(fā)現(xiàn):1)當(dāng)源圖像本身比較模糊時(shí),如LIVE庫中的圖I03和CSIQ庫中的圖I05,I10,I24,LCCM評(píng)價(jià)結(jié)果與主觀評(píng)價(jià)結(jié)果的相關(guān)性明顯高于SSIM評(píng)價(jià)結(jié)果的相關(guān)性;2)當(dāng)源圖像的紋理不復(fù)雜、圖像內(nèi)容場景較少、大面積單色調(diào)或相近色或平坦區(qū)域時(shí),如LIVE庫中的圖I05,I06,I08,I11,I12,CSIQ庫中的圖I06,I11,I14,I26,以及TID2008庫中的I01,I02,I03,LCCM評(píng)價(jià)精度在一定程度上高于SSIM的評(píng)價(jià)結(jié)果;而當(dāng)紋理復(fù)雜、場景較多、顏色豐富的圖像,LCCM評(píng)價(jià)效果相近或差于SSIM.

        圖7 LIVE數(shù)據(jù)庫中12幅源圖像每幅經(jīng)過5種類型的失真后采用LCCM和SSIM模型對(duì)其評(píng)價(jià)的結(jié)果與DMOS值之間的散點(diǎn)圖(a)buildings-LCCM;(b)fountain-LCCM;(c)dancers-LCCM;(d)church-LCCM;(e)woman hat-LCCM;(f)sailing1-LCCM;(g)bikes-LCCM;(h)carnival dolls-LCCM;(i)buildings2-LCCM;(j)cemetry-LCCM;(k)lighthouse-LCCM;(l)caps-LCCM;(m)buildings-SSIM;(n)fountain-SSIM;(o)dancers-SSIM;(p)church-SSIM;(q)womanhat-SSIM;(r)sailing1-SSIM;(s)bikes-SSIM;(t)carnival dolls-SSIM;(u)buildings2-SSIM;(v)cemetry-SSIM;(w)lighthouse-SSIM;(x)caps-SSIMFig.7.Scatter plots between DMOSand the objective evaluationscoresobtainedbyusing the LCCMand SSIMmodelstoevaluatethe testedimagesfromany of12reference imagesinLIVE databasebeing distorted with5 types:(a)buildings-LCCM;(b)fountain-LCCM;(c)dancers-LCCM;(d)church-LCCM;(e)womanhat-LCCM;(f)sailing1-LCCM;(g)bikes-LCCM;(h)carnivaldolls-LCCM;(i)buildings2-LCCM;(j)cemetry-LCCM;(k)lighthouse-LCCM;(l)caps-LCCM;(m)buildings-SSIM;(n)fountain-SSIM;(o)dancers-SSIM;(p)church-SSIM;(q)woman hat-SSIM;(r)sailing1-SSIM;(s)bikes-SSIM;(t)carnival dolls-SSIM;(u)buildings2-SSIM;(v)cemetry-SSIM;(w)lighthouse-SSIM;(x)caps-SSIM.

        圖8 CSIQ數(shù)據(jù)庫中30幅源圖像每幅經(jīng)過6種類型的失真后采用LCCM模型對(duì)其評(píng)價(jià)的結(jié)果與DMOS值之間的散點(diǎn)圖(a)—(ad)Image01—Image30Fig.8.Scatter plots between DMOS and the objective evaluation scores obtained by using the LCCM model stoevaluate the tested images from any of30reference imagesinCSIQ database being distorted with6 types:(a)–(ad)Image01–Image30.

        圖9 CSIQ數(shù)據(jù)庫中30幅源圖像每幅經(jīng)過6種類型的失真后采用SSIM模型對(duì)其評(píng)價(jià)的結(jié)果與DMOS值之間的散點(diǎn)圖(a)—(ad)Image01—Image30Fig.9.Scatter plots between DMOS and the objective evaluation scores obtained by using the SSIM models to evaluate the tested images from any of 30 eference images in CSIQ database being distorted with 6 types:(a)—(ad)Image01—Image30.

        圖10 3個(gè)數(shù)據(jù)庫中每幅源圖像經(jīng)過不同失真后采用LCCM和SSIM模型評(píng)價(jià)的質(zhì)量分?jǐn)?shù)與主觀評(píng)價(jià)分?jǐn)?shù)之間相關(guān)性的對(duì)比 (a)LIVE;(b)TID2008;(c)CSIQFig.10.Comparing correlation between the subjective scores and the objective results from evaluating all distorted images of each reference image in there databases with LCCM and SSIM respectively:(a)LIVE;(b)TID2008;(c)CSIQ.

        分析其原因主要是對(duì)于本身模糊、紋理不復(fù)雜、場景較少、大面積平坦區(qū)域等特征的源圖像,存在更多的視覺冗余,人眼感知其失真的閾值更大;而在圖像質(zhì)量評(píng)價(jià)時(shí),只有當(dāng)圖像失真量超過閾值時(shí),人眼才能感知,但對(duì)于SSIM等模型的評(píng)價(jià),只要有失真,其評(píng)價(jià)結(jié)果便會(huì)發(fā)生變化;更大的失真感知閾值增加了SSIM等客觀評(píng)價(jià)模型的主客觀評(píng)價(jià)的不一致,導(dǎo)致其模型的評(píng)價(jià)誤差更大.這需要采用結(jié)合更多視覺特性的評(píng)價(jià)模型來評(píng)價(jià).而LCCM模型考慮了人眼感知亮度的非線性、掩蔽特性和對(duì)比度敏感特性,相對(duì)來說,其結(jié)合了更多的人眼視覺特性,所以對(duì)于此類圖像的評(píng)價(jià)效果要優(yōu)于SSIM,PSNRHVS和MSE等模型.具體的原因分析如下.

        1)掩蔽特性.當(dāng)以上此類源圖像失真時(shí),因?yàn)檠诒翁匦允沟萌搜鄹兄涫д娴拈撝底兇?原本能夠感知的圖像失真,因?yàn)楦兄д骈撝档脑黾佣F(xiàn)在不能被感知;人眼容忍圖像失真的程度增加,則使得更大范圍內(nèi)的失真圖像的主觀評(píng)價(jià)分?jǐn)?shù)基本不發(fā)生變化(圖像的失真不超過感知失真閾值);但對(duì)于SSIM等模型,只要有失真,其評(píng)價(jià)結(jié)果就要發(fā)生變化;而且由于感知失真閾值的增加,主觀分?jǐn)?shù)基本不變的失真圖像的客觀評(píng)價(jià)分?jǐn)?shù)變化更大,所以,人眼掩蔽特性是導(dǎo)致主客觀評(píng)價(jià)不一致的原因之一.而LCCM模型結(jié)合了人眼對(duì)比敏感度特性,當(dāng)失真量沒有超過感知失真閾值時(shí),人眼敏感值非常小或者為零,感知圖像上幾乎沒有差異,從而LCCM模型能夠很好地減少因人眼掩蔽特性和圖像視覺冗余帶來的質(zhì)量評(píng)價(jià)結(jié)果的誤差,提高了其評(píng)價(jià)精度.

        2)人眼感知亮度的非線性.人眼對(duì)亮度(或能量強(qiáng)度)的感知是非線性的,呈對(duì)數(shù)變化趨勢,即人眼感知到的失真量比實(shí)際的失真量要小.但對(duì)于SSIM等模型是按照實(shí)際的失真量來評(píng)價(jià)圖像間的差異,所以其也是導(dǎo)致主客觀評(píng)價(jià)不一致的原因之一.而LCCM模型在構(gòu)建時(shí),將圖像的亮度和色度的強(qiáng)度均按照人眼感知強(qiáng)度模型((6)式)進(jìn)行了轉(zhuǎn)換,從而使其評(píng)價(jià)分?jǐn)?shù)能夠有效地避免此視覺特性帶來的誤差.

        3)人眼對(duì)比敏感度特性.人眼對(duì)目標(biāo)的敏感程度主要受到周圍環(huán)境和空間頻率的影響,即相同的目標(biāo)在不同的環(huán)境中、不同的空間位置,其人眼感知是不同的.則基于此特性,當(dāng)圖像有相同的失真量時(shí),不同的圖像,人眼感知的結(jié)果是不同的,但對(duì)于SSIM等模型,相同的失真量其評(píng)價(jià)結(jié)果即相同,從而導(dǎo)致了主客觀評(píng)價(jià)的不一致.所以,人眼敏感特性也是導(dǎo)致主客觀評(píng)價(jià)不一致的原因之一.而在LCCM模型的構(gòu)建中,是以對(duì)比敏感度特性值作為感知亮度的權(quán)重因子,所以能夠較好地克服評(píng)價(jià)過程中其帶來的誤差,提高了評(píng)價(jià)結(jié)果的精度.

        4.2.2 失真類型對(duì)質(zhì)量評(píng)價(jià)的影響

        分析每一種類型、不同程度的失真下所有圖像的LCCM評(píng)價(jià)結(jié)果與主觀評(píng)價(jià)結(jié)果的相關(guān)性,并與SSIM進(jìn)行對(duì)比分析,探討圖像的失真方式對(duì)質(zhì)量客觀評(píng)價(jià)準(zhǔn)確度的影響.結(jié)果如圖11—圖14.其中,圖11—圖13中的橫坐標(biāo)為采用LCCM或SSIM模型評(píng)價(jià)三個(gè)數(shù)據(jù)庫中所有類型、不同失真程度的視頻的質(zhì)量分?jǐn)?shù),縱坐標(biāo)為其相應(yīng)視頻質(zhì)量主觀評(píng)價(jià)分?jǐn)?shù).圖中每一個(gè)子圖代表一種失真類型的評(píng)價(jià)結(jié)果,子圖中的曲線為采用最小二乘法擬合的結(jié)果.

        圖11 TID2008數(shù)據(jù)庫中17種失真類型的圖像分別采用LCCM 和SSIM模型評(píng)價(jià)的分?jǐn)?shù)與MOS之間的散點(diǎn)圖 (a)AGNLCCM;(b)AN-LCCM;(c)SCN-LCCM;(d)MN-LCCM;(e)HFN-LCCM;(f)IN-LCCM;(g)QN-LCCM;(h)GB-LCCM;(i)ID-LCCM;(j)JC-LCCM;(k)J2K-LCCM;(l)JT-LCCM;(m)J2KT-SSIM;(n)NEPN-SSIM;(o)LBWI-SSIM;(p)MISSSIM;(q)CC-SSIM;(r)AGN-SSIM;(s)AN-SSIM;(t)SCN-SSIM;(u)MN-SSIM;(v)HFN-SSIM;(w)IN-SSIM;(x)QNSSIM;(y)GB-SSIM;(z)ID-SSIM;(aa)JC-SSIM;(ab)J2K-SSIM;(ac)JT-SSIM;(ad)J2 KT-SSIM;(ae)NEPN-SSIM;(af)LBWI-SSIM;(ag)MIS-SSIM;(ah)CC-SSIMFig.11.Scatter plots between the MOS and the objective evaluation scores obtained by evaluating the images with 17 distortions using the LCCM and SSIM models in TID2008 database:(a)AGN-LCCM;(b)AN-LCCM;(c)SCN-LCCM;(d)MN-LCCM;(e)HFN-LCCM;(f)IN-LCCM;(g)QN-LCCM;(h)GB-LCCM;(i)ID-LCCM;(j)JC-LCCM;(k)J2KLCCM;(l)JT-LCCM;(m)J2KT-SSIM;(n)NEPN-SSIM;(o)LBWI-SSIM;(p)MIS-SSIM;(q)CC-SSIM;(r)AGN-SSIM;(s)AN-SSIM;(t)SCN-SSIM;(u)MN-SSIM;(v)HFN-SSIM;(w)IN-SSIM;(x)QN-SSIM;(y)GB-SSIM;(z)ID-SSIM;(aa)JC-SSIM;(ab)J2K-SSIM;(ac)JT-SSIM;(ad)J2KT-SSIM;(ae)NEPN-SSIM;(af)LBWI-SSIM;(ag)MIS-SSIM;(ah)CC-SSIM.

        圖12 LIVE數(shù)據(jù)庫中5種失真類型的圖像分別采用LCCM和SSIM模型評(píng)價(jià)的分?jǐn)?shù)與DMOS之間的散點(diǎn)圖 (a)jpeg2k-LCCM;(b)fastfading-LCCM;(c)Gaussianblur-LCCM;(d)jpeg-LCCM;(e)whitenoise-LCCM;(f)jpeg2k-SSIM;(g)fastfading-SSIM;(h)Gaussianblur-SSIM;(i)jpeg-SSIM;(j)whitenoise-SSIMFig.12.Scatter plots between the DMOS and the objective evaluation scores obtained by evaluating images with 5 distortions using the LCCM and SSIM models in LIVE database:(a)jpeg2k-LCCM;(b)fastfading-LCCM;(c)Gaussianblur-LCCM;(d)jpeg-LCCM;(e)whitenoise-LCCM;(f)jpeg2k-SSIM;(g)fastfading-SSIM;(h)Gaussianblur-SSIM;(i)jpeg-SSIM;(j)whitenoise-SSIM.

        基于散點(diǎn)圖的離散程度和擬合曲線的單調(diào)性,對(duì)比分析圖11—圖13中各種不同類型失真下的圖像質(zhì)量評(píng)價(jià)結(jié)果的散點(diǎn)圖,并結(jié)合圖14中計(jì)算的相關(guān)性參數(shù)值,可以發(fā)現(xiàn):LCCM對(duì)由AGN,MN,NEPN,HFN,MIS,CC類型失真的圖像的質(zhì)量評(píng)價(jià)分?jǐn)?shù)與主觀評(píng)價(jià)分?jǐn)?shù)的相關(guān)性明顯高于SSIM的;而對(duì)由SCN,QN,JTE,J2 KTE,LBWD類型失真的圖像的評(píng)價(jià)結(jié)果與主觀評(píng)價(jià)結(jié)果的一致性低于或接近于SSIM評(píng)價(jià)結(jié)果的一致性.

        結(jié)合不同失真類型的特征和人眼感知特性,分析其原因主要為:1)AGN等6種類型的失真均是對(duì)圖像每個(gè)小區(qū)域進(jìn)行了相近程度的失真,圖像中不會(huì)出現(xiàn)局部對(duì)比度明顯變化,因此,圖像存在較多的視覺冗余,人眼能夠感知到的失真量上限仍比較大,從而給SSIM等模型的評(píng)價(jià)結(jié)果帶來了較大的誤差;而LCCM模型結(jié)合了人眼對(duì)比敏感度特性,較好地克服了由此給質(zhì)量評(píng)價(jià)帶來的誤差,從而提高了評(píng)價(jià)精度;反之,SCN等5種失真對(duì)圖像局部破壞較大,致使圖像局部對(duì)比度改變明顯,人眼對(duì)其失真非常敏感,圖像的失真量均能被較好地感知,主客觀評(píng)價(jià)分?jǐn)?shù)已經(jīng)達(dá)到了各自的最佳精度,一致性很難再得到提升;2)人眼對(duì)色度的敏感程度低于對(duì)亮度的敏感程度,當(dāng)顏色有較小的失真時(shí),人眼不能感知或敏感度較低,從而也成為評(píng)價(jià)一致性較差的原因之一.

        圖13 CSIQ數(shù)據(jù)庫中6種失真類型的圖像分別采用LCCM和SSIM模型評(píng)價(jià)的分?jǐn)?shù)與DMOS之間的散點(diǎn)圖 (a)agwn-LCCM;(b)blur-LCCM;(c)fnoise-LCCM;(d)jpeg-LCCM;(e)jpeg2k-LCCM;(f)contrast-LCCM;(g)agwn-SSIM;(h)blur-SSIM;(i)fnoise-SSIM;(j)jpeg-SSIM;(k)jpeg2k-SSIM;(l)contrast-SSIMFig.13.Scatter plots between the DMOS and the objective evaluation scores obtained by evaluating images with 6 distortions using the LCCM and SSIM models in CSIQ database:(a)agwn-LCCM;(b)blur-LCCM;(c)fnoise-LCCM;(d)jpeg-LCCM;(e)jpeg2k-LCCM;(f)contrast-LCCM;(g)agwn-SSIM;(h)blur-SSIM;(i)fnoise-SSIM;(j)jpeg-SSIM;(k)jpeg2k-SSIM;(l)contrast-SSIM.

        圖14 三個(gè)數(shù)據(jù)庫中的圖像經(jīng)過每種類型的失真后分別采用LCCM和SSIM評(píng)價(jià)的結(jié)果與主觀評(píng)價(jià)結(jié)果之間相關(guān)性的對(duì)比 (a)LIVE;(b)CSIQ;(c)TID2008Fig.14.Comparing LCC and SROCC between the subjective evaluation scores and the objective evaluation scores obtained using the LCCM and SSIM models to evaluate the images processed with every type of distortion in LIVE,TID2008 and CSIQ database:(a)LIVE;(b)CSIQ;(c)TID2008.

        另外,提出的LCCM評(píng)價(jià)方法還能較好地避免因?yàn)榕臄z焦點(diǎn)的不同而對(duì)質(zhì)量評(píng)價(jià)結(jié)果帶來的影響.在拍攝圖像時(shí),對(duì)于同一景物,焦點(diǎn)不同,圖像的表現(xiàn)效果不同,則其質(zhì)量評(píng)價(jià)的結(jié)果不同.提出的質(zhì)量評(píng)價(jià)算法由于采用8 pixels×8 pixels大小的子塊的評(píng)價(jià)結(jié)果的平均值,即每次評(píng)價(jià)主要聚焦的是圖像中一個(gè)非常小的部分,從而能夠較好地避免因?yàn)榕臄z時(shí)焦點(diǎn)不同而帶來的影響.為了驗(yàn)證所提評(píng)價(jià)方法的有效性,對(duì)LIVE和TID2008數(shù)據(jù)庫中同一景物但不同的拍攝焦點(diǎn)的3幅圖像(LIVE庫中的I05,I07,I12與TID2008庫中I03,I04,I05是同一景物,但拍攝的焦點(diǎn)不同)進(jìn)行計(jì)算,得出LCCM值和SSIM值,并與其數(shù)據(jù)庫中提供的MOS值進(jìn)行對(duì)比分析,計(jì)算得出線性相關(guān)性系數(shù),結(jié)果如圖15.

        圖15 采用LCCM和SSIM模型對(duì)3幅不同拍攝焦點(diǎn)的圖像的質(zhì)量評(píng)價(jià)結(jié)果Fig.15.Quality evaluation of three images focused differently using the LCCM and SSIM models.

        從圖15中可以看到:對(duì)于3幅圖像,采用LCCM方法評(píng)價(jià)得出的結(jié)果與主觀評(píng)價(jià)分?jǐn)?shù)的相關(guān)性比SSIM方法評(píng)價(jià)的相關(guān)性明顯偏高.

        5 結(jié) 論

        結(jié)合人眼空間感知特性和圖像的復(fù)雜性特征,提出了一種基于人眼對(duì)圖像內(nèi)容感知的圖像質(zhì)量客觀評(píng)價(jià)方法.該方法首先結(jié)合人眼對(duì)亮度感知的非線性、掩蔽特性和對(duì)比度敏感特性,構(gòu)建了一種圖像內(nèi)容感知模型;再以此模型分別模擬人眼感知源圖像和失真圖像,并計(jì)算其強(qiáng)度差;最后基于強(qiáng)度差構(gòu)建圖像質(zhì)量客觀評(píng)價(jià)模型.采用LIVE,TID2008和CSIQ三個(gè)數(shù)據(jù)庫中的共47幅參考圖像和1549幅測試圖像進(jìn)行仿真實(shí)驗(yàn),并與SSIM,PSNRHVS和VSNR等典型的圖像質(zhì)量客觀評(píng)價(jià)模型進(jìn)行對(duì)比分析.結(jié)果表明:所提方法的評(píng)價(jià)分?jǐn)?shù)與主觀評(píng)價(jià)分?jǐn)?shù)的Pearson線性相關(guān)性系數(shù)和Spearman秩相關(guān)系數(shù)值比SSIM的評(píng)價(jià)結(jié)果均有一定程度的提高,提高幅度分別平均為9.5402%和3.2852%,比PSNRHVS和VSNR提高幅度更大.表明在圖像質(zhì)量客觀評(píng)價(jià)中,考慮人眼對(duì)圖像內(nèi)容的感知和復(fù)雜度的分析有助于提高圖像質(zhì)量主客觀評(píng)價(jià)的一致性,評(píng)價(jià)精度可得到進(jìn)一步的提高.

        [1]Wang Y Q 2014J.Nanjing Univ.(Nat.Sci.Ed.)50 361(in Chinese)[王元慶2014南京大學(xué)學(xué)報(bào)(自然科學(xué)版)50 361]

        [2]Zhuang J Y,Chen Q,He W J,Mao T Y 2016Acta Phys.Sin.65 040501(in Chinese)[莊佳衍,陳錢,何偉基,冒添逸2016物理學(xué)報(bào)65 040501]

        [3]Wang Z,Bovik A C,Sheikh H R,Simoncelli E P 2004IEEE Trans.Image Process.13 600

        [4]Chandler D M,Hemami S S 2007IEEE Trans.Image Process.16 2284

        [5]Zhang L,Zhang L,Mou X,Zhang D 2011IEEE Trans.Image Process.20 2378

        [6]Xue W,Zhang L,Mou X,Bovik A C 2014IEEE Trans.Image Process.23 684

        [7]Zhang L,Shen Y,Li H 2014IEEE Trans.Image Process.23 4270

        [8]Paudyal P,Battisti F,Sj?str?m M,Olsson R,Carli M 2017IEEE Trans.Broadcast.63 507

        [9]Bae S H,Kim M 2016IEEE Trans.Image Process.25 2392.

        [10]Gu K,Wang S,Zhai G,Ma S,Yang X 2016Signal Image Video Process.10 803

        [11]Wang X L,Wu D W,Li X,Zhu H N,Chen K,Fang G 2017Acta Phys.Sin.66 230302(in Chinese)[王湘林,吳德偉,李響,朱浩男,陳坤,方冠2017物理學(xué)報(bào)66 230302]

        [12]Akamine W Y L,Farias M C Q 2014J.Electron.Imaging23 061107

        [13]Li C F,Bovik A C 2010J.Electron.Imaging19 143

        [14]Guo J,Hu G,Xu W,Huang L 2017J.Vis.Commun.Image Represent.43 50

        [15]Hou W,Mei F H,Chen G J,Deng X W 2015Acta Phys.Sin.64 024202(in Chinese)[侯旺,梅風(fēng)華,陳國軍,鄧喜文2015物理學(xué)報(bào)64 024202]

        [16]Stephen W,Huw O,Vien C,Iain P S 2006Color Res.Appl.31 315

        [17]Nadenau M 2000Ph.D.Dissertation(Lausanne:école Polytechnique Fédérale de Lausanne)

        [18]Yao J C,Shen J,Wang J H 2008Acta Phys.Sin.57 4034(in Chinese)[姚軍財(cái),申靜,王劍華 2008物理學(xué)報(bào)57 4034]

        [19]Sheikh H R,Wang Z,Cormack L LIVE Image Quality Assessment Database Release 2 http://live.ece.utexas.edu/research/quality[2017-12-17]

        [20]Sheikh H R,Sabir M F,Bovik A C 2006IEEE Trans.Image Process.15 3440

        [21]Nikolay N P Tampere Image Database 2008 TID2008,version 1.0 http://www.ponomarenko.info/tid2008.htm[2017-12-17]

        [22]Nikolay P,Vladimir L,Alexander Z,Karen E,Jaakko A,Marco C,Federica B 2009Adv.Modern Radioelectron.10 30

        [23]Larson E C The CSIQ image database http://vision.okstate.edu/?loc=csiq[2017-12-17]

        [24]Larson E C,Chandler D M 2010J.Electron.Imaging19 011006

        [25]Zhang F,Bull D R 2013Proceedings of the 20th IEEE Interatinonal Conference on Image Processing(ICIP)Melbourne,Australia,September 15–18,2013 p39

        [26]Gu K,Wang S,Zhai G,Lin W,Yang X,Zhang W 2016IEEE Trans.Image Process.62 446

        猜你喜歡
        主客觀人眼特性
        谷稗的生物學(xué)特性和栽培技術(shù)
        色彩特性
        流行色(2020年9期)2020-07-16 08:08:54
        人眼X光
        快樂語文(2019年9期)2019-06-22 10:00:38
        人眼為什么能看到虛像
        進(jìn)一步凸顯定制安裝特性的優(yōu)勢 Integra DRX-5.2
        Quick Charge 4:什么是新的?
        CHIP新電腦(2017年6期)2017-06-19 09:41:44
        閃瞎人眼的,還有唇
        優(yōu)雅(2016年12期)2017-02-28 21:32:58
        Outdoor air pollution as a possible modifiable risk factor to reduce mortality in post-stroke population
        看人,星光璀璨繚人眼
        電影故事(2016年5期)2016-06-15 20:27:30
        特大型高鐵車站高架候車廳聲環(huán)境主客觀評(píng)價(jià)研究
        国产成人高清亚洲一区二区| 日日碰狠狠躁久久躁| 国产99r视频精品免费观看| 日韩精人妻无码一区二区三区| 日韩精品视频中文字幕播放| 成年美女黄网站色大免费视频| 国产av无码专区亚洲av中文| 亚洲成人中文| 亚洲国产精品一区二区第一| 国内嫩模自拍偷拍视频| 久久99热狠狠色精品一区| 色综合无码av网站| 无码专区无码专区视频网址 | av一区二区三区综合网站| 在线观看免费无码专区| 久久精品无码免费不卡| 亚洲午夜看片无码| 亚洲国产成人av毛片大全| 乱码1乱码2美美哒| 1717国产精品久久| bbbbbxxxxx欧美性| 蜜桃视频在线免费视频| 国产女主播白浆在线观看| 一本色道久久99一综合| 国产亚洲精品成人av在线| 国产乱码一区二区三区精品| 国产av永久无码天堂影院| 免费毛片视频网站| 亚洲一区二区三区码精品色| 亚洲国产精品一区二区成人片国内| 日韩精品一区二区三区免费视频| 国产美女高潮流白浆在线观看| 色噜噜亚洲精品中文字幕| 国产精品人人做人人爽| 久久天天躁夜夜躁狠狠躁2022| 亚洲妇女av一区二区| 漂亮人妻被强了完整版| 精品国产人妻一区二区三区| 精品人妻丰满久久久a| 国产性感午夜天堂av| 99久久超碰中文字幕伊人|