朱 睿 李朝鋒,2
1(江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院 江蘇 無錫 214122)2(江南大學(xué)輕工過程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室 江蘇 無錫 214122)
一種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)的無參考JPEG2000圖像質(zhì)量評(píng)價(jià)方法
朱 睿1李朝鋒1,2
1(江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院 江蘇 無錫 214122)2(江南大學(xué)輕工過程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室 江蘇 無錫 214122)
現(xiàn)有的圖像質(zhì)量評(píng)價(jià)模型對(duì)JPEG2000壓縮圖像的失真情況評(píng)價(jià)都不是很理想。針對(duì)這一問題,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的JPEG2000壓縮圖像質(zhì)量評(píng)價(jià)方法。該模型由一層包含20個(gè)卷積核的卷積層,一層包含最大池、中值池和最小池的次采樣層、一層采用1200個(gè)ReLU激活單元的全鏈接層和一個(gè)輸出節(jié)點(diǎn)構(gòu)成。采用最大、中值、最小三池聯(lián)合的方法,可以有效提取圖像的質(zhì)量感知特征。在LIVE圖像質(zhì)量評(píng)價(jià)庫JPEG2000壓縮圖像上的實(shí)驗(yàn)結(jié)果表明,該方法得到了比相關(guān)文獻(xiàn)方法更好的主觀感知一致性。
卷積神經(jīng)網(wǎng)絡(luò) 深度學(xué)習(xí) 無參考圖像質(zhì)量評(píng)價(jià)
隨著互聯(lián)網(wǎng)技術(shù)的快速發(fā)展,對(duì)圖像的傳輸、存儲(chǔ)、壓縮等需求日趨增多,而其中的每一種技術(shù)都需要對(duì)圖像的質(zhì)量進(jìn)行評(píng)價(jià),所以圖像質(zhì)量評(píng)價(jià)已經(jīng)成為當(dāng)前圖像處理領(lǐng)域的一個(gè)研究熱點(diǎn)。圖像質(zhì)量評(píng)價(jià)方法一般可以分為主觀質(zhì)量評(píng)價(jià)方法和客觀質(zhì)量評(píng)價(jià)方法。由于人是圖像的最終接收者,主觀質(zhì)量評(píng)價(jià)的可靠性最高,但在實(shí)際應(yīng)用中,主觀質(zhì)量評(píng)價(jià)費(fèi)時(shí)費(fèi)力,且無法嵌入自動(dòng)化系統(tǒng)中,為此客觀質(zhì)量評(píng)價(jià)必不可少??陀^質(zhì)量評(píng)價(jià)根據(jù)有無參考圖像信息可以分為全參考、半?yún)⒖己蜔o參考圖像質(zhì)量評(píng)價(jià)。無參考圖像質(zhì)量評(píng)價(jià)方法主要是指在沒有參考圖像信息的情況下對(duì)失真圖像進(jìn)行客觀評(píng)價(jià)的一種方法。全參考和半?yún)⒖挤椒ㄐ枰獏⒖紙D像的全部或者部分信息,在很多時(shí)候,參考圖像信息很難獲取或者獲得代價(jià)太高,而無參考圖像質(zhì)量評(píng)價(jià)不需要原始圖像的任何信息,所以無參考評(píng)價(jià)方法更為重要。近年來,無參考圖像質(zhì)量評(píng)價(jià)方法得到較大發(fā)展。Moothy等提出一種先分類后回歸的方法DIIVINE[1],該方法先對(duì)圖像進(jìn)行小波分解,使用廣義高斯分布擬合得到尺度內(nèi)和尺度間統(tǒng)計(jì)特征,然后使用支持向量機(jī)先分類再回歸的方法預(yù)測(cè)圖像質(zhì)量得分。Mittal等對(duì)經(jīng)過預(yù)處理的圖像進(jìn)行高斯擬合,提取形狀、方差和均值等統(tǒng)計(jì)特征,使用SVR建立模型BRISQUE[2]。Saad等將圖像分塊后提取每塊的離散余弦變換(DCT)系數(shù),然后用廣義高斯分布(GGD)函數(shù)進(jìn)行擬合得到所需特征,最后用SVR訓(xùn)練得到評(píng)價(jià)e模型BLIINDS-II[3]。Gao等在小波域提取圖像的非高斯性、局部依賴性和指數(shù)遞減性特征,構(gòu)建了兩種評(píng)價(jià)方法:一種運(yùn)用多核學(xué)習(xí)方法直接建立特征與圖像主觀得分之間關(guān)系的NSS-GS,另一種是需要兩步框架的NSS-TS,即先判斷圖像的失真類型并分類,然后用不同失真的評(píng)價(jià)方法對(duì)不同類失真圖像進(jìn)行評(píng)價(jià)得到最終得分[4]。Liu等先將圖像分塊,然后對(duì)每塊進(jìn)行曲波變換后提取子帶系數(shù)直方圖擬合特征、能量差等,再取所有塊的特征均值,運(yùn)用先分類后回歸的方法得到評(píng)價(jià)模型CurveletQA[5]。
深度學(xué)習(xí)[6]作為機(jī)器學(xué)習(xí)的一個(gè)分支,近幾年來得到了迅猛的發(fā)展。其中卷積神經(jīng)網(wǎng)絡(luò)在圖像處理領(lǐng)域也取得了重要的進(jìn)展,如:圖像內(nèi)容處理、圖像分類和物體識(shí)別[7-8]。1959年,Hubel和Wiese[9]兩位科學(xué)家在對(duì)貓視覺實(shí)驗(yàn)中發(fā)現(xiàn)了貓的視覺系統(tǒng)是分級(jí)的,這種分級(jí)可以看成是逐層迭代、抽象的過程。
瞳孔接受像素,方向選擇性細(xì)胞抽象出邊緣,對(duì)邊緣進(jìn)一步抽象得出形狀,對(duì)形狀再進(jìn)一步抽象得出是什么物體。
卷積神經(jīng)網(wǎng)絡(luò)特點(diǎn)在于將特征提取和網(wǎng)絡(luò)回歸良好地結(jié)合在了一起,這樣結(jié)合的優(yōu)點(diǎn)體現(xiàn)在兩個(gè)方面:(1)隨著網(wǎng)絡(luò)深度的加深,可以更顯著地提高網(wǎng)絡(luò)的學(xué)習(xí)能力[10]。(2)在卷積神經(jīng)網(wǎng)絡(luò)框架中,采用反向誤差傳播的方法,將整個(gè)網(wǎng)絡(luò)作為一個(gè)整體進(jìn)行訓(xùn)練,這樣就可在模型中加入最近提出一些提高學(xué)習(xí)效率和學(xué)習(xí)結(jié)果的新技術(shù),如dropout[11]和ReLU(rectified linear unit)[11]等。
根據(jù)上述討論,本文提出了一種改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型的JPEG2000編碼圖像質(zhì)量評(píng)價(jià)的方法,不同于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)模型。我們?cè)诖尾蓸訉邮褂昧舜蟆⒅?、小池結(jié)構(gòu)結(jié)合并在輸出層使用了ReLU激活單元的設(shè)計(jì),實(shí)驗(yàn)結(jié)果表明,這樣的結(jié)構(gòu)設(shè)計(jì)使得實(shí)驗(yàn)結(jié)果得到了顯著的提高。
本文提出的用于圖像質(zhì)量評(píng)價(jià)的CNN改進(jìn)模型結(jié)構(gòu)見圖1所示。首先,將圖像進(jìn)行灰度化和歸一化處理,然后將圖像進(jìn)行不重疊的切割并將訓(xùn)練用的圖像塊輸入CNN改進(jìn)模型進(jìn)行模型訓(xùn)練,最后利用訓(xùn)練好的模型預(yù)測(cè)測(cè)試集中每一張小塊的圖像質(zhì)量值并計(jì)算這些值的均值作為原圖像的圖像質(zhì)量值。
圖1 本文改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)模型
1.1 網(wǎng)絡(luò)結(jié)構(gòu)
如圖1所示,本文提出的CNN模型由五層網(wǎng)絡(luò)結(jié)構(gòu)組成。輸入層接收經(jīng)過灰度化和歸一化后的32×32的圖像塊。在第一層卷積層中,我們使用20個(gè)7×7的卷積核通過步長為1像素的卷積運(yùn)算對(duì)輸入塊進(jìn)行處理,得到了20個(gè)特征圖,其中每個(gè)特征圖的大小為26×26。隨后在次采樣層中采用最大值、中值和最小值三種采樣方法對(duì)20張?zhí)卣鲌D進(jìn)行處理,分別得到最大值、中值和最小值三個(gè)特征池。這樣做的目的不但是降低了特征的復(fù)雜程度,而且也在相應(yīng)的特征圖中提取出來比較顯著的特征樣本。在輸出層,本文采用全鏈接方法,共有1200個(gè)節(jié)點(diǎn)來連接次采樣層得到的特征,最后通過線性回歸網(wǎng)絡(luò)得到圖像的質(zhì)量值。
1.2 局部歸一化處理
對(duì)失真圖像進(jìn)行不重疊切割前,先對(duì)失真圖像進(jìn)行歸一化處理。本文采用的是局部歸一化方法[12]。歸一化計(jì)算式如下:
(1)
(2)
(3)
其中I(i,j)為失真圖像,M、N分別表示圖像的高和寬。P和Q是歸一化窗口的大小,P和Q的最大值不應(yīng)超過輸入圖像的大小。根據(jù)式(1)可知不同的窗口大小將會(huì)導(dǎo)致不同的均值和變異因數(shù),在本文的方法中我們采用P=Q=3的窗口大小。通過式(1)-式(3),用圖像灰度值減去局部均值,再除以局部標(biāo)準(zhǔn)差可以消除圖像的分段光滑性,并完成局部歸一化。
1.3 卷積層
卷積層是通過卷積計(jì)算進(jìn)行特征提取,在這一層中我們使用20個(gè)不同的卷積核,對(duì)每一個(gè)輸入圖像進(jìn)行卷積運(yùn)算,從而獲得20個(gè)特征圖。根據(jù)卷積神經(jīng)網(wǎng)絡(luò)的原理,卷積核的大小尺寸決定一個(gè)神經(jīng)元的感受視野的大小。當(dāng)卷積過小時(shí),無法提取有效的特征,而當(dāng)卷積核過大時(shí),提取的特征的復(fù)雜度可能會(huì)超過后面網(wǎng)絡(luò)的表示能力。因此設(shè)置適當(dāng)?shù)木矸e核對(duì)于提高卷積神經(jīng)網(wǎng)絡(luò)的性能至關(guān)重要,同時(shí)也是卷積神經(jīng)網(wǎng)絡(luò)參數(shù)調(diào)節(jié)的難點(diǎn)。本文提出的模型采用的卷積核的大小為7×7,經(jīng)過這樣的卷積核處理后,我們會(huì)得到20個(gè)26×26的特征圖。
1.4 次采樣層
次采樣層的輸入是在上一層卷積層中經(jīng)過卷積計(jì)算得到的20個(gè)特征圖。在本層中,模型通過池化計(jì)算將特征圖的維度進(jìn)一步降低。對(duì)于每一個(gè)特征圖本文只對(duì)它們?nèi)∽畲笾?、中值和最小值三個(gè)數(shù)值,分別存入最大池、中值池和最小值。計(jì)算式如下:
(4)
(5)
(6)
其中Pmax、Pmin和Pmedian表示最大池、最小池和中值池。M表示特征圖。K表示卷積核的數(shù)量。
在場景識(shí)別領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)的池化層一般都會(huì)設(shè)置成2×2平均值的感知結(jié)構(gòu)。在這種情況下,選擇這種典型的感知方法可以使整個(gè)采樣層的魯棒性加強(qiáng)。特別是在被識(shí)別物體在空間上能被分成多個(gè)顯著序列時(shí),這種方法格外有效。但是,在無參考圖像質(zhì)量評(píng)價(jià)領(lǐng)域,經(jīng)過我們的觀察發(fā)現(xiàn),很多失真都是均勻分布在空間域中的,將圖像不重疊分割成32×32的圖像塊是不會(huì)影響這種失真的均勻性的。所以對(duì)于這種沒有明顯的全局顯著特征的圖像,使用本文中的池化方法可以大幅度地減少計(jì)算時(shí)間和結(jié)果的復(fù)雜程度,從而提高運(yùn)算速度和預(yù)測(cè)結(jié)果的準(zhǔn)確性。
1.5 輸出層
本文模型在輸出層采用了1200個(gè)激活節(jié)點(diǎn),與前面的三個(gè)池采用全鏈接的方式連接。這里我們將次采樣層的輸出結(jié)果轉(zhuǎn)換成一個(gè)60維的特征向量,每個(gè)特征都與1200個(gè)激活節(jié)點(diǎn)進(jìn)行連接,所以在次采樣層和輸出層之間共有60×1200=72 000個(gè)參數(shù)。
在傳統(tǒng)CNN的輸出層中,一般都會(huì)采用sigmoid激活函數(shù)或tanh激活函數(shù),本文模型使用Rectified Linear Units(ReLUs)作為激活函數(shù)。計(jì)算式如下:
(7)
其中w為連接權(quán)值,a為次采樣層輸出。
在深度CNN中,使用ReLU函數(shù)的模型在訓(xùn)練時(shí)要比使用tanh單元的模型效率更快[13]。而且ReLU函數(shù)的特性是阻止負(fù)信號(hào)通過,正是由于這種特性我們并沒有在卷積層和次采樣層使用ReLU函數(shù)進(jìn)行濾波,而只是在線性回歸的網(wǎng)絡(luò)中使用它,使其能夠過濾最小池中有可能出現(xiàn)的負(fù)輸出。
Dropout是近幾年由Hinton提出的一種防止網(wǎng)絡(luò)過擬合的一種方法。其具體做法是將輸出值按50%的概率設(shè)置為零,通過隨機(jī)屏蔽輸出信號(hào)的方法,Dropout成為一種對(duì)于訓(xùn)練權(quán)值網(wǎng)絡(luò)的有效方法。本文在ReLU函數(shù)后,對(duì)于輸出值進(jìn)行Dropout處理。
1.6 模型調(diào)整與學(xué)習(xí)
Support Vector Regression (SVR)已經(jīng)在無參考圖像質(zhì)量評(píng)價(jià)中得到成功應(yīng)用[2]。本文模型中的輸出層采用的目標(biāo)函數(shù)與其非常相似,計(jì)算式如下:
(8)
其中x為輸入圖像,w為各層權(quán)值,f(w;x)為圖像質(zhì)量分?jǐn)?shù)預(yù)測(cè)函數(shù),y為圖像的主觀評(píng)價(jià)值。然后使用誤差反向傳播和梯度下降方法對(duì)權(quán)值進(jìn)行調(diào)節(jié)。計(jì)算式如下:
(9)
Δw=▽wL
(10)
wnew=w+αΔw
(11)
其中w為權(quán)值,L為誤差函數(shù),α為學(xué)習(xí)率。在實(shí)驗(yàn)中我們還發(fā)現(xiàn),在訓(xùn)練開始的時(shí)候使用較大的學(xué)習(xí)率,并在訓(xùn)練過程中減小學(xué)習(xí)率,可以使預(yù)測(cè)的較好結(jié)果。計(jì)算式如下:
α=α0(d)t
(12)
其中α為實(shí)時(shí)學(xué)習(xí)率,α0為初始學(xué)習(xí)率,d為在(0,1)的常數(shù),t為訓(xùn)練次數(shù)。
2.1 在LIVE圖像庫上的實(shí)驗(yàn)結(jié)果與分析
本文選用LIVE[14]圖像庫中的JPEG2K失真類型作為實(shí)驗(yàn)數(shù)據(jù)集,該失真類型共有227張大小不同的原始圖像,也給出了每幅失真圖像的主觀得分DMOS值。
為了評(píng)估本文方法的性能,選取兩種評(píng)價(jià)指標(biāo):主觀MOS和客觀MOS的斯皮爾曼等級(jí)相關(guān)系數(shù)SROCC(Spearman Rank Order Correlation Coefficient);主觀MOS和客觀MOS的皮爾遜線性相關(guān)系數(shù)PLCC(Pearson Correlation Coefficient)。
SROCC主要用于測(cè)量兩組順序樣本的次序相關(guān)系數(shù),即質(zhì)量得分單調(diào)性的指標(biāo);PLCC主要用于客觀評(píng)價(jià)得分與主觀得分之間的回歸擬合。SROCC和PLCC的值區(qū)間都為[-1,1],其絕對(duì)值越接近于1表明主客觀之間的相關(guān)性越好,反之,越接近0表明兩者相關(guān)性越差。
為了和其他方法比較,本文采用了與他人文獻(xiàn)中相同的處理方法。實(shí)驗(yàn)中隨機(jī)選取LIVE數(shù)據(jù)庫中80%的23幅原始圖像及其對(duì)應(yīng)的失真圖像訓(xùn)練。剩余20%的6幅原始圖像及其對(duì)應(yīng)失真圖像進(jìn)行測(cè)試,這樣保證訓(xùn)練圖像與測(cè)試圖像在內(nèi)容上沒有交叉。表1和表2分別列出了實(shí)驗(yàn)結(jié)果SROCC和LCC。
表1 在LIVE圖像庫JPEG2K失真類型上的SROCC值
表2 在LIVE圖像庫JPEG2K失真類型上的LCC值
圖2為本文方法預(yù)測(cè)出的圖像質(zhì)量得分與主觀得分的散點(diǎn)圖,也表明了本文方法的主觀感知一致性。
圖2 本文模型預(yù)測(cè)圖像質(zhì)量值的散點(diǎn)圖
由表1和表2可以分析出,本文在傳統(tǒng)CNN模型基礎(chǔ)上融入一些權(quán)值優(yōu)化技術(shù),以及在池化層采用最大、中值和最小三種聯(lián)合的方法得到改進(jìn)的CNN模型。實(shí)驗(yàn)結(jié)果顯示,我們改進(jìn)的CNN模型比傳統(tǒng)CNN得到更好的主觀感知一致性,也優(yōu)于當(dāng)前文獻(xiàn)報(bào)道的頂級(jí)模型DIIVINE和BRISQUE。
2.2 模型參數(shù)比較與分析
本文模型中一些相關(guān)參數(shù)都是在實(shí)驗(yàn)初始階段設(shè)置的,為了進(jìn)一步研究這些相關(guān)參數(shù)初始值的不同對(duì)實(shí)驗(yàn)結(jié)果的影響,本節(jié)將在LIVE失真圖像庫的JPEG2K失真類型上實(shí)驗(yàn)相關(guān)的參數(shù)初始值不同時(shí)的表現(xiàn)。
2.2.1 輸入圖像尺寸
在我們?cè)O(shè)計(jì)的實(shí)驗(yàn)中,最后的預(yù)測(cè)結(jié)果為同一原始圖像切塊后得到所有圖像塊預(yù)測(cè)結(jié)果的平均值,所以輸入圖像塊的大小尺寸不同可能會(huì)影響的預(yù)測(cè)結(jié)果。給出不同尺寸的實(shí)驗(yàn)結(jié)果如表3所示。
表3 不同輸入圖像尺寸大小得到的SROCC和LCC值
從表3中我們可以看出,圖像塊的大小對(duì)整體結(jié)果影響不大,但輸入圖像尺寸越大,實(shí)驗(yàn)所需的時(shí)間增長較多,綜合考慮,我們選擇輸入圖像大小為32×32。
2.2.2 卷積核的數(shù)量
我們給出卷積核的數(shù)量與預(yù)測(cè)結(jié)果之間的關(guān)系如圖3所示。
圖3 卷積核數(shù)目與預(yù)測(cè)結(jié)果的關(guān)系圖
從圖3中我們可以看出,實(shí)驗(yàn)結(jié)果會(huì)隨著卷積核的增多而提高,但是當(dāng)卷積核的數(shù)目超過20個(gè)的時(shí)候,實(shí)驗(yàn)結(jié)果提高趨于不變。相反地,隨著卷積核的增多,實(shí)驗(yàn)所需時(shí)間增加較多。綜合考慮,我們選擇卷積核的數(shù)目為20個(gè)。
2.2.3 卷積核尺寸的大小
本文在實(shí)驗(yàn)中也測(cè)試了卷積核尺寸的大小對(duì)輸出結(jié)果的影響,如表4所示。
表4 不同卷積核尺寸得到的SROCC和LCC值
從表4中我們可以看出,使用不同尺寸的卷積核進(jìn)行實(shí)驗(yàn)所得到的結(jié)果差別并不明顯,所以卷積核的尺寸對(duì)于實(shí)驗(yàn)結(jié)果的影響并不明顯。我們選擇了使實(shí)驗(yàn)結(jié)果相對(duì)較好的7×7大小卷積核。
本文提出了一種改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的無參考JPEG2000圖像質(zhì)量評(píng)價(jià)方法。該模型在次采樣層采用了最大、中值、最小三池聯(lián)合的方法,在輸出層使用了ReLU激活函數(shù)和dropout技術(shù),更好表達(dá)了圖像質(zhì)量感知特征。我們的實(shí)驗(yàn)結(jié)果也表明該模型在圖像質(zhì)量評(píng)價(jià)庫上有更好的預(yù)測(cè)結(jié)果,優(yōu)于當(dāng)前文獻(xiàn)報(bào)道的相關(guān)方法。
[1] Moorthy A K,Bovik A C.Blind image quality assessment:From natural scene statistics to perceptual quality[J].IEEE Transactions on Image Processing,2011,20(12):3350-3364.
[2] Mittal A,Moorthy A K,Bovik A C.No-referen ce image quality assessment in the spatial domain[J].IEEE Transactions on Image Processing,2012,21(12):4695-4708.
[3] Saad M A,Bovik A C,Charrier C.Blind Image Quality Assessment:A Natural Scene Statistics Approach in the DCT Domain[J].IEEE Transactions on Image Processing,2012,21(8):3339-3352.
[4] Gao X,Gao F,Tao D,et al.Universal Blind Image Quality Assessment Metrics Via Natural Scene Statistics and Multiple Kernel Learning[J].IEEE Transactions on Neural Networks and Learning Systems,2013,24(12):2013-2026.
[5] Liu L,Dong H,Huang H,et al.No-reference image quality assessment in curvelet domain[J].Signal Processing:Image Communication,2014,29(4):494-505.
[6] Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural network [J].Science,2006,313 (5786):504-507.
[7] Landecker W,Chartrand R,DeDeo S.Robust Sparse Coding and Compressed Sensing with the Difference Map[C].//European Conference on Computer Vision (ECCV),2014:315-329.
[8] Girshick R,Donahue J,Darrell T,et al.Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]// Computer Vision and Pattern Recognition (CVPR),2014 IEEE Conference on.IEEE,2014:580-587.
[9] Hubel D H,Wiesel T N.Receptive fields of single neurones in the cat’s striate cortex[J].The Journal of Physiology,1959,148:574-591.
[10] Bengio Y,Courville A,Vincent P.Representation Learning:A Review and New Perspectives[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(8):1798-1828.
[11] Nair V,Hinton G E.Rectified Linear Units Improve Restricted Boltzmann Machines.[C].// Proceedings of the 27th International Conference on Machine Learning (ICML),2010:807-814.
[12] Ruderman D L.The statistics of natural images[J].Netwrok:Computer in Nerual Systems,1994,5(4):517-548.
[13] Krizhevsky A,Sutskever I,Hinton G E.ImageNet Classification with Deep Convolutional Neural Networks[C].//Advances in Neural Information Processing Systems 25,2012,1106-1114.
[14] Sheikh H R,Wang Z,Cornack L.LIVE image quality assessment database release2[EB/OL].http://live.ece.utexas.edu/research/quality.
A NO-REFERENCE JPEG2000 IMAGE QUALITY ASSESSMENT VIA IMPROVED CONVOLUTIONAL NEURAL NETWORK
Zhu Rui1Li Chaofeng1,2
1(SchoolofInternetofThingsEngineering,JiangnanUniversity,Wuxi214122,Jiangsu,China)2(KeyLaboratoryofAdvancedProcessControlforLightIndustry,MinistryofEducation,JiangnanUniversity,Wuxi214122,Jiangsu,China)
The existing image quality evaluation model for JPEG2000 compression image distortion upon evaluation is not very ideal.In view of this,a JPEG2000 compressed image quality evaluation method based on improved CNN framework is put forward.The model is consisted of one convolutional layer with 20 convolution kernels,one pooling layer with the max,medium and min pooling,one fully connected layer with 1200 ReLU units and one output node.Using the max,medium and min pool structure to extract the typical features in the image effectively.Experimental results show that the proposed method is consistent with the subjective score better in the LIVE library.
Convolutional neural network (CNN) Deep learning No-reference Image quality assessment
2015-11-05。國家自然科學(xué)基金項(xiàng)目(61170120);教育部優(yōu)秀人才計(jì)劃項(xiàng)目(NCET-12-0881)。朱睿,碩士生,主研領(lǐng)域:深度學(xué)習(xí),模式識(shí)別。李朝鋒,教授。
TP391.4
A
10.3969/j.issn.1000-386x.2017.01.032