單月,劉段,萬曉霞
無參考圖像質(zhì)量評價研究現(xiàn)狀與前景分析
單月,劉段,萬曉霞
(武漢大學(xué) 圖像傳播與印刷包裝研究中心,武漢 430072)
為了進一步掌握無參考圖像質(zhì)量評價的發(fā)展過程與研究熱點,為后續(xù)的相關(guān)研究提供參考。使用citespace文獻可視化軟件對2000—2021年在Web of Science檢索到的1 712條文獻數(shù)據(jù)進行基本分析、共被引分析和關(guān)鍵詞分析,通過分析可視化圖譜來得到無參考圖像質(zhì)量評價的發(fā)展特點。分析表明無參考圖像質(zhì)量評價目前正處于高速發(fā)展階段,全世界各科研強國均在該領(lǐng)域有所建樹,目前也已存在較為成熟的無參考圖像評價算法,但其精度相較于主觀評價仍有差距。未來研究人員應(yīng)該結(jié)合當今的人工智能技術(shù)推動無參考圖像質(zhì)量評價從高速發(fā)展向高質(zhì)量發(fā)展轉(zhuǎn)變。
圖像質(zhì)量評價;無參考圖像質(zhì)量評價;CiteSpace;特征提??;自然場景統(tǒng)計;文獻計量分析
互聯(lián)網(wǎng)時代的到來使數(shù)字圖像成為日常生活中最容易捕獲的信息之一。在過去的幾十年中,隨著數(shù)字媒體設(shè)備使用覆蓋率的不斷增高,數(shù)字圖像的數(shù)量也逐漸攀升。數(shù)字圖像在存儲、傳輸、調(diào)用和再現(xiàn)的過程中不可避免的會遇到各種各樣的失真,如何有效地進行失真圖像質(zhì)量評價就成為了研究人員關(guān)注的熱門話題。成熟且準確的圖像質(zhì)量評價模型可以應(yīng)用于遙感信息[1-3]、醫(yī)學(xué)影像[4]、圖像復(fù)原[5]等領(lǐng)域。
圖像質(zhì)量評價(Image Quality Assessment, IQA)分為主觀評價和客觀評價2類。主觀評價[6]即根據(jù)人的主觀視覺體驗來判斷圖像質(zhì)量的好壞??陀^評價則是利用計算機來模擬人眼視覺系統(tǒng)(Human Visual System, HVS),對待測圖像進行相關(guān)特征分析來獲得圖像質(zhì)量的客觀評價分數(shù)。主觀評價準確但穩(wěn)定性不強,易受到環(huán)境影響,且無法嵌入至計算機軟件中,而客觀評價方法既可以與人眼視覺結(jié)果保持基本一致,又可以嵌入軟件實現(xiàn)對圖像的實時處理。
客觀評價根據(jù)是否利用參考圖像分為:全參考圖像質(zhì)量評價方法(Full-reference IQA, FR-IQA)、半?yún)⒖紙D像質(zhì)量評價方法(Reduced-reference IQA, RR-IQA)和無參考圖像質(zhì)量評價方法(No-reference IQA, NR-IQA)[7-9]。由于現(xiàn)實場景中多數(shù)情況需要在未知原始圖像的情況下對失真圖像進行評價,所以近年來無參考類圖像質(zhì)量評價方法成為了該領(lǐng)域研究的重點方向。
對目前現(xiàn)有的文獻進行分析,可以有助于了解無參考圖像質(zhì)量評價的發(fā)展過程及主要進展,摸清該領(lǐng)域目前存在的問題,掌握未來的發(fā)展趨勢。通過CiteSpace呈現(xiàn)可視化知識圖譜是進行文獻分析的重要方法,它利用統(tǒng)計學(xué)的原理與技術(shù)對文獻進行定量分析,得到更具說服力的結(jié)果。文中將對無參考圖像質(zhì)量評價進行可視化分析,第1部分介紹了數(shù)據(jù)的來源與分析方法,第2部分介紹了無參考圖像質(zhì)量評價的時間、地域、領(lǐng)域與期刊等基本統(tǒng)計信息的分析,第3部分將對領(lǐng)域內(nèi)的高被引文獻進行分析與介紹,第4部分通過分析關(guān)鍵詞得到無參考圖像質(zhì)量評價的發(fā)展趨勢,第5部分總結(jié)無參考圖像質(zhì)量評價的發(fā)展特點,討論無參考圖像質(zhì)量評價存在的問題與未來的發(fā)展方向。
文中的數(shù)據(jù)來源于Web of Science(WOS)核心數(shù)據(jù)庫,以“TS=NRIQA OR TS=BIQA OR TS=Blind Image Quality Assessment OR TS=No-Reference QualityAssessment”為檢索主題,以2000—2021年為檢索時間跨度,以article和review為文獻類型,以英文為文獻語種進行檢索,共獲得檢索記錄1 712條。通過對檢索結(jié)果篩選與除重,最終獲得有效文獻1 712條。
文中主要采用文獻計量的方法來對無參考圖像質(zhì)量評價進行研究,分析方法見圖1,首先使用WOS的檢索分析工具對無參考質(zhì)量評價的時空分布、學(xué)科領(lǐng)域分布及文獻來源進行統(tǒng)計分析。其次,使用CiteSpace5.7.R5對下載并除重后的1 712條文獻進行期刊共被引分析、文獻共被引分析及關(guān)鍵詞分析。使用2種分析方式一方面了解無參考圖像質(zhì)量評價的發(fā)展基本情況,另一方面也通過可視化知識圖譜來總結(jié)無參考圖像質(zhì)量評價的發(fā)展熱點與前景。
citespace進行可視化分析中經(jīng)常以中介中心性衡量某一測度節(jié)點在網(wǎng)絡(luò)中的重要性[10]。中介中心性的核心思想是:如果一個節(jié)點位于其他節(jié)點的多條最短路徑上,那么該節(jié)點就處于核心地位,即具有較大的中介中心性的節(jié)點其重要性就越大,中介中心性大于0.1的節(jié)點通常被稱作關(guān)鍵節(jié)點,在可視化知識圖譜中使用紫色環(huán)表示中介中心性高的節(jié)點。中介中心性的計算公式如下:
(1)
式中:g為從節(jié)點到節(jié)點的最短路徑數(shù)目;為從節(jié)點到節(jié)點的g條最短路徑中經(jīng)過節(jié)點的最短路徑數(shù)目。
通過對文獻進行基本的時空分析、學(xué)科的領(lǐng)域分析、機構(gòu)分析與發(fā)布期刊分析可以清晰地了解該領(lǐng)域的發(fā)展過程,有助于對研究對象有更深刻的了解。
圖1 文中分析方法
文獻的歷年發(fā)布數(shù)量可以直觀的體現(xiàn)無參考圖像質(zhì)量評價的發(fā)展情況,從圖2的2000—2021年發(fā)文量統(tǒng)計可以看出無參考圖像質(zhì)量評價領(lǐng)域的發(fā)文量基本呈現(xiàn)逐年上升趨勢,根據(jù)每年的發(fā)文量可以將其發(fā)展階段分為3部分:第1階段2000—2004年,無參考圖像質(zhì)量評價的起步階段,發(fā)文量較少但相對穩(wěn)定每年基本均有10篇文獻產(chǎn)出;第2階段2005—2010年,穩(wěn)步增長階段,發(fā)文量雖然總數(shù)仍然不多但較前一階段有明顯增長,平均每年有29篇文獻;第3階段2011年至今,這一階段的發(fā)文量屬于飛速增長時期,其中2018—2020年的單年發(fā)文量已經(jīng)突破200篇,且仍處于上升趨勢。從3個發(fā)展階段可以看出無參考圖像質(zhì)量評價的熱度在持續(xù)攀升,是相關(guān)研究領(lǐng)域的熱點話題。
圖2 2000—2021年發(fā)文量統(tǒng)計
從圖3各國的發(fā)文量統(tǒng)計可以看出在無參考圖像質(zhì)量評價領(lǐng)域,中美兩國的發(fā)文量領(lǐng)先,其中中國以超過500篇的發(fā)文量位居第1,德國雖然排在第3,但與排名前2名的發(fā)文量差距有近300篇。
圖3 發(fā)文量排名前10的國家
Fig .3 Top ten countries in terms of publication volume
反觀圖4的中介中介性的排名,發(fā)文量位居前3的國家在中介中心性排名中沒有都在前10的名單里,中介中心性前3名分別是美、英、法,其中美國的中介中心性更是超過了0.3。從發(fā)文量和中心中介性的統(tǒng)計可以看出雖然有的地域發(fā)文量不大,但所發(fā)文獻的重要性卻極高,也說明在進行大量研究的同時要更注重?zé)o參考圖像質(zhì)量評價的高質(zhì)量發(fā)展。
圖4 中介中心性排名前10的國家
從圖5的作者的合作網(wǎng)絡(luò)可以發(fā)現(xiàn)無參考圖像質(zhì)量評價領(lǐng)域的作者們大多有固定的合作團隊,由于整張圖譜沒有存在獨立分散的結(jié)構(gòu),證明各團隊之間是存在合作交流。這種類似于“大雜居,小聚居”的作者分布模式,讓無參考圖像評價領(lǐng)域的發(fā)展更為緊密,相互合作交流使得領(lǐng)域可以快速發(fā)展。
圖5 作者合作分析圖譜
對圖6所示的文獻來源可視化圖譜分析得出無參考圖像質(zhì)量評價的研究機構(gòu)眾多,各國的頂尖高校都有相關(guān)學(xué)術(shù)論文的產(chǎn)出的結(jié)論。統(tǒng)計了發(fā)文量前10的機構(gòu)的中介中心性與發(fā)文篇數(shù)見圖7,其中發(fā)文量最多的三所高校分別是南洋理工大學(xué)、西安電子科技大學(xué)和得克薩斯州大學(xué)奧斯汀分校,發(fā)文量均超過了50篇,但中介中心性最高的哈佛大學(xué)發(fā)文量只有20余篇,這反映發(fā)文量的多少與重要性并不完全成正比關(guān)系。
圖6 文獻來源可視化圖譜
圖7 發(fā)文量前10的機構(gòu)發(fā)文量與中介中心性
使用WOS的檢索分析工具對無參考圖像質(zhì)量評價的學(xué)科領(lǐng)域分布進行了統(tǒng)計,統(tǒng)計結(jié)果見圖8,發(fā)文量最高的領(lǐng)域是電子工程,其次是醫(yī)學(xué)影像和計算機信息系統(tǒng)領(lǐng)域。除此之外在人工智能、軟件工程、電子信息等領(lǐng)域也有涉及,可以看出無參考圖像質(zhì)量評價在眾多領(lǐng)域均有所研究,是一門綜合性的學(xué)科。
使用WOS的檢索分析工具對無參考圖像質(zhì)量評價進行發(fā)文期刊的統(tǒng)計,其中發(fā)文量最高的期刊是《IEEE Transactions on Image Processing》。
對發(fā)文期刊使用citespace軟件進行了共被引分析,中介中心性可以反映期刊在無參考圖像質(zhì)量評價領(lǐng)域的權(quán)威性,中心性越高就證明其在領(lǐng)域內(nèi)的地位越高??偨Y(jié)了中介中心性最高的10篇期刊,見表1,這10篇文章大多屬于發(fā)展的前期階段,這也說明了前期的穩(wěn)步發(fā)展為后期無參考圖像質(zhì)量評價的飛速上升奠定了良好的理論基礎(chǔ)。
圖8 文獻所在學(xué)科領(lǐng)域統(tǒng)計
表1 中介中心性前10的共被引期刊統(tǒng)計
Tab.1 Top ten co-cited journals of intermediary centrality
使用citespace對文獻進行共被引分析可以了解領(lǐng)域內(nèi)的高被引文獻,高被引文獻通常可以代表領(lǐng)域的發(fā)展方向[11],對高被引文章按照被引頻率排序,總結(jié)了被引用次數(shù)最多的9篇文獻的題目、中介中心性、年份以及研究主題,見表2。
表2統(tǒng)計的高共被引文獻全部發(fā)表于2011—2015年這5年中,此階段正是無參考圖像質(zhì)量評價發(fā)展的加速階段,該階段做到了高速發(fā)展的同時兼顧高質(zhì)量發(fā)展。被引用量最高的[12]文獻提出了一種基于空間亮度信息的無參考圖像質(zhì)量評價算法(BRISQUE算法),該算法提取了圖像的亮度信息,對亮度信息進行除法歸一化處理,使用廣義高斯模型[13]對數(shù)據(jù)進行擬合,提取模型參數(shù)(MSCN系數(shù))作為圖像特征,與人眼視覺主觀評分進行支持向量回歸訓(xùn)練,生成評價模型。由于BRISQUE算法中使用到的MSCN系數(shù)這一亮度特征效果極佳,之后的改進算法基本都會以它作為特征向量中一部分,所以該文獻的引用次數(shù)排名第1。
其次被引用量較高的NIQE算法[14]與ILNIQE算法[15]均為無監(jiān)督式無參考質(zhì)量評價算法。無參考圖像質(zhì)量評價分為有監(jiān)督和無監(jiān)督2種,有監(jiān)督評價模型如BRISQUE算法的基本原理是提取圖片的某些特征參數(shù)與標準數(shù)據(jù)庫中記錄的人眼視覺主觀評分做回歸訓(xùn)練得到預(yù)測模型;而無監(jiān)督評價模型的基本原理則是通過對自然圖像的某些特征建模獲得標準圖像的參數(shù),對失真圖像進行同樣的建模得到失真圖像的參數(shù),對失真參數(shù)與標準參數(shù)進行對比從而得到圖像的質(zhì)量評分。此類算法不需要人眼視覺主觀評分作為參考,因此在訓(xùn)練模型時對數(shù)據(jù)庫無特定要求,跨數(shù)據(jù)庫測試穩(wěn)定性較高。
引用次數(shù)最高的3篇文獻提取的均為圖像空間域特征,被引用頻率排名第4名的BLIINDS–Ⅱ[16]算法則是基于離散余弦變化的頻率域進行特征提取無參考質(zhì)量評價算法。與BLIINDS–Ⅱ算法同樣使用頻率域特征的還有2011年提出的基于小波變化的DIIVINE算法[17]。從表2統(tǒng)計的發(fā)文時間可以看出無參考質(zhì)量評價模型是從基于頻率域特征逐漸轉(zhuǎn)換至基于空間域特征,這是由于基于頻率域變換的算法涉及到空域與頻域的轉(zhuǎn)換,使算法運行速度較慢,同時圖像失真大多是空間結(jié)構(gòu)發(fā)生變化,所以自然圖像在空間域上存在著更多的統(tǒng)計特征。
除了以上幾種經(jīng)典算法,高被引算法還包括14年提出的基于梯度幅值與拉普拉斯特征聯(lián)合統(tǒng)計的無參考失真圖像質(zhì)量評價模型[18]和基于自由能理論的NFERM算法[19]。從表2的分析中不難發(fā)現(xiàn),除了對描述算法的文獻,還有2篇與算法相關(guān)的工具類文獻引用頻率較高。Ponomarenko等[20]詳細介紹了無參考圖像質(zhì)量評價訓(xùn)練預(yù)測中使用到的TID2013數(shù)據(jù)庫,Kang等[21]介紹了用于無參考質(zhì)量評價的卷積神經(jīng)網(wǎng)絡(luò)模型,這2篇文獻不是從原理上介紹無參考圖像質(zhì)量評價算法,是為無參考圖像質(zhì)量評價領(lǐng)域提供更有效的處理工具。
從對高被引文獻的分析可以看出領(lǐng)域內(nèi)重點的發(fā)展方向還是提出更為有效的評價模型,無論是對算法中所提取的特征進行改進,對訓(xùn)練數(shù)據(jù)庫的優(yōu)化,還是對訓(xùn)練算法的選擇都是為了使模型可以在高效運行的情況下獲得與人眼視覺更為一致的結(jié)果。
關(guān)鍵詞是對文章內(nèi)容的高度概括,對關(guān)鍵詞進行分析可以更好地掌握領(lǐng)域內(nèi)的研究中心,因此為了更好地了解無參考圖像質(zhì)量評價的熱點話題,使用CiteSpace對1 712的文獻進行了進行關(guān)鍵詞分析。
表2 高共被引文獻統(tǒng)計分析
Tab.2 Highly co-cited journals
為了了解領(lǐng)域內(nèi)的研究中心,先對關(guān)鍵詞進行了共現(xiàn)分析,結(jié)果見圖9??梢姛o參考圖像質(zhì)量評價領(lǐng)域涉及到的關(guān)鍵詞眾多且相互交錯,關(guān)鍵詞之間基本都存在聯(lián)系。
圖9 關(guān)鍵詞共現(xiàn)分析可視化圖譜
表3統(tǒng)計了出現(xiàn)頻數(shù)最多的關(guān)鍵詞的名稱、頻次和中介中心性,表3中的10個關(guān)鍵詞可以分為2類。一類是“image quality assessment”、“no-reference quality assessment”、“ blind image quality assessment”和“video quality assessment”,它們主要圍繞質(zhì)量評價展開,其中的視頻質(zhì)量評價是目前該領(lǐng)域的一大熱點話題,無參考圖像質(zhì)量評價的原理被使用于對圖像視頻進行質(zhì)量評價,得克薩斯州大學(xué)奧斯汀分校的課題組就撰寫了相關(guān)的算法,如VIDEVAL算法[22]。另一類則是與算法相關(guān)的“statistics”、“natural scene statistics”、“prediction”、“blur”、“algorithm”和“feature extraction”。其中自然場景統(tǒng)計(Natural Scene Statistics, NSS)[23]是算法中最為常用的原理,自然場景統(tǒng)計是通過數(shù)學(xué)統(tǒng)計模型來擬合自然場景的特征,自然圖像的特征通常符合一定的數(shù)學(xué)統(tǒng)計規(guī)律,而失真的存在會改變圖像的自然統(tǒng)計特性,從而使它們的自然場景統(tǒng)計特征變得不自然?;谧匀粓鼍敖y(tǒng)計原理的無參考圖像質(zhì)量評價算法就是通過捕獲失真圖像中的 “非自然現(xiàn)象”來提取圖像特征的。
通過關(guān)鍵詞共現(xiàn)分析初步掌握無參考圖像質(zhì)量評價的發(fā)展趨勢與核心原理后,文中對關(guān)鍵詞進行聚類分析,在調(diào)整處理后獲得了圖10中的6個聚類標簽。聚類標簽可以分為主旨、技術(shù)和應(yīng)用3類。第1類是“#1 image quality assessment”、“#3 distortion”和“#9 no reference” 3個標簽,它們代表的是該領(lǐng)域的主旨問題,即無參考圖像的質(zhì)量評價。第2類為技術(shù)類標簽,由“#0 support vector regression”構(gòu)成[24],是大部分有監(jiān)督式無參考圖像質(zhì)量評價模型的訓(xùn)練算法,除了支持向量回歸的訓(xùn)練方法,近幾年也出現(xiàn)了廣義神經(jīng)網(wǎng)絡(luò)(GRNN)算法[25]和AdaBoosting BPNN算法[26],目前的大多數(shù)研究都旨在尋找更為有效的訓(xùn)練方法。第3類則是應(yīng)用方向的聚類標簽,標簽#2、#7則是無參考圖像質(zhì)量評價可以應(yīng)用的領(lǐng)域,包括分類、迭代重建等,說明無參考圖像質(zhì)量評價擁有廣闊的應(yīng)用前景。
表3 出現(xiàn)頻數(shù)最多的關(guān)鍵詞統(tǒng)計
Tab.3 The most frequently occurring keywords
圖10 關(guān)鍵詞聚類分可視化析圖譜
citespace中的突現(xiàn)分析可以有效地探索領(lǐng)域發(fā)展趨勢,對無參考圖像質(zhì)量評價的關(guān)鍵詞進行了突現(xiàn)分析,見圖11。
從圖11中可以看出,隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、自由能理論等新興的技術(shù)成為了領(lǐng)域文獻關(guān)鍵詞的核心內(nèi)容,也預(yù)示著無參考圖像質(zhì)量評價的發(fā)展重心將向此方向轉(zhuǎn)移。
圖11 關(guān)鍵詞突現(xiàn)分析結(jié)果
從基本分析、文獻共被引分析和關(guān)鍵詞分析可以得出無參考圖像質(zhì)量評價領(lǐng)域的發(fā)展特點:從時空維度來看無參考質(zhì)量評價正在處于高速發(fā)展時期,各國的頂級高校都在從事相關(guān)方面的研究,且大部分相關(guān)研究人員會存在合作關(guān)系。其次從文獻內(nèi)容來看,無參考圖像質(zhì)量評價發(fā)展的重點在評價算法的改進上,只有進一步提高算法的精度才能更適合現(xiàn)實中圖像失真的情況。從研究的主題與熱點來看,提取合適的特征,使用恰當?shù)膶W(xué)習(xí)算法將成為無參考圖像的發(fā)展重點,同時能夠模擬人眼視覺系統(tǒng)的腦科學(xué)領(lǐng)域相關(guān)原理也開始被研究人員所關(guān)注??偟膩碚f,無參考質(zhì)量評價模型正處于從高速發(fā)展向高質(zhì)量發(fā)展轉(zhuǎn)型階段,更高的精度和效率成為了需要解決的核心問題。
針對目前的發(fā)展現(xiàn)狀,對未來的發(fā)展有如下展望。
1)需要在特征數(shù)量與運行速度上達到平衡。特征的選取是模型是否成功的關(guān)鍵,在未來發(fā)展中選擇更為多元化的統(tǒng)計特征將成為重點,從高被引文獻的經(jīng)典算法在中不難發(fā)現(xiàn)目前現(xiàn)存的算法大多使用的是單一特征,這在一定程度上提高了算法的運行速度,卻也拋棄了部分特征。例如目前已存在較為成熟的針對亮度失真類型的無參考失真圖像評價模型,但色度特征的使用覆蓋范圍很低,由于色度信息的多樣性,沒有一組數(shù)量較少但能覆蓋大部分色度信息的特征組合,這使得色度特征的增加與算法運行時間無法得到平衡,在特征數(shù)量與運行速度上達到平衡是無參考圖像評價領(lǐng)域發(fā)展的核心問題。
2)擴展應(yīng)用范圍,選取更為合適的訓(xùn)練數(shù)據(jù)。數(shù)據(jù)庫是出現(xiàn)頻次很高的關(guān)鍵詞,目前使用的訓(xùn)練數(shù)據(jù)庫雖然在文獻仿真測試中效果較好,但并不能很好地服務(wù)于真實場景。數(shù)據(jù)庫中的圖像多是單一失真類型,與現(xiàn)實生活中常見的多元失真有較大差別,因此可以創(chuàng)建新的數(shù)據(jù)庫,采用更貼近現(xiàn)實失真情況的圖片來作為訓(xùn)練數(shù)據(jù)集。
3)加強無參考圖像質(zhì)量評價與人工智能的結(jié)合,從無參考圖像的發(fā)展歷程可以看出它是一門與時俱進的學(xué)科,如何將現(xiàn)階段最先進的人工智能算法融入評價模型是一大熱點問題。應(yīng)該積極探索尋找更高效的訓(xùn)練模型算法提高無參考失真圖像評價算法的準確性和泛化能力。
文中通過對無參考圖像質(zhì)量評價領(lǐng)域1 712篇文獻進行基本分析、共被引分析和關(guān)鍵詞分析總結(jié)了無參考圖像質(zhì)量評價發(fā)展的現(xiàn)狀與前景,指出了無參考圖像質(zhì)量評價在高速發(fā)展的同時應(yīng)該進一步向高質(zhì)量發(fā)展轉(zhuǎn)型,不斷拓寬應(yīng)用領(lǐng)域,提高算法精度,為今后無參考圖像質(zhì)量評價模型的發(fā)展提供了參考。
[1] 郭從洲, 李可, 李賀, 等. 遙感圖像質(zhì)量等級分類的深度卷積神經(jīng)網(wǎng)絡(luò)方法[J/OL]. 武漢大學(xué)學(xué)報(信息科學(xué)版): 1-9[2021–06–18]. https://doi.org/10.13203/j. whugis20200292.
GUO Cong-zhou, LI Ke, LI He, et al. Deep Convolution Neural-Network Method for Remote Sensing Image Quality Clas-sification[J/OL]. Geomatics and Information Science of Wuhan University: 1-9[2021-06-18]. https://doi.org/10.13203/j.whugis20200292.
[2] 徐琳. 基于卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像質(zhì)量評價研究[D]. 南京: 南京理工大學(xué), 2019: 10-15.
XU Lin. Research on Remote Sensing Image Quality Evaluation Based on Convolution Neural Network[D]. Nanjing: Nanjing University of Science and Technology, 2019: 10-15.
[3] 閆鈞華, 白雪含, 張寅, 等. 融合多特征的無參考復(fù)原遙感圖像質(zhì)量評價[J]. 電子設(shè)計工程, 2019, 27(12): 1-7.
YAN Jun-hua, BAI Xue-han, ZHANG Yin, et al. No-Reference Recovered Remote Sensing Image Quality Assessment Based on Fusion of Multiple Features[J]. Electronic Design Engineering, 2019, 27(12): 1-7.
[4] 孫記航, 張祺豐, 李昊巖, 等. 基于模型及自適應(yīng)統(tǒng)計迭代重建優(yōu)化兒童腹部低劑量CT血管造影圖像質(zhì)量[J]. 中國醫(yī)學(xué)影像技術(shù), 2021, 37(5): 749-753.
SUN Ji-hang, ZHANG Qi-feng, LI Hao-yan, et al. Optimization of Image Quality of Abdominal Low Dose CT Angiography in Children Based on Model and Adaptive Statistical Iterative Reconstruction[J]. Chinese Journal of Medical Imaging Technology, 2021, 37(5): 749-753.
[5] 王爍, 余偉, 田傳耕. 基于多階結(jié)構(gòu)表示的超分辨率重構(gòu)圖像質(zhì)量盲評價方法[J]. 重慶郵電大學(xué)學(xué)報(自然科學(xué)版), 2021, 33(2): 280-288.
WANG Shuo, YU Wei, TIAN Chuan-geng. Blind Quality Metric of Super-Resolution Reconstructed Images Based on Multi-Order Structure Representation[J]. Journal of Chongqing University of Posts and Telecommunications (Natural Science Edition), 2021, 33(2): 280-288.
[6] LEE D. Towards a Perceptual Image Quality Assessment Framework for Color Data[D]. Toronto: University of Toronto, 2017: 1-5.
[7] ZHOU Yu, LI Lei-da, WU Jin-jian, et al. Blind Quality Index for Multiply Distorted Images Using Biorder Structure Degradation and Nonlocal Statistics[J]. IEEE Transactions on Multimedia, 2018, 20(11): 3019-3032.
[8] ZHOU Y, LI L, WANG S, et al. No-Reference Quality Assessment for View Synthesis Using DoG-Based Edge Statistics and Texture Naturalness[J]. Transactions on Image Processing, 201 9, 28(9): 4566-4579.
[9] CHANDLER D M, LI S, LIN C S, et al. Seven Challenges in Image Quality Assessment: Past, Present, and Future Research[J]. ISRN Signal Processing, 2013, 20(5): 1-53.
[10] 程晏萍, 黃千芷, 董慈蔚. 大數(shù)據(jù)在供應(yīng)鏈管理中應(yīng)用的研究現(xiàn)狀——基于CiteSpace的知識圖譜分析[J]. 華中師范大學(xué)學(xué)報(自然科學(xué)版), 2021, 55(3): 453-461.
CHENG Yan-ping, HUANG Qian-zhi, DONG Ci-wei. The Application of Big Data in Supply Chain Management: Knowledge Mapping Analysis Based on CiteSpace[J]. Journal of Central China Normal University (Natural Sciences), 2021, 55(3): 453-461.
[11] 鄭燁, 任牡丹, FOUNTAIN J E. 基于文獻計量的中外人工智能政策研究現(xiàn)狀及啟示[J]. 情報雜志, 2021, 40(1): 48-55.
ZHENG Ye, REN Mu-dan, FOUNTAIN J E. Current Status and Enlightenment of Chinese and Foreign Artificial Intelligence Policy Research Based on Bibliometric Analysis[J]. Journal of Intelligence, 2021, 40(1): 48-55.
[12] MITTAL A, MOORTHY A K, BOVIK A C. No-Reference Image Quality Assessment in the Spatial Domain[J]. IEEE Transactions on Image Processing, 2012, 21(12): 4695-4708.
[13] SHARIFI K, LEON-GARCIA A. Estimation of Shape Parameter for Generalized Gaussian Distributions in Subband Decompositions of Video[J]. IEEE Transactions on Circuits and Systems for Video Technology, 1995, 5(1): 52-56.
[14] MITTAL A, SOUNDARARAJAN R, BOVIK A C. Making a “Completely Blind” Image Quality Analyzer[J]. IEEE Signal Process Lett, 2013, 20(3): 209-212.
[15] ZHANG Lin, ZHANG Lei, BOVIK A C. A Feature-Enriched Completely Blind Image Quality Evaluator[J]. IEEE Trans Image Process, 2015, 24(8): 2579-2591.
[16] SAAD M A, BOVIK A C, CHARRIER C. Blind Image Quality Assessment: A Natural Scene Statistics Approach in the DCT Domain[J]. IEEE Transactions on Image Processing, 2012, 21(8): 3339-3352.
[17] MOORTHY A K, BOVIK A C. Blind Image Quality Assessment: From Natural Scene Statistics to Perceptual Quality[J]. IEEE Transactions on Image Processing, 2011, 20(12): 3350-3364.
[18] XUE Wu-feng, MOU Xuan-qin, ZHANG Lei, et al. Blind Image Quality Assessment Using Joint Statistics of Gradient Magnitude and Laplacian Features[J]. IEEE Transactions on Image Processing, 2014, 23(11): 4850-4862.
[19] GU Ke, ZHAI Guang-tao, YANG Xiao-kang, et al. Using Free Energy Principle for Blind Image Quality Assessment[J]. IEEE Transactions on Multimedia, 2015, 17(1): 50-63.
[20] PONOMARENKO N, JIN L, IEREMEIEV O, et al. Image Database TID2013: Peculiarities, Results and Perspectives[J]. Signal Process-Image Commun, 2015 (30): 57-77.
[21] KANG Le, YE Peng, LI Yi, et al. Convolutional Neural Networks for No-Reference Image Quality Assessment[C]// IEEE Conference on Computer Vision And Pattern Recognition, OH, 2014: 1733-1740.
[22] TU Zheng-zhong, WANG Yi-lin, BIRKBERK N, et al. UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated Content[J]. IEEE Transactions on Image Processing, 2021, 30: 4449-4464.
[23] SHEIKH H R, BOVIK A C, DE VECIANA G. An Information Fidelity Criterion for Image Quality Assessment Using Natural Scene Statistics[J]. IEEE Transactions on Image Processing, 2005, 14(12): 2117-2128.
[24] MOORTHY A K, BOVIK A C. A Two-Step Framework for Constructing Blind Image Quality Indices[J]. IEEE Signal Processing Letters, 2010, 17(5): 513-516.
[25] LI Chao-feng, BOVIK A C, WU Xiao-jun. Blind Image Quality Assessment Using a General Regression Neural Network[J]. IEEE Transactions on Neural Networks, 2011, 22(5): 793-799.
[26] 余偉, 徐晶晶, 劉玉英, 等. 基于自然場景統(tǒng)計的色域映射圖像無參考質(zhì)量評價[J]. 激光與光電子學(xué)進展, 2020, 57(14): 69-78.
YU Wei, XU Jing-jing, LIU Yu-ying, et al. No-Reference Quality Evaluation for Gamut Mapping Images Based on Natural Scene Statistics[J]. Laser & Optoelectronics Progress, 2020, 57(14): 69-78.
Current Research Status and Prospect of No-reference Image Quality Assessment
SHAN Yue, LIU Duan, WAN Xiao-xia
(Research Center of Image Communication and Printing and Packaging, Wuhan University, Wuhan 430072, China)
The work aims to further understand the development process and research hotspots of no-reference image quality assessment and provide reference for subsequent related research. CiteSpace literature visualization software was used to conduct basic analysis, co-citation analysis and keyword analysis on 1 712 items of literature retrieved from Web of Science from 2000 to 2021. The development characteristics of no-reference image quality assessment were obtained by analyzing the visualization atlas. The analysis results showed that no-reference image quality assessment was currently in a stage of rapid development, and countries all over the world had made achievements in this field. At present, there were more mature no-reference image assessment algorithms, but there was still a gap in accuracy compared with subjective assessment. In the future, researchers should combine today's artificial intelligence technology to promote the transition from high-speed development to high-quality development of no-reference image quality assessment.
image quality assessment; no-reference image quality assessment; CiteSpace; feature extraction; natural scene statistics; bibliometric analysis
TP391
A
1001-3563(2022)13-0296-09
10.19554/j.cnki.1001-3563.2022.13.037
2020–12–24
單月(1997—),女,武漢大學(xué)碩士生,主攻無參考圖像質(zhì)量評價和色域映射圖像質(zhì)量。
萬曉霞(1965—),女,武漢大學(xué)教授、博導(dǎo),主要研究方向為顏色科學(xué)和信息系統(tǒng)。
責(zé)任編輯:曾鈺嬋