亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于冗余字典學(xué)習(xí)的圖像修補(bǔ)算法

        2018-03-19 02:45:40王鑫朱行成寧晨王慧斌
        關(guān)鍵詞:待處理字典圖像

        王鑫,朱行成,寧晨,王慧斌

        1.河海大學(xué)計(jì)算機(jī)與信息學(xué)院,南京211100

        2.南京師范大學(xué)物理科學(xué)與技術(shù)學(xué)院,南京210000

        基于冗余字典學(xué)習(xí)的圖像修補(bǔ)算法

        王鑫1,朱行成1,寧晨2,王慧斌1

        1.河海大學(xué)計(jì)算機(jī)與信息學(xué)院,南京211100

        2.南京師范大學(xué)物理科學(xué)與技術(shù)學(xué)院,南京210000

        1 引言

        數(shù)字圖像采集、傳輸、壓縮、存儲(chǔ)或編輯修改過程中,有時(shí)會(huì)造成圖像像素信息的丟失,影響圖像的視覺效果。如何對缺失部分進(jìn)行修補(bǔ),改善圖像的質(zhì)量,直接影響到后續(xù)的應(yīng)用。因此,設(shè)計(jì)有效的圖像修補(bǔ)算法以提高受損圖像的質(zhì)量,具有非常重要的現(xiàn)實(shí)意義和應(yīng)用價(jià)值[1]。

        圖像修補(bǔ)技術(shù)是利用已知的信息推測并恢復(fù)丟失的信息,經(jīng)過多年的研究發(fā)展,已經(jīng)涌現(xiàn)出多種算法。這些算法歸納起來可以分為兩種類型:基于偏微分方程和變分算法理論的方法、基于樣本紋理合成技術(shù)的方法。其中,第一類方法的修補(bǔ)思路是從圖像中已知的區(qū)域擴(kuò)展到未知區(qū)域,即圖像中缺失的部分。例如,Takeda等人[2]提出Steering核回歸(Kernel Regression,KR)模型,通過各向異性距離自適應(yīng)調(diào)節(jié)權(quán)值,建立了非局部均值方法和核回歸模型之間的聯(lián)系,在圖像復(fù)原問題中取得了良好的應(yīng)用效果。Chan和Shen[3]提出了一個(gè)基于全變分模型(Total Variation,TV)的圖像缺失信息修補(bǔ)方法,該算法在修補(bǔ)過程中會(huì)選擇最近的直線距離來連接斷裂的線性結(jié)構(gòu)物體,因此無法滿足視覺連通性原則,修補(bǔ)效果不是很好。為此,Chan和Shen[4]隨后又提出了利用基于曲率擴(kuò)散的非線性偏微分方程修補(bǔ)模型來解決這個(gè)問題??紤]到圖像信號具有非局部自相似性,Peyré等人[5]在非局部圖上擴(kuò)展全變分模型,進(jìn)一步有效解決了圖像修補(bǔ)這一典型的逆問題?;谄⒎址匠毯妥兎炙惴ɡ碚摰膱D像修補(bǔ)方法在處理較小的缺失區(qū)域時(shí),可以很好地恢復(fù)結(jié)構(gòu)層信息,比如邊緣部分;但是在處理較大區(qū)域時(shí)效果不是很好,容易引入模糊和平滑效應(yīng)。第二類基于樣本紋理合成技術(shù)的圖像修補(bǔ)方法,其思想是從待修補(bǔ)區(qū)域邊緣開始分割圖像小塊,從缺失圖像的已知部分尋找與待處理的圖像小塊最匹配的圖像塊,利用對應(yīng)位置上的元素來進(jìn)行圖像修補(bǔ)。例如,Efros和Leung[6]提出通過從缺失圖像的剩余區(qū)域中尋找最匹配的圖像塊來合成缺失區(qū)域的紋理層信息。但需要注意的是,自然圖像除了具有紋理層之外,還具有結(jié)構(gòu)層信息,僅修補(bǔ)圖像的紋理層并不能取得很好的修補(bǔ)效果。為此,Criminisi等人[7]針對圖像修補(bǔ)問題在紋理合成的同時(shí)考慮了結(jié)構(gòu)信息的傳播,利用合成紋理時(shí)的優(yōu)先順序來保持結(jié)構(gòu)信息的修補(bǔ),提升了修補(bǔ)的性能。Chen等人[8]分別針對圖像缺失位置的結(jié)構(gòu)信息和紋理信息進(jìn)行圖像修補(bǔ),其首先基于草圖模型重構(gòu)缺失圖像的結(jié)構(gòu)信息,然后利用基于圖像塊的紋理合成方法去合成圖像中缺失的區(qū)域?;跇颖炯y理合成技術(shù)的圖像修補(bǔ)方法可以處理大塊的缺失區(qū)域,更好地恢復(fù)待修補(bǔ)區(qū)域的紋理信息,但是該類修補(bǔ)算法具有貪婪性,在處理過程中可能會(huì)引入不相關(guān)的物體。

        近年來,稀疏表示(Sparse Representation,SR)作為一種新興的圖像表示模型,能夠利用很少量的稀疏捕獲到圖像的主要信息和內(nèi)在幾何結(jié)構(gòu),并且對噪聲與誤差更加魯棒,在圖像超分辨率重建、壓縮感知成像、圖像分割、圖像復(fù)原等問題中取得了良好的效果[9-11]。針對圖像修補(bǔ)問題,由于圖像在退化過程中丟失了信息,圖像修補(bǔ)逆問題通常具有病態(tài)特性。圖像的先驗(yàn)?zāi)P驮趫D像修補(bǔ)問題中起著重要作用。利用基于圖像稀疏性的正則化模型可以對真實(shí)解空間進(jìn)行正則化約束,從而將具有不適定性的圖像修補(bǔ)病態(tài)問題轉(zhuǎn)換為適定問題,獲得符合人眼視覺特性的穩(wěn)定解。為此,本文在稀疏表示理論研究的基礎(chǔ)上,提出了基于不同冗余字典的圖像修補(bǔ)算法。該方法首先設(shè)計(jì)采用離散余弦變換(Discrete Cosine Transform,DCT)[12]或K-奇異值分解(K-Singular Value Decomposition,K-SVD)算法[13]獲得冗余DCT字典、KSVDG全局字典及KSVDA自適應(yīng)字典等三種不同的字典;然后分別基于上述三種不同的冗余字典,稀疏表示待處理圖像;最終圖像中缺損的部分將通過冗余字典和稀疏系數(shù)有效地表示出來。實(shí)驗(yàn)結(jié)果表明,提出的算法能夠得到良好的圖像修補(bǔ)結(jié)果。

        2 圖像修補(bǔ)問題描述

        圖像修補(bǔ)是圖像恢復(fù)研究中的一個(gè)重要方向,它的目的是根據(jù)圖像中殘留的信息,恢復(fù)圖像中缺失的部分,以達(dá)到更好的視覺效果,這個(gè)過程可以形象地用圖1表示。圖中,E表示圖像中殘缺的部分,即待修補(bǔ)的部分,Ec為圖像中已知的部分,修補(bǔ)問題即描述為如何通過Ec恢復(fù)出E。

        圖1 圖像修補(bǔ)問題描述

        上述圖像退化過程還可以表示為如下數(shù)學(xué)問題[14]:

        其中,x表示原始的清晰圖像,y表示有部分內(nèi)容缺失的待修補(bǔ)圖像,η是指圖像退化過程中可能引入的噪聲(一般認(rèn)為是加性高斯噪聲)。H是圖像缺失問題中的退化算子,當(dāng)H為只包含0和1兩種元素的掩碼時(shí),其可以將圖像中部分位置的像素值置0,造成圖像內(nèi)容缺失的效果。圖像修補(bǔ)的目的就是從缺失的圖像y中恢復(fù)出原始的清晰圖像x。

        3 提出的算法

        3.1 算法整體框架

        信號的稀疏表示理論發(fā)展至今,在圖像處理領(lǐng)域眾多問題,如圖像壓縮、圖像去噪中得到了廣泛的應(yīng)用,并為圖像復(fù)原問題的研究打開了新的方向。但是,目前如何將稀疏表示理論在圖像修補(bǔ)問題中得以有效地應(yīng)用仍然是需要進(jìn)一步研究的內(nèi)容。基于此,本文提出了基于不同冗余字典學(xué)習(xí)的圖像修補(bǔ)算法,其采用離散余弦變換或K-SVD方法學(xué)習(xí)了三種不同類型的冗余字典,即:DCT字典(記為DCT)、全局字典(記為KSVDG)及自適應(yīng)字典(記為KSVDA);然后分別基于這三種字典,對待修補(bǔ)圖像進(jìn)行稀疏表示;最終原始圖像中缺損的部分就可以由這些冗余字典和計(jì)算得到的稀疏編碼系數(shù)表示出來。圖2給出了提出算法的整體結(jié)構(gòu)圖。

        3.2 算法具體步驟

        提出算法的具體步驟如下:

        (1)給定原始待修補(bǔ)圖像y∈?N,如圖3所示(這里給出了兩個(gè)退化圖像例子)。首先對其進(jìn)行可重疊分塊處理,每一個(gè)圖像塊可以表示為其中表示從待處理圖像中選取圖像塊的矩陣算子。

        圖2 提出算法的結(jié)構(gòu)圖

        圖3 原始待修補(bǔ)圖像示例

        (2)當(dāng)采用稀疏表示理論進(jìn)行圖像修補(bǔ)時(shí),假設(shè)冗余字典D已知,結(jié)合退化模型(1),則圖像修補(bǔ)問題可以表示為:

        (3)訓(xùn)練冗余字典D∈?B×K,其中K是字典中原子的個(gè)數(shù),即字典的列數(shù),K>B,保證冗余。為了得到適用于圖像修補(bǔ)問題的冗余字典,分別采用離散余弦變換方法計(jì)算得到結(jié)構(gòu)穩(wěn)定的DCT字典、K-SVD方法訓(xùn)練得到KSVDG全局字典和KSVDA自適應(yīng)字典。其中,全局訓(xùn)練字典是指從大量清晰的自然圖像塊中訓(xùn)練得到的,而自適應(yīng)字典是從待處理的圖像中獲得圖像塊,作為訓(xùn)練樣本集獲得的冗余字典。

        利用K-SVD的方法訓(xùn)練冗余字典的詳細(xì)訓(xùn)練過程如下:首先,給定一組訓(xùn)練圖像塊S=[]s1,s2,…,sJ,其中J代表訓(xùn)練圖像塊的個(gè)數(shù),字典學(xué)習(xí)和稀疏系數(shù)的聯(lián)合優(yōu)化問題可以表示為:

        圖4給出了不同冗余字典的示例圖。其中,圖4(a)是經(jīng)過離散余弦變換得到DCT字典,圖4(b)是從一組大量的清晰自然圖像中訓(xùn)練得到的KSVDG全局字典,其中圖中每一個(gè)小塊表示一個(gè)原子??梢钥闯鯠CT字典和KSVDG全局字典在結(jié)構(gòu)上有很大不同,KSVDG全局字典中的原子會(huì)包含有更多的圖像結(jié)構(gòu)信息。圖4(c)是從被文字污染的圖3(a)中利用K-SVD方法學(xué)習(xí)得到的KSVDA自適應(yīng)字典,圖4(d)是從被文字污染的圖3(b)中利用K-SVD方法學(xué)習(xí)得到的KSVDA自適應(yīng)字典,比較這兩幅圖像可以看出,兩個(gè)KSVDA自適應(yīng)字典結(jié)構(gòu)上也存在不同,這說明自適應(yīng)字典對待處理圖像具有適應(yīng)性,即待處理圖像在其相應(yīng)的自適應(yīng)字典上會(huì)有更稀疏的表示,從而得到更好的處理結(jié)果。

        圖4 不同冗余字典示例

        (4)訓(xùn)練得到冗余字典后,采用OMP算法計(jì)算每個(gè)圖像小塊yk在冗余字典D上的稀疏系數(shù)α?k,則恢復(fù)后的每一個(gè)圖像塊x?k可以表示為:

        (5)依次重建所有的圖像塊,則恢復(fù)后的完整的圖像x就可以表示為:

        通過式(5),即可將恢復(fù)后的圖像塊放置在原來的位置上,而對于圖像塊間相互重疊的部分取平均處理,這樣可以有效減少圖像塊在各重疊區(qū)域的誤差,獲得更好的修補(bǔ)結(jié)果。

        本文提出的上述修補(bǔ)方法主要利用了自然圖像的稀疏性,該特性指明圖像信號可以由冗余字典中少量原子的線性組合準(zhǔn)確表示出來,也就是說字典中的原子結(jié)構(gòu)中包含有自然圖像恢復(fù)的關(guān)鍵信息,所以利用冗余字典中少量原子的線性組合稀疏的表示待處理圖像信號,則圖像中缺失的部分就可以由冗余字典和更新得到的稀疏系數(shù)表示出來,實(shí)現(xiàn)圖像修補(bǔ)。

        4 實(shí)驗(yàn)和分析

        在本實(shí)驗(yàn)中,選取的測試圖片大小為256×256,對待修補(bǔ)圖像進(jìn)行重疊分塊處理,每一小塊的大小為8×8,獲取圖像塊時(shí)的步長為1,則共處理的圖像小塊數(shù)為62 001。

        字典D大小設(shè)置為64×256,保證冗余,根據(jù)字典的不同,本文基于稀疏表示模型的圖像修補(bǔ)算法分為三種情況,分別是基于結(jié)構(gòu)固定的DCT字典、訓(xùn)練得到的全局字典和自適應(yīng)字典。全局訓(xùn)練字典由K-SVD算法訓(xùn)練得到,迭代了180次,在每次的迭代中,采用OMP算法求解稀疏系數(shù),系數(shù)的稀疏度設(shè)置為6。訓(xùn)練了超過100 000幅8×8的圖像小塊,該圖像塊都是從清晰的自然圖像中獲得。而自適應(yīng)字典則是從缺失的圖像中訓(xùn)練得到,具有自適應(yīng)性,采用K-SVD方法訓(xùn)練,迭代10次獲得。下面將給出分別基于上述三種不同的冗余字典得到的圖像修補(bǔ)結(jié)果。

        4.1 評價(jià)標(biāo)準(zhǔn)

        在給出實(shí)驗(yàn)結(jié)果和分析之前,首先選擇兩種典型的全參考圖像質(zhì)量評價(jià)方法,即峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)[18]和特征相似性方法(Feature Similarity,F(xiàn)SIM)[19],用于后續(xù)定量衡量修補(bǔ)后圖像的質(zhì)量。這里,所謂全參考圖像質(zhì)量評價(jià)方法,是指已知原始的清晰圖像,通過把處理后的圖像和原始的清晰圖像作比較來評價(jià)圖像質(zhì)量,可見,這是一類切實(shí)有效的評價(jià)標(biāo)準(zhǔn)。

        峰值信噪比的定義如下:

        其中,MSE為圖像灰度值的均方誤差,M和N分別代表圖像的長和寬,和分別代表參考圖像(原始清晰圖像)和失真圖像在位置處的灰度值。n是圖像的深度,本文中測試的圖像深度均為8。峰值信噪比被用來評價(jià)信號失真率,通常來說,該值越大,則代表圖像失真越小。

        從峰值信噪比的計(jì)算公式可以看出,峰值信噪比只是計(jì)算了圖像間灰度值的差異水平,并沒有考慮圖像塊間的結(jié)構(gòu)相似性。為此,下面又采用了特征相似性方法來評價(jià)圖像恢復(fù)后的質(zhì)量,該標(biāo)準(zhǔn)利用了梯度信息和相位一致性信息兩個(gè)特征,相位一致性用于體現(xiàn)局部結(jié)構(gòu)信息重要性,而圖像梯度用于衡量圖像對比度,該標(biāo)準(zhǔn)從多角度來評價(jià)復(fù)原后的圖像,也更加客觀和準(zhǔn)確。要計(jì)算特征相似度,首先要求解各像素點(diǎn)的相位一致性和梯度值。設(shè)和分別是原始圖像和復(fù)原后圖像中某像素點(diǎn)的相位一致性的值和梯度值。首先求得下面兩部分:

        其中,T1和T2為常量。則原始圖像和復(fù)原后圖像的相似性記為:

        其中,α和β為常數(shù),通常設(shè)置為1。要說明的是,圖像上任意像素點(diǎn)的顯著性是不同的,如果原始圖像和復(fù)原后圖像上相同位置的像素點(diǎn)的相位一致性的值都比較大,則說明該位置更容易引起人們的興趣。所以這里采用來調(diào)節(jié)相似性SL()x在該評價(jià)標(biāo)準(zhǔn)中的重要性。最終,圖像的特征相似度定義為:

        其中,Ω代表整幅圖像范圍。

        上述給出的是求解灰度圖像的特征相似度值,但是在實(shí)際情況下,經(jīng)常處理的是彩色圖像,所以下面給出彩色圖像的特征相似度性值(FSIM)的求解方法。在彩色圖像的特征相似性求解公式里,增加了彩色圖像的色度信息,首先將原始圖像從RGB空間轉(zhuǎn)換到Y(jié)IQ空間,其中I和Q代表圖像的色度信息,Y則代表圖像的亮度信息,記和分別是原始圖像和復(fù)原后圖像的色度信息,則原圖和復(fù)原后圖像色度間的相似度可表示為:

        其中,T3和T4是調(diào)節(jié)因子,為了計(jì)算簡單,這里設(shè)置兩者的值相等。可以通過和得到圖像的色度信息SC()

        x,如下所示:

        這樣,彩色圖像FSIM的求解可以定義為:

        其中,λ為公式中的調(diào)節(jié)因子,可以調(diào)節(jié)色度信息在彩色空間所占的比值。由于彩色圖像的FSIM加入了圖像的色度信息,所以該評價(jià)標(biāo)準(zhǔn)更為可靠,效果也更好。本節(jié)實(shí)驗(yàn)中采用的就是求解彩色圖像的FSIM值。一般來說,該值越接近1,代表圖像的主觀質(zhì)量越好。

        4.2 結(jié)果和分析

        為了證明提出的基于不同冗余字典的圖像修補(bǔ)算法的修補(bǔ)效果,這里將提出算法和現(xiàn)有的兩種代表性算法進(jìn)行了比較。第一種比較算法是傳統(tǒng)的基于全變分模型的修補(bǔ)方法(記為TV算法)[3],第二種比較算法是經(jīng)典的基于核回歸(Kernel Regression,KR)的修補(bǔ)方法(記為KR算法)[2]。圖5~圖9分別給出了三種不同的算法在5幅被文字污染的景物圖像的去字效果。在每一幅圖中,(a)表示原始清晰圖像,(b)表示被文字污染的退化圖像,(c)是TV算法修補(bǔ)后的結(jié)果,(d)是KR算法修補(bǔ)后的結(jié)果,(e)~(g)是提出的基于不同冗余字典(即DCT、KSVDG、KSVDA)的稀疏表示算法修補(bǔ)后的結(jié)果,這些算法分別記為SR-DCT算法、SR-KSVDG算法和SR-KSVDA算法。

        圖5 圖像修補(bǔ)效果對比示例一

        圖6 圖像修補(bǔ)效果對比示例二

        對比最終定性實(shí)驗(yàn)結(jié)果可以看出,TV算法、KR算法,及本文設(shè)計(jì)的基于不同冗余字典的圖像修補(bǔ)算法都可以有效消除加在原始圖像上的英文或中文字符,對圖像整體進(jìn)行修復(fù)。但是,本文的算法視覺效果更好。例如,比較圖6中(c)、(d)和(e)~(g)可以看出,(c)圖和(d)圖中湖邊的臺階處可以看到英文字符并沒有去除干凈,而經(jīng)過本文提出的算法處理后得到的圖(e)~(g)看起來更接近原始圖像。

        圖7 圖像修補(bǔ)效果對比示例三

        圖8 圖像修補(bǔ)效果對比示例四

        圖9 圖像修補(bǔ)效果對比示例五

        下面用峰值信噪比PSNR和特征相似度FSIM兩個(gè)標(biāo)準(zhǔn)來定量評價(jià)修補(bǔ)后圖像的質(zhì)量,結(jié)果如表1所示。每一組實(shí)驗(yàn)中最高的峰值信噪比和特征相似度值均用粗體表示??梢钥闯?,表中后三列的值都高于第二列和第三列的值,說明本章提出的基于不同冗余字典的修補(bǔ)算法比全變分修補(bǔ)算法或核回歸修補(bǔ)算法的效果要更好,修補(bǔ)后的圖像具有更高的峰值信噪比和特征相似度值,表明修補(bǔ)后的圖像失真更小,局部結(jié)構(gòu)信息也更豐富,有更好的視覺效果。后三列是基于不同冗余字典的稀疏表示算法的修補(bǔ)結(jié)果,比較后三列的值可以看到,基于自適應(yīng)字典的稀疏表示算法(SR-KSVDA)在多數(shù)實(shí)驗(yàn)圖像上取得了較好的結(jié)果,這是因?yàn)镵SVDA自適應(yīng)字典是從待處理的圖像中訓(xùn)練得到的,可以獲得更好的稀疏性,所以相對于DCT和KSVDG字典,會(huì)有更好的處理結(jié)果。

        表1 不同算法修補(bǔ)后的圖像PSNR/FSIM結(jié)果

        5 結(jié)束語

        本文提出了基于不同冗余字典的圖像修補(bǔ)方法。該方法首先利用離散余弦變換獲得冗余DCT字典,或利用K-SVD方法訓(xùn)練獲得KSVDG全局字典及KSVDA自適應(yīng)字典;然后基于上述三種不同的冗余字典分別稀疏表示待處理圖像;最終圖像中缺損的部分就可以由冗余字典和更新得到的稀疏系數(shù)表示出來。實(shí)驗(yàn)將提出的基于不同冗余字典的圖像修補(bǔ)方法與經(jīng)典的基于全變分模型的圖像修補(bǔ)算法、基于核回歸的圖像修補(bǔ)算法進(jìn)行了比較,結(jié)果證明了提出方法的有效性。

        [1] 宋錦萍,鄭昌燕.高階模型的快速圖像修補(bǔ)[J].計(jì)算機(jī)工程與應(yīng)用,2015,51(11):154-157.

        [2] Takeda H,F(xiàn)arsiu S,Milanfar P.Kernel regression for image processing and reconstruction[J].IEEE Transactions on Image Processing,2007,16(2):349-366.

        [3] Chan T,Shen J.Local inpainting models and TV inpainting[J].SIAM Journal on Applied Mathematics,2010,62(3):1019-1043.

        [4] Chan T,Shen J.Nontexture inpainting by curvature-driven diffusions[J].Journal of Visual Communication&Image Representation,2001,12(4):436-449.

        [5] Peyré G,Bougleux S,Cohen L.Non-local regularization of inverse problems[C]//Proceedings of European Conference on Computer Vision,Marseille,F(xiàn)rance,2008:57-68.

        [6] Efros A A,Leung T K.Texture synthesis by non-parametric sampling[C]//Proceedings of IEEE International Conference on Computer Vision,Washington,DC,USA,1999:1033-1038.

        [7] Criminisi A,Pérez P,Toyama K.Object removal by exemplar-based inpainting[C]//Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition,Madison,Wisconsin,USA,2003:721-728.

        [8] Chen Y,Luan Q,Li H,et al.Sketch-guided texture-based image inpainting[C]//Proceedings of IEEE International Conference on Image Processing,Atlanta,GA,USA,2006:1997-2000.

        [9] Wang X,Shen S,Ning C,et al.Multi-class remote sensing object recognition based on discriminative sparse representation[J].Applied Optics,2016,55(6):1381-1394.

        [10] 費(fèi)博雯,邵良杉,劉萬軍.基于子區(qū)域匹配的稀疏表示跟蹤算法[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(9):201-207.

        [11] Wang X,Shen S,Ning C,et al.A sparse representationbased method for infrared dim target detection under sea-sky background[J].Infrared Physics&Technology,2015,71:347-355.

        [12] Liu Y,Yang Z,Yang L.Online signature verification based on DCT and sparse representation[J].IEEE Transactions on Cybernetics,2015,45(11):2498-2511.

        [13] Jiang Z,Zhe L,Davis L.Label consistent K-SVD:Learning a discriminative dictionary for recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(11):2651-2664.

        [14] Zhang J,Zhao D,Gao W.Group-based sparse representation for image restoration[J].IEEE Transactions on Image Processing,2014,23(8):3336-3351.

        [15] Mairal J,Bach F,Ponce J.Task-driven dictionary learning[J].IEEETransactionsonPatternAnalysisand Machine Intelligence,2012,34(4):791-804.

        [16] Isaac Y,Barthélemy Q,Atif J,et al.Multi-dimensional sparse structured signal approximation using split bregmaniterations[C]//ProceedingsofIEEEInternational Conference on Acoustics,Speech and Signal Processing,Vancouver,BC,Canada,2013:3826-3830.

        [17] Kowalski M.Thresholding RULES and iterative shrinkage/thresholding algorithm:A convergence study[C]//Proceedings of IEEE International Conference on Image Processing,Paris,F(xiàn)rance,2015:4151-4155.

        [18] 蔣剛毅,黃大江,王旭,等.圖像質(zhì)量評價(jià)方法研究進(jìn)展[J].電子與信息學(xué)報(bào),2010,32(1):219-226.

        [19] Zhang L,Zhang L,Mou X,et al.FSIM:A feature similarity index for image quality assessment[J].IEEE Transactions on Image Processing,2011,20(8):2378-2386.

        WANG Xin,ZHU Hangcheng,NING Chen,et al.Image inpainting based on redundant dictionary learning.Computer Engineering andApplications,2018,54(6):198-204.

        WANG Xin1,ZHU Hangcheng1,NING Chen2,WANG Huibin1

        1.College of Computer and Information,Hohai University,Nanjing 211100,China
        2.School of Physics and Technology,Nanjing Normal University,Nanjing 210000,China

        Based on the sparse representation theory,this paper proposes an image inpainting framework by using different redundant dictionaries.First of all,it utilizes the Discrete Cosine Transform(DCT)or K-Singular Value Decomposition(K-SVD)to learn three different dictionaries,i.e.,the redundant DCT dictionary,K-SVD global(KSVDG)dictionary and K-SVD Adaptive(KSVDA)dictionary.Then,the image to be inpainted is sparsely represented by using these three different redundant dictionaries,respectively.At last,based on the redundant dictionaries and sparse coefficients,the missing part of the image can be well expressed.Experimental results show that the proposed algorithm achieves good visual effects.Further,compared with several existing classical image inpainting methods,it produces superior results in terms of some main image quality evaluation indexes such as peak signal-to-noise ratio and feature similarity.

        image inpainting;redundant dictionary;sparse representation

        在稀疏表示理論研究的基礎(chǔ)上,提出了基于不同冗余字典的圖像修補(bǔ)算法。首先設(shè)計(jì)采用離散余弦變換或K-SVD算法獲得冗余DCT字典、KSVDG全局字典及KSVDA自適應(yīng)字典等三種不同的字典;然后分別基于上述三種不同的冗余字典,稀疏表示待處理圖像;最終圖像中缺損的部分將通過冗余字典和稀疏系數(shù)有效地表示出來。實(shí)驗(yàn)結(jié)果表明,提出的算法修補(bǔ)后的圖像視覺效果好,并在峰值信噪比、特征相似度等主要圖像質(zhì)量評價(jià)指標(biāo)上優(yōu)于現(xiàn)有幾種經(jīng)典的圖像修補(bǔ)方法。

        圖像修補(bǔ);冗余字典;稀疏表示

        2017-07-10

        2017-10-23

        1002-8331(2018)06-0198-07

        A

        TP394.1

        10.3778/j.issn.1002-8331.1707-0161

        國家自然科學(xué)基金(No.61603124,No.61374019);中央高校基本科研業(yè)務(wù)費(fèi)專項(xiàng)資金(No.2015B19014);江蘇省“333高層次人才培養(yǎng)工程”;江蘇省“六大人才高峰”高層次人才項(xiàng)目(No.XYDXX-007)。

        王鑫(1981—),女,博士,副教授,研究領(lǐng)域?yàn)閳D像處理,模式識別,計(jì)算機(jī)視覺,E-mail:wang_xin@hhu.edu.cn;朱行成(1990—),男,碩士研究生,研究領(lǐng)域?yàn)閳D像處理和分析;寧晨(1978—),男,博士研究生,講師,研究領(lǐng)域?yàn)閴嚎s感知理論和應(yīng)用;王慧斌(1967—),男,博士,教授,研究領(lǐng)域?yàn)閳D像處理、視覺計(jì)算。

        猜你喜歡
        待處理字典圖像
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        改進(jìn)的LapSRN遙感圖像超分辨重建
        財(cái)產(chǎn)清查結(jié)果的賬務(wù)處理
        有趣的圖像詩
        “待處理”事項(xiàng)在科學(xué)事業(yè)單位的核算探討
        政府會(huì)計(jì)核算中待處理財(cái)產(chǎn)損溢賬戶應(yīng)用探究
        我是小字典
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        無法收回的房租押金,應(yīng)怎樣進(jìn)行賬務(wù)處理
        蜜桃成熟时日本一区二区| 亚洲国产美女精品久久久| 国产精品免费久久久久软件| 欧美精品AⅤ在线视频| 亚洲视频一区二区久久久| 丝袜美腿在线观看视频| 97精品人妻一区二区三区蜜桃| 久久不见久久见免费影院国语 | 人妻av一区二区三区av免费| 精品自拍偷拍一区二区三区| 亚洲日本人妻少妇中文字幕| 国产精品办公室沙发| 婷婷久久久亚洲欧洲日产国码av | 天天狠天天添日日拍| 国产一区二区不卡老阿姨| 97av在线播放| 亚洲一区免费视频看看| 蜜芽亚洲av无码精品色午夜| 熟女少妇av一区二区三区| 丝袜美腿av在线观看| 亚洲av永久无码精品放毛片| 久久久久久成人毛片免费看| 青青青国产免A在线观看| 91精品国产高清久久福利| 成人艳情一二三区| 国产成人无码一区二区三区在线| 中文岛国精品亚洲一区| 98精品国产高清在线xxxx| 久久久噜噜噜噜久久熟女m| 国产成人91久久麻豆视频| 色avav色av爱avav亚洲色拍 | 欧美激情中文字幕在线一区二区| 国产一级一厂片内射视频播放 | 成人免费在线亚洲视频| 少妇愉情理伦片高潮日本| 成在人线av无码免费| 人妻丰满熟妇AV无码片| 日本大片在线一区二区三区| 亚洲最大中文字幕熟女| 午夜色大片在线观看| 国产在线无码免费视频2021|