亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于循環(huán)生成對抗網(wǎng)絡(luò)的壁畫色彩修復(fù)算法

        2023-09-02 07:04:20曹建芳靳夢燕李朝霞陳澤宇
        關(guān)鍵詞:色彩融合實(shí)驗(yàn)

        曹建芳,靳夢燕,李朝霞,陳澤宇,馬 尚

        (1.太原科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,山西 太原 030024;2.忻州師范學(xué)院 計(jì)算機(jī)系,山西 忻州 034000)

        敦煌唐代壁畫由于年代久遠(yuǎn),出現(xiàn)變色、褪色等問題。傳統(tǒng)的人工修復(fù)方法依賴于科研工作者對史料的全面了解和豐富的修復(fù)經(jīng)驗(yàn)。隨著計(jì)算機(jī)技術(shù)的發(fā)展,數(shù)字圖像處理為壁畫修復(fù)提供了強(qiáng)大支持,降低了修復(fù)難度,減少了對人工修復(fù)的依賴。近年來,壁畫數(shù)字修復(fù)技術(shù)迅速發(fā)展,Pan等[1]提出從壁畫高光譜圖像捕獲從可見光到近紅外光光譜范圍的圖像,有效提取了褪色壁畫圖案,但當(dāng)壁畫圖像不夠清晰完整時,該方法的精度較低。Cao等[2]利用高光譜成像技術(shù),提出一種基于暗通道先驗(yàn)和Retinex雙邊濾波的灰暗壁畫修復(fù)方法,但對于復(fù)雜壁畫圖像的細(xì)節(jié)處理仍有待改進(jìn)。楊筱平等[3]首次采用GrabCut分割算法[4],對壁畫圖像進(jìn)行分割和色彩轉(zhuǎn)移自動取樣,實(shí)現(xiàn)了壁畫圖像色彩修復(fù)。張豪遠(yuǎn)等[5]在壁畫圖像中提取局部分割區(qū)域的特征,并在多尺度空間中提取紋理特征以確定最佳匹配塊,對破損的壁畫進(jìn)行虛擬修復(fù),但無法為大面積破損的壁畫圖像匹配最合適的特征塊,修復(fù)效果較差。Liu等[6]使用部分卷積對非規(guī)則化破損區(qū)域進(jìn)行修復(fù),但一些結(jié)構(gòu)稀疏的圖像會修復(fù)失敗。焦莉娟等[7]提出一種改進(jìn)的塊匹配修復(fù)算法,克服了Criminisi算法[8-9]中的錯誤填充問題,但只適用于修復(fù)跨度較小的破損區(qū)域。Li等[10]提出一種基于方向擴(kuò)散的二階雙曲偏微分方程模型,能有效防止圖像階梯效應(yīng)的產(chǎn)生,并且保持圖像的邊緣和細(xì)節(jié)。

        傳統(tǒng)修復(fù)算法存在語義一致性差、邊緣模糊及偽影、難以捕捉高級語義信息等問題,而生成對抗網(wǎng)絡(luò)(generative adversarial network,GAN)[11]為解決壁畫修復(fù)問題提供了新的思路。Pathak等[12]首次將神經(jīng)網(wǎng)絡(luò)算法引入到無監(jiān)督的視覺特征學(xué)習(xí)中,運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)和生成對抗網(wǎng)絡(luò),以圖像缺失部分的上下文信息作為推理依據(jù),提出一種兼顧整幅圖像理解與合理推斷的上下文編碼器算法,為圖像的視覺修復(fù)、語義還原提供了全新的解決辦法,為后續(xù)研究提供了理論借鑒。徐志剛等[13]提出基于雙重約束卷積神經(jīng)網(wǎng)絡(luò)方法,以解決石窟壁畫褪變色問題,但僅適用于結(jié)構(gòu)較為簡單的壁畫。Song等[14]將壁畫圖像轉(zhuǎn)換到色彩空間,然后對各分量圖像進(jìn)行高低帽運(yùn)算,構(gòu)造多結(jié)構(gòu)形態(tài)濾波器平滑圖像中的噪聲,將融合后的掩膜圖像與原始壁畫進(jìn)行融合,提出一種改進(jìn)的生成式對抗網(wǎng)絡(luò)結(jié)構(gòu)。朱欣娟等[15]針對文物表面暗舊、圖像褪色等問題,提出一種生成式對抗網(wǎng)絡(luò)的文物圖像超分辨率模型,在重建圖像紋理時能在一定程度上對褪色圖像色彩進(jìn)行修復(fù),但很難修復(fù)表面信息不完整的壁畫圖像。Cao等[16]提出增強(qiáng)一致性生成對抗網(wǎng)絡(luò)算法,可對紋理結(jié)構(gòu)強(qiáng)、缺失區(qū)域較大的壁畫圖像缺失部分進(jìn)行修復(fù),但該算法對數(shù)據(jù)的質(zhì)量要求較高。Li等[17]提出一種基于人工智能算法的生成鑒別網(wǎng)絡(luò)模型,能有效修復(fù)具有圓點(diǎn)狀損傷和復(fù)雜紋理結(jié)構(gòu)的壁畫。隨著深度學(xué)習(xí)技術(shù)的不斷深入,利用神經(jīng)網(wǎng)絡(luò)技術(shù)實(shí)現(xiàn)圖像的風(fēng)格轉(zhuǎn)移,為壁畫圖像色彩修復(fù)提供新途徑。Zhu等[18]提出循環(huán)生成對抗網(wǎng)絡(luò)(CycleGAN),首次采用GAN[11]進(jìn)行圖像風(fēng)格遷移,可以轉(zhuǎn)換無配對圖像。Arjovsky等[19]提出WGAN算法,利用Wasserstein距離來代替JS散度和KL散度,從根本上解決了GAN的梯度消失問題。Johnson等[20]提出利用感知損耗函數(shù)對前饋網(wǎng)絡(luò)進(jìn)行訓(xùn)練,實(shí)現(xiàn)了實(shí)時風(fēng)格轉(zhuǎn)換和超分辨率重建。現(xiàn)有的基于深度學(xué)習(xí)的圖像修復(fù)方法,對早期訓(xùn)練樣本的精度和完整性要求很高,但找到高質(zhì)量的實(shí)際壁畫圖像需要很高的成本,且很多待修復(fù)的壁畫圖像根本不完整。

        現(xiàn)有的壁畫修復(fù)技術(shù)大致可以分為兩類:一類為傳統(tǒng)的圖像修復(fù),另一類為基于深度學(xué)習(xí)的圖像修復(fù)。傳統(tǒng)修復(fù)算法存在語義一致性差、邊緣模糊及偽影等問題,而基于深度學(xué)習(xí)的圖像修復(fù)方法多需要高精度數(shù)據(jù)集。本研究以CycleGAN算法[18]為基礎(chǔ),提出一種基于循環(huán)生成對抗網(wǎng)絡(luò)和多尺度融合協(xié)調(diào)注意力機(jī)制的壁畫色彩修復(fù)算法(multi-scale fusion coordinated attention mechanism CycleGAN,MFCA-CycleGAN),創(chuàng)新之處有:在網(wǎng)絡(luò)的循環(huán)一致性損失中添加同一映射損失改進(jìn)網(wǎng)絡(luò),使生成的壁畫圖像更加真實(shí)可靠;改進(jìn)協(xié)調(diào)注意力機(jī)制,引入多尺度融合思想,在生成器中加入多尺度融合的協(xié)調(diào)注意力機(jī)制,提高生成壁畫圖像的協(xié)調(diào)性和質(zhì)量。

        1 相關(guān)技術(shù)介紹

        1.1 循環(huán)生成對抗網(wǎng)絡(luò)

        CycleGAN包含兩個判別器和兩個生成器,無需預(yù)先匹配,就可以進(jìn)行數(shù)據(jù)之間的轉(zhuǎn)換。在此基礎(chǔ)上,內(nèi)容圖像通過生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò),生成風(fēng)格化圖像。CycleGAN主要包含兩部分損失,分別為對抗損失和循環(huán)一致?lián)p失。

        1) 對抗損失

        GAN是CycleGAN的基礎(chǔ),利用對抗損失不斷優(yōu)化生成器和判別器。CycleGAN也利用此對抗損失優(yōu)化網(wǎng)絡(luò),通過判別器對生成樣本和真實(shí)數(shù)據(jù)進(jìn)行鑒別,生成器希望生成樣本被判定為真,而判別器要識別出圖像是真實(shí)的還是生成的。對于生成器G:X→Y,其判別器DY的損失函數(shù)為:

        LGAN(G,DY,X,Y)=Ey~Pdata(y)[lnDY(y)]+Ex~Pdata(x)[ln(1-DY(G(x)))]。

        (1)

        式中:X、Y為兩個圖像域;x、y為兩個域中的圖像;DY(y)為圖像y屬于域Y的概率;Ey~Pdata(y)為y取自Y的期望;Ex~Pdata(x)為x取自X的期望。

        對于生成器F:Y→X,其判別器DX的損失函數(shù)為:

        LGAN(F,DX,Y,X)=Ex~Pdata(x)[lnDX(x)]+Ey~Pdata(y)[ln(1-DX(F(y)))]。

        (2)

        式中:F為域Y向域X的映射函數(shù);DX(x)為圖像x屬于域X的概率。

        2) 循環(huán)一致性損失

        CycleGAN同時進(jìn)行G、F映射,將圖片轉(zhuǎn)換后還可以進(jìn)行還原,有效避免了所有X圖像轉(zhuǎn)換為Y圖像域中的同一圖像的情況。循環(huán)一致性損失為:

        (3)

        式中:Ex~Pdata(x)[]為域X中圖像x經(jīng)生成器G作用后生成G(x),G(x)再由生成器F作用變?yōu)镕(G(x)),F(G(x))應(yīng)與圖像x近似。Ey~Pdata(y)同理。

        CycleGAN的基本原理如圖1所示。網(wǎng)絡(luò)的所有損失相加即為CycleGAN的目標(biāo)損失

        圖1 CycleGAN原理圖

        L(G,F,DX,DY)=LGAN(G,DY,X,Y)+LGAN(F,DX,Y,X)+λLcyc(G,F)。

        (4)

        式中,λ為控制各損失間相對重要程度的加權(quán)因子。

        1.2 協(xié)調(diào)注意力機(jī)制

        注意力機(jī)制被廣泛用于提高現(xiàn)代深層神經(jīng)網(wǎng)絡(luò)的性能。Hou等[23]基于擠壓和激勵網(wǎng)絡(luò)(squeeze-and-excitation networks,SENet)[21]和卷積塊注意力模塊(convolutional block attention module,CBAM)[22],將位置信息嵌入通道中,使移動網(wǎng)絡(luò)能夠在大范圍內(nèi)關(guān)注,同時避免了巨大的計(jì)算量。位置信息嵌入通道注意,將一個二維的池化操作轉(zhuǎn)換為兩個一維的池化操作,沿著兩個方向聚合特征,生成的特征映射被分別編碼成方向感知和位置敏感的注意映射,用于提高感興趣對象的輸入特征的表示。具體地,為了激勵注意力模塊以精確的位置信息在空間上捕獲遠(yuǎn)程交互,給定輸入x,分別從水平與垂直方向進(jìn)行重要特征提取,高度h上的第c個信道的輸出[23]

        (5)

        式中:x來自具有固定內(nèi)核大小的卷積層,W為圖像的寬度。類似地,寬度w處第c個信道的輸出可寫為:

        (6)

        式中,H為圖像的高度。

        給定式(5)、式(6)生成的聚合特征圖,首先進(jìn)行拼接,然后利用一個共享的1×1卷積變換函數(shù)F1,得到

        f=δ(F1([Zh,Zw]))。

        (7)

        式中:δ為非線性激活函數(shù);f∈RC/r×(H+W)為水平、垂直方向編碼空間信息的中間特征圖;r為縮減比,用來控制塊大小,然后將f分為兩個獨(dú)立張量fh∈RC/r×H和fw∈RC/r×W。利用另外兩個1×1卷積變換Fh和Fw將fh和fw變換為與輸入X具有相同信道數(shù)的張量,得到:

        gh=σ(Fh(fh)),

        (8)

        gw=σ(Fw(fw))。

        (9)

        式中,σ為sigmoid函數(shù)。使用適當(dāng)?shù)目s減率r以減少f的信道數(shù),然后將輸出gh和gw分別展開用作注意力權(quán)重,則坐標(biāo)注意力塊Y的輸出為:

        Y=X×gh×gw。

        (10)

        2 基于循環(huán)生成對抗網(wǎng)絡(luò)的壁畫色彩修復(fù)

        循環(huán)一致性損失將還原圖像F(G(x))與真實(shí)圖像x、還原圖像G(F(y))與真實(shí)圖像y的損失考慮在內(nèi),然而這種端到端的損失未能詳盡考慮其轉(zhuǎn)化過程中的風(fēng)格損失,因此本研究在CycleGAN循環(huán)一致性損失函數(shù)中添加同一映射損失。而協(xié)調(diào)注意力機(jī)制從橫向和縱向兩個角度對輸入圖像進(jìn)行注意力篩選,缺少綜合周圍語義信息的有效手段,因此為協(xié)調(diào)注意力機(jī)制添加多尺度融合策略,使得網(wǎng)絡(luò)模型能夠從多方面的特征信息中篩選最為有效的特征信息。從邏輯層面來說,本研究方法使用多尺度融合的協(xié)調(diào)注意力機(jī)制對CycleGAN生成模塊中的上采樣區(qū)域進(jìn)行特征篩選,在訓(xùn)練過程中利用同一映射損失降低圖像轉(zhuǎn)化過程中的風(fēng)格損失,經(jīng)過多次循環(huán)訓(xùn)練使得CycleGAN最終實(shí)現(xiàn)良好的風(fēng)格遷移。

        2.1 同一映射損失

        CycleGAN算法的循環(huán)一致性損失函數(shù)將圖像還原之后計(jì)算與原始輸入圖像的差值并求和,在一定程度上可以計(jì)算出原始圖像與還原圖像的差異,但是未考慮生成圖像G(x)與真實(shí)圖像y的損失和生成圖像F(y)與真實(shí)圖像x的損失。以原始圖像x到生成圖像G(x)再到還原圖像F(G(x))為例(其中,真實(shí)圖像x與真實(shí)圖像y為不成對圖像),由原始圖像x到生成圖像G(x)的生成損失較生成圖像G(x)到還原圖像F(G(x))的損失更為重要,如果生成圖像與真實(shí)圖像y的風(fēng)格損失很大,后續(xù)的生成圖像G(x)到還原圖像F(G(x))的變換也不會成功。本研究基于此改進(jìn)了循環(huán)一致性損失函數(shù),在原始循環(huán)一致性損失的基礎(chǔ)上加入同一映射損失,即

        Lcyc(G,F)=Ex~Pdata(x)[(1-λ1)‖F(xiàn)(G(x))-x‖1+λ1‖G(x)-y‖1]+

        Ey~Pdata(y)[(1-λ2)‖G(F(y))-y‖1+λ2‖F(xiàn)(y)-x‖1]。

        (11)

        式中:λ1為x→G(x)≈y過程中的損失權(quán)重,(1-λ1)為F(G(x))≈x過程的損失權(quán)重,整個過程中損失之和為1。同理,λ2為y→F(y)≈x過程損失權(quán)重,(1-λ2)為G(F(y))≈y過程損失權(quán)重。

        圖2為算法模型的訓(xùn)練流程框架。以正向循環(huán)為例,具體訓(xùn)練過程為:首先將真實(shí)未修復(fù)唐代壁畫圖像x輸入,由生成器G生成修復(fù)的唐代壁畫圖像G(x);然后利用判別器DX判斷生成圖像是否為真,并將輸出反饋到生成器G進(jìn)行對抗博弈;最后通過生成器F還原為驗(yàn)證的未修復(fù)唐代壁畫圖像F(G(x)),利用循環(huán)一致性損失和同一映射損失,確保最終驗(yàn)證壁畫圖像與真實(shí)壁畫圖像盡可能相似。

        圖2 模型訓(xùn)練框架圖

        2.2 多尺度融合協(xié)調(diào)注意力機(jī)制

        協(xié)調(diào)注意力機(jī)制只考慮橫縱兩個方向的重要性,未從整體上考慮周圍語義信息的重要性程度,本研究對協(xié)調(diào)注意力機(jī)制網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),加入多尺度特征融合思想,構(gòu)成多尺度融合的協(xié)調(diào)注意力機(jī)制。首先對輸入圖像分別進(jìn)行卷積核大小為1×1、3×3、5×5、7×7的多尺度卷積運(yùn)算,得到不同感受野大小的特征信息;然后對四個通道進(jìn)行特征融合,從橫縱兩個方向進(jìn)行適應(yīng)性平均池化、維度拼接與卷積操作,以及批量歸一化與非線性激活;隨后分別在橫縱兩個方向使用Sigmoid函數(shù)進(jìn)行重要性程度判別,對特征圖進(jìn)行權(quán)重賦值;最后通過在生成器G的上采樣區(qū)第2層引入多尺度融合的協(xié)調(diào)注意力機(jī)制,建立圖像各個位置像素間關(guān)聯(lián)關(guān)系,提高生成圖像的協(xié)調(diào)性和質(zhì)量。

        改進(jìn)后的生成器G由三部分組成,分別為:由卷積神經(jīng)網(wǎng)絡(luò)組成的下采樣區(qū)域,從輸入圖像和風(fēng)格圖像提取特征表達(dá);由殘差網(wǎng)絡(luò)組成的中間區(qū)域進(jìn)行圖像轉(zhuǎn)換;由反卷積神經(jīng)網(wǎng)絡(luò)與多尺度融合的協(xié)調(diào)注意力機(jī)制組成的上采樣區(qū)域。具體生成模塊結(jié)構(gòu)見圖3。

        圖3 生成模塊結(jié)構(gòu)圖

        2.3 算法步驟

        常見的算法描述方法有自然語言、結(jié)構(gòu)化流程圖、偽代碼等,本研究參考文獻(xiàn)[7]采用自然語言方法對算法進(jìn)行形式化定義。

        MFCA-CycleGAN算法的輸入包括未修復(fù)壁畫圖像x與已修復(fù)壁畫圖像y,輸出為利用風(fēng)格遷移方法色彩修復(fù)后的壁畫圖像G(x)。具體步驟為:首先,對于輸入的未修復(fù)壁畫圖像x與已修復(fù)壁畫圖像y,經(jīng)過生成網(wǎng)絡(luò)G生成已修復(fù)壁畫圖像G(x)與還原的已修復(fù)壁畫圖像G(F(y)),再經(jīng)過生成網(wǎng)絡(luò)F生成未修復(fù)壁畫圖像F(y)與還原的未修復(fù)壁畫圖像F(G(x));然后,將生成網(wǎng)絡(luò)梯度設(shè)置為0,利用式(11)計(jì)算同一映射損失Lcyc(G,F)對生成網(wǎng)絡(luò)進(jìn)行反向傳播,計(jì)算生成網(wǎng)絡(luò)G、F的梯度并更新權(quán)重參數(shù),再使用均方根誤差計(jì)算判別器DX、DY的梯度并更新權(quán)重參數(shù);最后,重復(fù)上述步驟,迭代n次得到最優(yōu)模型,輸出本研究算法(以下簡稱本算法)色彩修復(fù)后的壁畫圖像。

        本算法模型需要迭代n次,數(shù)據(jù)集包含m條數(shù)據(jù)。m條數(shù)據(jù)經(jīng)過前向傳播生成對應(yīng)的風(fēng)格圖像、梯度函數(shù)計(jì)算等均需要經(jīng)過n×m次循環(huán)迭代來更新網(wǎng)絡(luò)模型參數(shù),因此本算法時間復(fù)雜度為O(nm)。

        3 實(shí)驗(yàn)結(jié)果及分析

        3.1 實(shí)驗(yàn)環(huán)境

        使用Python 3.8和Pytorch 1.8.1搭建實(shí)驗(yàn)網(wǎng)絡(luò)驗(yàn)證本算法對壁畫圖像色彩修復(fù)的有效性。其中,硬件環(huán)境為Intel i5-9400F處理器、NVIDIA GeForce RTX 2060 SUPER顯卡、16 GB內(nèi)存,軟件環(huán)境為Windows 10操作系統(tǒng)、Pycharm集成開發(fā)環(huán)境。

        3.2 數(shù)據(jù)來源

        實(shí)驗(yàn)使用圖像數(shù)據(jù)集為《中國敦煌壁畫全集》電子資源畫冊的唐代未修復(fù)壁畫圖像和人工修復(fù)的唐代壁畫圖像的截圖。其中,未修復(fù)壁畫圖像692張、人工修復(fù)壁畫圖像572張。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        3.3.1 模型訓(xùn)練

        將未修復(fù)壁畫圖像和人工修復(fù)壁畫圖像按照8∶2的比例進(jìn)行劃分。其中,訓(xùn)練集包括已修復(fù)壁畫圖像458張和未修復(fù)壁畫圖像554張,測試集包括已修復(fù)壁畫圖像114張和未修復(fù)壁畫圖像138張。初始學(xué)習(xí)率設(shè)置為0.000 2,Epoch設(shè)置為100,網(wǎng)絡(luò)中的超參數(shù)設(shè)置為10,Batchsize設(shè)置為8。λ1與λ2為自優(yōu)化超參數(shù),初始設(shè)置均為0.2。圖4為原始壁畫圖像,圖5為100次迭代訓(xùn)練之后的壁畫修復(fù)效果。

        圖4 原始壁畫

        圖5 修復(fù)壁畫

        從圖5可以明顯看出,修復(fù)后的壁畫色彩更加鮮艷,色彩飽和度更高,基本延續(xù)了原始壁畫的色彩,并對原始壁畫的色彩進(jìn)行了很好的視覺效果增強(qiáng),具有較高的可信度。

        3.3.2 局部褪色壁畫圖像修復(fù)對比實(shí)驗(yàn)

        將人工修復(fù)的壁畫圖像裁剪為224×224像素大小的壁畫圖像,并對裁剪后的壁畫圖像進(jìn)行矩形區(qū)域隨機(jī)去色處理,獲得局部褪色的壁畫圖像數(shù)據(jù)集。分別應(yīng)用文獻(xiàn)[18-20]算法和本算法進(jìn)行壁畫局部色彩修復(fù)實(shí)驗(yàn),結(jié)果如圖6所示。

        圖6 局部褪色壁畫圖像的不同算法實(shí)驗(yàn)結(jié)果

        文獻(xiàn)[18]算法修復(fù)后的壁畫圖像整體模糊,如圖6(c)第2張,雖將壁畫圖像褪色部分進(jìn)行了修復(fù),但修復(fù)效果不佳。文獻(xiàn)[19]算法修復(fù)后的壁畫圖像在色彩細(xì)節(jié)上與原始壁畫圖像差異較大,如圖6(d)第4張。文獻(xiàn)[20]算法修復(fù)后的壁畫圖像效果均不理想。

        本算法整體效果較好,但在局部壁畫色彩修復(fù)方面存在不理想的情況。經(jīng)分析,出現(xiàn)這種情況是由于在同一映射損失函數(shù)計(jì)算過程中,x→G(x)≈y和y→F(y)≈x損失的存在,弱化了原始CycleGAN中的循環(huán)損失函數(shù),圖像生成時更加關(guān)注整體圖像風(fēng)格的遷移,使部分區(qū)域未能得到有效修復(fù),但從實(shí)驗(yàn)效果可以看出,相較其他算法,采用本算法修復(fù)的局部褪色壁畫圖像效果最好。

        3.3.3 壁畫圖像整體色彩修復(fù)對比實(shí)驗(yàn)

        分別應(yīng)用文獻(xiàn)[18-20]算法以及本算法進(jìn)行壁畫圖像色彩修復(fù)對比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖7所示。本研究利用結(jié)構(gòu)相似性(structural similarity,SSIM)、圖像峰值信噪比(peak signal to noiseratio,PSNR)、學(xué)習(xí)感知圖像塊相似度(learned perceptual image patch similarity,LPIPS)、Frechet Inception距離得分(Frechet Inception distance score,FID)以及用戶調(diào)研評價(user study,US)對色彩修復(fù)后的壁畫圖像進(jìn)行評價。一般情況下,PSNR越高,對應(yīng)的圖像修復(fù)效果越好;SSIM取值為[0,1],其值越高圖像相似度越高;LPIPS與人類感知情況更為相似,當(dāng)數(shù)值較低時,兩幅圖片的相似性會更大;FID是一種專門用來評估生成對抗網(wǎng)絡(luò)性能的方法,將生成的壁畫圖像與真實(shí)的壁畫圖像進(jìn)行對比計(jì)算“距離值”,該值越小,圖像質(zhì)量越好。不同算法的定量指標(biāo)對比如表1所示。

        表1 不同網(wǎng)絡(luò)的定量指標(biāo)對比

        圖7 整體壁畫圖像色彩修復(fù)不同算法實(shí)驗(yàn)結(jié)果

        從SSIM和PSNR看,本算法在4組圖像中最高,分別達(dá)到90.60%和22.515 dB;從LPIPS和FID看,本算法4組圖像中最低,分別為0.150 2和119.31。對比實(shí)驗(yàn)結(jié)果可以看出,本算法可以獲得更加清晰可靠的色彩修復(fù)圖像,節(jié)省了修復(fù)時間,提高了修復(fù)質(zhì)量,達(dá)到更真實(shí)的視覺效果。與其他方法相比,本算法的修復(fù)效果更合理、主觀視覺更順暢,在整體顏色重建上有很好的效果。

        通過調(diào)研100名視力正常的用戶,78%的用戶認(rèn)為本算法修復(fù)的壁畫圖像是最佳圖像。為了證明本算法修復(fù)的壁畫圖像在主觀評價上更具有普遍性,采用評分法對該100名用戶進(jìn)行以人眼主觀感知為評價標(biāo)準(zhǔn)的主觀評價,得到對4種算法修復(fù)的壁畫圖像清晰度及色彩飽和度的打分結(jié)果(評分為5分制:優(yōu),5分;良,4分;中,3分;差,2分;劣,1分),并對打分結(jié)果分別求平均值,得到的評分結(jié)果如圖8所示。評分結(jié)果顯示,本算法修復(fù)的壁畫圖像評分均較高,與其他算法相比,在主觀評價上效果更好。

        圖8 不同算法無參照主觀評分對比圖

        3.4 消融實(shí)驗(yàn)

        3.4.1 權(quán)重系數(shù)實(shí)驗(yàn)分析

        以文獻(xiàn)[18]中原始代碼為基礎(chǔ)進(jìn)行消融實(shí)驗(yàn),測試原始CycleGAN與本算法所設(shè)置參數(shù)壁畫色彩修復(fù)效果,實(shí)驗(yàn)結(jié)果如圖9所示。表2為采用經(jīng)典PSNR和SSIM定量評價指標(biāo),對色彩修復(fù)后的壁畫圖像進(jìn)行評價。

        表2 消融實(shí)驗(yàn)定量指標(biāo)對比

        圖9 消融實(shí)驗(yàn)結(jié)果圖

        從圖9可以明顯看出,原始CycleGAN修復(fù)后的壁畫圖像色彩效果較差,在部分壁畫圖像中出現(xiàn)了明顯的棋盤效應(yīng)。而當(dāng)λ1=λ2=0.2時,壁畫的色彩修復(fù)效果最好,色彩過渡更加自然,且無明顯棋盤效應(yīng)。此外,從PSNR和SSIM看,使用參數(shù)λ1=λ2=0.2修復(fù)的壁畫圖像較原始CycleGAN分別提高0.97%和17.06%。

        3.4.2 多尺度融合協(xié)調(diào)注意力機(jī)制實(shí)驗(yàn)分析

        在3.4.1節(jié)權(quán)重系數(shù)實(shí)驗(yàn)的基礎(chǔ)上,對多尺度融合的協(xié)調(diào)注意力機(jī)制進(jìn)行消融實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖10所示。

        實(shí)驗(yàn)表明,使用多尺度融合的協(xié)調(diào)注意力機(jī)制善于捕獲全局細(xì)節(jié),對于圖像修復(fù)效果起到至關(guān)重要的作用。如圖10(c)中壁畫圖像較原壁畫圖像色彩更加鮮艷,引入多尺度融合的協(xié)調(diào)注意力機(jī)制有明顯的效果提升,對壁畫圖像顏色的還原起到良好作用。從評價指標(biāo)看,添加多尺度融合協(xié)調(diào)注意力機(jī)制修復(fù)的壁畫圖像與僅添加權(quán)重系數(shù)修復(fù)的壁畫圖像相比,PSNR和SSIM分別提高3.105%和2.50%。

        3.5 模型復(fù)雜性分析

        為了分析本算法與其他方法的復(fù)雜性,參考文獻(xiàn)[24],選用參數(shù)量、運(yùn)算量與單次訓(xùn)練耗時作為算法模型復(fù)雜度評價指標(biāo)。其中,參數(shù)量指網(wǎng)絡(luò)的總參量,與空間復(fù)雜度相對應(yīng);運(yùn)算量指網(wǎng)絡(luò)中浮點(diǎn)運(yùn)算總量,與時間復(fù)雜度相對應(yīng);單次訓(xùn)練耗時為對應(yīng)網(wǎng)絡(luò)模型迭代一次所需平均時間。實(shí)驗(yàn)結(jié)果見表3。

        表3 模型復(fù)雜度分析

        與文獻(xiàn)[18]相比,本算法模型復(fù)雜度僅與同一映射損失函數(shù)以及多尺度融合的協(xié)調(diào)注意力機(jī)制有關(guān)。而在同一映射損失函數(shù)的計(jì)算過程中,相關(guān)變量無需重復(fù)計(jì)算,故對模型復(fù)雜度的影響微乎其微。因此,多尺度融合的協(xié)調(diào)注意力機(jī)制對本算法復(fù)雜度的影響最大。參照表3可知,在與文獻(xiàn)[18]參數(shù)量、運(yùn)算量和單次訓(xùn)練耗時大致相當(dāng)?shù)臈l件下,本算法模型在實(shí)際壁畫色彩修復(fù)中取得最佳效果。從單次訓(xùn)練耗時來看,本算法的速度明顯快于文獻(xiàn)[19]和文獻(xiàn)[20],滿足速度要求。

        此外,本算法雖然在運(yùn)算量上與文獻(xiàn)[19]存在較大差距,但是從實(shí)際修復(fù)效果來看,本算法色彩修復(fù)后的壁畫圖像色彩更加鮮明且真實(shí)細(xì)膩。相比于其他3種算法,本算法從主、客觀層面都取得了較為理想的效果,性能有較好提升。

        4 結(jié)論

        針對敦煌唐代壁畫色彩難以較好修復(fù)的問題,提出基于循環(huán)生成對抗網(wǎng)絡(luò)和多尺度融合協(xié)調(diào)注意力機(jī)制的壁畫色彩修復(fù)算法。首先將同一映射損失加入到循環(huán)一致性對抗損失函數(shù)中,然后在生成器中引入多尺度融合的協(xié)調(diào)注意力機(jī)制,得到最優(yōu)的壁畫色彩修復(fù)網(wǎng)絡(luò)模型。對比文獻(xiàn)[18-20]的3種算法,SSIM分別提高16.59%、25.57%、46.47%,達(dá)到90.60%;PSNR分別提高4.075、7.992、8.848 dB,達(dá)到22.515 dB;LPIPS分別降低0.136 0、0.123 3、0.382 2,為0.150 2;FID分別降低61.24、95.54、90.7,為191.31。采用無參照主觀評價驗(yàn)證表明,改進(jìn)后的算法在壁畫圖像色彩的修復(fù)上具有有效性和卓越性。最后,通過對權(quán)重系數(shù)及多尺度融合的協(xié)調(diào)注意力機(jī)制進(jìn)行消融實(shí)驗(yàn),驗(yàn)證本算法可以在不依賴專家知識的情況下恢復(fù)褪色壁畫圖像的顏色,節(jié)省了壁畫修復(fù)時間。

        猜你喜歡
        色彩融合實(shí)驗(yàn)
        記一次有趣的實(shí)驗(yàn)
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        做個怪怪長實(shí)驗(yàn)
        神奇的色彩(上)
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        實(shí)踐十號上的19項(xiàng)實(shí)驗(yàn)
        太空探索(2016年5期)2016-07-12 15:17:55
        春天的色彩
        国产自拍视频免费在线观看| 国产白丝在线| 久久精品国产久精国产| 国产精品无码久久久久久久久久| 欧美熟妇色ⅹxxx欧美妇| 国产精品视频一区日韩丝袜 | 亚洲av熟女中文字幕| 日本一区二区三区免费精品| 美女av一区二区三区| 国外精品视频在线观看免费 | 被三个男人绑着躁我好爽视频| 无码人妻精品一区二区三区不卡| 亚洲色偷偷色噜噜狠狠99| 伊人久久一区二区三区无码| 精品人妻夜夜爽一区二区| 国产精品国产高清国产专区| 国产真人性做爰久久网站| 久久青青草原亚洲AV无码麻豆| 日本在线观看一区二区视频| 久久综合久久综合久久| 性色av色香蕉一区二区蜜桃| 精品久久久久香蕉网| 亚洲永久无码7777kkk| 亚欧乱色束缚一区二区三区 | 无码专区无码专区视频网址| 国产精品老熟女乱一区二区| 成人欧美一区二区三区黑人| 免费a级毛片无码av| 99久久精品国产成人综合| 国产亚洲精品日韩香蕉网| 成人av毛片免费大全| 男女做爰猛烈啪啪吃奶动 | 99久久人妻无码精品系列蜜桃| 国产网红一区二区三区| 日本av天堂一区二区三区| 国产精品久久久久aaaa| 日韩二三区| 少妇一级aa一区二区三区片| 一本色道88久久加勒比精品| 久久人人爽爽爽人久久久| 亚洲综合一区二区三区四区五区|