亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于生成對抗網(wǎng)絡(luò)的圖像動漫風格化

        2022-09-21 05:37:42王一凡趙樂義
        計算機工程與應(yīng)用 2022年18期
        關(guān)鍵詞:動漫損失函數(shù)

        王一凡,趙樂義,李 毅

        四川大學 計算機學院,成都610065

        近年來,動畫電影的受眾逐漸擴大,越來越多的人開始喜歡具有卡通效果的圖片,但是,不是所有的圖片都能轉(zhuǎn)換為動漫風格且融合得很好,也不是所有人都能達到相應(yīng)的畫圖水平可以自由作畫,再者,手工作圖也是費時費力的,目前也沒有一款工具可以讓人們進行便捷操作就能夠得到動漫風格的圖片,而漫畫場景的應(yīng)用其實是很廣泛的,如兒童圖書、書本插畫等等。生成對抗網(wǎng)絡(luò)一直以來都是研究熱門,近年來也有多種GAN網(wǎng)絡(luò)被提出,在各個方面都得到了很大的優(yōu)化和利用,也有很多突破性的成果。在生成對抗網(wǎng)絡(luò)中也有許多分支,風格遷移一直都是熱門研究之一,如CycleGAN[1]、MUNIT[2]、DualGAN[3]等。大部分的風格遷移模型相對來說都是廣泛的,并沒有針對各種風格進行單獨的適配,所以在不同風格的應(yīng)用效果上就存在一定的差異,也并不是所有圖片和風格都能達到想象中的效果。動漫圖片的色彩、線條和邊緣等等與現(xiàn)實圖片本就具有較大的差別,所以結(jié)合生成對抗網(wǎng)絡(luò)進行這方面的研究就很有意義,同時針對動漫化的風格,還需要對網(wǎng)絡(luò)結(jié)構(gòu)等進行單獨適配和調(diào)整,為了達到良好效果還需要進行較多的實驗和改進。

        本文針對上述問題,提出了以下幾個方面的改進:

        (1)在GAN 網(wǎng)絡(luò)的生成器中引入多層感知機模塊(multi-layer perceptron,MLP),加入噪聲的輸入。

        (2)引入自適應(yīng)實例歸一化層(AdaIN[4]),修改網(wǎng)絡(luò)結(jié)構(gòu),使得內(nèi)容特征能夠很好地轉(zhuǎn)變?yōu)闃邮教卣鳌?/p>

        (3)將損失函數(shù)分為兩個部分,對網(wǎng)絡(luò)和內(nèi)容分開進行損失計算。

        (4)增加圖片數(shù)據(jù)集,對動漫圖片和現(xiàn)實圖片集進行擴充,完善訓練效果。

        1 相關(guān)工作

        1.1 GAN

        生成對抗網(wǎng)絡(luò)一直以來都受到了大家的廣泛關(guān)注,它具有強大的功能,可以應(yīng)用到任何類型的數(shù)據(jù)中,例如圖像生成、圖像修復(fù)等。

        生成對抗網(wǎng)絡(luò)的思想源于二人博弈理論。生成器G生成可以騙過判別器D的樣本,而判別器D找出生成器G生成的“假數(shù)據(jù)”。假設(shè)用1 來代表真實數(shù)據(jù),0代表生成的數(shù)據(jù)。對于判別器來說,如果是真實的數(shù)據(jù),它要盡可能地判別并輸出1,在這個過程中,生成器也會隨機生成假數(shù)據(jù)來輸入給判別器,判別器對這部分數(shù)據(jù)要盡可能地判別并輸出0。生成器和判別器是兩個相互獨立的模型,沒有聯(lián)系,好比兩個獨立的神經(jīng)網(wǎng)絡(luò)模型,利用的是單獨交替迭代訓練的方法對這兩個模型進行訓練。通過不斷地循環(huán),兩邊的能力都越來越強。

        在Goodfellow 等人[5]的論文中,有幾個重要的數(shù)學公式描述,如下列式子。

        這個公式的優(yōu)勢在于固定G,描述的是一個極小極大化的過程,也就是兩個不斷優(yōu)化的過程。其中,Pdata表示的是真實圖像的數(shù)據(jù)分布,用極大似然估計。V這個函數(shù)算的是Pdata(x)和PG之間的距離。訓練判別器D網(wǎng)絡(luò),去最大化這個距離,只有得到最大化距離的結(jié)果,才表示判別器是成功的,一旦有了這個值,就可以訓練生成器G,從而得到V的最小值,最小的時候說明已經(jīng)找到了網(wǎng)絡(luò)的最優(yōu)解。

        1.2 圖像到圖像轉(zhuǎn)換

        Isola等人[6]第一次提出了基于條件生成對抗網(wǎng)絡(luò)的圖像轉(zhuǎn)換。類似于語言翻譯,作者提出了圖像翻譯的概念,希望訓練后的網(wǎng)絡(luò)能夠像翻譯語言一樣,完成圖像轉(zhuǎn)換的工作。后來,又出現(xiàn)了生成高分辨率圖像的Wang GAN[7]?,F(xiàn)在,已經(jīng)有許多研究人員利用生成對抗網(wǎng)絡(luò)進行這方面的研究。圖像到圖像的轉(zhuǎn)換在很多方面都可以進行應(yīng)用,其基本思想就是將輸入圖像轉(zhuǎn)換為輸出圖像,例如:輸入一張狗的圖片,輸出的是貓的圖片;輸入一張風景照,輸出的是中國畫圖片等。在本文中,經(jīng)過訓練,能夠?qū)⒄鎸崍D片轉(zhuǎn)換為具有動漫效果的圖片,這個過程其實也是圖像到圖像的轉(zhuǎn)換。

        在之前很多的研究中,人們都是利用成對的數(shù)據(jù)集進行訓練,但是其實成對的數(shù)據(jù)集并不多,收集此類數(shù)據(jù)也比較耗費時間和資金,特別是在藝術(shù)風格的遷移中就更困難了。CycleGAN[1]提出了在非成對數(shù)據(jù)下進行圖片轉(zhuǎn)換的思想,這一思想的提出,給圖片轉(zhuǎn)換帶來了大大的便利,解決了需要配對訓練數(shù)據(jù)的問題。如圖1,CycleGAN 可以理解為兩個單向的生成對抗網(wǎng)絡(luò),它們共享兩個生成器,再各自帶一個判別器,同時,在映射中加入循環(huán)穩(wěn)定損失函數(shù),就可以完成非成對的圖像轉(zhuǎn)換。

        圖1 CycleGAN原理Fig.1 Principle of CycleGAN

        文獻[2]中提出了多模態(tài)無監(jiān)督的圖像轉(zhuǎn)換,在生成圖片時可以把同一個內(nèi)容和不同的樣式組合,從而輸出多態(tài)圖片。自動編碼器結(jié)構(gòu)如圖2,由內(nèi)容、樣式編碼器以及聯(lián)合解碼器組成。樣式編碼器利用全局池化得到風格,解碼器中使用了自適應(yīng)實例歸一化層將兩個編碼器進行整合,同時使用MLP網(wǎng)絡(luò)生成參數(shù),輔助殘差塊。本文也參考了其結(jié)構(gòu)進行優(yōu)化,以達到更好的效果。

        圖2 MUNIT自動編碼器結(jié)構(gòu)Fig.2 Auto-encoder architecture of MUNIT

        文獻[8]提出了一種基于GAN 的圖像卡通化方法,通過三個白盒分別對圖像的結(jié)構(gòu)、表面和紋理進行處理,得到了較好的圖像轉(zhuǎn)換方法。文獻[9]也提出了基于GAN 的卡通轉(zhuǎn)換圖像方法,可以利用真實景物圖片生成漫畫,后文也會進行對比。

        1.3 風格遷移

        圖像到圖像的轉(zhuǎn)換算法成功,在圖像生成的領(lǐng)域又有了一個新觀點,也就是可以從卷積神經(jīng)網(wǎng)絡(luò)中提取特征,作為目標函數(shù)的一部分,通過比較待生成圖片和目標圖片的特征值,令輸出圖片和目標圖片在語義層面上更相似。

        風格遷移的目的是需要保持圖像的內(nèi)容不變,只是轉(zhuǎn)換它的風格,這一點就和圖像到圖像的轉(zhuǎn)換緊密相關(guān)。

        Gatys 等人[10]曾提出用CNN 來做風格遷移,文中發(fā)現(xiàn),在卷積神經(jīng)網(wǎng)絡(luò)中內(nèi)容和風格表示可以分離進行獨立操作。作者利用卷積神經(jīng)網(wǎng)絡(luò)從圖片中提取內(nèi)容和風格信息,再分別定義內(nèi)容和風格損失進行約束,從而生成指定內(nèi)容和風格的圖片。在卷積網(wǎng)絡(luò)中,從越高層次中提取出的特征是更加抽象的語義信息,和圖片有關(guān)的內(nèi)容信息就越少,文中也進行了對比發(fā)現(xiàn)利用更高層次的特征來轉(zhuǎn)換風格的話,圖片的內(nèi)容細節(jié)就容易丟失。之前,也有人提出對文獻[8]的改進。Li等人[9]在深度特征空間中引入一種基于馬爾可夫隨機場(MRF)的框架來實現(xiàn)。

        Ioffe 等人[11]引入一個批歸一化層(BN),通過歸一化特征統(tǒng)計,明顯地簡化了網(wǎng)絡(luò)的訓練。在之后,Ulyanov等人[12]又發(fā)現(xiàn),利用IN層替換BN層,又可以得到顯著的改善。

        現(xiàn)在也有很多比較成功的風格遷移方法,但是這些方法都不是單獨針對動漫風格進行研究的。在本文中,需要輸出的圖片內(nèi)容和內(nèi)容圖片接近,輸出圖片的風格變?yōu)閯勇L格。引入了噪聲的輸入,生成風格編碼,同時針對內(nèi)容進行單獨損失計算,提高遷移的質(zhì)量,在后續(xù)測試中效果表現(xiàn)良好。

        1.4 感知損失

        對于人類來說,判斷兩個圖像之間的相似性是非常容易的。但是對于機器而言,這個過程就相對復(fù)雜了。目前也有一些感知指標被廣泛使用,但是都是相對簡單的函數(shù),無法跟人類細微的感知相比較。在文獻[13]中,作者利用感知損失函數(shù)的優(yōu)勢,訓練一個前向傳播的網(wǎng)絡(luò)進行圖像轉(zhuǎn)換,在訓練的過程中,感知誤差衡量了圖像之間的相似性,起到了很好的作用。網(wǎng)絡(luò)架構(gòu)同樣也是他們的亮點,由圖像轉(zhuǎn)換網(wǎng)絡(luò)和損失網(wǎng)絡(luò)組成,結(jié)構(gòu)與生成對抗網(wǎng)絡(luò)較為相似,與GAN 不同的地方在于,損失網(wǎng)絡(luò)是固定參數(shù)的,圖像轉(zhuǎn)換網(wǎng)絡(luò)類似于生成器,但是它的損失為感知損失,也就是利用真實圖片的卷積得到的特征和生成圖片卷積得到的特征相比較,使得內(nèi)容和全局結(jié)構(gòu)接近,也就是感知的意思。實驗結(jié)果顯示速度提升了三個量級,視覺效果也更好。

        Zhang 等人[14]為了衡量所謂的“感知損失”,提出了一個新的人類感知相似度判斷數(shù)據(jù)集,能夠評估感知距離,不僅可以度量兩個圖像之間的相似性,而且還符合人類的判斷。越來越多的研究工作發(fā)現(xiàn),利用感知損失函數(shù)可以生成高質(zhì)量的圖像,感知損失的出現(xiàn)也證明它可以作為圖像生成中輔助工具。在本文中,也選擇感知損失函數(shù)來計算內(nèi)容損失。

        2 動漫風格化編碼的生成對抗網(wǎng)絡(luò)

        2.1 網(wǎng)絡(luò)框架

        本文在生成對抗網(wǎng)絡(luò)的基礎(chǔ)上,引入了幾個新的模塊。

        網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,由生成器和判別器組成。生成器負責生成可以以假亂真的圖像混淆判別器,而判別器則需要鑒別圖像是真實圖像還是合成的圖像。

        本文在生成器的部分相比與原始GAN做了較大的優(yōu)化和改進,新增部分如圖3中紅色虛線部分所示。生成器包括編碼器、特征轉(zhuǎn)換器和解碼器,圖片輸入到編碼器,經(jīng)過一系列的操作之后輸出風格圖片,同時作為判別器的一部分輸入,當然,真實圖片也是判別器的一部分輸入,經(jīng)過下采樣之后得到輸出。與文獻[2]的結(jié)構(gòu)相比本文網(wǎng)絡(luò)結(jié)構(gòu)進行了一定的簡化,文獻[2]中采用了對偶學習的方式,使用兩對生成對抗網(wǎng)絡(luò)進行訓練,本文只使用一對生成對抗網(wǎng)絡(luò),只是新增模塊對網(wǎng)絡(luò)結(jié)構(gòu)進行優(yōu)化,專注于動漫風格的提取。

        在生成器中,包含三個上采樣層和三個下采樣層,還加入了特征轉(zhuǎn)換器,將原始圖像的特征轉(zhuǎn)換為生成圖像的特征,具體的結(jié)構(gòu)如圖3所示。一般的殘差塊由卷積層、BN 層和ReLU 層組成,本文中也進行了修改,引入了MLP 層、卷積層和自適應(yīng)實例歸一化(AdaIN)層。首先,加入隨機噪聲作為輸入,進入MLP層轉(zhuǎn)變?yōu)轱L格編碼后,進入AdaIN層,再輸入到殘差模塊,組成生成器的一部分。

        圖3 本文網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Proposed network structure

        在Huang 等人[4]的論文中,他們在CIN[15]的基礎(chǔ)上提出了AdaIN,算式如下,和BN、CIN 等不同,AdaIN 沒有可學習的仿射參數(shù),它可以根據(jù)輸入的風格圖片,自適應(yīng)地從樣式輸入中計算仿射參數(shù)。

        其中,x代表的是原始的內(nèi)容圖像,y表示的是經(jīng)過MLP 變換得到的風格編碼,σ和μ分別代表均值和標準差。該式子先將內(nèi)容圖像經(jīng)過歸一化,均值為0,標準差為1,然后再乘以風格的標準差,加上風格的均值,也就是先將自身去風格化,然后再和風格特征進行計算,這樣內(nèi)容和風格圖像的均值和標準差就對齊了。該方法沒有引入其他的參數(shù),自動計算出均值和方差,只需要一次前向網(wǎng)絡(luò)就可以完成風格網(wǎng)絡(luò)的生成,不僅節(jié)省內(nèi)存同時還減少了計算時間。該方法在后來也被應(yīng)用于各種網(wǎng)絡(luò),也證明其具有較大優(yōu)勢。應(yīng)用于本文的網(wǎng)絡(luò)中大大改善了實驗效果。簡而言之,AdaIN通過傳遞特征統(tǒng)計信息,特別是通道的平均值和方差,在特征空間中進行樣式傳遞。

        神經(jīng)網(wǎng)絡(luò)在機器學習領(lǐng)域中是被廣泛應(yīng)用的,在本文中選擇了多層感知機(MLP)。MLP是一種前向結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它包括輸入層、輸出層以及若干隱藏層,層與層之間是全連接的。三層感知機的結(jié)構(gòu)如圖4。

        圖4 三層感知機結(jié)構(gòu)Fig.4 Structure of 3-layer percetron

        假設(shè)有m個樣本n個特征,則輸入層X∈R(m×n),設(shè)隱藏層有h個神經(jīng)元,則隱藏層的權(quán)重和偏差為Wh∈R(n×h)、bh∈R(1×h)。輸出的標簽值有q個則輸出層的權(quán)重和偏差參數(shù)分別是W0∈R(h×q)、bh∈R(1×q)。隱藏層的輸出和輸出層的輸出通過下列式子計算,可以知道,后一層的輸入就是前一層的輸出。

        上述兩個式子是對數(shù)據(jù)進行的線性變換,同時還要引入激活函數(shù)對除去輸入層的部分進行非線性變換,得到結(jié)果后再傳遞給輸出層。

        引入MLP 和AdaIN 這兩個模塊后,網(wǎng)絡(luò)結(jié)構(gòu)有了較大的調(diào)整,對于無監(jiān)督的訓練學習能夠得到更好的結(jié)果。解碼器根據(jù)得到的特征重建圖像,從而得到效果更好的風格圖片。同時,生成器和判別器交替訓練、互相對抗,各自也都得到更好的結(jié)果。

        2.2 損失函數(shù)

        本文架構(gòu)共包含兩個損失函數(shù)。Lpips函數(shù)作為內(nèi)容的損失函數(shù)進行計算,BCEWithLogitsLoss 函數(shù)作為對抗損失。

        2.2.1 Lpips函數(shù)

        在風格遷移中,選擇用一個感知損失函數(shù)來訓練網(wǎng)絡(luò)。計算感知相似度需要逐層計算網(wǎng)絡(luò)輸出對應(yīng)通道的余弦距離,然后計算距離在網(wǎng)絡(luò)空間維度和層之間的平均值。在文獻[16]中,作者為了驗證模型是否可以學習感知,對算法提出了三種變種,統(tǒng)稱為Lpips。Lpips的確在視覺相似性的判斷上更加接近人類的感知,是很優(yōu)秀的算法。

        公式(5)描述的是在網(wǎng)絡(luò)中如何計算塊x和x0之間的距離。首先從L層中提取特征堆棧,在通道維度中進行單元歸一化,將得到的結(jié)果記為利用向量wl∈縮放激活通道并計算l2的距離,最后在空間上算出平均值,然后基于通道求和。

        感知相似性其實并不是一個特殊的功能,它是對一些結(jié)構(gòu)進行預(yù)測的視覺特征的結(jié)果。例如,在語義的預(yù)測中,有效的歐幾里德距離也是感知相似度判斷的高度預(yù)測的表現(xiàn)。

        2.2.2 BCEWithLogitsLoss函數(shù)

        對于對抗損失采用的是BCEWithLogitsLoss函數(shù)進行計算,它將Sigmoid 和BCELoss 合為一個步驟,計算過程與BCELoss相似,只是多加了一個sigmoid層,數(shù)值也更加穩(wěn)定。它們是一組常用的二元交叉熵損失函數(shù),常用于二分類的問題中。BCELoss式子如下,其中y是target,x是模型輸出的值。

        BCEWithLogitsLoss函數(shù)的表示如下:

        3 實驗過程和分析

        3.1 實驗準備

        為了達到更好的實驗效果,動漫數(shù)據(jù)集從宮崎駿的動畫電影《千與千尋》《起風了》和《龍貓》中進行截圖,同時要保證每張圖片內(nèi)容沒有重復(fù),沒有相似,擴充得到了4 427張256×256的圖片。自定義現(xiàn)實圖片集也同樣通過網(wǎng)絡(luò)搜集得到共3 700張,包括各類風景、人物以及動物等圖片。

        本文實驗均在Windows10系統(tǒng)中完成,在深度學習框架pytorch+cuda10.1,NVIDIA2080下進行訓練。訓練分為兩個過程,先是初始化預(yù)訓練10 個epoch,再進入訓練,epoch 為500,batch size 為4,初始學習率設(shè)置為0.000 2。

        在初始化階段,引入文獻[17]的思想,對生成器網(wǎng)絡(luò)進行預(yù)訓練,重建輸入圖像,幫助網(wǎng)絡(luò)在適當階段收斂,同時也提高了樣式傳輸?shù)馁|(zhì)量。

        3.2 實驗結(jié)果及分析

        圖5 為選取的部分實驗結(jié)果圖,第一行為現(xiàn)實圖片,第二行為原始網(wǎng)絡(luò)生成的動漫化圖片,第三行為CycleGAN的生產(chǎn)結(jié)果,第四行為本文網(wǎng)絡(luò)生成的結(jié)果。

        圖5 部分實驗結(jié)果Fig.5 Part of experimental results

        可以看出,原始的GAN 算法容易產(chǎn)生不穩(wěn)定的效果,如第二行第四列,細節(jié)如圖6,圖片上方的紋理感明顯,色彩變化太大;而且原始算法的整體色彩都比較暗,飽和度較低,特別是圖像四周邊緣的色彩不均衡,與輸入圖片差距過大。而CycleGAN 的生成效果也并不理想,在色彩的處理上相對來說比較不真實。本文的網(wǎng)絡(luò)在整體的色彩、紋理以及細節(jié)的處理方面都比原始的網(wǎng)絡(luò)有很大的提升,再現(xiàn)了清晰的邊緣和光滑的陰影,生成的圖像穩(wěn)定性也較高,本文的模型結(jié)果是高質(zhì)量的。

        圖6 細節(jié)對比Fig.6 Detail contrast

        同時,還進行了兩次對比實驗,分別替換掉了兩個損失函數(shù),部分測試結(jié)果如圖7。

        圖7 部分對比實驗結(jié)果Fig.7 Part of contrast experimental results

        第二行為替換掉Lpips 函數(shù)的結(jié)果,第三行為替換掉BCE函數(shù)的結(jié)果,最后一行為本文效果??梢钥闯?,即使有相同的網(wǎng)絡(luò)架構(gòu),如果不選用本文的兩個損失函數(shù),結(jié)果仍然有較大的偏差。比如第二行的第二張圖片,顏色上有明顯的偏綠,而第四張圖片又明顯的顏色很淡,效果不穩(wěn)定;觀察第三行也可以發(fā)現(xiàn),整體圖片的顏色飽和度過低,紋理等與真實圖片沒有太大的差別。而本文的效果在向動漫風格進行轉(zhuǎn)變的同時又有很好的色彩還原度。

        另一方面,增加了幾種卡通動漫風格轉(zhuǎn)換方法的對比,部分結(jié)果展示如圖8,第二行為WhiteboxGAN 的生成結(jié)果,第三行為CartoonGAN的生成結(jié)果,最后一行為本文效果,可以看出在圖像的還原度上本文是較為優(yōu)秀的。同時細節(jié)對比如圖9。可以發(fā)現(xiàn),WhiteboxGAN的生成結(jié)果雖然色彩比較接近真實圖像,但是紋理過于失真,生成效果不協(xié)調(diào),而CartoonGAN色彩的處理上不夠真實,同時細節(jié)部分容易產(chǎn)生模糊效果,生成效果不理想,而本文在細節(jié)以及色彩的處理上仍然較好。

        圖8 卡通風格方法對比Fig.8 Cartoon-style method contrast

        圖9 細節(jié)對比Fig.9 Detail contrast

        通過多次實驗發(fā)現(xiàn),本文得到的效果還是比較令人滿意的。

        3.3 評價指標

        對于動漫圖像的評判其實沒有一個準確的標準,大部分情況下人們都是通過自我感覺去衡量。選擇用Fréchet inception distance(FID)[17]來評價實驗結(jié)果。FID專門用于生成對抗網(wǎng)絡(luò)性能的評估,它是合成圖像和真實圖像之間的特征向量距離的一種度量,距離越小,值越小,說明生成圖像與真實圖片的分布越接近,則實驗效果越佳,模型越好。兩個分布的距離公式如式(8):

        x代表真實圖像的分布,g代表生成圖像的分布,u、C代表提取特征之后特征向量的均值和協(xié)方差,tr 代表矩陣對角線上元素的總和,也就是矩陣的跡。FID對噪聲有很好的魯棒性,用在本文中也非常合適。

        由表1 中的數(shù)值可以看出本文的模型效果有了較大的提升,F(xiàn)ID 分數(shù)明顯優(yōu)于原始網(wǎng)絡(luò)、CycleGAN、CartoonGAN和WhiteboxGAN很多。

        表1 FID分數(shù)Table 1 FID score

        4 結(jié)束語

        本文基于生成對抗網(wǎng)絡(luò)的思想,提出了動漫風格化編碼的生成對抗網(wǎng)絡(luò),目的是將輸入的現(xiàn)實圖片轉(zhuǎn)換為宮崎駿動畫電影的動漫風格輸出。調(diào)整并優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),引入了AdaIN 和MLP 模塊,增加噪聲的輸入,能更好地提取風格編碼,增加內(nèi)容的損失函數(shù),調(diào)整對抗損失函數(shù),同時擴充了實驗數(shù)據(jù)集,增加了動漫圖片和現(xiàn)實圖片。實驗結(jié)果說明效果良好,與原始網(wǎng)絡(luò)相比得到了較大的提升,邊緣細節(jié)也能處理到位,F(xiàn)ID 分數(shù)有了較大進步。證明本文網(wǎng)絡(luò)能夠應(yīng)用于各種圖片的動漫風格輸出。

        圖像到圖像的轉(zhuǎn)換目前仍然具有很大的挑戰(zhàn)性,大多數(shù)的研究都是針對局部處理的,如人臉等。在無監(jiān)督領(lǐng)域中,還有很多問題值得去探索。在接下來的學習中,將繼續(xù)進行這方面的研究,爭取繼續(xù)減小FID分數(shù),在細節(jié)上取得更好的結(jié)果,同時研究如何提高圖像的分辨率和網(wǎng)絡(luò)的穩(wěn)定性、準確性,爭取不僅是動漫的風格,如油畫等的藝術(shù)風格遷移方面都能得到更好的效果。

        猜你喜歡
        動漫損失函數(shù)
        少問一句,損失千金
        二次函數(shù)
        第3講 “函數(shù)”復(fù)習精講
        胖胖損失了多少元
        二次函數(shù)
        函數(shù)備考精講
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        動漫二次元
        南風窗(2016年19期)2016-09-21 16:48:27
        鋒繪動漫
        看天下(2016年23期)2016-09-02 18:45:06
        開口笑
        故事大王(2016年1期)2016-04-21 17:49:25
        久青草影院在线观看国产| 官网A级毛片| 国产午夜在线观看视频| 变态另类手机版av天堂看网| 在线成人爽a毛片免费软件| 老熟女多次高潮露脸视频| av无码电影一区二区三区| 日日高潮夜夜爽高清视频| 国产欧美精品一区二区三区四区| 色偷偷久久一区二区三区| 久久久久久一级毛片免费无遮挡| 国产一级自拍av播放| 精品高朝久久久久9999| 成人h视频在线观看| 国产ww久久久久久久久久| 亚洲不卡av不卡一区二区| 亚洲国产一区在线二区三区| 日韩国产有码精品一区二在线| 国产一级二级三级在线观看av| 欧美性高清另类videosex| 人妻av中文字幕无码专区| 色综合久久久久综合999| 天堂精品人妻一卡二卡| 国产精品美女久久久网av| 无码国产午夜福利片在线观看| 亚洲av影院一区二区三区四区| 极品少妇一区二区三区| 最美女人体内射精一区二区 | 少妇太爽了在线观看| 麻豆国产VA免费精品高清在线| 亚洲女厕偷拍一区二区| 美女网站免费福利视频| 国内免费AV网站在线观看| 日本道免费一区日韩精品| 麻豆精品国产专区在线观看| 亚洲а∨天堂久久精品2021| 免费国产一级片内射老| 91久久精品一区二区| 国内精品伊人久久久久网站| 视频一区二区在线播放| 国产日韩精品视频一区二区三区|