亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于美學評判的文本生成圖像優(yōu)化

        2020-01-02 09:08:10徐天宇王智
        北京航空航天大學學報 2019年12期
        關鍵詞:美觀評判損失

        徐天宇,王智

        (清華大學 計算機科學與技術系,深圳518055)

        基于給定文本生成對應圖像是計算機視覺領域一項經(jīng)典且富有挑戰(zhàn)性的任務,顧名思義,即給出一句描述確定內容的文本(可描述某件物體或某個場景環(huán)境),通過一定架構的模型生成與文本內容相對應的圖像,使其盡可能做到逼近現(xiàn)實,能夠迷惑人眼的識別或一些模型的判斷。該任務需要在理解文本含義的基礎上,根據(jù)文本的內容構建出合理的像素分布,形成一幅完整的、真實的圖片。因為給出的文本所包含的信息量在通常情況下都遠少于其所對應生成的圖像(文本通常只對圖像中主體部分大致進行了描述,圖像則還包含主體所處背景、圖像全局特征等額外信息),所以一句給定的文本可能會對應許多符合其描述的圖像結果,這是文本生成圖像任務的難點所在[1]。在如今生活、制造等多方面邁向智能化發(fā)展的時期,文本生成圖像這一任務在實際生產(chǎn)生活當中具有非常廣的應用價值和潛力,比如應用于平面廣告設計領域,可以為廣告制作團隊生成廣告用的配圖,從而不必再專門雇用插畫制作人員;家具、日用品生產(chǎn)領域,可以通過給出一段產(chǎn)品描述,利用模型批量生成大量的產(chǎn)品概念圖,從而給設計者提供了可供選擇的樣例空間,降低設計環(huán)節(jié)的工作量。

        如今,基于給定文本生成圖像任務的實現(xiàn)都是基于從大量的圖像數(shù)據(jù)中學習并模擬其數(shù)據(jù)的分布形式來生成盡可能接近真實的圖像,尤其在對抗生成網(wǎng)絡(Generative Adversarial Networks,GAN)[2]的火熱發(fā)展下,借助其來實現(xiàn)文本生成圖像的任務已經(jīng)成為了主流選擇,目前也有許多生成效果優(yōu)秀的模型被提出。在這一研究方面,研究者所關注的重點是如何能夠提高生成模型生成圖片的真實性、清晰度、多樣性、解析度等問題,這些將直接影響生成模型的質量和性能,并關系到生成模型能否有效投入到實際應用當中。

        然而如果考慮到實際應用,圖像好看,或者有足夠的美觀度也是一項重要的需求。比如為平面廣告設計配圖,對圖像的要求不僅是清晰、真實,還應該擁有較高的美觀度,從而能夠吸引人的眼球,提高廣告的關注度。可以說,如果能夠實現(xiàn)提高此類模型生成圖片的美觀度,則在實際應用場景中將會給用戶帶來更加良好的使用體驗,從而提高此類應用的質量。遺憾的是,現(xiàn)在對文本生成圖像GAN的研究很少關注生成圖像的美觀質量,現(xiàn)有文獻中也并未發(fā)現(xiàn)有將美學評判與圖像生成相結合的研究,這成為了本文研究的動機。

        由此引出另一個問題:如何評判一幅圖像的美觀度。圖像的美觀度評判實際上是一項帶有主觀性質的任務,每個人因不同的閱歷、審美觀甚至所處環(huán)境、情感狀態(tài)等多方面因素的影響,對同一幅圖像有可能會給出完全不同的評價。然而,面對互聯(lián)網(wǎng)空間與日俱增的圖片數(shù)量,借助人力對其進行美觀度的評價是不切實際的。因此,研究借助計算機進行自動化圖像美觀度評判成為了計算機視覺領域另一項研究課題,至今也有許多研究者提出了實現(xiàn)原理各異且效果優(yōu)良的美觀度評判模型。借助這些模型,可以對目標圖像進行分類或評分,給出盡可能接近符合多數(shù)人評價標準的評判結果。

        借此,本文致力于研究從美觀度的角度對文本生成圖像GAN的生成結果進行優(yōu)化的方法。本文的貢獻和創(chuàng)新點如下:

        1)從實際應用的角度出發(fā),將生成結果美觀度加入評價文本生成圖像GAN模型生成結果的評價指標,以目前受到較高認可度的文本生成圖像GAN模型——StackGAN++[3]為基礎,從美觀度的角度對其生成結果進行評估,以觀察其生成結果的美觀度質量。

        2)將美觀度評判模型融入該GAN的生成模型當中,通過增添美學損失的方式改造生成模型,從而在模型訓練過程中加入美學控制因素,引導模型生成美觀度更高的結果。本文提出的改進方法使得模型生成圖像的總體美學質量(以IS(Inception Score)為評價指標[4])提高了2.68%,其生成圖像結果整體的美觀度指標提高了3.17%。

        1 相關工作

        1.1 美觀度評判模型

        隨著網(wǎng)絡空間中圖片數(shù)量的急速增長,在圖片檢索領域為了能夠更好地為用戶甄選返回圖像的質量、給用戶返回更高質量的搜索結果,對圖片按美學質量進行分類的需求逐漸增加。圖片所附帶的數(shù)據(jù)標簽(如喜歡該圖的人的數(shù)量、圖片內容等)可以作為美觀度評價的一類較為有效的標準,但大部分的圖片并不存在類似這樣的標簽,雖然如今有許多研究已能夠做到給圖片準確高效地進行標簽標注[5],然而即使每幅圖片均被標注了足夠用以進行評判的標簽,圖片龐大的數(shù)量又使得人工評判工作量巨大,因此需要能夠對圖片進行美觀度評判的模型,由計算機來完成這一任務。

        受到心理學、神經(jīng)科學等領域中對人類美學感知的研究成果啟發(fā),計算機視覺領域的研究者們通過模擬、復現(xiàn)人類處理接收到的圖像視覺信息的過程,設計實現(xiàn)了一系列自動評判圖片美學質量的模型[6]。圖像美觀度評判模型一般遵循一個固定的流程:首先對輸入圖像進行特征提取,然后借助提取的特征,利用訓練好的分類或回歸算法獲得相應的結果。

        特征提取則是其中非常重要的一環(huán),因為特征信息是對圖像美學質量的概括,其決定了美觀度評判模型的精確度。選取得當?shù)奶卣骷饶芴岣吣P驮u判的精確度,又能減少不必要的計算量,因為不同特征對于圖像美學質量的貢獻度是不同的[7]。早期的研究中,研究者們通常選擇以繪畫、攝影所用的美學規(guī)則理論和人的直觀感受為依據(jù),自主設計所要提取的特征,比如清晰度、色調、三分規(guī)則等。這類方法的好處是直觀、易于理解,但缺點在于所設計的特征通常不能很全面地描述圖像美學信息,而且設計特征對于研究者的工程能力和相關領域知識了解程度都有較高的要求。而隨著深度學習領域的不斷發(fā)展,將卷積神經(jīng)網(wǎng)絡(Convolitional Neural Networks,CNN)應用于圖像處理這一方式展現(xiàn)出了卓越的效果。借助CNN能夠從大量的圖像數(shù)據(jù)中學習到有力的圖像特征表示,其所包含的信息量遠超人工特征設計所設定的特征[8],從而使得CNN處理圖像的方式在圖像處理領域得到廣泛應用,并逐漸成為主流選擇的方法。深度學習方法應用于圖像美觀度評判的特征提取環(huán)節(jié),主要有2種方式:第1種是借助已有的深度學習圖像處理模型,利用其中間層特征作為評判依據(jù),采用傳統(tǒng)的分類或回歸方法進行美觀度評判;第2種是對已有的模型進行改造,使得其能夠從圖像數(shù)據(jù)中學習到新的隱藏的美學特征,并借此對圖像的美觀度作出評判。

        本文采用的是Kong等[9]設計的美觀度評判模型。該模型隨AADB(Aesthetics and Attributes Database)數(shù)據(jù)集一同提出,其基于AlexNet[8]改造得來,通過提取圖片的內容特征以及自定義的屬性標簽特征來幫助判斷圖像的美觀度。此外,該模型吸收了Siamese網(wǎng)絡[10]的結構,實現(xiàn)了接收兩幅一組的圖像作為輸入并給出它們之間相對評分的功能,同時提出了2種對圖像進行成對采樣的訓練方式來輔助增加結果的精確度。實驗結果表明該模型在AVA(Aesthetic Visual Analysis)數(shù)據(jù)集上的判別準確率達到77.33%,超過了當時已有的許多模型的表現(xiàn)。作者并未對該模型進行命名,為方便說明,下文中統(tǒng)一用“AADB模型”對其進行代指。

        1.2 文本生成圖像GAN

        GAN的提出是機器學習領域一項重大的突破,其為生成模型的訓練提供了一種對抗訓練的思路。相比于傳統(tǒng)的生成模型如變分自編碼器、玻爾茲曼機,GAN優(yōu)勢有:其訓練只需借助反向傳播而不需要馬爾可夫鏈、能夠產(chǎn)生全新的樣本以及更加真實清晰的結果、簡化任務設計思路等,因此,其成為了現(xiàn)今機器學習領域十分火熱的研究課題。

        GAN的結構一般可分為兩部分:生成器部分,負責接收一段隨機噪聲作為輸入來生成一定的結果;判別器部分,負責接收訓練數(shù)據(jù)或生成器生成的數(shù)據(jù)作為輸入,判斷輸入是來自哪一方。生成器的最終目標是生成能夠徹底欺騙判別器的數(shù)據(jù),即判別器無法區(qū)分輸入數(shù)據(jù)來自真實數(shù)據(jù)分布還是生成器擬合的數(shù)據(jù)分布;而判別器的最終目標是有效區(qū)分其輸入來源,識別出來自生成器的輸入。GAN的訓練正是基于這種博弈的過程,令生成器和判別器二者之間進行對抗,交替更新參數(shù),當模型最終達到納什均衡時,生成器即學習到了訓練數(shù)據(jù)的數(shù)據(jù)分布,產(chǎn)生相應的結果。

        雖然GAN擁有良好的表現(xiàn)力和極大的發(fā)展?jié)摿?,但其本身還存在一些缺點,比如訓練困難、無監(jiān)督使得生成結果缺少限制、模式崩潰、梯度消失等問題。后續(xù)許多研究者對GAN從結構[11]、訓練方法[12]或實現(xiàn)方法[13]上進行了改進,逐漸提高了GAN訓練的穩(wěn)定性和生成效果。此外,CGAN(Conditional GAN)[14]將條件信息與生成器和判別器的原始輸入拼接形成新的輸入,用以限制GAN生成和判別的表現(xiàn),使得GAN生成結果的穩(wěn)定性得到提高。

        利用GAN來實現(xiàn)文本生成圖像任務也是基于CGAN的思想,以文本-圖像組合為訓練數(shù)據(jù),文本作為輸入數(shù)據(jù)的一部分,在生成器中與隨機噪聲拼接作為生成器的整體輸入,在判別器中則用于形成不同的判斷組合——真實圖片與對應文本、真實圖片與不匹配文本、生成器生成圖片與任意文本并進行鑒別。文本數(shù)據(jù)通常會借助其他編碼模型將純文字信息轉化為一定維數(shù)的文本嵌入向量,用以投入模型的訓練計算當中。最先利用GAN實現(xiàn)文本生成圖像任務的是Reed等[15]提出的GAN-INT-CLS模型,其吸收了CGAN和DCGAN(Deep Convolutional GAN)[11]的思想,同時提出改進判別器接收的文本-圖像組合輸入(新增真實圖像與不匹配文本的組合)以及通過插值的方式創(chuàng)造新的文本編碼向量兩種方法來提高生成結果的質量和豐富度,生成了64×64大小的圖像。隨后該領域的一項重要突破是Zhang等[16]提出的StackGAN模型,該模型通過使用2個生成器的方式生成圖像,首次實現(xiàn)了只借助給定文本的條件下生成256×256大小的圖像。該模型中,第1個生成器接收隨機噪聲與文本向量的拼接來生成64×64大小的中間結果,第2個生成器則使用該中間結果與文本向量作為輸入,這種方式可以實現(xiàn)利用文本信息對中間結果進行修正和細節(jié)補充,來獲得質量更高的256×256大小圖像的結果。

        在StackGAN的理論基礎上,Zhang等[3]提出了StackGAN++模型。該模型使用3個生成器-判別器組以類似樹狀的方式連接,其中3個生成器分別對應生成64×64、128×128、256×256大小的圖像,第1個生成器以文本向量和隨機噪聲的拼接為輸出,之后每一個生成器接收前一個生成器生成的圖像結果與文本向量作為輸入,生成下一階段的圖像結果;每一個判別器接收對應階段的生成器的輸出與文本向量進行判別,計算條件生成損失。此外,Zhang等[3]引入了無條件生成損失,即計算在不使用文本信息的情況下生成圖片的損失,與條件生成損失相結合,引導模型的訓練,最終進一步提高了生成圖片的質量。本文即選用了該模型進行基于美學評判的優(yōu)化改進研究。

        此后文本生成圖像GAN的研究多在類似StackGAN++的多階段生成模式基礎上,通過加入各種輔助信息來幫助生成器生成更好的結果,如AttnGAN(Attentional GAN)[17]引入了注意力機制,分析對比生成圖像與對應文本之間的特征相似度,并利用對比結果輔助生成器的訓練;Cha等[18]則通過引入感知損失的方式,從圖像特征層面進行對比來輔助生成器更好地學習到訓練數(shù)據(jù)的分布。

        2 Stack GAN++的美學質量分析

        在提出基于美學評估的對StackGAN++模型的優(yōu)化方法之前,需要了解該模型目前生成結果的美學質量如何。本節(jié)將利用AADB模型對其進行初步測量。

        本節(jié)實驗使用的StackGAN++模型是基于Caltech-UCSD Birds 200鳥類圖像數(shù)據(jù)庫2011版訓練的鳥類圖像生成模型,其測試數(shù)據(jù)集中包含2 933張圖像,每張圖像對應10條文本說明,其中文本數(shù)據(jù)需經(jīng)過 char-CNN-RNN 模型編碼。Zhang等[3]給出了其模型源碼的github地址(https://github.com/hanzhanggit/StackGAN-v2)。

        本文實驗運行于Ubuntu 16.04操作系統(tǒng),使用GeForce GTX 1080 Ti顯卡進行訓練。軟件環(huán)境方面,本實驗利用Adaconda2搭建python2.7虛擬環(huán)境,并需要安裝Pytorch1.0以及caffe1.0(分別對應StackGAN++以及AADB模型運行所需)。

        2.1 測試數(shù)據(jù)集生成結果的美觀度分布

        首先針對測試數(shù)據(jù)集所產(chǎn)生的樣本進行美觀度評判,觀察其分布狀況。理論情況下,訓練數(shù)據(jù)集中包含了29 330條語句對應的嵌入向量,經(jīng)由生成模型后獲得29 330張圖像結果,實際運行中由于StackGAN++模型所采用的批處理訓練策略,最終生成圖像數(shù)量為29 280張,但從整體數(shù)量的規(guī)模來看并不影響對于其整體美觀度評價的判斷。利用AADB模型獲得生成圖像的美學分數(shù),其分布如圖1所示。

        由AADB模型計算得出的美學分數(shù)集中于[0,1]區(qū)間,在特殊情況下會超過1。為了便于標注美學分數(shù)的分布區(qū)間,在繪制區(qū)間分布柱狀圖時,將由AADB模型獲取的美學分數(shù)(超過1的截斷至0.999 9)乘以10,這種表示方法也符合實際生活中人工評判時的常用取值范圍選擇;在展示降序分布時則直接采用模型輸出的結果范圍來標注分數(shù)坐標軸。圖1(a)表明,原始StackGAN++在測試數(shù)據(jù)集上生成圖像的美學分數(shù)集中在5~8的區(qū)間段內,占總體的78.6%,其中6~7區(qū)間段內的圖像數(shù)量最多,占整體結果數(shù)量的33.9%。而圖1(b)表明,在5~8區(qū)間段內,圖像的美學分數(shù)變化呈現(xiàn)出均勻平緩的變化趨勢,并沒有出現(xiàn)在某一節(jié)點大幅變動的情況。

        29 280 張生成結果的平均美學分數(shù)為0.628 28。根據(jù)AADB模型作者給出的評判標準,一張圖片的分數(shù)超過0.6則可以認為是一張好圖片,低于0.4則認為是一張差圖片,在兩者之間認為是一張一般性質圖片,而本文出于后續(xù)實驗樣本劃分的考慮,將好圖片的下限標準提高至0.65,差圖片的上限標準提高至0.5。由此來看,模型的平均結果處于一般質量的區(qū)間,說明原模型的整體生成結果從美觀度的角度來講仍然存在可以提升的空間。本文從全部生成結果中選擇美學分數(shù)最高以及最低的圖片各10張的結果,交由真人進行主觀評判,其結果均與美學分數(shù)表現(xiàn)出對應關系,即認為最高分數(shù)的10張圖片擁有較高的美觀度,而最低分數(shù)的10張圖片則評價一般或交叉表明AADB模型給出的美學分數(shù)對圖像美觀度的評價能較好地符合人的直觀感受。

        圖1 StackGAN++在測試數(shù)據(jù)集上的美學分數(shù)分布Fig.1 Distributions of aesthetic score of images generated by Stack GAN++using test dataset

        2.2 固定文本批量生成圖像結果的美觀度分布

        如果想要達成提高生成模型美觀度質量的目標,一個簡單的想法是,可以對同一條語句,一次性批量生成大量的圖片,按美觀度模型給出的分數(shù)進行降序排序,從中選出分數(shù)最高圖像作為輸出結果,或以分數(shù)排序最靠前(分數(shù)最高)的一定數(shù)量的圖像作為輸出結果,再交由模型使用者自行判斷選擇最終的結果。這種方法雖然存在嚴重的效率問題,但易于實現(xiàn)且非常直觀。其中的問題在于確定生成圖像的數(shù)量,因為隨著生成圖像數(shù)量的增加,其多樣性也會隨之增加。也更容易出現(xiàn)更多美觀度高的圖像結果,但進行美觀度評判以及排序選擇的時間消耗也會隨之增加,因此若選擇此種做法作為優(yōu)化方法,需要在生成結果質量以及模型運行效率之間尋求一個平衡點。

        圖2 原模型輸入同一文本在不同生成數(shù)量情況下的美學分數(shù)分布Fig.2 Disrtributions of aesthetic score of images generated by the same text in original model with different generating quantities

        基于以上考慮,除對測試集整體進行美觀度評判以外,還從中選擇一批(實驗設定為24)數(shù)量的文本輸入數(shù)據(jù),針對每一條文本數(shù)據(jù)生成不同數(shù)量的圖片來觀察其美學分數(shù)的分布。選擇100、200、350、500、750、1 000共6種生成數(shù)量,針對選定的文本數(shù)據(jù)生成對應數(shù)量的圖像,利用AADB模型計算生成結果的美學分數(shù)。圖2展示了其中一條文本的結果。結果表明,美學分數(shù)在各個區(qū)間的分布狀況是相近的,基本不受一次性生成數(shù)量的影響。6組結果都表現(xiàn)出生成圖像的美學分數(shù)集中于5~7的區(qū)間內的分布狀況,且隨著生成數(shù)量的增加,高分圖像的出現(xiàn)頻率也越來越高。表1展示了6組分布結果中最高分數(shù)圖像的分數(shù)與分數(shù)前10高圖像的平均分數(shù),表明了一次性生成數(shù)量越多,即使是處于高分分段的圖像其整體的質量也會得到提高,也驗證了本節(jié)第一段所述的情況。但面對最高分數(shù)的情況,因生成模型會以隨機噪聲作為輸入來生成圖像,這導致了其對生成結果的不可控性,所以生成結果會出現(xiàn)一定的擾動,使得最高分圖像的分數(shù)與生成數(shù)量之間并不存在確定的正相關關聯(lián)性。

        表1 不同生成數(shù)量情況下最高分數(shù)與前10平均分數(shù)Table 1 Highest aesthetic score and average of top 10 aesthetic scor e when generating different quantities of images

        3 基于美學評判的圖像生成優(yōu)化

        原始的Stack GAN++模型采用了3組生成器-判別器組合,以類似樹狀的方式進行連接,每一個生成器生成不同尺寸的圖像,并作為下一個生成器輸入數(shù)據(jù)的一部分。其中每一個生成器的損失LGi(i=1,2,3)計算式為

        式中:pGi為生成器Gi學習到的數(shù)據(jù)分布;si為生成器Gi生成的結果;c為文本向量;Di為與生成器Gi對應的判別器,其接收單個輸入si或雙輸入si和c,輸出相應的判別結果;E[·]表示期望函數(shù)。

        該損失計算方式由兩部分組成,前一部分計算生成器不利用文本向量生成圖像的損失,即無條件損失,該部分用以監(jiān)督生成器生成更加真實的、使判別器認為來自于真實數(shù)據(jù)分布的數(shù)據(jù);后一部分計算生成器利用了文本向量生成圖像的損失,即條件損失,該部分用來監(jiān)督生成器生成符合輸入文本描述的圖像,即保證文本與圖像之間的一致性。在StackGAN++的理論描述中,Zhang等[3]認為每一個生成器生成的圖像雖然大小不同,但都是基于同一條文本生成的,所以它們彼此之間應該保持相似的色彩和基本結構,并提出了色彩一致性損失用來保證3個生成器生成圖像之間擁有較高的色彩一致性。但經(jīng)過實驗作者發(fā)現(xiàn)在基于文本生成的模式下,色彩一致性所起到的作用十分微弱,因為其對生成結果的約束力要遠遠小于文本-圖像一致性的約束,即式(1)中的Esi~pGi[ln Di(si,c)]。式(2)為生成器的總體損失(下文稱為對抗損失)計算公式,用于訓練過程中的梯度計算。

        受到Johnson等[19]提出的感知損失的啟發(fā),本文將AADB模型與StackGAN++的生成器結合,用于在生成模型訓練過程中提供輔助訓練信息,達成從美學角度來優(yōu)化生成模型的目的。具體地,在式(2)的基礎上,加入一項新定義的損失——美學損失Laes,其計算式為

        式中:Aes函數(shù)表示使用AADB模型計算生成結果s3的美學分數(shù)。2.1節(jié)中,AADB模型計算得出的美學分數(shù)存在超過1的情況,因此在計算美學損失時,會對模型返回的美學分數(shù)進行判斷,如果其超過了1,則將其截斷至0.999 9。該損失實際計算了最后一階段生成器G3生成結果的美學分數(shù)與1之間的歐幾里得距離,最小化該損失即最小化生成結果美學分數(shù)與1之間的差距,代表了生成結果美學質量的提升。最后,加入了美學損失后新的生成器損失計算公式為

        式中:β為美學損失的權重,用來控制其在總體損失中所占的比例,β越大則美學損失所占的比例越大。β為0時,模型即還原為StackGAN++。

        由于美學損失的作用是引導生成器生成美觀度更高的圖像,而對抗損失則是控制整個訓練過程以及生成結果的關鍵,保證了生成器能夠生成符合文本描述的真實圖像,這是文本生成圖像模型最基本的目的,因此β值的選擇應當在保證在訓練過程中美學損失起到的調控作用不會壓過對抗損失的前提下對生成結果的美觀度產(chǎn)生影響。

        4 實驗與性能評估

        選取不同的美學損失權重β進行訓練,以IS作為訓練獲得模型的質量的衡量指標,在保證IS與原模型相比不降低的前提下,觀察其生成結果的美觀度分布情況。IS是借助Inception Model[20]計算得出的用來衡量GAN圖像生成效果的最常用指標之一,通常情況下其數(shù)值越大代表GAN生成的圖像具有更高的多樣性和真實性,進而代表生成圖像的總體質量更好。在文本生成圖像GAN領域,IS被廣泛用來進行不同GAN之間的效果對比。

        本節(jié)所使用的環(huán)境與第2節(jié)對StackGAN++本身進行美學質量分析的實驗環(huán)境相同,故此處不再贅述。模型訓練過程采用批訓練策略,每個批包含24條文本嵌入向量,每一個時期(epoch)中包含368個批的訓練過程,下文將一個批完成一次訓練的過程稱為一步(step)。訓練過程包含600個時期,并于每2000步的時間節(jié)點保存一次模型參數(shù),以便于訓練完成后根據(jù)保存時模型的表現(xiàn)選取效果最好的模型。本文提出的優(yōu)化方法的實現(xiàn)流程如圖3所示。

        圖3 基于美學評判的文本生成圖像優(yōu)化方法實現(xiàn)流程Fig.3 Procedure of text-to-image synthesis optimization based on aesthetic assessment

        本文選取β=45,0,0.000 1,分別進行了訓練。選擇45是因為,觀察StackGAN++訓練時生成器的對抗損失發(fā)現(xiàn)對抗損失與美學損失的比值在50左右。因此,當β=45時,對抗損失與經(jīng)權重放大的美學損失在數(shù)值上比較接近;1與0.000 1是基于經(jīng)驗的選擇,取β=1時美學損失與對抗損失平權,而β=0.000 1則是參考了Cha等[18]提出的感知損失的權重選取。訓練完成后,對應每個β取值各形成了一組于不同時間節(jié)點保存的模型,分別從中選取IS分數(shù)最高的模型作為對應取值下的結果模型。在對選定的模型進行美學質量評判之前,需要先考察它們所生成的圖片的總體質量,以確保在引入了美學損失后沒有出現(xiàn)模型生成圖像質量下降的情況。表2展示了3種取值對應模型與原模型的IS數(shù)據(jù),其中β為0即代表未引入美學損失的原始Stack GAN++模型。

        通過對比,當β=0.000 1時,模型在IS上取得最高的數(shù)值,并且超過了原始模型的IS,表明美學損失的引入還起到了提高模型生成效果的正面效應。這是可以理解的,因為當生成器生成了一幅效果很差的圖像,例如模糊不清或主體扭曲變形,此時美觀度評判模型將會給出較低的分數(shù),使得美學損失增大并導致生成器總損失增大。此外,當β=45時,模型的IS分數(shù)降低,表現(xiàn)為生成器生成圖像的質量有所下降。對β=45時獲得的模型所生成的圖像進行人工評判的結果也反映出這時生成圖像出現(xiàn)了更多的模糊、失真等不良結果。因此,β=45的情況已無繼續(xù)討論的價值,此后美學層面的實驗和數(shù)據(jù)統(tǒng)計也不再考慮此種情況。當β=1時,模型的IS與原模型相比十分接近,還需通過美學分數(shù)的分布對比來確定在此情況下美學損失是否起到了優(yōu)化的作用。

        為了驗證美學損失是否對生成模型結果的美學質量起到了優(yōu)化作用,接下來計算了使用β=1,0.000 1這2種情況的模型在測試數(shù)據(jù)集上生成的29 280張圖像的美學分數(shù)分布情況;同時針對一個批的24條文本嵌入向量,每條文本生成1 000張圖像,計算其美學分數(shù)的分布,數(shù)據(jù)結果如圖4所示(這里選出一條文本生成的1 000張圖像的美學分數(shù)分布進行展示)。表3展示了2種β取值下模型在測試數(shù)據(jù)集上的生成結果的美學分數(shù),同時一并列出了原模型在測試數(shù)據(jù)集上生成結果的美學分數(shù)作為對比。從表中可知,當β=0.0001時,由測試數(shù)據(jù)集生成的圖像其平均美學分數(shù)與原模型相比提高了3.17%;表4給出了原模型與β=0.000 1優(yōu)化模型分別生成的24組針對同一條文本的1 000幅圖像平均美學分數(shù)對比情況,也可以發(fā)現(xiàn)大部分文本生成結果的美學分數(shù)與原模型的生成結果相比有所提高。同時由圖4所示的美學分數(shù)分布情況也能看出,此時高分段圖像的數(shù)量增加,較低分段圖像的數(shù)量減少,表明美學損失起到了調控生成結果美觀度的作用。圖5展示了原模型與β=0.000 1的優(yōu)化模型使用4條文本對應生成的1 000張圖像中等距抽取10張圖像的結果(每個分圖第1行為原模型,第2行為優(yōu)化模型,每個模型對每條文本均生成1 000張圖像),每行圖像從左到右按美學分數(shù)從高到低的順序排列,從中可以直觀感受到,經(jīng)過美學優(yōu)化的生成模型所生成的圖像結果在色彩對比度、整體色調、背景虛化簡單化等方面均有一定優(yōu)勢,反映了其美觀評價相比原模型有所提升。

        表2 不同β取值對應模型的ISTable 2 IS of models using differentβ

        圖4 不同β取值情況下測試數(shù)據(jù)生成結果與選定一條文本的生成結果美學分數(shù)分布Fig.4 Distributions of aesthetic scores of images generated by models with differentβusing texts from test dataset and chosen text

        表3 不同β取值對應模型的美學分數(shù)對比Table 3 Comparison of aesthetic scor es of models using differentβ

        表4 原模型與優(yōu)化模型使用24條文本生成1 000張圖像的平均美學分數(shù)對比Table 4 Comparison of average aesthetic score of 1 000 images generated by original models and optimized models using 24 different texts

        圖5 從原模型與優(yōu)化模型對4條文本各生成的1 000幅圖像中等距抽取圖像對比Fig.5 Comparison of systematic sampling results of images generated by original model and optimized model using 4 chosen texts(1000 images for each text and each model)

        5 結 論

        本文提出了一種基于美學評判的文本生成圖像GAN的優(yōu)化方法,利用美觀度評判模型獲得生成器生成圖像的美學分數(shù),計算該生成圖像的美學損失,與模型本身的對抗損失以適當?shù)臋嘀仃P系相結合,作為該生成器新的損失并重新訓練模型,最后對獲得的新模型生成的圖像進行了美學質量的統(tǒng)計與和原模型的對比。實驗所得結論如下:

        1)經(jīng)過本文方法獲得的生成模型,其生成結果的美觀度與原模型相比得到了提升,同時IS分數(shù)也有所提高,表明美學損失能夠起到提高生成模型質量的作用。

        2)該方法同時也存在一定的局限性:首先,利用本文方法選取的美學損失權重只適用于本文實驗所用的鳥類數(shù)據(jù)集,而如果需要在其他數(shù)據(jù)集上應用本文方法,除了原始模型需要更換以外,權重的選取也需要全部從頭開始,這也與文本生成圖像類GAN和美學模型本身的性質有關;其次,權重選取尚未找到一個公式化的方法,都是借助經(jīng)驗來試探性的選擇。

        未來的工作將分為2個部分,一是基于文中的實驗繼續(xù)調整美學損失的權重,尋找最佳的參數(shù)以使得生成結果能進一步提高;二是尋找其他美學損失的計算方式,以使得美學因素能夠取得更好的訓練調控效果。

        致謝感謝耀萃基金數(shù)據(jù)智能創(chuàng)新聯(lián)合實驗室(InfleXion Lab)提供的幫助!

        猜你喜歡
        美觀評判損失
        交流與評判
        少問一句,損失千金
        汽車輪胎與翼子板視覺美觀性分析
        胖胖損失了多少元
        曬曬我的語文作業(yè)
        基于學習的魯棒自適應評判控制研究進展
        自動化學報(2019年6期)2019-07-23 01:18:18
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        詩歌評判與詩歌創(chuàng)作
        文學教育(2016年27期)2016-02-28 02:35:12
        一般自由碰撞的最大動能損失
        微創(chuàng)拔牙結合牙齦成形術在義齒美觀修復中的應用
        欧美xxxx新一区二区三区 | 国语自产偷拍精品视频偷| 女人张开腿让男人桶爽| 男女性杂交内射妇女bbwxz| 久久久久久曰本av免费免费| 熟妇人妻av中文字幕老熟妇 | 精品国免费一区二区三区| 国产一区二区三区视频了| 国产精品三级在线不卡| 午夜av天堂精品一区| 亚洲综合精品中文字幕| 日本熟妇色xxxxx日本妇| av人摸人人人澡人人超碰妓女| 久久精品国产亚洲av麻| 水蜜桃久久| 911国产在线观看精品| 国产黄色污一区二区三区| 偷拍一区二区三区四区视频| 亚洲日韩小电影在线观看| 国产成人精品一区二区三区免费| 国产一区二区波多野结衣| 亚洲欧美日韩一区二区在线观看| 国产av91在线播放| 中文字幕中文字幕三区| 产美女被爽到高潮免费a| 久久无码人妻一区二区三区午夜| 又硬又粗又大一区二区三区视频 | 亚洲最大av网站在线观看| 中国凸偷窥xxxx自由视频妇科| 亚洲色图在线观看视频| 亚洲老熟妇愉情magnet| 国产av精品一区二区三区不卡| 日韩免费精品在线观看| 日本真人边吃奶边做爽动态图 | 国产精品第一二三区久久| 看全色黄大色黄大片 视频| 欧美日韩精品一区二区在线视频| 国产女人91精品嗷嗷嗷嗷| 精品国产亚洲av高清日韩专区| 蜜臀一区二区三区精品| 999国内精品永久免费观看|