亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于生成對抗網(wǎng)絡(luò)的圖像著色技術(shù)的研究

        2021-05-30 10:35:26蘭勝杰江柏霖
        關(guān)鍵詞:優(yōu)化模型

        岳 杰 蘭勝杰 江柏霖

        (河北建筑工程學(xué)院,河北 張家口 075300)

        1 引 言

        近年深度學(xué)習(xí)在圖像識(shí)別和圖像分類管理以及圖像處理技術(shù)方面風(fēng)靡一時(shí),神經(jīng)網(wǎng)絡(luò)的使用遠(yuǎn)遠(yuǎn)大于傳統(tǒng)算法,而使用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)對黑白和灰度圖像以及老照片的色彩恢復(fù)也成為熱點(diǎn)研究之一.目前手工上色黑白圖像需要花費(fèi)很大的時(shí)間和人力成本,并且上色的效率和上色的效果不是很高,然而借用神經(jīng)網(wǎng)絡(luò)上色可以對黑白和灰度圖像以及老照片進(jìn)行批量處理著色,在節(jié)約時(shí)間人力成本的同時(shí)也提高了黑白圖像的可塑性以及上色后的視覺沖擊力.本文的實(shí)驗(yàn)技術(shù)基于14年提出的GAN模型[1]對黑白和灰度圖像進(jìn)行著色處理,該模型主要包括發(fā)生器G(Generator)和鑒別器D(Discriminator)兩個(gè)主要部分,其中G的常見結(jié)構(gòu)也看作一種特殊的卷積操作,即轉(zhuǎn)置卷積,生成器的目的是用來拿到圖像的特征分布內(nèi)容,生成圖像,通過可學(xué)習(xí)方式使特征圖增大.D的結(jié)構(gòu)是卷積神經(jīng)網(wǎng)絡(luò),變相可以當(dāng)作一個(gè)二分類器,區(qū)分輸出圖像的真假,損失數(shù)值.在輸出端給出判別概率.該模型的核心就是這兩部分主體互相對抗、互相優(yōu)化然后互相再對抗[2],G產(chǎn)生圖像欺騙判別器D,而判別器去對該圖像進(jìn)行判斷真假,如果判斷成功則G優(yōu)化,以此迭代互相優(yōu)化,達(dá)到動(dòng)態(tài)平衡,直到整個(gè)模型可以輸出與原始數(shù)據(jù)相差不多的圖像.

        本文根據(jù)GAN的網(wǎng)絡(luò)特點(diǎn)優(yōu)化超參數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)以及激活函數(shù)等,將彩色圖片數(shù)據(jù)集進(jìn)行像素歸一化調(diào)整,并產(chǎn)生對應(yīng)灰度數(shù)據(jù)圖像,將模型預(yù)訓(xùn)練操作,在訓(xùn)練學(xué)習(xí)的同時(shí)對測試圖像進(jìn)行著色處理.

        2 生成對抗網(wǎng)絡(luò)的原理

        生成對抗網(wǎng)絡(luò)由兩個(gè)神經(jīng)網(wǎng)絡(luò)互相博弈互相優(yōu)化的過程[3],將隨機(jī)噪聲和圖像輸入生成器模型生成對應(yīng)圖像,然后將生成的圖像和原始圖像一起輸入判別器模型進(jìn)行判斷,輸出一個(gè)真實(shí)概率,標(biāo)準(zhǔn)GAN結(jié)構(gòu)圖1如下所示:

        圖1 標(biāo)準(zhǔn)GAN結(jié)構(gòu)圖

        兩個(gè)主要板塊在互相博弈互相欺騙并互相優(yōu)化的過程中整個(gè)模型會(huì)趨于平衡和穩(wěn)定[4],函數(shù)表達(dá)式如下(1):

        min maxV(D,G)=Ex-Pdata(x)[log D(x)]+Ex-Pz(z)[log(1-D(G(z)))]

        (1)

        我們在訓(xùn)練的過程中發(fā)現(xiàn)生成對抗網(wǎng)絡(luò)GAN的訓(xùn)練穩(wěn)定性很低,原始GAN模型的這兩個(gè)G和D只要能滿足可以擬合產(chǎn)生和辨別的函數(shù)便能用來當(dāng)作整個(gè)模型的兩大板塊,但是本文選擇擅長用來擬合判別函數(shù)的神經(jīng)網(wǎng)絡(luò)分別作為G和D,但是常常D太強(qiáng),G太弱,我們需要分別對D和G訓(xùn)練,必要的時(shí)候可以把D學(xué)到的特征直接傳給G,變成一種新的目標(biāo)函數(shù).

        3 網(wǎng)絡(luò)結(jié)構(gòu)

        該網(wǎng)絡(luò)主要包含兩大部分,生成器G的模型和判別器D的模型共同組成了這個(gè)網(wǎng)絡(luò)架構(gòu),大多數(shù)圖像上色技術(shù)依舊還是會(huì)融入一種編碼器/解碼器的網(wǎng)絡(luò)結(jié)構(gòu)[5],這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)的好處在于原始數(shù)據(jù)和結(jié)果數(shù)據(jù)可以一起分配圖像的像素?cái)?shù)據(jù)和位置數(shù)據(jù),并可以完全經(jīng)過整個(gè)網(wǎng)絡(luò),該網(wǎng)絡(luò)結(jié)構(gòu)將原圖像的信息壓縮提取精髓再通過解碼器來解壓圖像信息,然后進(jìn)行對比測出誤差反向傳遞,編碼器網(wǎng)絡(luò)結(jié)構(gòu)示例如圖2所示,通過壓縮原有信息提取最小特征集合并放入提前訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),編碼器起到了給特征屬性降維的作用.

        圖2 編碼器網(wǎng)絡(luò)

        解碼器Decoder在訓(xùn)練時(shí)將最小特征集合解壓成重構(gòu)的原始信息,相當(dāng)于一個(gè)解壓器,與GAN中的生成器類似,結(jié)構(gòu)示例如圖3所示:

        圖3 解碼器網(wǎng)絡(luò)

        3.1 生成器模型

        本文生成器G的模型采用了基于FCN(Fully Convolutional Networks)的語義分割網(wǎng)絡(luò)結(jié)構(gòu)U-net[6],如圖4所示,該網(wǎng)絡(luò)結(jié)構(gòu)包含上采樣和下采樣,上采樣通過下采樣的信息匯合輸入信息還原圖像精度,在我們對整個(gè)網(wǎng)絡(luò)的編碼過程中會(huì)對每一個(gè)塊分別進(jìn)行編碼,而每一個(gè)塊編碼使用的方法結(jié)構(gòu)是卷積層到Batch Normalization層再到帶泄露修正線性單元激活函數(shù)層,用來解決在訓(xùn)練過程中梯度爆炸和訓(xùn)練速度過慢情況的發(fā)生.而在解碼部分我們也分別對每一塊進(jìn)行解碼,采用的方法結(jié)構(gòu)是反卷積層到Batch Normalization層最后激活函數(shù)層可以采用Dropout激活函數(shù)或者是修正線性單元激活函數(shù).但是有區(qū)別的是最開始三個(gè)塊采用的是Dropout激活函數(shù)層,在這后面的塊區(qū)都采用了修正線性單元激活函數(shù).與此同時(shí),每個(gè)編碼區(qū)域的塊輸出都指向了和它本身的解碼區(qū)域的塊連接,這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)在圖像的細(xì)節(jié)處理方面能有一定的提升.

        圖4 U-net網(wǎng)絡(luò)結(jié)構(gòu)

        3.2 判別器模型

        針對D,我們將判別器換成了全卷積網(wǎng)絡(luò),也被稱為patchGAN.把判別器D的圖像區(qū)域分割成一小批一小批來處理,把整個(gè)圖片分割成n2個(gè)批次,然后再反復(fù)操作,再對每個(gè)區(qū)域操作以上步驟.將判別器換成了全卷積網(wǎng)絡(luò),其中每一塊包括了Conv層、Batch Normalization層、修正線性單元激活函數(shù)層.本文輸入圖像數(shù)據(jù)集都是256*256像素圖像,我們將它們分為每70*70作為一個(gè)塊進(jìn)行的.這個(gè)方法可以使實(shí)驗(yàn)結(jié)果效果更加明顯,判別器D的模型如圖5所示:

        圖5 判別器D模型

        4 實(shí) 驗(yàn)

        4.1 實(shí)驗(yàn)平臺(tái)與數(shù)據(jù)集

        本文的模型訓(xùn)練過程中計(jì)算的需求量比傳統(tǒng)的模型同比增加,使用CPU來實(shí)驗(yàn)訓(xùn)練時(shí)間為33小時(shí),相對于CPU而言,使用圖形處理單元GPU訓(xùn)練會(huì)很大程度的縮短時(shí)間提高效率.實(shí)驗(yàn)平臺(tái)為Windows10 64位操作系統(tǒng),GPU使用NVIDIA GTX2060,16G內(nèi)存進(jìn)行訓(xùn)練,所使用的框架為Pytorch 2.6,所需要的Python庫有numpy、scipy、Pytorch、scikit-image、Pillow、opencv-python.

        本文訓(xùn)練所使用的數(shù)據(jù)集主要是漫畫圖像,該數(shù)據(jù)集使用網(wǎng)絡(luò)爬蟲從漫畫素材網(wǎng)站seeprettyface上抓取了28059張圖像,使用resize_all_imgs.py對所有圖片批量修改到256*256像素尺寸,部分原始圖像如圖6:

        圖6 部分原始圖像

        再使用grey_imgs.py對該數(shù)據(jù)集生成對應(yīng)黑白和灰度圖像數(shù)據(jù),效果如圖7所示:

        圖7 生成黑白效果圖

        4.2 實(shí)驗(yàn)超參數(shù)選擇

        本文實(shí)驗(yàn)所使用損失函數(shù)為GAN原始損失函數(shù),學(xué)習(xí)率為0.0001且保持固定,衰減權(quán)重為0.0001,更新權(quán)重0.1,每次迭代次數(shù)10000次,epoch設(shè)置為400次,并采用SGD法,針對GAN容易崩潰的情況,本文實(shí)驗(yàn)應(yīng)用修正線性單元作為激活函數(shù),求解器類型為ADAM,動(dòng)量參數(shù)設(shè)置為0.5,λ為100.

        4.3 模型訓(xùn)練效果

        我們采用提前訓(xùn)練完成的網(wǎng)絡(luò)模型對測試數(shù)據(jù)集的28059張黑白和灰度圖像進(jìn)行著色處理,CPU訓(xùn)練耗費(fèi)時(shí)長30多小時(shí),GPU耗費(fèi)10多個(gè)小時(shí),本次訓(xùn)練效果雖沒有達(dá)到預(yù)期圖像結(jié)果值,但是較傳統(tǒng)方法有了很大改變,相較于傳統(tǒng)圖像上色算法,本文算法優(yōu)勢在于訓(xùn)練參數(shù)增加導(dǎo)致圖像細(xì)節(jié)上色方面處理更優(yōu),在圖像邊緣區(qū)域上色均勻,邊界連接處色彩區(qū)分明顯.同時(shí),上色效果相較于傳統(tǒng)GAN模型上色產(chǎn)生的噪點(diǎn)要少,尤其對于大背景的圖片上色效果不錯(cuò).如圖8為訓(xùn)練好的模型對測試數(shù)據(jù)集上色效果圖,左圖為灰度圖片,右邊為上色效果圖.

        圖8 訓(xùn)練效果圖

        但是由于本實(shí)驗(yàn)?zāi)P褪腔趥鹘y(tǒng)GAN模型優(yōu)化而來,生成對抗網(wǎng)絡(luò)極易崩潰,由此在訓(xùn)練測試過程中可能呈現(xiàn)出部分過擬合狀況,導(dǎo)致著色效果不佳,生成部分失敗圖片,如圖9所示:

        圖9 失敗案例

        5 結(jié) 語

        本文的實(shí)驗(yàn)優(yōu)化并改進(jìn)了一種基于生成對抗網(wǎng)絡(luò)的黑白和灰度圖像著色技術(shù),在常規(guī)GAN模型基礎(chǔ)上修改優(yōu)化參數(shù)提高圖像上色速率和視覺效果.在訓(xùn)練好的模型上,黑白和灰度圖像可以批量著色,模型簡單,沒有太復(fù)雜的預(yù)處理過程,在超參選擇上略優(yōu)于傳統(tǒng)GAN上色方法,效果略優(yōu),但是這個(gè)方法大體基于傳統(tǒng)GAN結(jié)構(gòu)設(shè)計(jì),訓(xùn)練不穩(wěn)定,極易崩潰,所以可以修改生成對抗網(wǎng)絡(luò)中的生成器G與判別器D,需要針對D和G分別加入LSR用來防止過擬合現(xiàn)象的出現(xiàn),增強(qiáng)泛化能力.本文采用U型結(jié)構(gòu)生成器G來保留邊緣信息,構(gòu)建兩者映射關(guān)系來進(jìn)行交互訓(xùn)練.可以發(fā)現(xiàn),在整個(gè)訓(xùn)練的進(jìn)程中,由于GAN的生成器太過脆弱,圖像邊緣信息不易保存,網(wǎng)絡(luò)架構(gòu)不穩(wěn)定,優(yōu)化超參改變生成器和判別器模型,防止過擬合現(xiàn)象的出現(xiàn)尤其重要,但是本實(shí)驗(yàn)方法上色效果優(yōu)于傳統(tǒng)GAN模型架構(gòu),給受眾群里的視覺沖擊力不錯(cuò),處理細(xì)節(jié)良好,因?yàn)楸敬螌?shí)驗(yàn)技術(shù)的訓(xùn)練數(shù)據(jù)集無一不是低分辨率,在這個(gè)技術(shù)之后還要使用高分辨彩色圖像對應(yīng)的黑白圖像數(shù)據(jù)集來完成更加高效的優(yōu)化.

        猜你喜歡
        優(yōu)化模型
        一半模型
        超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
        民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        由“形”啟“數(shù)”優(yōu)化運(yùn)算——以2021年解析幾何高考題為例
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        男人和女人做爽爽免费视频| 水蜜桃一二二视频在线观看免费 | 免费在线视频亚洲色图| 日韩人妻少妇一区二区三区| 国产乱对白刺激视频| 国内偷拍精品一区二区| 久久半精品国产99精品国产| 精品国产av无码一道| 亚洲中文字幕诱惑第一页| 国产亚洲人成在线观看| 在熟睡夫面前侵犯我在线播放| 亚洲中文字幕无码不卡电影| 狠狠色噜噜狠狠狠狠7777米奇| 欧美成人久久久| 国产精品成人黄色大片| 一区二区三区人妻少妇| 女邻居的大乳中文字幕| 人妻丰满熟妇av无码区hd| 欧美gv在线观看| a级毛片免费观看在线播放| 野花社区视频在线观看| 大陆一级毛片免费播放| 开心激情网,开心五月天| 精品国产品香蕉在线| 99久久精品费精品国产一区二区| 中文字幕无码免费久久99| 成人影院视频在线播放| 久久综合狠狠综合久久综合88| 十八岁以下禁止观看黄下载链接| 极品人妻少妇一区二区| 9久久婷婷国产综合精品性色| 欧美私人情侣网站| 国产精品流白浆喷水| 国产一区二区视频在线看| 亚洲人成网线在线播放va蜜芽| a在线观看免费网站大全| 蜜桃一区二区三区自拍视频| 日韩人妖视频一区二区| 欧美aaaaaa级午夜福利视频| 最新国产女主播福利在线观看 | 国产精品成人av大片|