亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于條件生成對抗網絡的水下圖像增強算法*

        2021-05-20 07:17:54楊國亮賴振東
        傳感器與微系統 2021年5期
        關鍵詞:信息方法模型

        楊國亮, 王 楊, 賴振東

        (江西理工大學 電氣工程與自動化學院,江西 贛州 341000)

        0 引 言

        隨著陸地資源的大量消耗,對海洋資源的探索就顯得尤為重要。但是光在水中傳播時受到水介質的影響,往往拍攝到的水下圖像存在著模糊不清,顏色失真等問題,對后續(xù)的目標識別及分割造成不利的影響。近年來,各種水下圖像修復與增強的方法層出不窮,圖像修復方面如Chiang J Y等人[1]提出的通過暗通道先驗的方法進行水下圖像增強模型。Wen H等人[2]通過分析光的衰減特性,從圖像藍綠通道中的信息求取暗原色通道,同時對紅色通道的折射率進行估計,實現水下圖像的修復。李黎等人[3]通過改進的暗原色先驗算法消除散射光以及白平衡算法對顏色進行校正,在水下圖像修復方面取得不錯效果。圖像增強方面有Singh K等人[4]提出的基于基于遞歸直方圖均衡化的水下圖像增強方法,隨著深度學習的飛速發(fā)展,在圖像的識別[5]、分割[6]以及超分辨重建[7]等方面取得巨大的進展,徐巖等人[8]提出了基于卷積神經網絡(convolutional neural networks,CNN)的水下圖像增強方法,通過顏色失真與圖像模糊化方法建立水下圖像庫.成功將CNN應用于水下圖像增強。

        本文提出了一種基于條件生成對抗網絡(conditional generation adversarial networks,CGAN)的水下圖像增強算法,通過改進生成器與判別器模型,利用CGAN模型,將完全配對的輸入與輸出圖像作為輸入,生成器模型采用U-net[9]網絡架構同時在原始生成對抗網絡(generative adversarial networks,GAN)[10]損失函數中引入了L1loss進行修正。結果表明,訓練出的模型對水下圖像有明顯的增強效果。

        1 相關理論

        GAN最早是在2014年由Goodfellow I提出。GAN可看作是一個從隨機噪聲Z到輸出圖像的映射的模型,生成器模型G,通過輸入一個隨機的噪聲Z產生一些生成數據并將其傳遞給判別器,判別器D的工作是同時接收生成器所產生的數據以及真實的數據,并判斷其接收的數據是來自真實數據或是來自生成器偽造的樣本,并將結果反饋回生成器。GAN的目標函數就是生成器G與判別器D的極小極大值博弈,其目標函數V(D,G)為式(1)所示

        Ex~pz(z)[log(1-D(G(z)))]

        (1)

        式中Pdata(x)為真實數據分布,Pz(z)為生成的數據分布。

        2 基于CGAN的水下圖像增強

        2.1 CGAN

        CGAN在GAN的基礎上在生成網絡與判別網絡中加入額外的標簽信息條件,使用額外條件信息對模型增加條件,可以指導數據的生成過程。實驗中將水下圖像作為條件信息與隨機噪聲Z同時輸入到生成器中,模型通過學習輸入的原始水下圖像和隨機噪聲Z到清晰圖像之間的映射關系,達到水下圖像增強的效果。CGAN的目標函數V(D,G)如式(2)所示

        Ex~pz(z)[log(1-D(x,G(x,z)))]

        (2)

        式中 函數D(x,y)為輸入到判別器D的圖像屬于真實圖像的概率,函數D(x,G(x,z))為輸入到判別器D的圖像屬于生成器G生成的概率。

        2.2 生成器

        本文主要采用的是CGAN 的網絡結構,為了盡量地保存圖片的原始信息,生成器G采用的是U-Net網絡而不是傳統的CNN,其結構與編碼解碼器相似,不過與傳統的編碼解碼器不同的是U-Net網絡采用了跳躍鏈接技巧,結構如圖1所示。U-Net網絡將低層與高層特征圖信息相結合,能夠有效地保留更多圖像細節(jié)信息。

        圖1 U-Net與編/解碼器結構

        其中模型生成器G總共包含15層,其中前8層為卷積層,后7層反卷積層。生成器G的前半部分可以看作一個編碼器,對輸入的原始水下圖像進行卷積下采樣操作,進行特征提取,對提取到的特征使用批歸一化(BN)處理同時使用LeakyReLU函數作激活函數。而生成器G的后半部分相當于對應的解碼器,采用反卷積網絡,對輸入的低維特征進行上采樣操作,將低維特征還原到最初的尺寸,得到清晰的水下圖像,以達到端到端的學習。為防止過擬合現象的出現,對每層反卷積的特征采用BN與Droupout操作,采用Relu函數對網絡進行激活操作,最后與tanh函數連接。本文生成器G的網絡模型如圖2所示。

        圖2 生成器G網絡結構

        2.3 判別器

        判決器D主要是對接收到的生成器G生成的圖像與真實圖像做出判斷。實驗中判別器D模型采用了一個5層的卷積網絡,將生成的水下圖像與清晰圖像作為判別器D的輸入,所有的卷積層都采用BN層與LeakyReLU激活層,在網絡的最后一層采用Sigmod激活函數,將判別結果映射到[0,1]區(qū)間,輸出為1,則代表清晰的水下圖像,0則代表生成器G所生成的水下圖像,判別器D的網絡模型如圖3所示。

        圖3 判別器D網絡結構

        2.4 損失函數

        實驗模型除了引用標準的CGAN的損失函數外,由于輸入和輸出之間共享了很多信息,為了保證輸入圖像與輸出圖像的相似度,還加入了L1的損失函數。標準的CGAN網絡的損失函數為

        LCGAN(G,D)=

        Ex,y[logD(x,y)+Ex,z[log(1-D(x,G(x,z))]

        (3)

        式中G為生成器,D為判別器,x為輸入的水下圖像,y為真實圖像(清晰圖像)。為了得到更多的低頻信息,增加生成圖像的清晰度,對G施加L1懲罰,即

        LL1(G)=Ex,y,z[‖y-G(X,Z)‖]

        (4)

        同時為了平衡兩個損失函數,加入超參數λ進行調節(jié)(λ設為100),這樣標準CGAN損失能夠捕捉到圖像的高頻特征,而L1損失則負責捕捉低頻特征,使得生成的結果更加真實與清晰。最終本文所采用的的損失函數為

        (5)

        3 實驗分析

        3.1 數據增強

        由于只能提供少量水下與清晰圖像對,無法滿足訓練要求,本實驗通過對無水圖像進行模糊化以及顏色衰減處理,模擬同一情景下的水下圖像,獲得水下圖像與相匹配的清晰圖像對。同時為保證訓練效果,本文通過數據增強的方式對樣本進行增加。通過對圖像旋轉,水平垂直方向的翻轉、平移變換等方法對訓練數據進行增強。由于所獲圖像分辨率各有不同,所以將所有圖像壓縮至256像素×256像素,并進行歸一化處理,同時將相對應的水下圖像與清晰圖像進行拼接。

        3.2 實驗設置

        本次實驗是基于Tensorflow深度學習框架下完成,計算機配置為inter Core i5—6300HQ處理器,NVIDIA GTX 1060顯卡,8 GB RAM。在模型訓練中,由于樣本數據較少,將batchsize設置為1,對于訓練大規(guī)模樣本,可適當提高相應的batchsize值。模型epoch的值設為200,在GPU加速下,總耗時8 h完成本次模型訓練。模型采用Adam算法進行網絡優(yōu)化,實驗中Adam算法的學習率設為0.000 2。

        3.3 實驗結果

        為了驗證本文算法的實際應用效果,利用水下真實場景的圖像對網絡進行評測并與其他算法進行對比。如圖4所示。從圖中看出,文獻[1]的方法能夠有效地增加水下圖像的對比度,但是色彩失真依舊嚴重。文獻[2]的方法由于只考慮藍綠通道的衰減信息,導致增強后的圖像整體偏暗紅色。文獻[3]通過改進的暗原色先驗與顏色校正后得到的圖像在對比度與顏色失真方面明顯優(yōu)于前兩種方法。最后是通過本文算法增強的圖像,可以看出圖像所包含的噪聲較少,畫面比較清晰,同時在顏色校正的效果也比較好。

        圖4 真實場景下不同方法的增強

        為了更好地說明本算法對水下圖像增強的有效性,本文采用圖像質量評價標準信息熵(information entropy)與峰值信噪比(PSNR)對不同算法進行客觀評測。信息熵是衡量圖像所包含信息的一個重要指標,而峰值信噪比是對圖像壓縮等領域中信號重建質量的主要測量方法,兩者的值越大則代表圖像包含的信息越多,噪聲越少,圖像質量越高。評價結果如表1所示,結合主觀視覺感受和表1數據可以看出本文所提算法對水下圖像有著明顯的增強效果。

        4 結 論

        針對水下圖像存在的顏色失真以及由于水濁度不同所產生的圖像模糊問題,本文結合深度學習,提出了一種基于

        表1 不同方法的客觀評價

        CGAN的水下圖像增強算法,采用U-Net網絡結構,引入L1損失改進生成網絡,通過端到端的學習,實現了水下圖像到清晰圖像之間的轉換。與傳統的方法相比,本文方法更加智能,同時具有更好的增強效果,解決了人工提取特征難的問題。最后通過結果分析與客觀評測,證實本文方法能夠有效地增強水下圖像。

        猜你喜歡
        信息方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        麻豆久久五月国产综合| 老熟妇乱子伦av| 免费亚洲一区二区三区av| 国精产品一区一区三区| 97se亚洲国产综合在线| 国产午夜福利不卡在线观看| 麻豆精品久久久久久久99蜜桃| 全免费a级毛片| 久久免费国产精品| 国产艳妇av在线出轨| 中文字幕亚洲综合久久| 丰满少妇又爽又紧又丰满动态视频| 精品人妻一区二区三区狼人| 国产在线视频91九色| 人妻丝袜中文无码av影音先锋专区 | 国产精品成人无码久久久久久| 成人免费777777被爆出| 国产精品成人一区二区三区| 美女视频很黄很a免费国产| 日韩av中文字幕一卡二卡| 成人久久精品人妻一区二区三区| 亚洲中文字幕精品乱码2021| 亚洲熟女一区二区三区| 精品国产av无码一道| 视频一区中文字幕日韩| 91日韩东京热中文字幕 | 97无码免费人妻超级碰碰夜夜| 国产亚洲欧美日韩综合一区在线观看| 中文字幕天天躁日日躁狠狠| 亚洲av一二三又爽又爽又色| 日本免费看一区二区三区| 国产不卡精品一区二区三区| 中文字幕乱码熟妇五十中出| 亚洲精华国产精华液的福利 | 无码一区二区三区在| 精品中文字幕久久久人妻 | 亚洲av综合色区无码一区| 国产福利精品一区二区| 永久国产盗摄一区二区色欲 | 亚洲精品天堂日本亚洲精品| 蜜桃视频免费进入观看|