亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于條件深度卷積生成對(duì)抗網(wǎng)絡(luò)的圖像識(shí)別方法

        2018-12-31 05:42:38劉明明
        移動(dòng)信息 2018年9期
        關(guān)鍵詞:圖像識(shí)別卷積條件

        劉明明

        基于條件深度卷積生成對(duì)抗網(wǎng)絡(luò)的圖像識(shí)別方法

        劉明明

        武警工程大學(xué)密碼工程學(xué)院,陜西 西安 710086

        在信息技術(shù)爆炸的時(shí)代,對(duì)在大量數(shù)據(jù)下互聯(lián)網(wǎng)的發(fā)展情況進(jìn)行分析是非常關(guān)鍵的。對(duì)基于條件深度卷積生成對(duì)抗網(wǎng)絡(luò)進(jìn)行分析,通過(guò)對(duì)圖像數(shù)據(jù)的基本特征進(jìn)行分析和研究,提出了基于條件深度卷積生成對(duì)抗網(wǎng)絡(luò)的應(yīng)用方案,為其進(jìn)一步發(fā)展打下了堅(jiān)實(shí)的基礎(chǔ)。

        條件深度卷積網(wǎng)絡(luò);圖像識(shí)別;生成對(duì)抗網(wǎng)絡(luò)

        引言

        生成對(duì)抗網(wǎng)絡(luò)是Goodfellow等在2014年提出的一種生成模型。不同于傳統(tǒng)生成模型, 生成對(duì)抗網(wǎng)絡(luò)在網(wǎng)絡(luò)結(jié)構(gòu)上除了生成網(wǎng)絡(luò)外,還包含一個(gè)判別網(wǎng)絡(luò)。生成網(wǎng)絡(luò)與判別網(wǎng)絡(luò)之間是一種對(duì)抗關(guān)系。對(duì)抗的思想源自博弈論。博弈雙方在平等的對(duì)局中各自利用對(duì)方的策略變換自己的對(duì)抗策略,以此達(dá)到獲勝的目的。引申到生成對(duì)抗網(wǎng)絡(luò)中,即生成器和判別器為博弈雙方,生成器擬合數(shù)據(jù)的產(chǎn)生過(guò)程,生成模型樣本,優(yōu)化目標(biāo),達(dá)到納什均衡,使生成器估測(cè)到數(shù)據(jù)樣本的分布。目前,生成對(duì)抗網(wǎng)絡(luò)在圖像和視覺領(lǐng)域得到了廣泛的研究和應(yīng)用,已經(jīng)可以生成數(shù)字和人臉等物體對(duì)象,構(gòu)成各種逼真的室內(nèi)外場(chǎng)景,從分割圖像恢復(fù)原圖像,給黑白圖像上色,從物體輪廓恢復(fù)物體圖像,從低分辨率圖像生成高分辨率圖像等[1]。

        1 條件深度卷積生成對(duì)抗網(wǎng)絡(luò)概述

        圖像數(shù)據(jù)包括大量的數(shù)據(jù)與數(shù)據(jù)的存儲(chǔ)分析結(jié)構(gòu)等。海量數(shù)據(jù)主要是交互式的數(shù)據(jù),是結(jié)構(gòu)化或者非結(jié)構(gòu)化的數(shù)據(jù)。我們可以通過(guò)這樣的數(shù)據(jù)對(duì)過(guò)去發(fā)生的事情進(jìn)行判斷,也能夠?qū)?lái)的事情進(jìn)行預(yù)測(cè)。大部分?jǐn)?shù)據(jù)是非結(jié)構(gòu)化的數(shù)據(jù),融合了文本、圖像、音頻等信息,因此只有設(shè)計(jì)更可靠的算法來(lái)讀取數(shù)據(jù),才能夠?qū)⑵渲刑N(yùn)含的信息提取出來(lái)。在傳統(tǒng)數(shù)據(jù)中,廣泛存在的還是結(jié)構(gòu)化的數(shù)據(jù)。結(jié)構(gòu)化的數(shù)據(jù)不僅讀取比較方便,而且可以很容易地觀測(cè)信息。但是在大數(shù)據(jù)時(shí)代,數(shù)據(jù)的讀取極其依靠強(qiáng)大的算法,這就是它們主要存在的差異[2]。

        條件生成對(duì)抗網(wǎng)絡(luò)(Conditional Generative Adversarial Networks,CGAN)是在GAN(Generative Adversarial Networks,GAN)的基礎(chǔ)上加上了條件擴(kuò)展為條件模型。如果生成器和判別器都適用于某些額外的條件,例如類標(biāo)簽,那么可以通過(guò)將其附加到輸入層中輸入到生成器和判別器中進(jìn)行調(diào)節(jié),可以指導(dǎo)數(shù)據(jù)生成過(guò)程。條件生成對(duì)抗網(wǎng)絡(luò)的構(gòu)造是極為復(fù)雜的。對(duì)該模型而言,待修正的參數(shù)包括條件與噪聲等,各參量在工作中可能存在一些耦合現(xiàn)象,因此只依靠研究人員的相關(guān)經(jīng)驗(yàn)來(lái)進(jìn)行調(diào)整,成本較高,效果也較差。目前,借助現(xiàn)代計(jì)算機(jī)的全局搜索工具來(lái)進(jìn)行模型的修正是極為關(guān)鍵的。利用數(shù)學(xué)建模的方案可以使問(wèn)題變得抽象,同時(shí)對(duì)其進(jìn)行優(yōu)化調(diào)整。優(yōu)化算法的種類是非常多樣的,但是從根本原理上來(lái)概括,優(yōu)化算法主要包括精確算法和啟發(fā)式算法兩大類別。精確算法可以對(duì)解空間得到最優(yōu)化的解,比如線性規(guī)劃和動(dòng)態(tài)規(guī)劃等;但是精確算法由于存在一定的局限導(dǎo)致使用范圍受限,比如局部最優(yōu)解較多或者是決策參數(shù)過(guò)多時(shí),工作效率就會(huì)降低,無(wú)法解決大型問(wèn)題。在工作量增加之后輸出精度也較差,因此目前使用廣泛的是啟發(fā)式的算法。

        利用啟發(fā)式算法,可以很快地深度卷積生成對(duì)抗網(wǎng)絡(luò)中的參數(shù)因子。每更新一次參數(shù)因子就是在縮放部件特性曲線,利用計(jì)算機(jī)的快速計(jì)算能力,可以在很短的時(shí)間內(nèi)完成優(yōu)化計(jì)算[3]。從本質(zhì)上是可將其歸入?yún)?shù)優(yōu)化問(wèn)題的,可將其概述為給定測(cè)試圖像特定的目標(biāo)路徑,要求從數(shù)據(jù)集中找到與之最接近的圖像。為了能夠得到符合要求的測(cè)試數(shù)據(jù),需要經(jīng)歷的時(shí)間較長(zhǎng)。該問(wèn)題的自動(dòng)求解,能夠大大降低測(cè)試人員承擔(dān)的工作量,而且生成效率也能得到提高,進(jìn)而推動(dòng)網(wǎng)絡(luò)整體質(zhì)量的提高。

        2 條件深度卷積生成對(duì)抗網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用

        將條件加入深度卷積生成對(duì)抗網(wǎng)絡(luò)中的生成器,利用卷積網(wǎng)絡(luò)提取特征的能力加上條件輔以訓(xùn)練,之后將訓(xùn)練好的C-DCGAN中的判別器部分抽取出來(lái),添加Softmax后形成用于圖像識(shí)別的新網(wǎng)絡(luò)結(jié)構(gòu)。在實(shí)際應(yīng)用中,該網(wǎng)絡(luò)可以提升圖像識(shí)別的準(zhǔn)確率。目前,圖像數(shù)據(jù)分析的要求是評(píng)估圖像數(shù)據(jù),以為將來(lái)的決策提供幫助。這些評(píng)估指標(biāo)主要包括圖像數(shù)據(jù)的播放量、曝光量、分享量等,只有這樣才能夠?qū)ζ鋵?lái)的傳播情況進(jìn)行預(yù)測(cè)[4]。

        眼球系數(shù)指的是圖像數(shù)據(jù)中每個(gè)點(diǎn)吸引瀏覽者眼球的能力。眼球系數(shù)已成為很多圖像數(shù)據(jù)網(wǎng)站分析用戶行為的關(guān)鍵因素。這些圖像數(shù)據(jù)包含了大量的信息,因此需要進(jìn)行更加科學(xué)的收集,利用更符合實(shí)際情況的機(jī)器學(xué)習(xí)等算法進(jìn)行深層次的探究。只有這樣才能夠更好地評(píng)估這些數(shù)據(jù),從而根據(jù)用戶的實(shí)際情況進(jìn)行圖像數(shù)據(jù)推薦與廣告推送等,為企業(yè)帶來(lái)收益。

        采用更先進(jìn)的方法也能過(guò)濾網(wǎng)絡(luò)圖像數(shù)據(jù)網(wǎng)站中的一些不良圖像數(shù)據(jù),將具有正能量的圖像數(shù)據(jù)更多地推薦給用戶,利于弘揚(yáng)社會(huì)風(fēng)氣,將機(jī)器學(xué)習(xí)應(yīng)用于社會(huì)建設(shè)中有著極好的效果,因此在圖像數(shù)據(jù)網(wǎng)站的建設(shè)中,應(yīng)大量采用這樣的技術(shù),以較低的成本和較高的效率做好圖像數(shù)據(jù)的篩選工作。通過(guò)手機(jī)定位技術(shù)等可以分析網(wǎng)絡(luò)圖像數(shù)據(jù)的用戶分布情況。通過(guò)用戶在網(wǎng)絡(luò)圖像數(shù)據(jù)網(wǎng)站的行為還可以分析用戶對(duì)該圖像數(shù)據(jù)網(wǎng)站以及上面所包含圖像數(shù)據(jù)的滿意程度。按照用戶對(duì)網(wǎng)絡(luò)圖像數(shù)據(jù)的忠誠(chéng)程度,可以將用戶劃分為初級(jí)用戶、高級(jí)用戶和深度用戶等。初級(jí)用戶登錄網(wǎng)絡(luò)圖像數(shù)據(jù)網(wǎng)站的頻率較低;而高級(jí)用戶則經(jīng)常使用該類網(wǎng)站;深度用戶不觀看,而且經(jīng)常上傳圖像數(shù)據(jù),這樣就可以更好地分析用戶的人群特征。用這個(gè)方法和原圖像進(jìn)行比較,從而達(dá)到匹配的效果。選用一些樣本作為原始的數(shù)據(jù),在判斷時(shí)計(jì)算待測(cè)的數(shù)據(jù)和原模板之間的距離,找到和這個(gè)模板最相近的輸出值,從而確定最適配的圖像。

        為了提高分析結(jié)果的科學(xué)性與嚴(yán)謹(jǐn)性,提升準(zhǔn)確度,我們需要利用Softmax等方法來(lái)分析各項(xiàng)指標(biāo),還需要對(duì)時(shí)間和評(píng)價(jià)次數(shù)采取歸一化處理,以確保全部的程序所得到的結(jié)果處于相同的數(shù)量級(jí)上。本文提出的方法能夠在確保算法性能的基礎(chǔ)上控制算法時(shí)間,降低時(shí)間消耗,尤其是在大規(guī)模程序中,這種時(shí)間優(yōu)勢(shì)更加突出。條件深度卷積的方式有利于實(shí)現(xiàn)圖像的高速處理,便于進(jìn)一步掌握其特征,從而利用這樣的圖像特征做好系統(tǒng)辨識(shí)、模式識(shí)別、圖像生成等工作,在軍用和民用領(lǐng)域都有著較為廣闊的發(fā)展前景。

        3 總結(jié)

        在對(duì)抗網(wǎng)絡(luò)圖像處理過(guò)程之中,因?yàn)槟承┓侨藶檎?、地理、天氣等客觀的不確定的因素而形成的變化,致使其準(zhǔn)確率產(chǎn)生意想不到的變化,所以必須在識(shí)別時(shí)總結(jié)提出各種可能遇到的問(wèn)題和因素,然后對(duì)所產(chǎn)生的問(wèn)題進(jìn)行分析探究,最終找到合理的方法解決問(wèn)題。

        [1]張龍,趙杰煜,葉緒倫,等. 協(xié)作式生成對(duì)抗網(wǎng)絡(luò)[J]. 自動(dòng)化學(xué)報(bào),2018,44(5):804-810.

        [2]趙樹陽(yáng),李建武. 基于生成對(duì)抗網(wǎng)絡(luò)的低秩圖像生成方法[J]. 自動(dòng)化學(xué)報(bào),2018,44(5):829-839.

        [3]張營(yíng)營(yíng). 生成對(duì)抗網(wǎng)絡(luò)模型綜述[J]. 電子設(shè)計(jì)工程,2018,26(5):34-37,43.

        [4]曹志義,牛少彰,張繼威. 基于半監(jiān)督學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)的人臉還原算法研究[J]. 電子與信息學(xué)報(bào),2018,40(2):323-330.

        Image Recognition Method for Generative Adversarial Networks Based on Conditional Depth Convolution

        Liu Mingming

        School of Cryptography Engineering, Engineering University of PAP, Shaanxi Xi’an 710086

        In the era of information technology explosion, it is very important to analyze the development of the internet under a large amount of data. The paper analyzes generative adversarial networks based on the conditional depth convolution. By analyzing and studying the basic features of image data, the paper puts forward the application scheme of generative adversarial networks, so as to effectively study it and lay a solid foundation for its further development.

        conditional depth convolution network; image recognition; generative adversarial networks

        TP183;TP391.4

        A

        劉明明(1992—)男,漢族,山東五蓮人,研究生學(xué)歷,研究方向?yàn)樾畔㈦[藏、生成對(duì)抗網(wǎng)絡(luò)。

        猜你喜歡
        圖像識(shí)別卷積條件
        排除多余的條件
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        選擇合適的條件
        基于Resnet-50的貓狗圖像識(shí)別
        電子制作(2019年16期)2019-09-27 09:34:50
        高速公路圖像識(shí)別技術(shù)應(yīng)用探討
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        為什么夏天的雨最多
        最爽无遮挡行房视频| 五月天激情婷婷婷久久| 久久久久久久波多野结衣高潮| 97精品国产手机| 亚洲av日韩av综合aⅴxxx| 99国产综合精品-久久久久| 欧美日本视频一区| 福利视频自拍偷拍视频| 日韩av综合色区人妻| 男人天堂亚洲天堂av| 国产精品久久久久久| 亚洲av蜜桃永久无码精品| 亚洲AⅤ永久无码精品AA| 日韩精品极品免费观看| 干出白浆视频在线观看| 久久丝袜熟女av一区二区| 凹凸国产熟女精品视频app| 天天躁日日躁狠狠躁av| 亚洲成a∨人片在线观看无码| 久久国产劲爆内射日本| 国产一区二区三区色哟哟| 欧美最猛黑人xxxx| 无码精品人妻一区二区三区av| 欧美日韩亚洲国内综合网| 无码毛片aaa在线| 国产激情一区二区三区在线蜜臀| 亚洲中文字幕精品久久久| 午夜天堂一区人妻| 亚洲日韩一区二区一无码| 最新国产午夜福利| 97人妻蜜臀中文字幕| 精品国产一区二区三区性色| 99久久精品国产一区二区| 米奇777四色精品人人爽| 国产成人精品日本亚洲18| 韩国免费一级a一片在线| 五月婷婷六月丁香久久综合| 久久精品国产亚洲7777| 四虎国产精品永久在线无码| 久久久精品人妻一区二| 久久久麻豆精亚洲av麻花|