亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)優(yōu)化和函數(shù)選擇

        2020-03-31 02:57:58展華偉
        關(guān)鍵詞:特征優(yōu)化實(shí)驗(yàn)

        展華偉,唐 艷,付 婧

        (西華師范大學(xué) 計(jì)算機(jī)學(xué)院 , 四川 南充 637002)

        0 引言

        20世紀(jì)60年代,Hubel和Wiesel在研究貓腦皮層中用于局部敏感和方向選擇的神經(jīng)元時發(fā)現(xiàn)其獨(dú)特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效地降低反饋神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,繼而提出了卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks簡稱CNN)[1].經(jīng)過十多年的發(fā)展,從早期的LeNet-5[2]到最新的ResNet[3],卷積神經(jīng)網(wǎng)絡(luò)已成為各大學(xué)科領(lǐng)域研究的熱點(diǎn),在語音識別[4]、人臉識別[5]、目標(biāo)檢測[6]、自然語言處理[7]等領(lǐng)域均有所突破.

        卷積神經(jīng)網(wǎng)絡(luò)作為一種高效率的識別方法,可以很方便地進(jìn)行各種類型的特征提取.但是在處理具體任務(wù)或具體項(xiàng)目時,需要根據(jù)不同的需求來進(jìn)行參數(shù)調(diào)整和優(yōu)化,這種人為操作不僅費(fèi)時費(fèi)力而且很難達(dá)到訓(xùn)練的最優(yōu)效果,許少華等[8]研究了樣本先驗(yàn)知識對神經(jīng)網(wǎng)絡(luò)的性能影響,何莉[9]等提出了一種基于人群搜索算法的方法,來調(diào)整神經(jīng)網(wǎng)絡(luò)中的權(quán)重及閾值等系數(shù),趙宏等[10]對神經(jīng)網(wǎng)絡(luò)中的代價(jià)函數(shù)與激活函數(shù)做了詳細(xì)的研究,并找到了最優(yōu)的組合方式.本文將在此基礎(chǔ)上,廣度探索分析了更多的參數(shù)(尤其是優(yōu)化器),并在準(zhǔn)確率更高和速度更快之間,找到了一種廣泛的結(jié)合方式,使之能夠達(dá)到效率最佳的平衡點(diǎn),從而提升神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練性能.

        1 卷積神經(jīng)網(wǎng)絡(luò)原理

        卷積神經(jīng)網(wǎng)絡(luò)是一種深度前潰神經(jīng)網(wǎng)絡(luò),通過特征提取層的不斷疊加從而得到其基本特征.主要由輸入層、隱層、全連接層和輸出層組成,而隱層是由卷積層和下采樣層交替連接的[2].

        1.1 卷積層

        其中的f是一個非線性函數(shù),通常取sigmoid,tanh和ReLU函數(shù).卷積層就是為了提取圖像的特征,而不斷地進(jìn)行卷積操作,但由于提取到的特征維度較高很容易過擬合,所有通常在卷積層后面都會接一個池化層來對圖像進(jìn)行降維.

        1.2 池化層

        引入池化層的唯一目的就是減少圖像的大小,是為了提取特征在不同位置和規(guī)模上的變化,同時聚合不同特征映射的響應(yīng).常用的池化方法有最大池化(max- poopling)、均值池化(average pooling).均值池化是通過均值化局部領(lǐng)域中的像素值,來綜合考慮周圍像素的特征.而最大池化則是用來提取相鄰像素間最重要的特征信息,避免學(xué)習(xí)到一些無用的特征.

        1.3 全連接層

        在經(jīng)過多次卷積-池化操作后,已經(jīng)提取到了我們所需要的特征圖,接下來就要應(yīng)用全連接層來生成一個等同于需求數(shù)目的輸出.在全連接層中的每個神經(jīng)元的激勵函數(shù)通常采用ReLU函數(shù)[11].

        2 相關(guān)參數(shù)與函數(shù)

        2.1 初始化參數(shù)

        在CNN中需要初始化的參數(shù)主要是權(quán)值和偏置值,傳統(tǒng)的初始化方法是從某個分布中隨機(jī)的進(jìn)行初始化,更簡單的是直接初始化為0或1,但這種方法效果很一般.如何定義這些參數(shù)將會直接影響到整個模型的收斂速度以及最終的分類效果.

        2.2 激活函數(shù)與損失函數(shù)

        非線性激活函數(shù)的引入主要是為了增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,使深層神經(jīng)網(wǎng)絡(luò)更加有意義.

        目前比較熱門的激活函數(shù)主要是:Sigmoid,tanh,ReLu,Leaky ReLu,Maxout等.神經(jīng)網(wǎng)絡(luò)的求解主要圍繞著代價(jià)函數(shù)的優(yōu)化進(jìn)行,經(jīng)驗(yàn)風(fēng)險(xiǎn)函數(shù)也稱為損失函數(shù),用來度量輸出值與真實(shí)值之間的擬合程度,結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù)則用來度量模型的復(fù)雜程度.

        2.3 優(yōu)化算法

        當(dāng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練一輪之后,就需要對其進(jìn)行調(diào)整優(yōu)化,也就是目標(biāo)函數(shù)的最優(yōu)化.傳統(tǒng)的優(yōu)化算法是隨機(jī)梯度下降法以及衍生出的NAG[12]等,除此之外還有Momentum,Adagrad,Adadelta,Rmsprop,Adam等適合不同需求的優(yōu)化算法.其中Adam算法可以看作是修正后的Momentum算法[13].

        2.4 學(xué)習(xí)率

        學(xué)習(xí)率為每一次梯度下降的步長,通常設(shè)置為0.1.當(dāng)學(xué)習(xí)率較大時,模型的前期收斂速度加快,但始終達(dá)不到最優(yōu)點(diǎn);當(dāng)學(xué)習(xí)率較小時,收斂的速度變得極慢.所以最優(yōu)的方法是在前期設(shè)置較大學(xué)習(xí)率,使得梯度快速下降,然后將學(xué)習(xí)率減小,使得模型逐漸達(dá)到最優(yōu)點(diǎn),但同時也要防止出現(xiàn)過擬合問題,可以使用dropout或者正則化來解決.

        3 建立模型及實(shí)驗(yàn)結(jié)果

        3.1 模型構(gòu)建

        本次實(shí)驗(yàn)是利用Google平臺TensorFlow框架構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò),擁有2個卷積-池化層、2個全連接層,32個5*5的卷積核,其中使用到的相關(guān)超參數(shù)和函數(shù)如表1所示.實(shí)驗(yàn)中使用MNIST數(shù)據(jù)集作為實(shí)驗(yàn)的訓(xùn)練和測試數(shù)據(jù)集.MNIST數(shù)據(jù)集是一個計(jì)算機(jī)視覺數(shù)據(jù)集,包含70 000張手寫數(shù)字的灰度圖片,其中每張圖片包含28×28個像素點(diǎn),部分?jǐn)?shù)據(jù)可視化后如圖1所示.

        表1 超參數(shù)和函數(shù)

        圖1 MNIST數(shù)據(jù)集

        另一方面,目前可用的優(yōu)化器有多種,如何進(jìn)行組合來適應(yīng)該模型就成為了關(guān)鍵所在.如果輸入的數(shù)據(jù)很稀少,那么可以使用自適應(yīng)學(xué)習(xí)率方法中的一種來獲得最佳結(jié)果.RMSprop作為Adagrad的延伸,引入了衰減系數(shù),解決了學(xué)習(xí)速率急劇下降的問題.Adam是帶有動量系數(shù)的RMSProp,在經(jīng)過偏置矯正后,每一次迭代學(xué)習(xí)率都有個確定范圍,使得參數(shù)比較平穩(wěn).

        3.2 實(shí)驗(yàn)結(jié)果

        表2為各優(yōu)化器在不同迭代次數(shù)下的實(shí)驗(yàn)結(jié)果.本實(shí)驗(yàn)探索了在確定了超參數(shù)和函數(shù)的情況下,不同優(yōu)化器對模型的性能影響.通過對比發(fā)現(xiàn),Adam和RMSProp這兩種優(yōu)化器的最終準(zhǔn)確率相近,并優(yōu)于其他優(yōu)化器,其中,Adam在迭代500次時準(zhǔn)確率就已經(jīng)稍高于RMSProp,說明該優(yōu)化器收斂速度更快、效率更高.

        表2 不同優(yōu)化器性能對比

        4 結(jié)論

        本文對卷積神經(jīng)網(wǎng)絡(luò)中的參數(shù)設(shè)置和函數(shù)選擇等方面進(jìn)行了探索及實(shí)驗(yàn),揭示了這些參數(shù)在模型訓(xùn)練過程中的影響.實(shí)驗(yàn)結(jié)果表明,通過預(yù)先設(shè)定好相關(guān)超參數(shù),并且在與RMSProp或者Adam搭配時,能夠更快地達(dá)到收斂時的準(zhǔn)確率,從而提高卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效率.

        猜你喜歡
        特征優(yōu)化實(shí)驗(yàn)
        記一次有趣的實(shí)驗(yàn)
        超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
        民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        如何表達(dá)“特征”
        做個怪怪長實(shí)驗(yàn)
        不忠誠的四個特征
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
        91国产熟女自拍视频| 久久综合色鬼| 国产精品欧美成人片| 91亚洲免费在线观看视频| 国产精品久人妻精品老妇| 午夜成人精品福利网站在线观看| 亚洲电影中文字幕| 风间由美中文字幕在线| 日日噜噜夜夜狠狠久久丁香五月 | 久久精品人人做人人爽| 精品少妇爆乳无码aⅴ区| 9l国产自产一区二区三区| 亚洲欧洲日产国码av系列天堂 | 国产一区二区波多野结衣| 看全色黄大色大片免费久久久| 中文字幕第一页人妻丝袜| 国产草草影院ccyycom| xxxx国产视频| 国产乱老熟视频乱老熟女1| 综合色免费在线精品视频| 最近中文字幕大全在线电影视频| 中文字幕无码人妻丝袜| 国产精品亚洲av无人区一区蜜桃| 亚洲av综合色区无码一区| 8ⅹ8x擦拨擦拨成人免费视频 | 色狠狠一区二区三区中文| 国产无遮挡无码视频免费软件| 成人亚洲欧美久久久久| 国产精品高清视亚洲一区二区| 亚洲精品无码专区| 国产精品国语对白露脸在线播放 | 亚洲毛片在线免费视频| 国产精品欧美一区二区三区不卡| 久久久国产精品樱花网站| 亚洲av大片在线免费观看| 人妻中文字幕乱人伦在线| 精品国产精品久久一区免费式| 国产高清一区在线观看| 丝袜美腿福利一区二区| 999久久久无码国产精品| 99久久综合狠狠综合久久一区|