亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于pytorch的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法研究

        2020-12-31 08:54:36姬壯偉
        關(guān)鍵詞:優(yōu)化

        姬壯偉

        (長治學(xué)院計算機系,山西長治 046011)

        深度學(xué)習(xí)是近年來發(fā)展十分迅速的研究領(lǐng)域,并且在人工智能的很多子領(lǐng)域都取得了巨大的成功,從移動端的人臉識別,到alphago機器人擊敗人類職業(yè)圍棋選手,現(xiàn)代人的生活已經(jīng)和人工智能密切相關(guān)。

        人工神經(jīng)網(wǎng)絡(luò)是人工智能研究領(lǐng)域最熱的深度學(xué)習(xí)模型,由早期的神經(jīng)科學(xué)家受到人腦神經(jīng)系統(tǒng)的啟發(fā)構(gòu)造而成,該網(wǎng)絡(luò)是指由很多人工神經(jīng)元構(gòu)成的網(wǎng)絡(luò)結(jié)構(gòu)模型,這些人工神經(jīng)元之間的連接強度便是可學(xué)習(xí)的參數(shù)。隨著人工神經(jīng)網(wǎng)絡(luò)越來越復(fù)雜,數(shù)據(jù)越來越多,計算量急劇增加,我們需要在神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)上花費的時間也就越來越多,可是現(xiàn)實中往往為了解決復(fù)雜的問題,復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和大數(shù)據(jù)又是不可避免的,神經(jīng)網(wǎng)絡(luò)的優(yōu)化器便由此而生,通過優(yōu)化算法加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,加速參數(shù)的學(xué)習(xí)。

        1 神經(jīng)網(wǎng)絡(luò)優(yōu)化器發(fā)展

        Gradient Descent,即梯度下降算法,由Cauchy,Augustin 于1847 年首次提出,依據(jù)數(shù)學(xué)理論解決了神經(jīng)網(wǎng)絡(luò)中參數(shù)學(xué)習(xí)的方向問題,基于此算法,往后的科研人員做出了許多優(yōu)化。在1951 年,SGD 算法的早期形式被提出,隨機梯度下降的參數(shù)學(xué)習(xí)方法被廣泛應(yīng)用,由于SGD 學(xué)習(xí)效率的局限,在1964 年,由Polyak 提出了Momentum 的優(yōu)化算法,此算法利用給學(xué)習(xí)參數(shù)附加慣性值,大大提高了參數(shù)學(xué)習(xí)的效率。在神經(jīng)網(wǎng)絡(luò)興起的這幾年中,優(yōu)化算法也從沒停止發(fā)展,2011 年John Duchi 提出了通過優(yōu)化學(xué)習(xí)率參數(shù)來提高學(xué)習(xí)效率的AdaGrad 優(yōu)化算法,2015年Diederik P.Kingma 和Jimmy Lei Ba 提出的Adam 優(yōu)化算法集合了Momentum 和AdaGrad 算法的優(yōu)點,進一步提高了學(xué)習(xí)效率。在接下來的幾年中,相繼提出了AdaMax、Nadam、SGDW、Adabound、RAdam 等優(yōu)化算法。

        總體來說,目前的優(yōu)化算法皆是從調(diào)整學(xué)習(xí)率和調(diào)整梯度方向兩方面來優(yōu)化訓(xùn)練速度,各優(yōu)化算法匯總?cè)绫?所示。

        表1 神經(jīng)網(wǎng)絡(luò)常用優(yōu)化算法匯總

        2 神經(jīng)網(wǎng)絡(luò)優(yōu)化算法

        2.1 Stochastic Gradient Descent (SGD)

        SGD[1-2]即隨機梯度下降,是梯度下降算法的變種。批量梯度下降算法在梯度下降時,每次迭代都要計算整個訓(xùn)練數(shù)據(jù)上的梯度,當(dāng)遇到大規(guī)模訓(xùn)練數(shù)據(jù)時,計算資源需求多,數(shù)據(jù)通常也會非常冗余。隨機梯度下降算法則把數(shù)據(jù)拆成幾個小批次樣本,每次只隨機選擇一個樣本來更新神經(jīng)網(wǎng)絡(luò)參數(shù),如圖1所示。

        圖1 SGD優(yōu)化算法示意圖

        實驗表明,每次使用小批量樣本,雖然不足夠反應(yīng)整體數(shù)據(jù)的情況,但卻很大程度上加速了神經(jīng)網(wǎng)絡(luò)的參數(shù)學(xué)習(xí)過程,并且還不會丟失太多準(zhǔn)確率。

        2.2 Momentum

        動量是物理學(xué)中的概念,是指物體在它運動方向上保持運動的一種趨勢,Momentum 方法[3-4]則將其運用到神經(jīng)網(wǎng)絡(luò)的優(yōu)化中,用之前累計的動量來替代真正的梯度,計算負(fù)梯度的“加權(quán)移動平均”來作為參數(shù)的更新方向,其參數(shù)更新表達式為

        其中ρ為動量因子,通常設(shè)為0.9,α 為學(xué)習(xí)率。這樣,每個參數(shù)的實際更新差值取決于最近一段時間內(nèi)梯度的加權(quán)平均值,當(dāng)某個參數(shù)在最近一段時間內(nèi)的梯度方向不一致時,其真是的參數(shù)更新幅度變?。幌喾?,當(dāng)在最近一段時間內(nèi)的梯度方向都一致時,其真實的參數(shù)更新幅度變大,起到加速作用,相比SGD,能更快的到達最優(yōu)點。

        2.3 AdaGrad

        在標(biāo)準(zhǔn)的梯度下降算法中,每個參數(shù)在每次迭代時都使用相同的學(xué)習(xí)率,AdaGrad 算法[5]則改變這一傳統(tǒng)思想,由于每個參數(shù)維度上收斂速度都不相同,因此根據(jù)不同參數(shù)的收斂情況分別設(shè)置學(xué)習(xí)率。

        AdaGrad 算法借鑒正則化思想,每次迭代時自適應(yīng)的調(diào)整每個參數(shù)的學(xué)習(xí)率,在進行第t次迭代時,先計算每個參數(shù)梯度平方的累計值,其表達式為

        其中⊙為按元素乘積,gt是第t次迭代時的梯度。然后再計算參數(shù)的更新差值,表達式為

        其中α 是初始的學(xué)習(xí)率,ε 是為了保持?jǐn)?shù)值穩(wěn)定性而設(shè)置的非常小的常數(shù)。

        在Adagrad 算法中,如果某個參數(shù)的偏導(dǎo)數(shù)累積比較大,其學(xué)習(xí)率相對較??;相反,如果其偏導(dǎo)數(shù)累積較小,其學(xué)習(xí)率相對較大。但整體是隨著迭代次數(shù)的增加,學(xué)習(xí)率逐漸縮小。

        2.4 RMSProp

        RMSprop 算法[6-7]對AdaGrad 算法進行改進,在AdaGrad 算法中由于學(xué)習(xí)率逐漸減小,在經(jīng)過一定次數(shù)的迭代依然沒有找到最優(yōu)點時,便很難再繼續(xù)找到最優(yōu)點,RMSprop算法則可在有些情況下避免這種缺點。

        RMSprop 算法首先計算每次迭代梯度gt平方的指數(shù)衰減移動平均,

        其中β為衰減率,然后用和AdaGrad 同樣的方法計算參數(shù)更新差值,從表達式中可以看出,RMSprop算法的每個學(xué)習(xí)參數(shù)不是呈衰減趨勢,既可以變小也可以變大。

        2.5 Adam

        Adam算法[8-9]即自適應(yīng)動量估計算法,是Momentum 算法和RMSprop 算法的結(jié)合,不但使用動量作為參數(shù)更新方向,而且可以自適應(yīng)調(diào)整學(xué)習(xí)率。

        Adam 算法一方面計算梯度平方的指數(shù)加權(quán)平均(和RMSprop 類似),另一方面計算梯度的指數(shù)加權(quán)平均(和Momentum法類似),其表達式為

        其中β1和β2分別為兩個移動平均的衰減率,Adam算法的參數(shù)更新差值為

        Adam 算法集合了Momentum 算法和RMSprop 算法的優(yōu)點,因此相比之下,Adam 能更快更好的找到最優(yōu)點,迅速收斂。

        3 優(yōu)化性能實驗設(shè)計及結(jié)果分析

        使用由Facebook 開源的Pytroch[10]神經(jīng)網(wǎng)絡(luò)框架,該框架是基于Python 的張量庫,近幾年和Tensorflow 成為該研究領(lǐng)域的主流框架,并且通過Python 的Matplotlib 可視化工具包將實驗結(jié)果展示出來。用神經(jīng)網(wǎng)絡(luò)領(lǐng)域典型的回歸問題來測試我們不同優(yōu)化算法的參數(shù)學(xué)習(xí)效率和收斂速度。

        3.1 生成訓(xùn)練數(shù)據(jù)

        訓(xùn)練數(shù)據(jù)為5000 個偽數(shù)據(jù)點,由平方曲線的正太上下浮動生成,訓(xùn)練時的批量大小為64,學(xué)習(xí)率為0.01,如圖2所示。

        圖2 實驗數(shù)據(jù)展示圖

        3.2 創(chuàng)建與訓(xùn)練神經(jīng)網(wǎng)絡(luò)

        每個優(yōu)化算法使用的都是同一個神經(jīng)網(wǎng)絡(luò),本實驗中搭建的神經(jīng)網(wǎng)絡(luò)的輸入層包含1 個輸入神經(jīng)元,共兩層隱藏層,每層隱藏層包含20 個神經(jīng)元,輸出層包含1 個輸出神經(jīng)元,每層神經(jīng)網(wǎng)絡(luò)這件用RELU激活函數(shù)進行激活,神經(jīng)網(wǎng)絡(luò)搭建好后,用不同的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法對同一神經(jīng)網(wǎng)絡(luò)進行參數(shù)優(yōu)化,對比不同優(yōu)化算法的參數(shù)收斂速度,以及訓(xùn)練誤差,并通過Matplotlib 可視化工具對結(jié)果進行可視化展示,如圖3所示。

        圖3 不同優(yōu)化算法收斂展示圖

        圖3 中橫軸為訓(xùn)練時間線,縱軸為誤差率,在同一圖中展示了不同的優(yōu)化算法在同一神經(jīng)網(wǎng)絡(luò)的參數(shù)收斂速度,以及不同優(yōu)化算法的誤差率。

        3.3 測試及結(jié)果分析

        通過用不同優(yōu)化算法對同一神經(jīng)網(wǎng)絡(luò)的多次訓(xùn)練,可以看出,幾乎沒有任何加速效果的SGD 優(yōu)化算法參數(shù)收斂速度最慢,且誤差率最高,而將SGD 改良后Momentum 則由于動量的存在,相比之下參數(shù)更快的收斂,誤差達到一個穩(wěn)定的低值,而RMSprop 和Adam 是進一步優(yōu)化算法升級,明顯收斂速度逐步增加,誤差率更早達到穩(wěn)定狀態(tài)。

        4 結(jié)論

        優(yōu)化算法對神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率影響很大,如今的優(yōu)化算法從調(diào)整學(xué)習(xí)率和調(diào)整梯度兩個方向,來優(yōu)化訓(xùn)練速度,在神經(jīng)網(wǎng)絡(luò)處理的不同數(shù)據(jù)中,要多次嘗試選擇合適的優(yōu)化器才能讓神經(jīng)網(wǎng)絡(luò)的性能最大化。

        猜你喜歡
        優(yōu)化
        超限高層建筑結(jié)構(gòu)設(shè)計與優(yōu)化思考
        PEMFC流道的多目標(biāo)優(yōu)化
        能源工程(2022年1期)2022-03-29 01:06:28
        民用建筑防煙排煙設(shè)計優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        由“形”啟“數(shù)”優(yōu)化運算——以2021年解析幾何高考題為例
        圍繞“地、業(yè)、人”優(yōu)化產(chǎn)業(yè)扶貧
        事業(yè)單位中固定資產(chǎn)會計處理的優(yōu)化
        4K HDR性能大幅度優(yōu)化 JVC DLA-X8 18 BC
        幾種常見的負(fù)載均衡算法的優(yōu)化
        電子制作(2017年20期)2017-04-26 06:57:45
        40岁大乳的熟妇在线观看 | 开心五月激动心情五月| av在线播放一区二区免费| 久久精品国产亚洲av网| 小说区激情另类春色| 国产免费av片在线观看播放| 人人妻人人爽人人做夜欢视频九色 | 成人一区二区三区激情视频| 97人伦影院a级毛片| www射我里面在线观看| 久久无码av三级| 精品国产高清一区二区广区| 人妻少妇无乱码中文字幕| 一区二区三区观看视频在线| 丝袜美腿av在线观看| 亚州性无码不卡免费视频| 爱情岛论坛亚洲品质自拍hd| 国产亚洲欧美另类久久久| 中文字幕日本韩国精品免费观看| 中文字幕有码在线人妻| 久久久精品国产性黑人| 日本高清视频wwww色| 幻女bbwxxxx在线视频| 无码毛片高潮一级一免费| 亚洲国产不卡av一区二区三区| 免费黄网站永久地址进入| 婷婷久久精品国产色蜜蜜麻豆| 欧美又大又色又爽aaaa片| 中文字幕无线码中文字幕| 亚洲av不卡电影在线网址最新 | 久久丝袜熟女av一区二区| 久久国产人妻一区二区| 超碰97资源站| 97人妻碰免费视频| av是男人的天堂免费| 亚洲另类丰满熟妇乱xxxx| 人妻丰满熟妇av无码区hd| 日韩手机在线免费视频| 色青青女同性恋视频日本熟女| 日本一区二区三区视频在线观看| 好大好深好猛好爽视频免费 |