亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        非飽和區(qū)擴(kuò)展的RNN算法優(yōu)化*

        2018-03-26 03:32:54沈海斌
        傳感器與微系統(tǒng) 2018年3期
        關(guān)鍵詞:非飽和導(dǎo)數(shù)梯度

        張 堯, 沈海斌

        (浙江大學(xué) 超大規(guī)模集成電路設(shè)計(jì)研究所,浙江 杭州 310027)

        0 引 言

        循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)是目前最流行的人工神經(jīng)網(wǎng)絡(luò)之一,具有處理歷史信息和建模歷史記憶的功能特點(diǎn),適用于處理時(shí)間、空間上有關(guān)聯(lián)的信息,如語音識(shí)別、實(shí)時(shí)翻譯以及計(jì)算機(jī)視覺等[1~3]。在標(biāo)準(zhǔn)的RNN結(jié)構(gòu)中,隨著序列數(shù)據(jù)的不斷輸入,覆蓋之前的序列數(shù)據(jù)信息,導(dǎo)致序列梯度消散問題[4], Karpathy A等人采用了長(zhǎng)短時(shí)記憶(long short-term memory,LSTM)單元解決該問題[5]。LSTM型RNN使得激活函數(shù)的數(shù)量增加,激活函數(shù)一般為S型函數(shù),如Sigmoid, Tanh等[6]。LSTM型RNN隱含層一般采用2層結(jié)構(gòu),單層網(wǎng)絡(luò)訓(xùn)練效果不佳,多層網(wǎng)絡(luò)訓(xùn)練難度較大。采用反向傳播算法進(jìn)行訓(xùn)練時(shí),S型函數(shù)容易進(jìn)入導(dǎo)數(shù)趨近于0的飽和區(qū)導(dǎo)致收斂速度慢。Glorot X等人采用了修正線性單元(rectified linear units,ReLU)訓(xùn)練具有稀疏特性的數(shù)據(jù),解決S型激活函數(shù)飽和區(qū)難以收斂的問題[7]。ReLU是分段線性非飽和函數(shù),隨著x的增大,函數(shù)發(fā)散,訓(xùn)練時(shí)容易導(dǎo)致梯度爆炸,無法完成訓(xùn)練。

        本文提出了擴(kuò)展激活函數(shù)非飽和區(qū)的方法解決了S型激活函數(shù)飽和區(qū)收斂速度慢和ReLU激活函數(shù)梯度爆炸的問題,加快了LSTM型RNN的訓(xùn)練收斂速度。

        1 LSTM型RNN訓(xùn)練

        1.1 LSTM型RNN的前向傳播

        前向傳播過程從t=1時(shí)刻依次經(jīng)過輸入層、隱含層和輸出層。

        Input Gate

        (1)

        (2)

        Forget Gate

        (3)

        (4)

        Cell

        (5)

        (6)

        式中wic,whc分別為輸入層、隱含層與Cell單元的連接權(quán)值。

        Output Gate

        (7)

        (8)

        Cell Output

        (9)

        1.2 LSTM型RNN的后向傳播

        Cell Output

        (10)

        式中G為隱含層輸入的個(gè)數(shù),包括LSTM單元之間的連接和不同門之間的連接。

        Output Gate

        (11)

        State

        (12)

        Cell

        (13)

        Forget Gate

        (14)

        Input Gate

        (15)

        2 非飽和區(qū)擴(kuò)展的RNN算法優(yōu)化

        LSTM單元中的Input Gate,Output Gate和Forget Gate一般采用Sigmoid函數(shù)作為激活函數(shù),Net Input單元和Cell單元一般采用tanh函數(shù)作為激活函數(shù)[8,9]。Sigmoid函數(shù)和tanh函數(shù)具有類似的函數(shù)特征,即非線性、飽和性

        (16)

        (17)

        不同系數(shù)的Sigmoid和tanh函數(shù)及其導(dǎo)數(shù)圖像如圖1、圖2所示。Sigmoid函數(shù)和tanh函數(shù)的系數(shù)不同時(shí),函數(shù)的非線性、飽和性不同。系數(shù)變大時(shí),非飽和區(qū)變窄,非飽和區(qū)的導(dǎo)數(shù)變大;系數(shù)變小時(shí),非飽和區(qū)變寬導(dǎo)數(shù)變小。

        圖1 k-Sigmoid函數(shù)及其導(dǎo)數(shù)

        圖2 k-tanh函數(shù)及其導(dǎo)數(shù)

        3 實(shí)驗(yàn)結(jié)果與分析

        不同系數(shù)激活函數(shù)的LSTM型RNN訓(xùn)練過程中訓(xùn)練時(shí)間和訓(xùn)練誤差如圖3所示,k為激活函數(shù)的系數(shù)。實(shí)驗(yàn)結(jié)果表明:當(dāng)激活函數(shù)系數(shù)為1/8時(shí),訓(xùn)練速度最快。激活函數(shù)系數(shù)較大時(shí),非飽和區(qū)較窄;系數(shù)過小時(shí),非飽和區(qū)導(dǎo)數(shù)較小,因此,選擇激活函數(shù)系數(shù)為1/8。同等誤差水平下,RNN的訓(xùn)練時(shí)間減少了21 %(k=1的訓(xùn)練時(shí)間為26 129 s,k=0.125的訓(xùn)練時(shí)間為20 520 s)。

        圖3 參數(shù)化激活函數(shù)的RNN訓(xùn)練過程

        4 結(jié)束語

        基于S型激活函數(shù)的性質(zhì),提出了參數(shù)化激活函數(shù)方法,有效地?cái)U(kuò)展了激活函數(shù)非飽和區(qū)范圍,通過實(shí)驗(yàn)證明了非飽和區(qū)擴(kuò)展的RNN算法優(yōu)化方法加快了訓(xùn)練的收斂速度。實(shí)驗(yàn)中,不同的初始化權(quán)值以及神經(jīng)元結(jié)點(diǎn)數(shù),對(duì)訓(xùn)練的誤差和速度影響不同,如何選擇最優(yōu)的LSTM型RNN的參數(shù)是今后的研究方向。

        [1] Zen H.Acoustic modeling in statistical parametric speech synthesis-from HMM to LSTM-RNN[J].Middle East Policy,2008,15(1):125-132.

        [2] Kim J,Kim J,Thu H L T,et al.Long short term memory recurrent neural network classifier for intrusion detection[C]∥2016 International Conference on Platform Technology and Service(PlatCon),IEEE,2016:1-5.

        [3] 李幸超.基于循環(huán)神經(jīng)網(wǎng)絡(luò)的軌跡位置預(yù)測(cè)技術(shù)研究[D].杭州:浙江大學(xué),2016.

        [4] Graves A.Neural networks[M].Berlin Heidelberg:Springer, 2012:15-35.

        [5] Karpathy A,Johnson Justin,Li F F.Visualizing and understan-ding recurrent networks[C]∥International Conference on Learning Representations(ICLR),San Juan:2016.

        [6] 李宏偉,吳慶祥.智能傳感器中神經(jīng)網(wǎng)絡(luò)激活函數(shù)的實(shí)現(xiàn)方案[J].傳感器與微系統(tǒng),2014,33(1):46-48.

        [7] Glorot X,Bordes A,Bengio Y.Deep sparse rectifier neural networks[J].Journal of Machine Learning Research,2014,33(1):46-48.

        [8] Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[J].Advances in Neural Information Processing Systems,2012,25(2):2012.

        [9] Soleymani M,Asghari Esfeden S,Fu Y,et al.Analysis of EEG signals and facial expressions for continuous emotion detec-tion[J].IEEE Transactions on Affective Computing,2016,7(1):1.

        猜你喜歡
        非飽和導(dǎo)數(shù)梯度
        一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
        解導(dǎo)數(shù)題的幾種構(gòu)造妙招
        一種自適應(yīng)Dai-Liao共軛梯度法
        非飽和原狀黃土結(jié)構(gòu)強(qiáng)度的試驗(yàn)研究
        一類扭積形式的梯度近Ricci孤立子
        關(guān)于導(dǎo)數(shù)解法
        非飽和多孔介質(zhì)應(yīng)力滲流耦合分析研究
        非飽和土基坑剛性擋墻抗傾覆設(shè)計(jì)與參數(shù)分析
        導(dǎo)數(shù)在圓錐曲線中的應(yīng)用
        非飽和地基土蠕變特性試驗(yàn)研究
        国产欧美va欧美va香蕉在| 国产一区二区精品av| 日本久久大片中文字幕| 午夜无码一区二区三区在线观看| 真人作爱免费视频| 亚洲AV永久青草无码性色av| 91九色国产在线观看| 亚洲处破女av日韩精品中出| 亚洲欧美日韩国产精品一区二区 | 色综合久久精品中文字幕| av在线资源一区二区| 久久亚洲中文字幕精品一区| 精品无码中文字幕在线| 极品 在线 视频 大陆 国产| 日本超骚少妇熟妇视频| 欲香欲色天天天综合和网| 无码综合天天久久综合网| 亚洲av影院一区二区三区四区| 丝袜美腿亚洲综合一区| 人妻激情偷乱视频一区二区三区| 欧美丰满熟妇乱xxxxx图片| 麻豆国产成人AV网| 区一区二区三区四视频在线观看| 亚洲婷婷五月综合狠狠爱| 国产天堂在线观看| 日韩人妻av不卡一区二区三区| 懂色av一区二区三区尤物| 欧美日韩色另类综合| 日本在线观看不卡| 日韩一区三区av在线| 久9re热视频这里只有精品| 99这里只有精品| 永久免费在线观看蜜桃视频| 日本女优在线一区二区三区 | 国产精品久久久久久久免费看| 在线观看一区二区女同| 国产精品高清视亚洲一区二区| 国精品人妻无码一区二区三区性色| 1000部拍拍拍18勿入免费视频下载| 99久久无色码中文字幕鲁信| 久久精品色福利熟妇丰满人妻91|