亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的問題回答技術研究

        2019-05-14 08:25:10李家樂吳明禮
        數(shù)字技術與應用 2019年2期
        關鍵詞:注意力機制深度學習

        李家樂 吳明禮

        摘要:針對非事實類問答任務,本文搭建了帶有注意力機制的雙向長短時記憶(BiLSTM)網絡模型。實驗表明,在2016 NLPCC QA任務數(shù)據(jù)集上,該模型MRR可達到75.12%,優(yōu)于傳統(tǒng)的機器學習方法。

        關鍵詞:問題回答;深度學習;注意力機制;雙向長短時記憶網絡

        中圖分類號:TP311.52 文獻標識碼:A 文章編號:1007-9416(2019)02-0116-02

        0 引言

        近年來,深度學習在自然語言處理領域的一些任務上取得了較好的成績。非事實類問答任務基于深度學習的技術研究具有較高的學術及應用價值。循環(huán)神經網絡(RNN),其結構可對數(shù)據(jù)信息起到傳遞的作用,非常適合于文本數(shù)據(jù),因此其及其變體網絡在自然語言處理任務中得到了廣泛應用[1]。

        面向中文問答任務,本文搭建了RNN的變體BiLSTM模型,探索了學習率、注意力機制的影響,并取得了較好的實驗效果。

        1 模型構建

        模型的整體框架包括:向量化模塊、深度模型及評分計算模塊。

        向量化模塊:通過一個詞表將問題與答案句子轉化為向量表示。此處詞表是由Word2Vec模型以中文維基百科作為訓練語料得到的。其中,Word2Vec是一個可將字詞轉化為向量形式表達的模型,并且意思相近的詞將被映射到向量空間中的相近位置。

        深度模型:通過網絡模型提取深層語義信息,得到問題與答案更高層次的抽象表示oq與oa,具體結構如圖1所示。

        問題與答案分別進行向量化Word embedding表示,然后經過BiLSTM網絡處理后得到隱藏層輸出hq、ha,再由最大池化(Max Pooling)和注意力(attention)機制處理,最后便可得到抽象表示oq、oa。其中,最大池化作用為獲取隱藏層輸出向量中最突出的特征;而注意力機制則可根據(jù)問題賦予答案的各個部分不同的權重,進而動態(tài)為答案提供更多信息。

        注意力機制:在時間步t,問題經過BiLSTM及最大池化層后得到向量oq,答案經過BiLSTM后得到向量ha,更新后的h~a可通過以下方式獲取:

        sa,q為ha(t)的注意力權值,h~a(t)為更新后的ha(t)。其中,Wam,Wqm和Wms是注意力參數(shù)。

        評分計算模塊:包含評分標準與損失函數(shù)。前者使用余弦相似度衡量問題與答案間的相似度;后者使用鉸鏈損失函數(shù)指導模型的訓練優(yōu)化,具體公式如下:

        其中,q表示問題,a+表示正確答案,a-表示錯誤答案,而M是為優(yōu)化目標函數(shù)而設置的閾值參數(shù),且為常值。

        2 參數(shù)選擇

        學習率在很大程度上影響著深度模型的訓練優(yōu)化。其值過大時,會導致模型參數(shù)在最優(yōu)值附近震蕩而無法收斂;而值過小時,會消耗大量訓練時間,造成計算機資源的浪費。經試驗,設置最佳的學習率初始值為0.2,并采用指數(shù)衰減的方式動態(tài)更改學習率大小以便于獲取最優(yōu)解。

        評分計算模塊中損失函數(shù)的M閾值,控制著正確答案和錯誤答案與問題之間的差距,其值過小不足以區(qū)分,而其值過大則不利于模型的收斂。在反復試驗后,設置為0.1。

        3 實驗

        在2016 NLPCC QA數(shù)據(jù)集上,我們對問答模型進行了評估,選用評測指標MRR,其實驗結果可達到75.12%。就Wu等[2]基于傳統(tǒng)的人工構造特征模型,如TFIDF SVM、Edit distance,其實驗性能分別可達到45.31%與20.98%;而深度模型BiLSTM則可達到66.34%。通過對比可知,深度模型BiLSTM明顯優(yōu)于其他幾種傳統(tǒng)機器學習模型;而本文中基于注意力機制的BiLSTM模型比簡單的BiLSTM模型提高了將近9%足以說明了注意力機制的有效性。

        4 結語

        本文中,我們探索了BiLSTM與注意力機制在非事實類中文問答任務中的應用。實驗所選數(shù)據(jù)集具有一定權威性,其規(guī)模較大,且為開放域。通過實驗對比分析,可知深度模型及注意力機制在問答任務中的有效性。

        參考文獻

        [1] Wang B, Liu K, Zhao J. Inner Attention based Recurrent Neural Networks for Answer Selection[C]//ACL (1).2016:1288-1297.

        [2] Wu F,Yang M,Zhao T,et al.A Hybrid Approach to DBQA[C]// International Conference on Computer Processing of Oriental Languages. Springer International Publishing, 2016.

        Question Answering Technology Research Based on Deep Learning

        LI Jia-le,WU Ming-li

        (School of Information Science and Technology, North China University of Technology,Beijing? 100144)

        Abstract:For non-factoid QA tasks, in this paper,we build a BiLSTM model with Attention mechanism.Experiments show that in 2016 NLPCC QA dataset, this model can reach 75.12% on MRR, which is better than the traditional machine learning method.

        Key words:question answering; deep learning; attention; BiLSTM

        猜你喜歡
        注意力機制深度學習
        基于序列到序列模型的文本到信息框生成的研究
        面向短文本的網絡輿情話題
        基于自注意力與動態(tài)路由的文本建模方法
        軟件導刊(2019年1期)2019-06-07 15:08:13
        基于LSTM?Attention神經網絡的文本特征提取方法
        基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個基于知識庫的問答系統(tǒng)
        有體驗的學習才是有意義的學習
        電子商務中基于深度學習的虛假交易識別研究
        MOOC與翻轉課堂融合的深度學習場域建構
        大數(shù)據(jù)技術在反恐怖主義中的應用展望
        8av国产精品爽爽ⅴa在线观看| 麻神在线观看免费观看| 免费成人电影在线观看 | 日本视频一区二区三区一| 任我爽精品视频在线播放| 国模精品无码一区二区二区| 久久HEZYO色综合| 巨臀中文字幕一区二区| av免费网站不卡观看| 中文字日产幕码三区的做法大全| 国产精品成人久久电影| 99久久久精品免费香蕉| 亚洲精品成人久久av| 国产精品毛片无遮挡高清| 88久久精品无码一区二区毛片| 伊香蕉大综综综合久久| 亚洲五月天中文字幕第一页| 特黄 做受又硬又粗又大视频| 亚洲五月天综合| 国产品精品久久久久中文| 国产三级国产精品国产专播| 99久久99久久精品免费看蜜桃| 久久国产精品无码一区二区三区| 久草精品手机视频在线观看| 久久一道精品一区三区| 久久精品噜噜噜成人| 国产成人综合久久久久久| 国产一区二区三区精品成人爱| 亚洲av无码专区国产不卡顿| 国产精品亚洲成在人线| 成人国产一区二区三区精品不卡| 亚洲高清国产一区二区| 99久久人妻精品免费二区| 无码一区东京热| 日韩五码一区二区三区地址| 亚洲精品国偷拍自产在线观看| 国产亚洲精品自在久久蜜tv | 亚洲乱码一区AV春药高潮| 亚洲国产精品区在线观看| 国产探花在线精品一区二区| 国产亚洲第一精品|