亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于神經(jīng)網(wǎng)絡(luò)的集句詩自動生成

        2019-04-17 03:56:28梁健楠孫茂松矣曉沅陳慧敏劉正皓
        中文信息學(xué)報 2019年3期
        關(guān)鍵詞:集句詩句語義

        梁健楠,孫茂松,矣曉沅,楊 成,陳慧敏,劉正皓

        (1. 清華大學(xué) 計算機科學(xué)與技術(shù)系,北京,100084; 2. 清華大學(xué) 人工智能研究院,北京,100084 3. 清華大學(xué) 智能技術(shù)與系統(tǒng)國家重點實驗室,北京,100084)

        0 引言

        隨著中華文化的復(fù)興,越來越多的人開始關(guān)注、學(xué)習(xí)中國古典文化。而古詩詞作為中國優(yōu)秀古典文化的結(jié)晶,在數(shù)千年的歷史長河中對中華民族的發(fā)展有著深遠影響。

        近年來,中國古典詩歌自動生成的研究逐漸成為熱點,吸引了國內(nèi)外越來越多研究者的注意。研究者們對中國古典絕句[1-2]和宋詞[3-4]的自動生成任務(wù)提出了很多不同的模型和方法。這些研究大都集中在絕句和宋詞的自動生成。本文著重關(guān)注一種特殊的中國古典詩歌形式——集句詩。集句詩作為一種別出機杼的詩歌再創(chuàng)造方式,是對不同時期、不同詩人創(chuàng)作的不同詩篇中已有句子進行選取,并重新組合形成的新詩。詩句雖然是前人所寫且各有其出處,但過渡流暢,具備完整的內(nèi)容和新穎的主旨意境,渾然天成且無強拼硬湊之感。圖1給出了一首明代著名文學(xué)家湯顯祖所作的集句詩示例。

        圖1 湯顯祖《牡丹亭》中所作七言集句詩

        集句詩的歷史可以上溯到西晉,而興盛于宋代。集句創(chuàng)作需要創(chuàng)作者博聞強識,有大量的詩歌儲備作為再創(chuàng)作素材。同時要求創(chuàng)作者有很強的詩詞理解和鑒賞能力,只有充分理解前人不同作品中每一詩句表達的內(nèi)容與意境,才能在對詩句進行有機的重新組合的同時而不破壞集成的整首詩的連貫完整性。在中國古代眾多詩人中,只有王安石、蘇軾、辛棄疾等詩文大家才有能力創(chuàng)作出高質(zhì)量的集句詩。

        隨著硬件技術(shù)的發(fā)展,現(xiàn)代計算機具備了海量存儲和快速檢索能力,計算機能夠“記憶”的詩作數(shù)量遠遠高于人類。近年來神經(jīng)網(wǎng)絡(luò),尤其是基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的模型得到了極大的發(fā)展,且在圖像識別、語音識別、機器翻譯等任務(wù)上取得了顯著突破。RNN能夠自動從大規(guī)模語料庫中,學(xué)習(xí)到質(zhì)量較高的句子語義表示。前人的工作已經(jīng)表明,RNN能夠用于英文詩歌[5-6]和中國古典詩歌[2,4,7]的自動生成,且能取得不錯的效果。

        本文提出了一種新穎的結(jié)合計算機索引能力和神經(jīng)網(wǎng)絡(luò)語義表示能力的自動集句詩生成模型。模型采取逐句生成的方式,根據(jù)用戶輸入的一句首句,依次選取古詩庫中上下文語義、意境關(guān)聯(lián)性最強的詩句作為當前生成句,并將生成句作為輸入詩句。以此類推,逐步生成一首完整的集句詩。首先,我們設(shè)計了一套格律和韻腳檢測方法,剔除詩庫中不符合格律押韻要求的詩句,從而減小模型的搜索空間。然后,基于整個古詩庫,根據(jù)上下文的大小不同,我們訓(xùn)練了兩個帶Attention機制的Neural Sequence-to-Sequence[8]模型,用以生成詩句的向量表示,通過句向量來衡量集句質(zhì)量最重要的標準是整首詩的上下文連貫性和關(guān)聯(lián)性?;诖?,我們設(shè)計了三種不同的方法來計算一句詩句和已生成的上文多個詩句之間的關(guān)聯(lián)性,用于當前候選詩句的選取。我們采用信息檢索中常用的MRR(Mean Reciprocal Rank)指標用于評價集句詩生成模型。實驗結(jié)果表明,我們的模型相對基于統(tǒng)計互信息的自動集句生成模型有較大提升。

        綜上,本文的貢獻如下:

        (1) 我們首先提出集句詩的自動生成任務(wù),并設(shè)計了相應(yīng)的自動評價指標;

        (2) 我們設(shè)計了一種基于Sequence-to-Sequence神經(jīng)網(wǎng)絡(luò)的自動生成集句詩模型。模型利用句向量自動學(xué)習(xí)詩句語義,測量語義相似性;

        (3) 自動評測和人工評測結(jié)果都表明,給定一句用戶輸入的首句,我們的模型能生成質(zhì)量較高的集句詩。相對于基于統(tǒng)計互信息的自動集句詩生成模型有很大提升。

        1 相關(guān)工作

        詩歌生成是研究計算機自動分析、理解和使用人類語言的一個重要切入點。國內(nèi)外在這一領(lǐng)域的研究已經(jīng)持續(xù)了數(shù)十年。從方法上,相關(guān)的研究工作可以分為三個階段:

        早期的詩歌生成模型都是基于規(guī)則和模板。例如,ASPERA 詩歌生成系統(tǒng)[9]和日文俳句生成系統(tǒng)[10]。

        第二個階段大約從上世紀90年代開始。在這一階段,統(tǒng)計機器學(xué)習(xí)方法陸續(xù)被用到詩歌生成上。Levy[11]和Manurung[12]先后探索利用遺傳算法來進行詩歌生成。與此同時,一些研究者也開始利用其他類型的文本生成模型。Yan 等人提出利用自動文本摘要的方式進行詩歌生成,將詩歌的生成過程看作是從整個古詩庫進行摘要的過程[13]。另一個,在詩歌生成任務(wù)上提升顯著的模型是統(tǒng)計機器翻譯(Statistical Machine Translation,SMT)模型。Jiang 和 Zhou 首先將SMT模型用于中文對聯(lián)的生成[14],取得了良好的效果。隨后,He進一步將此模型應(yīng)用于中文絕句的生成[14]。

        隨著人工神經(jīng)網(wǎng)絡(luò)的發(fā)展,這一領(lǐng)域邁進了第三個階段——基于神經(jīng)網(wǎng)絡(luò)的詩歌生成。大部分研究者都采用RNN或者其變體進行詩歌生成。Zhang 和 Lapata 最早將RNN應(yīng)用到了中文絕句生成任務(wù)上[2]。他們使用一個卷積語句模型將生成的每句詩向量化然后壓縮到一個上下文向量中,用以捕捉詩歌的上下文信息。但是,他們的模型較為簡單。為了提升詩歌的連貫性和通順性,他們的模型還需要和兩個額外的SMT特征以及一個基于n-gram的語言模型相結(jié)合。隨后,Yan 提出了polish模型[15],使用RNN進行絕句的生成。不同之處在于,Yan的模型會對一首詩進行多次生成。每次生成時,會考慮上一次生成的詩歌,以模擬人類在創(chuàng)作詩歌時,不斷修改潤色的過程,從而提升詩歌的質(zhì)量。Yi 等人第一次提出用結(jié)合了注意力機制的Sequence-to-Sequence模型[7]來進行詩歌生成[8]。他們針對絕句中不同的位置訓(xùn)練了不同的模型,以此來提升詩歌的上下文關(guān)聯(lián)性。隨后,在絕句生成任務(wù)上,Wang等人提出了Planning模型[16],該模型預(yù)先規(guī)劃一首絕句里四個句子每一句對應(yīng)的關(guān)鍵詞,然后用對應(yīng)的模型生成每一句。以往的模型生成的詩歌大多缺乏新穎性,故Zhang等人提出了利用記憶網(wǎng)絡(luò)來進行詩歌生成[17]。為了提升生成詩歌的新穎性,他們將數(shù)百首古人創(chuàng)作的詩歌存入一個外部的Memory,以提供更豐富的外部知識來引導(dǎo)模型生成。同時,通過控制Memory中存儲的詩歌風(fēng)格,他們的模型也能實現(xiàn)對生成的詩歌風(fēng)格的簡單控制。Yi 等人同樣提出利用Memory模型[18]。他們使用三個不同的Memory來模擬人類進行詩歌創(chuàng)作時的寫作和記憶習(xí)慣。同時,他們提出了一種體裁向量,能夠?qū)⒃姼璧母衤珊徒Y(jié)構(gòu)信息與詩歌內(nèi)容在一定程度上分離。從而,使一個訓(xùn)練好的模型能生成不同體裁的詩歌。如絕句、宋詞、現(xiàn)代詩等等。神經(jīng)信息檢索也為我們提供了另外的思路用以詩句相關(guān)程度的評判[19]。

        上述模型的詩歌生成都集中在絕句和宋詞這兩種體裁上。這些模型由于要同時考慮詩歌的通順性、上下文關(guān)聯(lián)性、語義豐富性等等,難以做到兼顧所有方面,往往會顧此失彼。在這篇論文中,我們提出了一種全新的詩歌生成任務(wù)——集句詩自動生成。由于詩句是詩庫中古人創(chuàng)作的現(xiàn)有句子,這些句子本身有較好的通順性和語義豐富度。因此,集句詩自動生成模型可以忽略這些方面,而專注于把握不同語句之間的上下文語義、主題、內(nèi)容的連貫性和一致性,這也是對詩歌這種的文學(xué)性文本最為關(guān)鍵的評價指標之一。

        2 模型設(shè)計

        2.1 任務(wù)及模型概述

        我們首先將集句詩自動生成的任務(wù)形式化描述如圖2所示。

        圖2 模型結(jié)構(gòu)圖注: “+”為句子相加,即兩個句子首尾相連拼接起來。

        我們定義一個評分函數(shù)R(L1:i-1,Sn),用以計算詩庫中的每一候選句和上文的連貫性得分。則集句詩的第i句選取為:

        (1)

        從上述過程可以看出,平仄和韻腳可以通過規(guī)則限制進行篩選,一首集句詩的好壞取決于式(1)中定義的評分函數(shù)的效果。我們希望找到合適的評分函數(shù),使得生成的集句效果最佳。

        以下將介紹本文設(shè)計的三種評分函數(shù)。

        2.2 基于生成結(jié)果語義相似性的評分函數(shù)

        不同于其他體裁(如絕句、宋詞等)的生成,集句詩生成要求選取與上文連貫的古人詩句,而非依靠模型生成全新的詩句。前人的工作表明,帶注意力機制的序列到序列模型(Sequence-to-Sequence with attention mechanism)[8]生成的詩句有不錯的上下文關(guān)聯(lián)性[7,16]。因此,我們的第一種評分函數(shù)的思路是,第一步使用神經(jīng)網(wǎng)絡(luò)生成模型根據(jù)上文生成一句全新的當前詩句。第二步使用特定的方法從詩庫中檢索一句與該生成句語義最相似的古人詩句。

        具體地,我們使用基于雙向長短時記憶(Long Short-Term Memory,LSTM)[20-21],帶Attention的編碼-解碼器(Encoder-Decoder)。定義X為輸入到Encoder的序列,X=x1x2…xTx;Y為Decoder端生成的序列,Y=y1y2…yTy。其中,Tx和Ty分別為Encoder和Decoder端的序列長度。給定L1:i-1,則Decoder端生成的詩句Gi計算如式(3)~式(5)所示。

        其中,st和ht分別為第t個時間步的Encoder和Decoder端的隱狀態(tài)向量,e(yt-1)為對應(yīng)的word embedding,f為線性變換層。ct為Attention機制中的attention向量,具體計算參考文獻[8]。

        值得關(guān)注的是,式(2)中,我們把L1:i-1拼接為一個長序列輸入到Encoder中。參照文獻[7]中的方法,當上文包含不同數(shù)目的詩句時,我們分別訓(xùn)練不同的生成模型來進行生成。通常,我們使用1句生成1句來產(chǎn)生詩歌的第二句,2句生成1句來生成集句的詩歌的其他句子。

        得到Sequence-to-Sequence模型生成的句子Gi之后,我們使用兩種方法來度量詩庫中的古人詩句Sn和Gi的語義相似性。

        基于最大公共子序列(LongestCommonSubsequence,LCS)的相似性度量。第一種方法,我們假設(shè)兩個句子之間匹配的子序列越大,兩個句子的語義相似性就越高。即:

        R(L1:i-1,Sn)=LCS(Gi,Sn)

        (6)

        在這里,我們考慮了實字和虛字對語義貢獻度的不同。在匹配過程中,虛字匹配給予比實字低的分數(shù)。

        R(L1:i-1,Sn)=cos(v(Gi),v(Sn))

        (7)

        2.3 基于上下文生成概率的評分函數(shù)

        2.2節(jié)中的方法采取了先生成新詩句Gi,然后再和古人詩句匹配的方式。在實際中,式(5)的概率最大值很難取到,因無法遍歷整個搜索空間。通常采用greedy search或者beam search進行搜索,但這無法保證生成的詩句Gi是在給定上下文的情況下最優(yōu)的。因此,我們可以利用Sequence-to-Sequence模型直接對古人詩句和上文詩句的關(guān)聯(lián)性進行建模。具體如式(8)所示。

        (8)

        其中,Tn為Sn的長度,ct為Sn中的每個字。

        式(8)中,我們實際度量的是,給定上文L1:i-1,神經(jīng)網(wǎng)絡(luò)模型生成某句古人詩句Sn的概率。對訓(xùn)練充分的Sequence-to-Sequence模型,我們在一定程度上可以認為,有更大概率生成的句子,其與上文的語義關(guān)聯(lián)就更緊密。

        2.4 多方法結(jié)合的評分函數(shù)

        在實際實驗中,即使預(yù)先根據(jù)格律對詩庫進行篩選,初步得到的候選句的規(guī)模N非常大,通常在數(shù)萬的量級。使用式(8)計算時,由于LSTM隱狀態(tài)的計算以及Softmax等操作耗時極大,在實際應(yīng)用中難以接受。基于生成結(jié)果的語義相似性評分的方法計算速度較快,LCS和句向量的余弦值的計算耗時較少,但是上下文關(guān)聯(lián)性上表現(xiàn)欠佳。

        圖3 多方法結(jié)合評分結(jié)構(gòu)圖

        因此,我們結(jié)合2.2和2.3的兩種方法,先使用生成結(jié)果的語義相似性評分作為初步篩選,從古詩庫中篩選出評分較高的候選子集。在候選子集中,再使用基于上下文生成概率的評分函數(shù)進行重排序,然后選取得分最高的一句。在第3節(jié)我們的實驗結(jié)果表明,這種結(jié)合能取得生成速度和生成效果二者很好的平衡。

        2.5 格律和押韻控制

        在集句詩自動生成中,對古詩庫詩句的格律和韻腳識別是非常重要的一部分工作,識別錯誤將導(dǎo)致集句效果大打折扣。難點在于一句詩句格律不明顯和一字多韻的情況。

        格律的識別是以整首詩的格律來確定詩中某一句的格律,這樣可以一定程度上容錯,但不影響集句效果。對于一字多韻的情況,同樣根據(jù)一整首詩的整體確定一句話的韻腳。此外,我們做了單句的韻腳識別器,使用句尾詞統(tǒng)計方法來確定一句詩的韻腳——考慮句尾兩個字或三個字的情況下,在古詩庫中的出現(xiàn)次數(shù),選取出現(xiàn)次數(shù)較多的韻作為韻腳。

        3 實驗

        3.1 實驗數(shù)據(jù)和設(shè)置

        本次實驗數(shù)據(jù)收集了唐代到近現(xiàn)代的五言和七言詩,共389 857首詩,2 537 168句詩句。

        從中隨機選擇5 000首詩歌作為驗證集,五言和七言各占2 500首。除去測試集(測試集構(gòu)造在3.2.2中詳述)和驗證集,其余詩歌作為訓(xùn)練集,用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型。

        本文的實驗代碼使用python和tensorflow1.4實現(xiàn)。在帶Attention的Sequence to Sequence模型網(wǎng)絡(luò)中,hidden size為512,word embedding size為256,激活函數(shù)為tanh。采用的優(yōu)化算法是Adam,初始學(xué)習(xí)率為0.001,訓(xùn)練過程中使用的batch size為64。當模型在驗證集上的損失函數(shù)收斂時停止訓(xùn)練。在我們的數(shù)據(jù)集上,約訓(xùn)練10個epoch左右能收斂。

        3.2 實驗與分析

        3.2.1 評分函數(shù)的相關(guān)性分析

        本文在生成句選取最佳匹配句的時候,使用了基于LCS和基于句向量的兩種評分函數(shù),以下將對兩種評分函數(shù)的結(jié)果求Spearman相關(guān)系數(shù)。

        這里選取了20個生成句,對生成句取基于LCS評分函數(shù)排序后的Top100候選句和基于句向量評分函數(shù)的Top100候選句,取這200句候選句并集求Spearman相關(guān)系數(shù)。實驗得Spearman相關(guān)系數(shù)為-0.104。由此可見,使用基于LCS數(shù)和基于句向量評分函數(shù)的結(jié)果相關(guān)性并不大。

        3.2.2 MRR評測

        MRR(Mean Reciprocal Rank),即把標準答案在被評價系統(tǒng)給出結(jié)果中的名次取倒數(shù)后作為該答案的準確度,對所有標準答案的準確度取均值,以此來衡量評價系統(tǒng)的準確度。如式(9)所示。

        (9)

        將在古人創(chuàng)作的絕句中,我們分別選用第一句、第一和第二句、第一至三句作為輸入, 第二、第三和第四句作為對應(yīng)的標準答案。另外,以三種不同的篩選方法分別在數(shù)據(jù)集中選擇999句同言數(shù)的詩句,給每個標準答案匹配對應(yīng)的三組非標準答案集合。然后,通過計算標準答案在1 000句詩句中的準確度來評價不同的評分函數(shù)的效果。

        所使用的三種篩選非標準答案的方法分別為:

        1. 在數(shù)據(jù)集中隨機選取同言數(shù)的詩句,記為測試集1;

        2. 在數(shù)據(jù)集中隨機選取句同言數(shù)、同格律、同韻腳(若押韻)的詩句,記為測試集2;

        3. 在數(shù)據(jù)集中隨機選取同言數(shù)、同格律、同韻律、與標準答案匹配兩個字以上的詩句,記為測試集3。

        在基于句向量的評分函數(shù)中,我們設(shè)計了基于1句生成1句的Sequence-to-Sequence模型和基于2句生成1句的Sequence-to-Sequence模型生成,分別用這兩個模型的Encoder生成詩句向量?;?句生成1句的Sequence-to-Sequence模型是以古詩庫中連續(xù)的兩句詩句分為作為輸入和目標訓(xùn)練得到的模型?;?句生成1句的Sequence-to-Sequence模型是以古詩庫中連續(xù)的兩句作為輸入,緊接的第三句作為目標訓(xùn)練得到的模型。下面我們對以上兩個模型使用測試集1進行MRR評測。原則上,2生1模型需要輸入2句得到句向量,這里我們使用向2生1模型Encoder端輸入一句話和同一句話輸入兩次的方法,求得兩種不同的句向量。

        從表1中可以看出,使用1生1模型的Encoder得到句向量和2生1模型(重復(fù)輸入)的Encoder得到句向量能有比較好的MRR值。

        我們對基于句向量的集句模型和基于生成概率的集句模型進行MMR評測。此外,我們引入了基于互信息的集句模型作為基線。對于上文L和候選句Sn,計算它們之間的互信息作為排序的依據(jù)?;バ畔⒌挠嬎愎饺缡?10)所示。

        (10)

        其中,l和s分別為上文以及候選句中的單字,p(l,s)為古詩庫中l(wèi),s同時出現(xiàn)在同一首詩的概率,p(l)為古詩庫中l(wèi)出現(xiàn)的概率。

        由于基于LCS的集句模型的評分函數(shù)是非連續(xù)的,計算時無法得到一個準確的名次,故在本實驗中并沒有討論。

        表格1 基于句向量的評分函數(shù) MRR評測結(jié)果

        由表格2可見,基于生成概率(Prob)的集句模型計算得到的MRR值明顯高于其他模型。基于生成概率(Prob)的集句模型和基于句向量(Vec)的集句模型在五言中的得分明顯好于在七言中的得分。而在生成第三句時,我們的兩個模型MRR值明顯有降低。分析原因,是由于在絕句中,一般第三句都是起轉(zhuǎn)折的地方,因此神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)的效果會比其他位置的句子稍差。

        表格2 MRR評測結(jié)果

        3.2.3 集句效率分析

        為了提高集句詩的生成效率,我們對古詩庫的詩歌根據(jù)格律和韻進行劃分建表,以便快速查找。對于LCS的計算,我們引入了倒排索引來大規(guī)??焖儆嬎鉒CS。對于句向量的計算,我們預(yù)先計算每個句子對應(yīng)的句向量并保存到內(nèi)存中以提升計算速度,但由此也帶來存儲空間占用大的問題。以句向量是由1 024維的32位浮點數(shù)組成為例,存儲250萬句詩句對應(yīng)的句向量存儲空間將達到9.6GB。

        根據(jù)實驗統(tǒng)計,基于生成概率的集句模型平均集一首詩需要2 105.14秒,基于LCS的集句模型平均集一首詩需要62.83秒,基于LCS和生成概率相結(jié)合的模型平均集一首詩需要93.74秒,基于句向量的集句模型平均集一首詩需要4.91秒,基于句向量和生成概率結(jié)合的模型平均集一首詩需要5.99秒。

        3.2.4 人工評測

        我們收集了50首古人創(chuàng)作的集句詩。其中,五言絕句25首,七言絕句25首。對于每一首人創(chuàng)作的集句詩,我們以同樣的首句作為輸入,分別使用Jiju(LCS)、Jiju(LCS&Prob)、Jiju(Vec)、Jiju(Vec&Prob)四種集句模型進行集句生成,得出四首機器自動生成的集句詩。將古人創(chuàng)作的集句詩和自動生成的詩歌放在一起,組成50組,每組包含5首集句詩(組內(nèi)順序隨機打亂)的人工測試集。

        我們請了5位中國古典詩詞的專家對該人工測試集進行打分。根據(jù)集句的上下文語義的連貫性、主題和意境是否鮮明進行打分,每首詩最高分5分,最低分1分。每位專家獨立評分,相互之間不允許交流。同時,我們要求每位專家在打分時集中在詩歌質(zhì)量上,忽略“詩歌是機器還是人類創(chuàng)作”這一因素。

        由表3可見,使用聯(lián)合生成概率的集句模型平均比非聯(lián)合生成概率的集句模型得分明顯要高。而基于句向量的集句模型會比基于LCS的集句模型略好,但無顯著差距。

        表格3 人工評測結(jié)果,平均評價得分

        3.2.5 個例分析

        我們隨機選取了一些不同模型生成的集句詩(表格4)。對生成的七言集句詩, LCS生成的結(jié)果中,上下文有明顯的矛盾。第三句“春在江山無限好”寫春景, 第四句卻寫秋色,從而造成了季節(jié)上的矛盾。這是因為LCS僅僅考慮了句子局部子序列的匹配。如第四句,生成模型生成的原句是“夜深風(fēng)雨不勝愁”,此句與上文并無矛盾之處。LCS進行匹配時,匹配了“夜深風(fēng)雨”四個字,又因僅僅考慮本句的局部,忽略了上文,所以匹配句中帶來了“秋”這一矛盾。

        表格4 集句實例

        對比之下,通過句向量相似度生成的集句詩整體質(zhì)量上提升明顯。第二句“不識花前人醉否”,點明了季節(jié)為春季。同時,第三句中“東風(fēng)”緊扣“春”,“零落”也很好地承接了前一句的“花前”。第四句“擬于何處說來由”在語義上收束前三句,寫出了詩人心中愁苦,于春花前借酒澆愁,但是這份苦痛卻不知應(yīng)該從何道起。

        LCS&Prob模型對詩句整體的一致性和連貫性有所提升。第二句“芳草青青”點明春季,第四句“對花”也緊扣“春”。因生成概率本身對上下文關(guān)聯(lián)性起到了約束作用,故模型在基于LCS考慮局部語義相似時,也能在一定程度上避免上下文矛盾。此外,Vec&Prob模型生成的集句詩比起單純用句向量求近似的Vec模型,在整體意境上也有所提升。第一句描寫閑適的春日景色。在這樣的景致中,第二句里詩人卻感嘆,春風(fēng)是不能理解自己的愁緒的。第三句借落花凋零,流水匆匆形象地展現(xiàn)了自己內(nèi)心的愁苦,第四句借用王粲的典故,收束全篇,點出自己愁苦的原因——懷才不遇。這首詩完整描述了一個郁郁不得志的詩人形象,比起Vec模型的結(jié)果,Vec&Prob模型選擇的句子意境更豐富,整首詩句子間的過渡也更好。

        對生成的五言詩, Vec模型的結(jié)果中,前三句關(guān)聯(lián)性較好,但是第四句“唯尋相鶴經(jīng)”和上文內(nèi)容無關(guān)。Vec&Prob模型則在上下文一致性上有明顯提升?!盎ā薄ⅰ暗?、“柳”、“鳥啼”、“曉霞”, 整首詩描繪了一副微寒的春晨,靜謐野外的景致。使用LCS模型的結(jié)果中,前兩句寫景,后兩句抒情,但景和情之間缺少聯(lián)系,轉(zhuǎn)折過于突兀,從而破壞了連貫性。LCS&Prob的結(jié)果和Vec&Prob的結(jié)果類似,都是描繪了春季景色。區(qū)別在于,Vec&Prob的結(jié)果中,第四句“曉霞”點明了時間是清晨,很好地映照了第一句“花寒”的“寒”字,交代了花寒的原因。但是LCS&Prob的結(jié)果沒有體現(xiàn)出這一點,因此稍遜一籌。

        從上述分析可以較為直觀地看出,生成模型概率能緊密約束上下文關(guān)聯(lián)性,對局部字串匹配帶來的信息丟失也能起到一定的緩解作用。

        4 結(jié)論與未來工作

        本文探究了深度神經(jīng)網(wǎng)絡(luò)在集句任務(wù)中的應(yīng)用。基于神經(jīng)網(wǎng)絡(luò)自動學(xué)習(xí)詩句的語義表示,我們設(shè)計了一種結(jié)合生成結(jié)果語義和上下文生成概率的評分方法,提出了一種高效率、高質(zhì)量的自動集句生成模型。

        試驗結(jié)果表明,將生成模型計算候選詩句的生成概率作為集句候選的標準,可以有效地自動選擇出效果比較好的集句。計算句向量近似可以在保證質(zhì)量的前提下,提高集句的生成效率。

        我們將繼續(xù)探究詩句相似性的評價算法。當前神經(jīng)信息檢索方法通過核函數(shù)計算句對之間的相似度,我們在今后的工作希望能夠使用相關(guān)方法更好的計算詩句之間的相似度。

        猜你喜歡
        集句詩句語義
        六一來了
        可以“吃”的詩句,你見過嗎
        讀詩句,寫成語
        語言與語義
        施議對論詞集句例話(十章選三)
        中華詩詞(2019年12期)2019-09-21 08:53:32
        《張遷碑集句》
        中華詩詞(2018年5期)2018-11-22 06:46:08
        清風(fēng)明月本無價,近水遙山皆有情——天成集句類
        中國三峽(2017年3期)2017-06-09 08:14:59
        “上”與“下”語義的不對稱性及其認知闡釋
        認知范疇模糊與語義模糊
        論新加坡集句詩人林俊堅和他的集陸詩
        AV教师一区高清| 亚洲youwu永久无码精品| 中文字幕中文有码在线| 色狠狠一区二区三区香蕉| 精品在免费线中文字幕久久| 免费看黄在线永久观看| 国产精品主播在线一区二区| 天天爽夜夜爱| h国产视频| 区一区一日本高清视频在线观看 | 亚洲精品成人片在线观看| 爆乳午夜福利视频精品| 一区二区三区在线观看视频精品| 国产色视频一区二区三区qq号| 狠狠色噜噜狠狠狠狠色综合久| 久久久久亚洲AV无码专区喷| 国产三级精品三级在专区中文| 亚洲国产精品美女久久| 亚洲日韩精品无码专区网站| 亚洲国产精品久久久久秋霞1| 一区二区三区国产亚洲网站| 中文字幕在线乱码一区| 女人被男人躁得好爽免费视频| 国产婷婷丁香久久综合| 少妇勾引视频网站在线观看| 国内嫩模自拍诱惑免费视频| 97色伦综合在线欧美视频| 亚洲区在线播放| 在线免费午夜视频一区二区| 蜜桃视频免费进入观看| 麻豆国产原创视频在线播放| 人妻少妇不满足中文字幕| 日韩女同一区二区三区久久| 人人妻人人澡人人爽国产| 成人精品一区二区三区中文字幕 | 国产高清在线精品一区二区三区| 最近中文字幕mv在线资源| 国内视频偷拍一区,二区,三区| 国产少妇露脸精品自拍网站| 四虎影在永久在线观看| 日韩欧群交p片内射中文|