亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進過濾模型解決音變問題研究

        2024-01-14 09:54:24程兆亮沈雅婷唐俊杰王澤銘
        電腦與電信 2023年9期
        關(guān)鍵詞:音變損失卷積

        程兆亮 沈雅婷 唐俊杰 王澤銘

        (南京理工大學(xué)紫金學(xué)院,江蘇 南京 210023)

        1 引言

        在實際應(yīng)用中,需要從大量的文本數(shù)據(jù)中過濾出特定信息,如搜索引擎、廣告識別、情感分析[1]等。特定信息的正確理解和準確表達對于信息處理、搜索引擎、自動化翻譯等應(yīng)用具有重要意義。

        其中運用的中文文本特定信息過濾是一種文本處理技術(shù),用于從中文文本中提取出特定的信息。常用的自然語言處理技術(shù)[2]技術(shù)包括命名實體識別、關(guān)鍵詞提取[3]、文本分類、詞向量和卷積神經(jīng)網(wǎng)絡(luò)等。這些技術(shù)可以用于信息檢索、自然語言處理、計算機視覺等領(lǐng)域,具有廣泛的應(yīng)用前景。

        2 研究背景和意義

        在實際應(yīng)用中,中文是一種復(fù)雜的語言,存在相同發(fā)音的漢字,因此在處理中存在一個挑戰(zhàn):音變。引發(fā)特定信息的音變現(xiàn)象是因為中文作為一種復(fù)雜的語言,存在相同發(fā)音的漢字。此外,拼音拼寫錯誤也是導(dǎo)致特定信息音變的常見原因之一。這些音變現(xiàn)象給信息處理和語言理解任務(wù)帶來了巨大的挑戰(zhàn),尤其是在自然語言處理領(lǐng)域,輸錯一個拼音,文字便不同。因此在進行文本信息過濾時需要考慮到音變帶來的影響。

        GCNN 模型[4]是一種結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)[5](Convolutional Neural Networks,CNN)與門控機制(Gate Mechanism)的深度學(xué)習(xí)模型。門控卷積神經(jīng)網(wǎng)絡(luò)在處理語言數(shù)據(jù)時具有較強的表達能力和魯棒性,在實際應(yīng)用中能夠取得良好的效果。

        本文將研究一種基于門控卷積神經(jīng)網(wǎng)絡(luò)的音變的中文文本特定信息過濾模型[6],使用添加了平滑參數(shù)的SmoothL1Loss作為損失函數(shù),并將由交叉熵計算的樣本隸屬度融入其中,旨在提高中文文本處理的準確性和效率。

        3 相關(guān)概念和理論介紹

        3.1 門控卷積神經(jīng)網(wǎng)絡(luò)

        門控卷積神經(jīng)網(wǎng)絡(luò)(Gated Convolutional Neural Network,GCNN)是卷積神經(jīng)網(wǎng)絡(luò)(CNN)的一種變體,對序列數(shù)據(jù)和文本數(shù)據(jù)的處理進行了改進,以提升模型對序列信息的處理能力。其中卷積層中引入了門控機制,可對信息的流動和過濾進行控制。

        圖1表明了模型的體系結(jié)構(gòu),單詞由存儲在查找表中的向量表示D|V|×m,其中m和|V|分別是詞嵌入大小和詞匯表中的單詞數(shù),模型輸入的單詞序列W0,...,Wn可以用嵌入向量表示為E=Dw。

        圖1 用于語言建模的門控卷積網(wǎng)絡(luò)的架構(gòu)

        可以由hi(X)=(X*W+b)?σ(X*V+c) 計算隱層,其中X∈RN×m是hi層的輸入(單詞嵌入或前一層的輸出),W∈R(k×m×n),b∈Rn,V∈R(k×m×n),c∈Rn是學(xué)習(xí)參數(shù),σ是sigmoid 函數(shù),?是矩陣之間的逐元素乘積。在輸入時確保hi沒有來自未來單詞的信息。移動卷積輸入解決卷積核從未來單詞中提取信息的問題。

        每個層的輸出都是一個線性投影(X*V+c),由門控σ(X*V+c)調(diào)節(jié)。

        門控卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)包括卷積層和池化層,卷積層由CGU和GCU 兩個子層組成,可以自適應(yīng)地學(xué)習(xí)特征和控制信息的流動和過濾[7]。

        基于門控卷積神經(jīng)網(wǎng)絡(luò)的音變的中文文本特定信息過濾模型的特征表示方式具有較高的靈活性、可解釋性和計算效率,能夠有效地提取中文文本中的特定信息,實現(xiàn)對文本的過濾和分類。

        3.2 文本分類

        常用的文本分類方法包括樸素貝葉斯分類[8]、支持向量機分類[9]、決策樹分類和深度學(xué)習(xí)模型等[10]。

        從圖2中看到,文本分類主要有文本輸入、分詞(未登錄詞識別)、特征提取和選擇、文本表示、文本分類五個步驟。

        圖2 文本分類的五個步驟

        3.3 SmoothL1Loss損失函數(shù)的相關(guān)概念與介紹

        本文所使用的損失函數(shù)Smooth L1 Loss(平滑L1 損失)是由Ross Girshick[11]在2015 年的論文《Fast R-CNN》中提出。SmoothL1Loss(平滑L1損失)在深度學(xué)習(xí)領(lǐng)域得到了廣泛的研究和應(yīng)用。

        SmoothL1Loss 損失無法根據(jù)具體任務(wù)進行調(diào)整,在一些場景下無法適應(yīng)數(shù)據(jù)的特點。因此,添加一個平滑參數(shù)β提高模型性能和精度,在處理異常值時更穩(wěn)定,也具有連續(xù)性,更好地適應(yīng)不同任務(wù);并引入加權(quán)損失函數(shù)使模型更加關(guān)注重要的樣本。添加了平滑參數(shù)后的SmoothL1Loss的公式如下:

        公式1中,yi是真實值,f(xi)是模型輸出(預(yù)測值),β為平滑參數(shù)。SmoothL1Loss 根據(jù)預(yù)測值與真實值之間的差異來決定,當(dāng)差異較大(大于等于1)時采用線性函數(shù)進行懲罰,將誤差的絕對值減去一個0.5β,對較大的誤差進行更嚴格的懲罰。MAE的原公式如下:

        公式2 中,yi是真實值,f(xi) 是模型輸出(預(yù)測值),MAE是把二者之差的絕對值作為誤差。

        當(dāng)差異較?。ㄐ∮?)時,采用平方函數(shù)也就是L2Loss(MSE)進行懲罰。對較小的誤差進行較小的懲罰,讓損失更加平滑,增強模型的穩(wěn)定性。MSE的原公式如下:

        公式3 中,yi是真實值,f(xi) 是模型輸出(預(yù)測值),SmoothL1Loss在對異常值的處理上更加魯棒性。它對于較大的誤差具有較強的懲罰能力,能夠減小異常值對損失函數(shù)的影響。平滑特性可以使得梯度下降算法更加穩(wěn)定,更容易收斂。

        從圖3可以看到,當(dāng)預(yù)測值和ground truth差別較小的時候,其實使用的是L2 Loss(MSE);而當(dāng)差別大的時候,是L1 Loss(MAE)的平移。因此可以看出,SmoothL1Loss是一種比較優(yōu)秀的回歸損失函數(shù),尤其適用于存在異常點和離散值的回歸問題。

        圖3 L1Loss、L2Loss與SmoothL1Loss的函數(shù)圖像對比

        總的來說,SmoothL1Loss在各種深度學(xué)習(xí)任務(wù)中展現(xiàn)出了良好的性能和適應(yīng)性。其平滑性質(zhì)使得它對于異常值更加魯棒。

        4 算法的設(shè)計與創(chuàng)新

        4.1 樣本隸屬度

        本文在SmoothL1Loss 中融入了樣本隸屬度[12]命名為DOM-SmoothL1Loss,交叉熵函數(shù)[13]將一組原始分數(shù)(或稱為logits)轉(zhuǎn)換為概率分布,使得所有類別的概率之和等于1。交叉熵(Cross Entropy)常用于評估分類問題中模型預(yù)測結(jié)果與真實標簽之間的差異,因此也可以用來計算樣本隸屬于不同類別的概率。

        樣本隸屬度的計算公式如下:

        假設(shè)有N個樣本,每個樣本屬于K個類別中的某一個,其中第i個樣本屬于第j個類別的概率為pij,對應(yīng)的真實標簽為yi,yij表示第i個樣本是否屬于第j個類別,當(dāng)該樣本屬于第j個類別時,yij=1,否則yij=0。log 表示自然對數(shù)函數(shù)。

        概率分布pij可以通過模型的輸出得到。方法是使用softmax 函數(shù)將模型的原始輸出轉(zhuǎn)換為概率分布。使用softmax函數(shù)計算概率pij的公式如下:

        公式5 中zi、zj表示模型對第i個樣本屬于第j個類別的原始輸出。

        交叉熵損失函數(shù)[14]的意義在于,如果模型的預(yù)測結(jié)果與真實標簽相符,那么損失函數(shù)的值將趨近于0。交叉熵損失函數(shù)使得模型的預(yù)測結(jié)果更加接近真實標簽,進而提高模型的分類準確率。

        對于一個給定的樣本,交叉熵損失函數(shù)的值可以看作樣本在不同類別上的隸屬度概率分布與真實標簽之間的距離。當(dāng)樣本在真實標簽對應(yīng)的類別上的隸屬度概率最大時,交叉熵損失函數(shù)的值最小,這也意味著模型對該樣本的分類結(jié)果最為自信。

        融入了樣本隸屬度后的函數(shù)公式如下

        公式6為融入了由交叉熵函數(shù)計算的隸屬度之后損失函數(shù),它有以下幾個優(yōu)點:

        (1)能夠更直觀地理解模型對不同類別的判斷。

        (2)可以直接在訓(xùn)練過程中優(yōu)化模型的性能。

        (3)它對于模型輸出的概率分布與真實標簽之間的差異進行度量,能夠更好地捕捉到問題中不同樣本之間的相對關(guān)系。

        (4)使得模型輸出的概率更具有可靠性和可解釋性。

        4.2 輸入與輸出的向量化

        本文將輸入和輸出視為向量,并采用向量處理的方式來解決中文文本特定信息音變的過濾問題。

        通過將輸入和輸出視為向量,可以利用向量化的表示來捕捉文本的結(jié)構(gòu)和語義信息,并將其應(yīng)用于信息音變過濾任務(wù)。使用向量化的表示還可以提供更多的靈活性和擴展性,將輸入和輸出都視為向量,并基于此進行信息音變過濾的研究,具有一定的創(chuàng)新性。

        總的來說,創(chuàng)新主要在于將中文文本信息音變過濾問題轉(zhuǎn)化為向量處理,并利用向量化的表示方式來處理文本的連續(xù)性、上下文信息和語義關(guān)聯(lián)。

        5 實驗

        5.1 數(shù)據(jù)集

        本文采用中文對話數(shù)據(jù)集zhddline,是由搜狗翻譯API翻譯自DailyDialog數(shù)據(jù)集。

        圖4是數(shù)據(jù)集中的部分中文對話內(nèi)容。選擇這個數(shù)據(jù)集是因為它提供足夠的樣本量可以幫助訓(xùn)練出一個準確度高和魯棒性強的模型。

        圖4 部分數(shù)據(jù)集內(nèi)容

        5.2 數(shù)據(jù)預(yù)處理

        將原始數(shù)據(jù)集按照7:1.5:1.5的比例劃分訓(xùn)練集、驗證集和測試集。

        數(shù)據(jù)清洗:使用jieba[15]分詞工具得到文本的詞匯表和詞向量表示。

        數(shù)據(jù)轉(zhuǎn)換:在進行數(shù)據(jù)預(yù)處理時,還需要對文本進行轉(zhuǎn)換,以便能夠被模型所處理。具體地,需要將文本轉(zhuǎn)換成詞向量的形式,以便能夠輸入到模型中進行訓(xùn)練和預(yù)測。

        同時,需要的是音變的中文文本,所以需要改變一些文本的拼音,判斷給定的字符是否是中文字符。然后從數(shù)據(jù)集中讀取詞語,將其中的每個漢字轉(zhuǎn)換成拼音,并將這些拼音作為字典的鍵,值為一個列表,包含拼音對應(yīng)的所有詞語。

        數(shù)據(jù)預(yù)處理可以對原始數(shù)據(jù)進行清洗和轉(zhuǎn)換,使得數(shù)據(jù)更加適合進行模型訓(xùn)練和應(yīng)用,提高模型的準確度和魯棒性。

        5.3 實驗設(shè)置

        數(shù)據(jù)集:使用了中文對話數(shù)據(jù)集,其中包含了大量的中文文本數(shù)據(jù),包括日常生活、商場購物、朋友聊天等內(nèi)容。

        模型參數(shù):使用了2個門控卷積層作為特征提取器,分別為self.conv_gate和self.conv_info,使用了2個卷積核,每個卷積核[16]的數(shù)量為output_dim,由輸入?yún)?shù)指定,這里為y_tensor.shape。兩個卷積核的大小均為3,步長因為沒有指定stride,所以為1,門卷積層使用Sigmoid 作為激活函數(shù),信息卷積層使用Tanh作為激活函數(shù)。

        訓(xùn)練參數(shù):Adam(Adaptive Moment Estimation)優(yōu)化器[17],學(xué)習(xí)率為0.001,批次大小為32,訓(xùn)練輪次為10。

        5.4 模型整體結(jié)構(gòu)介紹

        門控卷積神經(jīng)網(wǎng)絡(luò)可以有效克服循環(huán)神經(jīng)網(wǎng)絡(luò)的單向計算的缺點。使用了門控卷積神經(jīng)網(wǎng)絡(luò)來進行損失函數(shù)優(yōu)化前后的性能對比。

        基于門控卷積神經(jīng)網(wǎng)絡(luò)的音變的中文文本特定信息過濾模型是一種深度學(xué)習(xí)模型,主要用于處理中文文本數(shù)據(jù)。

        單層門控卷積神經(jīng)網(wǎng)絡(luò)的計算過程如圖5所示。整個模型能夠有效地提取中文文本的特定信息,還具有較好的可解釋性和可視化性,更好地比較模型優(yōu)化前后的性能和特點。

        圖5 模型的整體結(jié)構(gòu)

        6 實驗結(jié)果的對比與分析

        6.1 融入隸屬度前后損失值的對比

        將融入隸屬度前后的模型的loss 值分別測試,進行對比,對比結(jié)果如圖6。

        圖6 未添加隸屬度的loss值

        從圖6 可以看出,沒有隸屬度時,loss 變化率很小,并且在訓(xùn)練集和測試集的第8輪就完成收斂,之后測試集上的波動說明模型開始過擬合。較快收斂說明模型并沒有很好地學(xué)習(xí)特征,陷入局部解。

        圖7可以看出,添加隸屬度后,收斂時間延遲,且測試集上的波動減少,表明模型的泛化性能得到改善,并且對過擬合有更好的控制,提高了模型的穩(wěn)定性和魯棒性,并減少了過擬合[18]現(xiàn)象。

        圖7 添加隸屬度的loss值

        總之,添加隸屬度對模型的訓(xùn)練和泛化能力產(chǎn)生了積極影響,提高了模型的穩(wěn)定性和魯棒性,并減少了過擬合現(xiàn)象。這表明隸屬度的引入對模型的學(xué)習(xí)和性能具有正面效果。

        6.2 調(diào)整學(xué)習(xí)率前后損失值的對比

        將學(xué)習(xí)率分別設(shè)為0.01 和0.001 的模型進行對比,實驗結(jié)果如圖8所示。

        圖8 優(yōu)化學(xué)習(xí)率前后的MAE誤差結(jié)果

        圖8 中顯示的是學(xué)習(xí)率[19]優(yōu)化前后MAE 指標的實驗結(jié)果,從中可以看出平方絕對誤差(MAE)較改進前的結(jié)果有著明顯提升。

        圖9中顯示的是學(xué)習(xí)率優(yōu)化前后MSE指標的實驗結(jié)果,從中看出均方誤(MSE)相交改進之前的結(jié)果有了顯著提升。

        圖9 優(yōu)化學(xué)習(xí)率前后的MSE誤差結(jié)果

        從圖8與圖9的對比可以看出學(xué)習(xí)率參數(shù)優(yōu)化后的模型能夠更好地適應(yīng)中文文本數(shù)據(jù),實現(xiàn)對文本的自動分類和過濾,具有較好的性能和應(yīng)用效果。

        6.3 不同模型的結(jié)果對比

        將融入了隸屬度[20]的GCNN_DOM模型與未添加平滑參數(shù)的模型,以及樸素貝葉斯三個算法進行比較,得到的平方絕對誤差和均方誤差結(jié)果如表1所示。

        表1 三個算法的平均絕對誤差比較結(jié)果

        從表1 可以看出,融入了隸屬度L 的GCNN_DOM 的MAE 指標相較于未添加時的模型提升了3.8%左右,比起樸素貝葉斯更是有了顯著的提升。

        表1、表2 中結(jié)果對比突顯出改進后的GCNN_DOM 模型的優(yōu)越,反映出DOM_SmoothL1Loss損失函數(shù)的改進結(jié)果值得肯定。

        表2 三個算法的均方誤差比較結(jié)果

        6.4 模型過濾效果

        如圖10過濾前的文本中存在著音變問題,例如“出去想收”“鍋的真快”,這些都存在音變問題。

        圖10 過濾前的文本

        從圖10 和圖11 的對比可以看出,本模型對于產(chǎn)生音變的特定信息的過濾非常有效,可以有效避免輸入錯誤造成的有害結(jié)果,具有一定的實際應(yīng)用價值。

        圖11 過濾后的文本

        7 結(jié)語

        本文對提取特定信息音變的過濾問題,介紹了一種具有并行計算、多層特征提取和門控機制等優(yōu)點的門控卷積神經(jīng)網(wǎng)絡(luò)算法,并對其中的SmoothL1Loss(平滑L1 損失)作為損失函數(shù)進行改進,提出了DOM_SmoothL1Loss,它是一種融入了樣本隸屬度的損失函數(shù)。實驗證明該模型在特定信息音變過濾任務(wù)中取得了顯著的性能提升。未來的工作可以進一步探索和優(yōu)化該模型,以適應(yīng)更廣泛的音變過濾需求。

        猜你喜歡
        音變損失卷積
        少問一句,損失千金
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        胖胖損失了多少元
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于傅里葉域卷積表示的目標跟蹤算法
        “分”的音變構(gòu)詞及其句法語義特征
        一般自由碰撞的最大動能損失
        漢語單數(shù)人稱代詞音變式的功能演變及性質(zhì)
        語言研究(2015年4期)2015-05-28 12:21:30
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        精品久久久少妇一区二区| 亚洲天天综合色制服丝袜在线 | 国产成人自拍高清在线| 欧美乱妇高清无乱码在线观看| 精品日韩国产欧美在线观看| 俄罗斯老熟妇色xxxx| 国产精品日韩欧美一区二区区| 四虎成人精品在永久免费| 欧美饥渴熟妇高潮喷水水| 人妻无码一区二区在线影院| 国产高清天干天天视频| 国产av天堂一区二区二区| 日本免费一区二区三区影院| 波多野结衣在线播放| 成人黄色网址| 国产高清无码在线| 精品国产乱来一区二区三区| 一区二区三区在线乱码 | 午夜免费电影| 国产熟女高潮视频| 成人免费无码视频在线网站| 亚洲第一女人天堂av| 国产自拍av在线观看视频| 中文字幕一区二区三区日韩精品| 免费一本色道久久一区| 亚洲一区二区av免费观看| 精品卡一卡二卡3卡高清乱码| 国产人在线成免费视频| 两个人免费视频大全毛片| 中文字幕专区一区二区| 日韩大片高清播放器大全| 欧美人与动人物牲交免费观看| 国产精品va在线观看一| 国产精品综合一区久久| 精品人妻伦九区久久aaa片| 国产精品亚洲专区无码web| 一二三四在线观看韩国视频| 亚洲情综合五月天| 欧美做受视频播放| 偷拍一区二区三区在线观看| 日韩午夜免费视频精品一区|