亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于槽位相關(guān)信息提取的對(duì)話狀態(tài)追蹤模型

        2023-05-24 03:18:36石利鋒倪鄭威
        計(jì)算機(jī)應(yīng)用 2023年5期
        關(guān)鍵詞:詞表準(zhǔn)確率領(lǐng)域

        石利鋒,倪鄭威

        (浙江工商大學(xué) 信息與電子工程學(xué)院,杭州 310018)

        0 引言

        自然語(yǔ)言交互越來(lái)越多地融入人們的日常生活,傳統(tǒng)的圖形化界面已經(jīng)無(wú)法滿足人們多元的需要?,F(xiàn)今基于自然語(yǔ)言處理(Natural Language Processing,NLP)技術(shù)的人機(jī)對(duì)話系統(tǒng)受到人們的青睞。任務(wù)型對(duì)話系統(tǒng)是人機(jī)對(duì)話系統(tǒng)的一個(gè)重要分支,它主要為用戶完成特定領(lǐng)域中的任務(wù),如餐廳預(yù)訂、景點(diǎn)推薦、車(chē)票查詢等。任務(wù)型對(duì)話系統(tǒng)需要從用戶的輸入中提取出用戶意圖等關(guān)鍵信息,并將其表示成三元組〈domain,slot,value〉——這種任務(wù)被稱為對(duì)話狀態(tài)追蹤(Dialogue State Tracking,DST)。DST 作為任務(wù)型對(duì)話系統(tǒng)的核心組件,決定了系統(tǒng)的后續(xù)響應(yīng),在對(duì)話系統(tǒng)中至關(guān)重要,一直是科研領(lǐng)域的研究熱點(diǎn)。最初的DST 利用人工編寫(xiě)的更新規(guī)則更新?tīng)顟B(tài)[1],需要大量的人工和專家知識(shí),而且無(wú)法定制復(fù)雜狀態(tài)的更新機(jī)制,缺乏靈活性。隨著近幾年深度學(xué)習(xí)的相關(guān)方法被用于DST,現(xiàn)在的模型無(wú)需復(fù)雜的規(guī)則也能取得良好的表現(xiàn)。

        DST 有基于固定詞表(Fixed-vocabulary-based)和基于開(kāi)放詞表(Open-vocabulary-based)兩種做法,二者的差別在于是否預(yù)定義所有可能出現(xiàn)的本體。在DST 問(wèn)題中,本體指一組槽位(域槽對(duì))-槽值組合,稱為槽值對(duì)。例如在圖1表格中輪次為0 的第一行,槽位為restaurant-pricerange,槽值為expensive,則〈restaurant,pricerange,expensive〉就是一組槽值對(duì)。傳統(tǒng)的基于固定詞表的做法存在兩個(gè)問(wèn)題:一是實(shí)際中無(wú)法獲得一個(gè)完整的本體,那些在預(yù)定義本體之外的值將無(wú)法被捕獲到;二是即便存在這樣的本體,那么這個(gè)本體勢(shì)必會(huì)相當(dāng)龐大。以訂餐為例,我們需要餐廳的名稱以及訂餐的時(shí)間,這兩個(gè)槽值存在大量可能的候選值。因此基于固定詞表的做法并不適合現(xiàn)實(shí)場(chǎng)景,而基于開(kāi)放詞表的做法因無(wú)須依賴本體,減少了大量的人力成本,受到了學(xué)者廣泛的關(guān)注[2]。

        圖1 MultiWOZ 2.3中的對(duì)話樣例Fig.1 Example dialogues in MultiWOZ 2.3

        近些年來(lái),諸如文獻(xiàn)[3-4],基于開(kāi)放詞表的多領(lǐng)域?qū)υ挔顟B(tài)追蹤一般直接從輸入的對(duì)話中抽取單詞作為預(yù)測(cè)槽值的輸出。這類抽取式方法存在一個(gè)致命的缺點(diǎn),即無(wú)法提取隱式的槽值,而自然語(yǔ)言往往存在共指指代以及隱式選擇等現(xiàn)象。例如,在圖1 的第二輪人機(jī)對(duì)話中,用戶的最后一句話為“A 3 star hotel in the same area and price range as my restaurant”。本句表明酒店的區(qū)域與價(jià)格與餐廳的一致,應(yīng)該預(yù)測(cè)的值是〈hotel,pricerange,expensive〉和〈hotel,area,south〉。但句中沒(méi)有expensive 和south,因此無(wú)法被抽取。為了解決抽取式方案中無(wú)法處理的共指問(wèn)題,Heck 等[5]提出了三重復(fù)制(Triple copy,TripPy)機(jī)制。TripPy 指槽值被三種復(fù)制方式填充,分別是顯式的跨度預(yù)測(cè)、系統(tǒng)通知的存儲(chǔ)以及前面存在的對(duì)話狀態(tài)槽值。TripPy 雖然改善了部分共指問(wèn)題,但仍然存在諸多不足:首先,該機(jī)制的模型結(jié)構(gòu)沒(méi)有考慮不同槽位之間存在的聯(lián)系,而這部分信息可被用于判斷共指以及槽位復(fù)制方式;此外,模型在訓(xùn)練過(guò)程中沒(méi)有充分分析和利用數(shù)據(jù)集結(jié)構(gòu)信息。例如課程學(xué)習(xí)(Curriculum Learning,CL)[6]中通過(guò)規(guī)劃樣本訓(xùn)練的先后順序,由易到難,能夠加快模型收斂。

        針對(duì)基于開(kāi)放詞表的現(xiàn)有模型對(duì)各個(gè)槽位之間的相關(guān)信息利用不充分的問(wèn)題,本文在TripPy 的基礎(chǔ)上設(shè)計(jì)了槽位相關(guān)信息提取器(Slot Correlation Extractor,SCE)學(xué)習(xí)槽位之間的相關(guān)信息;針對(duì)訓(xùn)練過(guò)程中對(duì)于數(shù)據(jù)集本身信息利用不足的問(wèn)題,應(yīng)用學(xué)習(xí)最優(yōu)樣本權(quán)重(Learning Optimal sample Weights,LOW)優(yōu)化訓(xùn)練過(guò)程。結(jié)合上述兩部分,在經(jīng)過(guò)多次優(yōu)化之后,提出了新的對(duì)話狀態(tài)跟蹤模型SCEL-DST(SCE and LOW for Dialogue State Tracking)。

        1 相關(guān)工作

        1.1 對(duì)話狀態(tài)追蹤

        多輪對(duì)話對(duì)話狀態(tài)追蹤可以分為基于固定詞表和基于開(kāi)放詞表兩種。如文獻(xiàn)[7-8]中提出的方法一樣,基于固定詞表的方法大多使用一個(gè)分類模塊在給定預(yù)定義詞表里預(yù)測(cè)對(duì)話狀態(tài)。為了解決固定詞表中本體不完整的問(wèn)題,Wang 等[9]提出了槽位注意力和值歸一化來(lái)巧妙地利用本體信息。

        基于開(kāi)放詞表的方法使用一個(gè)生成式的編碼器生成文字或者抽取文本。Xu 等[10]提出的模型中引入了基于索引的復(fù)制方法對(duì)之前提出的指針網(wǎng)絡(luò)[11]進(jìn)行完善,但這種抽取式方法無(wú)法提取隱性的值,因此Heck 等[5]提出了三重復(fù)制機(jī)制,進(jìn)一步克服了抽取式方法的缺陷。生成方法大多都存在狀態(tài) 生成器,Wu 等[12]提出了TRADE(TRAnsferable Dialogue statE generator)模型,它的編碼器和狀態(tài)生成器使用的都是門(mén)控循環(huán)單元(Gated Recurrent Unit,GRU);而且該模型提出了槽位門(mén)(Slot Gate)模塊,使模型只需在槽位的子集中預(yù)測(cè)槽值,大幅提高了效率,這一模塊也被后來(lái)出現(xiàn)的對(duì)話狀態(tài)追蹤模型所效仿。此外,Zhang 等[13]還提出了一種融合了跨度預(yù)測(cè)和基于候選表的方法。

        在多領(lǐng)域的背景下,一些槽位之間可能存在關(guān)聯(lián),例如兩個(gè)槽位的槽值共享,景點(diǎn)的位置可能和餐廳的位置相同。為了獲取槽位之間的信息聯(lián)系,有關(guān)域槽之間建模的研究也在一直進(jìn)行。Le 等[14]提出了一種非自回歸的對(duì)話狀態(tài)追蹤框架,該框架考慮了槽位之間的潛在依賴性,從而更好地預(yù)測(cè)完整的對(duì)話狀態(tài)。Chen 等[15]提出了圖注意力網(wǎng)絡(luò),構(gòu)建了域槽的模式圖。An 等[16]引入了特殊符號(hào)[DS]對(duì)槽位進(jìn)行建模,它類似于特殊符號(hào)[CLS]在BERT(Bidirectional Encoder Representations from Transformers)[17]中的作 用。Ye等[18]通過(guò)構(gòu)建槽位符號(hào)注意力網(wǎng)絡(luò)和槽位自注意力網(wǎng)絡(luò)來(lái)對(duì)不同槽位取值之間的相關(guān)信息進(jìn)行建模,這與文獻(xiàn)[8]中的網(wǎng)絡(luò)有著異曲同工之妙;但它們都是基于固定詞表的做法,整個(gè)模型的擴(kuò)展性較差。

        1.2 課程學(xué)習(xí)

        在一些自然語(yǔ)言處理任務(wù)中,數(shù)據(jù)集的標(biāo)注通常都非常昂貴,而對(duì)話狀態(tài)追蹤擁有龐大的數(shù)據(jù)量,因此如何通過(guò)學(xué)習(xí)策略充分利用有限數(shù)據(jù)訓(xùn)練出一個(gè)魯棒的模型非常關(guān)鍵。課程學(xué)習(xí)的出現(xiàn)在一定程度上解決了這一問(wèn)題,它是一種訓(xùn)練策略,模仿人類的學(xué)習(xí)過(guò)程,主張讓模型先從容易的樣本開(kāi)始學(xué)習(xí),并逐漸進(jìn)階到復(fù)雜的樣本和知識(shí)。課程學(xué)習(xí)是近幾年逐漸熱門(mén)的一個(gè)前沿方向,在自然語(yǔ)言處理與計(jì)算機(jī)視覺(jué)任務(wù)上都展示出了卓越的性能。課程學(xué)習(xí)又可以分為預(yù)定義的課程學(xué)習(xí)和自動(dòng)的課程學(xué)習(xí),其中自動(dòng)的課程學(xué)習(xí)主要包含自定進(jìn)度學(xué)習(xí)、教師模型的知識(shí)遷移和教師模型的強(qiáng)化學(xué)習(xí)指導(dǎo)。

        但這些方法應(yīng)用到對(duì)話狀態(tài)追蹤之上需要耗費(fèi)的資源都很昂貴,尤其是強(qiáng)化學(xué)習(xí)教師模型,它幾乎難以實(shí)現(xiàn)。Dai等[19]提出了一種混合的預(yù)定義的課程學(xué)習(xí),結(jié)合了模型和人的先驗(yàn)知識(shí)對(duì)數(shù)據(jù)集進(jìn)行難度劃分,并應(yīng)用在對(duì)話狀態(tài)追蹤上,在同等情況下與未使用混合的預(yù)定義的課程學(xué)習(xí)相比取得了更高的聯(lián)合目標(biāo)準(zhǔn)確率。雖然它簡(jiǎn)化了任務(wù),節(jié)省了大量的計(jì)算資源,但還是難以實(shí)際操作。

        課程學(xué)習(xí)認(rèn)為訓(xùn)練樣本在訓(xùn)練過(guò)程中并不是都起到一樣的作用,受到這一啟發(fā),Santiago 等[20]提出了一種學(xué)習(xí)最優(yōu)樣本權(quán)重算法,通過(guò)訓(xùn)練中損失函數(shù)下降最快的方向來(lái)計(jì)算當(dāng)前樣本中每個(gè)樣本對(duì)損失下降的影響,并給樣本賦予相應(yīng)的權(quán)重。這種方法只需要在訓(xùn)練過(guò)程中計(jì)算出樣本的權(quán)重,大幅減少了計(jì)算資源消耗。學(xué)習(xí)最優(yōu)樣本權(quán)重已經(jīng)在計(jì)算機(jī)視覺(jué)和醫(yī)學(xué)數(shù)據(jù)中取得了很好的效果。

        2 本文模型

        本文模型結(jié)構(gòu)如圖2 所示,包括4 個(gè)部分:1)上下文編碼器(右下側(cè)),它將輸入的對(duì)話編碼,輸出為語(yǔ)義向量表示;2)SCE(左上側(cè)),用于提取槽位之間的相關(guān)信息;3)槽位判決門(mén),它實(shí)際上是一個(gè)線性分類器,用于判斷當(dāng)前輸入對(duì)話和槽位之間的聯(lián)系,判斷哪些槽需要進(jìn)行接下來(lái)的分類任務(wù)以及采用哪一種復(fù)制機(jī)制;4)預(yù)測(cè)模塊,它采用三重復(fù)制機(jī)制來(lái)填充槽值。

        圖2 本文模型結(jié)構(gòu)Fig.2 Structure of proposed model

        本文假定對(duì)話總輪次為T(mén),在第t(1 ≤t≤T)輪對(duì)話中,用戶輸入為Ut,系統(tǒng)輸入為St,任務(wù)要求是根據(jù)歷史對(duì)話和本輪對(duì)話{(U1,S1),(U2,S2),…,(Ut,St)}預(yù)測(cè)相應(yīng)的對(duì)話狀態(tài)〈domain,slot,value 〉。

        2.1 上下文編碼器

        本文采用預(yù)訓(xùn)練模型BERT 對(duì)對(duì)話進(jìn)行編碼,輪次為t的上下文對(duì)話被編碼成:

        BERT 的輸入可以被看作是三部分,其中:Ut和St分別是第t輪對(duì)話時(shí)的用戶會(huì)話以及系統(tǒng)會(huì)話;Bt=(Ut-1,St-1),(Ut-2,St-2),…,(U1,S1)是截止到當(dāng)前輪次t的對(duì)話歷史;特殊符號(hào)[CLS]位于輸入序列的開(kāi)始,[SEP]則代表將輸入序列進(jìn)行分隔。

        由于BERT 的輸入長(zhǎng)度有限制,而多輪對(duì)話歷史Bt的長(zhǎng)度會(huì)隨著對(duì)話輪數(shù)增加,因此本文模型對(duì)超出長(zhǎng)度的序列作啟發(fā)式的截短處理。假定Ut、St和Bt經(jīng)過(guò)分詞器后的序列分別 為token_u、token_s和token_b,BERT 的輸入最大長(zhǎng)度為max_seq_length。由式(1)可得加入的特殊符號(hào)數(shù)量為4。因此BERT 輸入序列的長(zhǎng)度為token_u、token_s和token_b三者長(zhǎng)度之和再加上4。

        啟發(fā)式截短的算法簡(jiǎn)單直觀,當(dāng)總長(zhǎng)度大于最大輸入長(zhǎng)度時(shí)開(kāi)始循環(huán)截短,一次刪去一個(gè)符號(hào)。若存在歷史對(duì)話,那么首先從信息相對(duì)不重要的歷史對(duì)話末端開(kāi)始刪去符號(hào)。當(dāng)歷史對(duì)話長(zhǎng)度為0 且仍未滿足總長(zhǎng)度小于最大輸入長(zhǎng)度要求時(shí),對(duì)用戶會(huì)話以及系統(tǒng)會(huì)話,每次選擇刪去較長(zhǎng)的序列末尾的一個(gè)符號(hào)。這是因?yàn)橄噍^于較長(zhǎng)的序列,較短序列中的每一個(gè)符號(hào)可能含有更多信息。循環(huán)上述過(guò)程直至總長(zhǎng)度小于等于最大長(zhǎng)度。截短偽代碼如下:

        算法1 啟發(fā)式截短。

        2.2 槽位相關(guān)信息提取

        現(xiàn)在的模型還不能有效解決對(duì)話中出現(xiàn)的共指問(wèn)題,其中一個(gè)原因是沒(méi)有很好地考慮槽位之間的相關(guān)信息。而目前都是基于固定詞表對(duì)槽位相關(guān)信息提出建模方式,還沒(méi)有對(duì)開(kāi)放詞表提出解決的方案。受文獻(xiàn)[7]研究的啟發(fā),可以將槽位輸入由BERT 進(jìn)行編碼再通過(guò)注意力網(wǎng)絡(luò)從而獲得當(dāng)前槽位對(duì)于上下文的相關(guān)信息,所以將所有槽位由BERT編碼就可以獲得所有槽位對(duì)于上下文的消息。

        本文使用另一個(gè)BERT 對(duì)槽進(jìn)行編碼:

        之后利用自注意力網(wǎng)絡(luò)學(xué)習(xí)不同槽位取值之間的相關(guān)信息:

        對(duì)這部分輸出進(jìn)行層歸一化,可得到不同槽位取值之間的相關(guān)信息的向量表征:

        2.3 槽位判決門(mén)

        在一輪多領(lǐng)域?qū)υ挔顟B(tài)追蹤任務(wù)中存在多個(gè)槽值對(duì)需要被追蹤,因此模型需要精確預(yù)測(cè)當(dāng)前輪次槽位以及槽值。不同于文獻(xiàn)[5]中為每一個(gè)槽值對(duì)構(gòu)建一個(gè)線性分類器,本文模型使用一個(gè)線性分類器進(jìn)行預(yù)測(cè)。這么做的原因是:

        1)為每一個(gè)槽值對(duì)構(gòu)建線性分類器增加了網(wǎng)絡(luò)的復(fù)雜度,而且每個(gè)網(wǎng)絡(luò)是為特定槽位訓(xùn)練的,泛化能力差;

        2)上文中提出的槽位相關(guān)信息提取器中存在每一個(gè)槽位的信息。

        2.4 預(yù)測(cè)

        由于采用三重復(fù)制機(jī)制,因此預(yù)測(cè)模塊分為:基于跨度的值預(yù)測(cè)(Span-based Value Prediction)、系統(tǒng)告知的值預(yù)測(cè)(System Informed Memory for Value Prediction)以及共指消融的槽位信息存儲(chǔ)(DS Memory for Coreference Resolution)。

        2.4.1 基于跨度的值預(yù)測(cè)

        本文為每一個(gè)槽單獨(dú)設(shè)計(jì)一個(gè)線性分類器,使用上下文經(jīng)過(guò)BERT 編碼之后的語(yǔ)義向量作為當(dāng)前輪次的輸入,最后連接兩個(gè)Softmax 層用來(lái)預(yù)測(cè)起始和結(jié)束位置。對(duì)于每一個(gè)有:

        采用交叉熵作為損失函數(shù),可以得到:

        其中:DS代表所有域槽對(duì)的集合;和分別是第t輪經(jīng)過(guò)獨(dú)熱編碼后的始末標(biāo)簽。

        2.4.2 系統(tǒng)告知的值預(yù)測(cè)

        定義一個(gè)系統(tǒng)緩存It=存儲(chǔ)當(dāng)前輪次t內(nèi)系統(tǒng)告知的所有槽值。當(dāng)用戶使用肯定的隱式表達(dá)時(shí),使用這種復(fù)制方法(例如圖1 中的restaurant-name,復(fù)制方式是informed,槽值填充為cambridge chop house)。

        2.4.3 共指消融的槽位信息存儲(chǔ)

        第三種復(fù)制方式利用DS 作為存儲(chǔ)來(lái)消解共指——即將對(duì)話出現(xiàn)過(guò)的槽位儲(chǔ)存下來(lái),利用一個(gè)線性分類器預(yù)測(cè)當(dāng)前槽位指向哪一個(gè)先前已被填充的槽位,如果沒(méi)有找到就填充為none。

        采用交叉熵作為損失函數(shù),可以得到:

        3 學(xué)習(xí)最優(yōu)樣本權(quán)重策略

        學(xué)習(xí)策略能夠幫助訓(xùn)練得到一個(gè)性能更好的模型。傳統(tǒng)的課程學(xué)習(xí)分為預(yù)定義和自動(dòng)兩種,這兩者所需的計(jì)算資源都十分昂貴。自動(dòng)課程學(xué)習(xí)例如學(xué)生-教師模型使用強(qiáng)化學(xué)習(xí)尋找數(shù)據(jù)集合理的分布。在實(shí)際的場(chǎng)景中,由于數(shù)據(jù)集較大,動(dòng)作空間(Action Space)也會(huì)很大,因此這一訓(xùn)練過(guò)程所需的資源十分龐大。預(yù)定義的課程學(xué)習(xí)例如文獻(xiàn)[19]中使用人工規(guī)則和模型規(guī)則相結(jié)合的難度測(cè)量器(Difficulty Measurer)作為預(yù)習(xí)模塊來(lái)訓(xùn)練對(duì)話狀態(tài)追蹤模型,雖然得到了不錯(cuò)的效果,但所耗費(fèi)的資源仍然很昂貴,在實(shí)際的場(chǎng)景中很難達(dá)到類似的效果。

        本文采用學(xué)習(xí)最優(yōu)樣本權(quán)重的方法,它在訓(xùn)練過(guò)程中動(dòng)態(tài)調(diào)整樣本的權(quán)重以加速模型的收斂,并且不會(huì)增加模型的參數(shù)。

        其中:η是學(xué)習(xí)率;M是批次樣本數(shù)量;t是梯度更新的次數(shù)。

        由式(14)可知,每個(gè)樣本的權(quán)重都是1,因此每一個(gè)樣本在參數(shù)更新時(shí)的作用一樣。但實(shí)際在模型的訓(xùn)練過(guò)程中,不同樣本的貢獻(xiàn)不同,學(xué)習(xí)最優(yōu)樣本權(quán)重的思想就是通過(guò)分配給樣本不同的權(quán)重來(lái)幫助模型更好地訓(xùn)練。因此參數(shù)更新公式可以修改成如下形式:

        在文獻(xiàn)[20]中選取了損失函數(shù)下降最快的方向作為最優(yōu)樣本的衡量,最終得到了:

        這是一個(gè)二次規(guī)劃問(wèn)題,可以使用優(yōu)化算法如拉格朗日乘子法進(jìn)行求解。

        對(duì)于對(duì)話狀態(tài)追蹤來(lái)說(shuō),槽位分類問(wèn)題是接下去任務(wù)的基礎(chǔ),因此本文對(duì)于槽位判決門(mén)應(yīng)用了學(xué)習(xí)最優(yōu)樣本權(quán)重的方法,可以得到槽位判決門(mén)的損失函數(shù):

        4 實(shí)驗(yàn)與結(jié)果分析

        4.1 數(shù)據(jù)集

        本文實(shí)驗(yàn)所用的數(shù)據(jù)集是MultiWOZ 2.3(Multi-domain Wizard-of-OZ 2.3)[21]和WOZ 2.0(Wizard-of-OZ 2.0)[22]。MultiWOZ 2.3 是一個(gè)多領(lǐng)域多輪對(duì)話的數(shù)據(jù)集,它在MultiWOZ 2.1 的基礎(chǔ)上進(jìn)一步優(yōu)化了數(shù)據(jù)集,修改了原先不完整和錯(cuò)誤的注釋并增加了共指的注釋,提升了很多模型的性能。

        MultiWOZ 2.3 涵蓋了7 個(gè)領(lǐng)域{train,restaurant,hotel,taxi,attraction,hospital,police},域槽對(duì)共有35 個(gè),多領(lǐng)域?qū)υ挸^(guò)10 000 組。由于數(shù)據(jù)集的驗(yàn)證集和測(cè)試集都不含hospital 與police 兩個(gè)領(lǐng)域,因此本文在訓(xùn)練過(guò)程中只使用5個(gè)領(lǐng)域,包含30 個(gè)域槽對(duì)。WOZ 2.0 是一個(gè)單領(lǐng)域的相對(duì)較小的數(shù)據(jù)集,它只包含1 200 個(gè)參觀域的單個(gè)域?qū)υ挘且粋€(gè)相對(duì)簡(jiǎn)單的任務(wù)。

        4.2 評(píng)價(jià)標(biāo)準(zhǔn)

        本文采用聯(lián)合目標(biāo)準(zhǔn)確率(Joint Goal Accuracy)作為評(píng)價(jià)標(biāo)準(zhǔn)。聯(lián)合目標(biāo)準(zhǔn)確率定義為數(shù)據(jù)集中每一輪的三元組都預(yù)測(cè)正確的對(duì)話輪次的比率,并且在每一回合只有全部的〈domain,slot,value〉三元組都被正確預(yù)測(cè)時(shí)才認(rèn)為對(duì)話狀態(tài)預(yù)測(cè)正確,因此聯(lián)合準(zhǔn)確率是一個(gè)具有挑戰(zhàn)性的指標(biāo)。需要注意,在實(shí)際操作時(shí)每一輪一般都只有一個(gè)或幾個(gè)槽位被提及,本文模型將那些不需要填充值的槽位填充為none,而不是什么都不填。

        4.3 訓(xùn)練

        為了方便與其他模型進(jìn)行對(duì)比,本文采用的預(yù)訓(xùn)練模型是BERT-base-uncased transformer[23],優(yōu)化器選用AdamW(Adam Weight decay optimizer),學(xué)習(xí)率設(shè)置為10-5,并且應(yīng)用預(yù)熱和線性衰退策略。由于采用的是三重復(fù)制機(jī)制,所以使用文獻(xiàn)[5]中計(jì)算損失函數(shù)的公式:

        其中:Lgate來(lái)自式(17),Lspan來(lái)自式(11),Lrefer來(lái)自式(13)。需要注意的是,在評(píng)估單領(lǐng)域時(shí)沒(méi)有共指現(xiàn)象,總的損失函數(shù)將只包含前兩項(xiàng)且第二項(xiàng)的系數(shù)變?yōu)?.2。

        本文對(duì)模型細(xì)節(jié)進(jìn)行了優(yōu)化:

        1)測(cè)試了槽位判決門(mén)使用一個(gè)線性分類器判斷所有槽位和為每一個(gè)槽位設(shè)計(jì)一個(gè)分類器對(duì)準(zhǔn)確率的影響,發(fā)現(xiàn)前者的準(zhǔn)確率更高,因此消融實(shí)驗(yàn)中模型帶有SCE 的都是前者的做法,而LOW 為了方便對(duì)比采用的是后者的做法。

        2)由于模型主要包含SCE 和BERT,而SCE 的參數(shù)隨機(jī)初始化,因此與BERT 共用一個(gè)優(yōu)化器并不合適,所以本文在實(shí)驗(yàn)中設(shè)置了兩個(gè)優(yōu)化器分別更新兩個(gè)模型的參數(shù)。

        在訓(xùn)練過(guò)程中若顯存不足時(shí),可以使用梯度累計(jì)的方法變相增大批次。具體做法是固定輸入序列長(zhǎng)度為180,迭代輪次為10,批次為48,使用一塊RTX3090 訓(xùn)練所有模型。

        4.4 實(shí)驗(yàn)結(jié)果

        表1、2 將本文模型與其他對(duì)話狀態(tài)追蹤方法在數(shù)據(jù)集MultiWOZ 2.3 和WOZ 2.0 上進(jìn)行了對(duì)比。其中:TripPy*是TripPy 源碼在Transformers 版本為4.12.5,PyTorch 版本為1.9.0 下運(yùn)行的結(jié)果;其他模型的數(shù)據(jù)則是原論文提供在Github 網(wǎng)站上代碼的測(cè)試結(jié)果。在實(shí)驗(yàn)過(guò)程中,模型的改變以及學(xué)習(xí)最優(yōu)樣本權(quán)重策略的加入并沒(méi)有導(dǎo)致訓(xùn)練時(shí)間的大幅度增加。實(shí)驗(yàn)結(jié)果表明,本文模型SCEL-DST 取得了更高的聯(lián)合目標(biāo)準(zhǔn)確率,在MultiWOZ 2.3 數(shù)據(jù)集上與相同條件下的TripPy 相比提升了1.6 個(gè)百分點(diǎn),在WOZ 2.0 數(shù)據(jù)集上 與 AG-DST(Amendable Generation for Dialogue State Tracking)相比提升了 2.0 個(gè)百分點(diǎn)。

        表1 MultiWOZ 2.3數(shù)據(jù)集上不同模型的聯(lián)合目標(biāo)準(zhǔn)確率對(duì)比 單位:%Tab.1 Comparison of joint goal accuracies of different models on MultiWOZ 2.3 dataset unit:%

        表2 WOZ 2.0數(shù)據(jù)集上不同模型的聯(lián)合目標(biāo)準(zhǔn)確率對(duì)比 單位:%Tab.2 Comparison of joint goal accuracies of different models on WOZ 2.0 dataset unit:%

        圖3 是SCEL-DST 在MultiWOZ 2.3 測(cè)試集上的一些預(yù)測(cè)例子,由于篇幅問(wèn)題,圖3 最多只選取了每段對(duì)話的前3 輪(第一段用戶會(huì)話也算1 輪)。在圖3 可以很清楚看到對(duì)于用戶會(huì)話中顯式出現(xiàn)的槽值如〈train,departure,norwich〉,〈train,day,monday〉,〈hotel,area,north〉等,模型往往能準(zhǔn)確地預(yù)測(cè);對(duì)于那些隱式的槽值如〈restaurant,area,east〉,有時(shí)也能給出比較可靠的預(yù)測(cè)。

        圖3 SCEL-DST在MultiWOZ 2.3測(cè)試集上的預(yù)測(cè)例子Fig.3 Prediction examples of SCEL-DST on MultiWOZ 2.3 test set

        4.5 LOW與SCE的作用分析

        利用消融實(shí)驗(yàn)檢驗(yàn)LOW 與SCE 在模型中的作用。由表3 可知,對(duì)于MultiWOZ 2.3 數(shù)據(jù)集來(lái)說(shuō),SCE 起到的作用要大于LOW,而對(duì)于WOZ 來(lái)說(shuō)LOW 的效果又明顯比SCE更好。

        表3 消融實(shí)驗(yàn)結(jié)果Tab.3 Results of ablation experiments

        4.5.1 SCE的影響

        本文引入SCE 的原因是希望利用它學(xué)習(xí)槽位之間的關(guān)聯(lián)信息。對(duì)于單領(lǐng)域來(lái)說(shuō),由于槽位數(shù)量比較少,槽位之間的關(guān)聯(lián)信息和任務(wù)都比較簡(jiǎn)單,因此SCE 對(duì)模型性能也有不錯(cuò)的提升。對(duì)于多領(lǐng)域來(lái)說(shuō),從圖4 中可以看到,加入SCE后的TripPy 在除了restaurant 領(lǐng)域之外的4 個(gè)領(lǐng)域上都獲得了提升,其中train 和attraction 領(lǐng)域的提升相對(duì)較大(分別為0.91 與0.76 個(gè)百分點(diǎn))。在觀察這幾個(gè)領(lǐng)域槽位特點(diǎn)之后可以發(fā)現(xiàn),train、attraction 和taxi 領(lǐng)域的槽位幾乎全部都能在其他領(lǐng)域中找到類似的槽位(比如train-leaveAt 與taxileaveAt,attraction-area、hotel-area 和restaurant-area)。說(shuō) 明SCE 確實(shí)學(xué)到了這些槽位之間的關(guān)系,這些信息可以幫助它們更好地分類和跨度預(yù)測(cè)(見(jiàn)圖5)。相比之下,taxi 領(lǐng)域提升不明顯的原因是它的準(zhǔn)確率本就遠(yuǎn)高于其他幾個(gè)領(lǐng)域,繼續(xù)提升的空間相對(duì)有限。

        圖4 不同模型在MultiWOZ 2.3測(cè)試集上各個(gè)領(lǐng)域的聯(lián)合目標(biāo)準(zhǔn)確率Fig.4 Joint goal accuracies of different versions of models in each domain on MultiWOZ 2.3 test set

        圖5 不同模型在train、attraction和taxi領(lǐng)域中每一個(gè)槽位的槽位門(mén)分類的準(zhǔn)確率Fig.5 Slot gate accuracies of different versions of models in each slot in train,attraction and taxi domains

        而restaurant 與hotel 領(lǐng)域雖然也能與其他領(lǐng)域一樣找到類似的槽位,但它們的槽位數(shù)量都很多(restaurant 有7 個(gè),hotel 有10 個(gè)),本文猜想是因?yàn)檫^(guò)多數(shù)量的槽位影響了模型的判斷。原因在于槽位編碼是按照domain-slot 的形式送入BERT,由于槽位編碼的BERT 參數(shù)固定,因此經(jīng)過(guò)編碼之后的輸出也是固定的,無(wú)法更新。同領(lǐng)域槽位數(shù)量過(guò)多,前綴domain 出現(xiàn)的頻次也就越高,編碼后輸入到SCE 的相似的向量也就越多,SCE 模型可能無(wú)法精確學(xué)習(xí)到這些槽位與其他領(lǐng)域槽位之間的關(guān)系。舉例來(lái)說(shuō),對(duì)于hotel-area,與它相近的除了restaurant-area 與attraction-area,還有本身的9 個(gè)其他hotel-slot(如hotel-type、hotel-stars 等)。

        為了驗(yàn)證上述猜想,本文計(jì)算了hotel 領(lǐng)域的每一個(gè)槽位的槽位準(zhǔn)確率。在圖6 中可以看到那些在其他領(lǐng)域能找到類似 槽位的 如htotel-book_people、hotel-book_day、hotelbook_stay、hotel-name 和hotel-area 的準(zhǔn)確率在加上了SCE 之后都降低了,而那些在其他領(lǐng)域找不到類似槽位的槽位反而有小幅提升,這一點(diǎn)也使htotel 領(lǐng)域的總準(zhǔn)確率依然上升。背后的原因可能有兩點(diǎn):其一是模型雖然無(wú)法精確學(xué)習(xí)到兩個(gè)類似的槽位,但是那些原本無(wú)關(guān)的槽位之間的區(qū)分會(huì)更加明顯,這部分信息仍會(huì)提升模型的性能;其二是hotel 領(lǐng)域本身的準(zhǔn)確率就是所有領(lǐng)域當(dāng)中最低的,因此它上升的潛力相對(duì)較大。

        圖6 不同模型在hotel領(lǐng)域上的槽位準(zhǔn)確率Fig.6 Slot accuracies of different versions of models in hotel domain

        4.5.2 LOW策略的影響

        LOW 通過(guò)優(yōu)化訓(xùn)練過(guò)程來(lái)提升模型性能。單領(lǐng)域的訓(xùn)練樣本不如多領(lǐng)域的復(fù)雜,因此相較于多領(lǐng)域來(lái)說(shuō),LOW 在單領(lǐng)域上的提升顯著。對(duì)于多領(lǐng)域來(lái)說(shuō),從圖4 中可以看到,LOW 在restaurant、train 和hotel 領(lǐng)域中準(zhǔn)確率取得了很大的提升,但在taxi 和attraction 領(lǐng)域的準(zhǔn)確率卻降低了。需要注意到的是,restaurant、train 和hotel 領(lǐng)域原本模型的準(zhǔn)確率是5 個(gè)當(dāng)中最低的3 個(gè),并且在這3 個(gè)領(lǐng)域中,原先準(zhǔn)確率最低的hotel 提升最大,而原先準(zhǔn)確率最高的restaurant 提升最小。這一現(xiàn)象正能體現(xiàn)LOW 的本質(zhì),它通過(guò)損失下降的梯度方向來(lái)動(dòng)態(tài)調(diào)整樣本的權(quán)重,使那些準(zhǔn)確率低的樣本得到更多的訓(xùn)練,從而提升總的槽位準(zhǔn)確率。但同樣也會(huì)存在弊端,那些原本準(zhǔn)確率相對(duì)較高領(lǐng)域的準(zhǔn)確率會(huì)受到影響。

        4.5.3 總結(jié)

        從以上分析來(lái)看,SCE 提升了那些槽位數(shù)量少且能找到相似槽位的領(lǐng)域的槽位準(zhǔn)確率,LOW 提升了那些原本準(zhǔn)確率較低的領(lǐng)域的槽位準(zhǔn)確率。在圖4 中,從SCEL-DST 的結(jié)果來(lái)看,本文的模型在taxi 領(lǐng)域的槽位準(zhǔn)確率降低了一些,但是在其他4 個(gè)領(lǐng)域中都獲得了明顯的提升,本質(zhì)上也是在作一種取舍,舍棄準(zhǔn)確率最高的taxi 領(lǐng)域一點(diǎn)精度,在同等情況下獲得了更高的聯(lián)合目標(biāo)準(zhǔn)確率。在表4 中對(duì)比原模型TripPy*與SCEL-DST 在每一個(gè)槽位上的準(zhǔn)確率,本文模型在大部分槽位中都表現(xiàn)得更好。

        表4 SCEL-DST與TripPy*在MultiWOZ 2.3測(cè)試集上每一個(gè)槽位的準(zhǔn)確率Tab.4 Slot accuracies of SCEL-DST and TripPy* on MultiWOZ 2.3 test set

        5 結(jié)語(yǔ)

        本文提出了一種新的模型結(jié)構(gòu):在TripPy 的基礎(chǔ)上加入槽位相關(guān)信息提取器來(lái)提取槽位間相關(guān)信息,并且在訓(xùn)練過(guò)程中加入學(xué)習(xí)最優(yōu)樣本權(quán)重來(lái)提高模型的訓(xùn)練效率。該模型將槽位間相關(guān)信息利用到基于開(kāi)放詞表的模型中以提升模型性能,并考慮了訓(xùn)練時(shí)數(shù)據(jù)集本身的結(jié)構(gòu)信息。

        但本文模型的不足在于,在評(píng)估SCE 學(xué)到的槽位相關(guān)信息時(shí),僅從最后的損失函數(shù)來(lái)調(diào)整SCE 參數(shù),正如4.5 節(jié)所述,槽位數(shù)量較多時(shí),模型就難以分辨槽位之間的聯(lián)系。一個(gè)簡(jiǎn)單的思路是利用人工方式給相似槽位打上一個(gè)相似度標(biāo)簽,然后設(shè)計(jì)網(wǎng)絡(luò)去調(diào)整槽位編碼后的表征向量,從而引入人工的經(jīng)驗(yàn)。不過(guò)這些人工經(jīng)驗(yàn)在遷移到一個(gè)新的領(lǐng)域后需要人力重新評(píng)價(jià)新的槽位之間的關(guān)系,這與本文基于開(kāi)放詞表、減少人力成本的理念相違背。因此,我們未來(lái)將進(jìn)一步研究如何調(diào)整SCE 模型結(jié)構(gòu)以及如何評(píng)估SCE 學(xué)習(xí)得到的槽位相關(guān)信息。

        猜你喜歡
        詞表準(zhǔn)確率領(lǐng)域
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        A Chinese-English List of the Sports Programmes in Winter Olympics 冬奧會(huì)項(xiàng)目名稱漢英對(duì)照詞表
        領(lǐng)域·對(duì)峙
        青年生活(2019年23期)2019-09-10 12:55:43
        高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        敘詞表與其他詞表的互操作標(biāo)準(zhǔn)
        新常態(tài)下推動(dòng)多層次多領(lǐng)域依法治理初探
        肯定與質(zhì)疑:“慕課”在基礎(chǔ)教育領(lǐng)域的應(yīng)用
        3D 打印:先進(jìn)制造領(lǐng)域的必爭(zhēng)之地
        杭州科技(2013年5期)2013-03-11 16:40:59
        一出一进一爽一粗一大视频免费的| 亚洲av日韩av卡二| 国内精品久久久久伊人av| 亚洲av无码日韩精品影片| 久久久精品电影| 国产激情在线观看视频网址| 日本精品视频一区二区三区四区| 日韩国产成人无码av毛片蜜柚 | 免费av一区男人的天堂| 一边捏奶头一边高潮视频| 成人性做爰aaa片免费看| 亚洲狼人社区av在线观看| 亚洲av成熟国产精品一区二区| 欧美性生交活xxxxxdddd| 蜜桃成人无码区免费视频网站| 99久久久国产精品丝袜| 视频国产自拍在线观看| 国模精品一区二区三区| 97人人超碰国产精品最新o| 日韩av无卡无码午夜观看| 99青青草视频在线观看| 亚洲av日韩综合一区二区三区| 性夜影院爽黄a爽在线看香蕉| 国产区高清在线一区二区三区| 与漂亮的女邻居少妇好爽| 水蜜桃精品一二三| 国产亚洲女在线线精品| 日本久久视频在线观看| 狂野欧美性猛xxxx乱大交| 少妇人妻在线视频| 日本肥老熟妇在线观看| 大香焦av一区二区三区| 天堂…在线最新版资源| 亚洲一区二区三区在线观看播放| 男男做h嗯啊高潮涩涩| 一本精品99久久精品77| 欧美成人激情在线| 亚洲一区二区三区资源| 欧美xxxxx在线观看| 少妇邻居内射在线| 天堂av在线免费播放|