亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于標(biāo)簽嵌入的多模態(tài)多標(biāo)簽情感識別算法*

        2022-08-23 06:49:14張信明
        關(guān)鍵詞:語義模態(tài)特征

        張 超,張信明

        (中國科學(xué)技術(shù)大學(xué) 大數(shù)據(jù)學(xué)院,安徽 合肥 230026)

        0 引言

        隨著互聯(lián)網(wǎng)與社交媒體的不斷發(fā)展,越來越多的人使用包含文本、語音、圖像在內(nèi)的多模態(tài)數(shù)據(jù)在社交媒體上表達(dá)自己的看法或觀點。海量的多模態(tài)數(shù)據(jù)中蘊含著豐富的情感信息,對多模態(tài)數(shù)據(jù)進(jìn)行情感分析有利于了解人們對某些事件的態(tài)度和看法,在輿論監(jiān)控、商品推薦、股市預(yù)測等方面具有很大的應(yīng)用價值。此外,近年來的研究表明,與單模態(tài)情感識別模型相比,多模態(tài)模型在處理社交媒體數(shù)據(jù)時具有更強(qiáng)的魯棒性,并在識別準(zhǔn)確率方面取得了顯著的改進(jìn)[1]。不同的模態(tài)信息可能暗含著不同的情緒,如圖1所示,可能從文本信息中只能推斷出厭惡的情緒,而從視覺和語音的組合信息中推斷出悲傷和生氣的情緒,因此必須充分融合來自不同模態(tài)的信息才能準(zhǔn)確識別出多模態(tài)數(shù)據(jù)中的情感信息。

        圖1 多模態(tài)多標(biāo)簽情感識別樣本實例

        盡管目前多模態(tài)情感分析在模型性能方面已經(jīng)取得了較好的效果,但是仍然存在兩個問題需要解決。第一個問題是情感識別在現(xiàn)實場景中通常是一個多標(biāo)簽分類問題,如何對標(biāo)簽依賴關(guān)系建模并使用標(biāo)簽信息是一項具有挑戰(zhàn)性的任務(wù)。目前大多數(shù)工作將多標(biāo)簽分類問題轉(zhuǎn)換為多個二分類問題,而忽視了標(biāo)簽之間的依賴性。另一個問題是異構(gòu)模態(tài)信號之間的巨大語義差異,使得模態(tài)特征難以直接融合。

        目前關(guān)于多模態(tài)情感分析的研究主要集中在設(shè)計高效的模態(tài)融合機(jī)制。Zadeh等[2]利用張量的外積來對不同模態(tài)之間的相互作用進(jìn)行建模,Tsai等[3]提出了基于注意力的模型,使用跨模態(tài)注意力融合來自不同模態(tài)的信息。盡管這些模型在多模態(tài)情感識別任務(wù)中取得了良好的效果,但是忽略了模態(tài)特征之間的語義差異,影響了多模態(tài)特征融合的效果。Ju等[4]提出了基于序列生成的模型來解決多模態(tài)多標(biāo)簽情感識別問題,利用序列生成的方式對標(biāo)簽之間依賴關(guān)系建模,但是這種方法依賴于預(yù)先定義的標(biāo)簽順序并且計算效率低。

        本文提出了一種基于標(biāo)簽嵌入的多模態(tài)多標(biāo)簽情感識別算法,即使用標(biāo)簽嵌入向量對標(biāo)簽依賴性建模,使用模態(tài)不變表示來減少模態(tài)語義差異。首先,鑒于情感標(biāo)簽包含著豐富的信息,本文使用標(biāo)簽之間的共現(xiàn)信息來學(xué)習(xí)多模態(tài)情感標(biāo)簽嵌入。然后,使用CMD分布度量[5]限制不同模態(tài)特征的分布差距,獲得模態(tài)不變表示,這種限制有助于縮小不同模態(tài)之間的語義差距,從而使用更簡單的融合方法融合不同模態(tài)特征。最后,將所有的模態(tài)特征連接起來,利用學(xué)習(xí)到的標(biāo)簽嵌入和融合特征完成情感識別任務(wù)。

        本文在一個公開的多模態(tài)多標(biāo)簽情感數(shù)據(jù)集CMU-MOSEI上進(jìn)行了廣泛的實驗,以評估方法性能。實驗結(jié)果表明,該方法能夠有效地融合模態(tài)特征并且對標(biāo)簽依賴進(jìn)行建模。本文主要貢獻(xiàn)有:

        (1)使用標(biāo)簽的共現(xiàn)信息來學(xué)習(xí)標(biāo)簽嵌入,用標(biāo)簽嵌入來表示標(biāo)簽依賴關(guān)系。

        (2)考慮了模態(tài)特征之間的語義差距,通過在損失函數(shù)中添加對模態(tài)特征的約束來減小模態(tài)特征語義差距。

        (3)MOSEI數(shù)據(jù)集的實驗結(jié)果表明,該方法在多模態(tài)多標(biāo)簽情感識別任務(wù)上相較于現(xiàn)有方法,性能有明顯提升。

        1 相關(guān)工作

        不同模態(tài)的情感信息之間往往具有互補(bǔ)性,有助于更全面、更準(zhǔn)確識別出情感信息。多模態(tài)情感識別作為一個跨學(xué)科的研究領(lǐng)域,在自然語言處理和多模態(tài)領(lǐng)域都受到越來越多的關(guān)注。目前NLP領(lǐng)域里幾乎所有關(guān)于多標(biāo)簽情感識別的研究都依賴于情感的特殊知識,例如跨域轉(zhuǎn)移[6]和外部資源[7]。多模態(tài)領(lǐng)域里的相關(guān)研究通常集中在單標(biāo)簽多模態(tài)情感識別任務(wù),而對多標(biāo)簽情感識別任務(wù)研究較少。下面分別介紹多模態(tài)情感識別與多標(biāo)簽情感識別相關(guān)工作。

        1.1 多模態(tài)情感識別

        近年來,多模態(tài)情感識別研究主要依賴于通過多模態(tài)融合框架對情感類別進(jìn)行分類的方式。Zadeh等[2]提出了一種張量融合網(wǎng)絡(luò),通過張量的笛卡爾積將每個模態(tài)的特征表示結(jié)合起來,表現(xiàn)出顯著的性能改進(jìn)。然而,它受到張量笛卡爾積帶來的計算復(fù)雜性指數(shù)增長的限制。為了提高多模態(tài)融合效率,Liu等[8]提出了低秩多模態(tài)融合方案,利用低階張量進(jìn)行多模態(tài)融合,減小了模態(tài)融合的計算量。隨著注意力機(jī)制在NLP社區(qū)中取得顯著的成功,許多研究試圖將其用于多模態(tài)機(jī)器學(xué)習(xí)任務(wù)中。Tsai等[3]提出了多模態(tài)Transformer(MulT)結(jié)構(gòu),使用交叉模態(tài)注意力融合不同模態(tài)特征,關(guān)注不同時間步的多模態(tài)序列之間的相互作用,并潛在地將特征實現(xiàn)模態(tài)自適應(yīng)遷移,在模態(tài)數(shù)據(jù)不對齊的條件下仍然可以高效融合模態(tài)特征。Hazarika等[9]提出了一種靈活的多模態(tài)學(xué)習(xí)框架,強(qiáng)調(diào)多模態(tài)表示學(xué)習(xí)是多模態(tài)融合的前導(dǎo),為每種模態(tài)信號學(xué)習(xí)不同的表示,并使用注意力機(jī)制將不同表示融合到一個聯(lián)合向量中。Mai等[10]提出了一種新的對抗式編解碼分類器框架來學(xué)習(xí)模態(tài)不變的嵌入空間,通過使用對抗性訓(xùn)練將源模態(tài)的分布轉(zhuǎn)換為目標(biāo)模態(tài)的分布,以此來減小模態(tài)分布之間的差異,此外,通過引入重建損失和分類損失對嵌入空間施加了額外的約束。這種方法在多個數(shù)據(jù)集上實現(xiàn)了優(yōu)異的性能。最近,基于Transformer的上下文詞表示(包括BERT和XLNet)已經(jīng)在NLP的多個領(lǐng)域中嶄露頭角,有學(xué)者嘗試將預(yù)訓(xùn)練模型用于多模態(tài)情感分析任務(wù)中。Rahman等[11]提出了一個附加到BERT等預(yù)訓(xùn)練模型的多模態(tài)自適應(yīng)門(MAG),允許BERT在微調(diào)期間接受多模態(tài)非語言數(shù)據(jù),這種自適應(yīng)門通過注意力機(jī)制將非文本模態(tài)信息注入到文本向量表示中,在多個數(shù)據(jù)集上表現(xiàn)出與人類水平相當(dāng)?shù)男阅堋?/p>

        1.2 多標(biāo)簽情感識別

        最近的研究通常將多標(biāo)簽情感識別任務(wù)視為一個分類問題,并利用特定知識作為輔助信息。Ando等[12]提出了一種主導(dǎo)情緒識別方法,該方法引入了判斷情緒存在與否的新任務(wù),稱為多標(biāo)簽情緒存在(MLEE)任務(wù),提出的方法采用兩步訓(xùn)練策略。首先,訓(xùn)練MLEE任務(wù)來估計每個情緒是否存在。然后,利用MLEE任務(wù)的中間輸出訓(xùn)練具有硬/軟目標(biāo)標(biāo)簽的主導(dǎo)情緒識別模型。Yang等[13]利用強(qiáng)化學(xué)習(xí)進(jìn)行訓(xùn)練,其中獎勵反饋的設(shè)計獨立于標(biāo)簽順序,可以減少模型對標(biāo)簽順序的依賴,并捕獲標(biāo)簽之間的高階相關(guān)性,但其仍然依賴于預(yù)先訓(xùn)練的seq2seq模型,而這種模型的訓(xùn)練依賴標(biāo)簽順序。Zhang等[14]提出一種多模態(tài)seq2set(MMS2S)方法來同時建模模態(tài)和標(biāo)簽依賴性,首先使用單模態(tài)編碼器提取特征,然后用給定的情感表示控制不同模態(tài)特征對每個潛在情感標(biāo)簽預(yù)測的貢獻(xiàn),最后通過最大化top K序列預(yù)測所有潛在的情感標(biāo)簽。Ju等[4]提出了多模態(tài)情感集合生成網(wǎng)絡(luò),設(shè)計了一個基于變換器的區(qū)分解碼模塊,通過配備注意力來處理模態(tài)與標(biāo)簽的依賴,同時采用了一種帶自評學(xué)習(xí)的增強(qiáng)解碼算法來處理標(biāo)簽之間的依賴關(guān)系。文獻(xiàn)[15]提出了一種異構(gòu)層次消息傳遞網(wǎng)絡(luò),實現(xiàn)了對標(biāo)簽之間以及標(biāo)簽與模態(tài)之間依賴關(guān)系的有效建模。

        2 多模態(tài)多標(biāo)簽情感識別模型

        多模態(tài)多標(biāo)簽情感識別任務(wù)的模型——基于標(biāo)簽嵌入與模態(tài)不變表示的網(wǎng)絡(luò)(Label Embedding and Modality-invariant Representations based Network,LEMRN)由兩個階段組成:標(biāo)簽嵌入訓(xùn)練階段和模態(tài)特征融合訓(xùn)練階段。前一階段使用標(biāo)簽編碼器網(wǎng)絡(luò)訓(xùn)練所有標(biāo)簽的嵌入向量,后一階段使用標(biāo)簽嵌入輔助進(jìn)行模態(tài)融合。圖2展示了提出的模型LEMRN的網(wǎng)絡(luò)結(jié)構(gòu),下面從任務(wù)定義、標(biāo)簽嵌入表示和多模態(tài)特征融合三個部分來描述提出的方法。

        圖2 LEMRN網(wǎng)絡(luò)模型結(jié)構(gòu)

        2.1 任務(wù)定義

        首先,使用符號來定義多模態(tài)多標(biāo)簽情感識別任務(wù)。一條包含文本、語音、視頻三種模態(tài)的數(shù)據(jù)可能同時和多個情感標(biāo)簽關(guān)聯(lián)。記為多模態(tài)數(shù)據(jù)樣本為情感標(biāo)簽,N表示樣本數(shù)量。每個數(shù)據(jù)樣本包括來自語言、視覺和語音3個模態(tài)的低級特征序列,然后定義具有L個情感標(biāo)簽的標(biāo)簽集合空間為L={emo1,emo1,…,emoL},每一個標(biāo)簽yi∈[0,1]L是L的一個子集,旨在為每一個數(shù)據(jù)樣本分配一個合適的標(biāo)簽空間L的子集。多模態(tài)多標(biāo)簽情感識別任務(wù)可以形式化定義為最大化下述似然函數(shù):

        2.2 標(biāo)簽嵌入表示

        不同標(biāo)簽之間的相關(guān)性在多標(biāo)簽任務(wù)中起著至關(guān)重要的作用。目前關(guān)于標(biāo)簽相關(guān)性的計算并沒有統(tǒng)一的衡量標(biāo)準(zhǔn),標(biāo)簽之間的共現(xiàn)信息可以用來模擬不同標(biāo)簽之間的相關(guān)性。標(biāo)簽之間的共現(xiàn)特性可以被抽象描述為聯(lián)合概率,這適用于建模標(biāo)簽之間的關(guān)聯(lián)關(guān)系。然而,聯(lián)合概率容易受到類別不平衡的影響,可以利用標(biāo)簽之間的條件概率來解決這個問題,條件概率是通過將聯(lián)合概率除以邊際概率來規(guī)范化得到的。本文使用標(biāo)簽圖來學(xué)習(xí)標(biāo)簽嵌入,并將學(xué)習(xí)到的標(biāo)簽嵌入作為附加信息輸入到模態(tài)融合網(wǎng)絡(luò)中。其中標(biāo)簽表示節(jié)點,標(biāo)簽之間的條件概率表示邊權(quán)重,標(biāo)簽之間的條件概率越大,說明標(biāo)簽之間的關(guān)聯(lián)性越強(qiáng)。

        定義標(biāo)簽圖為g=(V,C),其中頂點集合V={v1,v2,…,vn}代表標(biāo)簽集合,標(biāo)簽圖中的邊集合C定義標(biāo)簽之間的關(guān)聯(lián),標(biāo)簽圖的鄰接矩陣Ai,j設(shè)置為條件概率矩陣,其中Ai,j=P(vi|vj),標(biāo)簽之間的關(guān)聯(lián)應(yīng)該具有對稱性,由于P(vi|vj)≠P(vj|vi),對鄰接矩陣進(jìn)一步處理使其成為對稱矩陣:

        為了學(xué)習(xí)標(biāo)簽嵌入,使用神經(jīng)網(wǎng)絡(luò)構(gòu)建了學(xué)習(xí)器,利用標(biāo)簽的文本語義ei,使用Glove文本詞向量初始化在多模態(tài)語義下的標(biāo)簽嵌入表示,然后將其通過學(xué)習(xí)器映射到一個多模態(tài)語義嵌入空間并產(chǎn)生目標(biāo)嵌入詞向量oi:

        式中函數(shù)Φ()表示一個由兩層全連接網(wǎng)絡(luò)組成的神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)的目標(biāo)是優(yōu)化輸出的標(biāo)簽嵌入向量oi,使得|cos(oi,oj)|接近損失函數(shù)定義為:

        其中wi,j是松弛因子。在不添加松弛因子的情況下,損失函數(shù)要求所有的|cos(oi,oj)|必須充分接近

        2.3 多模態(tài)特征融合

        首先,對于每個模態(tài)信號的原始序列輸入數(shù)據(jù),使用Transformer網(wǎng)絡(luò)的編碼器來處理并獲得向量表示。與傳統(tǒng)的RNN網(wǎng)絡(luò)、LSTM網(wǎng)絡(luò)相比,Transformer網(wǎng)絡(luò)更容易學(xué)習(xí)到句子之間的長距離依賴,因為其采用了多頭自注意力機(jī)制,用序列中所有位置向量的加權(quán)和來代表每一個位置的向量。具體來說,對于每一種模態(tài)序列um∈RTm×dm,其中m∈{t,a,v},將其映射到潛在空間的模態(tài)向量:

        然后,使用模態(tài)編碼器將不同模態(tài)向量ht,ha和hv投影到公共子空間中。使用Trandformer網(wǎng)絡(luò)編碼器提取到的不同模態(tài)特征之間語義差距很大,難以直接融合,投影到公共子空間中有利于在相同的語義空間中進(jìn)一步處理。模態(tài)編碼器由多層感知器(MLP)和模態(tài)自適應(yīng)門組成,首先使用MLP將模態(tài)向量映射到公共子空間:

        將不同的模態(tài)向量投影到一個特殊的公共子空間之后,使用CMD函數(shù)[5]限制不同模態(tài)特征的分布差距,獲得模態(tài)不變的特征表示。CMD函數(shù)度量兩個分布之間的距離,相比于KL散度包含了高階矩信息。CMD函數(shù)具體形式如下:

        其中X,Y代表兩個不同分布,[a,b]表示的是X,Y的 取 值 范 圍,E(·)表 示 數(shù) 學(xué) 期 望,Ck(X)=E((X-E(X)k)表示分布X的k階中心矩。計算每對模態(tài)向量的CMD度量,并將其添加到損失函數(shù)中,通過梯度訓(xùn)練減少模態(tài)間CMD度量,達(dá)到減小不同模態(tài)特征之間語義差距的效果,其計算公式為:

        3 實驗

        3.1 實驗設(shè)置

        3.1.1 實驗數(shù)據(jù)集

        在本文實驗中使用了現(xiàn)有最大的多模態(tài)多標(biāo)簽情感識別基準(zhǔn)數(shù)據(jù)集CMU-MOSEI來評估提出的方法。該數(shù)據(jù)集由從YouTube視頻中提取的22 856條帶注釋的話語組成,來自5 000個視頻,1 000位不同的發(fā)言人和250個不同的主題。每個數(shù)據(jù)點包含有文本、視頻和語音3種模態(tài)數(shù)據(jù)。對于原始的音頻信號,使用聲學(xué)分析框架COVAREP提取聲學(xué)特征,包括梅爾倒譜系數(shù)特征(MFCC)、基頻軌跡、濁音/清音分段特征、聲門源參數(shù)、峰值斜率參數(shù)和最大色散商,提取到的聲學(xué)特征維度是74。對于原始的視覺信號,使用Facet庫提取特征,包括面部表情動作單元(FAU)、面部特征點、頭部姿勢、視線軌跡以及HOG特征,視覺特征的維度是35。情感標(biāo)簽共有6種,分別是快樂、悲傷、憤怒、恐懼、厭惡和驚訝。訓(xùn)練集包含16 326個樣本,驗證集包含1 871個樣本,測試集包含4 659個樣本。

        3.1.2 評價指標(biāo)

        本文采用了3個評估指標(biāo)來評價不同方法在多模態(tài)多標(biāo)簽情感識別任務(wù)上的性能,分別是多標(biāo)簽準(zhǔn)確率、漢明損失(HL)、Micro-F1分?jǐn)?shù),三個評價指標(biāo)的計算公式如下:

        3.1.3 參數(shù)設(shè)置

        本文在操作系統(tǒng)為Ubuntu18.04.5環(huán)境中進(jìn)行實驗,使用開源深度學(xué)習(xí)框架PyTorch。對于原始模態(tài)數(shù)據(jù)輸入,文本數(shù)據(jù)維度dT是300,視覺數(shù)據(jù)維度dV與語音數(shù)據(jù)維度dA維度分別是35和74,模態(tài)特征隱藏層單元維度是50。本文使用3層Transformer網(wǎng)絡(luò)的encoder來提取序列特征,在標(biāo)簽嵌入向量的訓(xùn)練過程中,使用預(yù)訓(xùn)練的Glove詞向量初始化輸入向量,使用Adam作為優(yōu)化器,并使用5e-4作為初始學(xué)習(xí)率。此外,本文還使用了dropout正則化來避免過擬合,并使用LayerNorm和梯度裁剪來克服梯度消失和梯度爆炸。

        3.1.4 對比模型

        為了綜合評估本文提出的方法的性能,本文在CMU-MOSEI數(shù)據(jù)集將本文模型與各種基線模型做比較。分別是:

        (1)BR[16]:采用交叉訓(xùn)練的方法,將多標(biāo)簽任務(wù)轉(zhuǎn)化為多個單標(biāo)簽二值分類問題。

        (2)CC[17]:該算法將多標(biāo)簽任務(wù)轉(zhuǎn)化為鏈?zhǔn)蕉诸悊栴},沿著分類器鏈傳遞標(biāo)簽相關(guān)信息,該方法可以保持在可接受的計算復(fù)雜度內(nèi)對標(biāo)簽相關(guān)性進(jìn)行建模。

        (3)LSAN[18]:利用標(biāo)簽語義信息來確定標(biāo)簽和文檔之間的語義聯(lián)系,從而構(gòu)建特定于標(biāo)簽的文檔表示。

        (4)RAVEN[19]:對非語言子詞序列的細(xì)粒度結(jié)構(gòu)進(jìn)行建模,并根據(jù)非語言線索動態(tài)轉(zhuǎn)換單詞表示。

        (5)MulT[3]:使用基于Transformer的結(jié)構(gòu)提取序列特征,使用交叉模態(tài)注意力融合不同模態(tài)特征。

        (6)HHMPN[15]:使用異構(gòu)的分層消息傳遞網(wǎng)絡(luò)來有效地建模標(biāo)簽-標(biāo)簽依賴、特征-標(biāo)簽依賴和模態(tài)-標(biāo)簽依賴。

        以上基線模型可以分為3組,前3種方法只考慮了標(biāo)簽依賴性,沒有考慮模態(tài)依賴性,使用早期融合的方法融合不同模態(tài)特征;第4種與第5種方法只考慮了模態(tài)依賴性,融合了不同模態(tài)特征,但沒有考慮標(biāo)簽依賴性;最后一種方法考慮了標(biāo)簽依賴性與模態(tài)依賴性。

        3.2 實驗結(jié)果與分析

        根據(jù)CMU-MOSEI數(shù)據(jù)集上不同多模態(tài)多標(biāo)簽情感識別方法的結(jié)果顯示(如表1所示),僅考慮標(biāo)簽依賴性的方法LSAN的準(zhǔn)確率為0.393,僅考慮模態(tài)依賴性的方法MulT的準(zhǔn)確率為0.445。與使用早期融合模態(tài)特征的多標(biāo)簽方法相比,本文提出的方法準(zhǔn)確率可以達(dá)到0.465,多模態(tài)方法獲得了更好的結(jié)果,分別比LSAN與MulT高7.2%與2%。與同時考慮模態(tài)依賴與標(biāo)簽依賴的方法HHMPN相比,本文提出的方法在準(zhǔn)確率與漢明損失指標(biāo)上取得了更好的效果。

        在驗證模型中標(biāo)簽嵌入和模態(tài)約束必要性的消融實驗中,變體一LEMRN w/o M不添加模態(tài)約束,直接連接所有模態(tài)特征,變體二LEMRN w/o LE刪除了標(biāo)簽嵌入,忽略標(biāo)簽的依賴關(guān)系。如表1所示,如果去除標(biāo)簽嵌入或模態(tài)約束,模型性能會明顯降低,表明標(biāo)簽嵌入與模態(tài)約束是必要的。此外,移除標(biāo)簽嵌入導(dǎo)致模型性能下降得更加劇烈,說明了標(biāo)簽嵌入在模型中起到更關(guān)鍵的作用。

        表1 模型在多模態(tài)多標(biāo)簽情感識別任務(wù)結(jié)果

        為驗證通過CMD函數(shù)添加的模態(tài)約束對模態(tài)特征的影響,分析了經(jīng)過模態(tài)編碼器編碼的模態(tài)特征的分布,模態(tài)特征分布如圖3所示??梢钥吹?,在不添加模態(tài)約束的條件下,3種模態(tài)特征分布差異較大,添加模態(tài)約束之后模態(tài)特征分布趨于一致,證明提出的方法能夠減小模態(tài)特征分布之間的差異,從而有利于更好地融合模態(tài)特征。

        圖3 模態(tài)特征分布箱線圖

        為進(jìn)一步比較不同方法在多標(biāo)簽多模態(tài)情感識別任務(wù)上性能的差別,選取了兩個樣本來觀察不同基準(zhǔn)模型與LEMRN的預(yù)測結(jié)果,圖4展示了3種模型在樣本上的預(yù)測結(jié)果。從預(yù)測結(jié)果可以觀察到,在兩個樣本中LSAN模型都無法預(yù)測出所有的標(biāo)簽,主要是因為模型沒有充分融合模態(tài)特征,只采用了簡單的早期融合策略;MulT模型能夠準(zhǔn)確預(yù)測出左邊樣本的所有標(biāo)簽,無法完整預(yù)測出右邊樣本標(biāo)簽,主要是因為模型沒有考慮標(biāo)簽之間的依賴關(guān)系,只將多標(biāo)簽分類任務(wù)簡單轉(zhuǎn)化為多個二分類任務(wù);本文提出的LEMRN模型能夠準(zhǔn)確預(yù)測出兩個樣本的所有標(biāo)簽,能夠高效完成模態(tài)特征融合以及標(biāo)簽依賴性關(guān)系的建模。

        圖4 LSAN、MulT、LEMRN預(yù)測標(biāo)簽結(jié)果對比

        4 結(jié)論

        在多模態(tài)情感識別中,存在多標(biāo)簽場景下標(biāo)簽間依賴性表示不充分、模態(tài)特征之間語義差距過大等問題。本文提出了一種基于標(biāo)簽嵌入的多模態(tài)多標(biāo)簽情感識別算法,為了充分對標(biāo)簽之間依賴關(guān)系建模,利用標(biāo)簽條件概率訓(xùn)練標(biāo)簽嵌入向量,利用標(biāo)簽嵌入向量輔助多標(biāo)簽情感識別任務(wù);為了減小模態(tài)特征之間的語義差距,引入CMD分布損失函數(shù)來約束模態(tài)特征分布。在CMU-MOSEI數(shù)據(jù)集上的詳細(xì)實驗結(jié)果表明,該方法能夠?qū)?biāo)簽之間依賴關(guān)系有效建模,能夠緩解模態(tài)特征之間語義差異大的問題,也因此能夠在多標(biāo)簽多模態(tài)情感識別任務(wù)中取得更好的結(jié)果。

        猜你喜歡
        語義模態(tài)特征
        語言與語義
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        “上”與“下”語義的不對稱性及其認(rèn)知闡釋
        國內(nèi)多模態(tài)教學(xué)研究回顧與展望
        基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
        認(rèn)知范疇模糊與語義模糊
        由單個模態(tài)構(gòu)造對稱簡支梁的抗彎剛度
        計算物理(2014年2期)2014-03-11 17:01:39
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        亚洲色图+国产精品| 手机在线看片| 精品三级av无码一区| 男人无码视频在线观看| 国产西西裸体一级黄色大片| 中文文精品字幕一区二区| 亚洲中文字幕久久精品蜜桃| 色狠狠av老熟女| 日韩在线视精品在亚洲| 亚洲精品一区二区三区四区| 插鸡网站在线播放免费观看| 久久夜色精品国产噜噜av| 91超碰在线观看免费| 亚洲av色精品国产一区二区三区| 国产成人无码av一区二区在线观看| 午夜成人理论无码电影在线播放| 神马不卡一区二区三级| 成人国产av精品麻豆网址| 国产成人av在线免播放观看新| 伊人久久无码中文字幕| 无码专区无码专区视频网址| 美女脱掉内裤扒开下面让人插| 真实国产精品vr专区| 久久亚洲精品中文字幕| 狠狠色噜噜狠狠狠狠米奇777| 又黄又爽又色的视频| 亚洲欧洲国无码| 99久久久人妻熟妇精品一区二区| 国产成人精品午夜二三区波多野| 色婷婷六月天| 在线精品亚洲一区二区三区| 国产护士一区二区三区| 久久日日躁夜夜躁狠狠躁| 无码日韩精品一区二区三区免费| 色www亚洲| av免费在线播放观看| 亚洲精品天天影视综合网| 色婷婷综合久久久久中文| 亚洲Av无码专区尤物| 国产激情在线观看免费视频| 久久精品国产亚洲av无码娇色|