亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多模態(tài)異質(zhì)動態(tài)融合的情緒分析研究

        2022-06-21 08:29:48林鴻飛
        中文信息學(xué)報 2022年5期
        關(guān)鍵詞:模態(tài)情緒特征

        丁 健,楊 亮,林鴻飛,王 健

        (大連理工大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,遼寧 大連 116024)

        0 引言

        對人類的情緒進行科學(xué)的分析,一直以來都是一個頗具難度的任務(wù)。因為人類的情緒表現(xiàn)方式具有多元化的特點,不同的人對于自己的意見的表達形式和特點并不相同。[1]例如人們的表情、神態(tài)、動作、聲音的表現(xiàn)形式對于每一個個體而言都不是遵循著同一套規(guī)律的。隨著人工智能技術(shù)的發(fā)展,使得利用人工智能算法進行情緒分析成為了一個熱門的研究方向。以往出現(xiàn)了很多利用單一模態(tài)數(shù)據(jù)的情緒分析工作,但是現(xiàn)實情況中的人們并非僅通過單一的形式表達自己的情緒,人們在交流過程中也是通過多種不同角度的信息對他人的情緒、情感進行推斷的。所以,單一模態(tài)的情緒分析是不夠完備的,而且單一模態(tài)的數(shù)據(jù)更容易受到噪聲的影響,從而影響模型的魯棒性。

        多模態(tài)的情緒分析工作,需要適宜的多模態(tài)情緒分類的訓(xùn)練數(shù)據(jù)。隨著互聯(lián)網(wǎng)產(chǎn)業(yè)的高速發(fā)展,各種社交媒體平臺也呈現(xiàn)出了蓬勃發(fā)展的態(tài)勢。其中以Youtube等視頻網(wǎng)站的社交媒體平臺在世界范圍內(nèi)最為突出。而我國的抖音、快手等新興的短視頻平臺也在迅速發(fā)展的同時得到了廣泛的認(rèn)可。這些社交媒體呈現(xiàn)出越來越蓬勃的生命力,社交媒體平臺的用戶們在其中分享自己的觀點和生活的意愿也大幅度提升,人們可以更容易地獲得包含著情緒、情感觀點信息的不同模態(tài)的數(shù)據(jù)。這使得多模態(tài)情緒分析在近幾年成為一個富有潛力的研究方向。不同于單模態(tài)情緒分析,如何利用好額外模態(tài)的信息是多模態(tài)情緒分析中的一個富有挑戰(zhàn)性的工作。在人們講話的過程中,其語言的表達形式、語音語調(diào)、神態(tài)動作、表情等特征是動態(tài)變化的,這使得多模態(tài)情緒分析過程會受到更多噪聲的干擾,這也是多模態(tài)分析的一個挑戰(zhàn)。

        雖然近些年,多模態(tài)情緒分析任務(wù)有很多工作都取得了不錯的結(jié)果,但是其依舊是一個具有挑戰(zhàn)性的任務(wù)。Poria S等人[2]認(rèn)為: 多模態(tài)情緒分析任務(wù)面臨四大挑戰(zhàn):

        特征空間維度高: 多模態(tài)情緒分析的特征空間由多個模態(tài)的特征向量組成,通常會有非常高的維度。以往為了解決這個問題,采用早期融合或決策級融合技術(shù),但是表現(xiàn)并不理想。

        數(shù)據(jù)通道的噪聲: 每個模態(tài)數(shù)據(jù)中的噪聲或錯誤的數(shù)據(jù),會在多模態(tài)框架下造成更大的干擾。如何識別及丟棄這些干擾,是一個一直以來都很重要的研究方向。

        多模態(tài)信息的組合: 從各模態(tài)提取到的特征,都需要以一種方式進行融合,融合過程中的挑戰(zhàn)包括: 確定各模態(tài)在融合中的貢獻、過濾其中的噪聲,以及處理特征級別融合中的高維特征空間。

        個體表達方式的差異: 個體之間對于意見的表達方式是存在差異的。當(dāng)一個人采用高聲調(diào)來表達自己的意見時,那么他的音頻特征中可能會包含大量的情緒分析和意見挖掘的線索,但這只適用于這個個體。有些人的情緒特征可能更多地表現(xiàn)在面部表情上,那么這就為模型的泛化能力提出了要求。

        應(yīng)對這些挑戰(zhàn),是基于一個基本的事實: 多模態(tài)數(shù)據(jù)融合增加了模型對結(jié)果預(yù)測的準(zhǔn)確性和可靠性[3]。在如何對多模態(tài)數(shù)據(jù)進行恰當(dāng)?shù)娜诤戏矫?,產(chǎn)生了很多具有代表性的工作。由于研究者們收集數(shù)據(jù)的方式多種多樣,數(shù)據(jù)的形式也有很多種類,所以應(yīng)該考慮不同層次的多模態(tài)融合。按多模態(tài)融合與各模態(tài)建模的先后關(guān)系不同,多模態(tài)融合分為早期融合、晚期融合和混合融合。此外還有一種“模型級融合”,由研究者自己設(shè)計融合的過程。其實早在1971年Kettenring[4]就已經(jīng)采用典型關(guān)聯(lián)分析的方法對具有相關(guān)性的多模態(tài)數(shù)據(jù)進行分析。但目前,研究人員最傾向使用的融合方法依舊是單一的晚期(決策級)融合[2]。這雖然行之有效,但這些工作大多不會兼顧模態(tài)的自身內(nèi)部以及模態(tài)之間的相互作用。之前的多模態(tài)工作普遍基于一個假設(shè): 多模態(tài)數(shù)據(jù)的信息是均勻的,而現(xiàn)實世界中的各模態(tài)的數(shù)據(jù)往往是混亂的,每條數(shù)據(jù)中各模態(tài)的信息量也存在很大的差異。人們在表達自己的觀點和意見的時候,可能會采用反語、隱喻等方式。此時的文本信息可能反而對于情緒預(yù)測起到反作用,而音頻中的語音語調(diào)、視覺信號中的表情神態(tài)等信息的融合則對于預(yù)測更有幫助。在情感情緒分析任務(wù)中,對于每一條多模態(tài)的數(shù)據(jù)而言,各模態(tài)對于結(jié)果預(yù)測所起的作用是隨數(shù)據(jù)的不同而動態(tài)變化的。這就使得以往的單一的模態(tài)融合方式無法起到理想的作用。

        本文設(shè)計了一種動態(tài)的異質(zhì)融合方式,同時具備多種不同的特征融合方式。并且為各個異質(zhì)融合模塊設(shè)計了一種動態(tài)權(quán)重因子,挖掘各模態(tài)融合中特征對于預(yù)測結(jié)果的重要程度,自適應(yīng)地調(diào)整適合當(dāng)前數(shù)據(jù)集的模態(tài)交互方式。從而在多模態(tài)融合過程中獲取到更加魯棒的模態(tài)間的一致性特征,并且使得各模態(tài)的融合過程更加具有可解釋性。與此同時,本文受到Y(jié)u等人工作[5]的啟發(fā),又采用自監(jiān)督學(xué)習(xí)對每個模態(tài)進行自監(jiān)督訓(xùn)練以獲得各模態(tài)的自身的差異化特征。最后,將以上的模型作為子任務(wù),基于多任務(wù)學(xué)習(xí)的框架,聯(lián)合訓(xùn)練各個子任務(wù)從而使得模型學(xué)習(xí)到模態(tài)之間的一致性特征和差異化特征。本文在CMU-MOSI[12]及CMU-MOSEI[13]數(shù)據(jù)集上對模型進行了測試,得到了較為理想的實驗結(jié)果,其性能指標(biāo)超過了大多數(shù)基線模型。

        1 相關(guān)工作

        在這一節(jié)中,主要介紹基于多模態(tài)融合的情緒分析、自監(jiān)督學(xué)習(xí)、多任務(wù)學(xué)習(xí)這三個領(lǐng)域的相關(guān)工作,并闡述我們從中受到的啟發(fā)。

        1.1 基于多模態(tài)融合的情緒分析

        利用計算機手段進行情緒情感分析的工作,可以追溯到Picard等人[6]于1995年的研究。Picard首次在此工作中提出了“情感計算”的概念,旨在使得計算機擁有類似于人類的觀察、理解、生成情感特征的能力,并最終實現(xiàn)真正意義上的人機交互。而情緒分析又是情感計算中的一個子任務(wù),在當(dāng)今社會背景下有著廣泛的應(yīng)用。而隨著人工智能技術(shù)、大數(shù)據(jù)技術(shù)等的高速發(fā)展,結(jié)合這些技術(shù)的情緒分析工作,無論從技術(shù)進步還是實際應(yīng)用角度都是當(dāng)前計算機科學(xué)研究中的一個熱門方向。

        Poria等人[7]于2017的工作中,通過對單個模態(tài)的情緒識別方法進行大量討論之后,又在相同的數(shù)據(jù)集上進行了多模態(tài)融合方法的研究,并將單模態(tài)方法與之進行了充分的對比。由此驗證了恰當(dāng)?shù)哪B(tài)融合,大幅度地提升了情緒識別系統(tǒng)的性能。

        早期的多模態(tài)融合工作多數(shù)以早期融合的方式為主,早期融合是特征級的模態(tài)融合策略,對多個模態(tài)的數(shù)據(jù)進行一系列的特征提取及構(gòu)造之后進行融合。其融合方式較為直觀,而且可以最大程度地保留模態(tài)自身的信息,所以至今也依舊有廣泛的應(yīng)用。早期的融合工作,例如Emerich于2009年發(fā)表的工作[8]中將語音與面部表情的特征在歸一化之后進行拼接,從而構(gòu)造出一個新的特征向量。實驗表明,兩種模態(tài)融合使得系統(tǒng)的性能和魯棒性得到了提高,但由于這種簡單的融合方式易使特征空間維度隨著模態(tài)增多而過度提高,導(dǎo)致性能下降。之后也存在一些通過降維手段來試圖解決特征空間維度過高的工作,但是效果并不十分的理想。2014年Google 公司的Mnih等人設(shè)計了注意力機制[10],這為本文的多模態(tài)融合提供了新思路。Tsai等人[9]結(jié)合Transformer提出了一種跨模態(tài)的Transformer,使得模型可以學(xué)習(xí)到模態(tài)間的注意力,以此調(diào)整模態(tài)融合的過程,并且使得這個過程更具有可解釋性。

        而另一種常見的融合方式為晚期融合,其思想是: 學(xué)習(xí)到各模態(tài)的權(quán)重、可信度,從而進行決策和協(xié)調(diào)。在保證性能優(yōu)于單模態(tài)方法的前提下,晚期融合的過程更容易進行,且比起早期融合可以更好地保留模態(tài)之間的差異性,但也因此比早期融合更容易丟失模態(tài)之間的相關(guān)性。例如,Zadeh等人于2017年提出的TFN(Tensor Fusion Network)[11]模型可以從各模態(tài)學(xué)習(xí)到模態(tài)之間的相互聯(lián)系,從而進行模態(tài)的晚期融合決策。

        美國卡內(nèi)基梅隆大學(xué)的Zadeh團隊發(fā)布了CMU-MOSI[12]和CMU-MOSEI[13]情緒分析數(shù)據(jù)集,并且在此之上進行了大量的工作。

        受到Zadeh等人提出的TFN模型的啟發(fā),我們認(rèn)為這種多層次的模態(tài)融合方式可以更加完整地捕捉到模態(tài)間的相互作用。但是,對于不同的任務(wù)來說,各模態(tài)的信息對于結(jié)果預(yù)測的重要程度是不同的,模態(tài)的信息有強弱之分[27],弱模態(tài)在擁有少量關(guān)鍵特征的同時,還可能存在大量無用的噪聲。而且,數(shù)據(jù)中各模態(tài)信息的重要性也是動態(tài)變化的。以往的多層次融合方式并不具備這種動態(tài)的調(diào)整能力。基于這樣的想法,本文設(shè)計了一種動態(tài)的異質(zhì)融合網(wǎng)絡(luò)。通過可訓(xùn)練的權(quán)重因子單元,調(diào)節(jié)各種層次的融合過程的權(quán)重,從而實現(xiàn)更加有效的模態(tài)融合,同時還可以使得模型的融合過程更加具有可解釋性。

        1.2 自監(jiān)督學(xué)習(xí)

        傳統(tǒng)的分類方法,都需要大量的標(biāo)注數(shù)據(jù)來進行訓(xùn)練,但是帶有標(biāo)注的數(shù)據(jù)通常難以獲取[14]。訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中也需要大量的標(biāo)注數(shù)據(jù)[15]。如果標(biāo)注數(shù)據(jù)的數(shù)量過少,模型就容易在訓(xùn)練數(shù)據(jù)上過擬合,嚴(yán)重影響預(yù)測結(jié)果的準(zhǔn)確性。在這種前提下,通常會嘗試采用半監(jiān)督或者弱監(jiān)督的方法。自監(jiān)督方法是半監(jiān)督方法的一個子集,自監(jiān)督方法通常應(yīng)用于: 在不使用任何人標(biāo)注數(shù)據(jù)的情況下,從大規(guī)模未標(biāo)注數(shù)據(jù)中學(xué)習(xí)到數(shù)據(jù)的特征。在Qiu L等人2009年發(fā)表的工作中[17],基于情緒詞典并結(jié)合簡單的自監(jiān)督學(xué)習(xí)方法,進行了情緒分類工作,對比基線模型取得了顯著的性能提升。預(yù)訓(xùn)練模型也是自監(jiān)督學(xué)習(xí)的應(yīng)用之一,自2018起,Devlin等人基于Transformer提出了BERT[16]這種強大的NLP預(yù)訓(xùn)練模型,在多種NLP任務(wù)上取得了顯著的效果。BERT的出現(xiàn)也使得基于文本的情緒分析工作取得了新的進展,Lan等人[18]在BERT的基礎(chǔ)上,利用自監(jiān)督學(xué)習(xí)的損失優(yōu)化了針對文本的連續(xù)性的建模能力,并在Stanford Sentiment Treebank數(shù)據(jù)集上進行了驗證,取得了較好的效果。

        以往的自監(jiān)督學(xué)習(xí)的情緒分析方法,通常僅僅利用了單個文本模態(tài)的信息。但是現(xiàn)實世界中,對于情緒的預(yù)測,會利用多種來源的信息,包括不限于: 人物的神態(tài)、表情、動作、說話的音調(diào)等。雖然在機器人控制領(lǐng)域已經(jīng)有一些多模態(tài)的自監(jiān)督學(xué)習(xí)方法,但是在情緒分析領(lǐng)域還較少出現(xiàn)。本文利用Yu等人[5]設(shè)計的自監(jiān)督學(xué)習(xí)方法學(xué)習(xí)每個模態(tài)的表示,再結(jié)合本文提出的動態(tài)異質(zhì)融合網(wǎng)絡(luò),從多模態(tài)數(shù)據(jù)中捕捉到了更多的關(guān)鍵特征,從而加強了模型的性能。

        1.3 多任務(wù)學(xué)習(xí)

        人類可以在學(xué)習(xí)過程中同時學(xué)習(xí)多個任務(wù),并且能夠使用在特定任務(wù)中學(xué)到的知識來幫助學(xué)習(xí)其他任務(wù)。受到這種人類學(xué)習(xí)能力的啟發(fā),多任務(wù)學(xué)習(xí)(MTL)旨在: 通過利用不同任務(wù)中學(xué)習(xí)到的知識來改善整體的泛化性能[20]。相比于學(xué)習(xí)單個任務(wù),多任務(wù)學(xué)習(xí)在訓(xùn)練過程中存在兩個重要的問題: 首先,研究者應(yīng)該如何共享不同任務(wù)的神經(jīng)網(wǎng)絡(luò)的參數(shù),目前主要有軟共享和硬共享這兩種方法。其次是采用怎樣的策略來平衡多個任務(wù)的學(xué)習(xí)過程。國內(nèi)在多任務(wù)的情緒分析領(lǐng)域,尤其是結(jié)合了多模態(tài)的研究工作,在近幾年也呈現(xiàn)出發(fā)展態(tài)勢。吳良慶等人[21]提出了一種多模態(tài)的多任務(wù)融合學(xué)習(xí)網(wǎng)絡(luò),將每個模態(tài)看作是一個子任務(wù),再通過共享子任務(wù)參數(shù)的方式進行融合。林子杰等人[22]將多任務(wù)學(xué)習(xí)方法應(yīng)用到預(yù)訓(xùn)練模型中,并采用硬共享策略訓(xùn)練多種模態(tài)的分類任務(wù),有效避免過擬合的風(fēng)險。

        當(dāng)前大部分的基于多任務(wù)學(xué)習(xí)的多模態(tài)方法,普遍只建立了單個模態(tài)的任務(wù),然后用多任務(wù)學(xué)習(xí)策略共享每個子任務(wù)的參數(shù)而實現(xiàn)。這種單一的架構(gòu),難以兼顧多模態(tài)信息中的一致性和差異性信息。本文采用多任務(wù)學(xué)習(xí)策略,連接了一個動態(tài)的異質(zhì)融合網(wǎng)絡(luò)的子任務(wù)與三個單模態(tài)自監(jiān)督子任務(wù),通過異質(zhì)融合方式學(xué)習(xí)模態(tài)間的一致性特征,再利用三個單模態(tài)子任務(wù)學(xué)習(xí)模態(tài)自身的獨特特征,更好地實現(xiàn)了模態(tài)間的相互作用,使得模型在情緒預(yù)測任務(wù)中獲得了更高的性能。

        2 多任務(wù)多模態(tài)自監(jiān)督異質(zhì)動態(tài)融合網(wǎng)絡(luò)

        多模態(tài)學(xué)習(xí)不可避免地要進行多個模態(tài)的融合,以此建立模態(tài)之間的相互作用,從而使得增加模態(tài)之后,達到提高模型性能的目的。以往大多數(shù)的多模態(tài)融合工作,雖然取得了很多進展,但是對于不同的數(shù)據(jù)最適宜的模態(tài)融合方式也很可能是不同的。受到Zadeh等人的TFN(Tensor Fusion Network)模型[11]中層次化模態(tài)融合的啟發(fā),本文提出了一種異質(zhì)動態(tài)融合網(wǎng)絡(luò)(Heterogeneous Dynamic Fusion Network,HDFN)結(jié)構(gòu)。在對多個模態(tài)進行層次化融合的基礎(chǔ)上,還加入了可訓(xùn)練的動態(tài)權(quán)重調(diào)節(jié)因子。本文在多任務(wù)學(xué)習(xí)的框架中加入了HDFN后,不僅整體性能得到了提高,而且能更透明地實現(xiàn)模態(tài)的融合過程,便于了解模態(tài)之間如何進行相互作用,從而更清晰地了解到模態(tài)間相互作用的強弱關(guān)系。

        在本節(jié)中,主要介紹本文所提出的模型,稱之為多任務(wù)多模態(tài)自監(jiān)督異質(zhì)動態(tài)融合網(wǎng)絡(luò)(Multi-task Multimodal Self-Supervised Heterogeneous Dynamic Fusion Network,MM-SS-HDFN)。受到Y(jié)u等人的工作[5]的啟發(fā),本文也采用了三個單模態(tài)的子任務(wù)聯(lián)合一個采用HDFN結(jié)構(gòu)的多模態(tài)子任務(wù)的多任務(wù)學(xué)習(xí)架構(gòu),不僅實現(xiàn)了多模態(tài)融合過程的動態(tài)自適應(yīng)及自我調(diào)整,而且還通過多任務(wù)學(xué)習(xí)的方法,兼顧模態(tài)的差異性特征和一致性特征。在2.3節(jié)將介紹該模型的整體結(jié)構(gòu)。

        2.1 基本概念

        2.2 特征提取

        對于不同模態(tài)的數(shù)據(jù),應(yīng)該使用不同類型的特征提取方法。本文為三個模態(tài)(文本、聲音、圖像)的輸入數(shù)據(jù)(Xt,Xa,Xv)選擇了不同的特征提取方法,從而從數(shù)據(jù)中獲得相對最恰當(dāng)?shù)谋硎尽?/p>

        文本模態(tài): 對于文本模態(tài)的數(shù)據(jù)(Xt),本文采用當(dāng)今應(yīng)用最為廣泛的文本預(yù)訓(xùn)練模型BERT(Bidirectional Encoder Representation from Transformers)來進行編碼,從而獲得對應(yīng)的嵌入表示作為文本特征Ft,以此作為模型的文本模態(tài)的輸入。

        音頻、視頻模態(tài): 對于音頻和視頻模態(tài)的數(shù)據(jù),采用多模態(tài)開發(fā)工具包(CMU Multimodal SDK)[23]提供的特征作為輸入數(shù)據(jù)(Xa,Xv)。然后,利用長時期記憶網(wǎng)絡(luò)(LSTM,Long Short-Term Memory)提取其中的時序特征,從而獲得輸入到模型網(wǎng)絡(luò)中的特征向量Fa,F(xiàn)v。

        從各模態(tài)提取特征的過程如下:

        數(shù)據(jù)經(jīng)過特征提取過程之后,獲得了來自了三個模態(tài)的表示:Ft,F(xiàn)a,F(xiàn)v。

        2.3 模型整體結(jié)構(gòu)

        本文所提出的MM-SS-HDFN模型的整體結(jié)構(gòu)如圖1所示,其組成共分為以下兩個部分:

        圖1 多任務(wù)多模態(tài)自監(jiān)督異質(zhì)動態(tài)融合網(wǎng)絡(luò)整體架構(gòu)圖

        多模態(tài)異質(zhì)動態(tài)融合子任務(wù)模塊(HDFN):將各模態(tài)的特征同時作為輸入,進行動態(tài)的異質(zhì)融合,從而使得模型可以學(xué)習(xí)到相對理想的多模態(tài)表示,然后通過分類器輸出該網(wǎng)絡(luò)的預(yù)測結(jié)果。本文將在2.3.1節(jié)詳細介紹這一模塊。

        單模態(tài)自監(jiān)督子任務(wù)模塊:每個模態(tài)的輸入都對應(yīng)一個獨立的自監(jiān)督學(xué)習(xí)模塊。它們彼此的結(jié)構(gòu)完全一致,僅僅是輸入的數(shù)據(jù)的模態(tài)不同。每個子任務(wù)模塊都會采用自監(jiān)督學(xué)習(xí)的策略生成一個預(yù)測結(jié)果。此部分的算法主要基于Yu等人設(shè)計的單模態(tài)標(biāo)簽生成模塊(ULGM, Unimodal Label Generation Module)[5],公式詳見2.3.2節(jié)。

        最后,本文利用多任務(wù)學(xué)習(xí)的方法,將這些子任務(wù)聯(lián)結(jié)起來。利用硬共享(hard-sharing)的策略共享模型的參數(shù),并且采用了一種權(quán)重調(diào)整的算法平衡子任務(wù)的輸出。本文將在2.3.3節(jié)給出多任務(wù)學(xué)習(xí)的目標(biāo)函數(shù)。

        接下來本文將從多模態(tài)異質(zhì)動態(tài)融合網(wǎng)絡(luò)、單模態(tài)自監(jiān)督網(wǎng)絡(luò)、多任務(wù)學(xué)習(xí)目標(biāo)函數(shù)這三個方面進行具體的介紹。

        2.3.1 多模態(tài)異質(zhì)動態(tài)融合網(wǎng)絡(luò)

        多模態(tài)異質(zhì)動態(tài)融合網(wǎng)絡(luò)用于進行多模態(tài)子任務(wù)的訓(xùn)練。該多模態(tài)情緒分析模型受到了TFN模型[11]、吳良慶等人[21]的多模態(tài)情緒識別方法的啟發(fā),采用層次化的結(jié)構(gòu)進行多模態(tài)的融合,分別學(xué)習(xí)單模態(tài)、雙模態(tài)、三模態(tài)的表示。這是一種異質(zhì)的融合方式,本文采用這種差異化的異質(zhì)融合方式的原因在于: 不同模態(tài)的信息對于本任務(wù)預(yù)測結(jié)果的幫助是不一致的,甚至有些時候某個模態(tài)的信息對于當(dāng)前任務(wù)的結(jié)果預(yù)測甚至是噪聲和干擾,故而采用了這種異質(zhì)的模態(tài)融合方法,這使得HDFN模型在充分結(jié)合三種模態(tài)之間聯(lián)系的前提下,更加充分地差異化地利用模態(tài)內(nèi)部的信息。此模塊分為以下幾個結(jié)構(gòu): 多模態(tài)特征輸入層、HDFN模塊、特征(融合后)表示層、分類器層。下面將依次進行詳細介紹。

        多模態(tài)特征輸入層:原始數(shù)據(jù)通過特征提取網(wǎng)絡(luò)之后,已經(jīng)提取到了三個模態(tài)的表示(Ft,F(xiàn)a,F(xiàn)v),無須進行進一步的處理,可直接輸入到HDFN模塊,用于特征融合。

        HDFN模塊:從各模態(tài)學(xué)習(xí)到的表示,首先在此處需要進行層次化的異質(zhì)重組,模型的結(jié)構(gòu)如圖2所示。對于M種模態(tài)的數(shù)據(jù),就一共需要進行M個層次的異質(zhì)融合。

        圖2 多模態(tài)異質(zhì)動態(tài)融合網(wǎng)絡(luò)(HDFN)架構(gòu)圖

        本文采用的數(shù)據(jù)有三種模態(tài),所以一共有三個級別的融合: 單模態(tài)級、雙模態(tài)級、三模態(tài)級,其公式分別如式(1)~式(3)所示:

        單模態(tài):

        (1)

        雙模態(tài):

        (2)

        三模態(tài):

        (3)

        由此,分別得到了三種層次的模態(tài)融合表示,其中單模態(tài)因為不需要融合,所以直接用作單模態(tài)級的表示(Funi)。雙模態(tài)級的表示(Fbi)是單個模態(tài)的表示的兩兩組合,而三模態(tài)級的表示(Ftri)是三個模態(tài)的表示的組合。按照多模態(tài)表示學(xué)習(xí)的理論,每一種模態(tài)的特征表示Fm,都屬于其自身的語義空間Sm。從數(shù)學(xué)意義上講,多模態(tài)的特征空間可以映射到一個包含全部模態(tài)特征的空間SM中,且多模態(tài)的特征空間必然會存在共享語義空間Sshare。為了更好地學(xué)習(xí)到多模態(tài)表示的聯(lián)合分布,可以采用任意一種神經(jīng)網(wǎng)絡(luò)f(·)(本文此處選擇了多層感知機)將多模態(tài)表示從高維空間映射到一個低維空間,從而獲得模態(tài)間的互信息。按照常規(guī)的多模態(tài)融合,只需要對[Ft;Fa;Fv]進行降維,從而學(xué)習(xí)到多模態(tài)融合特征在低維空間的表示。譬如:hf=ReLU(f([Ft;Fa;Fv]))。但由于對最終的輸出起著決定性作用的特征表示并非只有三個模態(tài)的共享語義特征,我們也應(yīng)注意到每個模態(tài)的差異性特征對于結(jié)果預(yù)測的作用。而且從Zadeh等人的實驗[11]中可以看出,在融合的過程中,可能出現(xiàn)某些模態(tài)的特征對最終預(yù)測的影響很大,而其他模態(tài)對于預(yù)測的影響很小,甚至是噪聲的情況。所以本文采用了分層次的模態(tài)融合方式,如式(4)~式(6)所示。

        理想狀態(tài)下,可以通過這種多重的融合方式學(xué)習(xí)到最佳的融合方式,使得所獲得的融合特征的表示更符合當(dāng)前數(shù)據(jù)的特點。實際上,即使是對于同一來源的多模態(tài)的數(shù)據(jù)集,其最適宜的模態(tài)融合方式也是動態(tài)變化的。為了應(yīng)對這樣的情況,本文設(shè)計了一種動態(tài)調(diào)整結(jié)構(gòu),命名為Γ-單元,用來動態(tài)地調(diào)整各融合方式的權(quán)重,從而使得融合的性能更佳。本文為HDFN中的每一層級的每種異質(zhì)融合子模塊設(shè)計了一個可訓(xùn)練的Γ-單元。每個Γ-單元由一個MLP構(gòu)成,最后通過一個ReLU激活函數(shù)對其進行歸一化,將輸出的權(quán)值范圍限定到0~1的值域區(qū)間。通過Γ-單元生成的γ-因子就可以使得模型捕捉到每一種異質(zhì)融合方式對于最終結(jié)果預(yù)測的重要程度,以此作為各種異質(zhì)融合方式的權(quán)重,從而動態(tài)地調(diào)整融合過程。這就是本文設(shè)計的Γ-單元的基本原理,計算如式(7)~式(8)所示。

        其中fh表示任意一種的異質(zhì)融合形式,而Ffh表示每一種異質(zhì)融合的特征表示,即:

        綜上所述,由于式(4)~式(6)不具備自我調(diào)節(jié)的能力,且過程不可見。這使得模型無法根據(jù)實際需要有所側(cè)重地去捕捉模態(tài)融合后的特征。所以,我們采用Γ-單元對其進行了改進,如式(9)~式(11)所示。

        (12)

        特征表示層: 將獲得的多模態(tài)融合特征的表示hf通過一個線性層將異質(zhì)融合表示投影到低維空間,如(13)所示。

        (13)

        (14)

        2.3.2 單模態(tài)自監(jiān)督網(wǎng)絡(luò)

        單模態(tài)自監(jiān)督網(wǎng)絡(luò)用于處理三個單模態(tài)的子任務(wù),它們將在訓(xùn)練的過程中與多模態(tài)融合網(wǎng)絡(luò)共享模態(tài)特征的表示,其基本架構(gòu)如圖1中的上半框所示。由于不同的模態(tài)之間存在著維度的差異,不利于計算,所以將輸入的模態(tài)表示Fm投影到一個新的特征空間中,如(15)所示。

        (15)

        其中,m∈{t,a,v},也就是說Fm代表{Ft,Fa,Fv}與多模態(tài)融合網(wǎng)絡(luò)的輸入是一樣的。

        2.3.3 多任務(wù)學(xué)習(xí)目標(biāo)函數(shù)

        (18)

        3 實驗與分析

        本節(jié)包括以下四個部分: 實驗使用的數(shù)據(jù)集、對比實驗的基線模型、實驗設(shè)置、各模型的實驗結(jié)果并分析MM-SS-HDFN模型與基線模型在性能上的差異、消融實驗及分析。

        3.1 實驗數(shù)據(jù)

        本文采用的實驗數(shù)據(jù)是美國卡內(nèi)基梅隆大學(xué)的Zadeh等人發(fā)布的CMU-MOSI數(shù)據(jù)集[12],及CMU-MOSEI數(shù)據(jù)集[13]。MOSI數(shù)據(jù)集發(fā)布于2016年,MOSEI數(shù)據(jù)集發(fā)布于2018年。它們都是利用社交媒體數(shù)據(jù)得到的多模態(tài)情緒情感分析數(shù)據(jù)集。MOSI包括了從93個Youtube的視頻中獲取的2 199個獨白類型的短視頻片段。MOSEI則包括了來自5 000個視頻的23 453個視頻片段。數(shù)據(jù)的標(biāo)注由人工完成,視頻的標(biāo)注即為情緒的評分,分?jǐn)?shù)的值為從-3到+3的七個等級,其中負值代表消極情緒,正值代表積極情緒,0分代表無情緒。在實驗過程中,為保證結(jié)果的公平性,本文對MOSI按照6:1:3的比例劃分訓(xùn)練集、驗證集、測試集,對MOSEI按7:1:2的比例進行劃分,具體的統(tǒng)計信息如表1所示。

        表1 數(shù)據(jù)集的統(tǒng)計信息

        3.2 對比基線模型

        為了驗證MM-SS-HDFN模型的性能,本文將其與主流的多模態(tài)情緒分析的基線模型進行了對比。下面將對本文采用的基線模型進行簡單的介紹。

        EF-LSTM(Early-Fusion LSTM): 采用了早期融合的LSTM模型。在對模態(tài)特征進行編碼之前,對各模態(tài)的特征向量進行拼接,將拼接后的特征向量作為LSTM的輸入。

        LF-LSTM(Late-Fusion LSTM): 晚期融合的LSTM模型。分別為每個模態(tài)設(shè)計一個LSTM網(wǎng)絡(luò),以此對各模態(tài)的特征進行編碼,并對這幾個LSTM的最后一個隱藏層所輸出的隱向量進行拼接,作為多模態(tài)的特征表示,再通過分類器進行輸出。

        MTL(Multi-Task Learning)[22]: 這是一種基于多任務(wù)學(xué)習(xí)的情緒識別模型。引入了單模態(tài)的情緒識別子任務(wù)與多模態(tài)任務(wù)進行共同訓(xùn)練,通過共享層連接各個子任務(wù)的模型結(jié)構(gòu),可以更好地捕捉模態(tài)中的情緒傾向的特征。根據(jù)文中的實驗結(jié)果,采用MM-BERT-Linear的共享層策略時取得的效果最佳,本文也將采用這個結(jié)果與MM-SS-HDFN模型進行對比。

        MFN(Memory Fusion Network)[24]: 該模型由Zadeh等人于2018年提出,用于存在時序關(guān)系的多模態(tài)任務(wù)。利用門控結(jié)構(gòu)隨時間的順序存儲匯總跨模態(tài)的模態(tài)交互信息,從而對各模態(tài)的融合進行持續(xù)的建模并實現(xiàn)跨模態(tài)的交互。

        TFN(Tensor Fusion Network)[11]: 該模型由Zadeh等人于2017年提出。TFN模型通過建立多維的張量,并通過擴展各模態(tài)的特征向量的維度后,相互之間進行外積運算,從而使得模型整體捕獲了單模態(tài)、雙模態(tài)、三模態(tài)的相互作用。

        RAVEN(Recurrent Attended Variation Embedding Network)[25]: 這是一種基于注意力機制的模型,利用文本模態(tài)之外的模態(tài)特征調(diào)整文本模態(tài)的特征表示。該文指出了文本模態(tài)之外的信息對理解語義具有重要的作用。

        MulT(Multimodal Transformer)[26]: 這是一種多模態(tài)的Transformer模型,是一種對于傳統(tǒng)的Transformer的拓展。通過采用雙模態(tài)的跨模態(tài)注意力機制,它實現(xiàn)了跨模態(tài)的特征對齊。

        SS-MM(Self-Supervised Multi-task Multimodal)[5]: 該模型通過多任務(wù)學(xué)習(xí)策略,連接了多模態(tài)融合任務(wù)及三個單模態(tài)的自監(jiān)督任務(wù),使得模型可以同時兼顧模態(tài)間的一致性及差異性信息。

        3.3 實驗設(shè)置

        本文的MM-SS-HDFN模型是在Yu等人的Self-MM模型[5]的基礎(chǔ)上改進而來,在多模態(tài)融合的模型部分進行了改進和細化,增強了模型的整體性能和可解釋性。部分參數(shù)細節(jié)與Self-MM模型類似,由于多個模態(tài)融合后的特征空間維度非常高,所以本文采用了Adam優(yōu)化算法進行優(yōu)化。BERT采用了5e-5的初始學(xué)習(xí)率,其他部分采用1e-3的學(xué)習(xí)率。

        我們在CMU-MOSI和CMU-MOSEI數(shù)據(jù)集上對本文所提出的模型及各基線模型進行了情緒分析實驗。由于情緒標(biāo)簽有-3~+3共七個值,本文的實驗以區(qū)分消極情緒和積極情緒(即情緒極性預(yù)測)為主要任務(wù)。對于情緒分類任務(wù),將y<0的數(shù)據(jù)標(biāo)記為消極情緒,將y>0的數(shù)據(jù)標(biāo)記為積極情緒,不對0值的數(shù)據(jù)進行評價。對于情緒回歸任務(wù)選用MAE(平均絕對誤差,Mean Absolute Error)和皮爾遜相關(guān)系數(shù)(Pearson Correlation,Corr)作為評價指標(biāo),并利用二分類準(zhǔn)確率(Acc-2)和F1值作為分類性能的評價指標(biāo)。

        3.4 實驗結(jié)果與分析

        在這一節(jié),先將本文的模型與基線模型的性能進行了對比和分析,之后進行了消融試驗,以驗證本文所提出的模型設(shè)計的合理性。

        3.4.1 與基線模型的對比及分析

        在表2上,分別展示了各模型在CMU-MOSI和CMU-MOSEI數(shù)據(jù)集上的情緒分析性能??梢钥吹?,本文的MM-SS-HDFN模型在兩個數(shù)據(jù)集上的分類性能均領(lǐng)先于當(dāng)前的模型,且在MOSEI上的回歸性能表現(xiàn)也領(lǐng)先其他模型,但MOSI數(shù)據(jù)集上的回歸表現(xiàn)卻并非最佳。我們認(rèn)為,這是由于MOSEI的數(shù)據(jù)數(shù)目遠超MOSI,使得測試實驗更加穩(wěn)定造成的,也就是說模型在MOSEI上的表現(xiàn)可能更具有代表性和普適性。

        表2 在各數(shù)據(jù)集上各模型的實驗結(jié)果

        首先,通過TFN及MFN這兩種經(jīng)典的多模態(tài)情緒預(yù)測模型的實驗結(jié)果,可以觀察到對文本模態(tài)采用BERT對文本模態(tài)進行處理可以顯著地提升各性能指標(biāo)。這說明,即便是在多模態(tài)的研究工作中,使用單個模態(tài)的預(yù)訓(xùn)練模型也對提升多模態(tài)模型的整體性能是很有幫助的。將BERT加入到多模態(tài)融合模型后,模型的性能提升,意味著預(yù)訓(xùn)練的過程有利于模態(tài)之間的融合,使得模型更容易捕捉到關(guān)鍵特征。而TFN模型屬于與本文的HDFN類似的層次化融合模型,受BERT提升較為明顯啟發(fā),本文也對文本模態(tài)進行了BERT的預(yù)訓(xùn)練。

        通過與EF-LSTM、LF-LSTM、TFN、RAVEN等模型的對比可以顯而易見地看出: 由于本文的模型采取了混合融合的策略,相比于單純的早期融合或者晚期融合,混合融合的策略可以從數(shù)據(jù)中學(xué)習(xí)到更豐富的信息,從而使得整體的性能遠高于傳統(tǒng)的單一融合策略的方法。而相比于MTL這種純粹的多任務(wù)多模態(tài)的模型,本文的方法在回歸性能上存在一定劣勢,但分類的性能明顯優(yōu)于MTL。這說明MTL模型雖然針對情緒強弱的區(qū)分任務(wù)誤差較小,但是捕捉情緒的極性特征的能力弱于MM-SS-HDFN。本文的MM-SS-HDFN模型在回歸性能上略高于SELF-MM模型,兩個模型在回歸性能上的表現(xiàn)基本一致,而在分類性能上MM-SS-HDFN表現(xiàn)得更有優(yōu)勢??傮w來看,MM-SS-HDFN在所有的模型中具有最好的分類性能,擁有較為可靠的捕捉情緒的極性特征的能力,在回歸指標(biāo)上也僅次于MTL模型,但情緒分類是本文的主要目標(biāo),且MM-SS-HDFN的分類性能明顯優(yōu)于MTL模型,在很大程度上具有較大的優(yōu)勢。

        值得注意的是,通常而言對多個模態(tài)的信息進行對齊(align)是有利于模型性能的提升的。但本文沒有采用對齊的數(shù)據(jù),我們將在后續(xù)的工作中結(jié)合模態(tài)對齊的工作對模型做進一步改進。

        綜上所述,可以看到,MM-SS-HDFN在兩個數(shù)據(jù)集上的表現(xiàn)均較為突出。這說明,結(jié)合了多任務(wù)和自監(jiān)督方法的多模態(tài)融合,比傳統(tǒng)的多模態(tài)融合擁有更大優(yōu)勢。通過多任務(wù)學(xué)習(xí)的策略引入的自監(jiān)督模型捕捉到了更多的特征,從而提升了模型整體的性能。

        3.4.2 消融實驗

        為了探索本文提出的HDFN(異質(zhì)動態(tài)融合網(wǎng)絡(luò))在模型整體中的貢獻,以及每個異質(zhì)融合結(jié)構(gòu)對訓(xùn)練結(jié)果的影響,在兩種數(shù)據(jù)集上進行了兩組不同的消融實驗,分別為:

        模型整體消融試驗: 本組實驗中分別設(shè)置了無Γ-單元的異質(zhì)融合網(wǎng)絡(luò)、帶有Γ-單元的三模態(tài)動態(tài)融合網(wǎng)絡(luò)(去掉了異質(zhì)融合)來取代原模型中的HDFN網(wǎng)絡(luò)進行消融實驗。同時,還設(shè)計了一個不包含HDFN的多模態(tài)多任務(wù)模型,來檢驗HDFN對于整體性能的提升。實驗結(jié)果如表3所示。其中減號“-”表示在這組實驗中刪掉的模型結(jié)構(gòu)。

        表3 模型整體消融實驗的結(jié)果

        異質(zhì)融合消融實驗: 分別將HDFN中的各層次(單模態(tài)級-Uni,雙模態(tài)級-Bi,三模態(tài)級-Tri)的異質(zhì)融合結(jié)構(gòu)進行了不同程度的刪減,以此來探索各級的異質(zhì)融合結(jié)構(gòu)在多模態(tài)情緒預(yù)測中所起的作用,實驗結(jié)果如表4所示。其中,減號“-”表示在這組實驗中刪去的異質(zhì)融合結(jié)構(gòu)。

        表4 異質(zhì)融合消融實驗的結(jié)果

        續(xù)表

        由模型整體的消融實驗結(jié)果可以看出: 在去掉了模態(tài)動態(tài)異質(zhì)融合結(jié)構(gòu)之后,整體模型的性能出現(xiàn)了顯著下降。這說明本文設(shè)計的HDFN在情緒預(yù)測過程中,比單純的多任務(wù)自監(jiān)督學(xué)習(xí)方法捕捉到了更多有用的特征。而“-異質(zhì)融合”和“-Γ-單元”的模型在分類性能上比原模型在MOSI數(shù)據(jù)集上的性能下降程度較少,但失去了異質(zhì)融合方式的模型性能下降更加明顯。而失去了異質(zhì)融合方式的模型,在MOSEI數(shù)據(jù)集上性能下降更為明顯,但從基本規(guī)律上來看,與MOSI上的表現(xiàn)類似。這兩組實驗印證了: 異質(zhì)的融合方式對于情緒分類的性能影響更大。

        值得注意的是,將本文提出的MM-SS-HDFN模塊中各單元的γ因子去除之后,HDFN中僅保留了特征擴展的部分,失去了動態(tài)的自適應(yīng)調(diào)節(jié)能力。雖然此時的模型性能產(chǎn)生了一定程度的下降,但也并沒有超過SS-MM(自監(jiān)督的多任務(wù)多模態(tài))模型。而SS-MM模型與本文的工作在架構(gòu)上是相似的,差異主要體現(xiàn)在本文提出的HDFN模塊之中。這說明,僅依靠特征擴展并不能使模型性能提高,γ因子的調(diào)節(jié)作用與層次化的特征擴展共同作用才是提高模型性能的關(guān)鍵。我們還可以看出,它們在回歸性能上的差距不明顯。本文采用的動態(tài)異質(zhì)融合方式,更側(cè)重于加強模型捕捉情緒分類的極性特征的能力。

        本文進行的異質(zhì)融合結(jié)構(gòu)的消融實驗結(jié)果表明: 每一層級的異質(zhì)融合方式對于模型整體的重要性存在著一定差別,而且其中存在著較為復(fù)雜的相互作用。從消融實驗結(jié)果可以看出,模型在兩組不同的數(shù)據(jù)集上表現(xiàn)出了一些相似的特性(詳見表4)。在僅保留一種融合形式的情況下,根據(jù)“-UNI&TRI后的模型”在兩組不同的數(shù)據(jù)集上的實驗結(jié)果都可以看出: 只使用雙模態(tài)的融合方式,可以使得模型的性能得到最大程度的保留,與原模型性能差距不大。而從“-UNI&BI后的模型”在兩個數(shù)據(jù)集上的表現(xiàn)又可以注意到: 僅使用三模態(tài)拼接的簡單融合,是會導(dǎo)致性能明顯下降的,這是因為本文采用的Γ-單元對融合方式進行動態(tài)的權(quán)重調(diào)節(jié),受到權(quán)重因子的影響,必然使得特征信息衰減,使得模型性能大幅下降,此時權(quán)重因子產(chǎn)生了負面的效果,這也與實際情況是相符的。

        結(jié)合“-UNI”、“-BI”、“-TRI”這三組實驗結(jié)果還可以看出: 雙模態(tài)融合與三模態(tài)融合這二者缺少一方時,模型性能下降較大,這說明雙模態(tài)和三模態(tài)這兩種不同層次的融合方式之間,對于特征的捕捉存在著較強的互補作用。這也驗證了本文所提出的三種不同層次的異質(zhì)融合方式共存的必要性。

        而模型在兩個不同的數(shù)據(jù)集上的消融實驗結(jié)果存在一些共性的同時,也存在著一定的差異,這更加印證了: 不同數(shù)據(jù)的各模態(tài)信息對結(jié)果預(yù)測的權(quán)重是動態(tài)變化的。值得注意的是: HDFN結(jié)構(gòu)在刪減兩個結(jié)構(gòu)后(即: “-UNI&BI”、“-BI&TRI”、“-UNI&TRI”),比刪減一個結(jié)構(gòu)(即: “-UNI”、“-BI”、“-TRI”)的模型性能在MOSEI上的下降更明顯。而MOSEI的數(shù)據(jù)數(shù)目大概是MOSI的10倍,數(shù)據(jù)的各模態(tài)信息質(zhì)量存在差異的可能性更大。這意味著本文提出的HDFN模塊的各組成部分不是冗余的,其中的一些結(jié)構(gòu)在數(shù)據(jù)量足夠大的時候起著重要的作用。結(jié)合兩組“-Γ-單元”的消融實驗結(jié)果,更表明了本文利用權(quán)重調(diào)節(jié)因子對不同層次的融合單元起到了調(diào)節(jié)作用體現(xiàn)了本文提出的這種層次化的動態(tài)自適應(yīng)融合方式的存在價值。

        4 結(jié)論

        本文提出了一種層次化的異質(zhì)動態(tài)模態(tài)融合方法,該方法對多個模態(tài)進行層次化的異質(zhì)融合,并通過可訓(xùn)練的動態(tài)權(quán)重因子,根據(jù)具體的任務(wù)和數(shù)據(jù),動態(tài)地調(diào)節(jié)各種異質(zhì)融合方式的權(quán)重。這使得模型能夠從多種模態(tài)的信息中捕捉到最關(guān)鍵的特征信息,減少弱模態(tài)中與任務(wù)無關(guān)的特征信息對結(jié)果預(yù)測的干擾,通過調(diào)整權(quán)重的方式自動地為模型選擇出最佳的融合方式。實驗表明,將本文提出的方法加入到多任務(wù)學(xué)習(xí)的框架中之后,提高了模型整體的性能,在測試集上性能優(yōu)于主流基線模型。在消融實驗中,可以看到模態(tài)之間確實存在復(fù)雜的相互作用,不同的融合方式對于結(jié)果預(yù)測的重要程度也存在一定的差異。本文的模型使得各模態(tài)的融合過程更加具有可解釋性。

        在未來的工作中,我們將在捕捉各模態(tài)的差異性信息上做出改進,嘗試加入正則項及半監(jiān)督的方法,更好的處理弱模態(tài)的差異性信息,從而正確地區(qū)分弱模態(tài)中的有價值的信息及無用的噪聲,進一步提高模型的魯棒性和性能。

        猜你喜歡
        模態(tài)情緒特征
        如何表達“特征”
        不忠誠的四個特征
        小情緒
        小情緒
        小情緒
        抓住特征巧觀察
        國內(nèi)多模態(tài)教學(xué)研究回顧與展望
        基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
        情緒認(rèn)同
        由單個模態(tài)構(gòu)造對稱簡支梁的抗彎剛度
        計算物理(2014年2期)2014-03-11 17:01:39
        国产精品高清视亚洲乱码有限公司 | 中文字幕在线亚洲三区| 久久亚洲av熟女国产| 国产精品自线一区二区三区| 大又大又粗又硬又爽少妇毛片| 日本真人做爰免费视频120秒| 国产精品毛片无码| 丁香六月久久| 丝袜美腿诱惑区在线播放| 波多野结衣av一区二区全免费观看| 亚洲精品乱码8久久久久久日本| 公粗挺进了我的密道在线播放贝壳| 久久精品一区二区免费播放| 亚洲午夜无码久久yy6080| 国产精品不卡免费版在线观看| 人妻av有码中文字幕| 久久精品麻豆日日躁夜夜躁| 人妻少妇精品视中文字幕国语| 91国在线啪精品一区| 亚洲黄片高清在线观看| 日本a级黄片免费观看| 日本丰满少妇裸体自慰| 国产精品久久一区二区三区| 亚洲欧美中文v日韩v在线| 久久精品国产精品亚洲艾| 波多野结衣不打码视频| 毛片a级毛片免费观看| 国产免费一区二区三区在线观看| 久久久精品国产亚洲AV蜜| 久久夜色精品亚洲天堂| 亚洲国产果冻传媒av在线观看| 亚洲国产欧美日韩欧美特级| 欧美精品中文字幕亚洲专区| 精品亚洲乱码一区二区三区| av中文字幕在线直播| 人妻熟妇乱又伦精品视频| 国产午夜亚洲精品午夜鲁丝片| 在线a人片免费观看国产| 中文字幕亚洲一二三区| 国产av麻豆mag剧集| 2021av在线|