亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種改進型Dense-HRNet和基尼指數(shù)動態(tài)加權(quán)決策的表情識別算法*

        2022-12-07 03:32:32藍崢杰
        電訊技術(shù) 2022年11期
        關(guān)鍵詞:基尼支路分辨率

        藍崢杰,王 烈,黃 瑩

        (廣西大學 計算機與電子信息學院,南寧 530004)

        0 引 言

        人臉表情包含了豐富的情感信息,真實而自然地展現(xiàn)了人們心理活動和思想狀態(tài),深刻地影響著人們的日常交流。心理學研究者 Mehrabian 的成果顯示,在人類溝通的過程中,人臉表情、聲音、語言各占總信息量的 55%、38%和 7%[1]。由此可見,人臉表情傳遞的信息量非常豐富,超過了聲音和語言攜帶信息量的總合。

        人臉表情識別屬于細粒度圖像分類范疇,具有類內(nèi)差異性大、類間差異性小的特征。表情識別是一項具有挑戰(zhàn)性的工作,在多個數(shù)據(jù)集中表情識別的準確率并不高。當前人臉表情識別方法通??煞譃榛趥鹘y(tǒng)手工特征分類方法和基于深度學習方法兩類。隨著卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺領(lǐng)域取得的巨大成功,該技術(shù)逐漸被用于人臉表情識別任務(wù)[2]。

        在基于深度學習的方法中,較多的研究均聚焦于數(shù)據(jù)處理[3-4]、特征提取[5-7]、損失函數(shù)優(yōu)化[8-9]這三大主體,對其進行改進,不足之處在于:一是忽略了表情在不同分辨率特征圖中存在的細微差異,同時表情特征在不同層級的特征圖中缺乏傳遞與融合,降低了特征圖中的信息含量;二是多支路網(wǎng)絡(luò)Softmax輸出進行分類時多采用硬投票方式判定輸出類別,容易造成決策階段的不穩(wěn)定性。

        針對以上問題,本文對現(xiàn)有方法進行了改進與優(yōu)化,主要工作和貢獻如下:一是改進HRNet網(wǎng)絡(luò)結(jié)構(gòu)。引入HRNet高分辨率網(wǎng)絡(luò)對人臉表情進行多分辨率特征提取,加入 Dense連接機制改進HRNet中的基礎(chǔ)stage,在獲得更清晰特征圖的同時保留了更為豐富的細微表情細節(jié)特征。二是提出一種動態(tài)加權(quán)融合決策方法。在使用HRNet高中低三種分辨率支路分別進行Softmax分類后,根據(jù)輸出概率矩陣的基尼指數(shù)高低動態(tài)地分配輸出權(quán)重,自動提高分類確定性高、性能好的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)支路的融合權(quán)重值,降低分類性能差、確定性低的CNN支路的權(quán)重值,提高網(wǎng)絡(luò)分類準確率和魯棒性。

        1 改進型Dense-HRNet

        1.1 HRNet結(jié)構(gòu)

        高分辨率網(wǎng)絡(luò)[10](High-Resoultion Net,HRNet)由微軟亞洲研究院和中科大共同提出,其通過在高分辨率特征圖主網(wǎng)絡(luò)逐漸并行加入低分辨率特征圖子網(wǎng)絡(luò),讓不同分辨率特征進行多尺度融合,使得特征圖具有在整個過程中始終保持高分辨率的特點。該模型在圖像分類、語義分割和人體姿態(tài)估計等領(lǐng)域均取得了領(lǐng)先的性能。HRNet將傳統(tǒng)的特征提取網(wǎng)絡(luò)中高分辨率到低分辨率的輸出由串行連接改為并行連接,不同分辨率特征圖之間的融合采用上采樣和下采樣操作,通過此操作聚合了不同分辨率特征信息,過程如圖1所示。

        圖1 HRNet中不同分辨率特征的融合方式

        1.2 DenseBlock

        DenseBlock是DenseNet[11]的核心,其在網(wǎng)絡(luò)各層之間建立了前層與后面所有層的密集連接,使得每一層都會收到在它之前所有層的特征輸入。Dense連接方式如圖2所示,圖中虛線連接表示特征的傳遞,前后層之間的連接以Concat方式進行,此種連接方式通過特征的重復復用使得深層網(wǎng)絡(luò)中依然保留淺層網(wǎng)絡(luò)中的細微表情信息。

        圖2 Denses連接方式示意圖

        1.3 Dense-HRNet的實現(xiàn)

        由于表情分類類間的差異微小,需要更加關(guān)注圖像中微小但不可忽視的細微特征,以便獲取更加高清的局部細節(jié)信息,從而有助于網(wǎng)絡(luò)進行細粒度分類。本文選取 HRNet高分辨率網(wǎng)絡(luò)作為特征提取的基礎(chǔ)結(jié)構(gòu),實現(xiàn)對特征圖的高分辨率提取。

        在HRNet高分辨基礎(chǔ)上,引入了Dense連接對HRNet中的stage模塊進行改進。這是由于淺層特征圖包含豐富的細節(jié)信息,但缺乏語義信息,而深層特征圖則相反。Dense連接方式有助于將淺層、深層特征間的優(yōu)勢互補。稠密連接機制重復加強提取了各層特征,將多個層次的信息融合傳遞,使得網(wǎng)絡(luò)具有更加豐富的特征圖表示。

        1.3.1 單一分辨率的Dense-HRNet實現(xiàn)方式

        改進的單一分辨率支路的Dense-HRNet連接如圖3所示。

        圖3 改進的單分辨率Dense-HRNet連接方式

        若某分辨率支路的深度為l層,DenseBlock共建立l(l+1)/2 個連接,若第l層的非線性變換為Hl(x),輸出為xl,可以表示為

        xl=Hl([x0,x1,x2,…,xl-1]) 。

        (1)

        式中:[x0,x1,x2,…,xl-1]為通過通道拼接方式進行,使得網(wǎng)絡(luò)l層輸入中包含了(1,2,3,…,l-1) 層的所有輸出;Hl(x)代表的是非線性變換函數(shù)集合操作,包換批標準化、非線性激活函數(shù)PReLU、池化和卷積操作。

        1.3.2 多分辨率的Dense-HRNet實現(xiàn)方式

        依照Dense-HRNet單一分辨率分支實現(xiàn)方法,本文對高分辨率支路進行一次下采樣得到中分辨率支路;再對中分辨率支路進行一次下采樣,產(chǎn)生低分辨率支路;最后以并行連接的方式,構(gòu)建3個不同分辨率的CNN支路,提取3種不同分辨率的表情特征。網(wǎng)絡(luò)如圖4所示。

        圖4 多分辨率的Dense-HRNet實現(xiàn)方式

        圖4網(wǎng)絡(luò)中,DenseBlock增長率(Grouth_rate)為12,壓縮率(reduction)取0.5。DenseBlock間以過渡層(Transition Layer)相連,在過渡層中首先進行批歸一化操作,而后進行ReLU激活,再使用1×1卷積調(diào)整輸入輸出維度。

        以上為特征提取網(wǎng)絡(luò)的改進方法,結(jié)合了HRNet和DenseNet的主要思想。總體而言,改進的Dense-HRNet方式能帶來更清晰的表情特征表示,并且能保留足夠多的局部細節(jié)信息。

        圖4所述的Dense-HRNet多分辨率的網(wǎng)絡(luò)主要參數(shù)配置可通過掃描本文OSID碼查看。

        2 基尼指數(shù)動態(tài)加權(quán)決策

        2.1 傳統(tǒng)硬投票式融合決策中不確定性成因

        在多路信息決策分類中,通常綜合考慮各支路輸出的最大概率來判定所屬類別。若各支路計算得到的最大輸出概率指向同一類別且概率分值遠高于其他類別,此時融合決策置確定性高。然而,隨著識別難度變化,若某支路輸出概率值中多個類別的分值接近,則此支路分類區(qū)分度模糊,其分類結(jié)果確定性低,在融合決策時對其賦予過高的權(quán)重系數(shù)將影響分類結(jié)果。圖5為同一樣本輸入時,各CNN支路的輸出概率以及其確定性分析。

        圖5 某樣本CNN預測值與確定性示意圖

        圖5中,輸入圖片為FER2013數(shù)據(jù)集中類別為“中性”的表情圖,經(jīng)過3個不同的CNN支路Softmax輸出后得到的概率值標注在表情卡通圖上方。將以上CNN支路預測值表示為柱形圖,如圖6所示。

        圖6 當輸入某圖片時各支路輸出概率值對比

        由圖6可見,CNN1(綠色柱形圖)將樣本判定為“中性”的概率很高并且遠大于判定為其他類別的概率,此時CNN1判定結(jié)果與樣本標簽匹配,該CNN支路分類準確且確定性高;而CNN3(黃色柱形圖)中,“中性”“驚訝”“厭惡”三種類別的概率值都較低并且概率分值接近,導致CNN3對這些類別分類模糊且確定性不高,此時CNN3對樣本的分類性能較差。在圖5中各CNN支路的確定性排序為CNN1 > CNN2 > CNN3。

        2.2 多路融合決策常用的策略

        在多路融合決策中,較常用的是以多數(shù)投票(Majority Vote) 為代表的硬融合決策和以對數(shù)意見池(Logarithmic Opinion Pool) 為代表的軟決策融合策略。

        傳統(tǒng)的融合決策策略中,在計算投票策略時,采用平均分配多路分類器權(quán)重系數(shù)的原則,使得不同子分類器的輸出在最終決策中都具有相同的影響力,這種做法未能根據(jù)各分類支路的確定性進行區(qū)分,導致分類效果好的子分類器權(quán)重不足或分類效果差的分類器融合權(quán)重過高。融合權(quán)重,指在輸出概率矩陣中讓參與融合決策的各支路分配不同的重要性加權(quán)系數(shù)值,能使得網(wǎng)絡(luò)更加關(guān)注于某些分支的輸出結(jié)果。

        針對以上問題,Ren等人[12]通過在多路分類器融合決策中計算多尺度網(wǎng)絡(luò)的交叉熵,使用自適應(yīng)熵決定加權(quán)值,再進行融合決策,獲得了更優(yōu)的分類性能。本文在此基礎(chǔ)上,提出一種基于基尼指數(shù)的動態(tài)權(quán)重分配算法,能對不同確定性程度的CNN支路中施加不同的側(cè)重程度,自動提高分類性能好、確定性高的CNN支路的融合權(quán)重值,降低分類性能差、確定性低的CNN支路的權(quán)重值。

        2.3 基尼指數(shù)動態(tài)權(quán)重系數(shù)分配原理

        本文的特征提取網(wǎng)絡(luò)由HRNet的3路不同分辨率的CNN 組成,對于每張表情圖像由3路特征提取網(wǎng)絡(luò)和Softmax函數(shù)后得到輸出概率值,將其整合到一個矩陣中,可以得到輸出概率矩陣

        (2)

        在式(2)中,Pij(x)表示第i個子網(wǎng)絡(luò)的Softmax函數(shù)將輸入樣本判為屬于j類的概率。P(x)矩陣的p11(x)表示第一個支路的Softmax函數(shù)在所有分類類別中判定為第一類的概率,概率最大的列標即為某一支路的Softmax函數(shù)對該樣本的預測類別。在式(2)的矩陣每一行中,

        p11(x)+p12(x)+p13(x)…+p17(x)=1 。

        (3)

        若判定的最大類別i的概率p1i(x)遠大于其他任意類別的概率,此時網(wǎng)絡(luò)的確定性高;若與其他類別差距不大,則網(wǎng)絡(luò)確定性低,分類模糊。

        在信息論中,隨機變量不確定性度量可以用基尼指數(shù)來表示。在分類問題中,假設(shè)有K個類別,樣本點屬于第K類的概率為PK,則概率分布的基尼指數(shù)定義為

        (4)

        在人臉表情識別中,表情類別為7個,故公式(4)中取k=7。上式中,若某一子支路Softmax輸出的基尼指數(shù)值越大,其分類的不確定性就越高,則該CNN支路對輸入樣本的分類可信度較差,若其融合權(quán)重過高將會影響多路決策結(jié)果。

        2.4 權(quán)重系數(shù)分配過程

        本步驟根據(jù)網(wǎng)絡(luò)輸出的基尼指數(shù),自動為各支路分配權(quán)重。在分類任務(wù)中,使用Softmax分類可以將實數(shù)輸出映射到(0,1)區(qū)間內(nèi),并使得所有概率之和為1,其函數(shù)表達式為

        (5)

        Softmax函數(shù)加入了自然對數(shù)底數(shù)e的冪函數(shù),使其函數(shù)曲線呈指數(shù)函數(shù)特點。經(jīng)過Softmax處理后輸出的數(shù)值拉開距離,正樣本的結(jié)果將趨近于1,而負樣本的結(jié)果趨近于0,這有利于拉開樣本的分類差距。

        根據(jù)上述特性,本步驟借鑒Softmax的表達形式進行權(quán)重分配,根據(jù)式(4)的基尼指數(shù)輸出結(jié)果,將各支路的輸出兩極化:使得確定程度高的支路結(jié)果趨近于1,而確定性程度低的支路權(quán)重更趨近于0方向。權(quán)重計算方法具體如下:

        (6)

        式(6)實現(xiàn)了根據(jù)基尼指數(shù)的變化計算融合決策時的動態(tài)權(quán)重值。把該權(quán)重值乘以式(2)中的概率輸出,得到融合加權(quán)后的概率矩陣

        (7)

        式(7)為最終的概率輸出矩陣。最后借助argmax函數(shù)可求出輸出各個支路中Softmax得分最高的所屬分類。argmax函數(shù)的作用在于,在函數(shù)y=argmaxf(x)中,當函數(shù)值y取得最大值時,求出對應(yīng)的自變量參數(shù)x。由此函數(shù)可得最終融合決策所判定的輸出類別,函數(shù)表示為

        (8)

        式中:i為參與融合決策的單個CNN分類器支路;j為7種具體的表情類別;out輸出為融合決策判定的輸出表情類別。

        以上即為基尼指數(shù)動態(tài)加權(quán)融合算法的計算過程,本文根據(jù)輸出分類概率的基尼指數(shù)的不同,為各CNN支路分配更為合理的融合權(quán)重,緩解了由于概率值接近而造成的分類模糊問題。

        3 總體架構(gòu)

        本文提出的基于基尼指數(shù)動態(tài)加權(quán)(Gini-index Dynamic Weighted,GDW)決策的改進型Dense-HRNet網(wǎng)絡(luò)(簡寫為GDW Dense-HRNet)總體架構(gòu)如圖7所示,將圖像輸入大小設(shè)定為48×48,以減小HRNet網(wǎng)絡(luò)的計算代價。在特征提取部分,網(wǎng)絡(luò)主要用DenseBlock稠密連接的思想改進了HRNet中stage的連接方式;在輸出部分,將網(wǎng)絡(luò)的輸出方式改進為基尼指數(shù)動態(tài)加權(quán),三個不同分辨率的子網(wǎng)絡(luò)經(jīng)基尼指數(shù)動態(tài)加權(quán)融合決策后輸出最終分類結(jié)果。

        圖7 基尼指數(shù)動態(tài)加權(quán)決策的Dense-HRNet(GDW Dense-HRNet)總體架構(gòu)

        4 實驗與分析

        4.1 實驗環(huán)境

        實驗配置:處理器Intel Xeon Gold 6230,顯卡為NVIDIA Tesla P100,內(nèi)存為16 GB,操作系統(tǒng)為Ubuntu 16.04;深度學習框架為Pytorch,編程實驗均在Python 3.7環(huán)境下進行。

        訓練設(shè)置:batch_size為32,初始學習效率為0.01,30個epoch后每10個epoch衰減0.9倍。使用SGD模型優(yōu)化器,動量為0.9,權(quán)重衰減設(shè)置為0.001。

        4.2 實驗數(shù)據(jù)

        4.2.1 數(shù)據(jù)集

        CK+數(shù)據(jù)集[13]是人臉表情識別研究中較為常用的數(shù)據(jù)集,包含了來自123 名參與者的圖像序列593個,其中帶有標簽的表情序列327個,從每個序列中提取最后三個幀,共981 張。CK+實驗中除去了中性表情,最終的實驗數(shù)據(jù)包含高興、厭惡、害怕、生氣、傷心、驚訝、蔑視7種類別,數(shù)據(jù)分布如圖8所示。

        圖8 CK+數(shù)據(jù)集中各類別數(shù)據(jù)分布

        FER2013[14]數(shù)據(jù)集共包含35 888張人臉表情圖像。該數(shù)據(jù)集在互聯(lián)網(wǎng)上收集獲得,是Kaggle面部表情識別比賽提供的一個數(shù)據(jù)集。數(shù)據(jù)集中訓練樣本28 708張,公開測試樣本和隱私測試樣本各3 589張,圖像大小為48×48。共7種表情,分別與數(shù)字標簽0~6相對應(yīng):0代表生氣;1代表厭惡;2代表恐懼;3代表高興;4代表傷心;5代表驚訝;6代表中性。Fer2013數(shù)據(jù)集中存在較多的側(cè)臉人像、漫畫人像和復雜噪聲背景,是一個具有挑戰(zhàn)性的表情識別數(shù)據(jù)集。

        4.2.2 數(shù)據(jù)增強方式

        數(shù)據(jù)增強對于深度卷積神經(jīng)網(wǎng)絡(luò)訓練過程意義重大。為了提高模型在復雜背景下的泛化能力,本文在傳統(tǒng)的數(shù)據(jù)增強方法基礎(chǔ)上引入Gamma變換。Gamma變換是圖像灰度變化領(lǐng)域的一種非線性變化方法,能有效調(diào)整圖像灰度對比度,適用于調(diào)整CK+和FER2013數(shù)據(jù)集中表情的灰度值分布,其變換數(shù)學表達式為

        s=crγ。

        (9)

        式中:r為原始灰度圖像的輸入值,其取值范圍為[0,1];s為Gamma變換后的灰度輸出值;c為灰度系數(shù),通常為1;γ為調(diào)節(jié)因子。Gamma變換增強圖像中較暗區(qū)域的灰度,降低圖像中灰度值過大區(qū)域的灰度,經(jīng)過變換之后,表情圖像的細節(jié)特征將會增強。

        為了提高模型泛化能力,在訓練開始前,對CK+和FER2013數(shù)據(jù)集進行數(shù)據(jù)增強,先進行圖像水平翻轉(zhuǎn)、Gamma變換和隨機遮擋,使得數(shù)據(jù)量擴充至原始數(shù)據(jù)集的8倍。數(shù)據(jù)集的擴充有效地支持了模型的訓練。如圖9為對FER2013數(shù)據(jù)集的數(shù)據(jù)增強,在CK+數(shù)據(jù)集中的操作類似。

        圖9 在FER2013數(shù)據(jù)集進行數(shù)據(jù)增強

        4.3 實驗結(jié)果

        4.3.1 實驗1:改進的Dense連接方式有效性實驗

        實驗1對比3種特征提取網(wǎng)絡(luò)的分類效果:一是HRNet中不同分辨率的CNN支路輸出效果;二是用HRNet V2進行分類輸出;三是用稠密連接方式改進的Dense-HRNet融合輸出。實驗結(jié)果如表1所示。

        表1 改進的Dense連接方式有效性實驗結(jié)果

        表1中,“CNN1高分辨率”“CNN2中分辨率”為使用單一分辨率的支路直接進行Softmax輸出的結(jié)果,此時網(wǎng)絡(luò)分類性能較差,這是由于單支路網(wǎng)絡(luò)沒有融合其他分辨率支路的特征。在使用HRNet V2網(wǎng)絡(luò)進行分類時,由于輸出端融合了3種分辨率的輸出,網(wǎng)絡(luò)分類性能得到優(yōu)化,在FER2013中較單一分辨率支路有1.32%~2.25%的提升。表中最后一欄為引入DenseBlock稠密連接后的結(jié)果,可見Dense-HRNet較未經(jīng)改進的HRNet V2網(wǎng)絡(luò)有顯著而穩(wěn)定的提升,在CK+和FER2013中分別提升了2.04%和2.88%。這表明引入的密集連接方式有助于加強特征提取過程,使得分類效果更好。

        4.3.2 實驗2:基于基尼指數(shù)的動態(tài)加權(quán)決策有效性實驗

        在本組實驗中,對比傳統(tǒng)固定比例系數(shù)加權(quán)融合和本文動態(tài)加權(quán)決策(GDW)的實驗結(jié)果。在FER2013和CK+上分別設(shè)置5組對比實驗,Weight_CNN表示某一路CNN的權(quán)重系數(shù),按照權(quán)重系數(shù)的不同比例設(shè)置對照組,如Weight_CNN1∶Weight_CNN2∶Weight_CNN3=1∶1∶1表示平均權(quán)重系數(shù)分配,各支路權(quán)重各占1/3,其他對比組別按7∶2∶1等固定比例融合。實驗結(jié)果如表2所示。

        表2 基于基尼指數(shù)的動態(tài)加權(quán)決策有效性實驗結(jié)果

        從表2中可見,在固定比例的融合權(quán)重中,Weight_CNN1∶Weight_CNN2∶Weight_CNN3=1∶2∶7得到的結(jié)果最好,融合比例為7∶2∶1的實驗組融合結(jié)果最差;在FER2013數(shù)據(jù)集中,兩組準確率相差0.17%,而1∶1∶1的權(quán)重分組得到的結(jié)果較為均衡,這體現(xiàn)了對不同CNN分類器施加不同的權(quán)重值,將對結(jié)果產(chǎn)生直接影響。在使用GDW算法組中,輸出結(jié)果相對于固定比例融合中的最優(yōu)比例(1∶2∶7)上升了0.11%,比平均權(quán)重分配(1∶1∶1)實驗組上升了0.16%。由此可分析出,GDW算法有助于找到適合網(wǎng)絡(luò)權(quán)重分配的比例,將分類效果好的分類器施以某一具體的大權(quán)重,將分類性能不佳的網(wǎng)絡(luò)施以某個小的權(quán)重值,使得融合決策更加合理和穩(wěn)定。

        4.3.3 實驗3:本文各模塊的有效性實驗

        表3為本文各模塊在CK+和FER2013數(shù)據(jù)集中的表現(xiàn)。在總體的識別率上,使用稠密連接的Dense-HRNet比HRNet V2在CK+數(shù)據(jù)集上提升了1.02%,在FER2013上提升了2.88%;加入基尼指數(shù)動態(tài)加權(quán)后的 GDW-Dense-HRNet識別準確率比另外兩種方法有一定的提高,相對于Dense-HRNet,分別提升了1.68%(CK+)和1.25%(FER2013)。

        表3 在CK+數(shù)據(jù)集上本文各模塊的有效性實驗

        4.3.4 實驗4:本文方法與當前較新算法的對比

        為便于觀察本文方法的有效性,選取了最近發(fā)表的較新的算法,在上述兩個數(shù)據(jù)集進行最終結(jié)果對比,如表4所示。

        表4 本文方法與當前較新的算法對比

        如表4所示,本文算法識別率與當前較新的算法相比具有較好的競爭力。本文與Liu等人[19]提出的算法結(jié)果較為類似,取該算法進行對比分析可以發(fā)現(xiàn),在CK+數(shù)據(jù)集上本文算法準確率略低,但在FER2013數(shù)據(jù)集上本文取得了更好的識別準確率。出現(xiàn)這種情況的原因在于,F(xiàn)ER2013數(shù)據(jù)集相對于CK+含有較多嘈雜樣本,容易在類間產(chǎn)生分類模糊現(xiàn)象。本文所使用的高分辨率特征圖和多路融合決策能綜合3個支路的決策信息,在出現(xiàn)分類模糊的問題時能通過動態(tài)融合決策找到確定性高、分類效果好的支路做出網(wǎng)絡(luò)的重點輸出,降低了單一CNN網(wǎng)絡(luò)分類結(jié)果的不穩(wěn)定性,從而能在樣本嘈雜、噪聲干擾大的環(huán)境中,展現(xiàn)出比文獻[19]算法更好的識別效果。

        本文提出的DGW-Dense-HRNet在FER2013上的混淆矩陣如圖10(a)所示,在CK+數(shù)據(jù)集的混淆矩陣如圖10(b)所示。

        (a)本文方法在FER2013上的混淆矩陣

        (b)本文方法在CK+上的混淆矩陣圖10 混淆矩陣

        由圖10(a)可見,“害怕”“生氣”“厭惡”識別準確率僅60%左右,分類較為困難。這是由于數(shù)據(jù)集含有較多嘈雜樣本,存在側(cè)臉表情及模糊卡通表情,且上述3個類別間有較高的相似度,導致網(wǎng)絡(luò)出現(xiàn)分類混淆的現(xiàn)象。

        由圖10(b)可見,本文算法對于CK+中的“高興”“厭惡”“驚訝”3類表情的識別準確率高,均達到了100%。觀察數(shù)據(jù)集圖像可以發(fā)現(xiàn)此3種表情類間差異較大,且從數(shù)據(jù)分布圖可發(fā)現(xiàn)此3類樣本占比大,識別效果較為理想。由此可見在數(shù)據(jù)驅(qū)動的深度學習技術(shù)中,高質(zhì)量、數(shù)量大、標記準確的訓練樣本對于提高模型的訓練效果尤為重要。

        5 結(jié)束語

        本文針對人臉表情識別任務(wù)提出了一種改進型的特征提取網(wǎng)絡(luò)和加權(quán)融合決策算法。在特征提取階段,使用Dense連接機制加強HRNet高分辨率網(wǎng)絡(luò)的特征復用和傳遞過程,獲取了更高分辨率和更豐富的表情特征。在決策階段,根據(jù)各輸出支路的確定性,動態(tài)地賦予融合權(quán)重,解決了傳統(tǒng)的固定權(quán)重系數(shù)決策融合策略中分類效果好的子分類器權(quán)重不足而分類效果差的分類器權(quán)重過高的問題。通過增強高確定性支路的決策權(quán)重,抑制了不確定性,增強了多路決策的穩(wěn)定性。

        下一步將考慮對網(wǎng)絡(luò)進行輕量化設(shè)計,使用新型注意力機制加強對表情關(guān)鍵區(qū)域的識別,力求減少運算量的同時,在識別精度速率和識別速度上均有更大提升。

        猜你喜歡
        基尼支路分辨率
        Wimbledon Tennis
        基于限流可行方案邊界集的最優(yōu)支路投切
        能源工程(2020年6期)2021-01-26 00:55:22
        EM算法的參數(shù)分辨率
        原生VS最大那些混淆視聽的“分辨率”概念
        基于深度特征學習的圖像超分辨率重建
        自動化學報(2017年5期)2017-05-14 06:20:52
        卷入選戰(zhàn)的布基尼
        一種改進的基于邊緣加強超分辨率算法
        強制“脫衫”
        多支路兩跳PF協(xié)作系統(tǒng)的誤碼性能
        電信科學(2016年9期)2016-06-15 20:27:30
        利用支路參數(shù)的狀態(tài)估計法辨識拓撲錯誤
        亚洲av成人片色在线观看高潮| 精品国产乱来一区二区三区| 久久久久99精品成人片试看| 国产乱淫视频| 美女叉开双腿让男人插| 三个黑人插一个女的视频| 精品无码国产一区二区三区麻豆| 成人网站在线进入爽爽爽| 中文字幕熟妇人妻在线视频| 福利在线国产| 国产麻豆精品久久一二三| 亚洲国产色婷婷久久精品| 2018天天躁夜夜躁狠狠躁| 成人区人妻精品一区二区不卡网站| 国产尤物精品自在拍视频首页| 国产优质女主播在线观看| 亚洲性感毛片在线视频| 十四以下岁毛片带血a级| 日日躁夜夜躁狠狠躁超碰97| 国产高清天干天天视频| 亚洲黄色av一区二区三区| 亚洲av成人片色在线观看| 伊人色综合视频一区二区三区 | 国产2021精品视频免费播放| 亚洲一区二区三区一站| 国产三级不卡视频在线观看| 香蕉视频在线观看亚洲| 成年女人粗暴毛片免费观看| 日韩精品中文字幕无码专区| 欧美破处在线观看| 国产在线播放免费人成视频播放| 日本视频一区二区三区在线观看| 一本大道av伊人久久综合| 国产av一区二区精品久久凹凸| 久草国产视频| 日本视频精品一区二区| 日韩av在线手机免费观看| 精品精品久久宅男的天堂| 欧美jizzhd精品欧美| 国产91在线|亚洲| 少妇太爽了在线观看免费|