亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度特征和注意力機制的藝術(shù)圖像情感分類研究

        2022-05-11 07:32:14劉佳欣
        智能計算機與應(yīng)用 2022年2期
        關(guān)鍵詞:注意力語義準(zhǔn)確率

        楊 松, 劉佳欣, 吳 桐

        (1 大連外國語大學(xué) 軟件學(xué)院, 遼寧 大連 116044; 2 大連外國語大學(xué) 語言智能中心, 遼寧 大連 116044;3 網(wǎng)絡(luò)空間大數(shù)據(jù)安全院級研究中心, 遼寧 大連 116044)

        0 引 言

        隨著微博、微信、論壇等社交媒體的廣泛使用,越來越多的用戶喜歡以文本、圖像及視頻的形式分享信息、表達觀點和宣泄情緒。 網(wǎng)絡(luò)中的海量信息往往存在很多主觀的感情色彩,基于文本的情感分析技術(shù)已在信息情感的把握中發(fā)揮了重要作用,而基于圖像的情感分析技術(shù)仍有待深入的研究。 圖像情感分類作為計算機視覺、模式識別、認(rèn)知科學(xué)等多個學(xué)科的交叉技術(shù),近年來受到國內(nèi)外研究人員的廣泛關(guān)注。 希望借助計算機技術(shù)研究和建立符合人類感知的情感映射機制,理解并準(zhǔn)確分類圖像中蘊含的高層情感語義。 目前在一些特定場景的圖像情感分類研究已取得一些成果,例如人臉表情、自然風(fēng)景、服飾面料等,而以藝術(shù)圖像為目標(biāo)的情感分類研究相對較少。 藝術(shù)圖像作為藝術(shù)作品的重要組成部分,本身具有豐富的情感語義信息,能夠通過顏色搭配、線條手法、紋理特征及抽象主體特寫等方式向人們傳遞作品內(nèi)在的情感,相對于文本情感,圖像情感表現(xiàn)得更為抽象、理解的難度更大。 研究藝術(shù)圖像的情感識別與分類,對藝術(shù)圖像的鑒賞、保護等具有重要指導(dǎo)意義。

        本文從情感角度出發(fā),以藝術(shù)圖像作為研究對象,通過深度學(xué)習(xí)來挖掘藝術(shù)作品帶給欣賞者的情感變化,提出一種基于深層特征和注意力機制的藝術(shù)圖像情感分類模型FeaturesNet,抽取藝術(shù)圖像的CLAHE 顏色特征和Laplacian 紋理特征,與學(xué)習(xí)到的深度情感語義特征融合,彌補情感語義特征抽取的不足。 引入CBAM 注意力機制,在降低模型過擬合的同時提高對藝術(shù)圖像情感分類的準(zhǔn)確率,為基于深度學(xué)習(xí)的圖像情感分類提供一定參考。

        1 相關(guān)研究綜述

        近年來,國內(nèi)外的一些學(xué)者在藝術(shù)圖像情感分類領(lǐng)域取得了一些成果。 雷晶晶以木板套色版畫為研究對象,提出基于SVM 算法和模糊聚類算法的圖像情感分類模型,實驗采用人工標(biāo)注的數(shù)據(jù)集,由于數(shù)據(jù)集小導(dǎo)致情感分類的準(zhǔn)確率不高;李博等提取顏色直方圖、Itten 對比、二階矩特征,驗證加權(quán)K 近鄰算法在Abstract 數(shù)據(jù)集上離散情感分布預(yù)測的有效性,但參數(shù)K 需要人工選取。 傳統(tǒng)的機器學(xué)習(xí)算法在圖像情感語義分類中的應(yīng)用已達到瓶頸,深度學(xué)習(xí)模型被引入到圖像情感語義分類領(lǐng)域,能夠解決圖像特征需要人為構(gòu)造的問題,有利于縮小圖像底層視覺特征和深層語義特征之間的“語義鴻溝”。

        盛家川等將人類認(rèn)知與CNN 模型結(jié)合,根據(jù)中國畫顯著性區(qū)域和筆道復(fù)雜度提取感興趣區(qū)域,利用預(yù)訓(xùn)練的微調(diào)GoogLeNet 模型提取中國畫的深層特征并進行可視化,結(jié)合中國畫情感表達手法知識,調(diào)整模型結(jié)構(gòu),優(yōu)化訓(xùn)練參數(shù),提升中國畫情感分類的準(zhǔn)確率;盛家川等提出基于CNN 特征聚合重標(biāo)定的中國畫情感分類算法,重定向圖像為正方形,在ResNet 模型上融合同一模塊下各卷積層特征并反饋至卷積層輸出,重新標(biāo)定通道特征值并強化不同特征的激活強度。 將預(yù)測值作為權(quán)重,計算各類別激活映射,加權(quán)融合所有類別的激活定位,視覺解釋情感區(qū)域特征,實現(xiàn)對中國畫的情感特征可視化及情感分類任務(wù)。 白茹意等利用抽象畫的基本元素與人類情感之間存在的關(guān)系,提取抽象畫的底層視覺特征,采用遷移學(xué)習(xí)方法,將預(yù)訓(xùn)練模型的參數(shù)遷移至目標(biāo)模型并對模型進行微調(diào),提取抽象畫的深層語義特征,最后將兩者線性融合,利用SVM 方法實現(xiàn)抽象畫的情感分類任務(wù);王征等利用AlexNet 模型提取中國畫的深層特征并與顏色特征融合,將得到的特征組合進行特征處理,使用SVM 分類器進行情感分類;張浩等為深入分析云南少數(shù)民族繪畫作品所蘊含的情感,微調(diào)預(yù)訓(xùn)練VGG16 模型,將該模型應(yīng)用于Twitter 數(shù)據(jù)集中訓(xùn)練,以提升模型學(xué)習(xí)能力,采用不同方法分別對繪畫作品進行數(shù)據(jù)增強,輸入訓(xùn)練好的微調(diào)模型中,比較各方法以及組合處理方法對民族繪畫作品的情感分類結(jié)果,以達到情感分類的最優(yōu)狀態(tài)。

        深度卷積神經(jīng)網(wǎng)絡(luò)屬于有監(jiān)督學(xué)習(xí)方法,分類效果依賴于大量樣本數(shù)據(jù)的訓(xùn)練,通過模型訓(xùn)練提取圖像深度特征并與傳統(tǒng)的圖像底層特征融合,可以給模型性能帶來一定的改善。 同時,圖像情感的極性僅與圖像特定的區(qū)域有關(guān),而其他區(qū)域?qū)Ψ诸惖挠绊憳O小,通過在深度學(xué)習(xí)中引入視覺注意力機制,使模型更加關(guān)注那些影響圖像情感分類結(jié)果的關(guān)鍵區(qū)域。 此外,隨著模型層數(shù)逐漸加深,訓(xùn)練過程容易造成圖像細節(jié)信息的丟失,改進模型結(jié)構(gòu)仍存在著巨大的提升空間。 圖像情感分類可以在圖像深度特征融合、注意力機制引入、模型結(jié)構(gòu)改進等方面開展深入研究,提升圖像情感分類的準(zhǔn)確率和效率,同時降低模型的過擬合度。

        2 藝術(shù)圖像的特征提取

        2.1 CLAHE 顏色特征

        顏色特征是圖像最基本的底層視覺特征,是圖像中關(guān)鍵與敏感的視覺信息。 在心理學(xué)的相關(guān)研究中,有學(xué)者認(rèn)為顏色是表達情感的普遍方式,具有藝術(shù)性、鮮明性、聯(lián)想性、獨特性、合適性及喚醒性等特點。積極情感的圖像整體色彩較為鮮艷明亮,消極情感的圖像顏色則暗淡壓抑。 在研究圖像底層顏色特征時,大部分學(xué)者習(xí)慣采用顏色直方圖表達顏色特征,可直觀看出圖像像素的分布情況。 在同一數(shù)據(jù)集中,圖像的像素分布存在較大差異,針對像素分布不均勻的圖像,部分區(qū)域與整體圖像相比較為明亮或光線較暗,因此采用普通顏色直方圖均衡進行全局圖像增強,效果不太理想。 自適應(yīng)直方圖均衡(AHE)與顏色直方圖相比,優(yōu)勢在于該方法通過計算圖像每一處顯著區(qū)域的直方圖,重新調(diào)節(jié)圖像亮度值,進行均勻分布,以改善圖像每個區(qū)域的局部對比度,增強圖像邊緣的清晰度,但該方法容易導(dǎo)致圖像產(chǎn)生噪聲,進而產(chǎn)生圖像過度增強的現(xiàn)象。 限制對比度自適應(yīng)直方圖均衡(CLAHE)與AHE 相比,通過對每一像素鄰域的對比度限制,得到對應(yīng)的變換函數(shù),可有效抑制圖像噪聲。與原圖像相比,經(jīng)CLAHE 方法處理后的圖像細節(jié)更為突出,特征更加豐富,顏色直方圖較原圖像相比也更為平滑,如圖1 所示。

        圖1 CLAHE 顏色特征可視化圖Fig.1 Figure of CLAHE color feature visualization

        經(jīng)過CLAHE 算法處理后的顏色特征輸入到兩個卷積層、兩個最大池化層、一個全連接層、3 個BN層和3 個激活層的網(wǎng)絡(luò)中。 其中,卷積核大小為3×3,64,2,1;最大池化層均為22,2;全連接層神經(jīng)元為1 000個;激活層使用激活函數(shù);卷積層和全連接層后均連接BN 層,用于防止模型過擬合。 將該網(wǎng)絡(luò)模型命名為ColorNet,輸出結(jié)果即為圖像的顏色特征,記為,CLAHE 顏色特征提取過程,如圖2 所示。

        圖2 CLAHE 顏色特征提取過程Fig.2 Extraction process of CLAHE color features

        2.2 Laplacian 紋理特征

        通常物體的表面都具有紋理特征,包含了對比度和空間頻率等因素,其目的是描述圖像相鄰像素之間灰度空間的分遍歷情況。 圖像紋理特征同屬于圖像底層特征,雖然視覺效果沒有顏色特征更直觀,但不同的紋理特征同樣能夠?qū)θ祟惖那楦挟a(chǎn)生影響。 拉普拉斯算子(Laplacian)是圖像鄰域內(nèi)像素灰度差分計算的基礎(chǔ),利用二階微分運算推導(dǎo)出的一種圖像鄰域增強算法,可用于描述圖像區(qū)域的變化速度。 其基本思想是當(dāng)鄰域的中心像素灰度低于其所在鄰域內(nèi)的其他像素的平均灰度時,中心像素的灰度應(yīng)該進一步降低;反之進一步提高中心像素的灰度,進而實現(xiàn)圖像銳化處理。 與一階微分運算相比,拉普拉斯算子邊緣定位能力更強,獲取的邊界信息更加細致。 因此,利用拉普拉斯算子對圖像進行銳化邊緣檢測、提取圖像紋理特征有助于圖像分類、目標(biāo)檢測識別、圖像分割等任務(wù)。 二維圖像拉普拉斯算子公式(1):

        其離散化形式可表示為式(2):

        Laplacian 算子對噪聲很敏感,為了獲取較好的紋理,突出邊緣特征信息,使用高斯濾波對圖像進行降噪處理。 本文提取圖像紋理特征具體步驟為:

        (1)利用高斯濾波去除圖像噪聲;

        (2)將降噪后的圖像轉(zhuǎn)為灰度圖像;

        (3)使用Laplacian 算子提取處理后的灰度圖像的邊緣特征;

        (4)將處理后的灰度圖像與邊緣特征圖像融合。

        經(jīng)Laplacian 算子等處理后得到的紋理特征輸入兩個卷積層、兩個最大池化層、一個全連接層、3個BN 層和3 個激活層的網(wǎng)絡(luò)中。 其中,卷積核為3×3,64,2,1;最大池化層均為22,2;全連接層神經(jīng)元為1 000個;3個激活層使用函數(shù);卷積層和全連接層后均連接BN 層,防止過擬合。 將該網(wǎng)絡(luò)模型命名為LapNet,輸出結(jié)果即為圖像的紋理特征,記為,Laplacian 紋理特征的提取過程,如圖3 所示。

        圖3 Laplacian 紋理特征提取過程Fig.3 Extraction process of texture features

        2.3 深度語義特征

        在圖像深度語義特征提取的過程中,采用ResNet101 與CBAM 注意力機制融合的網(wǎng)絡(luò)模型對數(shù)據(jù)集進行訓(xùn)練,在不改變ResNet101 模型原結(jié)構(gòu)的前提下,將通道注意力機制和空間注意力機制融入ResNet101 模型的第一層卷積層和最后一層卷積層中,集中關(guān)注圖像主體區(qū)域和局部區(qū)域的特征信息,充分挖掘藝術(shù)圖像的整體特征和細節(jié)特征,使模型訓(xùn)練和測試的準(zhǔn)確率較傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)模型有所提升。 將該融合模型所提取的圖像深層情感語義特征記為,在ResNet101 與CBAM 注意力機制融合模型中輸入特征圖后,模型不同層所提取到的特征可視化效果圖如圖4 所示。 由此可見,隨著融合網(wǎng)絡(luò)模型層數(shù)的不斷加深,肉眼可見的可視化效果逐漸模糊,圖像深層特征變得更加抽象。

        圖4 不同層深層特征可視化圖Fig.4 Visualization map of deep features in different layers

        2.4 特征融合輸入

        將上述提取到的 CLAHE 顏色特征、Laplacian 紋理特征和CBAM 深層語義特征利用() 函數(shù)并按照維數(shù)1(列)進行拼接融合,整體輸入到含有兩個全連接層、兩個BN 層、一個激活層的網(wǎng)絡(luò)中,將該卷積神經(jīng)網(wǎng)絡(luò)模型命名為FeaturesNet,其結(jié)構(gòu)如圖5 所示。

        圖5 FeaturesNet 網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.5 Network model structure of FeaturesNet

        3 情感分類模型

        3.1 ResNet

        2015 年,微軟團隊提出了ResNet 模型,模型結(jié)構(gòu)較其他CNN 模型更深,整體性能也有所提高。 該模型的基本殘差模塊由短路連接路徑和殘差路徑組成,通過引入網(wǎng)絡(luò)前層與網(wǎng)絡(luò)后層的短路連接路徑加深模型的網(wǎng)絡(luò)深度,有助于訓(xùn)練過程中梯度的反向傳播,解決其他模型容易引發(fā)的梯度消失問題,提升深層次模型的網(wǎng)絡(luò)性能。 殘差路徑結(jié)構(gòu)包括卷積層、BN 層和ReLU 激活層,在連續(xù)兩層卷積層中,將輸入特征與卷積層輸出特征合并,導(dǎo)致輸出結(jié)果由原來兩層輸出() 變成()。 基于短路連接路徑部分沒有引進其他參數(shù)增加計算復(fù)雜度,因此即使增加模型層數(shù),也能加快模型的訓(xùn)練速度,提升模型的訓(xùn)練效果。 ResNet 模型共有5 種網(wǎng)絡(luò)結(jié)構(gòu),其中ResNet101 為殘差神經(jīng)網(wǎng)路中最常見的模型,其短路連接路徑中共有3 個卷積層,分別為兩層1×1 卷積層和一層3×3 卷積層,通過這3 層卷積層之間的短路連接路徑加深各網(wǎng)絡(luò)結(jié)構(gòu)。

        3.2 注意力機制

        在計算機視覺領(lǐng)域中,注意力機制(Attention)與人類視覺機制十分相似,將關(guān)注焦點聚焦在圖像局部顯著區(qū)域位置。 早期研究中,L Itti 等受靈長類生物的視覺系統(tǒng)啟發(fā),提出視覺注意力機制模型,構(gòu)建并融合顏色、方向和亮度特征圖,最終提取復(fù)雜場景圖像的顯著區(qū)域位置。 隨著深度學(xué)習(xí)的普及,將注意力機制與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,通過快速掃描數(shù)據(jù)集,判定主要特征區(qū)域,并將注意力集中分布在感興趣區(qū)域或重要信息特征位置,忽略非感興趣區(qū)域及無關(guān)信息,可更快、更準(zhǔn)確地獲取數(shù)據(jù)集的主要特征信息,提升網(wǎng)絡(luò)模型工作效率。 CBAM 注意力機制是由Sanghyun Woo 等人于2018 年提出的,其本質(zhì)是前饋卷積神經(jīng)網(wǎng)絡(luò),由通道注意力機制( ChannelAttention ) 和 空 間 注 意 力 機 制(SpatialAttention)混合組成。 其工作原理是首先向模型中輸入一張?zhí)卣鲌D,CBAM 注意力機制依次通過通道和空間兩個維度提取特征圖對應(yīng)的注意力特征圖;將注意力特征圖與輸入特征相乘得到自適應(yīng)優(yōu)化特征。 在通道注意力機制和空間注意力機制模塊內(nèi)均包含池化操作,利用平均值池化和最大值池化對圖像全局區(qū)域和局部區(qū)域給予關(guān)注,同時保留特征圖細節(jié)處的語義信息。 考慮到CBAM注意力機制具有輕量性和通用性的特點,本文將CBAM 注意力機制與ResNet101 卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)合,通過端到端的訓(xùn)練,提升傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)模型的性能。

        3.3 算法流程

        將實驗整體網(wǎng)絡(luò)模型命名為FeaturesNet,輸入的圖像大小為224×224×3。 由于處理CLAHE 顏色特征和Laplacian 紋理特征均在OpenCV 庫中進行,因此要將向量轉(zhuǎn)換為numpy 數(shù)組形式,再分別進行底層特征處理;將CLAHE 顏色特征和Laplacian 紋理特征再轉(zhuǎn)回向量形式,分別輸入ColorNet 和LapNet 網(wǎng)絡(luò)中,進一步提取圖像底層特征,ColorNet 輸出的特征記為, LapNet 輸出的特征記為,圖像數(shù)據(jù)輸入ResNet101 與CBAM 融合網(wǎng)絡(luò)模型中得到的深層語義特征記為; 最后,將得到的圖像底層特征和深層情感語義特征融合,輸入ClassNet 網(wǎng)絡(luò)中,進而對藝術(shù)圖像進行情感語義分類。

        4 實驗結(jié)果與分析

        4.1 實驗環(huán)境

        本文實驗環(huán)境:處理器為Intel i5-8279U,主頻2.40 GHZ,實驗基于Python 3.7 的深度學(xué)習(xí)框架Pytorch,開發(fā)工具為PyCharm,使用Linux 操作系統(tǒng),GPU 進行訓(xùn)練,GPU 為NVIDIA Tesla V100-SXM2-16 GB,顯存總量為16 160 MiB。

        4.2 實驗數(shù)據(jù)集的構(gòu)建

        缺少圖像情感數(shù)據(jù)會導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練的不充分或模型易出現(xiàn)過擬合的問題。 實驗使用Machajdik 等在2010 年所創(chuàng)建ArtPhoto 和Abstract兩個公開數(shù)據(jù)集,其中ArtPhoto 數(shù)據(jù)集由806 幅藝術(shù)圖像及情感標(biāo)簽組成,Abstract 數(shù)據(jù)集包含280 張藝術(shù)抽象畫。 由于ArtPhoto 和Abstract 數(shù)據(jù)集情感標(biāo)簽完全相同,積極類情感和消極類情感數(shù)據(jù)集劃分方式一致,通過對積極類情感和消極類情感的標(biāo)簽進行投票統(tǒng)計,將得票數(shù)高的標(biāo)簽作為圖像的最終情感類別,若積極類情感和消極類情感求和票數(shù)相同,則剔除該圖像。 經(jīng)情感標(biāo)簽重新劃分后,最終將ArtPhoto 數(shù)據(jù)集和Abstract 數(shù)據(jù)集合并作為本文實驗的數(shù)據(jù)集,其中Positive 類共540 張圖像,Negative 類共538 張圖像。 數(shù)據(jù)集各標(biāo)簽的示例圖像如圖6 所示。

        圖6 圖像情感數(shù)據(jù)集示例圖像Fig.6 The schematic figures of image sentiment dataset

        由于原數(shù)據(jù)集大多數(shù)圖像格式是通道數(shù)為3 的RGB 格式圖像,其中也存在少數(shù)通道數(shù)為1 的灰度圖像,為方便后續(xù)實驗的展開,在數(shù)據(jù)預(yù)處理階段統(tǒng)一將圖像轉(zhuǎn)為RGB 格式。

        情感語義信息的主觀性和復(fù)雜性導(dǎo)致帶有情感語義標(biāo)簽的圖像數(shù)據(jù)集較少,而利用深度學(xué)習(xí)方法訓(xùn)練模型的本質(zhì)是在海量數(shù)據(jù)集中學(xué)習(xí)深層次圖像特征,進而獲取圖像情感語義信息,因此在數(shù)據(jù)集預(yù)處理階段,還需對其進行數(shù)據(jù)增強操作。 具體操作包括對數(shù)據(jù)集中各圖像翻轉(zhuǎn)及旋轉(zhuǎn)操作,數(shù)據(jù)集的增強示例圖像如圖7 所示。 對數(shù)據(jù)增強后的數(shù)據(jù)集進行人工篩選,最終形成各情感標(biāo)簽均為1 920張實驗數(shù)據(jù)集。

        圖7 數(shù)據(jù)增強示例圖Fig.7 The schematic figures of data enhancement

        4.3 實驗評價指標(biāo)

        實驗評價指標(biāo)為圖像情感分類準(zhǔn)確率,采用K折交叉驗證方法,因此準(zhǔn)確率最終為經(jīng)K 折交叉驗證后測試集的平均準(zhǔn)確率。將標(biāo)準(zhǔn)差() 和(Area Under Curve)作為實驗補充評價指標(biāo),通過記錄每折測試集的準(zhǔn)確率,計算測試集準(zhǔn)確率集合的離散程度,得 出模型值,而值域為[0,1],模型值越大,證明模型分類的準(zhǔn)確率越高。

        4.4 實驗結(jié)果分析

        在訓(xùn)練過程中,設(shè)置迭代次數(shù)為20,學(xué)習(xí)率為0.01, BatchSize 為64, 采 用SGD 優(yōu) 化 器, 選 擇損失函數(shù),動量梯度下降參數(shù)設(shè)為0.9,使用5 折交叉驗證方法。 為驗證本文模型對藝術(shù)圖像情感識別的效果,選擇經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型ResNet50、ResNet101、ResNet101 與CBAM融合算法及李志義提出改進VGGNet 模型、Satoshi Iizuka 提出的ColorNet 中ClassificationNet以及本文提出的特征融合模型進行比較,分析各模型對情感識別準(zhǔn)確率變化的情況,5 折交叉驗證后測試集的平均準(zhǔn)確率見表1。 由表1 可知,以ResNet101 與CBAM 融合特征作為主干特征,分別用、和3 組特征組合逐一對數(shù)據(jù)集進行訓(xùn)練,所得的準(zhǔn)確率較經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型及改進模型相比均有所提升,本文所提出的基于圖像底層特征和深層情感語義特征融合的FeaturesNet 模型準(zhǔn)確率可達93.36%,較ResNet50提 升 10.31%, 較 ResNet101 提 升 9.01%, 較ResNet101 與CBAM 融合模型即特征提升6.98%;與改進模型VGGNet 相比提升16.59%;與ClassificationNet 相比提升5.31%。 從實驗結(jié)果也可以看出,與的特征組合所得準(zhǔn)確率同比與的特征組合高033。 同時,和模型所對應(yīng)的標(biāo)準(zhǔn)差較其他模型標(biāo)準(zhǔn)差也較低,的值趨近于1,說明在測試集上本文模型的準(zhǔn)確率表現(xiàn)穩(wěn)定,波動較小。在各模型的5 折交叉驗證中,選取在訓(xùn)練集上預(yù)測結(jié)果最好的一折,繪制該折訓(xùn)練全過程的準(zhǔn)確率及損失值變化情況,各模型的準(zhǔn)確率隨迭代次數(shù)變化的折線對比圖如圖8 所示,各模型隨迭代次數(shù)變化的損失情況如圖9 所示,橫坐標(biāo)代表迭代次數(shù),縱坐標(biāo)分別代表準(zhǔn)確率和損失值。 由模型在訓(xùn)練集的表現(xiàn)情況可以得出,特征組合模型、和與經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型和他人改進模型相比,收斂速度更快,當(dāng)4 時,F(xiàn)eaturesNet 模型的損失值從4 降至05 以下;當(dāng)6 時,F(xiàn)eaturesNet 模型的損失值已經(jīng)趨近于0,準(zhǔn)確率能夠達到100。

        表1 不同模型的準(zhǔn)確率對比Tab.1 Accuracy comparison with different models

        圖8 不同模型的準(zhǔn)確率變化折線圖Fig.8 Line chart of accuracy changes of different models

        圖9 不同模型的損失值變化折線圖Fig.9 Line chart of loss value changes of different models

        綜上,將圖像的深度特征與傳統(tǒng)特征融合作為藝術(shù)圖像情感分類模型的輸入,能夠充分發(fā)揮兩者對情感分類的重要作用,同時引入基于CBAM 的注意力機制,使模型的關(guān)注點更集中在圖像的重點區(qū)域,即決定圖像情感傾向的區(qū)域,從而能夠快速有效地提升藝術(shù)圖像的情感語義分類的準(zhǔn)確率。

        5 結(jié)束語

        本文提出一種基于深度特征和注意力機制的卷積神經(jīng)網(wǎng)絡(luò)模型FeaturesNet,將藝術(shù)圖像的傳統(tǒng)底層視覺特征與深層特征相結(jié)合,從多角度提取容易激發(fā)情感反應(yīng)的藝術(shù)圖像特征,可有效解決模型層數(shù)的加深帶來細節(jié)特征丟失的問題,同時引入CBAM 注意力機制使模型更關(guān)注圖像中決定情感傾向的重要區(qū)域,從而提升藝術(shù)圖像情感分類的準(zhǔn)確率。 實驗結(jié)果表明,該模型對藝術(shù)圖像情感分類的準(zhǔn)確率可達到93.36%,證明其對藝術(shù)圖像情感分類的有效性,為藝術(shù)圖像的鑒賞與保護工作提供參考。

        猜你喜歡
        注意力語義準(zhǔn)確率
        讓注意力“飛”回來
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
        語言與語義
        高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        “上”與“下”語義的不對稱性及其認(rèn)知闡釋
        認(rèn)知范疇模糊與語義模糊
        亚洲一区二区三区免费网站 | 亚洲国产精品无码久久一线 | 精品国产亚洲级一区二区| 亚洲国产精品无码专区在线观看 | 久久国产亚洲AV无码麻豆| 亚洲视频在线中文字幕乱码| 国产一区二区三区不卡在线观看| 亚洲色成人www永久在线观看| 精品少妇一区二区三区视频| 91在线无码精品秘 入口九色十| 性感美女脱内裤无遮挡| 国内熟女啪啪自拍| 亚洲男同志gay 片可播放| 激情五月婷婷久久综合| 亚洲免费一区二区三区四区| 又粗又黄又猛又爽大片免费| 国产成人精品无码片区在线观看| 久久久久亚洲av成人片| 国产亚洲视频在线观看网址| 亚洲黄片久久| 国产极品大奶在线视频| 国产精品vⅰdeoxxxx国产| 久久亚洲欧洲无码中文| 国产小视频一区二区三区| 丁香花五月六月综合激情| 老熟妇仑乱视频一区二区| 综合色天天久久| 街拍丝袜美腿美女一区| 在线播放免费人成毛片乱码| 99精品电影一区二区免费看| 亚洲日本在线中文字幕| 国偷自拍av一区二区三区| 久久综合九色综合欧美狠狠| 69天堂国产在线精品观看| 国产精品一二三区亚洲| 网禁拗女稀缺资源在线观看| 国产精品第1页在线观看| 国产亚洲精品一区二区在线播放| 亚洲综合天堂av网站在线观看| 日韩人妻精品无码一区二区三区| 中文字幕日韩人妻高清在线|