亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        MCVSVM 驅(qū)動卷積神經(jīng)網(wǎng)絡(luò)模型的圖像識別

        2020-05-20 07:15:44肖遙蔣琦
        現(xiàn)代計算機 2020年11期
        關(guān)鍵詞:深度特征模型

        肖遙,蔣琦

        (西華大學(xué)計算機與軟件工程學(xué)院,成都 610039)

        0 引言

        圖像識別是計算機視覺和模式識別技術(shù)的基礎(chǔ),其任務(wù)是利用從大量圖像上學(xué)習到的先驗知識判別給定目標的屬性。近年來,隨著計算機硬件性能的提升,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在圖像識別領(lǐng)域受到越來越多的關(guān)注[1-3]。然而傳統(tǒng)的深度卷積模型在訓(xùn)練時,只是簡單的利用了樣本的標簽信息,忽視了使用提取到的深度特征對卷積網(wǎng)絡(luò)的訓(xùn)練進行更嚴格的約束。針對這一不足,文獻[4]提出了一種支持向量機(Support Vector Machine,SVM)驅(qū)動的卷積深度模型。其不僅結(jié)合了深度卷積網(wǎng)絡(luò)強大的特征提取能力與SVM 出色的分類能力,同時將SVM 目標函數(shù)作為指導(dǎo)深度卷積網(wǎng)絡(luò)學(xué)習的能量函數(shù),在深度模型的學(xué)習過程中提供了更出色的正則化效果。模型訓(xùn)練時,SVM 目標函數(shù)能夠反映出不同類別的樣本特征間的間隔,迫使卷積網(wǎng)絡(luò)學(xué)習具有更大類間間隔的特征,從而增強CNN 的特征提取能力。然而,文獻[4]中忽視了SVM 模型本身存在的不足,SVM 目標函數(shù)中只利用的類間間隔,沒有考慮到特征空間中圖像特征的分布情況[5]。而SVM 驅(qū)動的CNN 模型將不可避免的繼承這一問題,限制了其泛化能力的進一步提高。

        針對上述不足,本文提出了一種最小內(nèi)類方差支持向量機(Minimum Class Variance Support Vector Machines,MCVSVM)驅(qū)動的 CNN 模型。MCVSVM 作為SVM 的改進,其最大的優(yōu)勢在于引入了用于描述特征分布信息的類內(nèi)散度矩陣,得益于此,基于MCVSVM的CNN 在訓(xùn)練過程中能夠額外的關(guān)注總體圖像特征的分布情況,進而迫使CNN 提取到質(zhì)量更高的圖像特征。

        1 相關(guān)工作

        1.1 最小內(nèi)類方差支持向量機(MCCVVSSVVMM)

        作為一種大間隔分類器,SVM 具有出色的泛化性能。其核心理論是在特征空間中學(xué)習一個決策面,使得正負樣本到該決策面都具有最大間隔。然而SVM模型只關(guān)注了訓(xùn)練樣本中少數(shù)的支持向量點,并沒有利用到總體樣本的分布信息,針對這一不足,借鑒Fisher 線性鑒別理論[6],文獻[5]提出了 MCVSVM 模型。其模型定義如下:

        并且:

        其中w是特征空間中分類超平面的法向量,b表示偏置項,λ為懲罰系數(shù),ξi是引入的對應(yīng)訓(xùn)練樣本xi的松弛變量,為訓(xùn)練樣本的標簽,Sw是類內(nèi)散度矩陣,用于描述訓(xùn)練樣本的分布情況,C+與C-分別表示屬于正類與負類的樣本的集合,則表示對應(yīng)類別下訓(xùn)練樣本的均值向量。顯然,不同于標準的SVM,MCVSVM 在構(gòu)建決策超平面時不僅考慮了分類間隔,還通過引入類內(nèi)散度矩陣的方式,進一步考慮了數(shù)據(jù)的分布信息,增強了模型的魯棒性與泛化性能。

        1.2 SSVVMM驅(qū)動的卷積神經(jīng)網(wǎng)絡(luò)

        傳統(tǒng)的CNN 模型中往往采用交叉熵作為能量函數(shù)指導(dǎo)模型的訓(xùn)練,然而交叉熵函數(shù)中只考慮了模型的經(jīng)驗風險,這限制了深度模型泛化能量的提高。針對這一不足,文獻[4]結(jié)合大間隔思想,提出了一種SVM驅(qū)動的CNN 模型,其能量函數(shù)定義如下:

        2 MCVSVM驅(qū)動卷積神經(jīng)網(wǎng)絡(luò)的圖像識別

        文獻[4]中采用CNN 作為特征提取器,并通過SVM進行分類的方案在識別任務(wù)中表現(xiàn)出了較強的泛化性能。在深度模型的更新過程中,基于SVM 的卷積深度模型將標準的SVM 目標函數(shù)作為損失函數(shù)指導(dǎo)CNN的學(xué)習。然而,受限于SVM 模型中的不足,基于SVM的卷積深度模型在訓(xùn)練時無法利用總體樣本特征的分布信息,這將極大的限制CNN 特征提取能力的提高。

        針對上述不足,本文提出了一種基于MCVSVM 的深度卷積模型。MCVSVM 中引入的類內(nèi)散度矩陣以描述樣本特征的分布信息,因此,所提模型采用MCVSVM目標函數(shù)作為CNN 更新時的損失函數(shù),使得深度卷積模型能夠充分的利用樣本的分布信息。給定一組包含K個類別的訓(xùn)練樣本,為了描述其分布信息,首先定義類內(nèi)散度矩陣Sw如下:

        并且:

        其中Ck表示屬于類別k的樣本特征的集合,nk表示屬于類別k的訓(xùn)練樣本的數(shù)量。得到類內(nèi)散度矩陣后,將其代入SVM 目標函數(shù)中得到本文提出的能量函數(shù)如下:

        其中λ為懲罰系數(shù),其中wk表示第k個類別的分類超平面的法向量,bk表示其對應(yīng)的偏置項,為訓(xùn)練樣本的標簽,當xi屬于第k類時=+1 ,否則。式(6)通過在目標函數(shù)中增加類內(nèi)散度矩陣,將簡單的計算分類間隔的歐氏距離,巧妙地轉(zhuǎn)變?yōu)橛嬎愀行У鸟R氏距離[7]。得益于此,在深度卷積網(wǎng)絡(luò)的訓(xùn)練過程中,包含了樣本分布信息的損失函數(shù)將迫使CNN 更多的關(guān)注所有提取到的樣本特征的分布情況,使得樣本特征能夠更多地反映自身的類別信息,這顯然是有利于深度模型泛化能力的提高的。

        圖1 概述了基于MCVSVM 的深度卷積模型。顯然,與傳統(tǒng)的深度卷積模型不同,所提模型在全鏈接層后額外計算了樣本特征的類內(nèi)散度矩陣,用于計算模型的能量函數(shù)值。在模型的訓(xùn)練過程中,類內(nèi)散度矩陣的引入將引導(dǎo)CNN 更多的關(guān)注提取特征的分布情況,最終提取到更具鑒別性的樣本特征。

        3 實驗設(shè)計與結(jié)果分析

        本節(jié)的目的在于通過實驗的方式驗證MCVSVM驅(qū)動的CNN 模型的有效性,分析了懲罰系數(shù)對模型性能的影響;之后在五個大規(guī)模數(shù)據(jù)集上驗證所提模型在識別準確率上的有效性。本文所有實驗均在NVIDIA TITAN X(Pascal)GPU 以及 Intel Xeon W-2125 CPU環(huán)境中進行。

        圖1 MCVSVM驅(qū)動的卷積深度模型

        3.1 懲罰系數(shù)對模型性能的影響

        為了獲取一個合適的λ的值,使得模型取得最佳的泛化性能,本節(jié)在SVHN[15]數(shù)據(jù)集上對ResNet-18[9]網(wǎng)絡(luò)結(jié)構(gòu)下多個不同的λ進行了仿真實驗。實驗時為了充分分析懲罰系數(shù)λ對模型性能的影響,設(shè)置。此外,采用 Minibatch 策略[11],隨機取250 張圖片作為模型每一輪的訓(xùn)練圖像。設(shè)定最大的訓(xùn)練次數(shù)t=2000,借鑒文獻[12],采用動態(tài)的學(xué)習率:當訓(xùn)練次數(shù)t<500 時,設(shè)置學(xué)習率σ=10-3,500 ≤t≤1500 時 ,設(shè) 置σ=10-4,否 則σ=10-5。圖2-3 報告了不同懲罰系數(shù)λ下識別率的增長曲線以及模型在SVHN 數(shù)據(jù)集上取得的最大識別準確率。從實驗結(jié)果中可以明顯看出,在λ=1 時模型取得了最高的識別率,而在λ較小時模型難以取得較好的結(jié)果。因此規(guī)定本文實驗中的懲罰系數(shù)λ=1。

        圖2 不同懲罰系數(shù)λ 下模型識別率增長曲線

        圖3 不同懲罰系數(shù)λ 下模型最大識別率

        3.2 實驗結(jié)果與分析

        本節(jié)基于對 AlexNet[10]、VGGNet-13[1]和 ResNet-18三種網(wǎng)絡(luò)結(jié)構(gòu),比較了所提模型與交叉熵驅(qū)動的CNN和SVM 驅(qū)動的CNN 在5 個大規(guī)模數(shù)據(jù)集上的識別準確率。使用的數(shù)據(jù)集包含一個人臉表情數(shù)據(jù)集FER2013[13],兩個數(shù)字數(shù)據(jù)集 MINIST[14]和 SVHN[15]以及兩個搜集于真實世界的復(fù)雜圖像數(shù)據(jù)集CIFAR-10 和CIFAR-100[8]。實驗時,MCVCVM 引導(dǎo)的 CNN 中的參數(shù)設(shè)置均與3.1 小節(jié)中使用的相同。交叉熵驅(qū)動的CNN 模型與SVM 驅(qū)動的CNN 模型中的參數(shù)則按照其論文中的說明進行設(shè)置。采用Top-1 識別率作為評價模型性能的量化指標,其表示預(yù)測響應(yīng)最大的類別為真實類別的概率。

        表1 各深度卷積模型在數(shù)據(jù)集上的識別率比較

        表1 展示了各網(wǎng)絡(luò)結(jié)構(gòu)下所比較的四種CNN 模型在各數(shù)據(jù)集上Top-1 識別率。其中xxx-Cross、xxx-SVM、以及xxx-MCVSVM 分別表示交叉熵、SVM 以及MCVSVM 驅(qū)動的CNN 模型??梢钥闯?,MCVSVM 引導(dǎo)的CNN 模型總是能取得更高的識別準確率。相比于具有第二好表現(xiàn)的SVM 驅(qū)動的CNN 模型,MCVSVM 驅(qū)動的 CNN 在 MNIST、SVHN、FER2013、CIFAR-10 以及CIFAR-100 數(shù)據(jù)集上的識別率分別平均提升了0.07%、0.3%、1.94%、3.37%和4.44%。實驗結(jié)果表明,本文提出的算法能夠有效增強深度模型的識別準確率,且具有較強的泛化性能。

        4 結(jié)語

        針對SVM 驅(qū)動的CNN 模型在訓(xùn)練時沒有考慮圖像特征分布信息這一不足,本文提出了一種MCVSVM驅(qū)動的CNN 模型。所提模型中采用MCVSVM 目標函數(shù)作為指導(dǎo)CNN 訓(xùn)練的能量函數(shù),得益于MCVSVM的特性,CNN 在訓(xùn)練時不僅考慮了異類樣本特征間的間隔,同時能夠利用樣本的分布信息得到質(zhì)量更高的圖像特征。在多個不同模式的公開數(shù)據(jù)集上的仿真實驗證明,相對于交叉熵引導(dǎo)的CNN,SVM 引導(dǎo)的CNN以及中心損失引導(dǎo)的CNN,MCVSVM 驅(qū)動的CNN 模型能夠提取到更具鑒別性的圖像特征,同時在識別應(yīng)用中具有更強的泛化性能。由于在計算類內(nèi)散度矩陣時存在較大的計算開銷,因此未來的工作將繼續(xù)對算法進行優(yōu)化,以加快CNN 模型的訓(xùn)練速度。

        猜你喜歡
        深度特征模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        夜夜高潮夜夜爽国产伦精品| 亚洲中文字幕无线乱码va | 国产 无码 日韩| 国产成人亚洲精品91专区高清| 波多野结衣不打码视频| 国产suv精品一区二人妻| 久久久久99精品成人片直播| 精品国产三级在线观看| 99成人无码精品视频| 欧洲乱码伦视频免费| 成人黄网站免费永久在线观看| 亚洲一区二区三区99| 99久久精品免费看国产| 久久99精品国产99久久6尤物| 亚洲一区二区三区av在线免费| 久久精品视频日本免费| 美丽的小蜜桃在线观看| 久久不见久久见中文字幕免费 | 丰满少妇按摩被扣逼高潮| 亚洲一区av在线观看| 高潮毛片无遮挡高清免费| 国产成人久久精品流白浆| 91精品国产91综合久久蜜臀| 国产综合在线观看| 日韩在线看片免费人成视频| 极品少妇被后入内射视| 国产自拍视频在线观看网站| 性生交片免费无码看人| 精品无码国产污污污免费| 久久精品性无码一区二区爱爱 | 狼人香蕉香蕉在线28 - 百度 | 中文字幕丰满人妻av| 亚洲av午夜福利精品一区二区| 国产爆乳无码一区二区在线| 亚洲色图视频在线播放 | 99国产精品久久一区二区三区 | 97久久超碰国产精品2021| 麻豆av一区二区天堂| 亚洲国产精品av在线| 久久夜色精品国产噜噜亚洲av| 久久夜色精品国产亚洲噜噜|