亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于樣本冗余度的主動學(xué)習(xí)優(yōu)化方法

        2021-03-16 13:57:12范純龍王翼新張振鑫
        計算機(jī)應(yīng)用與軟件 2021年3期
        關(guān)鍵詞:實驗方法

        范純龍 王翼新 宿 彤 張振鑫

        1(沈陽航空航天大學(xué)計算機(jī)學(xué)院 遼寧 沈陽 110136) 2(遼寧省大規(guī)模分布式系統(tǒng)實驗室 遼寧 沈陽 110136)

        0 引 言

        近幾年,圖像識別及其分類是深度學(xué)習(xí)領(lǐng)域中的重要應(yīng)用,其中有監(jiān)督學(xué)習(xí)是重要方法之一。但是利用該方法解決圖像分類問題需要大量的有標(biāo)簽數(shù)據(jù),然后利用分類器的參數(shù)學(xué)習(xí)樣本中的特征,從而達(dá)到較好的分類效果。對于大量有標(biāo)簽數(shù)據(jù)的需求,網(wǎng)絡(luò)技術(shù)的普遍應(yīng)用可以使人們很容易獲得海量數(shù)據(jù),但是在一些實際應(yīng)用中[1-3],取得無標(biāo)簽樣本很容易而標(biāo)注樣本是代價昂貴或耗費(fèi)時間的?;诖祟惓R姷膯栴},Angluin[1]提出了“主動學(xué)習(xí)”。

        主動學(xué)習(xí)的目的是減少對樣本數(shù)據(jù)的標(biāo)注成本,用最少的有標(biāo)簽樣本達(dá)到接近全樣本訓(xùn)練效果。主動學(xué)習(xí)按照樣本抽樣模式可分為流樣本模式和池樣本模式,由于流樣本模式的選擇策略需要根據(jù)不同的任務(wù)進(jìn)行適當(dāng)?shù)恼{(diào)整,很難作為通用方法使用。所以,近些年來主動學(xué)習(xí)主要在池樣本模式上發(fā)展[4-6],即在固定的大量無標(biāo)簽樣本集中,根據(jù)選擇策略反復(fù)選擇對當(dāng)前分類器而言信息量大的樣本,其中按照選擇策略原理不同,主要有基于不確定度[3,5,7-8]、泛化能力[9-10]、模型空間[11-12]等方法。這些策略都是根據(jù)樣本與當(dāng)前分類器或樣本分布之間的關(guān)系,每次選擇的樣本數(shù)量多、信息量大且訓(xùn)練效果明顯,但是沒有考慮到樣本對分類器而言信息重疊問題,即信息冗余問題。盡管每次選擇樣本的信息量足夠大,但是信息冗余問題會導(dǎo)致選擇多余的無意義樣本,主動學(xué)習(xí)會因此失去意義。

        主動學(xué)習(xí)的分類器選擇主要有SVM[5,7,13]、神經(jīng)網(wǎng)絡(luò)[3,8-9,14]和KNN分類器[15]。為了解決選擇樣本信息冗余問題,很多學(xué)者在以SVM為分類器的基礎(chǔ)上做了很多研究[13,16-17],提出了樣本相似性、代表性等概念解決了該問題。但是這些方法在計算這些指標(biāo)時的計算量很大,且在多分類時訓(xùn)練分類器個數(shù)較多,實用性不高。進(jìn)一步地,有學(xué)者提出將神經(jīng)網(wǎng)絡(luò)作為分類器,神經(jīng)網(wǎng)絡(luò)有能同時進(jìn)行多分類且分類效果好的優(yōu)點(diǎn)。目前方法主要考慮如何更準(zhǔn)確度量樣本不確定性,利用不確定性選擇分類邊界附近樣本,并將之作為信息量大的樣本。在解決信息冗余問題上,由于神經(jīng)網(wǎng)絡(luò)沒有明確的可解釋性,除了可視化方法外,無法明確地判斷樣本對神經(jīng)網(wǎng)絡(luò)的信息具體是什么,所以目前方法考慮更好地度量樣本對分類器的不確定性[3,8-9,14,18],沒有考慮冗余問題。

        綜上所述,SVM在計算量大、樣本類別多的情況下訓(xùn)練麻煩,在以神經(jīng)網(wǎng)絡(luò)為分類器條件下沒有解決多個樣本之間信息冗余問題。針對此問題,提出DRAL(Discriminative And Redundancy Active Learning)方法,該方法用帶有多層感知機(jī)(multi-layer perception,MLP)的卷積神經(jīng)網(wǎng)絡(luò)CNN計算得到樣本潛變量向量表示樣本信息,用不確定性方法選擇信息量大的樣本構(gòu)成候選集,利用余弦距離從候選集選出信息量大且冗余度小的樣本集。不確定性方法經(jīng)過該方法提升后,在LeNet-5和NIN(Network in Network)[19]神經(jīng)網(wǎng)絡(luò)上,用Mnist、Fashion-mnist和Cifar-10數(shù)據(jù)集測試,在相同準(zhǔn)確率條件下,最低減少11%標(biāo)記樣本。

        本文的主要貢獻(xiàn)在于:通過利用神經(jīng)網(wǎng)絡(luò)計算的潛變量,在度量樣本信息量基礎(chǔ)上提出一種降低樣本冗余度方法。

        1 相關(guān)工作

        樣本選擇策略是主動學(xué)習(xí)過程中的核心問題,在池樣本模式下,根據(jù)不同分類器有不同選擇策略。

        以SVM為分類器條件下,利用樣本與支持向量之間的距離明確地度量了樣本的信息量,例如SVM的批模式主動學(xué)習(xí)方法等[20-22],但是考慮到樣本之間分布問題,使用最大均值差異(Maximum Mean Discrepancy,MMD)[23]度量了樣本集之間的分布差異,從而保證了無標(biāo)簽集和有標(biāo)簽集的分布一致性,例如邊緣分布批模式方法(Batch Mode Active Learning,BMAL)[13]、代表性方法(Discriminative and Representative Model Active Learning,DRMAL)[16]。進(jìn)一步地,使用相似度稀疏模型(Dissimilarity-based Sparse Modeling Representative Selection,DSMRS)[24]和互信息方法度量了樣本集之間相似性從而降低了樣本集之間的冗余性。例如自適應(yīng)主動學(xué)習(xí)方法[15]、凸規(guī)劃主動學(xué)習(xí)方法(Convex Programming Active Learning,CPAL)[25]等。

        以神經(jīng)網(wǎng)絡(luò)為分類器條件下,與SVM類似,越接近分類邊界的樣本信息量越大,目前大多數(shù)采用不確定性方法度量。由于神經(jīng)網(wǎng)絡(luò)未能明確解釋原因,有些學(xué)者認(rèn)為當(dāng)前方法選擇樣本不夠接近分類邊界,需要重新選擇在分類邊界附近的樣本,例如:計算多次dropout后的結(jié)果均值作為最終分類結(jié)果的貝葉斯算法(Deep Bayesian Active Learning, DBAL)[8];利用生成對抗樣本的Deepfool算法[26]攻擊無標(biāo)記樣本(Deep Fool Active Learning, DFAL)算法;考慮到樣本分布關(guān)系,為了保證有標(biāo)記樣本集和無標(biāo)記樣本集的分布一致性,利用加入了分類器自定標(biāo)簽的高可信樣本方法(Cost-Effective Active Learning,CEAL)[27],用歐氏距離把樣本選擇問題變成K中心問題[9],這些方法都保證了分布一致性且可以選擇信息量大且數(shù)量多的樣本,但是沒有解決信息冗余問題。本文提出DRAL方法降低了冗余度,達(dá)到更好的效果。

        2 問題描述

        本節(jié)定義了主動學(xué)習(xí)問題,通過帶有MLP的CNN中的“潛變量”間接度量了樣本信息量和樣本信息冗余度。結(jié)合主動學(xué)習(xí)過程,定義了最小化冗余度問題。

        假設(shè)有m類n個樣本。基于池樣本選擇樣本模式的主動學(xué)習(xí)問題如下:

        問題1假設(shè)有標(biāo)記集樣本數(shù)量為nL,L={xi|i=1,2,…,nL};無標(biāo)記集樣本數(shù)量為nU,U={xi|i=1,2,…,nU},xi∈Rk且nL+nU=n;樣本標(biāo)簽集:Y={yi|i=1,2,…,nL}且yi∈Rm。CNN模型的損失函數(shù)為l(L,Y;f(θ)),其映射為RnL×k×RnL×m→RnL。每次從U中選擇k個樣本構(gòu)成Si集放入到L中,主動學(xué)習(xí)問題為:

        minLE[l(L,Y;f(θ))]-E[l(L+U;f(θ))]

        其中損失函數(shù)是信息交叉熵函數(shù),即:

        (1)

        式中:T是迭代次數(shù);1{·}是指示函數(shù),當(dāng)CNN預(yù)測正確時為1,否則為0;p(yi=j|xi;θ)是經(jīng)過Softmax過程后在j類的輸出結(jié)果。

        由于CNN沒有明確的可解釋性,所以明確樣本對CNN的具體信息是什么很困難。鑒于此問題,假定CNN經(jīng)過卷積層后接有MLP全連接層,并規(guī)定MLP中的隱層輸出向量為潛變量,通過潛變量抽象表示樣本信息。潛變量向量的模長表示信息量,通過計算樣本間距離大小表示信息冗余。常用距離度量有歐氏距離和余弦距離,余弦距離計算效果更好且計算得出結(jié)論相同,所以選擇余弦距離。進(jìn)一步地,內(nèi)積度量樣本間的信息冗余度,即內(nèi)積越大表示潛變量的相似度越高,被比較的兩個樣本間的信息量冗余度越高。

        I=[I1,I2,…,In]

        為了解決問題1,通過降低冗余度達(dá)到該目的,即選擇信息量大且冗余度小的樣本集。問題1變?yōu)槿绾芜x擇樣本集Si,使得樣本間冗余度最小。

        問題2假設(shè)已有冗余度矩陣R,從U中選擇樣本集Si,使得R的均值最小,即:

        minLaverage(R)

        3 冗余度方法

        冗余問題主要在多次選擇的Si樣本集之間或者單次選擇的Si集中樣本之間。假設(shè)每次選擇完Si,經(jīng)過標(biāo)記后CNN在集合L上收斂,因此,每次迭代選擇的Si樣本集之間信息冗余少,冗余問題主要在Si集中的樣本之間。

        圖1 si集的冗余度問題分析情況

        3.1 不確定性方法

        (1) 低可信度[26]:

        x*=argmaxx[1-p(ymax|xi;θ)]

        (2)

        式中:ymax=max(yi=j|xi;θ)。樣本在各個分類概率中的最大值由小到大排序,選擇前K個樣本。

        (2) 信息熵[26]:

        (3)

        按照信息熵由大到小排序,選擇前K個樣本。

        (3) 貝葉斯估計[8]:

        (4)

        在多次dropout值條件下平均分類結(jié)果,然后結(jié)合式(2)和式(3)選擇樣本。

        3.2 冗余度算法

        如圖1(a)所示,上述不確定性方法選擇樣本過程僅是按照給定計算指標(biāo)排序選擇一些樣本作為Si集,該過程中并沒有考慮樣本冗余,從而選擇了無意義的樣本?;诖藛栴}提出DRAL方法,如圖1(b)所示,將位于CNN分類邊界附近的樣本構(gòu)成候選樣本集,該集合包括所有類別。最后,從該候選樣本集中選擇冗余度小的樣本子集。

        根據(jù)不確定性方法選擇位于CNN分類邊界附近的樣本構(gòu)成候選樣本集。計算所有候選樣本間的潛變量間余弦距離矩陣:

        (5)

        利用距離矩陣得到冗余度小的樣本集,即每次從候選集選出與待標(biāo)記集最不相似的樣本,特別地,若L為空集則選擇與候選集最相似樣本。冗余度算法如算法1所示。

        算法1冗余度算法

        輸入:距離矩陣D;樣本數(shù)目k。

        輸出:待標(biāo)記樣本集L。

        1. While |L|

        2. IfL=?:

        3.P=average_column(D);/*根據(jù)式(5)計算距離矩陣D行均值向量*/

        4. Index=min(P);/*得到與整個候選集最相似的樣本索引*/

        5. Else

        6.D1=D(L);P=average_row(D1);/*按照L中樣本在候選集中索引,把D行向量拼接成D矩陣,計算D列均值*/

        7. Index=max(P);/*取出與L樣本集最不相似的樣本*/

        8.L=L+index;/*做標(biāo)記,放入L中*/

        9.D=L-D;/*按照L中樣本在候選集中索引,把D列向量刪除*/

        10. End while

        11. returnL

        3.3 DRAL方法

        從上述算法可看出,利用余弦距離、冗余度算法的目的是從候選樣本集中選擇具有類別多樣性、冗余度小的樣本集。結(jié)合上述不確定性方法,DRAL算法過程如算法2所示。

        算法2DRAL算法

        輸入:有標(biāo)簽樣本集L;無標(biāo)記樣本集U;每次選擇樣本數(shù)K;候選樣本數(shù)NK;最大迭代次數(shù)T;當(dāng)前迭代次數(shù)t。

        輸出:CNN模型。

        1. 在L上初始化CNN;

        2. whilet

        3.C=uncertain(U);

        /*根據(jù)不確定方法(1)或方法(2)或

        /方法(3),在U中選擇NK個樣本,構(gòu)成候選集C*/

        4.Dis=D(C);

        /*計算所有樣本之間余弦距離,構(gòu)成距離矩陣D*/

        5.Q=R(Dis,K);

        /*由算法1可得,從候選集C中得到樣本

        /數(shù)目為K的待標(biāo)記樣本集Q*/

        6.L=L+Q;U=U-Q;

        /*在有標(biāo)簽集添加Q,從無標(biāo)簽集刪除Q*/

        7. CNN=train(CNN,L);

        /*在L上訓(xùn)練CNN*/

        8. end while

        9. return CNN

        假設(shè)在無標(biāo)記樣本池中,一輪內(nèi)選出K個樣本,以LeNet-5網(wǎng)絡(luò)為分類器有S個卷積核,設(shè)單個卷積核計算時間為ts,DRAL方法和不確定性方法的時間復(fù)雜度分析如下:

        不確定性方法:

        TU=Ts+Tk

        (6)

        DRAL方法:

        TD=Ts+Tk+TR

        (7)

        式中:Ts是經(jīng)過網(wǎng)絡(luò)訓(xùn)練時間;Tk是排序選擇樣本時間;TR是冗余度計算時間。

        Ts=tsKS=O(tsS)

        (8)

        Tk=K=O(1)TR=NK=O(N)

        (9)

        顯然,tsS?N>1,則Ts?TR>Tk,時間主要消耗在訓(xùn)練神經(jīng)網(wǎng)絡(luò)上,則式(6)與式(7)有如下關(guān)系:

        TU≈TD≈O(tsS)

        (10)

        由式(10)可得出兩種方法的運(yùn)行時間大致相同。

        4 實驗與結(jié)果分析

        4.1 數(shù)據(jù)集和網(wǎng)絡(luò)結(jié)構(gòu)

        在Lenet和NIN模型上對Mnist、Fashion-mnist,以及Cifar-10進(jìn)行多次實驗。神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)見表1和表2,數(shù)據(jù)集的說明如下:

        (1) Mnist:28×28灰度圖,共10類。用于識別手寫數(shù)字?jǐn)?shù)據(jù)集,其中:訓(xùn)練集50 000幅,驗證集5 000幅,測試集10 000幅。實驗用10 000幅作為無標(biāo)記樣本池。

        (2) Fashion-mnist:28×28灰度圖,共10類。用于識別時尚服裝數(shù)據(jù)集,其中:訓(xùn)練集50 000幅,測試集10 000幅。由于復(fù)雜度比Mnist更高,實驗用20 000幅作為無標(biāo)記樣本池。

        (3) Cifar-10:32×32×3彩色圖,共10類。用于識別普適物體的小型數(shù)據(jù)集,其中:訓(xùn)練集50 000幅,測試集10 000幅。實驗用20 000幅作為無標(biāo)記樣本池。

        表1 Mnist和Fashion-mnist實驗網(wǎng)絡(luò)結(jié)構(gòu)

        表2 Cifar-10實驗網(wǎng)絡(luò)結(jié)構(gòu)

        續(xù)表2

        4.2 實驗參數(shù)

        為了降低實驗偶然性的影響,每個數(shù)據(jù)集實驗都是平均了5次的結(jié)果。每次實驗中,為了避免模型在訓(xùn)練過程中具有傾向性,每次迭代選擇的驗證集是從現(xiàn)有的有標(biāo)簽集中的每類隨機(jī)均勻抽取2%樣本,且在各個數(shù)據(jù)集實驗的CNN初始化網(wǎng)絡(luò)參數(shù)一樣。

        實驗使用Python平臺的Keras工具包,將DRAL方法與不確定性方法中的低可信度[26]、信息熵[26]和貝葉斯方法[8]進(jìn)行了多次對比。對于Mnist數(shù)據(jù)集,n0=100,T=15,N=3,K=100,特征向量長度128,網(wǎng)絡(luò)結(jié)構(gòu)見表1。對于Fashion-mnist數(shù)據(jù)集,n0=200,T=20,N=10,K=150,特征向量長度256,網(wǎng)絡(luò)結(jié)構(gòu)見表1,特別地,F(xiàn)c層輸出長度變?yōu)?56。Cifar-10數(shù)據(jù)集,考慮到數(shù)據(jù)集復(fù)雜性和網(wǎng)絡(luò)訓(xùn)練問題為了能減少過擬合和結(jié)果穩(wěn)定性,dropout值降低,n0=1 000,T=20,N=30,K=150,dropout=0.25,特征向量長度512。本文實驗對比的是3.1節(jié)的不確定性方法。

        4.3 實驗結(jié)果分析

        為了驗證DRAL算法有效性,由于數(shù)據(jù)集的復(fù)雜度不同,因此不同的數(shù)據(jù)集使用不同的網(wǎng)絡(luò)結(jié)構(gòu)。結(jié)果見圖2。

        圖2 DRAL算法在不同數(shù)據(jù)集上的實驗結(jié)果

        可以明顯看出,DRAL算法在原有的不確定性方法中有明顯的提升。以不確定性方法的最高準(zhǔn)確率所需樣本為對比,在Mnist中,不確定性方法達(dá)到98%時,entropy最高減少28%樣本,Bayesian方法最低減少16%樣本;在Fashion-mnist中,不確定性方法達(dá)到85%時,least最高減少30%樣本,entropy最少減少14%樣本;在Cifar-10中,三種方法在達(dá)到52%準(zhǔn)確率時,least最高減少22%,Bayesian最少減少11%樣本。從上述結(jié)果分析可知,DRAL方法在三種方法最高減少30%樣本,最低減少11%樣本。

        從這些結(jié)果中可以發(fā)現(xiàn),原來的三種不確定性方法所選擇的樣本的信息對于分類器而言具有冗余性。因為DRAL算法主要是經(jīng)過冗余度算法選出冗余度小的樣本集。圖2中準(zhǔn)確率升高,相同樣本數(shù)目下,信息量變大,冗余度因此降低。以時間為代價,DRAL方法可以合理有效提升不確定性方法。

        為了降低潛變量特征向量長度和候選樣本數(shù)目對樣本冗余度研究的影響,對潛變量特征向量長度和候選樣本數(shù)目進(jìn)行了實驗。在Fashion-mnist中,特征向量分別是128和256以及候選樣本數(shù)目分別是300和1 000的條件下,都經(jīng)過DRAL-least方法的兩組實驗。信息冗余度與特征向量長度和候選樣本數(shù)目關(guān)系實驗結(jié)果如圖3所示。

        圖3 DRAL算法中特征向量長度和候選樣本數(shù)與冗余度的關(guān)系

        圖3(a)實驗是在Fashion-mnist數(shù)據(jù)集中,候選樣本數(shù)量1 000的條件下,特征向量長度分別為128和256。由于CNN在最后一層的寬度不同,所以初始化網(wǎng)絡(luò)參數(shù)不一致,對于此問題,本實驗盡可能讓初始化網(wǎng)絡(luò)在測試集上效果相同??梢钥闯?,當(dāng)模型準(zhǔn)確率達(dá)到80%時,前者比后者多了100個有標(biāo)記樣本。所以,特征向量越長所帶有的信息量更多。

        圖3(b)實驗是在同樣的數(shù)據(jù)集中,在n0=200、T=20、K=100、特征向量長度為256的條件下,候選集的樣本數(shù)量分別是300和1 000,初始化網(wǎng)絡(luò)參數(shù)均相同。同樣地,當(dāng)模型準(zhǔn)確率達(dá)到80%時,前者比后者多用了100個有標(biāo)記樣本。通過該實驗可以比較出,若候選樣本數(shù)量較少時,候選樣本集所帶有的信息量不足,但冗余度小,此時會受到樣本數(shù)目的影響。

        經(jīng)過上述實驗可以看出,經(jīng)過CNN計算得出的特征向量維度越高,候選樣本越多帶有的信息量越多,經(jīng)過DRAL算法提升后效果越明顯。而所選擇的候選樣本數(shù)目越多,信息冗余性越強(qiáng)。經(jīng)過DRAL算法提升效果越好。

        5 結(jié) 語

        在主動學(xué)習(xí)池樣本選擇模式下,本文提出一種減少樣本信息冗余的DRAL方法,使用不確定性方法經(jīng)過CNN選擇大量的候選樣本構(gòu)成候選集,在候選集中利用樣本余弦距離關(guān)系進(jìn)行第二次篩選,從而得到信息量較大且冗余度小的樣本集。該方法可以有效地減少樣本數(shù)據(jù)冗余,進(jìn)一步減少模型所需的有標(biāo)記樣本數(shù)量。未來可以進(jìn)一步優(yōu)化不確定性方法。

        猜你喜歡
        實驗方法
        記一次有趣的實驗
        微型實驗里看“燃燒”
        做個怪怪長實驗
        學(xué)習(xí)方法
        可能是方法不對
        NO與NO2相互轉(zhuǎn)化實驗的改進(jìn)
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        三级日本理论在线观看| 国产在线白丝DVD精品| 丁香婷婷色| 亚洲国产丝袜美女在线| 精品国产一区二区三区不卡在线| 最近2019年好看中文字幕视频| 日韩精品无码久久一区二区三| 无码专区无码专区视频网址 | 日韩一区二区三区熟女| 免费女人高潮流视频在线观看| 国产剧情麻豆女教师在线观看 | 中文字幕亚洲日本va| 有坂深雪中文字幕亚洲中文| 亚洲av日韩精品久久久久久久| 国产成人v爽在线免播放观看| 亚洲av精品一区二区三| 91精品国产综合久久久密臀九色 | 久久国内精品自在自线图片| 欧美日韩国产专区| 在线视频亚洲一区二区三区| 亚洲国产成人久久综合碰碰| 国内精品人妻无码久久久影院导航| 97视频在线播放| 日本大片在线一区二区三区| 精品高朝久久久久9999| 无码少妇a片一区二区三区| 欧美成人精品福利在线视频| 亚洲av熟女传媒国产一区二区| 曰韩无码无遮挡a级毛片| 日韩精品一区二区三区视频| 厕所极品偷拍一区二区三区视频| 蜜臀av毛片一区二区三区| 亚洲国色天香卡2卡3卡4| 欧美日韩亚洲成色二本道三区 | 久久精品国产亚洲AV成人公司| 蜜桃视频成年人在线观看| 极品尤物一区二区三区| 国产一区二区三区av在线无码观看 | 免费国产自拍视频在线观看| 日本丰满老妇bbw| 亚洲成人小说|