亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于主動(dòng)學(xué)習(xí)的半監(jiān)督領(lǐng)域自適應(yīng)方法研究①

        2020-09-18 11:44:02姚明海黃展聰
        高技術(shù)通訊 2020年8期
        關(guān)鍵詞:源域分類器標(biāo)簽

        姚明海 黃展聰

        (浙江工業(yè)大學(xué)信息工程學(xué)院 杭州 310023)

        0 引 言

        自2006年Hinton等人[1]采用逐層初始化解決深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練以來,深度學(xué)習(xí)已廣泛用于模式識(shí)別、圖像理解、機(jī)器翻譯等領(lǐng)域。2016年,深度學(xué)習(xí)模型在ImageNet圖像集上的識(shí)別錯(cuò)誤率已經(jīng)低于人類[2]。然而,現(xiàn)有的深度學(xué)習(xí)模型訓(xùn)練都以監(jiān)督學(xué)習(xí)為主[3],為了訓(xùn)練包含巨大參數(shù)量的模型,需要大量的人工標(biāo)注訓(xùn)練樣本,并假設(shè)訓(xùn)練和應(yīng)用場(chǎng)景數(shù)據(jù)屬于同一分布。但在實(shí)際中,由于許多因素(如照明、姿態(tài)和圖像質(zhì)量等)的影響,訓(xùn)練和應(yīng)用場(chǎng)景的樣本分布往往不一致,使訓(xùn)練好的模型在應(yīng)用場(chǎng)景下的性能嚴(yán)重降低。此時(shí)需要重新標(biāo)注應(yīng)用場(chǎng)景數(shù)據(jù)再進(jìn)行訓(xùn)練,而為新任務(wù)標(biāo)注數(shù)據(jù)集并重新訓(xùn)練是昂貴且耗時(shí)的過程,上述問題成為深層神經(jīng)網(wǎng)絡(luò)應(yīng)用中新的難題。

        領(lǐng)域自適應(yīng)學(xué)習(xí)[4]是一種解決如何將分類器從訓(xùn)練場(chǎng)景遷移到與之不同的應(yīng)用場(chǎng)景的新型機(jī)器學(xué)習(xí)方法,其中訓(xùn)練場(chǎng)景稱為源域,應(yīng)用場(chǎng)景稱為目標(biāo)域。源域和目標(biāo)域的分布雖然不同,但是具有一定相關(guān)性,且只有源域數(shù)據(jù)具有標(biāo)簽信息,而目標(biāo)域數(shù)據(jù)沒有或者只有少量標(biāo)簽信息可用[5]。從領(lǐng)域自適應(yīng)學(xué)習(xí)提出至今,學(xué)者們已經(jīng)提出了許多方法。Fetzer等人[6]引入了深度域混淆(DDC)架構(gòu)來學(xué)習(xí)最后隱藏層中源域和目標(biāo)域的域不變特征。Long等人[7]不局限于僅適配單一層,提出了一種深度自適應(yīng)網(wǎng)絡(luò)(DAN),進(jìn)行多層適配來學(xué)習(xí)2個(gè)領(lǐng)域間的可遷移特征。之后,Long等人[8]在DAN的基礎(chǔ)上,提出了聯(lián)合自適應(yīng)網(wǎng)絡(luò)(JAN),基于聯(lián)合最大均值差異(JMMD)進(jìn)行多個(gè)領(lǐng)域特定層的聯(lián)合分布,使得源域和目標(biāo)域的分布更加可區(qū)分。

        國內(nèi)方面,袁丁等人[9]在DAN[8]的基礎(chǔ)上引入了聚類輔助特征對(duì)齊,該方法通過聚類獲得目標(biāo)域數(shù)據(jù)偽標(biāo)記,并將聚類和域適應(yīng)2個(gè)過程訓(xùn)練的分類器進(jìn)行繼承學(xué)習(xí),以提升模型的最終效果。蔡瑞初等人[10]提出類內(nèi)最大均值差異技術(shù)對(duì)齊2個(gè)領(lǐng)域的類內(nèi)分布,既保留分類信息,又減少了領(lǐng)域?qū)S眯畔⒌母蓴_。

        文獻(xiàn)[6-10]方法共同特點(diǎn)是訓(xùn)練時(shí)同時(shí)輸入已標(biāo)注源域樣本和未標(biāo)注目標(biāo)域樣本,訓(xùn)練中除了利用源域樣本學(xué)習(xí)如何優(yōu)化分類器外,還學(xué)習(xí)源域和目標(biāo)域的數(shù)據(jù)關(guān)聯(lián),進(jìn)而提取領(lǐng)域不變特征[5],建立更優(yōu)秀的學(xué)習(xí)模型。由于這些方法在訓(xùn)練時(shí)不需要任何目標(biāo)域數(shù)據(jù)的標(biāo)簽信息,因此屬于無監(jiān)督學(xué)習(xí)范疇。雖然文獻(xiàn)[6-10]的方法取得了一定效果,但從結(jié)果上可以發(fā)現(xiàn)僅使用源域標(biāo)簽信息學(xué)習(xí)得到的模型仍然無法完全適配目標(biāo)域。

        本文提出了一種基于主動(dòng)學(xué)習(xí)的半監(jiān)督領(lǐng)域自適應(yīng)方法,該方法與文獻(xiàn)[6-10]方法的主要差別在于利用了少量的目標(biāo)域標(biāo)簽信息輔助源域上學(xué)習(xí)得到的分類器更好地遷移到目標(biāo)域。為了實(shí)現(xiàn)上述目標(biāo),首先用源域和未標(biāo)記的目標(biāo)域數(shù)據(jù)訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)作為初始模型,該模型可以通過提取領(lǐng)域不變特征讓源域上學(xué)習(xí)得到的特征分類器基本適用于目標(biāo)域。然后結(jié)合主動(dòng)學(xué)習(xí)進(jìn)一步加強(qiáng)領(lǐng)域自適應(yīng)效果,具體做法是通過特定的樣本選擇策略不斷挑選目標(biāo)域中最具代表性的樣本進(jìn)行人工標(biāo)注,然后迭代訓(xùn)練已有模型,直到預(yù)先設(shè)置終點(diǎn)。最后,在SVHN、MNIST和USPS數(shù)據(jù)集上分別進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文方法的領(lǐng)域自適應(yīng)能力優(yōu)于目前具有競爭力的同類方法。

        1 主動(dòng)學(xué)習(xí)

        在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)模型的時(shí)候,隨著訓(xùn)練數(shù)據(jù)的增加,網(wǎng)絡(luò)模型的精度會(huì)不斷提升。但是當(dāng)訓(xùn)練數(shù)據(jù)量達(dá)到臨界值時(shí),精度基本不會(huì)產(chǎn)生變化,而這個(gè)臨界值和數(shù)據(jù)樣本本身有關(guān)。主動(dòng)學(xué)習(xí)[11]可以通過挑選更具代表性的樣本迭代訓(xùn)練模型使臨界值更早地到來,既提升了模型收斂的速度,同時(shí)節(jié)省了人力標(biāo)注的成本。

        圖1是主動(dòng)學(xué)習(xí)的基本流程,主要包括“學(xué)習(xí)模塊”和“選擇策略”2個(gè)最基本的重要模塊?!皩W(xué)習(xí)模塊”通過不斷地迭代訓(xùn)練網(wǎng)絡(luò)模型來提高分類器的分類精度和魯棒性;“選擇策略”模塊通過某種選擇策略選擇出更具代表性的樣本進(jìn)行標(biāo)記之后送入“學(xué)習(xí)模塊”。

        目前常見的領(lǐng)域自適應(yīng)方法,如文獻(xiàn)[6-10]僅利用已標(biāo)注源域樣本和未標(biāo)注目標(biāo)域樣本本身數(shù)據(jù)關(guān)聯(lián)性學(xué)習(xí)得到的模型仍然無法完全適配目標(biāo)域數(shù)據(jù),因此可以考慮適當(dāng)利用少量的目標(biāo)域標(biāo)簽信息提升領(lǐng)域自適應(yīng)效果,主動(dòng)學(xué)習(xí)正是用于解決標(biāo)注樣本短缺條件下如何訓(xùn)練機(jī)器學(xué)習(xí)模型。文獻(xiàn)[12,13]的ALDA(active learning for domain adaptation)算法證明了這種結(jié)合的可行性,ALDA包括3部分,源域分類器Wsrc、目標(biāo)域分類器Wds和域判別器uφ。ALDA使用uφ從未標(biāo)記的目標(biāo)域樣本中選擇樣本然后決定是使用Wsrc獲取標(biāo)簽還是人工標(biāo)注,uφ不斷使用標(biāo)注后的樣本訓(xùn)練。

        與ALDA不同,本文提出的方法使用了深層神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)中的域判別器除了在訓(xùn)練中幫助減小源域和目標(biāo)域在特征空間上的差距外,還參與了樣本選擇。第2節(jié)將具體介紹本文算法。

        圖1 主動(dòng)學(xué)習(xí)基本流程

        2 基于主動(dòng)學(xué)習(xí)的半監(jiān)督領(lǐng)域自適應(yīng)方法

        2.1 問題定義

        本文以圖像分類問題為背景,問題中的輸入記為x∈X,x對(duì)應(yīng)的標(biāo)簽記為y∈Y,Y是一個(gè)有限的集合,Y={1,2,…,L}。假設(shè)在X?Y上存在2個(gè)分布PS(x,y)和PT(x,y),代表源域數(shù)據(jù)分布和目標(biāo)域數(shù)據(jù)分布。上述兩者分布都是復(fù)雜且未知的,并存在一定差距。

        根據(jù)源域和目標(biāo)域分布的邊緣分布PS(x)和PT(x)可以獲得大量的訓(xùn)練樣本集合{x1,x2,…,xN}。本文使用一個(gè)0或1的標(biāo)量di代表第i個(gè)樣本xi來自哪一個(gè)域,di等于0代表xi~PS(x),反之di等于1代表xi~PT(x)。為了后續(xù)描述方便,源域樣本集合記為Ls,目標(biāo)域樣本集合記為UT。

        在初始訓(xùn)練時(shí),源域樣本的標(biāo)簽是已知的,而目標(biāo)域樣本的標(biāo)簽是未知的。之后的訓(xùn)練中,需要從目標(biāo)域中挑選樣本進(jìn)行人工標(biāo)注加入源域數(shù)據(jù)并重新訓(xùn)練模型。

        本文最終的目標(biāo)是給定來自目標(biāo)域分布的輸入x時(shí),能夠預(yù)測(cè)它的標(biāo)簽。

        2.2 網(wǎng)絡(luò)結(jié)構(gòu)

        現(xiàn)定義一個(gè)深層神經(jīng)網(wǎng)絡(luò),其作用是對(duì)于每一個(gè)樣本x預(yù)測(cè)其分類標(biāo)簽y∈Y和領(lǐng)域標(biāo)簽d∈{0,1}。為了完成上述映射,網(wǎng)絡(luò)結(jié)構(gòu)分成3部分,如圖2所示。先讓輸入x通過一個(gè)特征提取網(wǎng)絡(luò)Gf,其把x映射成一個(gè)D維特征向量f∈RD。Gf由一系列卷積層和激活函數(shù)層組成,其參數(shù)記為θf,此時(shí)有f=Gf(x;θf)。然后,使用另一個(gè)卷積神經(jīng)網(wǎng)絡(luò)Gy作為標(biāo)簽預(yù)測(cè)網(wǎng)絡(luò)把f映射成分類標(biāo)簽y,Gy參數(shù)記為θy。同時(shí),使用另一個(gè)卷積神經(jīng)網(wǎng)絡(luò)Gd作為域預(yù)測(cè)網(wǎng)絡(luò)把f映射成領(lǐng)域標(biāo)簽d,Gd參數(shù)記為θd。

        在訓(xùn)練時(shí),首先希望減小源域數(shù)據(jù)的標(biāo)簽預(yù)測(cè)損失,并基于此優(yōu)化Gf和Gy的參數(shù)。這使得不同類別的輸入訓(xùn)練得到的特征f具有區(qū)分性,并保證Gf和Gy的組合對(duì)于源域數(shù)據(jù)能成功地預(yù)測(cè)其標(biāo)簽。

        同時(shí),特征向量f應(yīng)具有領(lǐng)域不變性,即源域數(shù)據(jù)和目標(biāo)域數(shù)據(jù)都通過Gf映射到同一個(gè)特征空間,映射后的特征分布PS(f)和PT(f)盡量一致,從而讓標(biāo)簽分類網(wǎng)絡(luò)Gf適用于目標(biāo)域數(shù)據(jù)的特征圖,保證總體上源域和目標(biāo)域數(shù)據(jù)標(biāo)簽預(yù)測(cè)準(zhǔn)確率一致。

        受到對(duì)抗神經(jīng)網(wǎng)絡(luò)[14](generative adversarial network,GAN)的啟發(fā),本文使用額外的網(wǎng)絡(luò)Gd來衡量PS(f)和PT(f)一致性。在訓(xùn)練中,Gf盡量輸出讓Gd分辨不出來自源域還是目標(biāo)域的特征向量,Gd盡量分辨出數(shù)據(jù)來自于哪一個(gè)域,最終,Gf與Gd博弈的結(jié)果是源域和目標(biāo)域的數(shù)據(jù)在特征空間上分布一致,繼而可以用Gf來分類目標(biāo)域的數(shù)據(jù)。

        為了實(shí)現(xiàn)上述訓(xùn)練目標(biāo),本文設(shè)計(jì)損失函數(shù)如下,其中λ是權(quán)重系數(shù),Lc是交叉熵。

        E(θf,θy,θd)=λEx~PS(x)[Lc(Gy(Gf(x),y))]

        +Ex~PS(x)[logGd(Gf(x))]

        +Ex~PT(x)[log(1-Gd(Gf(x)))]

        (1)

        與GAN網(wǎng)絡(luò)的對(duì)抗訓(xùn)練方式一致,利用上述損失函數(shù)在訓(xùn)練中更新θf和θy時(shí)需固定θd,反之在更新θd時(shí)需固定θf和θy,即,

        (2)

        圖2 網(wǎng)絡(luò)結(jié)構(gòu)圖

        2.3 重要性分?jǐn)?shù)

        通過訓(xùn)練上述網(wǎng)絡(luò)得到的模型M已經(jīng)具備對(duì)Ut樣本分類的能力,但訓(xùn)練過程中僅利用了源域標(biāo)簽,最終預(yù)測(cè)精度具有局限性,在實(shí)驗(yàn)分析部分可看到具體結(jié)果。因此本文選擇從Ut中選擇少量重要的樣本標(biāo)注后迭代訓(xùn)練M,以提升M分類精度,本小節(jié)介紹如何計(jì)算Ut中樣本重要性分?jǐn)?shù)用以后續(xù)選擇。

        文獻(xiàn)[15]提出了一種帶權(quán)重的領(lǐng)域自適應(yīng)損失函數(shù),如式(3)所示:

        (3)

        本文將上述2個(gè)特征用于目標(biāo)域樣本重要性分?jǐn)?shù)計(jì)算,但直接應(yīng)用存在困難,首先因?yàn)閣(x)計(jì)算時(shí)無法直接估計(jì)源域和目標(biāo)域2個(gè)高維分布,其次由于目標(biāo)域樣本沒有標(biāo)記導(dǎo)致無法計(jì)算其經(jīng)驗(yàn)風(fēng)險(xiǎn)。

        (4)

        針對(duì)第2個(gè)問題,本文使用目標(biāo)域樣本的熵近似交叉熵[16]。最終定義樣本的重要性分?jǐn)?shù)s(x)如下,其中H(·)代表熵值。s(x)越大表示該樣本越值得標(biāo)注。

        (5)

        2.4 主動(dòng)學(xué)習(xí)過程描述

        輸入已標(biāo)記源域數(shù)據(jù)LS,未標(biāo)記目標(biāo)域數(shù)據(jù)Ut,已標(biāo)記目標(biāo)域數(shù)據(jù)LT,預(yù)設(shè)輪數(shù)b。

        模型M={Gy,Gf,Gd},具體結(jié)構(gòu)及目標(biāo)函數(shù)見2.2節(jié)。

        步驟1利用LS和UT訓(xùn)練M,訓(xùn)練采用目前常見的小批量訓(xùn)練梯度下降(mini-batch gradient descen)法[17],每個(gè)批次從LS和UT中隨機(jī)采樣。

        步驟2根據(jù)2.3節(jié)的方法,使用訓(xùn)練完成的M計(jì)算UT所有樣本的重要性分?jǐn)?shù)s(x),降序排序選取前b個(gè)進(jìn)行人工標(biāo)注,其集合記為LT,此時(shí)UT=UT/LT。

        步驟3使用LT、LS、UT重新訓(xùn)練M。與初始階段只有一個(gè)源域不同,現(xiàn)在有LS和LT2個(gè)源域。此類多源域領(lǐng)域自適應(yīng)問題的泛化邊界[18]如下:

        (6)

        εa(h)=atεT(h)+asεS(h)

        (7)

        因此,使用Ls、Lt、Ut重新訓(xùn)練模型M時(shí)可以把LS、LT看成整體,同樣采用步驟1的小批量訓(xùn)練梯度下降法,每個(gè)批次從Ls、Lt、Ut隨機(jī)采樣。

        步驟4重復(fù)步驟2和3,直到M的總訓(xùn)練次數(shù)到達(dá)預(yù)設(shè)值b。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集介紹

        本文選擇MNIST數(shù)據(jù)集,SVHN數(shù)據(jù)集和USPS數(shù)據(jù)集作為本文的實(shí)驗(yàn)對(duì)象。MNIST數(shù)據(jù)集[19]是一種廣泛使用的灰度手寫數(shù)字?jǐn)?shù)據(jù)集,包含60 000個(gè)訓(xùn)練圖像和10 000個(gè)測(cè)試圖像。USPS數(shù)據(jù)集[20]是美國郵政服務(wù)手寫數(shù)字識(shí)別庫,庫中共有9 298個(gè)手寫數(shù)字圖像,均為灰度圖像,灰度值已被歸一化。街景門牌號(hào)碼(SVHN)[21]則是包含來自Google Street View的各種房屋號(hào)碼,圖像具有一定的實(shí)際背景。 利用上述3個(gè)數(shù)據(jù)可以構(gòu)建以下3項(xiàng)任務(wù): SVHN→MNIST、MNIST→USPS和USPS→MNIST。在每項(xiàng)任務(wù)中,左邊的數(shù)據(jù)集作為源域,右邊的數(shù)據(jù)集作為目標(biāo)域,其中所有圖像都重新調(diào)整為32×32的像素分辨率。

        3.2 實(shí)驗(yàn)設(shè)置

        本文實(shí)驗(yàn)運(yùn)行在搭載GTX1080顯卡的機(jī)器上,使用Python語言編寫程序,其中圖像預(yù)處理的部分使用了OpenCV3.4庫,檢測(cè)算法使用Keras2.0搭建模型,TensorFlow1.4作為后端,使用Adam優(yōu)化算法訓(xùn)練網(wǎng)絡(luò)參數(shù),初始學(xué)習(xí)率lr=2e-3,動(dòng)量參數(shù)β1=0.5,β2=0.999。

        在主動(dòng)學(xué)習(xí)的每一輪訓(xùn)練中訓(xùn)練20個(gè)周期,其中每個(gè)批次的大小為128,λ=0.1,樣本選擇的數(shù)量為20,共進(jìn)行20輪。

        3.3 結(jié)果分析

        3.3.1 交叉實(shí)驗(yàn)

        本文算法的目的是結(jié)合主動(dòng)學(xué)習(xí)讓源域上學(xué)習(xí)得到的分類器更好適配到目標(biāo)域,主要依賴解決以下2個(gè)問題:(1)選擇哪些目標(biāo)域樣本進(jìn)行標(biāo)注?(2)樣本標(biāo)注后如何訓(xùn)練模型? 針對(duì)上面2個(gè)問題,本文選擇了一些其他方法展開交叉實(shí)驗(yàn),實(shí)驗(yàn)中樣本的選擇策略如下:

        (1)依據(jù)重要性分?jǐn)?shù):如2.3節(jié)所述。

        (2)K-Means聚類[22]:對(duì)特征向量Gf(x), ?x∈Ut進(jìn)行聚類,共選擇b個(gè)聚類中心,對(duì)每個(gè)類選擇離其中心最近的類。

        (3)BVSB法[23]:對(duì)于Ut的每個(gè)樣本,Gy會(huì)輸出其對(duì)應(yīng)每個(gè)分類標(biāo)簽的置信度,BVSB值是最大的置信度和第2大置信度之間的差值,代表該樣本的不確定性,BVSB值越大代表分類器對(duì)該樣本越不確定其屬于哪個(gè)類別。

        (4)隨機(jī)選擇:從Ut中隨機(jī)選擇待標(biāo)注樣本。

        對(duì)于標(biāo)注后的訓(xùn)練有如下選擇:

        1)對(duì)抗訓(xùn)練:如2.4節(jié)所述,使用{Ls,Lt,Ut}重新訓(xùn)練。

        2)微調(diào)[24]:固定特征提取網(wǎng)絡(luò)Gf、域判別網(wǎng)絡(luò)Gd,僅使用Lt更新標(biāo)簽分類器Gy的參數(shù)。

        圖3是不同采樣策略的實(shí)驗(yàn)對(duì)比結(jié)果,訓(xùn)練方法都使用{Ls,Lt,Ut}重新訓(xùn)練,其中橫坐標(biāo)是標(biāo)注樣本的總數(shù),縱坐標(biāo)是3個(gè)任務(wù)的平均準(zhǔn)確率。從圖4中看到本文方法的準(zhǔn)確率基本在每一輪都高于其他方法,此外在標(biāo)注樣本增多時(shí)能保證準(zhǔn)確率持續(xù)上升,而其他方法均不能保證。這是由于其他方法可能使某一類別的分類準(zhǔn)確率很高,而其他類別較低,從而整體平均準(zhǔn)確率反而下降。

        圖4是不同訓(xùn)練方法實(shí)驗(yàn)對(duì)比結(jié)果,樣本選擇策略都依據(jù)2.3節(jié)。從圖中可以看到標(biāo)注數(shù)量小于300時(shí),對(duì)抗訓(xùn)練效果明顯優(yōu)于微調(diào)。而在標(biāo)注數(shù)量超過300后,兩者準(zhǔn)確率提升都不明顯,微調(diào)方法的準(zhǔn)確率略高于對(duì)抗訓(xùn)練。整體上,采用對(duì)抗訓(xùn)練能比微調(diào)獲得更好的效果。

        圖3 不同采樣策略的對(duì)比結(jié)果

        圖4 不同訓(xùn)練方法對(duì)比結(jié)果

        3.3.2 同類方法比較

        除了上述實(shí)驗(yàn)外,本文與目前主流方法ALDA[12,13]進(jìn)行了對(duì)比。圖5是準(zhǔn)確率上的對(duì)比結(jié)果,可以看到本文算法整體效果都優(yōu)于ALDA,當(dāng)標(biāo)注樣本數(shù)達(dá)到340時(shí),本文算法平均準(zhǔn)確率比ALDA高出7.8%。

        為了進(jìn)一步對(duì)比,本文還統(tǒng)計(jì)了不同方法達(dá)到指定平均準(zhǔn)確率所需的人工成本和模型收斂時(shí)間,分別如圖7和圖8所示。結(jié)合主動(dòng)學(xué)習(xí)的領(lǐng)域自適應(yīng)方法的人工成本主要在于目標(biāo)域樣本的標(biāo)注,從表1可以看到,本文方法達(dá)到指定平均準(zhǔn)確率所需要的人工成本比ALDA分別減少了33.33%、54.54%、35.48%、26.53%。

        圖5 與ALDA對(duì)比結(jié)果

        表1 不同方法達(dá)到指定平均準(zhǔn)確率所需的標(biāo)注數(shù)量

        另外,表2為不同方法不同標(biāo)注數(shù)量所需的收斂時(shí)間,其中標(biāo)注數(shù)量0對(duì)應(yīng)2.4節(jié)中步驟1所用的時(shí)間,由于本文方法參數(shù)數(shù)量大于ALDA,因此在初始訓(xùn)練時(shí)所花的時(shí)間大于ALDA方法。

        其余標(biāo)注數(shù)量為100、200、300和400對(duì)應(yīng)2.4節(jié)中步驟4的時(shí)間,這部分中本文方法與ALDA所用時(shí)間相差不大,這是因?yàn)榇藭r(shí)訓(xùn)練時(shí)的初始參數(shù)是上一次收斂后的參數(shù),因此都能較快收斂。同時(shí),隨著標(biāo)注數(shù)量的增加,收斂時(shí)間逐漸減少,這是因?yàn)槟繕?biāo)域標(biāo)注數(shù)量增加時(shí),準(zhǔn)確率提升的程度逐漸減小,從而模型參數(shù)變化程度減小,導(dǎo)致收斂越來越快??傮w上,本文方法能更好地讓源域上學(xué)習(xí)得到的分類器適用于目標(biāo)域。

        表2 不同方法不同標(biāo)注數(shù)量所需的收斂時(shí)間(s)

        4 結(jié) 論

        本文提出了一種基于主動(dòng)學(xué)習(xí)的半監(jiān)督領(lǐng)域自適應(yīng)方法,它可以解決機(jī)器學(xué)習(xí)應(yīng)用中由于訓(xùn)練場(chǎng)景和測(cè)試場(chǎng)景不一致帶來的性能下降問題。該方法利用深層神經(jīng)網(wǎng)絡(luò)對(duì)齊源域和目標(biāo)域的數(shù)據(jù)表示學(xué)習(xí)域不變特征,讓源域上學(xué)習(xí)得到的分類器在目標(biāo)域上基本可用。同時(shí),結(jié)合主動(dòng)學(xué)習(xí)方法,不斷選取最重要的目標(biāo)域數(shù)據(jù)標(biāo)記,然后提升已有模型的精度。實(shí)驗(yàn)結(jié)果表明,本文提出的方法實(shí)現(xiàn)了具有較高準(zhǔn)確度的跨域分類性,通過標(biāo)記少量的目標(biāo)域樣本就可以獲得較好的領(lǐng)域自適應(yīng)效果。后續(xù)的研究主要會(huì)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行進(jìn)一步的優(yōu)化處理,改善整個(gè)網(wǎng)絡(luò)結(jié)構(gòu),使其整體性能朝著更快更準(zhǔn)確方向發(fā)展。

        猜你喜歡
        源域分類器標(biāo)簽
        多源域適應(yīng)方法綜述
        基于參數(shù)字典的多源域自適應(yīng)學(xué)習(xí)算法
        無懼標(biāo)簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
        標(biāo)簽化傷害了誰
        可遷移測(cè)度準(zhǔn)則下的協(xié)變量偏移修正多源集成方法
        基于多進(jìn)制查詢樹的多標(biāo)簽識(shí)別方法
        日韩少妇内射免费播放| 人成视频在线观看免费播放| 激性欧美激情在线| 无码aⅴ在线观看| 国产亚洲精选美女久久久久| 久久成人精品国产免费网站| 国产麻豆剧传媒精品国产av| 暖暖 免费 高清 日本 在线| 国产精品亚洲综合色区| 国产精品久久久久久人妻精品| 日日摸日日碰人妻无码老牲| 国产91福利在线精品剧情尤物| 亚洲爆乳大丰满无码专区| 亚洲无码观看a| 亚洲福利网站在线一区不卡| 久久精品久99精品免费| 高h纯肉无码视频在线观看| 大地资源在线播放观看mv| 国产最新地址| 国产乱子伦农村xxxx| 国产爆乳美女娇喘呻吟久久| 国产精品女同二区五区九区| 免费av片在线观看网址| 男女啪啪永久免费观看网站| 91精品久久久久含羞草| 91麻豆精品一区二区三区| 熟女中文字幕一区二区三区 | 国产二级一片内射视频播放| 中文字幕日本最新乱码视频 | 一片内射视频在线观看| 日本免费视频一区二区三区| av无码国产精品色午夜| 亚洲日韩av一区二区三区中文| 亚洲精品成人区在线观看| 专区国产精品第一页| 日韩一区二区三区天堂| av天堂手机免费在线| 亚洲色大成网站www永久| 熟妇人妻中文av无码| 日本a在线免费观看| 久久综合五月天啪网亚洲精品|