亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于目標(biāo)域局部近鄰幾何信息的域自適應(yīng)圖像分類方法

        2017-06-27 08:10:42陳利娟陳志賢
        計(jì)算機(jī)應(yīng)用 2017年4期
        關(guān)鍵詞:鄰域準(zhǔn)確率局部

        唐 宋,陳利娟,陳志賢,葉 茂

        1.電子科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,成都 611731; 2.重慶郵電大學(xué) 復(fù)雜系統(tǒng)分析與控制研究中心,重慶 400065;3.中國(guó)科學(xué)院 深圳先進(jìn)技術(shù)研究院,廣東 深圳 518055)(*通信作者電子郵箱tangchenlj@163.com)

        基于目標(biāo)域局部近鄰幾何信息的域自適應(yīng)圖像分類方法

        唐 宋1,2,陳利娟1*,陳志賢3,葉 茂1

        1.電子科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,成都 611731; 2.重慶郵電大學(xué) 復(fù)雜系統(tǒng)分析與控制研究中心,重慶 400065;3.中國(guó)科學(xué)院 深圳先進(jìn)技術(shù)研究院,廣東 深圳 518055)(*通信作者電子郵箱tangchenlj@163.com)

        在許多實(shí)際工程應(yīng)用中,訓(xùn)練場(chǎng)景(源域)和測(cè)試場(chǎng)景(目標(biāo)域)的分布并不相同,如果將源域中訓(xùn)練的分類器直接應(yīng)用到目標(biāo)域,性能往往會(huì)出現(xiàn)大幅度下降。目前大多數(shù)域自適應(yīng)方法以概率推導(dǎo)為基礎(chǔ)。從圖像特征表達(dá)的角度出發(fā),針對(duì)自適應(yīng)圖像分類問題,提出一種新的基于協(xié)同特征的無監(jiān)督方法。首先,所有源樣本被作為字典;然后,距離目標(biāo)樣本最近的三個(gè)目標(biāo)域樣本被用來幫助魯棒地表達(dá)局部近鄰幾何信息;最后,結(jié)合字典和局部近鄰信息實(shí)現(xiàn)編碼,并利用最近鄰分類器完成分類。因?yàn)閰f(xié)同特征通過融合目標(biāo)域局部近鄰信息,獲得了更強(qiáng)的魯棒性和區(qū)分性,基于該特征編碼的分類方法具有更好的分類性能。在域自適應(yīng)數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)結(jié)果表明所提算法是有效的。

        域自適應(yīng);流形;目標(biāo)域局部近鄰關(guān)系;協(xié)同表達(dá);圖像分類

        0 引言

        經(jīng)典的分類問題隱含一個(gè)基本假設(shè):訓(xùn)練樣本(源樣本)和測(cè)試樣本(目標(biāo)樣本)服從相同分布。但是,在許多實(shí)際工程應(yīng)用中,因?yàn)樵礃颖竞湍繕?biāo)樣本分別來自于具有不同分布的場(chǎng)景,使用源樣本訓(xùn)練的分類器很難直接被用來對(duì)目標(biāo)樣本分類。針對(duì)這一問題,通常的做法是在目標(biāo)場(chǎng)景收集樣本,重新訓(xùn)練分類器。但是,這種方案存在兩方面的問題:其一,為每一個(gè)新的場(chǎng)景訓(xùn)練新的分類器顯然十分低效;其二,在某些場(chǎng)景中,樣本收集很難實(shí)現(xiàn)。

        為了解決上述問題,域自適應(yīng)方法[1]被提了出來。目前,現(xiàn)有的方法可被大致認(rèn)為兩類。第一類方法的核心思想是域分布匹配。例如,文獻(xiàn)[2]提出了一種字典學(xué)習(xí)方法。通過構(gòu)建域不變稀疏表達(dá),有效減小了域間分布差異。文獻(xiàn)[3]利用深度堆疊式去噪自編碼(Stack Denoising Auto-Encoder, SDAE)學(xué)習(xí)一個(gè)特征變化,將所有樣本映射到一個(gè)共享空間。在該特征空間中,特征分布是相同的。文獻(xiàn)[4]提出一種樣本篩選方法讓篩選后的源樣本符合目標(biāo)域的分布,然后利用源域的標(biāo)簽信息完成分類。上述方法通過消除分布差異將域自適應(yīng)分類問題轉(zhuǎn)換成了經(jīng)典分類問題,從而取得了較好的效果;但是這類方法更多地從尋找具有同分布特性的共有空間著眼,忽略了樣本空間的幾何結(jié)構(gòu)。

        第二類方法從樣本流形結(jié)構(gòu)的角度進(jìn)行建模:

        一種思路假設(shè)源域和目標(biāo)域是某個(gè)抽象流形上的兩個(gè)不同的點(diǎn),并用它們之間的測(cè)地線表示這兩個(gè)域之間的遷移過程。例如,文獻(xiàn)[5]通過對(duì)測(cè)地線進(jìn)行子空間插值實(shí)現(xiàn)遷移過程描述;文獻(xiàn)[6]擴(kuò)展了這一思路,通過對(duì)測(cè)地線上的無數(shù)個(gè)子空間進(jìn)行積分,提出了一種基于核方法的測(cè)地線構(gòu)建方案。得益于對(duì)域間遷移過程的描述,上述方法表現(xiàn)出良好的性能;但是,這些樣本數(shù)據(jù)之間所固有的幾何結(jié)構(gòu)并沒有被考慮。

        另一種思路則是基于樣本自身所構(gòu)成的具體數(shù)據(jù)流形結(jié)構(gòu)。文獻(xiàn)[7]從流形學(xué)習(xí)的角度,提出了基于流形投影鄰近約束的協(xié)同特征表達(dá),因?yàn)槿谌肓嗽从蚓植拷弾缀涡畔?該特征表現(xiàn)出良好的區(qū)分性能;但是,該方法并沒有利用目標(biāo)域樣本之間的幾何信息。針對(duì)這一問題,文獻(xiàn)[8]從特征表達(dá)的魯棒性角度出發(fā),提出了一種融合目標(biāo)樣本最鄰域幾何信息的協(xié)同特征表達(dá)(Target Collaborative Nearest-Neighbor Representation, TCNNR)。在編碼過程中,目標(biāo)樣本的最近鄰目標(biāo)域樣本被用來輔助特征的生成。因?yàn)轭~外地導(dǎo)入了目標(biāo)樣本的最鄰域信息,增強(qiáng)了特征表達(dá)的魯棒性,所以在性能上取得了較大的提升。但是,該方法僅僅利用了最近鄰這一簡(jiǎn)單幾何信息,很難準(zhǔn)確地刻畫目標(biāo)樣本的鄰域信息。

        如上所述,引入目標(biāo)樣本鄰域信息對(duì)解決自適應(yīng)分類問題具有積極的輔助作用。受該工作的啟發(fā),本文提出了一種新的協(xié)同特征。該特征融合了對(duì)鄰域信息表達(dá)能力更強(qiáng)的目標(biāo)樣本局部近鄰幾何信息。實(shí)驗(yàn)結(jié)果表明較于之前基于目標(biāo)最近鄰幾何信息的特征[8],本文所提特征具有更強(qiáng)的魯棒性,以及更好的自適應(yīng)分類能力。

        1 預(yù)備知識(shí)

        1.1 問題描述

        假設(shè)存在兩個(gè)具有不同分布的域:源域(Source Domain, SD)和目標(biāo)域(Target Domain, TD)。SD包含m個(gè)來自c個(gè)類的樣本(圖片),其中第k個(gè)類有mk個(gè)樣本;TD包含n個(gè)來自相同類的樣本。令{ui|ui∈RN,i=1,2,…,m}表示所有源樣本,其中N表示向量維度。同樣,所有目標(biāo)域樣本可以表示為{vi|vi∈RN,i=1,2,…,n}。

        對(duì)于無監(jiān)督域自適應(yīng)圖像分類問題,核心任務(wù)是在沒有目標(biāo)域標(biāo)簽信息的條件下,如何利用兩個(gè)域的樣本以及源域標(biāo)簽,構(gòu)建域間相關(guān)性,實(shí)現(xiàn)對(duì)目標(biāo)樣本的正確分類。

        1.2 協(xié)同特征與最近鄰分類器

        對(duì)于任意測(cè)試(目標(biāo))樣本vi,其協(xié)同特征(Collaborative Representation,CR)的求解過程可以歸結(jié)為以下優(yōu)化問題:

        (1)

        其中η是正則化系數(shù)。

        最近鄰分類器是面向協(xié)同特征的專用分類器,其分類原理可用式(2)表達(dá):

        (2)

        其中:φ(z,k)=(0,0,…,zk,…,0)是一個(gè)模板函數(shù),其保留特征編碼z第k類所對(duì)應(yīng)位置上的系數(shù),同時(shí)將其他位置上的系數(shù)置為0。按照式(2)可知,整個(gè)分類過程由兩個(gè)步驟組成:

        1)計(jì)算測(cè)試樣本在各個(gè)類別上的投影差:

        ek=‖vi-Ukzk‖2;k=1,2,…,c

        2)根據(jù){ek|k=1,2,…,c},選擇其中投影差最小的類別輸出為預(yù)測(cè)類別標(biāo)簽。

        2 目標(biāo)局部近鄰協(xié)同特征

        假設(shè)X=[x1,x2,…,xi,…,xm],為源樣本{ui}的SURF特征按類別存放所構(gòu)成的矩陣(其中xi∈RM);Y={yi|yi∈RM,i=1,2,…,n}是目標(biāo)樣本{vi}的SURF特征。目標(biāo)局部近鄰協(xié)同特征(Target Collaborative Local-neighbor Representation, TCLR)可以通過優(yōu)化以下目標(biāo)函數(shù)得到:

        (3)

        F相對(duì)于z的偏導(dǎo)數(shù)為:

        (4)

        其中:T表示轉(zhuǎn)置;I是單位矩陣;B=D⊙D,⊙表示矩陣對(duì)應(yīng)元素相乘。

        在先前的方法中,與TCLR最相關(guān)的工作是文獻(xiàn)[8]提出的TCNNR特征。與之相比,TCLR特征具有兩個(gè)明顯的不同之處:1)如式(3)右側(cè)第一項(xiàng)所示,距離樣本y最近的K個(gè)樣本來輔助特征編碼生成。相對(duì)于TCNNR所采用的最近鄰信息,TCLR所使用的局部近鄰信息對(duì)y鄰域具有更準(zhǔn)確的刻畫能力。2)與TCNNR不同,TCLR基于鄰域信息的正則化方案額外地加入了樣本y(式(3)右側(cè)第二項(xiàng))。通過這一改進(jìn),TCLR所引入的局部近鄰約束具有更強(qiáng)的指向性。

        2.1 局部近鄰目標(biāo)域樣本搜索方法

        從上面的介紹知道,準(zhǔn)確構(gòu)建目標(biāo)樣本的局部近鄰信息的關(guān)鍵是找到距離它最近的三個(gè)目標(biāo)域樣本。本文采用基于核函數(shù)的相似度計(jì)算方案來實(shí)現(xiàn)樣本搜索。

        假設(shè)存在歐氏空間E∈RL和Hilbert空間H∈RG(L?G);ψ是一個(gè)從E到H的隱含非線性映射。那么, Mercer核函數(shù)可以表示為:

        k(a,b)=〈ψ(a),ψ(b)〉H=ψ(a)Tψ(b)

        其中:a,b∈E;〈·,·〉H表示H中內(nèi)積??臻gE中,任意兩樣本的相似度可按照下式計(jì)算:

        那么,對(duì)于目標(biāo)樣本vi,距離其最近的第k(k=1,2,…,K)個(gè)目標(biāo)域樣本ycn_k的序號(hào)可通過式(5)確定:

        (5)

        從上面可以看到,相似度計(jì)算是使用原始圖片,而不是SURF(Speed-Up Robust Features)特征。主要原因是,作為統(tǒng)計(jì)特征,SURF丟失了空間位置信息,因此,基于它的相似計(jì)算準(zhǔn)確度不高。在算法實(shí)現(xiàn)過程中,本文采用RBF(Radial Basis Function)作為核函數(shù),其表達(dá)式如下所示:

        2.2 基于TCLR特征的分類算法

        基于TCLR的分類算法包括四個(gè)主要部分:1)提取樣本的SURF特征;2)構(gòu)建目標(biāo)樣本的局部近鄰幾何信息;3)特征編碼;4)分類。算法具體步驟如下。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集

        本文采用文獻(xiàn)[8]提供的辦公室場(chǎng)景數(shù)據(jù)集進(jìn)行分類實(shí)驗(yàn),該數(shù)據(jù)集被廣泛地用于域自適應(yīng)分類方法[9-12]的評(píng)估。數(shù)據(jù)集共含有2 533張圖片樣本,分別來自Amazon(A)、Webcam(W)、Dslr(D)、Caltech(C) 4個(gè)子集。每個(gè)子集包含10個(gè)相同類別: 01-BackPack、 02-Bicycle、 03-Calculator、04-HeadPhone、05-ComputerKeyboard、06-LaptopComputer、07-ComputerMonitor、08-ComputerMouse、09-CoffeeMug、10-VideoProjector。在這四個(gè)子集中,Amazon由來自Amazon公司用于在線銷售的展示圖片構(gòu)成,幾乎沒有背景噪聲;Caltech由自然環(huán)境中拍攝的照片構(gòu)成,具有較強(qiáng)的環(huán)境噪聲;Webcam與Dslr中的圖片分別由低分辨率的網(wǎng)絡(luò)攝像頭和高清相機(jī)拍攝得到。圖1展示了一些來自該數(shù)據(jù)集的示例圖片。

        圖1 分類實(shí)驗(yàn)數(shù)據(jù)集樣例圖片

        3.2 分類實(shí)驗(yàn)結(jié)果

        在實(shí)驗(yàn)過程中,距離目標(biāo)樣本最近的K=3個(gè)目標(biāo)域樣本被用來近似表達(dá)局部近鄰幾何信息。實(shí)驗(yàn)發(fā)現(xiàn)在本文的實(shí)驗(yàn)數(shù)據(jù)集上,當(dāng)K≥4,如要保證較好的分類性能,則需要為距離較遠(yuǎn)的目標(biāo)域樣本ycn_k(k≥4)設(shè)置較小的加權(quán)系數(shù)。換言之,較遠(yuǎn)的目標(biāo)域樣本對(duì)準(zhǔn)確刻畫幾何鄰域作用十分有限。而選擇K=2的方案則存在和文獻(xiàn)[8]類似的問題:對(duì)于鄰域描述不充分。具體地,在實(shí)驗(yàn)中,與鄰域信息表達(dá)相關(guān)的算法參數(shù)分別為:μ=0.375,K=3,w1=0.5,w2=0.4,w3=0.1。

        為了驗(yàn)證本文方法的有效性,本文在上述數(shù)據(jù)集上做了8個(gè)自適應(yīng)分類實(shí)驗(yàn)。7個(gè)典型的域自適應(yīng)方法被選擇作為對(duì)比方法,這些方法包括:TSL(TransferSubspaceLearning)[13]、TCA(TransferComponentAnalysis)[14]、SGF(SubspacesinGeodesicFlow)[5]、GFK(GeodesicFlowKernel)[6]、CR、CNRC(CollaborativeNeighborRepresentationClassifier)[7]、TCNNR[8],其中CR作為基線。這些方法可分為三類:第一類,包括TSL、TCA,是基于概率匹配的方法;第二類,包括SGF、GFK,是基于流形的方法;第三類,包括CR、CNRC、TCNNR,是基于協(xié)同特征的方法,其中CR方法使用的協(xié)同特征所對(duì)應(yīng)的目標(biāo)函數(shù)如式(1)所示。為方便敘述,本文方法被記為TCLR。

        表1給出了對(duì)比實(shí)驗(yàn)結(jié)果,其中,總體分類準(zhǔn)確率rtol按照式(6)計(jì)算:

        (6)

        其中:n是目標(biāo)域樣本的總數(shù);li是由算法得到的第i個(gè)目標(biāo)域樣本vi的預(yù)測(cè)類別標(biāo)簽;li′是vi的真實(shí)類別標(biāo)簽;ctn(x,y)是計(jì)數(shù)函數(shù):當(dāng)x=y,ctn(x,y)=1;當(dāng)x≠y,ctn(x,y)=0。

        從表1可以看到,與參照方法比較,TCLR在7/8的遷移實(shí)驗(yàn)上取得了最好的效果。相對(duì)于基線方法CR,TCLR在所有遷移實(shí)驗(yàn)上有大幅度的性能提升(平均提高了約34個(gè)百分點(diǎn)),特別是在D-W上,分類準(zhǔn)確率相對(duì)提高了約275%。相對(duì)于方法GFK,TCLR在D-A上的準(zhǔn)確率有小幅下降(1.7個(gè)百分點(diǎn)),在除此之外的其他遷移實(shí)驗(yàn)上都取得了較大的改進(jìn)(>8個(gè)百分點(diǎn))。因此,雖然在一個(gè)子實(shí)驗(yàn)(D-A)上沒有取得最佳分類效果,但是從總體上講,TCLR比GFK具有更好的遷移性能。與剩余的5種參照方法相比,在所有遷移實(shí)驗(yàn)上,TCLR均取得了不同程度的性能改進(jìn)。其中,比排名第二的方法TCNNR,TCLR在平均準(zhǔn)確上有1.3個(gè)百分點(diǎn)的提高,特別地,A-W、C-W上的提升量約為2個(gè)百分點(diǎn)。從上述分析不難看出,TCLR在綜合遷移性能是最好的。

        表1 各對(duì)比算法在8個(gè)自適應(yīng)分類實(shí)驗(yàn)上的總體分類準(zhǔn)確率 %

        圖2展示了TCLR和第二好的方法TCNNR在10個(gè)類別上的分類準(zhǔn)確率。其中,在第k個(gè)類別的分類準(zhǔn)確率(rcls_k)計(jì)算公式如下所示:

        其中:N=10表示類數(shù)目;lki和lki′分別表示第k類目標(biāo)域樣本的預(yù)測(cè)類別標(biāo)簽和真實(shí)類別標(biāo)簽;nk為目標(biāo)域樣本中屬于第k類的樣本總數(shù);函數(shù)ctn()與式(6)中的計(jì)數(shù)函數(shù)相同。

        如圖2所示,TCLR在第2類上的準(zhǔn)確率為83%;第6、8、9、10類的準(zhǔn)確率小于20%,其中,第9類的準(zhǔn)確率為最低的14.3%;剩余的5類的準(zhǔn)確率均大于40%。相對(duì)于TCNNR,TCLR在9/10個(gè)類別上的分類準(zhǔn)確率不低于TCCNR。僅有第3類的準(zhǔn)確率有0.85%的下降;第4、6、9類的準(zhǔn)確率基本持平;在剩余的6個(gè)類上的準(zhǔn)確率都有明顯的提升。由分析可以知道,相對(duì)于TCNNR,TCLR自適應(yīng)分類性能的提高源自幾乎所有類別上準(zhǔn)確率的提升,而非個(gè)別類上孤立的改進(jìn)造成。該結(jié)果進(jìn)一步驗(yàn)證了本文方法的適用性。

        圖2 TCLR方法與TCNNR方法在10個(gè)類別上分類準(zhǔn)確率

        從第2章可知,TCLR的總計(jì)算時(shí)間由兩部分組成:1)尋找最近目標(biāo)域樣本;2)編碼。因?yàn)門CLR是線性編碼,所以編碼這部分耗時(shí)幾乎可以忽略。在具體的程序?qū)崿F(xiàn)中,TCLR利用3個(gè)步驟完成最近目標(biāo)域樣本尋找:1)全局相似度計(jì)算;2)排序;3)選取已排序隊(duì)列中前K個(gè)元素。因?yàn)槿窒嗨贫扔?jì)算與目標(biāo)域樣本空間的大小n成正比。所以,TCLR的總計(jì)算時(shí)間可以近似地表示為:TTCLR≈(n2/2)trem,其中trem表示一次相似計(jì)算的耗時(shí)。當(dāng)n不是很大時(shí),TTCLR與同為線性方法的CR、CNRC、TCCNR相當(dāng),但要好于基于迭代的方法TSL、TAC、SGF、GFK;但是,當(dāng)n增大時(shí),TCLR計(jì)算效率會(huì)快速下降。

        3.3 分析

        利用目標(biāo)樣本的局部幾何信息來輔助生成具有更強(qiáng)魯棒性的協(xié)同特征是本文的主要工作。本節(jié)主要探討哪種局部信息表述方式有助于自適應(yīng)分類性能提升,即如何恰當(dāng)?shù)剡x擇幾何信息表達(dá)參數(shù)θ=(μ,w),其中,μ表示所引入局部信息的強(qiáng)度,w=[w1,w2,w3]表示局部信息的組合方式。

        首先,本文討論w取值對(duì)分類性能的影響。為此,3種不同的權(quán)值系數(shù)w取值方案([0.1,0.4,0.5],[1/3,1/3,1/3]和[0.5,0.4,0.1]) 將被采用,并分別進(jìn)行自適應(yīng)分類實(shí)驗(yàn),此時(shí),μ=0.375。為了方便敘述,上述3種方案被分別記為H1、H2、H3。實(shí)驗(yàn)結(jié)果如表2所示。在所有實(shí)驗(yàn)上,H3的準(zhǔn)確率最高,H2次之,H3最低。實(shí)驗(yàn)結(jié)果表明,在選擇表達(dá)目標(biāo)樣本局部近鄰信息加權(quán)系數(shù)時(shí),對(duì)于局部近鄰信息的準(zhǔn)確表達(dá),距離目標(biāo)樣本越近的目標(biāo)域樣本越為重要,應(yīng)該被分配更大的權(quán)重。

        接下來討論本文算法對(duì)參數(shù)μ的敏感性,此時(shí),加權(quán)系數(shù)w=[0.5, 0.4, 0.1]。圖3給出了當(dāng)μ∈(0,1)時(shí),基于TCLR特征的分類方法在平均準(zhǔn)確率上的變化情況。如圖3所示,準(zhǔn)確率在μ=0.375附近取得最大值。當(dāng)μ≤0.375時(shí),局部信息對(duì)性能提升有積極的作用;一旦超過這個(gè)閾值,局部信息會(huì)引起算法性能惡化。這表明算法性能并不是隨著所引入的局部信息強(qiáng)度的增加而持續(xù)提升的,所引入局部信息的強(qiáng)度需保持在合適的范圍內(nèi)。

        表2 H1、H2、H3的總體分類準(zhǔn)確率 %

        圖3 TCLR方法性能與局部信息強(qiáng)度的關(guān)系

        4 結(jié)語

        受流形學(xué)習(xí)思想的啟發(fā),本文針對(duì)自適應(yīng)圖像分類問題,提出了一種新的基于目標(biāo)域局部近鄰幾何信息的協(xié)同特征編碼。在編碼過程中,借助距離目標(biāo)樣本最近的三個(gè)目標(biāo)域樣本,通過加權(quán)的方式,局部近鄰信息被近似表達(dá)。實(shí)驗(yàn)結(jié)果表明所提特征能有效提高自適應(yīng)分類性能。最后,針對(duì)構(gòu)建目標(biāo)域局部近鄰信息的參數(shù)選擇問題作出討論。

        雖然本文方法取得了較好的結(jié)果,但是它仍存在兩個(gè)方面的不足:其一,所有樣本的局部近鄰信息的構(gòu)建都是基于相同的參數(shù)θ;其二,在TCLR編碼過程中,為了尋找K個(gè)近鄰樣本,需要進(jìn)行多次比較,當(dāng)目標(biāo)域樣本空間很大時(shí),這是比較耗時(shí)的。這也是本文方法存在的主要問題。針對(duì)以上兩個(gè)問題,未來工作將沿著以下兩條主線展開研究:1)為每個(gè)目標(biāo)樣本構(gòu)建差異化的鄰域信息表達(dá)方式;2)提出更快速的相似度計(jì)算方法。

        References)

        [1] 劉建偉, 孫正康, 羅雄麟. 域自適應(yīng)學(xué)習(xí)研究進(jìn)展[J]. 自動(dòng)化學(xué)報(bào), 2014, 40(8):1576-1600.(LIU J W, SUN Z K, LUO X L. Review and research development on domain adaptation learning[J]. Acta Automatica Sinica, 2014, 40(8):1576-1600.)

        [2] QIU Q, PATEL V, TURAGA R, et al. Domain adaptive dictionary learning [C]// ECCV 2012: Proceedings of 13st European Conference on Computer Vision. Berlin: Springer, 2012: 631-645.

        [3] CHEN M, XU Z, WEINBERGER K, et al. Marginalized denoising autoencoders for domain adaptation [C]// ICML 2012: Proceedings of 29th International Conference on Machine Learning. New York: ACM, 2012:115-122.

        [4] GONG B, GRAUMAN K, SHA F. Connecting the dots with landmarks: discriminatively learning domain-invariant features for unsupervised domain adaptation [C]// ICML 2013: Proceedings of 30th International Conference on Machine Learning. New York: ACM, 2013: 222-230.

        [5] GOPALAN R, LI R, CHELLAPPA R. Domain adaptation for object recognition: an unsupervised approach [C]// ICCV 2011: Proceedings of 13rd International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 999-1006.

        [6] GONG B, SHI Y, SHA F, et al. Geodesic flow kernel for unsupervised domain adaptation [C]// CVPR 2012: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 2066-2073.

        [7] WAQAS J, ZHANG Y, ZHANG L. Collaborative neighbor representation based classification using l2-minimization approach [J]. Pattern Recognition Letters, 2013, 34(2): 201-208.

        [8] TANG S, YE M, LIU Q, et al. Domain adaptation of image classification based on collective target nearest-neighbor representation [J]. Journal of Electronic Imaging, 2016, 25(3): 033006-033015.

        [9] SAENKO K, KULIS B, FRITZ M, et al. Adapting visual category models to new domains[C]// ECCV 2010: Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2010: 213-226.

        [10] NI J, QIU Q, CHELLAPPA R. Subspace interpolation via dictionary learning for unsupervised domain adaptation [C]// CVPR 2013: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 692-699.

        [11] GONG B, GRAUMAN K, SHA F. Reshaping visual datasets for domain adaptation [EB/OL]. [2016- 05- 10].http://www.cs.utexas.edu/~grauman/papers/gong-NIPS2013.pdf.

        [12] CUI Z, LI W, XU D, et al. Flowing on Riemannian manifold: domain adaptation by shifting covariance [J]. IEEE Transactions on Cybernetics, 2014, 44(12): 2264-2273.

        [13] SI S, TAO D, GENG B, BREGMAN. Divergence-based regularization for transfer subspace learning [J]. IEEE Transactions on Knowledge Data Engineering, 2010, 22(7): 929-942.

        [14] PAN S J, TSANG I W, KWOK J T, et al. Domain adaptation via transfer component analysis [J]. IEEE Transaction on Neural Network, 2011, 22(2): 199-210.

        This work is partially supported by the National Natural Science Foundation of China (61375038,61501073), the Science Fund for Distinguished Young Scholars of Chongqing (cstc2013jcyjjq40001), the Applied Basic Research Programs of Sichuan Science and Technology Department (2016JY0088).

        TANG Song, born in 1982, Ph. D. candidate. His research interests include machine learning, neural network.

        CHEN Lijuan, born in 1986, Ph. D. candidate. Her research interests include machine learning, dynamics stability.

        CHEN Zhixian, born in 1988, Ph. D. candidate. His research interests include robotics intelligent control.

        YE Mao, born in 1972, Ph. D., professor. His research interests include pattern recognition, neural network.

        Domain adaptation image classification based on target local-neighbor geometrical information

        TANG Song1,2, CHEN Lijuan1*, CHEN Zhixian3, YE Mao1

        (1. School of Computer Science & Engineering, University of Electronic Science and Technology of China, Chengdu Sichuan 611731, China;2. Center of Analysis and Control for Complex Systems, Chongqing University of Posts and Telecommunications, Chongqing 400065, China;3. Shenzhen Institutes of Advanced Technology, Chinese Academy of Sciences, Shenzhen Guangdong 518055, China)

        In many real engineering applications, the distribution of training scenarios (source domain) and the distribution of testing scenarios (target domain) is different, thus the classification performance decreases sharply when simply applying the classifier trained in source domain directly to the target domain. At present, most of the existing domain adaptation methods are based on the probability-inference. For the problem of domain adaptation image classification, a collaborative representation based unsupervised method was proposed from the view of image representation. Firstly, all of the source samples were taken as the dictionary. Secondly, the three target samples closest to the target sample in the target domain were exploited to robustly represent the local-neighbor geometrical information. Thirdly, the target sample was encoded by combining the dictionary and the local-neighbor information. Finally, the classification was completed by using the nearest classifier. Since the collaborative representations have stronger robustness and discriminative ability by absorbing the target local-neighbor information, the classification method based on the new representations has better classification performance. The experimental results on the domain adaptation dataset confirm the effectiveness of the proposed method.

        domain adaptation; manifold; target local-neighbor information; collaborative representation; image classification

        2016- 09- 05;

        2016- 12- 21。 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61375038,61501073);重慶市杰出青年基金資助項(xiàng)目(cstc2013jcyjjq40001);四川省應(yīng)用基礎(chǔ)研究計(jì)劃項(xiàng)目(2016JY0088)。

        唐宋(1982—),男,四川成都人,博士研究生,主要研究方向:機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò); 陳利娟(1986—),女,山西大同人,博士研究生,主要研究方向:機(jī)器學(xué)習(xí)、動(dòng)力系統(tǒng)穩(wěn)定性; 陳志賢(1988—),男,河北井陘人,博士研究生,主要研究方向:機(jī)器人智能控制; 葉茂(1972—),男,重慶人,教授,博士,主要研究方向:模式識(shí)別、神經(jīng)網(wǎng)絡(luò)。

        1001- 9081(2017)04- 1164- 05

        10.11772/j.issn.1001- 9081.2017.04.1164

        TP181

        A

        猜你喜歡
        鄰域準(zhǔn)確率局部
        局部分解 巧妙求值
        非局部AB-NLS方程的雙線性B?cklund和Darboux變換與非線性波
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        稀疏圖平方圖的染色數(shù)上界
        高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
        關(guān)于-型鄰域空間
        局部遮光器
        超高清丝袜美腿视频在线| 亚洲av成人一区二区三区| 最近中文av字幕在线中文| 人妻系列无码专区久久五月天 | 少妇太爽高潮在线播放| 亚洲日韩成人无码| 国产农村乱子伦精品视频| 中文字幕人妻中文| 一区二区在线观看视频亚洲| 日本边添边摸边做边爱| 无码精品日韩中文字幕| 亚洲色偷拍一区二区三区| 日本中文字幕官网亚洲| 99久久无色码中文字幕人妻蜜柚| 天堂影院一区二区三区四区| 久久与欧美视频| 在线观看的a站免费完整版| 亚州性无码不卡免费视频| 日韩av无码成人无码免费| 国产精品国产三级国产在线观| 青青草好吊色在线观看| 亚洲热线99精品视频| 在线亚洲综合| 国内精品嫩模av私拍在线观看| 国产精品激情自拍视频| 久久国产热这里只有精品| 亚洲av人妖一区二区三区| 日本一区二区三区清视频| 熟女人妇 成熟妇女系列视频| 日韩欧美亚洲综合久久影院d3| 黑人免费一区二区三区| 性色视频加勒比在线观看| 亚洲男人第一无码av网站| 亚洲人成18禁网站| 亚洲日本中文字幕乱码在线| 国产精品v片在线观看不卡| 成人a在线观看| 国产av一区二区三区狼人香蕉 | 中文字幕肉感巨大的乳专区| 午夜短视频日韩免费| 操国产丝袜露脸在线播放|