亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        小樣本目標(biāo)檢測綜述

        2021-05-08 08:14:36劉浩宇王向軍
        導(dǎo)航與控制 2021年1期
        關(guān)鍵詞:檢測模型

        劉浩宇,王向軍

        (1.天津大學(xué)精密測試技術(shù)及儀器國家重點實驗室,天津300072;2.天津大學(xué)微光機電系統(tǒng)技術(shù)教育部重點實驗室,天津300072)

        0 引言

        深度學(xué)習(xí)目標(biāo)檢測技術(shù)很大程度上依賴于樣本數(shù)據(jù)的分布和數(shù)量,若要實現(xiàn)良好的目標(biāo)檢測效果,就需要有足夠數(shù)量的已標(biāo)注樣本的支持。標(biāo)注樣本會引入較高的制作成本,阻礙了人工智能的產(chǎn)業(yè)布局。近兩年來,學(xué)界開始改變之前的模型訓(xùn)練方式,關(guān)注用少量的數(shù)據(jù)來達(dá)到較好的檢測效果,用少量數(shù)據(jù)學(xué)習(xí)得到具有良好效果的模型的思想可以很大程度上提高深度學(xué)習(xí)在軍事、航空航天領(lǐng)域的布局能力,在一些數(shù)據(jù)樣本不容易獲得或樣本容量較小的應(yīng)用場合,如國防軍工領(lǐng)域,這樣的問題尤為突出。

        深度學(xué)習(xí)目標(biāo)檢測方法在早期應(yīng)用過程中采用了大量標(biāo)注樣本回歸候選框的位置[1],但是隨著人工智能應(yīng)用的推進,目標(biāo)集與訓(xùn)練集數(shù)據(jù)分布不同導(dǎo)致檢測效果下降的問題慢慢出現(xiàn)[2]。在沒有大量樣本的支持下,小樣本檢測應(yīng)用就需要使用先驗知識來彌補樣本的不足。根據(jù)目標(biāo)檢測的理論數(shù)學(xué)模型,解決問題的方法大體上可以分為三類:數(shù)據(jù)域、模型域和算法域。數(shù)據(jù)域的解決方案就是通過先驗知識來做數(shù)據(jù)增強,通過數(shù)據(jù)量的增大解決模型不收斂的問題;模型域的解決方案是通過先驗知識來限制模型復(fù)雜度,降低假設(shè)空間的大小,使得模型收斂加快;算法域的解決方案則是通過先驗知識來提供一個更快捷的搜索策略[3]。三種策略均可在一定程度上提升檢測效果。

        本文對小樣本目標(biāo)檢測問題進行了歸納整理,介紹了一種分析目標(biāo)檢測問題的數(shù)學(xué)模型,并在其基礎(chǔ)上總結(jié)了幾類可行的小樣本檢測方法。之后,對類似的深度學(xué)習(xí)應(yīng)用問題進行了區(qū)分。最終,在分析了目前小樣本目標(biāo)檢測方案存在的問題后,給出了未來小樣本目標(biāo)檢測可能的發(fā)展趨勢。

        1 小樣本目標(biāo)檢測的數(shù)學(xué)模型

        運用深度學(xué)習(xí)的方法解決目標(biāo)檢測問題時,首先需要明確深度學(xué)習(xí)方法的最優(yōu)化模型,即建立數(shù)據(jù)、模型和訓(xùn)練算法之間的關(guān)系。Wang等[3]面向廣義的小樣本學(xué)習(xí)問題從誤差理論的角度給出了一種模型分析方案,Mitchell[4]則從先驗知識和經(jīng)驗理論的角度分析了機器學(xué)習(xí)任務(wù)中提升檢測性能的方案。在此基礎(chǔ)上,可以分析目前小樣本目標(biāo)檢測任務(wù)效果不佳的理論誤差來源,并根據(jù)數(shù)學(xué)模型對現(xiàn)有的解決方案進行分類。

        1.1 目標(biāo)檢測應(yīng)用的數(shù)學(xué)模型

        采用深度學(xué)習(xí)的方法處理目標(biāo)檢測問題時,一般的檢測流程為:數(shù)據(jù)集的獲取與標(biāo)注,網(wǎng)絡(luò)模型的初始化,模型參數(shù)的訓(xùn)練與優(yōu)化等。在經(jīng)過多次迭代訓(xùn)練后,可以獲得一個適應(yīng)于該數(shù)據(jù)集的最佳模型以部署檢測應(yīng)用。

        借助機器學(xué)習(xí)的模型理論,在一個小樣本目標(biāo)檢測應(yīng)用M中,給定一個用于訓(xùn)練和測驗的數(shù)據(jù)集D=Dtrain+Dtest,該數(shù)據(jù)集中包括了訓(xùn)練集和測試集Dtest=xtest,其中的I值一般較小。假設(shè)解決應(yīng)用M的真實模型為,真實模型往往很難達(dá)到。而深度學(xué)習(xí)的訓(xùn)練方法就是指定一個模型空間P,并在P中尋找某個最接近于的模型。模型空間P是由工程師選擇的模型參數(shù)的初始化分布決定的,而的尋找過程就是一個通過訓(xùn)練算法實現(xiàn)參數(shù)最優(yōu)化的過程,實際訓(xùn)練中和往往都無法達(dá)到。

        該過程的實現(xiàn)方式為:在給定的訓(xùn)練集Dtrain下,最小化目標(biāo)檢測應(yīng)用的損失函數(shù),包括圖像分類、檢測框回歸等,不同的最小化損失函數(shù)可以概括為

        式(1)中,W為通過訓(xùn)練得到的模型,θ為模型W的具體參數(shù),l為實現(xiàn)某項應(yīng)用的損失函數(shù),訓(xùn)練算法就是在假設(shè)的模型空間P中搜索W的參數(shù)θ的過程。

        1.2 目標(biāo)檢測應(yīng)用的誤差理論

        深度學(xué)習(xí)的訓(xùn)練過程實際上是通過訓(xùn)練集來擬合實際測試中的真實分布p(x,y)的過程,由訓(xùn)練得到的分布和真實分布往往不一致,這中間的差值稱為期望風(fēng)險,表達(dá)式如下

        讓期望風(fēng)險最小化才能逼近真實分布,但因為實際測試中的真實分布不可知,所以絕對最小化期望風(fēng)險是無法實現(xiàn)的。在深度學(xué)習(xí)中,通常用模型誤差E來替換期望損失,模型誤差就是在訓(xùn)練集上根據(jù)最佳模型W預(yù)測的結(jié)果和真實結(jié)果的差異,其表達(dá)式為

        可以進一步將上述誤差分解為[5-6]

        則Ep即為模型假設(shè)誤差,表示的是假設(shè)分布和真實分布的差距,體現(xiàn)了假設(shè)空間描述數(shù)據(jù)真實分布的能力;EW即為模型訓(xùn)練誤差,表示的是該假設(shè)空間中訓(xùn)練結(jié)果和最佳結(jié)果之間的差距,體現(xiàn)了訓(xùn)練結(jié)果描述真實分布的能力。大樣本和小樣本訓(xùn)練的效果對比如圖1所示。

        圖1 大樣本與小樣本效果對比Fig.1 Comparison of the effect between large sample and small sample

        對于訓(xùn)練誤差EW,樣本數(shù)量I足夠大時,有

        在以往的深度學(xué)習(xí)方式中,目標(biāo)檢測任務(wù)的實現(xiàn)往往依賴于大量的樣本數(shù)據(jù),因此EW是很小的。但是在小樣本目標(biāo)檢測應(yīng)用中,樣本容量受限,因此EW往往是很大的。所以,此時采用傳統(tǒng)的訓(xùn)練流程是很難獲得良好檢測效果的。因此,需要針對上面的問題尋求新的解決方案。

        2 數(shù)據(jù)域的解決方案

        數(shù)據(jù)域的增強方式較多,也一般被研究者所采用,其基本原理是通過樣本容量的增加,增加參數(shù)優(yōu)化與迭代的次數(shù),從而使訓(xùn)練模型W更接近最佳模型,如圖2所示。數(shù)據(jù)域的數(shù)據(jù)增強方式大體上可以分為兩類。

        圖2 數(shù)據(jù)域解決方案原理Fig.2 Principle of data domain solution

        2.1 轉(zhuǎn)化原有數(shù)據(jù)集Dtrain

        在不引入額外的標(biāo)記數(shù)據(jù)的情況下,可以通過兩種方式增強數(shù)據(jù):1)圖像增強:采用圖像變換增加樣本容量,常用的圖像變換方式包括圖像翻轉(zhuǎn)[7]、圖像剪切[8]、圖像縮放[9]、圖像旋轉(zhuǎn)[10]、圖像亮度變換[11-13]、圖像色調(diào)和飽和度變換[11-13]等,圖像變換可以提升一些訓(xùn)練效果,但作用有限;2)圖像轉(zhuǎn)換:通過類似應(yīng)用的先驗知識,將原有數(shù)據(jù)集擴增為新的數(shù)據(jù)集,引入新的特征信息,但類似應(yīng)用的先驗知識往往是不容易得到的。

        Hariharan等[14]通過類比的方法將從其他類似的類中學(xué)習(xí)到的樣本對之間的差異轉(zhuǎn)移到原數(shù)據(jù)集中以提高分類精度;Dwibedi等[15]通過剪切和粘貼的方式在訓(xùn)練圖像上添加新對象來擴充數(shù)據(jù);Lemley等[16]提出了一個網(wǎng)絡(luò)結(jié)構(gòu),試圖通過合并來自同一個類的兩個或多個樣本來生成新數(shù)據(jù);Zoph等[17]提出了一種自動檢索并采用可行的符合應(yīng)用任務(wù)特點的圖像增強方案AutoAugment,創(chuàng)建了一個數(shù)據(jù)增強策略的搜索空間,利用搜索算法選取適合特定數(shù)據(jù)集的數(shù)據(jù)增強策略,其嘗試的數(shù)據(jù)增強策略共計22種,可以概括為:色彩變換(扭曲顏色通道,而不影響包圍框的位置,如對比度、亮度等)、幾何變換(幾何尺度上扭曲圖像,相應(yīng)地改變包圍框注釋的位置和大小,如旋轉(zhuǎn)、剪切、平移等)、包圍框變換(只扭曲包圍框注釋中包含的像素內(nèi)容,如候選框旋轉(zhuǎn)、候選框翻轉(zhuǎn)等)。其方案特別有益于數(shù)據(jù)集和小目標(biāo)的檢測,具體取得的效果如表1所示。

        表1 AutoAugment算法在小樣本數(shù)據(jù)下的表現(xiàn)Table 1 Performance of AutoAugment algorithm in small datasets

        深層的目標(biāo)檢測網(wǎng)絡(luò)通常是從大規(guī)模數(shù)據(jù)集中學(xué)習(xí)的,其樣本容量應(yīng)足以估計其粗略的分布特征。但是,小樣本檢測任務(wù)中只提供了少量的監(jiān)督信息,如不擴充樣本,不引入額外的監(jiān)督信息,很難得到樣本的泛化特征,所提升的效果也非常有限。如Zoph等[17]通過自動搜索數(shù)據(jù)增強策略空間的方式,遍歷了22種方案,但是對于小樣本下的表現(xiàn)也只能做到1~2的精度提升。盡管如此,轉(zhuǎn)化原有數(shù)據(jù)集的方式不需要過多地考慮樣本的屬性和任務(wù)的特點,可以作為圖像預(yù)處理的步驟而被普遍地使用。

        2.2 遷移其他數(shù)據(jù)集

        在圖像領(lǐng)域的目標(biāo)檢測應(yīng)用中,目標(biāo)的未標(biāo)記數(shù)據(jù)集很容易獲取并被人眼辨識,故可以通過有相同目標(biāo)存在的大量數(shù)據(jù)來擴增數(shù)據(jù),通過由原有數(shù)據(jù)集Dtrain學(xué)習(xí)來的模型W為這部分?jǐn)?shù)據(jù)生成標(biāo)注,共同投入訓(xùn)練。相似數(shù)據(jù)集需要與原有數(shù)據(jù)集Dtrain有一些共同屬性,并且包含足夠的監(jiān)督信息,以作為一個可以提供更多信息的數(shù)據(jù)源。

        另一種可行的方式是引入大量且數(shù)據(jù)分布相似的數(shù)據(jù)集,如在檢測虎時引入貓的數(shù)據(jù)集作為補充,這類數(shù)據(jù)需要滿足模型空間P的要求。但是,這類的數(shù)據(jù)集質(zhì)量往往較低,故目前流行的一種方法是引入對抗生成網(wǎng)絡(luò)產(chǎn)生與訓(xùn)練集Dtrain分布相同的數(shù)據(jù)作為補充。

        Douze等[18]通過標(biāo)簽傳播的方式設(shè)計了一種基于大量圖像集合的半監(jiān)督方法來支持標(biāo)簽傳播,用數(shù)億的圖像實現(xiàn)了在小樣本檢測下的高準(zhǔn)確率。Wang等[19]首先提出了一種對抗網(wǎng)絡(luò)用來自我生成遮蔽與變形例子,進行難例挖掘,結(jié)果小幅度提升了物體識別的準(zhǔn)確率。Ratner等[20]使用生成對抗網(wǎng)絡(luò)的方式生成數(shù)據(jù)增強的操作序列。Tang等[21]提出了一個提案學(xué)習(xí)方法來學(xué)習(xí)其他未標(biāo)記數(shù)據(jù)的特征和預(yù)測未標(biāo)記的數(shù)據(jù),引入了完全未標(biāo)記的數(shù)據(jù)提升了整體檢測網(wǎng)絡(luò)的準(zhǔn)確性。Nguyen等[22]將未標(biāo)記圖像的訓(xùn)練作為一種潛在變量模型,提出了一種基于期望最大化的未標(biāo)記圖像半監(jiān)督目標(biāo)檢測方法,對目標(biāo)檢測的分類部分和定位部分進行了潛在標(biāo)簽估計,并對模型進行了優(yōu)化。相較于監(jiān)督學(xué)習(xí),其在COCO數(shù)據(jù)集上取得的效果如表2所示。Huang等[23]則借助GAN通過白天的數(shù)據(jù)生成了夜間的數(shù)據(jù),其具體效果如圖3所示。

        表2 半監(jiān)督學(xué)習(xí)相較于監(jiān)督學(xué)習(xí)性能的提升效果Table 2 Comparison between semi-supervised learning with supervised learning

        圖3 運用AugGAN進行數(shù)據(jù)域增強的實例Fig.3 An example of data domain enhancement using AugGAN

        弱標(biāo)記和未標(biāo)記的樣本數(shù)據(jù)的收集相較于人工標(biāo)記樣本較為廉價,然而伴隨著廉價的優(yōu)勢,產(chǎn)生的是樣本的低質(zhì)量,弱標(biāo)記樣本中存在著錯誤標(biāo)注、不完全標(biāo)注等影響樣本質(zhì)量的問題。此外,為了找到適用于小樣本檢測任務(wù)的額外數(shù)據(jù),從海量的數(shù)據(jù)庫中挑選高質(zhì)量相似數(shù)據(jù)集的成本也是很昂貴的。

        總而言之,由于被檢測目標(biāo)的真實分布p(x,y)不可知,絕對準(zhǔn)確的先驗知識是不可獲得的。數(shù)據(jù)域的解決方案是增強原有數(shù)據(jù)集對真實分布的近似,當(dāng)增強方法不當(dāng)時,反而可能引起數(shù)據(jù)的偏移,造成期望風(fēng)險的擴大。但是在小樣本目標(biāo)檢測任務(wù)中,考慮提升檢測效果的第一途徑就是對樣本的修飾和增強,因此數(shù)據(jù)域的解決方案廣泛應(yīng)用于各種目標(biāo)檢測優(yōu)化方案中。

        3 模型域的解決方案

        目標(biāo)檢測所采用的模型決定了模型空間P的大小,復(fù)雜度過高的模型不易于模型收斂到最優(yōu)解,復(fù)雜度低的模型最優(yōu)解又距離真實模型太遠(yuǎn)。模型域解決方案的基本原理是:選取較大的模型空間P,再通過先驗知識縮小空間,如圖4所示。模型域的解決方案眾多,下面給出了四種典型做法。

        圖4 模型域解決方案原理Fig.4 Principle of model domain solution

        3.1 多任務(wù)訓(xùn)練網(wǎng)絡(luò)

        多任務(wù)學(xué)習(xí)網(wǎng)絡(luò)[24]同時訓(xùn)練了同一檢測網(wǎng)絡(luò)中的不同任務(wù),在目標(biāo)檢測的應(yīng)用中用于檢測的網(wǎng)絡(luò)參數(shù)可以共享給分類和定位任務(wù),這些共享的參數(shù)可以認(rèn)為是限制模型空間P的方式。多任務(wù)學(xué)習(xí)將目標(biāo)檢測的定位和分類參數(shù)通過一定的方式共享,降低了需要訓(xùn)練優(yōu)化的參數(shù)量,可以同時提升分類和檢測任務(wù)的效果。

        共享的部分可以是模型的淺層參數(shù)(表征任務(wù)的低階信息),也可以是在深層之后的不同深層網(wǎng)絡(luò)將不同任務(wù)嵌入到同一不變的模型參數(shù)空間。按照參數(shù)共享是否是強制執(zhí)行的,可將參數(shù)共享分成硬參數(shù)共享和軟參數(shù)共享:硬參數(shù)共享使不同任務(wù)之間共享同一部分模型空間;軟參數(shù)共享不同任務(wù)的有獨立的模型空間,但各模型空間的參數(shù)相似。

        Sermanet等[25]提出的OverFeat網(wǎng)絡(luò)首次用一個共享的深度卷積網(wǎng)絡(luò)來同時處理圖像分類、定位、檢測三個任務(wù),提升了模型在三個任務(wù)中的表現(xiàn)。Dong等[26]在學(xué)習(xí)過程中加入多個檢測模型,從多個模型中學(xué)習(xí)可以實現(xiàn)兩個目標(biāo):第一,有利于緩解模型訓(xùn)練的局部最優(yōu)解問題;第二,多個模型之間的知識補償提高了訓(xùn)練樣本生成的精度和召回率。Luo等[27]通過一個預(yù)先訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(CNN)從源域中的源任務(wù)學(xué)習(xí)來初始化CNN在目標(biāo)域中的目標(biāo)任務(wù)。在訓(xùn)練過程中,使用從多層CNN的表示中計算出的對抗損失來迫使兩個CNN項目樣本進入一個任務(wù)不變空間。該方法在新領(lǐng)域的新類上顯示了令人信服的結(jié)果,即使每個類只有幾個標(biāo)記的例子可用,也優(yōu)于流行的微調(diào)方法。在MNIST和SVHN數(shù)據(jù)集中,該方案的實驗結(jié)果如表3所示。

        表3 Baseline模型和Luo的方法的測試精度對比Table 3 Comparison of test accuracy between the baseline model and Luo's method

        多任務(wù)學(xué)習(xí)自提出以來,也被眾多研究者在目標(biāo)檢測任務(wù)中成功應(yīng)用。Chabot等[28]提出了一種用于車輛檢測的Deep MANTA網(wǎng)絡(luò)結(jié)構(gòu),使用了級聯(lián)的結(jié)構(gòu)預(yù)測車輛多種信息。在共享底層特征的同時,提供了足夠的擬合能力預(yù)測多種信息,并反復(fù)回歸包圍框,提高了定位精度,其具體的檢測效果如圖5所示。Zhang等[29]將多任務(wù)學(xué)習(xí)應(yīng)用在人臉檢測上,提出了一個深層級聯(lián)多任務(wù)框架,利用不同任務(wù)之間的內(nèi)在相關(guān)性來提高各自的性能。

        圖5 Deep MANTA檢測實例Fig.5 An example of Deep MANTA detection

        多任務(wù)網(wǎng)絡(luò)的學(xué)習(xí)方法通過一組共同學(xué)習(xí)的任務(wù)來約束目標(biāo)檢測的假設(shè)空間,共享的假設(shè)空間可以用來尋找分類和定位任務(wù)之間的共性,深度卷積特征在不同任務(wù)中的共享可以一定程度上提升檢測精度,但是如何進行共享特征的設(shè)計以及如何約束不同任務(wù)之間的相似性,需要經(jīng)過精心的設(shè)計[3]。目前的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計中,深度卷積特征的共享已被廣泛采用,但是在小樣本檢測下,不引入其他監(jiān)督信息時,共享特征仍無法大幅改善泛化能力不足的問題。

        3.2 增量學(xué)習(xí)網(wǎng)絡(luò)

        增量學(xué)習(xí)是指一個學(xué)習(xí)系統(tǒng)能不斷地從新樣本中學(xué)習(xí)新的知識,并能保存大部分已學(xué)習(xí)到的知識,其實現(xiàn)方式非常類似于人類自身的學(xué)習(xí)模式。增量學(xué)習(xí)具有以下特點[30]:1)可以從樣本以外的環(huán)境中獲得新知識;2)在更新知識過程中會保留大部分已學(xué)習(xí)到的知識;3)訓(xùn)練的過程不保留樣本;4)學(xué)習(xí)系統(tǒng)沒有關(guān)于整個訓(xùn)練樣本的先驗知識。增量學(xué)習(xí)關(guān)注于在實際應(yīng)用中對新樣本的適應(yīng)性,因此也是一個針對于分類任務(wù)的優(yōu)化方式。但是,增量學(xué)習(xí)需要特別注意如何處理新知識和舊知識之間的關(guān)系問題,如何避免災(zāi)難性遺忘。

        Pérez-Rúa等[31]提出了一種用于增量學(xué)習(xí)的檢測器ONCE,將CentreNet[32]分解為通用類別和特定類別的組件,以支持增量小樣本學(xué)習(xí)。在應(yīng)用到真實世界后,任何新類別在任何時候都能通過小量標(biāo)注樣本進行注冊,并能夠始終維護基礎(chǔ)類別和已注冊的新類別,在COCO數(shù)據(jù)集上取得的效果如表4所示。Peng等[33]設(shè)計了一種高效的端到端增量式目標(biāo)檢測系統(tǒng),該系統(tǒng)采用知識蒸餾法對基于徑向基元的目標(biāo)檢測系統(tǒng)進行了優(yōu)化,引入多網(wǎng)絡(luò)自適應(yīng)精餾,在對模型進行微調(diào)以完成新任務(wù)時,適當(dāng)?shù)乇A袅伺f類別的知識。

        表4 增量小樣本目標(biāo)檢測COCO val2017數(shù)據(jù)集上的性能Table 4 Incremental few-shot object detection performance on COCO val2017 dataset

        災(zāi)難性遺忘是增量式目標(biāo)檢測器的首要問題,為了解決這個問題,眾多學(xué)者進行了嘗試。Shmelkov等[34]提供了一種方法來解決災(zāi)難性遺忘的問題,其解決方案的核心是一個損失函數(shù),可以平衡對新類的預(yù)測和新的蒸餾損失之間的相互作用,新的蒸餾損失可以最小化來自原始和更新網(wǎng)絡(luò)的舊類響應(yīng)之間的差異。為了避免災(zāi)難性遺忘,Li等[35]提出了一種算法,從舊模型中提取三種類型的知識,模仿舊模型在對象分類、邊界盒回歸和特征提取方面的行為,并設(shè)計了一個實時數(shù)據(jù)集構(gòu)建管道來動態(tài)收集訓(xùn)練圖像,使用類別和邊框注釋自動標(biāo)記圖像,有效解決了初期樣本不足的問題。

        3.3 遷移學(xué)習(xí)網(wǎng)絡(luò)

        遷移學(xué)習(xí)從有足夠訓(xùn)練數(shù)據(jù)的源域和源任務(wù)中學(xué)習(xí)知識并轉(zhuǎn)移到訓(xùn)練數(shù)據(jù)有限的目標(biāo)域和目標(biāo)任務(wù)中,小樣本目標(biāo)檢測可以借鑒遷移學(xué)習(xí)的理論,域適應(yīng)[36]被廣泛使用在目標(biāo)檢測應(yīng)用中。當(dāng)給定的已標(biāo)注訓(xùn)練樣本不足以完成訓(xùn)練時,可以將其他類似域的先驗知識轉(zhuǎn)移到當(dāng)前應(yīng)用中,以緩解目標(biāo)域樣本不足導(dǎo)致的效果較差的問題,域適應(yīng)的方法通常用來提升目標(biāo)域上的定位效果。遷移學(xué)習(xí)的思想廣泛應(yīng)用于目標(biāo)檢測任務(wù)中,很多網(wǎng)絡(luò)模型為彌補樣本的不足,除了采用本身獨創(chuàng)性的方法外,從網(wǎng)絡(luò)的整體訓(xùn)練來看也有很重的遷移學(xué)習(xí)思想[37]。

        Wang等[38]提出了一種由兩層自適應(yīng)模塊組成的目標(biāo)檢測結(jié)構(gòu)FAFRCNN,配對過程將樣本分成兩組,第一組由目標(biāo)域的樣本和源域的樣本組成,第二組由源域的樣本組成,有效地擴充了有限的目標(biāo)域數(shù)據(jù),具體效果如圖6所示。Luo等[27]在其方法中也借用了領(lǐng)域轉(zhuǎn)移的思想,通過領(lǐng)域競爭損失來對抗領(lǐng)域轉(zhuǎn)移,還提出了一個多層域鑒別器,該鑒別器采用了最新的域?qū)剐詫W(xué)習(xí)方法進行域?qū)R。Zhang等[39]提出了一種新的用于語義分割的小樣本監(jiān)督域適應(yīng)框架,其主要思想是利用對抗性學(xué)習(xí)來對齊從網(wǎng)絡(luò)中提取的特征。同時,為了解決源數(shù)據(jù)樣本稀缺的問題,該方案還提出了一種使用源數(shù)據(jù)和目標(biāo)數(shù)據(jù)創(chuàng)建對的配對方法。Motiian等[40]也在小樣本檢測上進行了嘗試,其主要思想是利用對抗性學(xué)習(xí)來學(xué)習(xí)一個嵌入的子空間,同時最大化兩個域之間的混淆,并在語義上對齊它們的嵌入。該方案還提出利用典型的二元對立鑒別器來區(qū)分四個不同的類,以此解決監(jiān)督適應(yīng)的問題。Chen等[41]設(shè)計了一個靈活的LSTD深度架構(gòu)來緩解小樣本檢測中的困難,并提出了一種基于源域和目標(biāo)域的轉(zhuǎn)移指數(shù)(TK)和背景抑制(BD)的正則化方法,相比于 SSD和 Faster-RCNN,其在不同樣本數(shù)量的表現(xiàn)如表5所示。

        圖6 域適應(yīng)檢測效果Fig.6 Detection effect of domain adaptation

        表5 LSTD與Faster-RCNN和SSD的效果對比Table 5 Comparison of LSTD with Faster-RCNN and SSD

        遷移學(xué)習(xí)雖然在一定程度上緩解源域樣本不足的問題,但是也會因為領(lǐng)域轉(zhuǎn)移造成一定程度的檢測性能下降。當(dāng)目標(biāo)檢測集有限時,從預(yù)先訓(xùn)練的深度分類器初始化深度檢測器,應(yīng)用對象檢測的一般轉(zhuǎn)移策略是不合適的[41],因為使用這樣小的目標(biāo)集進行微調(diào)通常很難消除檢測和分類之間的任務(wù)差異。除此之外,遷移學(xué)習(xí)還存在著目標(biāo)域數(shù)據(jù)不足、模型過渡適應(yīng)、自適應(yīng)過程過于復(fù)雜的問題[38]。

        遷移學(xué)習(xí)的思想被廣泛地應(yīng)用于解決標(biāo)注數(shù)據(jù)不足的問題中,涉及快速建模、小數(shù)據(jù)建模等問題時,常常被研究者所采用。近幾年比較熱點的領(lǐng)域自適應(yīng)方法一定程度上解決了一個領(lǐng)域訓(xùn)練好的模型如何適配在另一領(lǐng)域中的問題,當(dāng)小樣本模型出現(xiàn)漂移,不能在新領(lǐng)域泛化時,往往可以通過領(lǐng)域自適應(yīng)的方法進行嘗試。但是,遷移學(xué)習(xí)仍舊無法比擬高質(zhì)量數(shù)據(jù)集下的訓(xùn)練結(jié)果。在應(yīng)用過程中也存在兩大問題:1)從什么領(lǐng)域遷移數(shù)據(jù)?2)遷移的知識如何進行適配?

        3.4 深度度量學(xué)習(xí)

        深度度量學(xué)習(xí)通過衡量映射在某一空間上的樣本之間的距離來學(xué)習(xí)樣本的相似度與區(qū)分度,小樣本學(xué)習(xí)可以繼承這樣的算法思路:采用一個合適的嵌入空間來表征樣本,再套入合適的距離度量損失來衡量新入樣本與各個未知類別之間的距離大小,從而得到待測樣本的應(yīng)屬類別。深度度量學(xué)習(xí)的方法通常被集合在目標(biāo)檢測器的尾端,作為分類器使用,其方法對于分類效果有所提升,但是對于定位任務(wù)效果提升不明顯。

        Schwartz等[42]提出了一種同時學(xué)習(xí)主干網(wǎng)絡(luò)參數(shù)、嵌入空間和各節(jié)點的多模態(tài)分布的深度度量學(xué)習(xí)算法,度量網(wǎng)絡(luò)結(jié)構(gòu)作為分類頭合并到一個標(biāo)準(zhǔn)的目標(biāo)檢測模型中,證明了其方法在小樣本目標(biāo)檢測問題上的有效性。在ImageNet的50個類比上,該方案在小樣本下與基準(zhǔn)模型的效果對比如表6所示。Hao等[43]在小樣本的前提下提出了一種新的實例級嵌入適應(yīng)機制,旨在快速適應(yīng)嵌入的深度特征,以提高其識別新類別的泛化能力,該方案設(shè)計了一個關(guān)注自適應(yīng)模塊,盡可能地提取查詢實例及其對應(yīng)的類中心。Luo等[27]使用基于度量學(xué)習(xí)的方法來概括領(lǐng)域轉(zhuǎn)移中嵌入到新任務(wù)的過程,在標(biāo)記目標(biāo)之間利用基于度量學(xué)習(xí)的交叉熵?fù)p失來穩(wěn)定和改善學(xué)習(xí)。

        表6 Schwartz算法在ImageNet-LOC數(shù)據(jù)集的50類目標(biāo)中的表現(xiàn)(mAP)Table 6 Performance of Schwartz's algorithm in 50 classes of targets inImageNet-LOC dataset(mAP)

        深度度量學(xué)習(xí)所學(xué)習(xí)的嵌入函數(shù)沒有考慮任何特定于應(yīng)用的知識,在原數(shù)據(jù)集樣本極小的情況下應(yīng)用是不合適的。此外,通過度量學(xué)習(xí)的方式在小樣本中得到的結(jié)果也不容易在新應(yīng)用中適應(yīng)。使用預(yù)先訓(xùn)練的嵌入模型具有較低的計算成本,也可以帶來良好的分類效果。然而,通過度量學(xué)習(xí)得到的嵌入函數(shù)沒有考慮任何特定于任務(wù)的知識,簡單地應(yīng)用嵌入函數(shù)是不合適的。最近一段時間,Musgrave等[44]提出,度量學(xué)習(xí)的發(fā)展存在 “虛假繁榮”的現(xiàn)象,相關(guān)論文在實驗設(shè)置方面存在多種缺陷,比如不公平的實驗比較、測試集標(biāo)簽泄露、不合理的評價指標(biāo)等,度量學(xué)習(xí)在目標(biāo)檢測任務(wù)中的效果有待進一步驗證。

        4 算法域的解決方案

        算法域解決方案的基本原理是:找到一種在模型空間P中快速搜索最優(yōu)模型ˉW的策略,這種策略可以利用先驗知識來改變參數(shù)θ的搜索過程,使模型在有限次的迭代下快速收斂,其具體原理如圖7所示。算法域的解決方法大體上可以分為兩類。

        圖7 算法域解決方案原理Fig.7 Principle of algorithm domain solution

        4.1 微調(diào)現(xiàn)有模型參數(shù)θ

        將由大量相似數(shù)據(jù)集訓(xùn)練得到的檢測模型參數(shù)作為θ的初始參數(shù),因其已被迭代過多次,故只需經(jīng)過少量幾次優(yōu)化就可以適應(yīng)于新的檢測應(yīng)用。在引入預(yù)訓(xùn)練模型后,具體的優(yōu)化策略包括:1)分離Dtrain并建立驗證集Dvalidation,以檢測并提早結(jié)束訓(xùn)練;2)選擇性更新參數(shù),保留大部分預(yù)訓(xùn)練參數(shù)不變;3)對預(yù)先訓(xùn)練好的模型參數(shù)進行分組,并使用Dtrain進行分組反向傳播微調(diào);4)在預(yù)訓(xùn)練模型后引入額外的參數(shù)δ或?qū)蛹壗Y(jié)構(gòu)做協(xié)調(diào),與原有參數(shù)θ共同優(yōu)化。

        Singh等[45]通過引入預(yù)訓(xùn)練模型,提升了模型在樣本稀少的小目標(biāo)檢測上的準(zhǔn)確率。Chen等[41]在做域適應(yīng)時,分別從源域和目標(biāo)域中選擇目標(biāo)知識,進一步增強對少量目標(biāo)圖像的微調(diào)。引入預(yù)訓(xùn)練模型和Fine-Tuning的方式廣泛存在于目標(biāo)檢測任務(wù)中,大部分小樣本學(xué)習(xí)都會通過這樣的方式嘗試提高模型的檢測效果。在Fine-Tuning后,無論是模型的分類還是定位能力都會有所提升。

        通過預(yù)訓(xùn)練模型的引入,極大地降低了模型收斂的時間,但是也會引起模型過擬合的問題,可以通過一定的正則化方法予以緩解[3]。除此之外,預(yù)訓(xùn)練和微調(diào)盡管可以在訓(xùn)練集上收斂,但是檢測器在測試集上仍舊存在泛化能力不足的問題[46]。

        4.2 元學(xué)習(xí)

        區(qū)別于其他優(yōu)化方式使模型更接近,元學(xué)習(xí)的優(yōu)化策略直接目標(biāo)是,其目標(biāo)是讓機器“學(xué)會學(xué)習(xí)”。元學(xué)習(xí)擬合一系列相似任務(wù)的分布,利用元學(xué)習(xí)器將各個學(xué)習(xí)任務(wù)的參數(shù)合成,以此獲得一個好的初始化參數(shù),具體的數(shù)據(jù)集設(shè)置如圖8所示。

        圖8 3-way 1-shot元學(xué)習(xí)任務(wù)示例Fig.8 An example of 3-way 1-shot meta-learning

        元學(xué)習(xí)本質(zhì)上是要尋找一個對于所有任務(wù)都較優(yōu)的模型參數(shù),在更新參數(shù)時,元學(xué)習(xí)結(jié)合了所有任務(wù)在測試集上的損失作為先驗知識來指導(dǎo)梯度更新。因此,元學(xué)習(xí)的方法可以作為一個很好的參數(shù)θ初始化方式,其值在新的任務(wù)上已經(jīng)是一個較優(yōu)的值,只需要較少的迭代更新就能達(dá)到最優(yōu)假設(shè)。

        除了初始化模型參數(shù),還可以通過元學(xué)習(xí)與循環(huán)卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的方式訓(xùn)練得到一個參數(shù)優(yōu)化方法,為訓(xùn)練過程提供一個良好的參數(shù)搜索步驟或更新規(guī)則,提供更好的搜索方向和步長,加速收斂過程。

        Fu等[47]提出的Meta-SSD模型將元學(xué)習(xí)部分和目標(biāo)檢測器組合,可以學(xué)習(xí)廣泛的知識和正確的快速適應(yīng)策略,教檢測器如何在一個更新的步驟從有限幾個例子中學(xué)習(xí)。Yan等[48]提出的Meta RCNN采用了基于RoI特性的元學(xué)習(xí),并通過Mask R-CNN改進了小樣本的目標(biāo)分割能力。相比于YOLO模型,其方案在小樣本下對于不同類別的檢測效果如表7所示。Kang等[37]充分利用了基類的標(biāo)記,并使用元特征學(xué)習(xí)器和權(quán)重調(diào)整模塊,實現(xiàn)了快速適應(yīng)新的類,在小樣本目標(biāo)檢測方面有很大的優(yōu)勢。Wang等[46]的想法較為獨特,他們認(rèn)為目標(biāo)檢測與小樣本學(xué)習(xí)的結(jié)合就是目標(biāo)跟蹤問題的特例,他們采用了與模型無關(guān)的元學(xué)習(xí)提供了一種初始化檢測器的策略,構(gòu)建了一個高性能的跟蹤器,并采用一系列針對小樣本的優(yōu)化方案,大大提高了檢測精度。Pérez-Rúa等[31]在網(wǎng)絡(luò)中加入了元學(xué)習(xí)類別生成器,一旦經(jīng)過訓(xùn)練,給定少量的新對象類的圖像,元訓(xùn)練的類代碼生成器可以使ONCE檢測器在元測試階段以有效的前饋方式增量地學(xué)習(xí)新類。

        表7 Meta R-CNN與YOLO在VOC2007數(shù)據(jù)集小樣本下的表現(xiàn)對比Table 7 Comparison of Meta R-CNN and YOLO in small sample of VOC2007 dataset

        元學(xué)習(xí)的方法被廣泛應(yīng)用于小樣本目標(biāo)檢測中,其獨特的實現(xiàn)方式可以提升目標(biāo)檢測在新類別上分類的準(zhǔn)確性,還可以為定位任務(wù)搜索更優(yōu)的參數(shù)。元學(xué)習(xí)中包含了一定遷移學(xué)習(xí)的思想,其訓(xùn)練方式也非常適于小樣本訓(xùn)練的模式,可以說元學(xué)習(xí)是一個極具研究潛力的深度學(xué)習(xí)優(yōu)化方式。然而,學(xué)習(xí)建立這種元學(xué)習(xí)模型的成本也比較高,而且對于初學(xué)者來說,設(shè)計一個良好的元學(xué)習(xí)器是比較困難的。

        5 相類似的深度學(xué)習(xí)應(yīng)用

        在深度學(xué)習(xí)領(lǐng)域,與小樣本學(xué)習(xí)類似的研究有很多,為了對這一類問題進行區(qū)分,從中獲取解決問題的靈感,這里對類似的深度學(xué)習(xí)問題進行匯總和說明,明確各類問題的特點。

        5.1 半監(jiān)督學(xué)習(xí)

        半監(jiān)督學(xué)習(xí)[49]區(qū)別于監(jiān)督學(xué)習(xí)的關(guān)鍵在于樣本是否已完全標(biāo)注,半監(jiān)督學(xué)習(xí)在有標(biāo)注和沒有標(biāo)注的混合樣本中學(xué)習(xí)最優(yōu)模型。區(qū)別于此,小樣本學(xué)習(xí)不對監(jiān)督和半監(jiān)督做過多的約束,取決于提供樣本的種類而不是樣本的標(biāo)注形式,小樣本學(xué)習(xí)中可以沒有未標(biāo)注樣本。另一點區(qū)別在于,半監(jiān)督學(xué)習(xí)的對象檢測器往往需要占總量50%左右的標(biāo)注數(shù)據(jù)[26],而小樣本能提供的標(biāo)注樣本數(shù)量遠(yuǎn)小于此。

        5.2 不平衡學(xué)習(xí)

        不平衡學(xué)習(xí)[50]在數(shù)據(jù)集中有一類含有的數(shù)據(jù)要遠(yuǎn)遠(yuǎn)多于其他類的數(shù)據(jù),常常是類別分布不平衡,需要在不平衡的數(shù)據(jù)集中學(xué)習(xí)一個偏態(tài)的數(shù)據(jù)分布。區(qū)別于此,小樣本學(xué)習(xí)對參數(shù)的訓(xùn)練和測試只通過幾個例子,而可能會把另一個樣本作為先驗知識來學(xué)習(xí)。

        5.3 零樣本學(xué)習(xí)

        在零樣本學(xué)習(xí)[51]任務(wù)中,某一類別在訓(xùn)練樣本中未出現(xiàn),但是可以知道這個類別的特征,通過語料知識庫便可以將這個類別識別出來。零樣本的基礎(chǔ)理論是高維語義特征代替樣本的低維特征,使得訓(xùn)練出來的模型具有遷移性。零樣本學(xué)習(xí)的思想可以應(yīng)用在小樣本檢測中,提供新的解決思路。

        6 現(xiàn)狀與展望

        小樣本學(xué)習(xí)模式是在人類的學(xué)習(xí)方式和人工智能之間建立聯(lián)系的橋梁,有助于降低人工智能在工業(yè)化部署上收集大量標(biāo)注成本的負(fù)擔(dān),降低人工智能的落地成本;另一方面也使深度學(xué)習(xí)在樣本稀有的案例上部署成為可能,其中最典型的應(yīng)用場景就是軍事領(lǐng)域中的目標(biāo)檢測應(yīng)用??梢灶A(yù)想的是,在人工智能的學(xué)術(shù)研究熱潮以及工業(yè)對低成本的深度學(xué)習(xí)部署強烈憧憬下,未來在小樣本學(xué)習(xí)的研究會逐漸深入,得到良好的發(fā)展。

        6.1 小樣本目標(biāo)檢測的現(xiàn)狀

        由于視覺信息的獲取較為容易,并且自Alex-Net[30]在2012年引爆深度學(xué)習(xí)以來,圖像領(lǐng)域已在深度學(xué)習(xí)中進行了廣泛而深入的探索,為計算機視覺賦予了全新的研究方法和研究領(lǐng)域。因此,小樣本學(xué)習(xí)也率先出現(xiàn)在圖像分類和識別的應(yīng)用中。但是,目標(biāo)檢測任務(wù)同時包含了分類、識別、定位和分割等多種學(xué)習(xí)任務(wù),小樣本目標(biāo)檢測技術(shù)尚處于學(xué)術(shù)探索的狀態(tài),仍存在一些明顯的問題,包括:

        1)復(fù)雜場景下檢測精度較低:由容量有限的樣本抽取的特征往往不具有高度的概括性,泛化能力較低,目標(biāo)的定位容易被復(fù)雜度的場景所模糊,從而難以達(dá)到較高的檢測精度。眾多論文[37,42,48]均提到了復(fù)雜背景下小樣本檢測表現(xiàn)不佳的情況,其本質(zhì)是定位任務(wù)在小樣本下表現(xiàn)不佳。

        2)檢測數(shù)據(jù)集較分類數(shù)據(jù)集仍顯缺乏:對于目標(biāo)檢測模型來說,數(shù)據(jù)的需求更為關(guān)鍵,但是收集標(biāo)記數(shù)據(jù)進行檢測的成本也更高。除此之外,專注于檢測的數(shù)據(jù)集比分類數(shù)據(jù)集少得多。因此,沒有更多目標(biāo)檢測的數(shù)據(jù)集用于數(shù)據(jù)遷移和域適應(yīng)也是目前的問題之一。在目前的研究中,研究者首先面對的問題就是數(shù)據(jù)擴充,比如Zoph等[17]就提出了一系列數(shù)據(jù)擴充策略,力圖提升檢測精度。

        3)一圖多目標(biāo)和一圖無目標(biāo)問題:在兩類特殊的問題中,小樣本目標(biāo)檢測表現(xiàn)效果不佳。文獻(xiàn)[37]和文獻(xiàn)[48]提出了多目標(biāo)小樣本檢測的問題,該問題主要表現(xiàn)為檢測網(wǎng)絡(luò)對新類別表現(xiàn)較為遲鈍。另一個問題出現(xiàn)在無目標(biāo)場景下,主要表現(xiàn)為誤檢測問題。

        4)深度模型下的過擬合問題:目標(biāo)檢測問題區(qū)別于其他計算機視覺問題的關(guān)鍵在于,深度網(wǎng)絡(luò)模型下需要同時考慮目標(biāo)分類和定位的問題,而定位和分割問題的難度遠(yuǎn)在分類之上,在數(shù)據(jù)容量較小時,層數(shù)較高的檢測網(wǎng)絡(luò)極易造成模型的過擬合。文獻(xiàn)[37]和文獻(xiàn)[41]提到的方法均通過一定的策略嘗試降低模型過擬合的程度,如數(shù)據(jù)遷移和正則化等。

        5)生成高精確度的偽標(biāo)注樣本問題[26]:具體來說,一方面,訓(xùn)練樣本的生成應(yīng)具有較高的置信度,以保證后續(xù)過程中探測器訓(xùn)練的良好引導(dǎo)。另一方面,由于正確預(yù)測的訓(xùn)練樣本越多,識別檢測器越好,因此可以推測生成的訓(xùn)練樣本偽標(biāo)簽應(yīng)該具有較高的召回率,為檢測器的改進提供足夠的知識,即要求偽標(biāo)注樣本在精確率和召回率要求之間達(dá)到平衡。

        6)缺乏更詳細(xì)的理論解釋:通過先驗知識的理論可以從一方面模型化小樣本檢測問題,并可以將解決方案分類為三大領(lǐng)域。但是,這樣的解釋方式并未對一些解決方案實現(xiàn)檢測效果提升的數(shù)學(xué)原理進行量化的描述,如算法領(lǐng)域的解決方案仍沒被完全理解,其實現(xiàn)的效果也缺乏合理的量化解釋。Franceschi等[52]嘗試對元學(xué)習(xí)的實現(xiàn)原理進行測試,給出了近似問題解收斂于精確問題解的充分條件,但是仍然缺乏對元學(xué)習(xí)方法收斂性的一般或普遍分析。

        6.2 小樣本目標(biāo)檢測的發(fā)展趨勢

        小樣本學(xué)習(xí)一經(jīng)提出,就受到了廣泛的關(guān)注,CVPR2018收錄了4篇關(guān)于小樣本學(xué)習(xí)的論文,而到了CVPR2019,這一數(shù)量激增到了近20篇。隨著研究的日益推進,小樣本目標(biāo)檢測呈現(xiàn)出以下的發(fā)展趨勢:

        1)越來越多的學(xué)者將研究的目光投向了元學(xué)習(xí),元學(xué)習(xí)與目標(biāo)檢測器相結(jié)合的方式正在被逐漸探索實踐,以較小的推理代價快速適應(yīng)新應(yīng)用。但是,在應(yīng)用中也存在三個問題:①由于成本過高或難度較大而無法確定相似任務(wù)的關(guān)聯(lián)性,如關(guān)聯(lián)性不強,反而可能得到適得其反的學(xué)習(xí)效果;②在學(xué)習(xí)過程中,避免災(zāi)難性遺忘[53]是另一個問題,對于過去任務(wù)中得到的信息可能會隨著元學(xué)習(xí)器的迭代而丟失,從而影響學(xué)習(xí)效果;③元學(xué)習(xí)在多目標(biāo)檢測問題上表現(xiàn)不佳,影響整體檢測效果。

        2)多樣本狀態(tài)的訓(xùn)練數(shù)據(jù)成為一種可能,在標(biāo)注的圖像樣本中增添另外維度的樣本信息,如文本、視頻信息等。多維度的信息可用于在樣本訓(xùn)練中提供先驗知識,該方法此前被廣泛應(yīng)用于零樣本學(xué)習(xí)中。

        3)一個可能的方向是將自動機器學(xué)習(xí)的自動特征工程[54]、模型選擇[55]、神經(jīng)結(jié)構(gòu)搜索[56]和優(yōu)化策略選擇[17]擴展到小樣本檢測的方法中,通過自動機器學(xué)習(xí)在搜索空間中對訓(xùn)練參數(shù)、訓(xùn)練策略進行優(yōu)化搜索。

        4)從目標(biāo)跟蹤問題中尋找靈感。用檢測器去解決跟蹤問題,遇到的最大問題也是訓(xùn)練數(shù)據(jù)的不足。如果將跟蹤視為一個特殊的檢測任務(wù),檢測的目標(biāo)由用戶在第一幀所指定,這意味著能夠用于訓(xùn)練的數(shù)據(jù)僅僅只有少數(shù)幾張。從這個意義上說,小樣本目標(biāo)檢測問題有望在目標(biāo)跟蹤中獲取解決問題的靈感。在文獻(xiàn)[46]的方案中,給出了以元學(xué)習(xí)的方式解決跟蹤任務(wù)下小樣本目標(biāo)檢測的一種嘗試。

        5)更多的研究將關(guān)注在小樣本目標(biāo)檢測中定位任務(wù)的提升上。目前的小樣本目標(biāo)檢測方案,除了小部分研究外,無論是度量學(xué)習(xí)[42-43],還是元學(xué)習(xí)[37,47-48],都關(guān)注將先驗知識應(yīng)用于目標(biāo)檢測器末端的分類器上,并在分類任務(wù)中表現(xiàn)出眾。涉及定位任務(wù),小樣本學(xué)習(xí)的方法相比于大數(shù)據(jù)樣本下的目標(biāo)檢測仍有較大差距,漏檢和錯檢的問題較為明顯。未來,提升小樣本目標(biāo)檢測任務(wù)的關(guān)鍵在于提高目標(biāo)定位的準(zhǔn)確度。

        6)小樣本學(xué)習(xí)的方式不只局限于圖像領(lǐng)域,除了計算機視覺應(yīng)用的不斷深入,其他人工智能領(lǐng)域也開始考慮小樣本檢測的問題,如Kaiser等[57]將小樣本學(xué)習(xí)的思想融入到文字翻譯中,未來會有更多的人工智能研究者投入到小樣本學(xué)習(xí)的研究中,更多的方法會被逐漸提出。在其他領(lǐng)域,對小樣本學(xué)習(xí)方式的探索也會一定程度上促進小樣本目標(biāo)檢測問題的提升,催化產(chǎn)生更多可能的解決方案和優(yōu)化策略。

        7 結(jié)論

        小樣本目標(biāo)檢測旨在縮短人工智能和人類學(xué)習(xí)之間的差距,它通過學(xué)習(xí)有限的監(jiān)督信息,結(jié)合先驗知識,提升目標(biāo)檢測在新任務(wù)中的效果。小樣本學(xué)習(xí)的方式有助于減輕在工業(yè)使用中收集大規(guī)模標(biāo)記數(shù)據(jù)的負(fù)擔(dān),使只能提供少量樣本的應(yīng)用場合中人工智能的落地成為可能。在低成本的人工智能學(xué)術(shù)訴求和工業(yè)上對廉價學(xué)習(xí)的需求下,小樣本目標(biāo)檢測逐漸受到關(guān)注并成為熱點問題。

        本文對小樣本目標(biāo)檢測進行了全面的綜合敘述,首先給出了分析小樣本檢測的一種方法,并從數(shù)據(jù)層面、模型層面和算法層面歸納整理了近幾年來解決小樣本檢測的方法途徑,分析了包括遷移學(xué)習(xí)、元學(xué)習(xí)、度量學(xué)習(xí)等熱點方法在小樣本檢測方面的應(yīng)用效果和存在的問題。之后,討論了小樣本檢測與半監(jiān)督學(xué)習(xí)、不平衡學(xué)習(xí)和零樣本學(xué)習(xí)等相關(guān)學(xué)習(xí)問題的關(guān)聯(lián)性和差異性。最后,歸納整理了小樣本目標(biāo)檢測所面臨的問題與困境,并指出了未來可能的發(fā)展趨勢,希望能對小樣本檢測方向的研究有所啟發(fā)。

        猜你喜歡
        檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測中的應(yīng)用
        亚洲人成电影在线无码| 国产黄色污一区二区三区| 在线观看亚洲视频一区二区| 亚洲国产精品无码成人片久久| 看黄a大片日本真人视频直播| 国产福利免费看| 日本一区二区三区专区| 国产黄色看三级三级三级| 久久综合九色综合97婷婷| 久久无码高潮喷水抽搐| 国产精品爽黄69天堂a| 亚洲欧洲精品成人久久曰影片| 亚洲av精品一区二区| 国产自拍视频免费在线| a级特黄的片子| 国产系列丝袜熟女精品视频| 看中文字幕一区二区三区| 手机久草视频福利在线观看| 成人免费a级毛片| 亚洲精品国产综合一线久久| 亚洲中文字幕有综合久久| 日本一区三区三区在线观看| 欧美乱妇高清无乱码在线观看| 欧美在线专区| 国产在线播放免费人成视频播放| 草草影院发布页| 久久人人爽人人爽人人片av麻烦| 97av在线播放| 色和尚色视频在线看网站| 丝袜人妻一区二区三区| 久久9精品区-无套内射无码| 欧美在线不卡视频| 精品久久一区二区av| 欧美精品欧美人与动人物牲交| 国产肉丝袜在线观看| 国产aⅴ丝袜旗袍无码麻豆| 精品露脸熟女区一粉嫩av| 国产成人涩涩涩视频在线观看| 国产美女一级做a爱视频| 中文字幕一区乱码在线观看| 精品无码国产自产拍在线观看|