(國(guó)防科技大學(xué)智能科學(xué)學(xué)院,長(zhǎng)沙410073)
近年來(lái),深度學(xué)習(xí)理論不斷發(fā)展并且在人工智能的多個(gè)領(lǐng)域取得了極大的進(jìn)步,在圖像識(shí)別、目標(biāo)分割、醫(yī)療影像、游戲博弈、無(wú)人駕駛等多個(gè)領(lǐng)域得到了廣泛的應(yīng)用[1],比如火車站自動(dòng)檢票、無(wú)人超市、人臉識(shí)別打卡、醫(yī)療輔助診斷等。然而深度學(xué)習(xí)的模型的訓(xùn)練需要依賴大量的樣本來(lái)克服過(guò)擬合等問(wèn)題。但是現(xiàn)實(shí)中有一些識(shí)別任務(wù)并沒(méi)有大量的樣本進(jìn)行訓(xùn)練,比如逃犯抓捕過(guò)程中的人臉識(shí)別、軍事目標(biāo)的識(shí)別、比較罕見(jiàn)的疑難雜癥的處理等。本文研究無(wú)人機(jī)對(duì)地面目標(biāo)的小樣本識(shí)別問(wèn)題,其難點(diǎn)在于無(wú)人機(jī)對(duì)目標(biāo)的觀察視角變化較多,且無(wú)人機(jī)實(shí)飛圖像數(shù)據(jù)較難獲取。
受人類從少量樣本抽象一般概念能力的啟發(fā),利用較少量樣本實(shí)現(xiàn)目標(biāo)識(shí)別的問(wèn)題被稱為“小樣本學(xué)習(xí)”問(wèn)題[2]。這種問(wèn)題通常每一類目標(biāo)只包含一個(gè)或幾個(gè)樣本,根據(jù)這些樣本就能夠識(shí)別出一類目標(biāo)。以車輛目標(biāo)為例,我們可以通過(guò)拍攝的一張車輛圖片識(shí)別出一大類車輛的照片,如圖1所示。
圖1 小樣本識(shí)別問(wèn)題示意圖Fig.1 Few shot learning
無(wú)人機(jī)對(duì)地目標(biāo)的感知與理解一直以來(lái)都是無(wú)人機(jī)系統(tǒng)典型任務(wù)之一,得到了廣泛的關(guān)注。本文主要面向無(wú)人機(jī)的自動(dòng)感知問(wèn)題,即利用機(jī)器視覺(jué)算法在數(shù)據(jù)層面對(duì)目標(biāo)特征的捕捉能力進(jìn)行感知,從而實(shí)現(xiàn)對(duì)地目標(biāo)的檢測(cè)和識(shí)別。經(jīng)典的模式識(shí)別方法主要分為幾個(gè)環(huán)節(jié):特征描述、特征提取、特征分類、邊緣檢測(cè)、輪廓提取、輪廓匹配、圖像分割等,在每一個(gè)環(huán)節(jié)都有很多成熟的方法。當(dāng)前比較常見(jiàn)的處理策略是將這些成熟的算法相互結(jié)合,比如當(dāng)前一種比較先進(jìn)的行人檢測(cè)方法就是HOG特征與SVM方法的結(jié)合[3]。
深度學(xué)習(xí)理論的提出為目標(biāo)檢測(cè)和識(shí)別提供了新的思路,當(dāng)前較為先進(jìn)的幾種基于卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的算法比如RCNN[4]、Faster RCNN[5]、YOLO[6]、SSD[7]等算法在檢測(cè)的準(zhǔn)確率和速度上都取得了傳統(tǒng)目標(biāo)識(shí)別方法難以實(shí)現(xiàn)的進(jìn)步,并且可以在一定程度上與人類相媲美。然而深度學(xué)習(xí)算法的一個(gè)特點(diǎn)是需要大量的數(shù)據(jù),但是對(duì)于無(wú)人機(jī)應(yīng)用的某些領(lǐng)域,比如一些罕見(jiàn)目標(biāo)的識(shí)別、罪犯的追捕等,大量的數(shù)據(jù)是很難獲取的,這使得基于傳統(tǒng)的深度學(xué)習(xí)的目標(biāo)識(shí)別方法的效果不盡理想。因此,本文主要針對(duì)無(wú)人機(jī)在小樣本條件下的識(shí)別問(wèn)題進(jìn)行研究。
2006年李飛飛提出了小樣本學(xué)習(xí)的概念[2],引起了大家對(duì)于小樣本學(xué)習(xí)領(lǐng)域的關(guān)注。之后越來(lái)越多的科研工作者加入了這一領(lǐng)域,為小樣本識(shí)別問(wèn)題提出了很多思路和實(shí)現(xiàn)方法。基于度量學(xué)習(xí)的思想,孿生網(wǎng)絡(luò)(Siamese Neural Networks)[8]和匹配網(wǎng)絡(luò)(Matching Networks)[9]先后被提出,該類方法通過(guò)學(xué)習(xí)圖像空間到特征空間的映射,從而度量訓(xùn)練樣本與測(cè)試樣本之間的相似度,實(shí)現(xiàn)小樣本物體的識(shí)別。同時(shí),為了使模型在較少的迭代次數(shù)中得到比較好的訓(xùn)練效果,從而“學(xué)會(huì)學(xué)習(xí)”,人們提出了元學(xué)習(xí)[10]的思想,這一思想在小樣本學(xué)習(xí)領(lǐng)域的經(jīng)典應(yīng)用為Model-Agnostic Meta-Learning(MAML)模型[11]。MAML通過(guò)前期對(duì)模型“元學(xué)習(xí)者”的訓(xùn)練使得模型保持一個(gè)比較好的初始參數(shù),之后通過(guò)極少量的樣本,能夠很快地迭代到合適的參數(shù)范圍。
遷移學(xué)習(xí)放寬了訓(xùn)練數(shù)據(jù)必須與測(cè)試數(shù)據(jù)獨(dú)立分布的假設(shè),從一定程度上解決了部分領(lǐng)域樣本不足、標(biāo)注困難等問(wèn)題,這啟發(fā)我們利用遷移學(xué)習(xí)來(lái)解決小樣本識(shí)別的問(wèn)題。根據(jù)這一思想,Liu 等將遷移學(xué)習(xí)的思想與元學(xué)習(xí)理論相結(jié)合提出了Meta Transfer Learning(MTL)模型[12],該模型首先訓(xùn)練出分類器模型,之后通過(guò)遷移學(xué)習(xí)的方式將學(xué)習(xí)到的信息應(yīng)用到小樣本識(shí)別模型中,在訓(xùn)練的速度和精確度方面都有了很大的提高。
MTL 模型在miniImagenet 數(shù)據(jù)集上取得了較好的表現(xiàn),但是要將該方法應(yīng)用于無(wú)人機(jī)領(lǐng)域仍舊存在著一些問(wèn)題??紤]到無(wú)人機(jī)所能搭載的計(jì)算資源有限,而MTL模型的計(jì)算量很大,參數(shù)極多,本文對(duì)MTL 模型進(jìn)行簡(jiǎn)化,降低參數(shù)的數(shù)量,提高了運(yùn)行效率,使得該模型可以應(yīng)用于無(wú)人機(jī)領(lǐng)域。
本文改進(jìn)了一種基于元學(xué)習(xí)和遷移學(xué)習(xí)的思想的無(wú)人機(jī)目標(biāo)識(shí)別方法,通過(guò)對(duì)學(xué)習(xí)者和元學(xué)習(xí)者的訓(xùn)練使得模型在未知任務(wù)中僅利用較少量的樣本便能夠?qū)崿F(xiàn)地面目標(biāo)的識(shí)別。引入遷移學(xué)習(xí)的思想對(duì)模型進(jìn)行預(yù)訓(xùn)練,提高了模型的訓(xùn)練效率。并且對(duì)模型的結(jié)構(gòu)進(jìn)行簡(jiǎn)化,減少了模型的訓(xùn)練參數(shù)和計(jì)算量,使其可以應(yīng)用于無(wú)人機(jī)領(lǐng)域。
利用當(dāng)前較為常用的小樣本識(shí)別數(shù)據(jù)集Omniglot對(duì)本文的方法與當(dāng)前較為先進(jìn)的小樣本識(shí)別方法進(jìn)行比較,利用無(wú)人機(jī)實(shí)際飛行過(guò)程中采集到的圖像對(duì)本文的模型進(jìn)行評(píng)估,分析本文方法的優(yōu)缺點(diǎn)。本文的模型只需要利用miniImageNet數(shù)據(jù)集進(jìn)行訓(xùn)練,之后可直接應(yīng)用于無(wú)人機(jī)實(shí)拍數(shù)據(jù)的識(shí)別任務(wù)中,具有良好的遷移性能。
人類之所以能夠快速學(xué)習(xí)的關(guān)鍵是人類具備學(xué)會(huì)學(xué)習(xí)的能力,能夠充分的利用以往的知識(shí)經(jīng)驗(yàn)來(lái)指導(dǎo)新任務(wù)的學(xué)習(xí)。因此,本文采用基于元學(xué)習(xí)與遷移學(xué)習(xí)的小樣本學(xué)習(xí)方法,大大提高了小樣本目標(biāo)識(shí)別的效率和正確率。本文模型的核心思想就是讓人工智能自己學(xué)會(huì)思考,學(xué)會(huì)推理,從而具有學(xué)習(xí)的能力。通過(guò)在已知任務(wù)環(huán)境中對(duì)模型進(jìn)行訓(xùn)練,使模型獲得在不可見(jiàn)任務(wù)中的識(shí)別能力,同時(shí)借鑒遷移學(xué)習(xí)的思想,對(duì)模型進(jìn)行預(yù)訓(xùn)練,提高模型的訓(xùn)練效率。整個(gè)模型主要分為預(yù)學(xué)習(xí)、元學(xué)習(xí)、測(cè)試幾個(gè)部分,如圖2所示。
圖2 基于元學(xué)習(xí)和遷移學(xué)習(xí)的樣本識(shí)別方法Fig.2 Few shot learning method based on transfer learning and meta learning
大多數(shù)模型在開始訓(xùn)練時(shí)的參數(shù)都是隨機(jī)初始化產(chǎn)生的,這使得模型需要同時(shí)訓(xùn)練大量的參數(shù)從而得到較好的結(jié)果。但是小樣本識(shí)別模型中的很大一部分參數(shù)都屬于特征提取部分,所以我們借鑒遷移學(xué)習(xí)的思想,加入預(yù)訓(xùn)練過(guò)程,通過(guò)預(yù)訓(xùn)練一個(gè)分類器模型得到模型特征提取部分的權(quán)重參數(shù)并將其固定,之后將這些參數(shù)應(yīng)用到后續(xù)的元學(xué)習(xí)模型中,這樣在訓(xùn)練時(shí)可以針對(duì)小樣本識(shí)別方面進(jìn)行參數(shù)學(xué)習(xí),而不需要考慮特征提取部分的學(xué)習(xí)。
我們?cè)O(shè)計(jì)了一個(gè)由卷積層、池化層和全連接層的分類器模型,首先對(duì)模型參數(shù)進(jìn)行初始化,特征提取部分的參數(shù)定義為Θ,表示卷積層的參數(shù);分類器部分的參數(shù)定義為θ,表示全連接層的參數(shù)。之后利用訓(xùn)練集D內(nèi)的所有數(shù)據(jù)對(duì)分類器模型進(jìn)行訓(xùn)練,利用梯度下降法對(duì)參數(shù)進(jìn)行優(yōu)化,如式(1)所示:
其中α代表學(xué)習(xí)率,L代表誤差,如式(2)所示:
經(jīng)過(guò)優(yōu)化,模型在這一部分學(xué)習(xí)到了特征提取參數(shù)Θ,這一參數(shù)將會(huì)被保存且固定,用于下一部分的元學(xué)習(xí)過(guò)程。而用于分類的參數(shù)θ則將會(huì)被舍棄。
利用上一階段保存的特征提取層參數(shù),設(shè)計(jì)一系列的小樣本訓(xùn)練任務(wù),對(duì)模型進(jìn)行訓(xùn)練。在整個(gè)模型學(xué)習(xí)過(guò)程中,模型在元訓(xùn)練集中學(xué)習(xí)不同的任務(wù),在該過(guò)程中存在兩種優(yōu)化[8]:學(xué)習(xí)新任務(wù)的學(xué)習(xí)者和訓(xùn)練學(xué)習(xí)者的元學(xué)習(xí)者。在每個(gè)訓(xùn)練回合中,會(huì)有一系列任務(wù),學(xué)習(xí)者針對(duì)每一個(gè)任務(wù)進(jìn)行迭代,元學(xué)習(xí)者利用這些任務(wù)中學(xué)習(xí)者的迭代梯度更新自己的梯度。通過(guò)優(yōu)化,我們得到一組能夠快速適應(yīng)新任務(wù)的參數(shù),在面對(duì)新任務(wù)時(shí),這些參數(shù)只需要利用少量的樣本進(jìn)行較少次數(shù)的梯度迭代,就能具有良好的表現(xiàn)。同時(shí)考慮到目標(biāo)存在著位置和尺度的變化,引入形狀變化參數(shù)ΦS1和ΦS2,將其加入到神經(jīng)網(wǎng)絡(luò)中,對(duì)卷積層的權(quán)重和偏置進(jìn)行調(diào)整,調(diào)整過(guò)程如式(3)所示:
首先,我們隨機(jī)采樣一系列小樣本學(xué)習(xí)任務(wù),并對(duì)形狀變化參數(shù)ΦS1和ΦS2進(jìn)行初始化,同時(shí)重新初始化全連接層的參數(shù)θ,因?yàn)榇瞬糠值挠?xùn)練任務(wù)為小樣本學(xué)習(xí)任務(wù),所對(duì)應(yīng)的類別數(shù)也與預(yù)訓(xùn)練部分不同。
對(duì)于每一個(gè)任務(wù)Ti,我們從訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集分別采樣任務(wù)Ttrain和Ttest,利用Ttrain任務(wù)中的樣本進(jìn)行學(xué)習(xí),并對(duì)參數(shù)θ′按照式(4)進(jìn)行多次迭代。
其中θ′只是一個(gè)階段性參數(shù),它由上一個(gè)訓(xùn)練階段的θ來(lái)初始化,當(dāng)一個(gè)任務(wù)完成之后,θ、ΦS1和ΦS2將會(huì)依據(jù)最后一次得到的θ′參數(shù)進(jìn)行更新,如式(5)、(6)所示
之后在Ttest任務(wù)中對(duì)模型進(jìn)行測(cè)試,檢驗(yàn)該回合訓(xùn)練的效果。經(jīng)過(guò)多個(gè)任務(wù)的更新后,得到比較好的小樣本識(shí)別模型的初始化參數(shù)。
模型的測(cè)試部分在驗(yàn)證集上采樣一系列的小樣本識(shí)別任務(wù)作為驗(yàn)證任務(wù)Tval,將元訓(xùn)練部分得到的參數(shù)作為模型的初始化參數(shù),利用少量的樣本作為訓(xùn)練樣本對(duì)參數(shù)進(jìn)行微調(diào),只需要較少的迭代次數(shù)即可在測(cè)試樣本中達(dá)到較好的識(shí)別效果。
模型的測(cè)試部分在驗(yàn)證集上采樣一系列的小樣本識(shí)別任務(wù)作為驗(yàn)證任務(wù)Tval,將元訓(xùn)練部分得到的參數(shù)作為模型的初始化參數(shù),利用少量的樣本對(duì)參數(shù)進(jìn)行微調(diào),只需要較少的迭代次數(shù)即可達(dá)到較好的識(shí)別效果。
為了驗(yàn)證算法的有效性,我們首先將算法在公共數(shù)據(jù)集(Omniglot 數(shù)據(jù)集)上進(jìn)行實(shí)驗(yàn),并與經(jīng)典的小樣本識(shí)別算法進(jìn)行比較,分析本文方法的優(yōu)缺點(diǎn)。
同時(shí)為了更好地驗(yàn)證本文算法在無(wú)人機(jī)實(shí)際應(yīng)用中的識(shí)別效果,我們利用無(wú)人機(jī)實(shí)際飛行過(guò)程中拍攝的照片作為樣本,對(duì)本文模型進(jìn)行測(cè)試和對(duì)比分析,從而為未來(lái)的實(shí)際飛行應(yīng)用奠定基礎(chǔ)。
為了更好地對(duì)本文算法與其他算法進(jìn)行性能對(duì)比,我們選擇小樣本學(xué)習(xí)領(lǐng)域比較經(jīng)典的Omniglot數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。
Omniglot 數(shù)據(jù)集[13]是一個(gè)由1623 個(gè)手寫字母組成的數(shù)據(jù)集,這些手寫字母來(lái)自于50 個(gè)字母表,每一個(gè)字母表包含的字母數(shù)不等。每一個(gè)字母只包含20個(gè)樣本,由20個(gè)不同的人手寫完成,是當(dāng)前小樣本識(shí)別領(lǐng)域比較具有代表性的數(shù)據(jù)集之一。本文選擇160類作為元訓(xùn)練集,選擇60類作為元測(cè)試集,選擇80類作為驗(yàn)證集。
為了提高算法測(cè)試結(jié)果的準(zhǔn)確性,我們采取多次實(shí)驗(yàn)取平均值的方法進(jìn)行驗(yàn)證。測(cè)試過(guò)程中在驗(yàn)證集隨機(jī)產(chǎn)生20000 個(gè)分類任務(wù),模型在每個(gè)任務(wù)中進(jìn)行50 次迭代,我們以5 ways 1 shot 任務(wù)(5 類任務(wù),每類包含1 個(gè)樣本)和5 ways 5 shot 任務(wù)(5 類任務(wù),每類包含5 個(gè)樣本)為例,選擇20000 次任務(wù)的平均正確率繪制迭代過(guò)程的平均正確率變化如圖3和圖4所示。
圖3 單樣本3分類正確率變化圖Fig.3 Accuracy for 5 ways 1 shot
圖4 單樣本3分類正確率變化圖Fig.4 Accuracy for 5 ways 5 shot
由圖3 和圖4 可以看出,本文模型只需要較小的數(shù)據(jù)量,經(jīng)過(guò)數(shù)次迭代即可達(dá)到較高的正確率,逐漸接近于人類水平。
同時(shí)為了比較本文算法的性能,我們利用比較經(jīng)典的孿生網(wǎng)絡(luò)模型[8]進(jìn)行對(duì)比實(shí)驗(yàn),并選取最近鄰方法的結(jié)果作為參考,測(cè)試結(jié)果如表1所示。
表1 Omniglot數(shù)據(jù)集測(cè)試結(jié)果Table1 Result in Omniglot
由表1 可以看出,我們的模型在面對(duì)未知任務(wù)時(shí),只需要利用較少量的樣本經(jīng)過(guò)較少次數(shù)的迭代,即可達(dá)到較高的識(shí)別正確率,與經(jīng)典的孿生網(wǎng)絡(luò)模型相比較也有較大的優(yōu)勢(shì),尤其是當(dāng)分類數(shù)目比較多時(shí),本文算法的優(yōu)勢(shì)更為明顯,這是因?yàn)閷\生網(wǎng)絡(luò)模型是以度量學(xué)習(xí)為主要依據(jù)的算法,而當(dāng)分類數(shù)目較多時(shí),很難學(xué)習(xí)出適應(yīng)所有類別的度量映射,類別之間的分類也更加困難。本文算法能夠?qū)W習(xí)一個(gè)具有較強(qiáng)泛化能力的模型,在樣本數(shù)目變大時(shí)仍能具有良好的表現(xiàn)。
另外,為了對(duì)預(yù)訓(xùn)練步驟的效果進(jìn)行評(píng)估,我們對(duì)MAML模型和本文改進(jìn)后的模型在元學(xué)習(xí)過(guò)程中正確率的變化過(guò)程進(jìn)行對(duì)比,以O(shè)mniglot 數(shù)據(jù)集為例,在5 ways 5 shot條件下繪制正確率變化圖像如圖5 和圖6 所示,其中MAML 模型訓(xùn)練次數(shù)為60000次,本文模型訓(xùn)練15000次,為了保持坐標(biāo)軸的一致性,只繪制MAML模型的前15000次迭代進(jìn)行比較
圖5 MAML訓(xùn)練過(guò)程正確率變化Fig.5 Training accuracy for MAML
圖6 本文模型訓(xùn)練過(guò)程正確率變化Fig.6 Training accuracy for our model
由圖5和圖6對(duì)比可以看出,MAML模型的初始正確率在0.5左右,而本文模型的初始正確率在0.8左右,所以與MAML 模型相比,加入預(yù)訓(xùn)練環(huán)節(jié)的模型具有較高的初始正確率,這是由于預(yù)訓(xùn)練的過(guò)程學(xué)習(xí)到的特征提取參數(shù)能夠幫助模型更快的適應(yīng)于新的任務(wù),說(shuō)明預(yù)訓(xùn)練環(huán)節(jié)具有一定的效果,能夠加快訓(xùn)練速度,節(jié)省訓(xùn)練時(shí)間。
為了驗(yàn)證本文算法的有效性,我們選取無(wú)人機(jī)實(shí)際拍攝的圖像進(jìn)行識(shí)別。由于真實(shí)場(chǎng)景中適用于分類的目標(biāo)較少,所以我們制作了“飛機(jī)”、“艦艇”、“裝甲車”三類模型,其中裝甲車包括棕色和綠色。并且利用無(wú)人機(jī)在不同的高度和角度進(jìn)行拍攝,拍攝的數(shù)據(jù)如圖7所示。
圖7 無(wú)人機(jī)采集的模型圖片F(xiàn)ig.7 Pictures taken by drones
為了更好地驗(yàn)證本文模型的泛化能力,我們利用miniImageNet 數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練和元學(xué)習(xí),只在測(cè)試環(huán)節(jié)使用我們采集的真實(shí)樣本,實(shí)驗(yàn)分為3 ways 1 shot和3 ways 5 shot兩種,即每次測(cè)試任務(wù)每一類樣本都只有1張或者5張無(wú)人機(jī)真實(shí)采集的圖像作為已知樣本,其余的訓(xùn)練過(guò)程的樣本均來(lái)自于公開的miniImageNet 數(shù)據(jù)集。測(cè)試共進(jìn)行20000次,每次迭代50 次,同時(shí)我們?nèi)耘f選擇最近鄰方法作為參考,最終的正確率如表2所示。
表2 無(wú)人機(jī)采集的樣本中的分類正確率Table.2 Accuracy using pictures taken by drones
同時(shí)繪制測(cè)試過(guò)程中的正確率曲線變化如圖8和圖9所示。
圖8 單樣本3分類正確率變化圖Fig.8 Accuracy for 3 ways 1 shot
圖9 5樣本3分類正確率變化圖Fig.9 Accuracy for 3 ways 5 shot
由表2 和圖8、圖9 可以看出,本文的模型具有良好的遷移學(xué)習(xí)能力和泛化能力,在訓(xùn)練過(guò)程可以借助公開數(shù)據(jù)集進(jìn)行訓(xùn)練,只需要在測(cè)試過(guò)程中每類給與一個(gè)或幾個(gè)樣本,即可得到較好的分類效果。
本文針對(duì)無(wú)人機(jī)的小樣本識(shí)別問(wèn)題提出了一種基于元學(xué)習(xí)和遷移學(xué)習(xí)的解決方案。該方法先通過(guò)訓(xùn)練一個(gè)分類器模型得到一個(gè)特征提取器,之后又利用元學(xué)習(xí)的思想在一系列任務(wù)中訓(xùn)練“學(xué)習(xí)者”和“元學(xué)習(xí)者”,從而得到一組泛化性能比較好的模型參數(shù),在面對(duì)未知問(wèn)題時(shí),這些參數(shù)能夠利用少量樣本訓(xùn)練出識(shí)別模型。
之后在小樣本識(shí)別領(lǐng)域較為常用的公開數(shù)據(jù)集上進(jìn)行測(cè)試,并與當(dāng)前較為典型的小樣本識(shí)別算法進(jìn)行比較,從而驗(yàn)證本文算法的效果。為了驗(yàn)證本文算法在無(wú)人機(jī)實(shí)際飛行過(guò)程中的效果,我們利用無(wú)人機(jī)實(shí)際飛行過(guò)程中采集到的飛機(jī)、艦艇、裝甲車圖片作為測(cè)試集,對(duì)本文算法進(jìn)行測(cè)試和分析,為該算法在無(wú)人機(jī)上的實(shí)際應(yīng)用奠定基礎(chǔ)。
總體來(lái)說(shuō),本文算法在實(shí)驗(yàn)中取得了較好的效果。在公開數(shù)據(jù)集中,我們的算法只需要幾個(gè)樣本,經(jīng)過(guò)較少次數(shù)的迭代即可達(dá)到較高的識(shí)別正確率。而在真實(shí)的應(yīng)用場(chǎng)景中,我們使用miniImageNet數(shù)據(jù)集訓(xùn)練得到的模型可以直接用于無(wú)人機(jī)采集的實(shí)際數(shù)據(jù)識(shí)別任務(wù),說(shuō)明本文的模型具有一定的泛化能力。未來(lái)我們將對(duì)算法進(jìn)行進(jìn)一步的改進(jìn),利用貝葉斯理論對(duì)模型的梯度迭代過(guò)程進(jìn)行修正,同時(shí)也將對(duì)模型的特征提取網(wǎng)絡(luò)進(jìn)行進(jìn)一步的分析和優(yōu)化。