亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多域數(shù)據(jù)擴(kuò)充的小樣本識(shí)別方法

        2025-03-20 00:00:00陳琪徐長董非非李正
        現(xiàn)代信息科技 2025年3期

        摘" 要:深度學(xué)習(xí)在圖像識(shí)別任務(wù)中的表現(xiàn)依賴于數(shù)據(jù)集的大小,當(dāng)樣本稀缺時(shí),模型難以獲得優(yōu)異的成績。針對(duì)如何在少量數(shù)據(jù)的條件下訓(xùn)練出表現(xiàn)優(yōu)越的識(shí)別模型這一問題,受生成對(duì)抗網(wǎng)絡(luò)的啟發(fā),文章提出了一種基于多域數(shù)據(jù)擴(kuò)充的小樣本識(shí)別模型。該模型通過已有數(shù)據(jù)集訓(xùn)練生成模型,生成用于擴(kuò)充數(shù)據(jù)集的偽樣本。再利用這些擴(kuò)充樣本與真實(shí)樣本協(xié)同訓(xùn)練小樣本識(shí)別模型。實(shí)驗(yàn)結(jié)果表明,所提方法在識(shí)別準(zhǔn)確率與模型訓(xùn)練的穩(wěn)定性上有一定的提升。

        關(guān)鍵詞:小樣本學(xué)習(xí);多域;數(shù)據(jù)擴(kuò)充;生成對(duì)抗網(wǎng)絡(luò)

        中圖分類號(hào):TP391.4;TP181" 文獻(xiàn)標(biāo)識(shí)碼:A" 文章編號(hào):2096-4706(2025)03-0061-07

        Few-Shot Learning Method Based on Multi-Domain Data Expansion

        CHEN Qi, XU Changwen, DONG Feifei, LI Zheng

        (Jiangxi Earthquake Agency, Nanchang" 330026, China)

        Abstract: The performance of Deep Learning in image recognition tasks depends on the size of the dataset. When the samples are scarce, the model is difficult to achieve excellent results. Aiming at the problem of how to train a superior recognition model under the condition of a small amount of data, inspired by the Generative Adversarial Networks, this paper proposes a Few-Shot Learning model based on multi-domain data expansion. The model generates a model through the training of existing datasets, and generates pseudo-samples for expanding the datasets. Then these expanded samples and real samples are used to train the small sample recognition model coordinately. The experimental results show that the proposed method has a certain improvement in recognition accuracy and stability of model training.

        Keywords: Few-Shot Learning; multi-domain; data expansion; Generative Adversarial Networks

        0" 引" 言

        隨著計(jì)算機(jī)技術(shù)的發(fā)展與軟硬件設(shè)備的更新,深度學(xué)習(xí)在圖像[1]領(lǐng)域取得了不俗的成績,特別是在圖像識(shí)別領(lǐng)域,現(xiàn)階段流行的識(shí)別模型已經(jīng)超越了人類的水平。但基于深度學(xué)習(xí)的識(shí)別模型的性能很大程度上依賴于數(shù)據(jù)集的質(zhì)量。數(shù)據(jù)量大、種類多、標(biāo)簽精細(xì)能夠給模型訓(xùn)練帶來更大的優(yōu)勢,使識(shí)別模型的識(shí)別準(zhǔn)確率更高、泛化性能更好。然而,在現(xiàn)實(shí)生活中,并非所有領(lǐng)域都可以構(gòu)建包含大量樣本的數(shù)據(jù)集,許多領(lǐng)域存在數(shù)據(jù)瓶頸的問題。如醫(yī)療領(lǐng)域,由于隱私保護(hù)和病例的稀有性,該領(lǐng)域的數(shù)據(jù)處于相對(duì)封閉的狀態(tài);再如自然災(zāi)害中的地震數(shù)據(jù),由于現(xiàn)代科學(xué)的地震監(jiān)測時(shí)間較短、震級(jí)較大的地震發(fā)生頻率低等原因,數(shù)據(jù)樣本的獲取難度較大;又或是地方方言等非結(jié)構(gòu)化數(shù)據(jù),構(gòu)造數(shù)據(jù)集費(fèi)時(shí)費(fèi)力,構(gòu)建該類領(lǐng)域的大型數(shù)據(jù)集也存在一定的難度。在數(shù)據(jù)樣本不足的情況下,采用深度學(xué)習(xí)方法訓(xùn)練識(shí)別模型時(shí),模型的性能可能會(huì)受到影響,導(dǎo)致模型識(shí)別準(zhǔn)確率較低。

        現(xiàn)階段,有不少研究學(xué)者致力于研究使用少量數(shù)據(jù)樣本訓(xùn)練模型,并且使模型具有較好的性能。這類研究可以統(tǒng)稱為小樣本學(xué)習(xí)[2]。目前主流的小樣本學(xué)習(xí)方法可以大致劃分為四種不同的類型。第一類是基于度量學(xué)習(xí)[3]的方式,度量學(xué)習(xí)是一種學(xué)習(xí)樣本之間近似程度的方法,通常是將樣本映射到度量空間并設(shè)置適合任務(wù)的度量距離函數(shù);第二類是基于數(shù)據(jù)增強(qiáng)[4]的方式,主要是通過生成數(shù)據(jù)樣本來彌補(bǔ)因數(shù)據(jù)樣本不足導(dǎo)致的識(shí)別準(zhǔn)確率低的問題;第三類是基于元學(xué)習(xí)[5]的方式,這類方法主張跨任務(wù)學(xué)習(xí),其核心思想是通過多種不同的任務(wù)訓(xùn)練學(xué)習(xí)者的學(xué)習(xí)能力,以便適應(yīng)未知的新任務(wù);第四類是基于遷移學(xué)習(xí)的方式,通常是將與分類任務(wù)相關(guān)的先驗(yàn)知識(shí)應(yīng)用于目標(biāo)任務(wù)中,協(xié)助模型訓(xùn)練。

        本文所提的小樣本學(xué)習(xí)方法是一種基于數(shù)據(jù)增強(qiáng)的方法,通過生成對(duì)抗網(wǎng)絡(luò)[6](Generative Adversarial Networks, GAN)生成與任務(wù)相關(guān)的數(shù)據(jù),協(xié)同真實(shí)數(shù)據(jù)樣本訓(xùn)練模型,以提高模型的性能。目前較為流行的基于數(shù)據(jù)增強(qiáng)的小樣本識(shí)別方法,如Chen[4]等人的文獻(xiàn)中,通過將現(xiàn)有數(shù)據(jù)集進(jìn)行形變,如重影、遮擋等方式,產(chǎn)生額外的數(shù)據(jù)樣本并增加樣本的多樣性,從而提高模型的識(shí)別能力;Li等人[7]的研究中通過生成對(duì)抗網(wǎng)絡(luò)增加數(shù)據(jù)樣本的數(shù)量,以緩解小樣本學(xué)習(xí)過程中因數(shù)據(jù)樣本不足而性能不佳的問題;Wang等人[8]的工作中通過構(gòu)造幻覺者生成與任務(wù)相關(guān)的幻覺樣本,增加訓(xùn)練識(shí)別模型的數(shù)據(jù)量。大多數(shù)基于增加數(shù)據(jù)樣本的小樣本學(xué)習(xí)方法在生成數(shù)據(jù)的過程中,通常是針對(duì)特定的任務(wù)訓(xùn)練生成器生成數(shù)據(jù),關(guān)注的是單一風(fēng)格的數(shù)據(jù)生成。這類生成方法生成的數(shù)據(jù)樣本風(fēng)格單一,多樣性較差,難以一次性生成多種類別的數(shù)據(jù),甚至?xí)l(fā)生模式坍塌的現(xiàn)象。如果在測試階段直接應(yīng)用于未知類別的樣本中,可能會(huì)生成分辨率低、類別不清晰的樣本,導(dǎo)致小樣本模型訓(xùn)練效果不佳。受上述問題的啟發(fā),本文提出一種基于多域數(shù)據(jù)[9]生成的小樣本識(shí)別模型,通過多域生成模型,緩解單一生成模型生成樣本缺乏多樣性、面對(duì)不同任務(wù)時(shí)生成樣本質(zhì)量差的問題。所提方法的基本思想是嵌入多域生成對(duì)抗網(wǎng)絡(luò),增加數(shù)據(jù)樣本的數(shù)量和提高樣本的多樣性,進(jìn)而提高模型的識(shí)別準(zhǔn)確率。區(qū)別于其他的利用生成模型生成數(shù)據(jù)樣本的方法,本文所提的方法可以一次訓(xùn)練生成多種類別的樣本,生成模型的數(shù)據(jù)樣本覆蓋面更廣。本文的主要貢獻(xiàn)可歸納為以下幾點(diǎn):

        1)本文針對(duì)數(shù)據(jù)樣本不足而導(dǎo)致識(shí)別模型性能較差的問題,提出一種基于數(shù)據(jù)增強(qiáng)的小樣本模型。該模型通過生成多域的數(shù)據(jù)樣本,增加訓(xùn)練數(shù)據(jù)集的數(shù)量和提高數(shù)據(jù)集的多樣性,幫助小樣本識(shí)別模型更好地提取樣本特征,從而提高小樣本的識(shí)別準(zhǔn)確率。

        2)不同于其他基于數(shù)據(jù)增強(qiáng)的小樣本識(shí)別方法,本文的生成模型并非只關(guān)注當(dāng)前的識(shí)別任務(wù)或單一類別的數(shù)據(jù)集,而是一種能夠生成多種不同類別數(shù)據(jù)的模型。此外,為了避免因生成效果不佳而導(dǎo)致模型訓(xùn)練困難的現(xiàn)象,本文在模型訓(xùn)練的過程中添加了譜歸一化和模式坍塌損失,使生成模型盡可能生成逼真的數(shù)據(jù)樣本。

        3)所提方法的有效性在小樣本學(xué)習(xí)常見的任務(wù):5-class5-shot、5-class10-shot和5-class20-shot中得到了驗(yàn)證。本文分別在五種不同類型的小樣本數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文所提的方法在小樣本識(shí)別任務(wù)的準(zhǔn)確率上有一定程度的提高,說明增加多域的數(shù)據(jù)樣本能讓模型更快更好地適應(yīng)新任務(wù),提高模型訓(xùn)練的穩(wěn)定性。

        1" 相關(guān)工作

        1.1" 小樣本學(xué)習(xí)

        在機(jī)器學(xué)習(xí)領(lǐng)域,數(shù)據(jù)集在模型訓(xùn)練、驗(yàn)證和測試階段起著至關(guān)重要的作用,是該領(lǐng)域發(fā)展不可或缺的部分。但并非每個(gè)領(lǐng)域的數(shù)據(jù)都能輕易獲取,有些數(shù)據(jù)需要耗費(fèi)大量人力物力進(jìn)行細(xì)致的預(yù)處理,有些領(lǐng)域的數(shù)據(jù)樣本因隱私保護(hù)、出現(xiàn)頻率低等原因難以獲得,這些都導(dǎo)致難以構(gòu)造該領(lǐng)域的大型數(shù)據(jù)集,進(jìn)而使得涉及該領(lǐng)域的任務(wù)因缺乏數(shù)據(jù)而影響模型訓(xùn)練的性能。

        小樣本學(xué)習(xí)(Few-shot Learning, FSL)是一種在數(shù)據(jù)樣本較少的情況下,訓(xùn)練模型并使模型能夠有效完成目標(biāo)任務(wù)的方法,常用于計(jì)算機(jī)視覺領(lǐng)域。FSL不同于傳統(tǒng)的分類模型,傳統(tǒng)的分類模型是通過數(shù)據(jù)集訓(xùn)練模型,數(shù)據(jù)集中僅包含與目標(biāo)任務(wù)相關(guān)的某兩類或幾類的數(shù)據(jù)集合。為了確保模型的泛化能力,避免發(fā)生過擬合,傳統(tǒng)分類模型的數(shù)據(jù)集中需要包含大量的數(shù)據(jù)樣本。與深度學(xué)習(xí)模型不同,人類可以僅從少量樣本中建立對(duì)未知事物的認(rèn)知,F(xiàn)SL正是模仿這種人類認(rèn)知的模型,是人工智能向人類智能發(fā)展的研究方向。FSL通過利用多種不同類別的數(shù)據(jù)集并在多個(gè)不同類型的分類任務(wù)中訓(xùn)練模型,使識(shí)別模型具備從少量樣本中學(xué)習(xí)和概括的能力。當(dāng)模型遇到未知任務(wù)和新數(shù)據(jù)樣本時(shí),僅需少量樣本就能進(jìn)行準(zhǔn)確判斷,從而降低識(shí)別模型的訓(xùn)練成本。

        1.2" 數(shù)據(jù)擴(kuò)充與生成對(duì)抗網(wǎng)絡(luò)

        在少樣本學(xué)習(xí)中,因數(shù)據(jù)樣本不足而導(dǎo)致模型訓(xùn)練效果不佳是最主要的問題。不少學(xué)者將數(shù)據(jù)合成技術(shù)應(yīng)用于小樣本學(xué)習(xí)中,通過擴(kuò)充數(shù)據(jù)數(shù)量來克服數(shù)據(jù)不足的問題。數(shù)據(jù)合成是一種學(xué)習(xí)現(xiàn)有數(shù)據(jù)間的分布,生成與原始數(shù)據(jù)風(fēng)格類似的逼真數(shù)據(jù)。將擴(kuò)充數(shù)據(jù)用于模型訓(xùn)練的核心目標(biāo)是通過增加數(shù)據(jù)樣本數(shù)量與多樣性,幫助模型訓(xùn)練,提高模型的性能與泛化能力。數(shù)據(jù)合成方法廣泛運(yùn)用與圖像分類、風(fēng)格遷移等任務(wù)中,在圖像數(shù)據(jù)合成領(lǐng)域,生成對(duì)抗網(wǎng)絡(luò)[6]是較為流行的方法。GAN是一種端到端的圖像生成模型,通常由兩個(gè)模塊組成:生成器和判別器,生成器主要根據(jù)目標(biāo)任務(wù)生成數(shù)據(jù)樣本,判別器主要判斷輸入樣本是真實(shí)樣本還是生成的偽樣本,并將結(jié)果反饋給生成器,生成器需要根據(jù)反饋結(jié)果調(diào)整模型參數(shù),進(jìn)而改進(jìn)生成樣本的質(zhì)量。生成器的目標(biāo)是盡可能生成逼真的數(shù)據(jù)樣本欺騙判別器,而判別器的目標(biāo)是盡可能準(zhǔn)確地區(qū)分真實(shí)樣本與虛假樣本。生成器與判別器在這種對(duì)抗、交替迭代的訓(xùn)練過程中逐漸提升自己的性能。

        1.3" 元學(xué)習(xí)

        元學(xué)習(xí)是小樣本學(xué)習(xí)中常用的方法之一,它是一種學(xué)會(huì)學(xué)習(xí)的方法。元學(xué)習(xí)在訓(xùn)練過程中關(guān)注的不是學(xué)習(xí)的結(jié)果,而是學(xué)習(xí)的過程,目的是訓(xùn)練一個(gè)能夠快速學(xué)習(xí)的模型。元學(xué)習(xí)模型的訓(xùn)練過程通??梢愿爬閮蓚€(gè)階段:一是設(shè)置多個(gè)任務(wù)來訓(xùn)練模型,使模型在訓(xùn)練過程中獲得經(jīng)驗(yàn),提高完成任務(wù)的能力;二是將訓(xùn)練好的模型應(yīng)用于未知任務(wù)中,以增強(qiáng)模型的泛化能力,使其更好地適應(yīng)新任務(wù)。如Finn等人[10]的工作中設(shè)置了兩種不同的學(xué)習(xí)者——基礎(chǔ)學(xué)習(xí)者和元學(xué)習(xí)者?;A(chǔ)學(xué)習(xí)者需要完成多種不同類型的任務(wù),并在完成任務(wù)后將參數(shù)反饋給元學(xué)習(xí)者;元學(xué)習(xí)者則需要根據(jù)基礎(chǔ)學(xué)習(xí)者的經(jīng)驗(yàn)進(jìn)行歸納總結(jié),并應(yīng)用于未知的新任務(wù)上。該方法的核心思想是通過基礎(chǔ)學(xué)習(xí)器的學(xué)習(xí)經(jīng)驗(yàn)來獲得一個(gè)好的初始化權(quán)重,使元學(xué)習(xí)者能夠在良好的初始化基礎(chǔ)上快速收斂。元學(xué)習(xí)方法能夠有效地緩解因數(shù)據(jù)不足導(dǎo)致的模型訓(xùn)練性能不佳的問題,提高模型的泛化能力和快速適應(yīng)能力。

        2" 本文所提模型

        本節(jié)主要介紹所提方法,即一種基于多域數(shù)據(jù)擴(kuò)充的小樣本學(xué)習(xí)方法。該方法的核心思想是通過多域生成模型擴(kuò)充樣本數(shù)量、提高數(shù)據(jù)樣本的多樣性,從而提升模型在小樣本識(shí)別任務(wù)中的識(shí)別準(zhǔn)確率和泛化能力。

        2.1" 多域圖像生成

        生成對(duì)抗網(wǎng)絡(luò)是近來廣泛運(yùn)用于圖像生成任務(wù)的一種模型,在圖像合成任務(wù)中取得了令人印象深刻的成績。多域圖像生成的問題可以描述為:給定風(fēng)格域的圖像數(shù)據(jù),通過風(fēng)格遷移模型生成其他多種風(fēng)格域的數(shù)據(jù)圖像。在本文中,我們主要關(guān)注一個(gè)大類的數(shù)據(jù),如多種不同種類的狗、鳥等數(shù)據(jù)集。為了使模型能夠生成多域的數(shù)據(jù)樣本,我們給相應(yīng)的數(shù)據(jù)集添加了唯一的域類別標(biāo)簽,通過標(biāo)簽確定圖像類別。具體來說,在訓(xùn)練過程中,我們?cè)O(shè)置獨(dú)熱向量作為風(fēng)格域標(biāo)簽,向量大小與訓(xùn)練數(shù)據(jù)集中包含的類別數(shù)量一致。針對(duì)具體的類別,每個(gè)類別由唯一的獨(dú)熱向量表示。例如,如果數(shù)據(jù)集中一共包含4個(gè)不同類別的數(shù)據(jù),則每個(gè)類別對(duì)應(yīng)的獨(dú)熱向量為{1000}、{0100}、{0010}、{0001},獨(dú)熱向量的大小隨著數(shù)據(jù)集中包含的類別數(shù)量增減。本文涉及的獨(dú)熱向量為人工設(shè)置標(biāo)簽,生成模型需要學(xué)習(xí)輸入類別域到輸出類別域的映射。在模型訓(xùn)練過程中,源風(fēng)格域數(shù)據(jù)和目標(biāo)風(fēng)格域的標(biāo)簽作為模型輸入,通過模型訓(xùn)練后生成屬于目標(biāo)風(fēng)格的數(shù)據(jù)樣本。

        2.2" 多域生成對(duì)抗網(wǎng)絡(luò)

        為了有效解決多類圖像生成問題,本文以多域圖像生成模型星狀生成對(duì)抗網(wǎng)絡(luò)[9](Star Generative Adversarial Networks, StarGAN)為基準(zhǔn)模型。StarGAN模型一共包含兩個(gè)模塊:生成器與判別器。與單類別GAN模型類似,StarGAN模型的生成器的目標(biāo)是生成盡可能逼真的數(shù)據(jù)樣本,而判別器的目標(biāo)則是盡可能準(zhǔn)確地判別輸入樣本的真?zhèn)?。StarGAN模型訓(xùn)練過程示意圖如圖1所示,從圖中可以看出,生成器根據(jù)輸入圖像數(shù)據(jù)與目標(biāo)域類別標(biāo)簽,生成屬于目標(biāo)類別的偽圖像數(shù)據(jù)。此外,為了提高生成樣本的質(zhì)量,使模型能夠生成更加逼真的圖像數(shù)據(jù),生成器還需要通過輸入偽圖像數(shù)據(jù)和域類別標(biāo)簽來生成重構(gòu)源域圖像。判別器除了需要判斷輸入圖像的真?zhèn)沃?,還需要判別圖像所屬的類別,并輸出與判斷類別對(duì)應(yīng)的域類別標(biāo)簽。

        StarGAN的對(duì)抗損失函數(shù)與常見的損失函數(shù)類似,目的是使判別器與生成器相互對(duì)抗,在博弈中提升各自的性能,要求生成器生成盡可能逼真的樣本,判別器盡可能多地判別出輸入圖像的真?zhèn)?。如式?)所示:

        (1)

        StarGAN還包含域分類損失和重構(gòu)損失。域分類損失由兩部分組成,分別為針對(duì)真實(shí)樣本的域分類損失和針對(duì)生成偽樣本的域分類損失。在訓(xùn)練過程中,要求判別器盡可能多地判斷出圖片所屬的類別。域分類損失協(xié)助模型實(shí)現(xiàn)多域數(shù)據(jù)樣本生成,生成更加貼合目標(biāo)域的圖像。如式(2)所示:

        (2)

        為了實(shí)現(xiàn)多域之間的相互轉(zhuǎn)換,StarGAN設(shè)置了重構(gòu)損失,即在模型訓(xùn)練的過程中,生成器要實(shí)現(xiàn)源域與目標(biāo)域圖像的相互轉(zhuǎn)換,通過生成的偽目標(biāo)域圖像和源類別標(biāo)簽生成的偽重構(gòu)源域圖像,該損失函數(shù)的目的是使二者之間的差異盡可能小,損失函數(shù),如式(3)所示:

        (3)

        其中,G表示生成器,D表示判別器,x表示真實(shí)的源域類別圖像,c表示目標(biāo)域類別標(biāo)簽,表示源域類別標(biāo)簽,表示根據(jù)目標(biāo)域標(biāo)簽生成的偽圖像,表示重構(gòu)圖像。

        2.3" 基于多域數(shù)據(jù)擴(kuò)充的小樣本學(xué)習(xí)

        鑒于小樣本學(xué)習(xí)任務(wù)中缺乏足夠的數(shù)據(jù)樣本,導(dǎo)致識(shí)別性能不佳的問題,本文通過設(shè)計(jì)一種嵌入多域數(shù)據(jù)生成的小樣本學(xué)習(xí)方法,來增加模型訓(xùn)練的數(shù)據(jù)樣本,從而提升小樣本學(xué)習(xí)模型的識(shí)別性能。具體地,本文以Meta-Transfer Learning(MTL)為基準(zhǔn)模型,將多域生成對(duì)抗網(wǎng)絡(luò)模型嵌入至元學(xué)習(xí)框架中。如圖2所示,所提出的小樣本學(xué)習(xí)方法包含四個(gè)階段:數(shù)據(jù)擴(kuò)充階段、深度神經(jīng)網(wǎng)絡(luò)[11](Deep Neural Networks,DNN)訓(xùn)練階段、元學(xué)習(xí)階段和元測試階段。

        具體介紹如下:

        1)數(shù)據(jù)擴(kuò)充階段。該階段主要是利用多域生成對(duì)抗網(wǎng)絡(luò)擴(kuò)充訓(xùn)練集的數(shù)據(jù)量,以提高訓(xùn)練模型的性能。在訓(xùn)練過程中,以訓(xùn)練集作為輸入,生成多個(gè)類別的數(shù)據(jù)樣本,并將生成的偽樣本與真實(shí)樣本組合,形成擴(kuò)充后的訓(xùn)練集。

        2)DNN訓(xùn)練階段。該階段與傳統(tǒng)的DNN模型訓(xùn)練一致,為多分類識(shí)別模型。該階段僅考慮擴(kuò)充后的訓(xùn)練集數(shù)據(jù),在模型訓(xùn)練完畢后,固定模型的卷積層參數(shù)用于下一階段的學(xué)習(xí)。

        3)元學(xué)習(xí)階段。該階段的目標(biāo)是訓(xùn)練一個(gè)優(yōu)秀的元學(xué)習(xí)者,使其能夠快速適應(yīng)未知任務(wù)并取得優(yōu)異成績。元學(xué)習(xí)階段可以簡單概括為兩步:第一步是基礎(chǔ)學(xué)習(xí),即訓(xùn)練基礎(chǔ)學(xué)習(xí)者,每個(gè)任務(wù)都對(duì)應(yīng)一個(gè)基礎(chǔ)學(xué)習(xí)者;第二步是元學(xué)習(xí),即訓(xùn)練元學(xué)習(xí)者,根據(jù)基礎(chǔ)學(xué)習(xí)者所學(xué)知識(shí)優(yōu)化元學(xué)習(xí)者的參數(shù)。

        4)元測試階段。該階段主要用于驗(yàn)證元學(xué)習(xí)者的性能,在未知任務(wù)上進(jìn)行小樣本識(shí)別任務(wù)測試,并通過測試結(jié)果評(píng)估元學(xué)習(xí)者的性能。

        根據(jù)上述描述,本文所提模型的主要流程可以表述如下:首先,通過多域生成對(duì)抗網(wǎng)絡(luò)擴(kuò)充數(shù)據(jù)樣本數(shù)量,用于下一階段模型訓(xùn)練;其次,利用擴(kuò)充后的數(shù)據(jù)集訓(xùn)練DNN模型,并在訓(xùn)練完成后固定卷積層參數(shù);然后,訓(xùn)練元學(xué)習(xí)者,使元學(xué)習(xí)者在小樣本任務(wù)中不斷學(xué)習(xí)并累積經(jīng)驗(yàn),以更好地適應(yīng)未知任務(wù);最后,測試元學(xué)習(xí)者,通過未知任務(wù)檢驗(yàn)其性能。

        3" 實(shí)驗(yàn)及結(jié)果分析

        在本節(jié)中,設(shè)計(jì)了一系列實(shí)驗(yàn)以驗(yàn)證所提模型的有效性。為了方便描述,將所提模型簡稱為DE-MTL(Data-Expansion for Meta-Transfer Learning)。

        3.1" 實(shí)驗(yàn)設(shè)置

        本文實(shí)驗(yàn)中,包含五種不同類別的數(shù)據(jù)集:StanfordDog、StanfordCar、CUB200_2011、FC100和mini-ImageNet。StanfordDog數(shù)據(jù)集包含了來自世界各地的120種不同類別的狗的圖片;StanfordCar包含了196種不同類別汽車的圖像(本文實(shí)驗(yàn)中僅采用150類);CUB200_2011數(shù)據(jù)集包含了來自世界各地的200種不同類別的鳥的圖片;FC100包含了100種不同類別事物的數(shù)據(jù)集;Mini-ImageNet數(shù)據(jù)集包含了100種不同類別的事物,如氣球、圍巾、狗等大類。在所有實(shí)驗(yàn)中,均使用60%的類別數(shù)據(jù)作為訓(xùn)練集、20%的類別數(shù)據(jù)作為驗(yàn)證集、20%的類別數(shù)據(jù)作為測試集。

        本文數(shù)據(jù)擴(kuò)充的生成器主要為殘差網(wǎng)絡(luò),判別器為卷積模塊,并額外添加了譜歸一化用于模型訓(xùn)練。元學(xué)習(xí)階段的模型主要以ResNet-12為主,連接全連接層用于類別輸出。本文涉及的對(duì)比模型包括基準(zhǔn)模型MTL及基于數(shù)據(jù)增強(qiáng)的IDeME-Net[4](Image Deformation Meta-Networks)、SGM[12](Squared Gradient Magnitude)和PMN[8](Prototype Matching Networks)的小樣本識(shí)別模型。在元學(xué)習(xí)、測試階段,采用小樣本識(shí)別任務(wù)的通用形式(x-class,y-shot)的形式,在實(shí)際訓(xùn)練、測試中,本文涉及的小樣本識(shí)別任務(wù)包括(5class,5shot、10shot、20shot),即任務(wù)中包含5類數(shù)據(jù),且每類包含5個(gè)樣本、10個(gè)樣本或20個(gè)樣本。具體地,針對(duì)每一個(gè)可復(fù)現(xiàn)模型,均在同樣環(huán)境下進(jìn)行實(shí)驗(yàn),所有模型在對(duì)比實(shí)驗(yàn)中選取的迭代次數(shù)、超參數(shù)均保持一致。所提模型的訓(xùn)練過程如圖2所示,首先訓(xùn)練生成模型按一定比例擴(kuò)充數(shù)據(jù)集;其次將擴(kuò)充數(shù)據(jù)集按比例劃分為訓(xùn)練集、驗(yàn)證集和測試集,在訓(xùn)練集上訓(xùn)練DNN模型,固定DNN模型的卷積參數(shù),為后續(xù)元學(xué)習(xí)提供先驗(yàn)知識(shí);再訓(xùn)練元學(xué)習(xí)者并在驗(yàn)證集上進(jìn)行微調(diào);最后在測試集上對(duì)元學(xué)習(xí)者進(jìn)行測試,小樣本識(shí)別任務(wù)中的測試結(jié)果為最終展示結(jié)果?;鶞?zhǔn)模型的訓(xùn)練過程與本文所提模型一致,但其采用的數(shù)據(jù)集為原始數(shù)據(jù)集,無數(shù)據(jù)擴(kuò)充階段。

        3.2" 與基準(zhǔn)模型對(duì)比

        本節(jié)實(shí)驗(yàn)主要對(duì)比基準(zhǔn)模型,在StanfordDog、StanfordCar、CUB200_2011和FC100四種數(shù)據(jù)集上分別設(shè)置了5class5shot、10shot、20shot的小樣本識(shí)別任務(wù),以驗(yàn)證所提模型的有效性。實(shí)驗(yàn)結(jié)果如表1所示。從表1可以看出,與基準(zhǔn)模型MTL相比,所提模型在識(shí)別準(zhǔn)確率上均有一定的提升,且在5class5shot任務(wù)中性能提升更為顯著。這表明在識(shí)別樣本較少時(shí),擴(kuò)充數(shù)據(jù)能更好地協(xié)助模型訓(xùn)練。為了進(jìn)一步驗(yàn)證本文模型在識(shí)別準(zhǔn)確率和訓(xùn)練穩(wěn)定性上的改善,我們統(tǒng)計(jì)了部分實(shí)驗(yàn)中識(shí)別準(zhǔn)確率迭代與訓(xùn)練損失迭代的數(shù)據(jù)。具體來說,在StanfordDog數(shù)據(jù)集上選取了5class20shot的實(shí)驗(yàn)結(jié)果;在StanfordCar數(shù)據(jù)集上選取了5class20shot的實(shí)驗(yàn)結(jié)果;在CUB200_2011數(shù)據(jù)集上選取了5class10shot的實(shí)驗(yàn)結(jié)果;在FC100數(shù)據(jù)集上選取了5class5shot的實(shí)驗(yàn)結(jié)果,實(shí)驗(yàn)結(jié)果如圖3所示。從圖中可以看出,與MTL模型相比,在訓(xùn)練后期,本文所提模型收斂過程更加平穩(wěn),識(shí)別準(zhǔn)確率也有一定的提升。

        此外,所提方法在數(shù)據(jù)擴(kuò)充階段采用了譜歸一化策略。為了驗(yàn)證該策略對(duì)性能的影響,我們?cè)O(shè)計(jì)了一系列對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果中,DE-MTL-表示在數(shù)據(jù)擴(kuò)充階段未采用譜歸一化,具體結(jié)果如表1和圖3所示。從表1中可以看出,大多數(shù)添加了譜歸一化策略的模型在識(shí)別準(zhǔn)確率上有一定提升,這說明添加譜歸一化能夠一定程度提高生成樣本的質(zhì)量,進(jìn)而提升模型的識(shí)別準(zhǔn)確率,但不同數(shù)據(jù)集上的提升效果略有差異。從圖3中也可以看出,添加譜歸一化后,模型訓(xùn)練的穩(wěn)定性也有所改善。結(jié)果表明,通過添加模型訓(xùn)練技巧,可以一定程度提升生成模型的生成質(zhì)量和訓(xùn)練的穩(wěn)定性,進(jìn)而一定程度提高小樣本識(shí)別準(zhǔn)確率。

        3.3" 消融實(shí)驗(yàn)

        為了使本文所提的生成模型更適應(yīng)小樣本識(shí)別任務(wù),我們?cè)赟tanfordDog、CUB200_2011、Stanford-Car數(shù)據(jù)集上設(shè)計(jì)了一系列關(guān)于數(shù)據(jù)生成量級(jí)的消融實(shí)驗(yàn),并將性能最好的模型運(yùn)用于后續(xù)的元學(xué)習(xí)階段中。在數(shù)據(jù)生成階段,我們分別設(shè)計(jì)了擴(kuò)充原數(shù)據(jù)集5%、15%、30%和45%四種不同量級(jí)的數(shù)據(jù),并在5class10shot的識(shí)別任務(wù)中與基準(zhǔn)模型進(jìn)行對(duì)比?;鶞?zhǔn)模型在原始數(shù)據(jù)集上進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果如表2所示。實(shí)驗(yàn)結(jié)果表明,在三種不同的數(shù)據(jù)集上,30%的數(shù)據(jù)擴(kuò)充量均達(dá)到了最好的性能,且在大多數(shù)擴(kuò)充數(shù)據(jù)樣本的場景下,模型識(shí)別準(zhǔn)確率有不同程度的提升。然而,在StanfordDog和CUB200_2011數(shù)據(jù)集中,45%的數(shù)據(jù)擴(kuò)充量反而使模型識(shí)別準(zhǔn)確率小幅降低,這可能是因?yàn)樯傻膫螛颖具^多而導(dǎo)致數(shù)據(jù)失真,進(jìn)而影響了識(shí)別模型的性能。這也進(jìn)一步說明,數(shù)據(jù)擴(kuò)充并非越多越好,在增加數(shù)據(jù)集多樣性的前提下,還需要避免因偽數(shù)據(jù)過多而導(dǎo)致數(shù)據(jù)集過于失真的現(xiàn)象。

        3.4" 與其他主流模型對(duì)比

        本小節(jié)將本文模型與現(xiàn)階段較為流行的基于數(shù)據(jù)增強(qiáng)和數(shù)據(jù)擴(kuò)充的小樣本識(shí)別模型進(jìn)行對(duì)比,以進(jìn)一步證明所提模型的有效性。實(shí)驗(yàn)均在mini-ImageNet數(shù)據(jù)集上進(jìn)行,驗(yàn)證了模型在5class5shot、10shot和20shot三種不同小樣本識(shí)別任務(wù)下的性能。實(shí)驗(yàn)結(jié)果如表3所示,在涉及的實(shí)驗(yàn)中,本文所提方法均有優(yōu)秀表現(xiàn)。特別是在5class5shot的實(shí)驗(yàn)中,本文方法相比第二好的模型性能提升最為明顯。在本節(jié)實(shí)驗(yàn)中,對(duì)于可復(fù)現(xiàn)模型,采用本地復(fù)現(xiàn)結(jié)果;對(duì)于不可復(fù)現(xiàn)模型,則采用其研究中展示的最好結(jié)果。

        4" 結(jié)" 論

        本文提出了一種基于多域數(shù)據(jù)擴(kuò)充的小樣本學(xué)習(xí)方法,該方法在模型訓(xùn)練過程中增加數(shù)據(jù)樣本的數(shù)量,從而緩解了小樣本學(xué)習(xí)任務(wù)中因樣本不足導(dǎo)致的性能不佳問題。傳統(tǒng)的生成對(duì)抗網(wǎng)絡(luò)一次訓(xùn)練只能實(shí)現(xiàn)兩個(gè)類別的數(shù)據(jù)相互轉(zhuǎn)換,而要實(shí)現(xiàn)多類別數(shù)據(jù)相互轉(zhuǎn)換則需訓(xùn)練多個(gè)生成模型。相比之下,本文所提方法僅需訓(xùn)練一個(gè)生成模型,即可同時(shí)生成多個(gè)類別的數(shù)據(jù),有效縮短了擴(kuò)充數(shù)據(jù)樣本的時(shí)間。此外,本文設(shè)計(jì)了一系列實(shí)驗(yàn)以驗(yàn)證所提模型的有效性。實(shí)驗(yàn)結(jié)果表明:與基準(zhǔn)模型MTL相比,在擴(kuò)充數(shù)據(jù)后,所提方法在識(shí)別準(zhǔn)確率上有一定提升;與其他主流的小樣本識(shí)別模型相比,所提方法在大多數(shù)任務(wù)中均表現(xiàn)出色。綜上所述,本文所提方法能夠有效提升小樣本識(shí)別任務(wù)的性能。

        參考文獻(xiàn):

        [1] 張?jiān)换ǎ跫t,馬廣明.基于深度學(xué)習(xí)的圖像識(shí)別研究 [J].現(xiàn)代信息科技,2019,3(11):111-112+114.

        [2] 晏明昊,強(qiáng)夢燁,陸琴心.基于ALDR注意力的少樣本學(xué)習(xí)模型 [J].現(xiàn)代信息科技,2022,6(22):81-85.

        [3] 沈媛媛,嚴(yán)嚴(yán),王菡子.有監(jiān)督的距離度量學(xué)習(xí)算法研究進(jìn)展 [J].自動(dòng)化學(xué)報(bào),2014,40(12):2673-2686.

        [4] CHEN Z T,F(xiàn)U Y W,WANG Y X,et al. Image Deformation Meta-Networks for One-Shot Learning [C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach:IEEE,2019:8672-8681.

        [5] SUN Q,LIU Y,CHUA T S,et al. Meta-Transfer Learning for Few-Shot Learning [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach:IEEE,2019:403-412.

        [6] GOODFELLOW I J,POUGET-ABADIE J,MIRZA M,et al. Generative Adversarial Networks [J/OL].arXiv.1406.2661 [stat.ML].(2014-06-10).https://arxiv.org/abs/1406.2661.

        [7] LI K,ZHANG Y L,LI K P, et al. Adversarial Feature Hallucination Networks for Few-Shot Learning [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Seattle:IEEE,2020:13467-13476.

        [8] WANG Y X,GIRSHICK R,HEBERT M,et al. Low-Shot Learning from Imaginary Data [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:7278-7286.

        [9] CHOI Y,CHOI M,KIM M,et al. StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation [J/OL].arXiv:1711.09020 [cs.CV].(2017-11-24).https://arxiv.org/abs/1711.09020.

        [10] FINN C,ABBEEL P,LEVINE S. Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks [J/OL].arXiv:1703.03400 [cs.LG].(2017-03-09).https://arxiv.org/abs/1703.03400.

        [11] 山世光,闞美娜,劉昕,等.深度學(xué)習(xí):多層神經(jīng)網(wǎng)絡(luò)的復(fù)興與變革 [J].科技導(dǎo)報(bào),2016,34(14):60-70.

        [12] HARIHARAN B, GIRSHICK R. Low-shot Visual Recognition by Shrinking and Hallucinating Features [C]//2017 IEEE International Conference on Computer Vision (ICCV).Venice:IEEE,2017:3037-3046.

        作者簡介:陳琪(1997—),女,漢族,江西九江人,工程師,碩士研究生,研究方向:深度學(xué)習(xí)、圖像處理;徐長文(1993—),男,漢族,江西樂平人,工程師,碩士研究生,研究方向:圖像識(shí)別、網(wǎng)絡(luò)安全與信息化;董非非(1982—),女,漢族,陜西西安人,高級(jí)工程師,碩士研究生,研究方向:固體地球物理;李正(1982—),男,漢族,江西新余人,高級(jí)工程師,本科,研究方向:計(jì)算機(jī)網(wǎng)絡(luò)。

        国产精品久久久av久久久| 天堂视频在线观看一二区| 日本在线 | 中文| 亚洲av无码不卡| 福利视频一二区| 国产一品二品三品精品久久| 91九色最新国产在线观看| 麻豆蜜桃av蜜臀av色欲av| 在线观看国产成人av片| 阿v视频在线| 亚洲中文字幕乱码在线观看| 搡老女人老妇女老熟妇69| 国产自拍av在线观看| 亚洲av永久无码精品古装片 | 国产免费av片在线播放| 欧美日韩色| 国产麻豆一区二区三区在线播放 | 一本色道久久88加勒比—综合| 精品无码国产自产在线观看水浒传| 欧美日韩不卡合集视频| 国产成人精品三级麻豆| 日本熟妇中文字幕三级| 国产三级精品三级男人的天堂| 内射人妻少妇无码一本一道| 狠狠人妻久久久久久综合| 少妇一级aa一区二区三区片| 偷拍一区二区三区四区视频| wwww亚洲熟妇久久久久| 欧美性猛交xxxx乱大交蜜桃| 精品国产乱码一区二区三区| 国产自拍精品一区在线观看| 老师翘臀高潮流白浆| 2020国产精品久久久久| 国产精品又湿又黄九九九久久嫩草 | 青青草视频在线免费观看91| 成人免费播放视频777777| 国产婷婷一区二区三区| 爆乳无码AV国内| 久久精品一区二区三区蜜桃| 人妻夜夜爽天天爽| 久久波多野结衣av|