亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于數(shù)據(jù)增強(qiáng)和神經(jīng)網(wǎng)絡(luò)的小樣本圖像分類(lèi)

        2022-10-15 15:54:26嚴(yán)家金
        現(xiàn)代信息科技 2022年15期
        關(guān)鍵詞:分類(lèi)模型

        嚴(yán)家金

        (1.安徽理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,安徽 淮南 232001;2.安徽理工大學(xué) 環(huán)境友好材料與職業(yè)健康研究院(蕪湖),安徽 蕪湖 241003)

        0 引 言

        目前,深度學(xué)習(xí)已得到了廣泛的研究和應(yīng)用,深度學(xué)習(xí)的引入使圖像數(shù)據(jù)集上的分類(lèi)準(zhǔn)確率得到了極大的提高,而這些模型大部分是基于卷積神經(jīng)網(wǎng)絡(luò)并且需要大規(guī)模的數(shù)據(jù)集,但在實(shí)際應(yīng)用中存在著很大的局限性,例如在疾病診斷、害蟲(chóng)分辨、工業(yè)故障檢測(cè)等方面都沒(méi)有足夠數(shù)量的樣本去訓(xùn)練,這就是所謂的小樣本學(xué)習(xí)。

        小樣本學(xué)習(xí)是從人類(lèi)能夠運(yùn)用少量數(shù)據(jù)快速學(xué)習(xí)中得到的啟發(fā)。當(dāng)訓(xùn)練數(shù)據(jù)不足時(shí),如何實(shí)現(xiàn)以及怎樣獲得一個(gè)具有良好性能和泛化能力的學(xué)習(xí)模型,是小樣本學(xué)習(xí)的最終目的。小樣本圖像分類(lèi)的學(xué)習(xí)模型基于卷積神經(jīng)網(wǎng)絡(luò)模型,一般分為兩種:元學(xué)習(xí)和度量學(xué)習(xí)?;谠獙W(xué)習(xí)的小樣本學(xué)習(xí)有兩種:基于數(shù)據(jù)增強(qiáng)的小樣本學(xué)習(xí),基于模型優(yōu)化的小樣本學(xué)習(xí)。

        對(duì)于小樣本問(wèn)題,多采用對(duì)抗生成網(wǎng)絡(luò)(Generative Adversarial Nets, GAN)進(jìn)行數(shù)據(jù)增強(qiáng)。雖然GAN能使用現(xiàn)有數(shù)據(jù)來(lái)緩解數(shù)據(jù)量不足的問(wèn)題,但是標(biāo)準(zhǔn)數(shù)據(jù)擴(kuò)充只能產(chǎn)生有限的替代數(shù)據(jù)?;贕AN改進(jìn)的DAGAN模型可以從數(shù)據(jù)集中獲取數(shù)據(jù),并推衍生成同類(lèi)數(shù)據(jù)項(xiàng),是一種有效的數(shù)據(jù)增強(qiáng)模型。卷積神經(jīng)網(wǎng)絡(luò)VGG是牛津大學(xué)計(jì)算機(jī)視覺(jué)組和Google DeepMind公司一起研發(fā)的,不僅在ILSVRC分類(lèi)和定位任務(wù)上取得極高的準(zhǔn)確性,而且還適用于其他類(lèi)型的圖像識(shí)別。但在訓(xùn)練樣本較少的情況下,單純的VGG模型很難取得理想的分類(lèi)結(jié)果。使用注意力機(jī)制能夠使網(wǎng)絡(luò)模型更加關(guān)注重要信息并且適當(dāng)過(guò)濾那些與目標(biāo)任務(wù)無(wú)關(guān)的信息,使模型能夠在有限的樣本下提取到更多的有效信息。

        綜合上述分析,本文為了解決樣本數(shù)量不足的問(wèn)題采用了DAGAN網(wǎng)絡(luò),在網(wǎng)絡(luò)中輸入圖片能夠按類(lèi)生成多張圖片以此來(lái)擴(kuò)充樣本。為了取得更好的分類(lèi)效果,本文在VGG19中引入了注意力機(jī)制,在每個(gè)卷積層之后加入SE模塊以提高分類(lèi)準(zhǔn)確率,最后對(duì)主動(dòng)學(xué)習(xí)進(jìn)行改進(jìn)并結(jié)合DAGAN提出了主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)(Active Data Augmentation Learning)策略,通過(guò)主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)策略找到最利于分類(lèi)的樣本集大小,這樣不但可以減少不必要的訓(xùn)練,而且還可以在有限的時(shí)間和資源的條件下,進(jìn)一步提高分類(lèi)的效率和準(zhǔn)確率。

        1 相關(guān)工作

        1.1 數(shù)據(jù)增強(qiáng)對(duì)抗生成網(wǎng)絡(luò)(DAGAN)

        在DAGAN中生成網(wǎng)絡(luò)模型由一個(gè)編碼器組成,該編碼器獲取輸入圖像(class C),將其向下投影到低維空間。對(duì)隨機(jī)向量(z)進(jìn)行變換并與該向量連接;它們都將被傳送到解碼器網(wǎng)絡(luò),再由解碼器網(wǎng)絡(luò)生成增強(qiáng)圖像。對(duì)抗網(wǎng)絡(luò)模型經(jīng)過(guò)訓(xùn)練,能夠區(qū)分來(lái)自真實(shí)分布和虛假分布的樣本。這樣的對(duì)抗博弈訓(xùn)練能夠使模型從舊圖像生成同類(lèi)但看起來(lái)完全不同的樣本,能有效地?cái)U(kuò)大訓(xùn)練集,從而很好地解決訓(xùn)練樣本數(shù)量不足的問(wèn)題。

        1.2 VGG

        VGG在AlexNet的基礎(chǔ)上進(jìn)行了改進(jìn),在VGG中使用3個(gè)3×3卷積核代替7×7卷積核,使用2個(gè)3×3卷積核代替5×5卷積核。這是因?yàn)槭褂?×3卷積核在感受野不變的情況下可使參數(shù)和層數(shù)變得更深,并使用三個(gè)全連接層。同時(shí)驗(yàn)證了通過(guò)適當(dāng)?shù)丶由罹W(wǎng)絡(luò)結(jié)構(gòu)能夠提升性能。VGG結(jié)構(gòu)圖如圖1所示。

        圖1 VGG結(jié)構(gòu)圖

        1.3 注意力機(jī)制

        注意力機(jī)制可以用人的視覺(jué)機(jī)制來(lái)直觀地解釋。例如,人類(lèi)的視覺(jué)系統(tǒng)往往把注意力集中在圖像中的某些重要信息上,從而會(huì)忽略一些不重要的信息。所以注意力機(jī)制也可以理解成在輸入上不同的部分施加不同的注意力,去影響某個(gè)時(shí)刻的輸出,這里的注意力就是權(quán)重。同時(shí)通過(guò)反向傳播算法,使網(wǎng)絡(luò)能夠自適應(yīng)地學(xué)習(xí)到最合適的權(quán)重參數(shù)。

        2 主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)和VGG-SE

        2.1 VGG-SE和主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)模型

        在現(xiàn)實(shí)世界中,某些方面的某些類(lèi)別只有少量的樣本數(shù)據(jù),但深度學(xué)習(xí)模型在很大程度上依賴(lài)大量的訓(xùn)練數(shù)據(jù)。那么在疾病診斷、人臉識(shí)別、臨床實(shí)驗(yàn)、手寫(xiě)字體識(shí)別等在現(xiàn)實(shí)中只能得到較少樣本的領(lǐng)域,深度學(xué)習(xí)模型的準(zhǔn)確率是比較低的。因此,本文為了提高深度學(xué)習(xí)模型的分類(lèi)準(zhǔn)確率,同時(shí)緩解訓(xùn)練過(guò)程中樣本數(shù)量不足的問(wèn)題,提出了VGG-SE和主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)。VGG-SE和主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)模型結(jié)構(gòu)如圖2所示。

        圖2 VGG-SE主動(dòng)數(shù)據(jù)增強(qiáng)網(wǎng)絡(luò)模型

        由圖2可以看出,本文模型包含兩個(gè)部分:引入注意力機(jī)制的分類(lèi)網(wǎng)絡(luò)(VGG-SE)和基于DAGAN的主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)。VGG-SE用于樣本的識(shí)別和分類(lèi),而主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)則用來(lái)緩解樣本數(shù)量不足的問(wèn)題。

        2.2 VGG-SE

        為了提升VGG的性能,在VGG中引入注意力機(jī)制(即VGG-SE)來(lái)提高整體網(wǎng)絡(luò)模型的分類(lèi)準(zhǔn)確率。由Momenta公司設(shè)計(jì)的SENET(Squeeze-and-Excitation Networks)在2017年ImageNET中榮獲分類(lèi)比賽的冠軍,其提出的SE模塊結(jié)構(gòu)簡(jiǎn)單、易于實(shí)現(xiàn),可以十分方便地加載到現(xiàn)有的網(wǎng)絡(luò)模型中。SE模塊能夠根據(jù)不同特征通道的重要程度對(duì)通道進(jìn)行排序,以此增強(qiáng)重要的通道,減弱不重要的通道。SE模塊結(jié)構(gòu)圖如圖3所示。

        圖3 SE模塊結(jié)構(gòu)

        對(duì)輸入特征圖Z進(jìn)行Squeeze操作,將它的每一個(gè)二維通道都變成一個(gè)具有全局感受野的實(shí)數(shù),再使其變成1×1×C向量;再對(duì)這個(gè)向量進(jìn)行Excitation操作,為每個(gè)特征通道生成權(quán)重;最后通過(guò)Scale操作,將計(jì)算得出的各通道權(quán)重和輸入特征圖Z相對(duì)應(yīng)通道的二維矩陣相乘就可以得到輸出特征圖Z。

        本文將SE模塊加在VGG每一個(gè)卷積層的后面,以便在每次卷積之后都能對(duì)所獲得特征圖的每個(gè)通道進(jìn)行加權(quán)處理,從而在每次訓(xùn)練過(guò)程中都能有效地提升有用的特征并抑制不重要的特征,如此進(jìn)行良性循環(huán)達(dá)到更為準(zhǔn)確的分類(lèi)結(jié)果。改進(jìn)的模型結(jié)構(gòu)如圖4所示。

        圖4 VGG-SE模型結(jié)構(gòu)

        使 用Global pooling作 為Squeeze操 作,兩 個(gè)Fully Connected層構(gòu)成一個(gè)Bottleneck結(jié)構(gòu)就可以去建模通道間的相關(guān)性,且輸出與輸入特征相同數(shù)目的權(quán)重。首先將特征維度降低到輸入的1/(是經(jīng)過(guò)訓(xùn)練后得到的參數(shù)),再經(jīng)過(guò)ReLu函數(shù)激活后通過(guò)Fully Connected 層回到之前的維度,通過(guò)Sigmoid函數(shù)獲得0~1之間歸一化的權(quán)重,最后對(duì)歸一化后的權(quán)重進(jìn)行Scale操作加權(quán)到每一個(gè)通道的特征上。

        2.3 主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)

        事實(shí)證明深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)存在著訓(xùn)練時(shí)間過(guò)長(zhǎng)、計(jì)算量過(guò)大、過(guò)擬合、欠擬合等各種問(wèn)題。為了適當(dāng)緩解這些問(wèn)題,本文對(duì)主動(dòng)學(xué)習(xí)進(jìn)行改進(jìn),提出了主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)策略。

        學(xué)習(xí)策略主要包括兩大部分:

        (1)讓各個(gè)類(lèi)別的少量樣本構(gòu)成初始訓(xùn)練集(),用經(jīng)過(guò)訓(xùn)練DAGAN的每50輪生成的樣本數(shù)據(jù)集作擴(kuò)充訓(xùn)練集(,,),再用初始訓(xùn)練集去訓(xùn)練網(wǎng)絡(luò)模型VGGSE,按類(lèi)別計(jì)算模型輸出的loss,當(dāng)某類(lèi)別的loss大于預(yù)先設(shè)定的閾值時(shí),則向該類(lèi)別加入擴(kuò)充訓(xùn)練集,在該類(lèi)別輸出的loss小于預(yù)先設(shè)定的閾值時(shí)則停止擴(kuò)充。

        (2)對(duì)每個(gè)類(lèi)別進(jìn)行標(biāo)號(hào)(分別為1,2…),每個(gè)初始訓(xùn)練集為,…X,,…I為其對(duì)應(yīng)的擴(kuò)充訓(xùn)練集,L為每個(gè)類(lèi)別輸出的loss值,設(shè)計(jì)一個(gè)分段閾值=0.2、=0.1、=0.05。訓(xùn)練總共分為2輪,前輪時(shí)L與比較,中間/2輪時(shí)L與比較,后/2輪時(shí)L與比較輪時(shí)比較;當(dāng)L大于閾值時(shí)則向該類(lèi)別加入擴(kuò)充訓(xùn)練集,若小于閾值則不用加入。

        主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)結(jié)構(gòu)示意圖如圖5所示。

        圖5 主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)結(jié)構(gòu)示意圖

        3 實(shí)驗(yàn)和分析

        3.1 數(shù)據(jù)集描述

        為了測(cè)試所提出改進(jìn)模型的有效性,采用MiniImageNet和Omniglot兩個(gè)數(shù)據(jù)集。MiniImageNet數(shù)據(jù)集包含100個(gè)類(lèi),每100個(gè)類(lèi)都有600張圖片,每張圖片的大小為84×84。Omniglot數(shù)據(jù)集包含50個(gè)不同的字母及其1 623個(gè)不同的手寫(xiě)字符,每個(gè)字符都有20張圖片,通過(guò)將圖片進(jìn)行90°、180°、270°旋轉(zhuǎn)來(lái)擴(kuò)充訓(xùn)練集。

        MiniImageNet數(shù)據(jù)集信息描述如表1所示。

        表1 MiniImageNet信息描述

        Omniglot數(shù)據(jù)集信息描述如表2所示。

        表2 Omniglot信息描述

        3.2 實(shí)驗(yàn)結(jié)果與分析

        改進(jìn)模型在兩塊Tesla P100 16 GB的顯卡上進(jìn)行訓(xùn)練和測(cè)試。本文改進(jìn)的模型使用VGG19作為主干網(wǎng)絡(luò),輸出層采用Sigmoid激活函數(shù),其他層均采用Relu激活函數(shù)。

        在實(shí)驗(yàn)中,改進(jìn)模型的訓(xùn)練初始學(xué)習(xí)率設(shè)置為0.001,訓(xùn)練總輪數(shù)為2輪,前輪時(shí)loss值與主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)中的閾值比較,中間/2輪時(shí)loss值與比較,后/2輪時(shí)loss值與比較;當(dāng)loss值大于設(shè)定的閾值時(shí)則向該類(lèi)別加入擴(kuò)充訓(xùn)練集,若小于閾值則不用加入,學(xué)習(xí)率每次下降百分之零點(diǎn)一,在本次實(shí)驗(yàn)中使用MiniImageNet數(shù)據(jù)集的運(yùn)行輪數(shù)為400輪,使用Omniglo數(shù)據(jù)集的運(yùn)行輪數(shù)為200輪。通道數(shù)從3通道擴(kuò)充到64,從64擴(kuò)充到128,從128擴(kuò)充到256,再?gòu)?56擴(kuò)充到512,在每一層擴(kuò)充通道的時(shí)候加上SENet對(duì)通道追加注意力機(jī)制,在對(duì)通道進(jìn)行注意力操作時(shí),首先對(duì)通道進(jìn)行壓縮,在通過(guò)Sigmoid激活函數(shù)學(xué)習(xí)訓(xùn)練權(quán)重后,對(duì)通道進(jìn)行還原。實(shí)驗(yàn)結(jié)果如表3、表4所示。

        表3 在MiniImageNet數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果

        表4 在Omniglot數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果

        由表3和表4可以看出,在MiniImageNet數(shù)據(jù)集中,本文提出的方法在5-way 1-shot方式中的測(cè)試準(zhǔn)確率比其他實(shí)驗(yàn)?zāi)P推骄?.98%,在5-way 5-shot方式中的測(cè)試準(zhǔn)確率比其他實(shí)驗(yàn)?zāi)P推骄?.67%;在Omniglot數(shù)據(jù)集中,本文提出的方法在20-way 1-shot方式中的測(cè)試準(zhǔn)確率比其他實(shí)驗(yàn)?zāi)P推骄?.86%,在20-way 5-shot方式中的測(cè)試準(zhǔn)確率比其他實(shí)驗(yàn)?zāi)P推骄?.24%。這是因?yàn)楸疚耐ㄟ^(guò)設(shè)置閾值對(duì)loss值的時(shí)刻關(guān)注,在避免網(wǎng)絡(luò)過(guò)擬合的同時(shí),在不同階段加入新的訓(xùn)練樣本,使網(wǎng)絡(luò)的魯棒性更好。實(shí)驗(yàn)中對(duì)通道進(jìn)行壓縮可以適當(dāng)降低學(xué)習(xí)成本。在每經(jīng)過(guò)一個(gè)大的特征提取層時(shí),網(wǎng)絡(luò)就能學(xué)習(xí)到更多抽象的高維特征,緊接著通過(guò)對(duì)通道注意力機(jī)制的關(guān)注,使網(wǎng)絡(luò)能夠輕松捕捉到各個(gè)類(lèi)別間的差異,從而使得在樣本數(shù)量越少、類(lèi)別數(shù)量越少時(shí),本文模型可以取得較好的分類(lèi)結(jié)果。

        4 結(jié) 論

        本文提出了主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí),并在已有的網(wǎng)絡(luò)VGG上引入了注意力機(jī)制。主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)能夠有效地緩解在小樣本分類(lèi)中樣本數(shù)量不足的問(wèn)題,用DAGAN進(jìn)行數(shù)據(jù)增強(qiáng)能生成大量的同類(lèi)型樣本,再通過(guò)主動(dòng)數(shù)據(jù)增強(qiáng)學(xué)習(xí)合理使用訓(xùn)練集的樣本量防止過(guò)擬合或欠擬合。在VGG中引入注意力機(jī)制能通過(guò)不同的通道去提升重要的特征或抑制不重要的特征從而提高網(wǎng)絡(luò)的分類(lèi)效果。實(shí)驗(yàn)證明,本文提出的方法在MiniImageNet數(shù)據(jù)集和Omniglot數(shù)據(jù)集上都取得了比基準(zhǔn)模型更好的效果。

        猜你喜歡
        分類(lèi)模型
        一半模型
        分類(lèi)算一算
        垃圾分類(lèi)的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        分類(lèi)討論求坐標(biāo)
        數(shù)據(jù)分析中的分類(lèi)討論
        教你一招:數(shù)的分類(lèi)
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        亚洲午夜久久久久久久久电影网 | 日韩av在线毛片| 精品人妻av一区二区三区不卡| 午夜无码国产18禁| 中文字幕文字幕视频在线| 国语对白精品在线观看| 亚洲s色大片在线观看| 夜夜躁狠狠躁日日躁2022| 午夜精品久久久久久99热| 欧美最猛性xxxxx免费| 午夜福利电影| 欧美日韩国产在线成人网| 少妇被爽到自拍高潮在线观看| 亚洲无av码一区二区三区| 午夜视频在线观看一区二区小| 少妇高潮太爽了在线视频| 欧美亚洲熟妇一区二区三区| 在线中文字幕有码中文| 中文字幕日本熟妇少妇| 久久女人精品天堂av影院麻| 婷婷色婷婷开心五月四房播播 | 亚洲另类激情专区小说婷婷久| 一区二区无码精油按摩| 久久青青草原亚洲av| 亚州av高清不卡一区二区| 亚洲悠悠色综合中文字幕| 久久人妻av一区二区软件| 免费观看的a级毛片的网站| 97精品伊人久久大香线蕉| 国语精品视频在线观看不卡| 亚洲一区二区三区视频免费| 国产三级不卡一区不卡二区在线 | 久久久久成人精品无码| 久久国产自偷自免费一区100| 偷拍一区二区三区在线观看| 日韩精品免费视频久久| av在线免费观看蜜桃| 国产成人乱色伦区| 欧美在线成人免费国产| 白丝美女扒开内露出内裤视频 | 青青草视频视频在线观看|