亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于遷移學(xué)習(xí)的服裝圖像分類(lèi)模型研究

        2020-09-09 03:13:52謝小紅陸建波李文韜劉春霞黃華梅
        關(guān)鍵詞:準(zhǔn)確率服裝神經(jīng)網(wǎng)絡(luò)

        謝小紅 陸建波 李文韜 劉春霞 黃華梅

        (南寧師范大學(xué)計(jì)算機(jī)與信息工程學(xué)院 廣西 南寧 530299)

        0 引 言

        隨著互聯(lián)網(wǎng)服裝電子商務(wù)迅猛發(fā)展,人們對(duì)服裝圖像識(shí)別分類(lèi)技術(shù)的要求不斷提高。但由于服裝圖像包含的細(xì)粒度分類(lèi)[1]多,視覺(jué)變化大,如形變、光照、拍攝視角、背景影響、鏡頭縮放尺度等,使得人工設(shè)計(jì)特征越來(lái)越難以滿(mǎn)足實(shí)際分類(lèi)的需求。傳統(tǒng)的服裝圖像分類(lèi)方法是基于文本的,即依據(jù)圖像給予的文本描述進(jìn)行分類(lèi)。隨著服裝圖像數(shù)據(jù)量的增加,需要對(duì)大量圖片進(jìn)行人工標(biāo)注,由于每個(gè)人看待圖像的角度不同,則做的圖像標(biāo)注也會(huì)不同,會(huì)對(duì)服裝圖像分類(lèi)的精度造成一定的影響[2]。

        近年來(lái),深度學(xué)習(xí)(Deep Learning,DL)[3]已成為當(dāng)前機(jī)器學(xué)習(xí)領(lǐng)域中的重要發(fā)展方向。使用卷積神經(jīng)網(wǎng)絡(luò)CNN[4-5]去解決圖像分類(lèi)中的問(wèn)題漸成主流。越來(lái)越多的研究者們把深度學(xué)習(xí)與服裝分類(lèi)結(jié)合,取得了不錯(cuò)的效果。Liu等[6]收集了一個(gè)大規(guī)模且語(yǔ)義標(biāo)注更全面的服裝數(shù)據(jù)集DeepFashion,提出了FashionNet,對(duì)服裝的類(lèi)別、屬性、ID以及關(guān)鍵點(diǎn)做監(jiān)督進(jìn)行服裝特征學(xué)習(xí)。Wang等[7]采用標(biāo)注感知注意力和分類(lèi)驅(qū)動(dòng)注意力并引入雙向卷積遞歸神經(jīng)網(wǎng)絡(luò)(BCRNNs)來(lái)建模,使網(wǎng)絡(luò)可以進(jìn)行端到端的訓(xùn)練,實(shí)現(xiàn)了最先進(jìn)的時(shí)尚圖像分類(lèi)和地標(biāo)檢測(cè)性能。Ge等[8]提出了一種基于掩碼R-CNN的新型匹配R-CNN框架以端到端的方式解決了服裝檢測(cè)、姿態(tài)估計(jì)、分割和檢索等問(wèn)題。Krizhevsky等[9]提出的AlexNet在2012 ImageNet LSVRC比賽中,獲得深度神經(jīng)網(wǎng)絡(luò)模型的分類(lèi)效果第一。GoogLeNet[10]、VGGNet[11]、ResNet[12]等深度卷積神經(jīng)網(wǎng)絡(luò)模型不斷涌現(xiàn),越來(lái)越多的學(xué)者將這些模型用于具體的圖像識(shí)別任務(wù)中。

        傳統(tǒng)的CNN模型在處理圖像分類(lèi)時(shí)存在如下問(wèn)題:CNN模型需要數(shù)百萬(wàn)個(gè)參數(shù)來(lái)達(dá)到訓(xùn)練效果,需要大量時(shí)間訓(xùn)練,訓(xùn)練時(shí)也需要使用大量的標(biāo)記樣本,在訓(xùn)練樣本數(shù)足夠多、網(wǎng)絡(luò)結(jié)構(gòu)比較復(fù)雜的情況下,才能達(dá)到較優(yōu)異的性能[13]。深度分類(lèi)網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上表現(xiàn)優(yōu)異,但在少量的數(shù)據(jù)上訓(xùn)練復(fù)雜的分類(lèi)網(wǎng)絡(luò)時(shí),可能出現(xiàn)過(guò)擬合和陷入局部最優(yōu)解等現(xiàn)象[9]。

        在訓(xùn)練樣本缺失情況下,為了提高整體識(shí)別性能,遷移學(xué)習(xí)的加入可以很好地解決訓(xùn)練樣本缺失帶來(lái)的上述問(wèn)題。本文提出一種基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)服裝圖像分類(lèi)方法,該方法有如下特點(diǎn):

        (1) 預(yù)訓(xùn)練模型在ImageNet數(shù)據(jù)集上得到有效訓(xùn)練,不斷調(diào)整超參數(shù),使模型能提取到關(guān)于圖像的邊緣、紋理等基本特征,使預(yù)訓(xùn)練模型中的底層特征有著通用性。

        (2) 一定量的服裝數(shù)據(jù)集可以再次對(duì)模型超參數(shù)進(jìn)行微調(diào),模型的語(yǔ)義層面參數(shù)得到充分訓(xùn)練和調(diào)整,提取到的目標(biāo)特征具有區(qū)分性。

        (3) 遷移模型魯棒性和泛化能力相比更強(qiáng),網(wǎng)絡(luò)的識(shí)別精度有效提升以及收斂速度快。

        本文選取經(jīng)典的VGG16、VGG19、Inception_v3、Xception、ResNet50和MnasNet六種深度分類(lèi)網(wǎng)絡(luò)做初始化模型和遷移模型的實(shí)驗(yàn)對(duì)比。實(shí)驗(yàn)表明,本文方法能明顯提高服裝圖像的識(shí)別精度,具有較好的泛化能力和魯棒性。

        1 遷移學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練

        1.1 遷移學(xué)習(xí)

        遷移學(xué)習(xí)[14]是指將模型通過(guò)源域?qū)W習(xí)的遷移運(yùn)用到目標(biāo)域中,即將以往的知識(shí)遷移到另一個(gè)新的領(lǐng)域中。遷移學(xué)習(xí)有四種常見(jiàn)類(lèi)別:基于樣本遷移、基于特征遷移、基于模型遷移以及基于關(guān)系遷移。近幾年,遷移學(xué)習(xí)對(duì)相關(guān)任務(wù)的研究已經(jīng)受到了越來(lái)越多的關(guān)注。Thrun[15]是第一次討論以前學(xué)到的知識(shí)在泛化中所起的作用,尤其是在訓(xùn)練數(shù)據(jù)缺乏的情況下。Yosinsk等[16]通過(guò)對(duì)其他數(shù)據(jù)集采用不同的微調(diào)策略,對(duì)預(yù)先從ImageNet數(shù)據(jù)集中學(xué)習(xí)到的特征的可移植性進(jìn)行了廣泛的研究,發(fā)現(xiàn)當(dāng)基本任務(wù)與目標(biāo)任務(wù)之間的距離增大時(shí),特征的可移植性降低。Wu等[17]結(jié)合了CNN和遷移用于花卉識(shí)別中,取得了很好的分類(lèi)效果。本文在處理超參數(shù)調(diào)優(yōu)以及對(duì)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行微調(diào)方面進(jìn)行了研究與探索。

        下面給出一些遷移學(xué)習(xí)中術(shù)語(yǔ)的定義。

        定義1領(lǐng)域(Domains)。一個(gè)領(lǐng)域可以表示為:

        D={X,P(x)}

        (1)

        式中:X表示特征空間;P(x)表示x={x1,x2,…,xn}∈X,xi∈Rd,i=1,2,…,n的邊緣分布,xi表示第i幅圖的特征,Rd表示領(lǐng)域的特征集。

        定義2任務(wù)(Task)。給定某一個(gè)具體的領(lǐng)域D={X,P(x)},一個(gè)任務(wù)可以表示為:

        T={Y,f(·)}

        (2)

        根據(jù)遷移學(xué)習(xí)的定義,在源域中對(duì)目標(biāo)域任務(wù)的完成存在有用的知識(shí)均可將其遷移至目標(biāo)域中。若遷移的知識(shí)來(lái)自源域或目標(biāo)域中的多個(gè)相關(guān)任務(wù),則屬于多任務(wù)的范疇。遷移學(xué)習(xí)并不是在任何時(shí)候都能使用,當(dāng)源域和目標(biāo)域任務(wù)差異較大,進(jìn)行遷移學(xué)習(xí)一般會(huì)導(dǎo)致負(fù)遷移的發(fā)生[18]。例如,將源領(lǐng)域中完成花卉識(shí)別任務(wù)時(shí)學(xué)到的知識(shí)遷移給目標(biāo)領(lǐng)域中的服裝識(shí)別任務(wù)效果是不好的。因此只有具有共性的知識(shí)遷移到目標(biāo)領(lǐng)域才能更好地發(fā)揮其作用。

        1.2 網(wǎng)絡(luò)訓(xùn)練方法

        在卷積神經(jīng)網(wǎng)絡(luò)中,當(dāng)訓(xùn)練樣本不夠充分時(shí),通常識(shí)別效果不夠理想,而重新建立模型會(huì)很費(fèi)時(shí),這時(shí)可以考慮使用遷移學(xué)習(xí)來(lái)改善識(shí)別效果。在圖像分類(lèi)識(shí)別中,遷移學(xué)習(xí)不僅可以學(xué)習(xí)非目標(biāo)數(shù)據(jù)集的顏色、紋理等底層特征,還可以學(xué)習(xí)目標(biāo)數(shù)據(jù)集的高級(jí)特征,有望提高模型的分類(lèi)性能。為了驗(yàn)證遷移學(xué)習(xí)的效果,本文提出基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)服裝圖像分類(lèi)方法,描述如算法1所示,流程如圖1所示。

        算法1卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)訓(xùn)練方法

        輸入:ImageNet圖像數(shù)據(jù)I,DeepFashion服裝圖像數(shù)據(jù)D,迭代次數(shù)Epoch1和Epoch2,模型M,訓(xùn)練精度閾值A(chǔ)1、A2,訓(xùn)練損失閾值L1、L2。

        1. 選擇深層模型M

        2. 模型F初始化參數(shù)w1

        3. X1=g(I)

        //對(duì)ImageNet圖像數(shù)據(jù)I進(jìn)行預(yù)處理

        4. epoch=1

        5. While epoch≤Epoch1 do

        6. if A≤A1and L≥L1then

        //訓(xùn)練得到的精度和損失與設(shè)定的閾值比較

        //更新模型參數(shù)

        8. break

        9. else

        10. train M(I;w1)

        11. epoch=epoch+1

        12. End

        //輸出預(yù)訓(xùn)練模型和參數(shù)

        14. X2=g(D)

        //對(duì)DeepFashion服裝圖像數(shù)據(jù)D進(jìn)行預(yù)處理

        16. epoch=1

        17. While epoch≤Epoch2 do

        18. if A′≤A1and L′≥L2then

        //更新模型參數(shù)

        20. break

        21. else

        23. epoch=epoch+1

        24. End

        //輸出遷移模型和參數(shù)

        圖1 基于CNN模型的遷移學(xué)習(xí)流程圖

        本文選取六種經(jīng)典深度分類(lèi)網(wǎng)絡(luò)模型,首先在包含120多萬(wàn)幅自然圖像和1 000多個(gè)不同類(lèi)別的ImageNet數(shù)據(jù)集上對(duì)模型進(jìn)行預(yù)訓(xùn)練,然后將模型參數(shù)遷移到DeepFashion數(shù)據(jù)集中進(jìn)行微調(diào)訓(xùn)練。

        遷移方法采用預(yù)訓(xùn)練和遷移訓(xùn)練兩種方法相結(jié)合的方式。

        1) 預(yù)訓(xùn)練。預(yù)訓(xùn)練過(guò)程與隨機(jī)初始化訓(xùn)練過(guò)程基本類(lèi)似。在參數(shù)隨機(jī)初始化后,通過(guò)網(wǎng)絡(luò)訓(xùn)練迭代和優(yōu)化模型中參數(shù),使得模型精度提升及損失函數(shù)下降到某個(gè)設(shè)定的閾值,即模型達(dá)到收斂后輸出預(yù)訓(xùn)練模型。

        2) 遷移訓(xùn)練方法。將訓(xùn)練好的模型進(jìn)行參數(shù)遷移,再通過(guò)目標(biāo)數(shù)據(jù)集來(lái)微調(diào)網(wǎng)絡(luò)和優(yōu)化參數(shù),使得模型能很好地適應(yīng)目標(biāo)任務(wù)。對(duì)于本文的服裝圖像分類(lèi)任務(wù),深度網(wǎng)絡(luò)的遷移訓(xùn)練方法步驟如下:

        (1) 訓(xùn)練數(shù)據(jù)集準(zhǔn)備。將ImageNet數(shù)據(jù)集直接放入到本文選用的模型中,而目標(biāo)數(shù)據(jù)集DeepFashion輸入到訓(xùn)練好的模型中。

        (2) 選擇模型。深度網(wǎng)絡(luò)遷移訓(xùn)練方法選擇經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)VGG16、VGG19、Inception_v3、Xception、ResNet50和MnasNet,最后對(duì)比六種遷移模型的識(shí)別性能的優(yōu)劣。

        (3) 設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)。根據(jù)遷移所選擇的網(wǎng)絡(luò)特征,將最終的預(yù)測(cè)類(lèi)別調(diào)整為實(shí)驗(yàn)所需要的類(lèi)別數(shù)目;根據(jù)模型使用Dropout技術(shù)、凍結(jié)層數(shù)等對(duì)遷移訓(xùn)練模型進(jìn)行精調(diào)。

        (4) 參數(shù)優(yōu)化。將預(yù)訓(xùn)練模型參數(shù)遷移到設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)中,進(jìn)一步優(yōu)化網(wǎng)絡(luò)參數(shù),能充分訓(xùn)練模型和有效地觀察模型的性能。

        2 數(shù)據(jù)集介紹

        本文使用的服裝圖像來(lái)自香港中文大學(xué)多媒體實(shí)驗(yàn)室提供的多類(lèi)別大型服裝數(shù)據(jù)集DeepFashion[6],這些圖像大部分來(lái)自購(gòu)物網(wǎng)站,其余部分來(lái)源于博客、論壇和其他用戶(hù)的生成。DeepFashion包含了28萬(wàn)幅圖片,其服裝圖片全部由人工標(biāo)注,每幅圖像都有1個(gè)類(lèi)別標(biāo)注,1 000個(gè)屬性標(biāo)注,Bbox邊框。這是迄今為止最大、最全面的服裝數(shù)據(jù)集。由于DeepFashion數(shù)據(jù)集過(guò)于龐大,本文僅從中抽取2 533幅服裝圖片,8個(gè)服裝類(lèi)型(Dress,Jeans,Tank,shots,Tee,Jecket,Hoodie,Coat)進(jìn)行實(shí)驗(yàn)。其中80%作為訓(xùn)練集,20%作為驗(yàn)證集,兩者沒(méi)有數(shù)據(jù)之間的交集,訓(xùn)練集用于模型訓(xùn)練和學(xué)習(xí)以及參數(shù)的調(diào)整。在訓(xùn)練中使用驗(yàn)證集對(duì)模型進(jìn)行測(cè)試、優(yōu)化,對(duì)模型參數(shù)進(jìn)行微調(diào)。數(shù)據(jù)集中部分圖像如圖2所示,數(shù)據(jù)集中呈現(xiàn)了服裝的風(fēng)格、款式、材質(zhì)的多樣化。服裝的褶皺、遮光、側(cè)拍等因素,在很大程度上增加了服裝圖像分類(lèi)的困難。

        圖2 DeepFashion數(shù)據(jù)集部分?jǐn)?shù)據(jù)圖

        3 實(shí) 驗(yàn)

        3.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)環(huán)境:Ubuntu操作系統(tǒng),Intel i7-7700處理器,1 TB固態(tài)硬盤(pán),32 GB內(nèi)存,NVIDIA GTX1080Ti GPU,采用TensorFlow平臺(tái)進(jìn)行訓(xùn)練;實(shí)驗(yàn)結(jié)果中的準(zhǔn)確率曲線(xiàn)采用Python中的matplotlib可視化得到。

        3.2 實(shí)驗(yàn)設(shè)置

        利用在ImageNet上訓(xùn)練完成的VGG16和VGG19模型的權(quán)值來(lái)進(jìn)行訓(xùn)練,將獲取到特征向量進(jìn)行一維化,再將模型的全連接層替換成Softmax分類(lèi)器,最后用修改后的模型對(duì)服裝圖像數(shù)據(jù)集進(jìn)行訓(xùn)練。其中模型學(xué)習(xí)率為0.000 1,迭代次數(shù)為300次,批尺寸(Batch_size)為32,Dropout為0.6。

        利用在ImageNet上訓(xùn)練好的Inception_v3模型來(lái)訓(xùn)練服裝圖像數(shù)據(jù)集,輸入的圖片尺寸為(224,224,3),獲取特征向量后對(duì)其進(jìn)行全局最大池化和全局平均池化,將該模型瓶頸層的輸出作為提取的特征,然后把這些特征輸入到Softmax分類(lèi)器中獲得分類(lèi)結(jié)果。其中,模型的學(xué)習(xí)率為0.000 1,迭代次數(shù)為300,批尺寸為32,Dropout為0.5。

        利用ImageNet上訓(xùn)練好的ResNet50模型來(lái)訓(xùn)練服裝圖像數(shù)據(jù)集,獲取特征向量后對(duì)其進(jìn)行了全局平均池化,然后將特征向量輸入到Softmax分類(lèi)器中獲得分類(lèi)結(jié)果。其中,模型的學(xué)習(xí)率為0.001,迭代次數(shù)為300,批尺寸為32,Dropout為0.5。NASNetMobile和Xception的實(shí)驗(yàn)設(shè)置與ResNet50模型相類(lèi)似。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        表1顯示了VGG16、VGG19、Inception_v3、Xception、ResNet50和MnasNet六種圖像分類(lèi)網(wǎng)絡(luò)模型在相同數(shù)據(jù)集上評(píng)價(jià)指標(biāo)的比較。圖3-圖5分別展示了六種模型的初始化訓(xùn)練和遷移訓(xùn)練方法在同一數(shù)據(jù)集上準(zhǔn)確率的比較。

        (a) VGG16

        (b) VGG19圖3 VGG16和VGG19初始化模型與遷移模型驗(yàn)證集準(zhǔn)確率比較

        (a) Inception_v3

        (b) Xception圖4 Inception_v3和Xception初始化模型與遷移模型驗(yàn)證集準(zhǔn)確率比較

        (a) ResNet50

        (b) MnasNet圖5 ResNet50和MnasNet初始化模型和遷移模型驗(yàn)證集準(zhǔn)確率比較

        圖3(a)為VGG16遷移學(xué)習(xí)模型與初始化模型的對(duì)比,VGG16遷移模型在驗(yàn)證集迭代40次左右開(kāi)始收斂且波動(dòng)相對(duì)平穩(wěn),初始化模型則需要迭代100次左右才收斂且波動(dòng)較大。原因是VGG16遷移模型凍結(jié)了部分層數(shù),需要訓(xùn)練的參數(shù)比較少且適合該模型分類(lèi),而VGG16初始化模型則需要從隨機(jī)參數(shù)進(jìn)行訓(xùn)練。圖3(b)為VGG19遷移模型與VGG19的初始化模型的比較,兩個(gè)模型的收斂速度與圖3(a)相似,但波動(dòng)相對(duì)平穩(wěn)。

        圖4(a)為Inception_v3遷移學(xué)習(xí)模型與初始化模型的對(duì)比,Inception_v3遷移模型在迭代35次左右就開(kāi)始收斂且較圖3的兩個(gè)模型相對(duì)平穩(wěn),而初始化模型則需要迭代到125次左右才收斂且波動(dòng)較大。圖4(b)為Xception遷移模型與初始化模型的比較,Xception遷移模型驗(yàn)證集在迭代20次達(dá)到收斂。因?yàn)閄ception是Inception_v3的優(yōu)化網(wǎng)絡(luò)輕量化模型,在同等參數(shù)量的情況下網(wǎng)絡(luò)效率比Inception_v3高,所以收斂速度快。

        圖5(a)為ResNet50遷移模型與初始化模型的對(duì)比,由于初始化模型本身的網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,需要訓(xùn)練的參數(shù)多,所以它的初始化模型準(zhǔn)確率較低收斂速度也比較慢,且波動(dòng)大。在ResNet50遷移模型迭代50次之后趨于收斂,雖然不比VGG16、VGG19模型收斂速度快,但是到達(dá)收斂點(diǎn)后波動(dòng)不大。圖5(b)為MnasNet遷移模型與初始化模型的比較,MnasNet遷移模型在訓(xùn)練50代左右開(kāi)始收斂,而MnasNet初始化模型比前面的初始化模型的收斂速度要慢很多,需要迭代230次后才慢慢收斂。

        由表1可知,六種神經(jīng)網(wǎng)絡(luò)使用遷移學(xué)習(xí)方法訓(xùn)練后,分類(lèi)效果明顯優(yōu)于隨機(jī)初始化網(wǎng)絡(luò)模型。由圖3-圖5可以看出,初始化模型的準(zhǔn)確率均低于遷移模型,且模型收斂速度非常慢。六種遷移學(xué)習(xí)模型中,Inception_v3遷移模型和Xception遷移模型的收斂速度較快,收斂后相對(duì)平穩(wěn),且Inception_v3遷移模型和Xception遷移模型網(wǎng)絡(luò)損失均小于其他遷移模型。可以看出,神經(jīng)網(wǎng)絡(luò)模型遷移學(xué)習(xí)后具有更好的魯棒性和較強(qiáng)的泛化能力。而隨機(jī)初始化網(wǎng)絡(luò)模型有可能陷入局部最優(yōu)的問(wèn)題,所以魯棒性和泛化能力相對(duì)較差。初始網(wǎng)絡(luò)模型受其自身的深層結(jié)構(gòu)和較大的訓(xùn)練參數(shù)的影響,網(wǎng)絡(luò)訓(xùn)練速度慢,容易出現(xiàn)局部最優(yōu)和過(guò)擬合情況。對(duì)遷移模型的特定網(wǎng)絡(luò)層權(quán)重參數(shù)進(jìn)行凍結(jié),以及充分訓(xùn)練和調(diào)整模型的語(yǔ)義層參數(shù),使模型提取的目標(biāo)特征更加清晰。

        如表2所示,遷移模型的識(shí)別精度都高于初始化模型,這證明了遷移學(xué)習(xí)方法用在DeepFashion服裝數(shù)據(jù)集上是有效的。由于傳統(tǒng)的深度分類(lèi)模型需要大量的訓(xùn)練數(shù)據(jù)才能獲得較為理想的實(shí)驗(yàn)效果,而本文數(shù)據(jù)集的數(shù)據(jù)量少,因此模型的準(zhǔn)確率低,還會(huì)出現(xiàn)梯度消失和過(guò)擬合等問(wèn)題。初始化模型的收斂速度遠(yuǎn)慢于遷移模型,且每次迭代所需時(shí)間稍長(zhǎng),原因是初始化模型沒(méi)有凍結(jié)前層網(wǎng)絡(luò)參數(shù),所有的網(wǎng)絡(luò)參數(shù)需要重新訓(xùn)練。遷移學(xué)習(xí)方法在時(shí)間和準(zhǔn)確率上都優(yōu)于隨機(jī)初始化模型方法,說(shuō)明模型先在大數(shù)據(jù)集上做預(yù)訓(xùn)練,再將訓(xùn)練好的模型放到數(shù)據(jù)量少的目標(biāo)領(lǐng)域上進(jìn)行微調(diào),節(jié)省了大量時(shí)間,而且能夠達(dá)到更高的分類(lèi)精度。遷移模型也證明了在小樣本數(shù)據(jù)集中利用遷移學(xué)習(xí)的方法是可行的。

        表2 各種方法分類(lèi)性能對(duì)比

        4 結(jié) 語(yǔ)

        本文采用基于遷移學(xué)習(xí)的服裝圖像識(shí)別分類(lèi)模型,在DeepFashion部分?jǐn)?shù)據(jù)集上,將神經(jīng)網(wǎng)絡(luò)模型與遷移學(xué)習(xí)方法相結(jié)合,VGG16和Inception_v3的驗(yàn)證集準(zhǔn)確率分別達(dá)到94.80%和93.91%,其收斂速度較快,訓(xùn)練集與驗(yàn)證集之間未出現(xiàn)過(guò)擬合現(xiàn)象。實(shí)驗(yàn)結(jié)果表明,用遷移后的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,收斂速度快,魯棒性和泛化能力都優(yōu)于隨機(jī)初始化模型。本文方法在DeepFashion服裝數(shù)據(jù)集上可以有效地對(duì)服裝圖像進(jìn)行分類(lèi),在識(shí)別精度和時(shí)效性上取得了顯著的提高。

        猜你喜歡
        準(zhǔn)確率服裝神經(jīng)網(wǎng)絡(luò)
        讓人心碎的服裝
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        神經(jīng)網(wǎng)絡(luò)抑制無(wú)線(xiàn)通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        現(xiàn)在可以入手的mina風(fēng)高性?xún)r(jià)比服裝
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        服裝家紡個(gè)股表現(xiàn)
        小鲜肉自慰网站| 国产网红主播无码精品| 人禽交 欧美 网站| 久久国内精品自在自线图片| 少妇寂寞难耐被黑人中出| 成人伊人亚洲人综合网站222| 亚洲午夜精品a片久久www慈禧| 乱码精品一区二区三区| 欧美亚洲综合另类| 国产黄片一区视频在线观看| 国产精品国产三级国产不卡| 亚洲黄色av一区二区三区| 欧美性色欧美a在线播放| 精品久久久久香蕉网| 欧妇女乱妇女乱视频| 国产喷水在线观看| 亚洲va精品va国产va| 国产精品美女主播在线| 亚洲人妻调教中文字幕| 免费女人高潮流视频在线观看| 强行无套内谢大学生初次| 国产成+人+综合+亚洲 欧美| 日产精品一区二区三区| 精品亚亚洲成av人片在线观看| 日本乱熟人妻中文字幕乱码69| 中文字幕亚洲精品一区二区三区| 真实人与人性恔配视频| 免费一区二区三区久久| 亚洲国产成人无码电影| 国产精品午夜福利天堂| 国产91色综合久久免费| 四虎国产精品永久在线| 熟妇人妻无乱码中文字幕| 中文字幕日韩高清| 国产精品人成在线观看| 中文字幕有码久久高清| 亚洲第一女人av| 久久综合狠狠色综合伊人| 欧美国产日产一区二区| 91精品国产91久久综合桃花| 日本午夜伦理享色视频|