亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)MobileNet v2的服裝圖像分類算法

        2024-05-08 00:00:00李林紅楊杰蔣嚴(yán)宣朱浩
        現(xiàn)代紡織技術(shù) 2024年4期
        關(guān)鍵詞:遷移學(xué)習(xí)注意力機(jī)制深度學(xué)習(xí)

        摘 要:針對(duì)現(xiàn)有服裝圖像分類算法參數(shù)量較多、識(shí)別精度低的問題,提出了一種基于注意力機(jī)制和遷移學(xué)習(xí)的改進(jìn)型MobileNet v2算法。首先,選取MobileNet v2作為特征提取網(wǎng)絡(luò),確保服裝分類算法的整體輕量性。其次,將通道與空間注意力機(jī)制嵌入特征提取單元,自適應(yīng)地選擇和強(qiáng)化有用的特征信息,從而提高服裝圖像分類算法的識(shí)別精度。最后,通過遷移學(xué)習(xí)方法對(duì)模型進(jìn)行參數(shù)初始化,使得模型能夠從源域中獲得先驗(yàn)知識(shí)。在Fashion MNIST數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:所提算法的分類精度為93.28%,相較于ResNet50、EfficientNet v2_l、ShuffleNet v2和MobileNet v2模型,分別提高了1.85%、1.34%、3.86%和3.17%;在DeepFashion數(shù)據(jù)集上的準(zhǔn)確率為88.24%。此外,該算法參數(shù)量低至2.35M,單張圖像推理速度僅為7.5 ms,在參數(shù)量基本不變的的情況下提升了分類精度與推理速度。

        關(guān)鍵詞:服裝分類;MobileNet v2;深度學(xué)習(xí);注意力機(jī)制;遷移學(xué)習(xí)

        中圖分類號(hào):TP399 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1009-265X(2024)04-0093-11

        隨著互聯(lián)網(wǎng)的發(fā)展,網(wǎng)絡(luò)購物逐漸成為居民購買商品的重要手段,電子商務(wù)成為推動(dòng)服裝消費(fèi)互聯(lián)網(wǎng)向產(chǎn)業(yè)互聯(lián)網(wǎng)邁進(jìn)的先導(dǎo)力量。2021年中國服裝電子商務(wù)B2C市場(chǎng)交易規(guī)模約2.15萬億元,兩年平均增長約8%,網(wǎng)購滲透率達(dá)到45%左右[1],網(wǎng)購服裝已經(jīng)成為消費(fèi)者購買服裝的主要方式。為了提高電商平臺(tái)的檢索效率和精確性,平臺(tái)需要根據(jù)用戶的喜好和風(fēng)格對(duì)商品進(jìn)行分類,并為每件商品打上標(biāo)簽。然而,對(duì)于大規(guī)模的服裝圖像數(shù)據(jù),傳統(tǒng)的人工標(biāo)注和分類方法耗時(shí)耗力,且容易受到主觀因素的影響,已經(jīng)無法滿足目前服裝分類需求。而基于深度學(xué)習(xí)的分類算法[2-3]可以從大規(guī)模服裝數(shù)據(jù)中學(xué)習(xí)到更多有用的特征,在分類速度和準(zhǔn)確性方面顯著高于傳統(tǒng)的人工標(biāo)注和分類方法。因此,基于深度學(xué)習(xí)的服裝分類算法研究具有重要的實(shí)際意義,可以縮短用戶檢索時(shí)間,縮小檢索范圍,為用戶提供更加精確的結(jié)果。

        深度學(xué)習(xí)領(lǐng)域的發(fā)展需大量的計(jì)算資源和高速的存儲(chǔ)設(shè)備,隨著硬件設(shè)備性能的不斷提升,基于深度學(xué)習(xí)的分類算法也在不斷進(jìn)步。這些算法包括精度高、參數(shù)量多的大型模型和精度較低、參數(shù)量少的輕量級(jí)模型。自2012年Krizhevsky等[4]提出AlexNet模型以來,采用卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取特征的深度學(xué)習(xí)模型贏得了當(dāng)年ImageNet圖像分類冠軍,引發(fā)了深度學(xué)習(xí)的熱潮。隨著2014年VGG[5]和2015年ResNet[6]等系列大模型的推出,深度學(xué)習(xí)算法在圖像處理領(lǐng)域的優(yōu)勢(shì)愈發(fā)凸顯。然而大模型對(duì)硬件設(shè)備算力要求較高,難以部署在邊緣設(shè)備上。因此在2017年Iandola等[7]提出SqueezeNet,開啟了深度學(xué)習(xí)模型輕量化時(shí)代,后續(xù)研究者提出了MobileNet[8]系列和ShuffleNet[9]系列算法,在保證精度的同時(shí),模型參數(shù)量更小,推理速度更快,在服裝分類任務(wù)中輕量化模型逐漸成為一種新的發(fā)展趨勢(shì)。

        近年來,研究者們針對(duì)不同服裝數(shù)據(jù)的特點(diǎn)進(jìn)行算法改進(jìn),使得基于深度學(xué)習(xí)的服裝圖像分類算法取得了長足進(jìn)展。曾華福等[10]在ShuffleNet v1中嵌入了空間和通道注意力機(jī)制,并設(shè)計(jì)了非對(duì)稱多尺度特征融合模塊,加強(qiáng)了模型的特征提取能力,在Deepfashion數(shù)據(jù)集上的準(zhǔn)確率為93.22%。趙宏偉等[11]提出了一種關(guān)鍵點(diǎn)注意力機(jī)制與通道注意力機(jī)制相結(jié)合的方法,在Deepfashion數(shù)據(jù)集上的top-3準(zhǔn)確率達(dá)到了91.24%。李青等[12]提出了一種基于Inception v3算法與遷移學(xué)習(xí)技術(shù)的女襯衫圖案分類方法,平均精度相較原模型提升了6%。Liu等[13]提出了一種基于改進(jìn)Xception模型的服裝圖像分類算法,使用8類別全連接層替換原始全連接層,還使用指數(shù)線性單元(ELU)和整流線性單元(ReLU),改善網(wǎng)絡(luò)的學(xué)習(xí)能力,結(jié)合數(shù)據(jù)增強(qiáng)技術(shù),使得算法的準(zhǔn)確率達(dá)到92.19%。上述研究從多個(gè)方面對(duì)服裝圖像分類算法進(jìn)行了改進(jìn),例如引入注意力機(jī)制增強(qiáng)特征融合和改進(jìn)激活函數(shù)改善模型學(xué)習(xí)能力,提升了模型的精度。然而,上述研究仍存在以下不足:a)在提升精度時(shí)忽略了模型復(fù)雜度的上升,推理耗時(shí)較高;b)研究對(duì)象集中于細(xì)分類,對(duì)大類別分類存在不足。

        為了滿足實(shí)際服裝分類應(yīng)用對(duì)算法的實(shí)時(shí)性和準(zhǔn)確性的需求,本研究選用實(shí)時(shí)性能好的MobileNet v2為基礎(chǔ)模型進(jìn)行改進(jìn)。首先,在模型中嵌入CBAM注意力機(jī)制,在不增加網(wǎng)絡(luò)復(fù)雜度的情況下,增強(qiáng)模型對(duì)特征表示的提取能力,提升模型精度;其

        次,基于遷移學(xué)習(xí)增強(qiáng)模型的泛化能力和提高分類精度;最終,在保持算法輕量化和實(shí)時(shí)性的基礎(chǔ)上提升模型準(zhǔn)確率。

        1 算法設(shè)計(jì)

        1.1 基礎(chǔ)理論

        1.1.1 MobileNet v2

        MobileNet v2是谷歌團(tuán)隊(duì)于2018年提出的輕量化網(wǎng)絡(luò)模型[6],其延續(xù)了MobileNet v1網(wǎng)絡(luò)中利用深度可分離卷積輕量化網(wǎng)絡(luò)的思想,深度可分離卷積的基本流程如圖1所示。與普通卷積相比,深度可分離卷積結(jié)合DW卷積(Depthwise convolution)和PW卷積(Pointwise convolution),有效減少了模型參數(shù);并在v1的基礎(chǔ)上加入了倒殘差結(jié)構(gòu)和線性瓶頸結(jié)構(gòu),使得模型收斂速度顯著加快,計(jì)算成本進(jìn)一步降低。深度可分離卷積和普通卷積計(jì)算量的對(duì)比可用式(1)表示:

        式中:PD是深度可分離卷積計(jì)算量,PC是普通卷積計(jì)算量,Dk是卷積核大小,DF是特征矩陣的寬度和高度,M是輸入特征矩陣的通道數(shù),N是輸出特征矩陣的通道數(shù)[14]。

        MobileNet v2借鑒ResNet的殘差連接思想,并在此基礎(chǔ)上提出倒殘差結(jié)構(gòu)。與殘差結(jié)構(gòu)相反,倒殘差結(jié)構(gòu)先使用PW卷積進(jìn)行升維操作,然后利用DW卷積提取特征,最后使用PW卷積對(duì)特征圖作降維處理。這種結(jié)構(gòu)在提取特征時(shí)能夠減少高維信息的丟失。需注意,只有當(dāng)步長為1時(shí),才會(huì)出現(xiàn)殘差連接,如圖2(a)所示;步長為2時(shí)直接采用串聯(lián)結(jié)構(gòu),如圖2(b)所示。倒殘差結(jié)構(gòu)使得網(wǎng)

        絡(luò)允許更小維度的輸入和輸出,從而降低了網(wǎng)絡(luò)的參數(shù)量和計(jì)算量。并且殘差連接有利于梯度傳播,構(gòu)建更深層次網(wǎng)絡(luò)。

        由于倒殘差結(jié)構(gòu)最終輸出的是低維特征信息,而ReLU激活函數(shù)對(duì)于低維的特征信息會(huì)造成比較大的損失。因此MobileNet v2在倒殘差結(jié)構(gòu)中的最后一層卷積層采用線性激活函數(shù),而不是ReLU函數(shù),有效避免了特征信息的損失。

        1.1.2 注意力機(jī)制

        CBAM (Convolutional block attention module)是一種注意力機(jī)制,旨在增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的表達(dá)能力,CBAM計(jì)算原理如圖3所示。

        它由通道注意力模塊(Channel attention module,CAM)和空間注意力模塊(Spatial attention module,SAM)組成。最終得到的特征映射可用式(2)-(3)計(jì)算:

        式中:Fc表示通道注意力特征,Mc表示通道權(quán)重系數(shù),F(xiàn)表示輸入特征,F(xiàn)s表示空間注意力特征,Ms表示通道權(quán)重系數(shù),逐像素乘法運(yùn)算。

        使用通道注意力模塊(CAM)對(duì)輸入的特征圖進(jìn)行處理,如圖4所示。首先,特征圖經(jīng)過兩個(gè)并行的最大池化層和平均池化層進(jìn)行尺度壓縮。然后,通過多層感知機(jī)(Multilayer Perceptron,MLP)模塊處理輸出結(jié)果,并逐元素相加。最終,通過一個(gè)sigmoid激活函數(shù)獲得通道的權(quán)重系數(shù),并將其與輸入特征圖相乘,得到新的特征圖。

        最終得到的通道注意力映射可用式(4)計(jì)算:

        式中:σ表示線性激活函數(shù),Mlp表示多層感知機(jī),F(xiàn)Avg表示平均池化函數(shù),F(xiàn)Max表示最大池化函數(shù)。

        空間注意力模塊(SAM)如圖5所示。SAM通過通道注意力的輸出結(jié)果,分別進(jìn)行最大池化和平均池化,生成兩個(gè)新的特征圖。接著,這兩個(gè)特征圖通過Concat操作進(jìn)行拼接,并經(jīng)過一個(gè)7×7卷積變成單通道的特征圖。然后,將該特征圖通過sigmoid激活函數(shù)生成空間權(quán)重系數(shù)。最后,將該系數(shù)與初始特征圖相乘,得到最終的特征圖。

        式中:σ表示線性激活函數(shù),fconv表示多層感知機(jī),fAvg表示平均池化函數(shù),fMax表示最大池化函數(shù)。

        1.2 算法整體框架

        針對(duì)服裝圖像分類問題,本研究對(duì)MobileNet v2模型進(jìn)行改進(jìn),設(shè)計(jì)了高效的服裝分類算法。本研究提出的改進(jìn)MobileNet v2的模型結(jié)構(gòu)如圖6所示,由輸入層(Input)、普通卷積層(Conv2d)、點(diǎn)卷積(PW卷積)、深度可分離卷積(DW卷積)、通道和空間注意力機(jī)制(CBAM)、基本單元1(Bottleneck_s1)、基本單元2(Bottleneck_s2)和池化層(Avgpool)等組成。

        本研究的設(shè)計(jì)思路:為增強(qiáng)模型對(duì)特征提

        取能力,在MobileNet v2的基本單元Bottleneck_s1和Bottleneck_s2中嵌入注意力機(jī)制,構(gòu)建出帶注意力機(jī)制的基本單元;為避免部分圖像像素變化、差異較大等因素造成對(duì)模型訓(xùn)練精度影響,引入遷移學(xué)習(xí)方法,提高模型的泛化能力和穩(wěn)定性。使用交叉熵?fù)p失作為算法的分類損失函數(shù),交叉熵?fù)p失計(jì)算方式可用式6表示:

        L=-∑yilogpi(6)

        式中:L為交叉熵?fù)p失函數(shù)的值,yi為真實(shí)標(biāo)簽,pi為模型對(duì)第i類的預(yù)測(cè)概率。

        1.3 注意力機(jī)制單元設(shè)計(jì)

        CBAM注意力機(jī)制可以自適應(yīng)獲取特征圖在通道和空間權(quán)重系數(shù),根據(jù)相應(yīng)的權(quán)重系數(shù)可以從復(fù)雜的特征信息中選擇出對(duì)當(dāng)前類別有用關(guān)鍵特征信息,從而強(qiáng)化關(guān)鍵特征信息,能夠有效提升模型的抗噪性能和特征提取能力。

        本研究將CBAM注意力機(jī)制分別嵌入到MobileNet v2中步長為1和步長為2的基本單元模塊Bottleneck_s1和Bottleneck_s2中,使得模型在通道維度和空間維度上都能更加關(guān)注有用特征信息,抑制無用特征信息。CBAM注意力機(jī)制在基本單元中的位置如圖7所示,在原始基本單元的輸出位置分別串聯(lián)通道注意力機(jī)制和空間注意力機(jī)制。

        1.4 遷移學(xué)習(xí)

        在一些深度學(xué)習(xí)場(chǎng)景中,人們期望使用一種方法輔助模型學(xué)習(xí)新知識(shí),降低學(xué)習(xí)成本。而遷移學(xué)習(xí)就是這樣一種方法,能夠運(yùn)用已有的知識(shí)找到和新知識(shí)間的共性,并將這些共性傳遞給新模型,可以增強(qiáng)泛化能力并加快收斂速度。因此遷移學(xué)習(xí)被廣泛應(yīng)用于深度學(xué)習(xí)領(lǐng)域。遷移學(xué)習(xí)更易于關(guān)注有源域和目標(biāo)域的情況,圖8為本研究遷移學(xué)習(xí)流程。

        2 實(shí)驗(yàn)與分析

        2.1 數(shù)據(jù)集介紹

        本研究使用的數(shù)據(jù)集是由德國Zalando公司提供Fashion MNIST數(shù)據(jù)集,涵蓋了70000張10類不同服裝商品的灰度正面圖像,其中訓(xùn)練集共60000張圖像,測(cè)試集共10000張圖像,F(xiàn)ashion MNIST數(shù)據(jù)集的標(biāo)簽及類別如表1所示。

        2.2 實(shí)驗(yàn)環(huán)境及設(shè)置

        本研究實(shí)驗(yàn)平臺(tái)配置如下:CPU為Intel Core I5-8500,搭載2張Tesla P100顯卡,操作系統(tǒng)為Ubuntu14.04,python版本為3.6.9,深度學(xué)習(xí)框架及版本為Pytorch1.7.0。

        模型的訓(xùn)練使用Tesla P100顯卡進(jìn)行加速訓(xùn)練,減少訓(xùn)練時(shí)間。對(duì)數(shù)據(jù)集執(zhí)行隨機(jī)尺寸裁剪、水平翻轉(zhuǎn)和歸一化處理等數(shù)據(jù)增強(qiáng)方式,增強(qiáng)模型的泛化能力。選用Adam作為模型優(yōu)化器,學(xué)習(xí)率設(shè)置為0.001,采用交叉熵?fù)p失函數(shù);訓(xùn)練周期設(shè)置為100輪,每批次訓(xùn)練16張圖像。

        采用準(zhǔn)確率Acc作為分類結(jié)果的衡量指標(biāo),參數(shù)量P衡量模型的大小,推理時(shí)間T衡量模型的實(shí)時(shí)性。準(zhǔn)確率Acc、參數(shù)量P、推理時(shí)間T的具體計(jì)算可用式(7)—(9)表示:

        式中:TP表示正類預(yù)測(cè)準(zhǔn)確的數(shù)量,TN表示負(fù)類預(yù)測(cè)準(zhǔn)確的數(shù)量,F(xiàn)P表示負(fù)類預(yù)測(cè)錯(cuò)誤的數(shù)量,F(xiàn)N表示正類預(yù)測(cè)錯(cuò)誤的數(shù)量。

        式中:W表示卷積核寬度,H表示卷積核高度,Cin1表示輸入通道數(shù),Cout1表示輸出通道數(shù),Cin2表示全連接層輸入節(jié)點(diǎn)數(shù),Cout2表示全連接層輸出節(jié)點(diǎn)數(shù)。

        式中:N表示測(cè)試圖像的數(shù)量,ti表示第i張圖像推理的耗時(shí)。

        2.3 消融實(shí)驗(yàn)

        為驗(yàn)證本研究所提改進(jìn)點(diǎn)對(duì)MobileNet v2基礎(chǔ)模型的性能提升有效,設(shè)置消融實(shí)驗(yàn)。為了驗(yàn)證在MobileNet v2中加入通道和空間注意力機(jī)制是否能夠提升模型準(zhǔn)確率,使用注意力機(jī)制單元

        Bottleneck_s1和Bottleneck_s2分別代替步長為1和步長為2的基本單元;為了驗(yàn)證遷移學(xué)習(xí)對(duì)網(wǎng)絡(luò)模型參數(shù)的優(yōu)化效果,使用遷移學(xué)習(xí)的方式初始化MobileNet v2模型權(quán)重。不同改進(jìn)點(diǎn)在Fashion MNIST數(shù)據(jù)集上的消融實(shí)驗(yàn)訓(xùn)練曲線如圖9所示。其中:A為模型測(cè)試的準(zhǔn)確率,E為訓(xùn)練過程中模型迭代次數(shù),L為模型測(cè)試的損失值。

        消融實(shí)驗(yàn)具體結(jié)果如表2所示。在網(wǎng)絡(luò)引入CBAM注意力機(jī)制的情況下,準(zhǔn)確率提高了0.7%,參數(shù)量僅增加了0.1M;使用遷移學(xué)習(xí)的訓(xùn)練方式,更好地初始化網(wǎng)絡(luò)參數(shù),顯著增強(qiáng)了模型泛化能力,模型準(zhǔn)確率提升2.5%。最終本研究通過引入注意力機(jī)制和遷移學(xué)習(xí),與初始MobileNet v2相比在參數(shù)量僅增加0.1M的情況下,精度提升了3.17%。

        為了直觀體現(xiàn)CBAM注意力機(jī)制對(duì)服裝分類的效果,將不同模型卷積結(jié)果采用熱力圖的方式進(jìn)行可視化展示,如圖10所示,亮度越高的區(qū)域表示更受模型的關(guān)注??梢钥闯?,沒有加入注意力機(jī)制的原始模型關(guān)注點(diǎn)較少且比較分散,包含了無關(guān)的背景信息;而加入CBAM注意力機(jī)制后,模型對(duì)有用信息的關(guān)注度更高,還能有效抑制背景信息的干擾。

        為了進(jìn)一步分析本研究算法在其他分類任務(wù)場(chǎng)景下的性能提升效果,選取大型公共數(shù)據(jù)集DeepFashion中Blazer類別和Dress類別共7380張圖像進(jìn)行消融實(shí)驗(yàn),具體實(shí)驗(yàn)結(jié)果如表3所示??梢钥闯?,本研究算法在DeepFashion數(shù)據(jù)集部分圖像上的準(zhǔn)確率為88.24%,優(yōu)于基礎(chǔ)的MobileNet v2算法,并且每個(gè)改進(jìn)點(diǎn)都會(huì)帶來準(zhǔn)確率的提升。這是因?yàn)镃BAM注意力機(jī)制能夠使模型更加注意有用的特征信息,而遷移學(xué)習(xí)的訓(xùn)練方式使得模型能夠?qū)W習(xí)到先驗(yàn)知識(shí)并具備更強(qiáng)的泛化能力。

        2.4 算法對(duì)比

        當(dāng)前基于深度學(xué)習(xí)的圖像分類模型較多,為了體現(xiàn)本研究改進(jìn)算法的效果,選取主流圖像分類算法ResNet50、EfficientNet v2_l、ShuffleNet v2進(jìn)行對(duì)比。在Fashion MNIST數(shù)據(jù)集上訓(xùn)練,訓(xùn)練過程中每個(gè)模型的超參數(shù)都相同,每完成一個(gè)訓(xùn)練周期,記錄其測(cè)試集準(zhǔn)確率和訓(xùn)練損失值,便于及時(shí)掌握模型的訓(xùn)練情況,確保每個(gè)模型可以在收斂的情況下完成訓(xùn)練。

        不同模型在Fashion MNIST數(shù)據(jù)集上的訓(xùn)練曲線如圖11所示,從圖11中可以看出,改進(jìn)后的模型準(zhǔn)確率有了明顯的提升,超過了測(cè)試的主流模型,且最終損失值也是幾個(gè)模型中最低的。各模型在Fashion MNIST數(shù)據(jù)集上的具體實(shí)驗(yàn)結(jié)果如表4所示。改進(jìn)后的模型準(zhǔn)確率比ResNet50、EfficientNet v2_l、ShuffleNet v2和MobileNet v2分別提高1.85%、1.34%、3.86%、3.17%,且參數(shù)量比ResNet50和EfficientNet v2_l分別減少90.01%、97.9%,平均單張圖像推理速度為7.5ms。本研究算法以較少的計(jì)算損耗實(shí)現(xiàn)了不錯(cuò)的精度和推理速度提升,在實(shí)際場(chǎng)景中具有很高的應(yīng)用價(jià)值。

        2.5 算法測(cè)試

        為了驗(yàn)證本研究所提算法的實(shí)際分類性能,調(diào)用訓(xùn)練完成的權(quán)重文件對(duì)庫內(nèi)和庫外圖像分別進(jìn)行測(cè)試,測(cè)試結(jié)果如圖12所示??梢钥闯?,本研究算法在Fashion MNIST數(shù)據(jù)集上的分類效果很好,能夠精確識(shí)別每一種服裝類別,相應(yīng)的類別概率也基本都為1。而本研究算法在庫外數(shù)據(jù)集上的分類效果同樣很出色,除“Bag”這一類的預(yù)測(cè)概率為0.655外,其他類別服裝的預(yù)測(cè)概率均達(dá)到0.9以上,可見本研究所提算法優(yōu)異的分類性能。不僅對(duì)庫內(nèi)服裝數(shù)據(jù)分類性能優(yōu)秀,對(duì)庫外數(shù)據(jù)也能保持很好的識(shí)別效果。

        其次,為了驗(yàn)證本研究所提分類算法的有效性,使用庫外圖像進(jìn)行了對(duì)比測(cè)試實(shí)驗(yàn),與其他分類方法進(jìn)行對(duì)比評(píng)估,如圖13所示??梢钥闯?,5種分類方法均能將運(yùn)動(dòng)鞋和T恤準(zhǔn)確識(shí)別出來,并且預(yù)測(cè)概率均在90%以上,按照預(yù)測(cè)概率從高到低的順序分別為本研究算法、EfficientNet v2_l、ResNet50、MobileNet v2和ShuffleNet v2。盡管EfficientNet v2_l和本研究算法的預(yù)測(cè)概率很接近,但是EfficientNet v2_l的參數(shù)量是本研究算法的50倍;而雖然ShuffleNet v2參數(shù)量僅為本研究算法的二分之一,但其預(yù)測(cè)概率與本研究算法相差較大。由此可見,本研究算法在保持較低參數(shù)量的同時(shí)還具有很高的分類精度,具有優(yōu)異的性能。

        3 結(jié) 語

        本研究提出了一種基于改進(jìn)MobileNet v2的服裝圖像分類算法,通過強(qiáng)化模型特征信息和增強(qiáng)模型泛化能力的方式提升準(zhǔn)確率。分類精度在Fashion MNIST數(shù)據(jù)集上為93.28%,準(zhǔn)確率在DeepFashion數(shù)據(jù)集上達(dá)到88.24%。

        相較于ResNet50、EfficientNet v2_l、ShuffleNet v2和MobileNet v2模型,分類精度分別提高了1.85%、1.34%、3.86%和3.17%;此外,該算法參數(shù)量低至2.35 M,單張圖像推理速度僅為7.5 ms。改進(jìn)后的算法不僅提升了精度,并且保持了模型的輕量化,對(duì)電商平臺(tái)前期的服裝分類具有較大的應(yīng)用價(jià)值,并為后續(xù)服裝款式及圖案分類研究提供了參考。

        本研究的算法側(cè)重于單標(biāo)簽服裝圖像分類,然而在識(shí)別單個(gè)圖像中的多個(gè)目標(biāo)物體方面存在一些不足。未來的研究將著重于將服裝圖像分類任務(wù)擴(kuò)展為多標(biāo)簽分類,以實(shí)現(xiàn)對(duì)多種服裝類別的分類識(shí)別,以便將其應(yīng)用于更廣泛的服裝分類場(chǎng)景中。

        參考文獻(xiàn):

        [1]中國服裝協(xié)會(huì)網(wǎng).2021—2022年中國服裝電子商務(wù)發(fā)展報(bào)告[R/OL].(2022-05-23)[2023-03-29].http://www.cnga.org.cn/html/shouye/remenzixun/2022/0523/54504.html.

        China National Garment Association website. 2021-2022 China apparel e-commerce development report.[R/OL].(2022-05-23)[2023-03-29]. http://www.cnga.org.cn/html/shouye/remenzixun/2022/0523/54504.html.

        [2]SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]//Conference on Computer Vision and Pattern Recognition. Boston, MA, USA. IEEE, 2015: 1-9.

        [3]CHOLLET F. Xception: Deep learning with depthwise separable convolutions[C]//Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA. IEEE,2017: 1800-1807.

        [4]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84-90.

        [5]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL].(2015-04-10)[2023-03-29]. https://arxiv.org/abs/1409.1556.

        [6]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]// Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA. IEEE, 2016: 770-778.

        [7]IANDOLA F N, Han S, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters andlt; 0.5 MB model size[EB/OL].(2016-11-4)[2023-03-29]. https://arxiv.org/abs/1602.07360.

        [8]SANDLER M, HOWARD A, ZHU M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 4510-4520.

        [9]ZHANG X, ZHOU X, LIN M, et al. Shufflenet: An extremely efficient convolutional neural network for mobile devices[C]// Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 6848-6856.

        [10]曾華福,楊杰,李林紅.基于改進(jìn)ShuffleNet v1的服裝圖像分類算法[J].現(xiàn)代紡織技術(shù),2023,31(2):23-35.

        ZENG Huafu, YANG Jie, LI Linhong. Clothing image classification algorithm based on improved ShuffleNet v1[J]. Advanced Textile Technology, 2023, 31(2): 23-35.

        [11]趙宏偉,劉曉涵,張媛,等.基于關(guān)鍵點(diǎn)注意力和通道注意力的服裝分類算法[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版),2020,50(05):1765-1770.

        ZHAO Hongwei, LIU Xiaohan, ZHANG Yuan, et al. Clothing classification algorithm based on landmark attention and channel attention[J].Journal of Jilin University (Engineering and Technology Edition), 2020, 50(5): 1765-1770.

        [12]李青,冀艷波,郭濠奇,等.基于深度學(xué)習(xí)的女襯衫圖案樣式識(shí)別分類[J].現(xiàn)代紡織技術(shù),2022,30(4):207-213.

        LI Qing, JI Yanbo, GUO Haoqi, et al. Pattern recognition and classification of blouse based on deep learning[J]. Advanced Textile Technology, 2022, 30(4): 207-213.

        [13]LIU K H, LUO D J, HU M, et al. The clothing image classification algorithm based on the improved Xception model[J]. International Journal of Computational Science and Engineering, 2020, 23(3):214.

        [14]陳智超,焦海寧,楊杰,等.基于改進(jìn)MobileNetv2的垃圾圖像分類算法[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2021,55(8):1490-1499.

        CHEN Zhichao, JIAO Haining, YANG Jie, et al. Garbage image classification algorithm based on improved MobileNet v2[J]. Journal of Zhejiang University (Engineering Science), 2021, 55(8): 1490-1499.

        Clothing image classification algorithm based on improved MobileNet v2

        LI Linhonga,b, YANG Jiea,b, JIANG Yanxuana,b, ZHU Haoa

        Abstract: With the continuous development of Internet technology, online clothing shopping has become one of the mainstream ways for people to shop. Consumers can easily browse and purchase various types of clothing from e-commerce platforms at home, without the need to visit physical stores in person. At the same time, online shopping platforms also offer more choices and competitive prices, which is one of the main reasons why people choose to shop for clothing online. According to market research data, as of 2021, the consumption scale of online clothing shopping in China had reached 3.7 trillion yuan, accounting for nearly half of the entire online shopping market, and this number is still growing. However, quickly and accurately classifying a large number of clothing images is a challenging task. Traditional clothing classification requires a lot of time and labor to classify, sort, and label, consuming a lot of manpower and time costs. Moreover, with the annual increase in the volume of online shopping orders, traditional manual classification methods are difficult to handle large amounts of data and cannot meet the needs of rapid classification and processing. On the contrary, clothing classification methods based on deep learning can learn more features and patterns through a large amount of data and iterative training, achieving higher accuracy without human intervention. Therefore, this article proposes a clothing classification algorithm based on improved MobileNet v2.

        The improved algorithm mainly embeds channel and spatial attention mechanisms into the basic unit of MobileNet v2 to form an attention mechanism basic unit, giving useful features greater weight, suppressing useless features, and enhancing the network's feature extraction ability. In addition, transfer learning is used to optimize the model parameters, and enhance the model's generalization ability and stability, so as to further improve the classification accuracy. Experimental results on the Fashion MNIST dataset show that the improved algorithm achieves an average accuracy rate of 93.28%, which is respectively 1.85%, 1.34%, 3.86%, and 3.17% higher than that of the ResNet50, EfficientNet v2_l, ShuffleNet v2, and MobileNet v2 models, effectively improving the problem of low accuracy in clothing image classification.

        The algorithm proposed in this article achieves high-precision clothing classification, which not only provides consumers with a better shopping experience but also provides e-commerce platforms with more accurate clothing recommendation services, and has high application value. However, the algorithm in this study focuses on single-label clothing image classification, and there are some limitations in recognizing multiple objects within a single image. Future research will emphasize expanding the clothing image classification task to multi-label classification, and further exploring how to handle multiple clothing categories in the same image, in order to apply it to a broader range of clothing classification scenarios.

        Keywords: clothing classification; MobileNet v2; deep learning; attention mechanism; transfer learning

        收稿日期:2023-03-29 網(wǎng)絡(luò)出版日期:2023-08-30

        基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(62063009)

        作者簡介:李林紅(1999—),男,安徽六安人,碩士研究生,主要從事計(jì)算機(jī)視覺方面的研究。

        通信作者:楊杰,E-mail:yangjie@jxust.edu.cn

        猜你喜歡
        遷移學(xué)習(xí)注意力機(jī)制深度學(xué)習(xí)
        基于深度學(xué)習(xí)的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個(gè)基于知識(shí)庫的問答系統(tǒng)
        基于多特征融合的跨域情感分類模型研究
        奇異值分解與移移學(xué)習(xí)在電機(jī)故障診斷中的應(yīng)用
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        少妇厨房愉情理伦片免费| 一本色道久久亚洲精品| 亚洲精品宾馆在线精品酒店| 99久久久国产精品免费蜜臀| 偷窥村妇洗澡毛毛多| 国产在线AⅤ精品性色| 乳乱中文字幕熟女熟妇| 亚洲av无码专区在线| 无码人妻丰满熟妇片毛片| 无码在线观看123| 午夜一区二区三区免费观看| 亚洲无线码1区| 丝袜美腿亚洲综合在线播放| 国产午夜片无码区在线播放| 人妻在线日韩免费视频| 欧美日韩中文亚洲另类春色| 视频一区二区三区国产| 性欧美长视频免费观看不卡| 亚洲成色www久久网站夜月| 日韩在线观看网址| 国产在线观看女主播户外| 久久久久国色av免费观看性色| 116美女极品a级毛片| 国产精品欧美亚洲韩国日本| 国产成人av三级在线观看韩国| 97碰碰碰人妻无码视频| 极品熟妇大蝴蝶20p| 亚洲福利第一页在线观看| av网站在线观看大全| 精品少妇人妻av无码久久| 中文字幕久久久久久精| 国产自拍成人在线免费视频| 少妇夜夜春夜夜爽试看视频| 免费黄色电影在线观看| 亚洲日本精品一区久久精品| 黄射视频在线观看免费| 精品国产乱码久久久久久影片| av天堂精品久久久久| 看国产亚洲美女黄色一级片| 亚洲国产精品久久电影欧美| 在线播放a欧美专区一区|