亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積和Transformer融合的服裝分類算法

        2023-09-27 01:06:40朱淑暢李文輝
        關(guān)鍵詞:殘差卷積服裝

        朱淑暢, 李文輝

        (1. 吉林工程技術(shù)師范學(xué)院 藝術(shù)與設(shè)計學(xué)院, 長春 130052;2. 吉林大學(xué) 計算機科學(xué)與技術(shù)學(xué)院, 長春 130012)

        近年來, 服裝購物推薦、 虛擬試衣等服裝領(lǐng)域相關(guān)技術(shù)快速興起, 這些技術(shù)可根據(jù)用戶的喜好和風(fēng)格向其推薦適合的服裝款式和搭配. 但這些技術(shù)都需要服裝圖片分類作為基礎(chǔ)算法提供支持, 因此提高自動化服裝分類算法精度具有重要意義.

        與其他分類任務(wù)相同, 早期的服裝分類算法利用傳統(tǒng)方法解決服裝分類問題. Pawening等[1]使用灰度共生矩陣、 局部二值模式和不變矩陣提取服裝圖像特征, 并利用主成分分析法對提取到的特征進(jìn)行降維, 最后利用支持向量機(SVM)進(jìn)行服裝圖片分類. Yamazaki[2]使用Gabor濾波器提取服裝圖像的特征, 實現(xiàn)單個服裝圖像的分類. Surakarin等[3]提出了一種基于加速魯棒紋理特征的服裝分類方法, 利用局部二值模式融合特征, 提高了模型的抗干擾能力. 傳統(tǒng)的圖像特征提取方法在理想條件下能起到分類作用, 但隨著服裝款式的增多與數(shù)據(jù)量的增大, 傳統(tǒng)方法難以滿足實際應(yīng)用的需求.

        深度學(xué)習(xí)因其優(yōu)異的特征提取能力而受到廣泛關(guān)注, 給服裝圖像分類任務(wù)提供了新的解決方案. Liu等[4]制作并發(fā)布了一個大規(guī)模且具有高樣本標(biāo)注質(zhì)量的服裝語義數(shù)據(jù)集DeepFashion, 極大促進(jìn)了基于深度學(xué)習(xí)技術(shù)的服裝圖像分類任務(wù)的發(fā)展; 包青平等[5]提出了一種基于度量學(xué)習(xí)的服裝分類方法, 并使用三元組損失函數(shù)提升了模型分類性能; 厲智等[6]從信息融合、 損失函數(shù)改進(jìn)的角度提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)的服裝圖像分類檢索方法; Dong等[7]將VGGNet與空間池化金字塔相結(jié)合, 并用于服裝圖像分類任務(wù), 解決了服裝圖像輸入尺度需要固定的問題, 擴大了模型的應(yīng)用場景; 趙宏偉等[8]通過引入關(guān)鍵點注意力機制和通道注意力機制學(xué)習(xí)服裝關(guān)鍵區(qū)域的特性信息; Tan等[9]采用指數(shù)線性單元(ELU)、 ReLU激活函數(shù)和L2正則化改善Xception模型的非線性學(xué)習(xí)能力和泛化性; 高櫻萍等[10]采用預(yù)訓(xùn)練的VGG16網(wǎng)絡(luò)模型, 并在服裝圖像數(shù)據(jù)集上進(jìn)行遷移學(xué)習(xí), 提升了VGG16模型在服裝圖像分類任務(wù)中的精度.

        由于卷積神經(jīng)網(wǎng)絡(luò)擅長提取局部特征信息, 但難以提取全局特征信息, 因此基于CNN的服裝分類算法難以滿足海量多樣的服裝分類需求. 針對該問題, 本文提出一種卷積注意力融合網(wǎng)絡(luò)(convolutional attention fusion network, CAFNet), CAFNet結(jié)合了CNN和Transformer各自的優(yōu)勢, 既能提取圖像的局部特征, 又能提取圖像的全局特征, 使CAFNet能學(xué)習(xí)到更多的特征信息. 在數(shù)據(jù)集Fashion-MNIST和DeepFashion上與其他分類方法進(jìn)行了對比實驗, 實驗結(jié)果表明該算法性能優(yōu)異.

        1 預(yù)備知識

        1.1 ResNet

        深度殘差網(wǎng)絡(luò)(deep residual network, ResNet)[11]引入了殘差連接和跳躍連接解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和模型退化問題, 使網(wǎng)絡(luò)能更深、 更容易地訓(xùn)練, 同時保持較高的準(zhǔn)確性.

        殘差連接是ResNet的關(guān)鍵組成部分, 它通過在網(wǎng)絡(luò)中引入跨層的直接連接, 使網(wǎng)絡(luò)在學(xué)習(xí)過程中可以更容易地傳遞梯度和信息. 殘差連接允許跳過某些層, 直接將輸入傳遞給后面的層, 從而使網(wǎng)絡(luò)可以更直接地學(xué)習(xí)輸入的殘差(即前后層輸出之差), 而不是直接學(xué)習(xí)輸入的映射. 這樣的設(shè)計有效解決了梯度消失問題, 使網(wǎng)絡(luò)可以更深地堆疊層, 并且更容易優(yōu)化和訓(xùn)練. 跳躍連接是殘差連接的一種形式, 它通過將前面層的輸出直接與后面層的輸入相加, 形成一種“跳躍”的連接. 這種連接方式使信息可以更快速地傳播, 避免了信息在深層網(wǎng)絡(luò)中逐層傳遞過程中產(chǎn)生信息損失. 在網(wǎng)絡(luò)結(jié)構(gòu)上, ResNet采用層級結(jié)構(gòu), 由多個殘差塊的堆疊而成. 在ResNet中, 每個殘差塊由2個或3個卷積層組成, 其中包含一個殘差連接. 常見的殘差塊有兩種類型: 基本塊和瓶頸塊, 如圖1所示. 基本塊由兩個3×3的卷積層組成, 而瓶頸塊由一個1×1的卷積層、 一個3×3的卷積層和一個1×1的卷積層組成. 瓶頸塊在減少計算量的同時, 保持了較高的特征表達(dá)能力.

        圖1 ResNet兩種殘差塊結(jié)構(gòu)示意圖Fig.1 Schematic diagram of two residual block structures in ResNet

        綜上, 殘差連接和跳躍連接是ResNet網(wǎng)絡(luò)的關(guān)鍵組成部分, 通過直接傳遞梯度和信息, 解決了深層網(wǎng)絡(luò)中的梯度消失和模型退化問題. 殘差連接允許網(wǎng)絡(luò)學(xué)習(xí)輸入的殘差, 使網(wǎng)絡(luò)更容易優(yōu)化和訓(xùn)練, 而跳躍連接通過直接將前面層的輸出與后面層的輸入相加, 實現(xiàn)了特征的融合和保留, 加快了信息傳播的速度.

        1.2 Vision Transformer

        近年來, Transformer[12]因其具有更好的并行計算性能和更長的上下文關(guān)系建模能力, 在自然語言處理領(lǐng)域取得了顯著的成果和突破, 并逐漸被應(yīng)用于其他領(lǐng)域(如計算機視覺鄰域). 在傳統(tǒng)的計算機視覺任務(wù)中, 如圖像分類、 目標(biāo)檢測和圖像生成, CNN一直是主流的網(wǎng)絡(luò)模型. 但CNN存在一些局限性, 例如對輸入圖像的局部關(guān)系建模較強, 而對全局上下文的建模能力有限. 為克服這些限制, 研究人員開始探索將Transformer模型應(yīng)用于計算機視覺任務(wù).

        Vision Transformer(ViT)[13]將Transformer模型應(yīng)用到圖像分類任務(wù)中并取得了較好的效果. ViT模型基于Transformer的架構(gòu), 通過將圖像數(shù)據(jù)轉(zhuǎn)化為序列數(shù)據(jù), 實現(xiàn)了對圖像中像素之間的全局關(guān)系進(jìn)行建模. ViT模型先將圖像分割為一系列固定大小的圖像塊(Patch); 然后將每個圖像塊轉(zhuǎn)換為向量表示, 并將這些向量輸入Transformer編碼器進(jìn)行處理, 利用自注意力機制捕捉圖像內(nèi)部特征和圖像之間的關(guān)系, 從而捕捉圖像中的全局上下文信息; 最后經(jīng)過編碼器的輸出并經(jīng)過全局平均池化或其他池化操作, 用于最終的分類或回歸任務(wù). ViT模型結(jié)構(gòu)示意圖如圖2所示.

        圖2 ViT模型結(jié)構(gòu)示意圖Fig.2 Schematic diagram of ViT model structure

        與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)相比, ViT模型通過Transformer的自注意力機制捕捉全局上下文信息, 而不僅局限于局部感受野. 此外, ViT模型還具有較強的可解釋性, 因為它通過自注意力權(quán)重可視化了模型對圖像不同區(qū)域的關(guān)注程度. 這些優(yōu)勢使得ViT模型在圖像分類、 目標(biāo)檢測、 圖像生成等計算機視覺任務(wù)中表現(xiàn)出色, 并且逐漸成為一種有競爭力的模型架構(gòu).

        2 算法設(shè)計

        研究表明, 圖像像素之間的長距離關(guān)系對計算機視覺任務(wù)至關(guān)重要. 但傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在局部特征提取方面具有優(yōu)勢, 卻很難捕獲全局特征信息. 而ViT模型利用自注意力機制和多層感知機結(jié)構(gòu)可有效提取全局特征信息. 為充分發(fā)揮CNN和ViT各自的優(yōu)勢, 本文提出一種卷積注意力融合網(wǎng)絡(luò)CAFNet. CAFNet采用并行結(jié)構(gòu), 由一個CNN分支和一個Transformer分支組成, 分別遵循ResNet32和ViT模型的設(shè)計. 由于CNN和Transformer分支提取的特征存在差異, 無法直接融合. 因此, 本文設(shè)計一個特征融合模塊消除它們之間的差異, 并將兩種風(fēng)格的特征進(jìn)行融合. 特征融合模塊由一個卷積核大小為1×1的卷積層、 平均池化層和正則化層三部分組成. CAFNet由卷積殘差模塊、 自注意力模塊、 特征融合模塊和全連接層構(gòu)成, 其中特征融合模塊作為卷積殘差模塊和自注意力模塊之間的橋梁, 用于消除它們之間的特征差異. CAFNet的總體結(jié)構(gòu)如圖3所示.

        圖3 CAFNet整體結(jié)構(gòu)示意圖Fig.3 Schematic diagram of overall structure of CAFNet

        當(dāng)輸入圖像到CAFNet時, 同時經(jīng)過CNN分支和Transformer分支的處理. Transformer分支與ViT模型結(jié)構(gòu)類似, 需要使用Patch Embedding模塊先將圖像分割成一系列固定大小的圖像塊, 然后將每個圖像塊轉(zhuǎn)換為向量表示, 以便輸入到自注意力模塊進(jìn)行上下文特征提取. 在CAFNet中, 特征提取過程包括殘差塊和自注意力模塊的輸出同時輸入特征融合模塊進(jìn)行特征融合. 融合后的特征圖再作為輸入傳遞給下一個殘差塊和自注意力模塊, 最終將最后一層特征融合模塊輸出的特征輸入全連接層進(jìn)行分類. 在優(yōu)化過程中, CAFNet使用交叉熵?fù)p失(cross-entropy loss, CE-loss)作為損失函數(shù)進(jìn)行訓(xùn)練. CAFNet中的特征融合模塊具有連接CNN分支和Transformer分支特征信息的橋梁作用. 這種結(jié)構(gòu)充分結(jié)合了CNN和Transformer的優(yōu)勢, 能最大程度地保留局部特征和全局表示的表征能力, 使CAFNet具有強大的特征學(xué)習(xí)能力, 能滿足當(dāng)前服裝分類任務(wù)的需求.

        3 實 驗

        3.1 數(shù)據(jù)集

        為驗證本文方法的有效性, 分別在Fashion-MNIST[14]和DeepFashion[4]兩個服裝分類數(shù)據(jù)集上進(jìn)行實驗驗證. 數(shù)據(jù)集Fashion-MNIST涵蓋了半袖、 褲子和裙子等10種類別的共70 000張商品的正面圖片, 其中包含60 000張訓(xùn)練集圖片和10 000張測試集圖片, 每張圖片都是一個大小為28×28的灰度圖像. 該數(shù)據(jù)集示例如圖4所示. 數(shù)據(jù)集DeepFashion是一個大規(guī)模的時尚服裝圖像數(shù)據(jù)集, 每張圖片是大小為224×224的彩色圖像, 用于服裝分類、 檢索和生成任務(wù). 該數(shù)據(jù)集包含超過289 222張來自不同時尚場景的圖像, 涵蓋了各種服裝類別、 風(fēng)格和姿勢. 這些圖像經(jīng)過了精確的標(biāo)注, 包括服裝類別、 屬性、 邊界框和關(guān)鍵點等信息. 該數(shù)據(jù)集中的服裝類別包括上衣、 裙子、 褲子、 鞋子等, 屬性標(biāo)注則涵蓋了顏色、 紋理、 款式等多方面, 數(shù)據(jù)集示例如圖5所示.

        圖4 Fashion-MNIST服裝分類數(shù)據(jù)集示例Fig.4 Example of Fashion-MNIST clothing classification dataset

        3.2 實驗設(shè)置

        本文實驗?zāi)P褪褂肞ython作為程序設(shè)計語言在深度學(xué)習(xí)框架Pytorch上實現(xiàn), 并使用Pytorch官方的數(shù)據(jù)增強方法對訓(xùn)練集進(jìn)行在線數(shù)據(jù)增強. 在數(shù)據(jù)集Fashion-MNIST和DeepFashion上均使用隨機梯度下降(stochastic gradient descent, SGD)優(yōu)化器優(yōu)化網(wǎng)絡(luò)參數(shù). 在數(shù)據(jù)集Fashion-MNIST上模型迭代訓(xùn)練的總次數(shù)為10, 初始學(xué)習(xí)率為0.01, 批量大小為64, 權(quán)重衰減為0.000 5, 動量為0.9. 在數(shù)據(jù)集DeepFashion上, 模型的初始學(xué)習(xí)率為0.1, 批量大小為128, 權(quán)重衰減為0.000 5, 動量為0.9, 每個模型迭代訓(xùn)練的總次數(shù)為100次, 且在模型訓(xùn)練過程中學(xué)習(xí)率會隨著訓(xùn)練次數(shù)的變化而變化, 具體變化為在訓(xùn)練的第30,60和90次時將學(xué)習(xí)率乘以0.1. 本文所有實驗均在NVIDIA Geforce RTX 3090上實現(xiàn).

        3.3 實驗結(jié)果

        為驗證本文方法的有效性, 分別在小型數(shù)據(jù)集Fashion-MNIST和大型數(shù)據(jù)集DeepFashion上進(jìn)行實驗驗證. 在所有實驗中本文方法CAFNet都是由一個ResNet32分支和一個Transformer分支組成. 首先在數(shù)據(jù)集Fashion-MNIST上與其他主流網(wǎng)絡(luò)進(jìn)行對比實驗, 實驗結(jié)果列于表1.

        表1 在數(shù)據(jù)集Fashion-MNIST上CAFNet與其他模型分類的準(zhǔn)確率對比Table 1 Comparison of classification accuracy of CAFNet with other models on Fashion-MNIST dataset %

        由表1可見, CAFNet在小型數(shù)據(jù)集Fashion-MNIST上性能優(yōu)異. CAFNet在top1,top3,top5指標(biāo)上都取得了最優(yōu)的準(zhǔn)確率. 其中top1準(zhǔn)確率比AlexNet和ResNet32分別提高了1.78%,0.35%; top3準(zhǔn)確率分別提高了0.26%,0.15%; top5準(zhǔn)確率分別提高了0.11%,0.04%. 由于數(shù)據(jù)集Fashion-MNIST是一個小型數(shù)據(jù)集, 模型易出現(xiàn)過擬合的現(xiàn)象, CAFNet相比于其他網(wǎng)絡(luò)模型性能提升較小. 因此, 為進(jìn)一步驗證CAFNet的有效性, 本文在大型數(shù)據(jù)集DeepFashion上進(jìn)行對比實驗, 實驗結(jié)果列于表2.

        表2 在數(shù)據(jù)集DeepFashion上CAFNet與其他模型分類的準(zhǔn)確率對比Table 2 Comparison of classification accuracy of CAFNet with other models on DeepFashion dataset %

        由表2可見, CAFNet相比于AlexNet和VGGNet這類沒有殘差塊的網(wǎng)絡(luò)結(jié)構(gòu)具有強大的性能優(yōu)勢. 與ResNet20相比, CAFNet在top1,top3,top5準(zhǔn)確率分別提高了9.3%,6.1%,4.3%. CAFNet在與較深層的ResNet50相比同樣表現(xiàn)出優(yōu)勢, 在top1,top3,top5準(zhǔn)確率分別提高了0.7%,0.6%,0.6%. 實驗結(jié)果證明, 本文方法在數(shù)據(jù)集DeepFashion服裝圖像分類任務(wù)中具有良好的特征提取能力.

        此外, 本文還進(jìn)行了消融實驗驗證CAFNet的有效性. CAFNet與基線ResNet32的消融實驗結(jié)果列于表3.

        表3 CAFNet與基線ResNet32分類的準(zhǔn)確率對比Table 3 Comparison of classification accuracy between CAFNet and baseline ResNet32 %

        CAFNet是以ResNet32為主干網(wǎng)絡(luò)添加自注意力模塊和特征融合模塊構(gòu)成的, 由表3可見, CAFNet在top1,top3,top5準(zhǔn)確率相比于ResNet32分別提高了6.9%,2.5%,2.9%. 上述實驗結(jié)果有效證明了融合卷積運算提取的局部特征和自注意力機制提取的全局特征能增強網(wǎng)絡(luò)的表征學(xué)習(xí)能力.

        綜上所述, 針對傳統(tǒng)基于卷積神經(jīng)網(wǎng)絡(luò)的服裝分類算法無法滿足海量多樣服裝分類需求的問題, 提出一種卷積注意力融合的服裝分類網(wǎng)絡(luò). 該網(wǎng)絡(luò)采用并行結(jié)構(gòu), 包含一個ResNet分支和一個Transformer分支, 充分利用卷積運算提取的局部特征和自注意力機制提取的全局特征, 以增強網(wǎng)絡(luò)的表征學(xué)習(xí)能力, 從而提高服裝分類算法的性能和泛化能力. 為驗證該方法的有效性, 在數(shù)據(jù)集Fashion-MNIST和DeepFashion上進(jìn)行了對比實驗. 結(jié)果表明: 在數(shù)據(jù)集Fashion-MNIST上, 該方法取得了93.58%的準(zhǔn)確率; 在數(shù)據(jù)集DeepFashion上, 該方法取得了71.1%的準(zhǔn)確率; 該方法優(yōu)于其他對比方法的實驗結(jié)果.

        猜你喜歡
        殘差卷積服裝
        基于雙向GRU與殘差擬合的車輛跟馳建模
        讓人心碎的服裝
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        現(xiàn)在可以入手的mina風(fēng)高性價比服裝
        服裝家紡個股表現(xiàn)
        平穩(wěn)自相關(guān)過程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        亚洲AV秘 无码二区在线| 无码国产精品久久一区免费| 女人被狂躁到高潮视频免费网站| 日韩AV不卡六区七区| 国产精品国产三级国产在线观 | 日韩av午夜在线观看| 久久久久99精品成人片试看| 女人的天堂av免费看| 国产精品后入内射日本在线观看 | 久久国产精品av在线观看| 国产人妖网站在线视频| 国产男女猛烈无遮挡免费网站 | 97成人精品| 国产蜜臀精品一区二区三区| 中文字幕一区二区三区的| 色橹橹欧美在线观看视频高清 | 亚洲熟女乱色综合亚洲图片| 伊人久久亚洲综合影院首页| 久久精品国产亚洲不卡| 亚洲 日韩 激情 无码 中出| 国产亚洲情侣一区二区无| 91狼友在线观看免费完整版| 国产日产亚洲系列首页| 国产乱子伦| 亚洲视频在线看| 亚洲天堂av另类在线播放| 免费久久99精品国产| 国产成年无码v片在线| 精品午夜一区二区三区久久| 熟女少妇精品一区二区三区| 一女被多男玩喷潮视频| 国产精品一区二区久久| 国产白浆精品一区二区三区| 亚洲国产成人av二区| 久青草久青草视频在线观看| 亚洲精品成人网线在线播放va| 久久99精品综合国产女同| 国产肉体xxxx裸体784大胆| 91伊人久久| 成年男女免费视频网站点播| 成人中文乱幕日产无线码|