任永亮, 宋 田, 毋 濤
1(西安工程大學(xué) 計(jì)算機(jī)科學(xué)學(xué)院, 西安 710048)
2(山東如意毛紡服裝集團(tuán)股份有限公司 公司調(diào)度中心, 濟(jì)寧 272004)
隨著電子商務(wù)的崛起, 人們選擇網(wǎng)購(gòu)的方式購(gòu)買商品變得越來(lái)越普遍, 據(jù)數(shù)據(jù)統(tǒng)計(jì), 服裝行業(yè)在電子商務(wù)的市場(chǎng)銷售額占比已經(jīng)高達(dá)近30%, 中國(guó)消費(fèi)者服裝通過(guò)線上購(gòu)買的方式占比近80%. 目前, 購(gòu)物網(wǎng)站比如淘寶, 拼多多主要通過(guò)人工輸入文本關(guān)鍵字的形式搜索商品鏈接, 但是, 當(dāng)用戶需要的商品周邊信息不明確時(shí), 這種檢索的方式很難達(dá)到消費(fèi)者的真實(shí)需求[1].而需要快速地找到同類型的服裝的前提是需要先進(jìn)行服裝的識(shí)別和精確分類, 識(shí)別不同的服裝類別在不斷增長(zhǎng)的時(shí)尚業(yè)中具有很高的潛在價(jià)值, 可以監(jiān)測(cè)和分類供商業(yè)使用的服裝. 由于商業(yè)市場(chǎng)上服裝產(chǎn)品繁多,人工識(shí)別服裝既費(fèi)時(shí)又費(fèi)力, 并且對(duì)同一幅圖片受主觀性的影響不同的人可能產(chǎn)生不一致的理解, 進(jìn)而影響檢索結(jié)果. 因此亟需要一種準(zhǔn)確而又高效的服裝分類方法.
針對(duì)服裝圖像的分類問(wèn)題, 研究人員提出了很多的服裝分類算法和網(wǎng)絡(luò)模型, 在基于圖像內(nèi)容的服裝分類方法領(lǐng)域方面. Willimon 等[2]提出了一種稱為L(zhǎng)C-S-H (low level, characteristics, selection mask, high level)的中層服裝分類方法, 該方法將問(wèn)題分解為高(H)、低(L)和多個(gè)中層(特征(C)、選擇掩模(S))層,并產(chǎn)生“局部”解決方案來(lái)解決全局分類問(wèn)題. Huo 等[3]還提出了一種基于服裝局部和整體特征進(jìn)行融合的分類方法對(duì)自然環(huán)境場(chǎng)景生活中的各種服裝造型進(jìn)行融合分類, 實(shí)驗(yàn)證明了此方法的有效性. Wang 等[4]提出了一種知識(shí)引導(dǎo)的時(shí)尚網(wǎng)絡(luò)來(lái)解決視覺(jué)時(shí)尚分析的問(wèn)題, 例如時(shí)尚地標(biāo)定位和服裝品類分類. 建議的時(shí)裝模型利用了該領(lǐng)域的高級(jí)人類知識(shí), 在大規(guī)模時(shí)尚數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果證明時(shí)尚語(yǔ)法網(wǎng)絡(luò)的優(yōu)越性能. 另外基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò), 研究者對(duì)卷積神經(jīng)網(wǎng)絡(luò)通過(guò)不同方式做了優(yōu)化改進(jìn), 目的是能夠在服裝分類的性能, 準(zhǔn)確率或者速度上有所提升. 張振煥等[1]提出通過(guò)調(diào)整批量歸一化層、激活函數(shù)層、卷積層的排列順序和池化層+卷積層的排列順序來(lái)改變參差的優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)提高服裝的精度. 王雅靜等[5]提出了基于BP 神經(jīng)網(wǎng)絡(luò)算法的女性服裝方面的款式分類方法, 但是沒(méi)有具體說(shuō)明服裝的分類種類和對(duì)比性不足等問(wèn)題, 而且僅限于女裝. 劉童童[6]提出了通過(guò)計(jì)算每一個(gè)卷積層的卷積核容量和覆蓋率來(lái)評(píng)估網(wǎng)絡(luò)分類效率的方式, 使得深層卷積神經(jīng)網(wǎng)絡(luò)可以縮短訓(xùn)練時(shí)間, 同時(shí)提高了資源利用率. 高妍等[7]將HyperNet 網(wǎng)絡(luò)、空間變換網(wǎng)絡(luò)(STN), 卷積神經(jīng)網(wǎng)絡(luò)R-FCN 算法相融合的方式進(jìn)行對(duì)服裝圖像的識(shí)別和分類, 提高了分類準(zhǔn)確率, 減少了訓(xùn)練時(shí)間, 但是存在分類屬性不夠精確, 復(fù)雜背景下對(duì)服裝圖像的檢測(cè)影響比較大. 楊天祺等[8]通過(guò)批量標(biāo)準(zhǔn)歸一化, 改進(jìn)了卷積層組織結(jié)構(gòu)、增加了冗余分類器的方式大大提高了服裝的圖像歸一化分類的準(zhǔn)確率和速度. 嚴(yán)安等[9]為了解決復(fù)雜背景下的服裝圖片的分類, 在AlexNet 模型的結(jié)構(gòu)上增加一個(gè)全連接層, 提出了一種九層的卷積神經(jīng)網(wǎng)絡(luò),但是在數(shù)據(jù)集上的選擇的每類服裝的數(shù)量不均勻, 缺乏說(shuō)服力. 陳巧紅等[10]由于使用多尺度深度可分離卷積來(lái)提升模型特征數(shù)據(jù)信息的豐富度, 多尺度SEXception 模型在復(fù)雜的場(chǎng)景下可以穩(wěn)定較高的準(zhǔn)確率,提高了魯棒性, 但是所提模型的結(jié)構(gòu)更加復(fù)雜, 增加了一定的參數(shù)量和計(jì)算量. 上述針對(duì)服裝圖像分類, 從多個(gè)方向?qū)矸e神經(jīng)網(wǎng)絡(luò)進(jìn)行了改進(jìn), 如增加卷積層, 批量歸一化, 調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)順序等, 但是由于網(wǎng)絡(luò)深度的不斷增加, 參數(shù)量過(guò)大, 運(yùn)行時(shí)間長(zhǎng)等問(wèn)題依然存在.
本文針對(duì)卷積神經(jīng)網(wǎng)絡(luò)在處理圖像分類時(shí)參數(shù)過(guò)多, 訓(xùn)練時(shí)間過(guò)長(zhǎng)等問(wèn)題提出了利用一種通道剪枝方法[11]來(lái)加速深度可分離卷積的輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)Xception, 并嵌入SE-Net 模塊[12]提升服裝圖像分類準(zhǔn)確率, 使模型更加穩(wěn)定.
卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)是一種比較常用的人工神經(jīng)網(wǎng)絡(luò), 常被應(yīng)用在圖像識(shí)別、圖像分類和圖像分割等領(lǐng)域. 它是由卷積層、池化層和全連接層是相互堆疊在一起形成的CNN 架構(gòu)[13],如圖1 所示.
圖1 一個(gè)規(guī)則的三層神經(jīng)網(wǎng)絡(luò)與一個(gè)規(guī)則的CNN
CNN 的標(biāo)準(zhǔn)來(lái)自LeCun 等的作品《Gradientbased learning applied to document recognition》[14], 他們首次在圖像識(shí)別和分類領(lǐng)域成功地使用卷積神經(jīng)網(wǎng)絡(luò), 1998 年, LeCun 創(chuàng)建了一種最早的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu), 稱為L(zhǎng)eNet5 架構(gòu). 2012 年, Krizhevsky 等[15]提出的AlexNet 網(wǎng)絡(luò)模型在ILSVRC (image net large scale visual recognition challenge)網(wǎng)絡(luò)圖像分類競(jìng)爭(zhēng)中獲得第一名, 錯(cuò)誤率比第二名低約10%, AlexNet 在卷積數(shù)據(jù)層種采用ReLU 作為數(shù)據(jù)激勵(lì)函數(shù), 使用了隨機(jī)數(shù)據(jù)的失活和動(dòng)態(tài)數(shù)據(jù)屬性增強(qiáng)技術(shù), 縮短了模型的收斂時(shí)間. 2013 年, Zeiler 等[16]提出的ZF-Net 在2013年ILSVRC 圖像分類算法的比賽中取得第一名, 是在AlexNet 的基礎(chǔ)上做了將第一個(gè)卷積核大小調(diào)整為7×7, 步長(zhǎng)減半的處理, 取得較好的分類效果. 2015年, Simonyan 等[17]隨后提出了一種使用較小卷積分類核可以代替大卷積分類核的一種VGG-Net 分類模型,同時(shí)大大增加了模型層的深度; Szegedy 等[18]提出了采用不同類型大小卷積核可以提升分類準(zhǔn)確度的GoogLeNet 模型. 2016 年He 等[19]關(guān)于CNN 的退化問(wèn)題提出了Res-Net 模型. 2017 年, Chollet[20]在CVPR 2017 會(huì)議中提出的Xception 模型在服裝圖像分類上取得了優(yōu)于其他模型的效果.
本文研究的框架是基于Xception 模型構(gòu)建, 該框架由輸入層, 中層和輸出層3 個(gè)主要組成部分共同組成, 具體結(jié)構(gòu)如圖2 所示. 它是基于InceptionV3 模型的基礎(chǔ)上做出的改進(jìn). Xception 包括36 個(gè)卷積層14 個(gè)模塊, 采用深度可分離卷積來(lái)進(jìn)行替換Inception V3 中卷積模塊,同時(shí)加入residual learning 結(jié)構(gòu), 除了第一和最后一個(gè)卷積模塊, 中間每一個(gè)模塊都有殘差模塊連接. Xception網(wǎng)絡(luò)與Inception 網(wǎng)絡(luò)比較相似, 但有不同之處. 前者首先執(zhí)行通道空間卷積操作, 每次卷積完成操作之后它都加入了分批歸一化和激活函數(shù)ReLU. 中間模塊采用殘差直連結(jié)構(gòu), 可以減少網(wǎng)絡(luò)復(fù)雜性, 在數(shù)據(jù)量比較大的服裝圖像數(shù)據(jù)集上, 訓(xùn)練效果比Inception V3 更好.
圖2 Xception 模型的主要網(wǎng)絡(luò)模塊示意圖
SE-Net (squeeze-and-excitation networks)模型是由Momenta 公司的研發(fā)團(tuán)隊(duì)的高級(jí)工程師Hu 等[12]提出, 該網(wǎng)絡(luò)模塊在2017 年ILSVRC 技術(shù)挑戰(zhàn)賽國(guó)際圖像處理分類比賽中獲得了第一名. SE-Net 模塊不是一個(gè)全新、完整的CNN 網(wǎng)絡(luò)模型, 是一種子可以直接嵌入其他各種網(wǎng)絡(luò)模型中的子模塊. SE 模塊的結(jié)構(gòu)圖如圖3 所示, 結(jié)構(gòu)操作流程通過(guò)使用Squeeze, Excitation和Reweight 三個(gè)基本操作流程來(lái)重標(biāo)定前面得到的特征. 給定一個(gè)新的輸入特征x, 特征通道數(shù)用C1表示, 通過(guò)一系列卷積等一般函數(shù)變換后得到一個(gè)特征通道數(shù)為C2的輸入特征.
圖3 SE 模塊結(jié)構(gòu)圖
(1) Squeeze 信道特征向量壓縮統(tǒng)計(jì)操作, 為了有效解決信道特征向量依賴性的問(wèn)題, 首先將一個(gè)全局空間信息特征壓縮到一維信道描述符中, 通過(guò)使用全局平均池來(lái)直接生成一維通道特征統(tǒng)計(jì)數(shù)據(jù)公式實(shí)現(xiàn),得到包含c個(gè)實(shí)數(shù)的一維信道特征向量, Squeeze 通過(guò)式(1)計(jì)算:
其中, Fsq(·)為Squeeze 函數(shù);uc為輸入特征中第c通道的特征曲線圖;Wsq和Hsq分別表示輸入特征圖的寬和高;u(i,j)為輸入特征圖中的點(diǎn)在坐標(biāo)位置(i,j)處的取值.
(2) Excitation 特征激勵(lì), 利用在Squeeze 操作中所聚集的特征信息, 進(jìn)行第二個(gè)操作, 該操作的目的是完全自動(dòng)捕獲通道間的依賴. 首先它必須考慮是靈活的和非完全互斥的關(guān)系, 為了滿足這些標(biāo)準(zhǔn)我們采用兩個(gè)全連接層和Sigmoid 激活函數(shù), 公式如下.
其中,z為Squeeze 操作獲得的全局描述, δ表示ReLU函數(shù), 保證輸出為正,W1,W2為兩個(gè)全連接層, 其中W1∈,W2∈其中r 為縮放參數(shù), 主要用于減輕網(wǎng)絡(luò)的計(jì)算復(fù)雜度和參數(shù)量, σ(·)為Sigmoid 函數(shù).
(3) Reweight 特征重標(biāo)定, 將 Excitation 的輸出的權(quán)重看作是經(jīng)過(guò)特征選擇后的每個(gè)特征通道的重要性,然后通過(guò)乘法逐通道加權(quán)到先前的特征上, 完成在通道維度上的對(duì)原始特征的重標(biāo)定, 公式如下.
其中, Fscale(·)表示Reweight 函數(shù),sc為第c個(gè)特征圖的權(quán)重值.
隨著卷積神經(jīng)網(wǎng)絡(luò)深度的不斷加深, 導(dǎo)致了大量的浮點(diǎn)數(shù)量的增加, 全連接層也產(chǎn)生了大量的訓(xùn)練浮點(diǎn)參數(shù)[11]. 近幾年, 研究者們針對(duì)這樣的問(wèn)題, 在CNN加速上做出改進(jìn), CNN 加速工作分為3 類: 優(yōu)化實(shí)現(xiàn)(如FFT[21])、量化(如BinaryNet[22])和結(jié)構(gòu)化簡(jiǎn)化將CNN 轉(zhuǎn)換為精簡(jiǎn)的[23]. 結(jié)構(gòu)化簡(jiǎn)化主要內(nèi)容包括: 張量因子分解、稀疏連接、通道剪枝. 張量分解法是將一個(gè)卷積層分解成了幾個(gè)比較有效的卷積層. 但是feature map 寬度(channel number)不能減少, 這使得分解現(xiàn)代網(wǎng)絡(luò)(如GoogLeNet, ResNet, Xception) 的1×1 卷積層結(jié)構(gòu)變得困難. 這種類型的方法還會(huì)增加額外的計(jì)算開(kāi)銷. 稀疏連接使神經(jīng)元或通道之間的連接失效. 雖然它可以達(dá)到很高的理論加速比, 但稀疏卷積層的“不規(guī)則”形狀, 這種實(shí)現(xiàn)是欠佳的. 相比之下, 通道剪枝直接減少了特征圖的寬度. 因?yàn)椴恍枰貏e的實(shí)現(xiàn), 它在CPU 和GPU 上的表現(xiàn)都是比較高效的.
由于傳統(tǒng)的剪枝方法需要長(zhǎng)時(shí)間的再訓(xùn)練程序,通過(guò)多次的隨機(jī)試驗(yàn)選擇通道, 在深度網(wǎng)絡(luò)上需要較長(zhǎng)時(shí)間評(píng)估每一次實(shí)驗(yàn), 這限制了在深的模型和大的數(shù)據(jù)集上的實(shí)驗(yàn). 因此, 為了正確的選擇最具代表性的渠道, 本文采用一種迭代兩步算法的方法, 使用基于線性LASSO 回歸的方法公式為:
其中, φ1(X) 是事先已經(jīng)選定的一組線性空間無(wú)關(guān)的函數(shù), φk是待定向量系數(shù)k=1, 2, …,m, (m 前面已經(jīng)詳細(xì)介紹本次研究所使用的模型, 本文改進(jìn)的Xception 剪枝模型與原始Xception 模型大體一致, 整體結(jié)構(gòu)如表1 所示, 卷積層的前兩層標(biāo)準(zhǔn)卷積不變, Conv_3–Conv_7 層進(jìn)行信道剪枝以減少信道數(shù)量, 為了保證實(shí)驗(yàn)準(zhǔn)確率的穩(wěn)定和運(yùn)行時(shí)間上的平衡性, 在Conv_3–Conv_7 層根據(jù)實(shí)驗(yàn)結(jié)果靈活選取是否需要進(jìn)行剪枝操作, 使用基于線性LASSO 回歸的方法提取最小且最有代表性的通道, 刪除冗余變量通道, 另外, 使用線性最小二乘重構(gòu)提取剩余通道的數(shù)據(jù)輸出,兩步交替進(jìn)行. 與原來(lái)相比, 改變了卷積神經(jīng)網(wǎng)絡(luò)層的內(nèi)部結(jié)構(gòu), 在Conv_3–Conv_7, Conv_8 和Conv_9 層中分別加入SE-Net 模塊, 增加了對(duì)卷積后的特征圖大小包括寬高以及通道數(shù)的特征壓縮, 特征激勵(lì)和重標(biāo)定的操作使得可以得到維度相同的特征圖, 保留了原全局均值池化層GPA_10 與全連接層FC_11, 通過(guò)實(shí)驗(yàn)驗(yàn)證和分析了所改進(jìn)模型的優(yōu)勢(shì)和可行性, 如表1 所示. 表1 為改進(jìn)的Xception 網(wǎng)絡(luò)模型的整體框架, 從第3 卷積層開(kāi)始加入剪枝操作, 即基于LASSO 正則化剔除冗余卷積核與其對(duì)應(yīng)的特征圖, 然后重構(gòu)剩余網(wǎng)絡(luò), 剪枝操作可選表示根據(jù)具體實(shí)驗(yàn)結(jié)果在準(zhǔn)確度和效率上選取一個(gè)平衡點(diǎn), 在第8, 9 層上嵌入了SE-Net模型用以增強(qiáng)有用通道, 減弱無(wú)用通道, 第10 和第11 層分別保留了原有的全局均值池化和全連接層. 表1 改進(jìn)的Xception 網(wǎng)絡(luò)模型的整體框架 本實(shí)驗(yàn)選取公開(kāi)DeepFashion 數(shù)據(jù)集[24], 包含的服裝圖片背景一般為純色, 復(fù)雜度較低, 每個(gè)服裝包含從不同角度進(jìn)行拍攝的圖像, 又利用特定模型的訓(xùn)練, 部分服裝進(jìn)行了服裝位置的精確裁剪, 數(shù)據(jù)集一共包含了80 多萬(wàn)張服裝圖像, 圖片標(biāo)記了種類, 屬性等關(guān)鍵點(diǎn)的位置坐標(biāo). 本文選取其中的一部分作為本實(shí)驗(yàn)的數(shù)據(jù)集, 選取10 種熟數(shù)量相差不大的服裝類別, 每種選取2000 張左右, 一共選取2 萬(wàn)多張, 其中選取80%作為訓(xùn)練集, 20%作為驗(yàn)證集, 部分圖片如圖4 所示. 圖4 DeepFashion 服裝示例圖 實(shí)驗(yàn)環(huán)境配置及工具如下: 在帶有NVIDIA CUDA 8.0 的GPU 機(jī)器上安裝 MXNet (0.11.0)深度學(xué)習(xí)庫(kù),采用筆記本W(wǎng)indows 10 系統(tǒng), 12 GB 運(yùn)行內(nèi)存, PyCharm 2020 開(kāi)發(fā)工具, GPU 為Intel(R) HD Graphics 520,Python 版本為3.6. 由于DeepFashion 數(shù)據(jù)集的尺寸大小不同, 將數(shù)據(jù)集進(jìn)行歸一化預(yù)處理, 統(tǒng)一尺寸大小設(shè)置為256×256, 做圖像的歸一化處理可以加快模型的收斂速度. 為了驗(yàn)證所改進(jìn)的Xception 模型的有效性, 將DeepFashion 數(shù)據(jù)集先在Xception 模型上作訓(xùn)練和驗(yàn)證, 記錄相關(guān)的性能數(shù)據(jù), 然后Conv_3–Conv_9 層保持不變, 在Conv_8 和Conv_9 層中加入SE-Net 模塊,進(jìn)行再訓(xùn)練, 最后在基礎(chǔ)上在Conv_3–Conv_9 層進(jìn)行信道剪枝操作, 由于剪枝操作在準(zhǔn)確率和運(yùn)行時(shí)間上具有互斥性, 在Conv_3–Conv_7 層根據(jù)實(shí)驗(yàn)結(jié)果調(diào)整剪枝操作的次數(shù)和卷積層, 進(jìn)行反復(fù)訓(xùn)練對(duì)比, 最終實(shí)驗(yàn)證明在分別在Conv_3、Conv_5 和Conv_7 層上做剪枝操作進(jìn)行通道的選取可以在兩者之間達(dá)到一個(gè)比較好的平衡. 分別記錄了3 種模型的Top3 準(zhǔn)確率, 消耗時(shí)間和消耗內(nèi)存大小如表2 所示. 3 次訓(xùn)練驗(yàn)證均在相同條件下, 從實(shí)驗(yàn)結(jié)果數(shù)據(jù)中可以看出, 相對(duì)于原始的Xception 模型, 加入SE-Net 模塊的Xception 在時(shí)間和內(nèi)存的消耗上邊均有小幅度所增加, 但是Top3 準(zhǔn)確率提升, 3.12 個(gè)百分點(diǎn), 而之后加入的LASSO 回歸的方法提取最有代表性的通道, 刪除冗余通道和最小二乘重構(gòu)剩余通道, 使得模型在精度只降低了0.21 的情況下, 大幅度減少了訓(xùn)練時(shí)間和內(nèi)存空間的占用, 縮短了將近3 倍. 這證明了所提出方法的可行性和有效性. 表2 不同改進(jìn)的模型實(shí)驗(yàn)數(shù)據(jù)性能對(duì)比 為了進(jìn)一步證明所提出模型的優(yōu)勢(shì)和有效性, 本實(shí)驗(yàn)也和VGG-6, ResNet-50 和Xception 模型在最終的平均分類準(zhǔn)確率做了對(duì)比, 在相同的數(shù)據(jù)集和實(shí)驗(yàn)條件下, 幾種不同方法模型的平均服裝分類準(zhǔn)確率如表3 所示, VGG-16 模型的平均分類準(zhǔn)確率最低為70.23%, 然后ResNet-50, Xception 依次升高. 每種均選取均勻種類的服裝, 在不同的由數(shù)據(jù)可知, 提出的通過(guò)剪枝通道的SE-Net+Xception 模型平均分類精確度最高. 此外, 實(shí)驗(yàn)數(shù)據(jù)集按大小分成了3 種, 分別和其他3 種模型進(jìn)行實(shí)驗(yàn)對(duì)比, 如圖5 所示, 由圖可直觀地看出, 隨著數(shù)據(jù)集的增大, 每種模型的服裝分類準(zhǔn)確率均有不同程度的提升, 相比于其他3 種模型, 所提出改進(jìn)的Xception 模型在不同大小的數(shù)據(jù)集下分類準(zhǔn)確率均高于其他模型, 而且在運(yùn)行效率上均比其他模型用時(shí)少. 實(shí)驗(yàn)從不同的維度證明了本文所提出模型的優(yōu)越性, 是一種性能比較好的服裝圖像分類網(wǎng)絡(luò)模型. 圖5 不同數(shù)量的數(shù)據(jù)集在不同模型上的準(zhǔn)確率對(duì)比 表3 不同網(wǎng)絡(luò)模型平均分類準(zhǔn)確率對(duì)比 本次研究提出了一種改進(jìn)的Xception 模型算法,在Xception 的基礎(chǔ)上, 加入了SE-Net 模塊, 這是一種新的架構(gòu)單元. 它在數(shù)據(jù)集上實(shí)現(xiàn)了比較好的性能.SE-Net 模塊誘發(fā)的特征重要性有助于其他相關(guān)領(lǐng)域的壓縮, 如網(wǎng)絡(luò)剪枝等. 為了解決參數(shù)過(guò)大和內(nèi)存消耗問(wèn)題, 在此基礎(chǔ)上, 利用LASSO 回歸的方法提取最有代表性的通道, 刪除冗余通道和最小二乘重構(gòu)剩余通道的方法對(duì)Xception 模型卷積層進(jìn)行了剪枝操作, 實(shí)驗(yàn)證明, 這樣做在很小精度損失的條件下提高了訓(xùn)練速度, 縮小了內(nèi)存的占用空間. 最后實(shí)驗(yàn)證明了, 本文所提出模型和其他模型相比, 大幅度縮短了運(yùn)行時(shí)間, 服裝的平均分類準(zhǔn)確率也得到了進(jìn)一步的提升. 但是也有一些不足, 比如如何對(duì)復(fù)雜背景下服裝的精確分類問(wèn)題, 以及服裝圖像分類準(zhǔn)確率在參數(shù)減少的前提下如何仍可以更好地保持精確度的問(wèn)題等.1.4 改進(jìn)的Xception 網(wǎng)絡(luò)模型
2 實(shí)驗(yàn)結(jié)果與分析
2.1 數(shù)據(jù)集
2.2 實(shí)驗(yàn)準(zhǔn)備
2.3 實(shí)驗(yàn)結(jié)果分析
3 結(jié)束語(yǔ)