李 濤, 杜 磊,2, 黃振華, 蔣玉萍, 鄒奉元,2
(1. 浙江理工大學(xué) 服裝學(xué)院, 浙江 杭州 310018; 2. 浙江理工大學(xué) 浙江省服裝工程技術(shù)研究中心, 浙江 杭州 310018)
近年來,服裝CAD技術(shù)在款式設(shè)計(jì)、制板、放碼及排料等方面已得到廣泛應(yīng)用[1]。以重復(fù)運(yùn)算為主的放碼和排料模塊應(yīng)用優(yōu)勢明顯,但制板所需結(jié)構(gòu)參數(shù)仍依賴于制板師對(duì)款式圖的主觀判斷,設(shè)計(jì)效率低且版型存在不確定性[2],因此,實(shí)現(xiàn)服裝款式圖到樣板自動(dòng)轉(zhuǎn)換對(duì)提高制板效率,降低操作人員專業(yè)要求等具有重要現(xiàn)實(shí)意義。
目前,關(guān)于服裝款式圖到樣板自動(dòng)轉(zhuǎn)換的研究主要集中在款式圖識(shí)別與樣板轉(zhuǎn)換2個(gè)層面[3]??钍綀D識(shí)別研究通過提取服裝視覺特征實(shí)現(xiàn)計(jì)算機(jī)對(duì)圖像信息的識(shí)別,主要是特征參數(shù)識(shí)別與機(jī)器學(xué)習(xí)識(shí)別。前者將款式圖模型化處理,通過模型推理和判斷達(dá)到識(shí)別特征參數(shù)的目的,后者通過提取特征描述子進(jìn)行分類優(yōu)化實(shí)現(xiàn)類型識(shí)別。樣板轉(zhuǎn)換研究主要是通過建立轉(zhuǎn)換機(jī)制將識(shí)別的款式圖信息轉(zhuǎn)換為對(duì)應(yīng)服裝樣板,其中參數(shù)化轉(zhuǎn)換是通過構(gòu)建款式圖特征點(diǎn)、特征線與樣板之間的映射關(guān)系完成轉(zhuǎn)換,而匹配轉(zhuǎn)換則是通過圖像匹配技術(shù)建立款式圖與樣板之間的轉(zhuǎn)換機(jī)制。
本文從服裝款式圖出發(fā),探究了樣板自動(dòng)轉(zhuǎn)換的過程與方法,重點(diǎn)梳理了國內(nèi)外關(guān)于款式圖識(shí)別和樣板轉(zhuǎn)換方面的研究,并對(duì)其優(yōu)缺點(diǎn)進(jìn)行比較分析。在此基礎(chǔ)上,進(jìn)一步提出了未來可能的研究方向和發(fā)展趨勢,以期為服裝款式圖識(shí)別的樣板自動(dòng)生成技術(shù)提供參考。
服裝款式圖作為真實(shí)服裝的一種平面效果表達(dá),在服裝生產(chǎn)中起著重要的作用。目前,服裝樣板制作主要依靠制板師的自身經(jīng)驗(yàn),從服裝款式圖及目標(biāo)人體尺寸中提取款式信息及制板數(shù)據(jù),建立相應(yīng)規(guī)格尺寸表進(jìn)行樣板制作。整個(gè)過程需要人工對(duì)款式圖信息進(jìn)行解讀,例如款式圖中服裝寬松度的預(yù)測,包括胸圍、腰圍、臀圍等關(guān)鍵部位的松量處理,服裝相關(guān)廓形把握、比例及細(xì)部尺寸的確定等。這可能會(huì)由于制板師誤判或?qū)υO(shè)計(jì)意圖理解偏差,造成制定的規(guī)格尺寸不一定符合設(shè)計(jì)者要求[4],從而需要對(duì)樣板進(jìn)行反復(fù)修正,降低了制板效率。
基于款式圖識(shí)別的樣板轉(zhuǎn)換研究主要是解決人工審視款式圖主觀性強(qiáng)的問題。通過計(jì)算機(jī)模擬人腦以識(shí)別款式圖信息,利用圖形學(xué)知識(shí)獲取服裝相關(guān)比例尺寸、寬松度等款式信息和制板數(shù)據(jù),并結(jié)合專家經(jīng)驗(yàn)實(shí)現(xiàn)款式圖與樣板的轉(zhuǎn)換。這個(gè)轉(zhuǎn)換過程主要有2個(gè)問題需要解決:一是款式圖識(shí)別問題,即利用何種圖像處理技術(shù)獲取款式信息;二是樣板轉(zhuǎn)換問題,即怎樣構(gòu)建合理的轉(zhuǎn)換模型,將識(shí)別的款式信息轉(zhuǎn)換為對(duì)應(yīng)服裝樣板[3]。
款式圖大都以Adobe Illustrator矢量圖或者JPEG圖片格式存在,如何有效識(shí)別款式圖信息,合理提取制板結(jié)構(gòu)參數(shù)對(duì)服裝樣板自動(dòng)轉(zhuǎn)換具有重要意義??钍綀D的識(shí)別方法主要有特征參數(shù)識(shí)別和機(jī)器學(xué)習(xí)識(shí)別。
特征參數(shù)識(shí)別在將服裝款式圖模型化的基礎(chǔ)上進(jìn)行推理和判斷,從而識(shí)別特征參數(shù)。丁敏敏等[5]以衣領(lǐng)為例,將款式圖識(shí)別轉(zhuǎn)化為對(duì)領(lǐng)座高、領(lǐng)面寬、領(lǐng)前造型線及領(lǐng)前造型線角度4個(gè)特征參數(shù)的識(shí)別。An等[6]針對(duì)翻領(lǐng)款式圖,提出一種基于領(lǐng)域知識(shí)的數(shù)學(xué)模型識(shí)別方法,采用霍夫變換將翻領(lǐng)輪廓線轉(zhuǎn)換為極徑(ρ)和極角(θ)參數(shù)進(jìn)行表征,用K-means 聚類剔除不屬于C1、C2、C3、C4聚類的線段La和Lb,從而表示翻領(lǐng)中輪廓線和夾角之間的關(guān)系。該方法假設(shè)翻領(lǐng)4條輪廓線共點(diǎn)且對(duì)稱,通過直線檢測、角度選擇和曲線擬合3個(gè)步驟識(shí)別款式圖是否有翻領(lǐng)結(jié)構(gòu),從而建立基于共點(diǎn)和對(duì)稱判斷的翻領(lǐng)識(shí)別模型,共點(diǎn)識(shí)別步驟如圖1所示。董晨雪[4]利用MatLab圖像處理工具箱,通過編程實(shí)現(xiàn)了款式圖中衣長、袖長及胸圍、腰圍等測量數(shù)據(jù)的識(shí)別。
圖1 翻領(lǐng)模型識(shí)別步驟Fig.1 Lapel model recognition steps. (a) Line detection; (b) Angle selection; (c) Curve fitting
通過特征參數(shù)識(shí)別款式圖信息可得到有效的制板數(shù)據(jù),但識(shí)別過程較為復(fù)雜,在實(shí)際應(yīng)用中無法快速有效地創(chuàng)建參數(shù)模型[7]。研究對(duì)象也大都為造型簡單的款式,對(duì)于復(fù)雜款式圖,計(jì)算量大且易造成錯(cuò)誤識(shí)別。
目前,機(jī)器學(xué)習(xí)識(shí)別主要集中在特征提取和分類器優(yōu)化2個(gè)方面。在特征提取方面,由于款式圖大多由曲線組成,沒有紋理和顏色特征[8],通常采用基于區(qū)域或輪廓的形狀描述子表征款式圖信息[9]。在分類器優(yōu)化方面,采用相似度測量、K-means 及模糊聚類等無監(jiān)督方法,以及極限學(xué)習(xí)機(jī)(ELM)、 支持向量機(jī)(SVM)等有監(jiān)督分類方法。
在款式圖識(shí)別中,李東等[10]采用傅里葉描述子中低頻分量表征款式圖總體形狀特征,高頻分量表征細(xì)節(jié)特征,并結(jié)合SVM進(jìn)行識(shí)別。此方法速度快,但要求有準(zhǔn)確的邊緣檢測算子。An等[8]對(duì)款式圖識(shí)別中不同類型的形狀描述子、降維方法及分類器進(jìn)行比較,提出一種集成化的識(shí)別方法。針對(duì)單一特征識(shí)別率低的問題,Hou等[11]融合Hu不變矩和傅里葉描述子提取形狀特征,進(jìn)而提高識(shí)別率。雖然上述研究能夠較好地實(shí)現(xiàn)款式圖識(shí)別,但大都聚焦于服裝外部廓形,對(duì)外部形狀區(qū)別不明顯的款式圖識(shí)別效果較差。
針對(duì)款式圖中相似外形難以識(shí)別的問題,吳歡等[12]將深度學(xué)習(xí)引入款式圖識(shí)別中,利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)相互交替的卷積層和池化層從圖像中自動(dòng)提取形狀特征,通過反向傳播算法不斷逐層更新權(quán)值,采用梯度下降法并改進(jìn)全連接層參數(shù)來提高相似款式的識(shí)別準(zhǔn)確率。由于CNN中池化層對(duì)空間位置變化不太敏感,調(diào)整款式圖拉鏈、口袋或圖案位置等細(xì)部變化對(duì)識(shí)別結(jié)果影響不明顯,而這直接影響樣板轉(zhuǎn)換精度[13]。近年來,對(duì)空間位置敏感的膠囊神經(jīng)網(wǎng)絡(luò)(capsule neural network)受到學(xué)者們的關(guān)注[14],通過將神經(jīng)元標(biāo)量替換為向量,以動(dòng)態(tài)路由選擇算法代替最大池化在神經(jīng)網(wǎng)絡(luò)內(nèi)部知識(shí)表達(dá)中建立層次關(guān)系,用以學(xué)習(xí)物體的位移、旋轉(zhuǎn)等位置信息,進(jìn)而更準(zhǔn)確地識(shí)別服裝款式信息。
上述研究均是在有效學(xué)習(xí)款式圖特征基礎(chǔ)上進(jìn)行的分類識(shí)別,對(duì)不同類型款式圖均有很高的魯棒性,但一個(gè)具備良好識(shí)別能力的分類器或深度學(xué)習(xí)模型,前期需要大量準(zhǔn)確的服裝標(biāo)注信息作為機(jī)器學(xué)習(xí)的訓(xùn)練集,數(shù)據(jù)太少或網(wǎng)絡(luò)深度不夠均會(huì)導(dǎo)致過擬合或欠擬合問題。
根據(jù)款式圖信息完成樣板轉(zhuǎn)換主要有參數(shù)化和匹配轉(zhuǎn)換2種技術(shù),前者主要利用幾何和尺寸約束進(jìn)行參數(shù)化轉(zhuǎn)換,后者通過對(duì)款式圖與樣板之間匹配關(guān)系的研究實(shí)現(xiàn)樣板轉(zhuǎn)換[15-16];但上述方法均建立在款式圖識(shí)別基礎(chǔ)上實(shí)現(xiàn)樣板轉(zhuǎn)換。
服裝款式圖可看作由一系列圖元組成,而每個(gè)圖元都可通過位置、大小及其他特征參數(shù)進(jìn)行描述[17]。通過識(shí)別圖元特征參數(shù),與樣板相應(yīng)控制點(diǎn)建立映射關(guān)系,結(jié)合制板規(guī)則(如松量分配等),生成與款式對(duì)應(yīng)的參數(shù)化樣板[18]。
在樣板參數(shù)化轉(zhuǎn)換方面,相關(guān)學(xué)者通過對(duì)襯衣的平鋪狀態(tài)及其空間結(jié)構(gòu)進(jìn)行分析,總結(jié)出款式圖特點(diǎn)及分解依據(jù)[19],并以此建立了款式圖尺寸數(shù)據(jù)與制板數(shù)據(jù)之間的映射關(guān)系,通過樣板中關(guān)鍵點(diǎn)坐標(biāo)信息參數(shù)化生成對(duì)應(yīng)服裝樣板[20]。王燕珍等[21]參照標(biāo)準(zhǔn)人體比例構(gòu)建了0.9/18(圖距/實(shí)距)的比例模型,完成款式圖數(shù)據(jù)與制板尺寸數(shù)據(jù)的轉(zhuǎn)換。其中:在長度方面,依據(jù)款式圖的長度確定;圍度方面,首先模糊判斷款式與人體的貼合程度及外輪廓屬于T型、A型等服裝廓形,再根據(jù)人體與服裝之間的圖距進(jìn)行數(shù)據(jù)轉(zhuǎn)換;其他細(xì)部尺寸獲取方法與控制部位的獲取方法相似。根據(jù)比例模型,逐步從平面款式圖轉(zhuǎn)換為繪制樣板所需的控制部位及細(xì)部尺寸,然后參數(shù)化繪制對(duì)應(yīng)樣板,轉(zhuǎn)換數(shù)據(jù)如表1所示。
表1 款式圖與樣板之間的數(shù)據(jù)轉(zhuǎn)換Tab.1 Data conversion between garment flat and pattern cm
劉肖等[16]以衣袖為例,首先識(shí)別款式圖信息,獲取關(guān)鍵點(diǎn)坐標(biāo)信息,然后確定款式圖相關(guān)控制點(diǎn)與實(shí)際樣板中相關(guān)控制部位的映射關(guān)系,得到初步的樣板框架。在此基礎(chǔ)上利用幾何關(guān)系計(jì)算B樣條曲線的控制點(diǎn)坐標(biāo),完成對(duì)前后袖山弧線及前后袖窿弧線的構(gòu)造,成功實(shí)現(xiàn)了款式圖與樣板之間的參數(shù)化轉(zhuǎn)換,轉(zhuǎn)換步驟如圖2所示。
圖2 款式圖到樣板參數(shù)化轉(zhuǎn)換過程Fig.2 Parametric conversion process from garment flat to pattern. (a) Garment recognition; (b) Parametric conversion
上述研究表明,參數(shù)化轉(zhuǎn)換可很好地表征款式圖與樣板之間的一一對(duì)應(yīng)關(guān)系,但不同款式圖需要建立各自的轉(zhuǎn)換規(guī)則。在實(shí)際應(yīng)用層面,適用于款式結(jié)構(gòu)較為固定的產(chǎn)品,如西服、襯衫等[22]。
匹配轉(zhuǎn)換主要是通過對(duì)服裝款式圖及樣板進(jìn)行數(shù)字化存儲(chǔ),利用圖像匹配技術(shù)完成款式圖與樣板之間的轉(zhuǎn)換,從而實(shí)現(xiàn)對(duì)數(shù)據(jù)庫的有效管理、檢索及合理調(diào)用[23]。這種轉(zhuǎn)換方法巧妙地避開了樣板設(shè)計(jì)規(guī)則,可大大降低對(duì)專業(yè)的操作要求,從而實(shí)現(xiàn)樣板快速轉(zhuǎn)換。目前研究思路主要有基準(zhǔn)樣板調(diào)用及樣板匹配2種方式。
3.2.1 基準(zhǔn)樣板調(diào)用
在機(jī)器學(xué)習(xí)識(shí)別的基礎(chǔ)上,通過對(duì)服裝款式圖進(jìn)行分類,依據(jù)分類結(jié)果匹配不同類別下的基準(zhǔn)樣板,在此基礎(chǔ)上修改基準(zhǔn)樣板完成轉(zhuǎn)換[16]?;鶞?zhǔn)樣板調(diào)用示意圖如圖3所示。然而,樣板轉(zhuǎn)換的準(zhǔn)確性主要依賴于款式圖分類結(jié)果。目前研究大都集中于款式的類別分類上,屬于粗粒度分類,只能得到樣板的基礎(chǔ)框架,忽略了款式圖細(xì)部要素,而這直接影響轉(zhuǎn)換準(zhǔn)確率。
圖3 基準(zhǔn)樣板調(diào)用示意圖Fig.3 Schematic diagram of basic pattern invoke
為解決上述細(xì)粒度圖像分類問題,詞袋模型[24]、視覺特征、深度學(xué)習(xí)[25]等方法被逐步引入。但這些方法主要針對(duì)通用圖像的細(xì)粒度分類,區(qū)別于通用圖像,服裝樣板轉(zhuǎn)換所需的細(xì)粒度特征更加精細(xì),僅依靠傳統(tǒng)的細(xì)粒度圖像分類方法仍具有細(xì)部特征劃分不準(zhǔn)確等問題。為此,Song等[26]通過構(gòu)建服裝細(xì)粒度數(shù)據(jù)集,在多通道網(wǎng)絡(luò)[27]基礎(chǔ)上加入注意力機(jī)制,并構(gòu)建新的高階可學(xué)習(xí)能量損失函數(shù)(HOLEF) 來增加分類準(zhǔn)確率。這種方式通過引入注意力機(jī)制實(shí)現(xiàn)空間感知,且HOLEF函數(shù)提高了特征匹配魯棒性。該方法雖然提高了細(xì)粒度分類精度,但耗時(shí)增加了1倍,效率降低。
在細(xì)粒度分類策略上,Sun等[28]采用先類間再類內(nèi)標(biāo)注的思想發(fā)現(xiàn),可通過縮小檢索范圍達(dá)到提升標(biāo)注精度及速度的目的。Wang等[29]采用由粗到精策略,將頭部姿態(tài)分類劃分為粗分類和細(xì)回歸2個(gè)階段。通過共享GoogLeNet模型前21個(gè)卷積層,先粗分為4類以降低評(píng)估范圍。然后在每個(gè)類別上分別訓(xùn)練回歸網(wǎng)絡(luò)實(shí)現(xiàn)細(xì)粒度回歸,從而完成姿態(tài)參數(shù)的準(zhǔn)確評(píng)估,該方法在不增加模型復(fù)雜度的情況下,提高了分類準(zhǔn)確性。
在基準(zhǔn)樣板調(diào)用研究中,基于細(xì)粒度的部件分類結(jié)果更符合制板師思維,可根據(jù)相應(yīng)的部件類別選擇對(duì)應(yīng)原型樣板,且由于去除了無關(guān)因素,細(xì)粒度特征的魯棒性更高[30]。為此,Heisele等[31]在部件分類框架中通過組合分類器進(jìn)行部件劃分,并實(shí)現(xiàn)了完全識(shí)別,證明了基于部件分類的優(yōu)越性。近年來,Ak等[32]將基于強(qiáng)監(jiān)督信息的細(xì)粒度分類模型Part-CNN引入服裝部件分類中,通過檢測袖/軀干部分之間的不連續(xù)點(diǎn),分割出相互獨(dú)立的服裝部件。為將部件信息與CNN相結(jié)合,在深度學(xué)習(xí)網(wǎng)絡(luò)中,通過將部件視為先驗(yàn)信息的情況下,修改最后的Softmax函數(shù),完成基于Guided Part-CNN部件細(xì)粒度分類。這種方法包含具有更強(qiáng)判別性的局部特征,因此分類精度更為理想。
3.2.2 樣板匹配
上述研究通過對(duì)款式圖分類后進(jìn)行基準(zhǔn)樣板調(diào)用,實(shí)際上是完成了款式圖與樣板的多對(duì)一匹配。為實(shí)現(xiàn)樣板轉(zhuǎn)換中一一對(duì)應(yīng)關(guān)系,在分別構(gòu)建款式圖與對(duì)應(yīng)樣板數(shù)據(jù)庫后,通過款式圖與對(duì)應(yīng)樣板之間的映射匹配關(guān)系,完成樣板轉(zhuǎn)換。
在款式圖與樣板的匹配研究中,Lee等[15]通過奇點(diǎn)圖(shock graph)之間的相似度完成匹配,依據(jù)中軸變換算法獲取樣板區(qū)域骨架信息,通過相似度距離完成節(jié)點(diǎn)匹配。在此基礎(chǔ)上,為簡化骨架信息,采用PageRank分層去除方法判斷骨架細(xì)節(jié)層次,從而明確提取和分離出基本骨架和幾何骨架分支,計(jì)算公式[33]為
式中:I(ki)為骨架交點(diǎn);kj為ki在骨架上第j個(gè)相鄰的關(guān)鍵點(diǎn),二者在骨架分支上長度為L(ki,kj);kp為kj在骨架上第p個(gè)相鄰的關(guān)鍵點(diǎn);m為骨架交點(diǎn)數(shù)量;n為相鄰關(guān)鍵點(diǎn)數(shù)量。
然而,款式圖與樣板分屬2個(gè)不同的維度空間,直接跨域匹配很容易造成過度匹配,在新的測試數(shù)據(jù)情況下產(chǎn)生不真實(shí)的結(jié)果。為此,Wang等[34]在服裝草圖、樣板與人體體型參數(shù)、三維著裝效果的跨域匹配研究中提出共享潛在空間這一概念,通過多通道匹配將不同領(lǐng)域的特征向量映射到共享潛在空間中,聯(lián)合訓(xùn)練多重編碼-解碼網(wǎng)絡(luò)完成跨領(lǐng)域之間的相互匹配。經(jīng)實(shí)驗(yàn)證明,這種匹配方法效果較好。為減小跨域匹配的復(fù)雜性,孿生神經(jīng)網(wǎng)絡(luò)框架(siamese network)受到相關(guān)學(xué)者的關(guān)注,其通過計(jì)算2個(gè)特征向量之間的距離表征輸入之間的差異[35]。將2張服裝草圖分別通過神經(jīng)網(wǎng)絡(luò)映射為特征向量,使用特征向量之間的距離表征對(duì)應(yīng)著裝效果的向量距離,成功實(shí)現(xiàn)了服裝草圖與著裝效果之間的匹配。
另一方面,在匹配關(guān)系的研究中,相關(guān)學(xué)者引入人工神經(jīng)網(wǎng)絡(luò)[36]、模糊邏輯[37]等相關(guān)技術(shù),但大都只是建立數(shù)據(jù)之間的匹配關(guān)系。Liu等[38]通過BP神經(jīng)網(wǎng)絡(luò)建立人體關(guān)鍵部位數(shù)據(jù)與樣板尺寸之間的匹配關(guān)系,實(shí)現(xiàn)輸入人體部位數(shù)據(jù)即得到對(duì)應(yīng)樣板尺寸。而Wang等[39]采用徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBF) 建立易于測量人體的數(shù)據(jù)與樣板細(xì)部尺寸之間的匹配關(guān)系。雖然上述研究實(shí)現(xiàn)了服裝樣板生成時(shí)的數(shù)據(jù)依據(jù),但并沒有實(shí)現(xiàn)自動(dòng)生成[40]。借鑒這種想法,利用人工智能技術(shù)學(xué)習(xí)款式圖與樣板之間的對(duì)應(yīng)關(guān)系進(jìn)行樣板匹配成為樣板轉(zhuǎn)換的研究思路,如圖4所示。此處以誤差反向傳播神經(jīng)網(wǎng)絡(luò)(BP-ANN) 為例,其中W為不同層之間的連接權(quán)值,b為神經(jīng)元閾值。
圖4 樣板匹配轉(zhuǎn)換示意圖Fig.4 Schematic diagram of pattern matching conversion
款式圖和樣板均以圖片形式存在,無法直接通過數(shù)據(jù)訓(xùn)練得到二者的對(duì)應(yīng)關(guān)系。為此,叢芳等[41]將樣板數(shù)據(jù)化處理,以關(guān)鍵點(diǎn)坐標(biāo)代替樣板圖進(jìn)行訓(xùn)練,并將映射生成的數(shù)據(jù)通過坐標(biāo)連接轉(zhuǎn)換為對(duì)應(yīng)樣板圖,從而實(shí)現(xiàn)數(shù)據(jù)與圖片匹配。
由于匹配轉(zhuǎn)換直接對(duì)款式圖和樣板進(jìn)行圖像級(jí)處理,規(guī)避了樣板自身的設(shè)計(jì)規(guī)則,可很大程度上降低對(duì)制板師的依賴性,為智能化樣板生成提供新的思路。
目前,隨著服裝款式朝著多樣化、個(gè)性化方向發(fā)展,國內(nèi)外學(xué)者在服裝款式圖識(shí)別與樣板轉(zhuǎn)換方面已取得一些研究成果。為快速、準(zhǔn)確獲取對(duì)應(yīng)服裝樣板,未來可從以下3個(gè)領(lǐng)域開展研究。
1)細(xì)化款式圖識(shí)別粒度??紤]款式屬性及所屬域問題,以及服裝內(nèi)部結(jié)構(gòu)信息對(duì)識(shí)別結(jié)果的影響,融合外部廓形和內(nèi)部結(jié)構(gòu)線特征,并結(jié)合膠囊神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)款式圖細(xì)粒度識(shí)別。
2)服裝款式圖面料參數(shù)樣板多領(lǐng)域跨域匹配。研究如何將面料力學(xué)性能融合到款式圖與服裝樣板匹配中。探究在多領(lǐng)域跨域匹配中如何訓(xùn)練多模型編碼-解碼神經(jīng)網(wǎng)格,完成服裝款式圖、面料性能參數(shù)、服裝樣板之間的映射匹配。
3)部件化樣板智能生成。根據(jù)服裝各部件對(duì)應(yīng)的樣板形態(tài)和相對(duì)位置,構(gòu)建生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)服裝整體樣板的智能生成。引入基于歐幾里得(L2)范數(shù)的局部樣板構(gòu)造損失函數(shù),保證完整樣板生成時(shí)其局部組建與對(duì)應(yīng)部件的一致性。
FZXB