亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        短褲特征截面曲線的徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)模型構(gòu)建

        2015-03-10 07:53:12葉曉露龐程方金娟鳳鄒奉元
        紡織學(xué)報(bào) 2015年5期
        關(guān)鍵詞:曲線擬合樣條服裝

        葉曉露,龐程方,金娟鳳,鄒奉元,2

        (1.浙江理工大學(xué)服裝學(xué)院,浙江 杭州 310018;2.浙江理工大學(xué)浙江省服裝工程技術(shù)研究中心,浙江 杭州 310018)

        短褲特征截面曲線的徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)模型構(gòu)建

        葉曉露1,龐程方1,金娟鳳1,鄒奉元1,2

        (1.浙江理工大學(xué)服裝學(xué)院,浙江 杭州 310018;2.浙江理工大學(xué)浙江省服裝工程技術(shù)研究中心,浙江 杭州 310018)

        將著裝人臺(tái)進(jìn)行三維掃描獲取點(diǎn)云數(shù)據(jù),截取與人體特征部位相對(duì)應(yīng)的短褲特征截面。將原數(shù)據(jù)坐標(biāo)點(diǎn)轉(zhuǎn)化為極坐標(biāo)系下的極角與極徑值后,以極角值作為輸入向量,極徑值作為輸出向量,構(gòu)建短褲特征截面曲線的徑向基函數(shù)(RBF)神經(jīng)網(wǎng)絡(luò)模型,并與反向傳播(BP)神經(jīng)網(wǎng)絡(luò)、最小二乘法及三次樣條函數(shù)的擬合效果進(jìn)行比較。結(jié)果表明:神經(jīng)網(wǎng)絡(luò)擬合曲線的平均絕對(duì)誤差比最小二乘法及三次樣條函數(shù)方法小,仿真輸出曲線和原始數(shù)據(jù)非常接近,且曲線光滑;RBF網(wǎng)絡(luò)的訓(xùn)練速度更快,所需訓(xùn)練步數(shù)少,擬合效率明顯優(yōu)于BP神經(jīng)網(wǎng)絡(luò)。

        短褲;特征截面;RBF神經(jīng)網(wǎng)絡(luò);曲線擬合;MatLab仿真

        服裝特征截面曲線是服裝穿于人體后在人體特征部位截取的三維形狀。Machiko Miyoshi等[1]運(yùn)用三維測(cè)量系統(tǒng)獲取著裝截面并由此建立服裝樣板設(shè)計(jì)系統(tǒng)。Susan Ashdown等[2]對(duì)合體褲裝橫截面進(jìn)行分析,量化了服裝和人體間的關(guān)系。

        由于著裝人體各高度上的截面形狀凹凸起伏,服裝截面曲線的擬合具有復(fù)雜性。徐繼紅等[3]用最小二乘法三次多項(xiàng)式插值建立人體和服裝曲線擬合算法,發(fā)現(xiàn)將5點(diǎn)作為1段進(jìn)行三次多項(xiàng)式擬合效果較好。鄭娟[4]將原始坐標(biāo)轉(zhuǎn)化為極坐標(biāo)后采用最小二乘法對(duì)人體截面進(jìn)行擬合,但隨著擬合階數(shù)的增大,擬合曲線出現(xiàn)振蕩,對(duì)于非線性函數(shù)多項(xiàng)式擬合效果不是很理想[5]。在曲線擬合的研究中樣條曲線擬合也是較為傳統(tǒng)和常用的方法。Taya[6]在服裝合體性研究中用五階樣條函數(shù)對(duì)橫截面上的極坐標(biāo)點(diǎn)進(jìn)行擬合。Wang[7]采用三次樣條函數(shù)擬合著裝與未著裝人體胸圍、腰圍和臀圍3個(gè)截面的曲線。盛仲飚等[5]在三次樣條曲線擬合中發(fā)現(xiàn)樣條擬合涉及矩陣求逆,擬合點(diǎn)數(shù)增加矩陣將增大,使得求逆越麻煩[8]。而人工神經(jīng)網(wǎng)絡(luò)能夠模仿動(dòng)物的神經(jīng)網(wǎng)絡(luò)行為特征,將神經(jīng)網(wǎng)絡(luò)應(yīng)用于曲線擬合,把采集的離散數(shù)據(jù)通過訓(xùn)練得到模型模擬相應(yīng)的非線性系統(tǒng)從而得到較好的逼近函數(shù)[9],同時(shí)避開了矩陣求逆的繁瑣。徑向基函數(shù)(RBF)神經(jīng)網(wǎng)絡(luò)與BP神經(jīng)網(wǎng)絡(luò)在曲線擬合中是較常用的2種人工神經(jīng)網(wǎng)絡(luò)模型。

        本文將人工神經(jīng)網(wǎng)絡(luò)引入到服裝特征截面曲線擬合中進(jìn)行嘗試。以下裝短褲各特征截面為例,首先將三維掃描得到的下裝特征截面點(diǎn)云原始坐標(biāo)點(diǎn)轉(zhuǎn)化為極坐標(biāo)點(diǎn),構(gòu)建RBF神經(jīng)網(wǎng)絡(luò)模型將離散極坐標(biāo)數(shù)據(jù)點(diǎn)進(jìn)行訓(xùn)練并擬合得到連續(xù)的極坐標(biāo)曲線。并與BP神經(jīng)網(wǎng)絡(luò)、最小二乘法及三次樣條函數(shù)的擬合效果進(jìn)行對(duì)比,為提高服裝特征截面及人體截面曲線擬合精度,有效展現(xiàn)服裝截面三維波形形態(tài)提供依據(jù)。

        1 數(shù)據(jù)獲取

        人體的橫截面可以清楚反映出人體凸點(diǎn)的三維特征和位置。褲裝的特征橫截面包括腰、腹、臀、襠、褲口等截面,在這些截面處有其各自特點(diǎn)并具有復(fù)雜性。本文對(duì)短褲中不同的特征截面進(jìn)行曲線擬合,根據(jù)不同截面的仿真效果對(duì)RBF神經(jīng)網(wǎng)絡(luò)算法的性能進(jìn)行評(píng)估。

        本文選用常用面料白坯布,根據(jù)圖1中的典型女西短褲款式制作實(shí)驗(yàn)樣褲,運(yùn)用三維掃描儀對(duì)著裝人體進(jìn)行掃描,以獲取短褲著裝后的真實(shí)形態(tài),掃描所得數(shù)據(jù)以*.wrl格式儲(chǔ)存。將文件導(dǎo)入3DMax去除手臂以及腰部以上的軀干部位。用獲取截面功能分別得到圖像的腰圍、腹圍、臀圍、襠圍以及褲口5個(gè)人體下半身服裝特征部位的截面,截面選取位置如圖1所示。將截面點(diǎn)云數(shù)據(jù)同樣以*.wrl格式儲(chǔ)存,用MatLab讀取各個(gè)截面的坐標(biāo)點(diǎn)數(shù)據(jù)。

        圖1 服裝特征截面部位Fig.1 Typical cross section

        由于TC2三維掃描儀所得的多面網(wǎng)格數(shù)據(jù)以三維坐標(biāo)(x,y,z)的形式儲(chǔ)存,取同一z坐標(biāo)則得到散點(diǎn)坐標(biāo)(x,y),而服裝特征截面為一閉合曲線,閉合曲線中一個(gè)x值無法對(duì)應(yīng)唯一的y值,因此將原數(shù)據(jù)坐標(biāo)用MatLab中cart2pol函數(shù)轉(zhuǎn)化為極坐標(biāo)系下的(θ,ρ),使得坐標(biāo)點(diǎn)中極角與極徑一一對(duì)應(yīng),如圖2所示。

        圖2 極坐標(biāo)轉(zhuǎn)化圖Fig.2 Polar conversion chart

        2 RBF神經(jīng)網(wǎng)絡(luò)方法

        RBF網(wǎng)絡(luò)是一種3層前向網(wǎng)絡(luò),基于RBF的曲線擬合方法將低維的模式輸入數(shù)據(jù)轉(zhuǎn)換到高維空間中,使得低維空間內(nèi)的線性不可分問題在高維空間內(nèi)變得線性可分。RBF網(wǎng)絡(luò)與BP網(wǎng)絡(luò)的學(xué)習(xí)過程類似,二者的主要區(qū)別為使用的作用函數(shù)不同。BP神經(jīng)網(wǎng)絡(luò)隱層使用的是Sigmoid函數(shù),是一種全局逼近的神經(jīng)網(wǎng)絡(luò);而RBF網(wǎng)絡(luò)中的作用函數(shù)是高斯基函數(shù),是局部逼近的神經(jīng)網(wǎng)絡(luò)[10-11]。

        將極坐標(biāo)數(shù)據(jù)θ作為輸入向量,ρ作為輸出向量,擬建立單輸入單輸出的RBF神經(jīng)網(wǎng)絡(luò)模型。其中,網(wǎng)絡(luò)的輸入層到隱含層實(shí)現(xiàn)x→Fi(x)的非線性映射,隱含層節(jié)點(diǎn)的作用函數(shù)為高斯基函數(shù);隱含層到輸出層實(shí)現(xiàn)Fi(x)→yk的線性映射。

        當(dāng)網(wǎng)絡(luò)輸入訓(xùn)練樣本x=[x1x2… xn]T時(shí),輸出層第k個(gè)神經(jīng)元網(wǎng)絡(luò)輸出表達(dá)式為

        隱含層節(jié)點(diǎn)的作用函數(shù)為高斯基函數(shù)時(shí),隱含層第i個(gè)神經(jīng)元的輸出表達(dá)式為

        RBF網(wǎng)絡(luò)的訓(xùn)練過程為由實(shí)驗(yàn)樣本確定訓(xùn)練的隱含層與輸出層之間的權(quán)值ω,最終權(quán)值[12]為

        式中:x為輸入向量;yk為輸出層第k個(gè)節(jié)點(diǎn)的輸出;Fi(x)為第i個(gè)隱含層節(jié)點(diǎn)輸出;σi為第i個(gè)隱節(jié)點(diǎn)的標(biāo)準(zhǔn)化常數(shù);ci為第i個(gè)隱節(jié)點(diǎn)高斯函數(shù)的中心向量;ωik是隱含層到輸出層的加權(quán)系數(shù)。

        3 模型的構(gòu)建與訓(xùn)練

        對(duì)于3層RBF神經(jīng)網(wǎng)絡(luò),為實(shí)現(xiàn)模型的訓(xùn)練,首先將原始坐標(biāo)轉(zhuǎn)化為極坐標(biāo)后利用已有數(shù)據(jù)點(diǎn)中的極角值以及與之對(duì)應(yīng)的極徑值對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行離線訓(xùn)練,使神經(jīng)網(wǎng)絡(luò)通過權(quán)值記憶極角與極徑之間存在的對(duì)應(yīng)關(guān)系。再由得到的神經(jīng)網(wǎng)絡(luò)將截面曲線上每隔0.01度所取的數(shù)據(jù)點(diǎn)作為自變量加到神經(jīng)網(wǎng)絡(luò)的輸入端,相應(yīng)地得到該點(diǎn)所對(duì)應(yīng)的極徑,取值范圍為0~2π(1-1/N),其中N=36000為常數(shù)。因此,最終求算仿真精度為0.01度的數(shù)據(jù)點(diǎn),完成擬合工作。因此,運(yùn)用RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行截面曲線擬合時(shí),根據(jù)模型訓(xùn)練所得的對(duì)應(yīng)關(guān)系,由極坐標(biāo)數(shù)據(jù)θ預(yù)測(cè)ρ是在一定意義下最佳地接近已知數(shù)據(jù)的過程。預(yù)測(cè)所得的l與實(shí)際值偏差越小,由該數(shù)據(jù)點(diǎn)對(duì)擬合所得到的截面曲線將越接近服裝真實(shí)的截面形態(tài)。著裝后的褲裝尤其是襠部上的形態(tài)存在不易觀察的難點(diǎn),對(duì)于褲裝特征截面的準(zhǔn)確獲得將為短褲著裝形態(tài)的研究奠定一定的基礎(chǔ)。

        在進(jìn)行模型訓(xùn)練的時(shí)候,為了加快訓(xùn)練的收斂速度需要對(duì)式(2)中的各代表量進(jìn)行相應(yīng)處理。歸一化x和ci,分別記做P和IW,將1/σ替換為b1在程序中進(jìn)行儲(chǔ)存。對(duì)于歸一化后樣本進(jìn)行訓(xùn)練時(shí)需要注意的是,將原坐標(biāo)系下的數(shù)據(jù)轉(zhuǎn)化為極坐標(biāo)系下的點(diǎn)時(shí),0與2π位置的點(diǎn)值在擬合時(shí)可能會(huì)出現(xiàn)相差較大的情況,從而導(dǎo)致首尾相接的接口處沒有閉合,因此,取極坐標(biāo)點(diǎn)頭部和尾部的數(shù)據(jù)分別再復(fù)制于尾部和頭部。實(shí)驗(yàn)中發(fā)現(xiàn)各取20個(gè)數(shù)據(jù)時(shí)擬合效果已較好且不影響擬合速度,因此,數(shù)據(jù)點(diǎn)將擴(kuò)大至小于0到大于2π的范圍,因此將首尾多取的數(shù)據(jù)點(diǎn)中的最大值和最小值一同進(jìn)行歸一化處理。

        進(jìn)行數(shù)據(jù)處理后利用MatLab環(huán)境下的函數(shù)di(x)替換式(2),gi(x)替換式(1)得到:

        式中:radbas表示高斯函數(shù);purelin表示線性函數(shù)。

        圖3示出RBF神經(jīng)網(wǎng)絡(luò)采用MatLab實(shí)現(xiàn)的網(wǎng)絡(luò)結(jié)構(gòu)圖。圖中:R為輸入數(shù);S1為第1層神經(jīng)元數(shù);S2為第2層神經(jīng)元數(shù);a1為徑向基函數(shù)輸出;a2為純線形輸出;IW為隱含層的權(quán)值(即中心向量);LW2為輸出層權(quán)值;b1為隱含層的閾值;b2為輸出層的閾值;dist為距離函數(shù),其運(yùn)算規(guī)則為

        圖3 MatLab實(shí)現(xiàn)的網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of RBF using MatLab

        本文在MatLab神經(jīng)網(wǎng)絡(luò)工具箱中創(chuàng)建RBF網(wǎng)絡(luò)設(shè)計(jì)函數(shù)newrb,自動(dòng)選擇隱層節(jié)點(diǎn)數(shù)使得誤差為10-4,步驟如下:

        1)用所有輸入樣本即極坐標(biāo)下的坐標(biāo)點(diǎn)對(duì)網(wǎng)絡(luò)進(jìn)行仿真訓(xùn)練。

        2)尋找誤差最大的輸入樣本Pi。

        3)增加一個(gè)徑向基神經(jīng)元。spread為徑向基函數(shù)的擴(kuò)展系數(shù)(分布密度),其要根據(jù)實(shí)際情況進(jìn)行選擇,默認(rèn)值為1。本文由經(jīng)驗(yàn)公式將spread值設(shè)為240/R*0.04,R為訓(xùn)練樣本個(gè)數(shù)。

        4)把徑向基神經(jīng)元的輸出a1作為線性網(wǎng)絡(luò)層的輸入,從而重新設(shè)計(jì)線性網(wǎng)絡(luò)層使得誤差達(dá)到最小。

        5)當(dāng)輸出誤差均方誤差達(dá)到目標(biāo)誤差,或神經(jīng)元數(shù)目達(dá)到規(guī)定的上限值完成訓(xùn)練,否則重復(fù)上述步驟。

        BP神經(jīng)網(wǎng)絡(luò)中隱含層選用3層,根據(jù)經(jīng)驗(yàn)公式估計(jì)BP網(wǎng)絡(luò)有10個(gè)隱含層節(jié)點(diǎn),其中隱含層神經(jīng)元的激發(fā)函數(shù)為logsig,輸出層神經(jīng)元的傳遞函數(shù)為purelin,選用學(xué)習(xí)率算法是trainlm。BP網(wǎng)絡(luò)的目標(biāo)誤差同樣設(shè)為10-4。

        另外,最小二乘法擬合中,為了方便比較同樣設(shè)定誤差目標(biāo)為10-4,擬合階數(shù)從1至一指定最高次數(shù),若擬合過程中某個(gè)次數(shù)已滿足目標(biāo)誤差則完成擬合,若沒有達(dá)到目標(biāo)誤差則直到指定最高次數(shù),然后選取誤差均方最小的次數(shù)。三次樣條曲線擬合中采用spline函數(shù)進(jìn)行擬合。

        4 實(shí)驗(yàn)結(jié)果與討論

        在短褲各截面所有數(shù)據(jù)點(diǎn)中選取90%的數(shù)據(jù)點(diǎn)作為擬合點(diǎn)集,剩下10%作為測(cè)試點(diǎn)集,且測(cè)試集點(diǎn)按順序間隔選取保證各方法擬合選取的測(cè)試樣本相同以計(jì)算平均絕對(duì)誤差。平均絕對(duì)誤差計(jì)算公式為

        式中:p1k為測(cè)試點(diǎn)擬合所得極徑值;p2k為測(cè)試點(diǎn)實(shí)際極徑值。同時(shí)進(jìn)行計(jì)時(shí),并分別繪制擬合效果圖,擬合結(jié)果如表1所示。

        由表1結(jié)果可見,最小二乘法雖然原理簡(jiǎn)單易于求解,但其擬合均方誤差與其他方法相比較大,均未達(dá)到設(shè)定的目標(biāo)誤差10-4,測(cè)試點(diǎn)的平均絕對(duì)誤差與2種神經(jīng)網(wǎng)絡(luò)擬合方法相比也較大。由圖4所示的最小二乘法的擬合效果圖可見,截面原數(shù)據(jù)中有較多數(shù)據(jù)點(diǎn)偏離擬合曲線,因此最小二乘法在擬合精度要求較高時(shí)并不具有很好的效果。

        表1 各服裝特征截面曲線擬合結(jié)果Tab.1 Fitting results of all clothing cross s ection curves

        圖4 最小二乘擬合結(jié)果Fig.4 Fitting results of least square method

        三次樣條函數(shù)在擬合時(shí)其擬合曲線經(jīng)過所有的數(shù)據(jù)點(diǎn)值,如圖5所示,其擬合的均方誤差為0,且在數(shù)據(jù)點(diǎn)較少時(shí)擬合速度快,但其測(cè)試點(diǎn)的平均絕對(duì)誤差卻較大,說明不能很好地預(yù)測(cè)擬合給定數(shù)據(jù)點(diǎn)外的數(shù)據(jù)點(diǎn),導(dǎo)致擬合曲線和實(shí)際截面曲線存在較大誤差。且如圖6(a)所示,在擬合如同襠部截面上前后中處時(shí),由于人體在該部位有較明顯的凹陷使得服裝表面在此處也形成凹陷,由三次樣條函數(shù)所擬合的曲線為連接每個(gè)原數(shù)據(jù)點(diǎn)在前后中處形成了尖角,曲線并不圓順。且由三次樣條函數(shù)涉及矩陣求逆,擬合點(diǎn)數(shù)增加時(shí)矩陣將增大,使得求逆越麻煩,因此若當(dāng)掃描所得的數(shù)據(jù)點(diǎn)很多時(shí),其擬合速度將大大減慢。

        由表1可知,采用RBF和BP神經(jīng)網(wǎng)絡(luò)進(jìn)行曲線擬合,其均方誤差均達(dá)到所設(shè)定的目標(biāo)誤差10-4,顯然比最小二乘法的擬合精度高。且平均絕對(duì)誤差與最小二乘法及三次樣條的平均絕對(duì)誤差相比大大減小,但從擬合速度上比較,由于神經(jīng)網(wǎng)絡(luò)存在訓(xùn)練過程,因此所需時(shí)間相對(duì)要長(zhǎng)。

        比較各截面RBF神經(jīng)網(wǎng)絡(luò)與BP神經(jīng)網(wǎng)絡(luò)的擬合效果發(fā)現(xiàn),RBF神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,隱含層的節(jié)點(diǎn)個(gè)數(shù)是從0開始,過程中通過檢查輸出誤差(MSE)與目標(biāo)誤差(goal)的偏差值,使建立的網(wǎng)絡(luò)自動(dòng)增加神經(jīng)元個(gè)數(shù),直到網(wǎng)絡(luò)的輸出均方誤差MSE符合目標(biāo)10-4的要求,此時(shí)由RBF神經(jīng)網(wǎng)絡(luò)訓(xùn)練所需訓(xùn)練步數(shù)顯然小于由BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練所需訓(xùn)練步數(shù)。例如著裝臀圍截面曲線訓(xùn)練的神經(jīng)元數(shù)目增加到144個(gè),即RBF網(wǎng)絡(luò)在臀圍截面中的訓(xùn)練步數(shù)為144,如圖7所示,而BP神經(jīng)網(wǎng)絡(luò)在達(dá)到規(guī)定的期望均方誤差10-4時(shí),臀圍截面中的訓(xùn)練步數(shù)為402,如圖8所示。BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練步數(shù)遠(yuǎn)遠(yuǎn)大于RBF神經(jīng)網(wǎng)絡(luò)。同時(shí)比較二者的訓(xùn)練時(shí)間發(fā)現(xiàn),運(yùn)用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行各著裝特征截面擬合所用的訓(xùn)練時(shí)間為使用RBF神經(jīng)網(wǎng)絡(luò)的3~5倍。顯然,RBF神經(jīng)網(wǎng)絡(luò)相對(duì)于BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度快,所需的訓(xùn)練步數(shù)少,能在較短時(shí)間內(nèi)完成服裝特征截面曲線的擬合。

        圖5 三次樣條擬合結(jié)果Fig.5 Fitting results of cubic splines

        圖6 襠部后中處擬合結(jié)果Fig.6 Fitting results of back center of crotch.(a)Cubic splines;(b)RBF

        對(duì)創(chuàng)建好的網(wǎng)絡(luò)進(jìn)行仿真,同時(shí)繪制得到樣本數(shù)據(jù)的擬合曲線,由RBF和BP神經(jīng)網(wǎng)絡(luò)得到的擬合曲線分別如圖9、10所示。由圖9可見,建立的RBF網(wǎng)絡(luò)對(duì)訓(xùn)練樣本進(jìn)行了很好的擬合,訓(xùn)練網(wǎng)絡(luò)的仿真輸出曲線和原始數(shù)據(jù)非常接近,擬合曲線整體光滑且無振蕩。這說明訓(xùn)練后的網(wǎng)絡(luò)對(duì)服裝及人體特征截面此類非線性封閉曲線的逼近效果很好。由圖10可見,訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)對(duì)特征截面曲線的擬合效果也同樣非常好,仿真輸出曲線和原始曲線接近。

        圖7 RBF誤差性能曲線Fig.7 Error performance curve of RBF

        圖8 BP誤差性能曲線Fig.8 Error performance curve of BP

        由表1可知,RBF神經(jīng)網(wǎng)絡(luò)對(duì)著裝各截面測(cè)試點(diǎn)的平均絕對(duì)誤差為0.2% ~0.6%,BP神經(jīng)網(wǎng)絡(luò)為0.2% ~0.7%,較為接近且均在1%以下,相對(duì)于最小二乘法的平均絕對(duì)誤差1.0%~1.3%以及三次樣條的平均絕對(duì)誤差1.0% ~1.4%顯然較小,因此,在擬合效果上2種神經(jīng)網(wǎng)絡(luò)的精度均較高。

        圖9 RBF擬合結(jié)果Fig.9 Fitting results of RBF

        圖10 BP擬合結(jié)果Fig.10 Fitting results of BP

        對(duì)于圖6(a)出現(xiàn)的問題,由圖6(b)可見RBF擬合曲線在人體凹陷處圓順無尖角且又與原數(shù)據(jù)點(diǎn)接近偏差小,該方法對(duì)于前后數(shù)據(jù)點(diǎn)位置起伏較大的擬合較優(yōu)。由表1可見,對(duì)于同一著裝截面2種神經(jīng)網(wǎng)絡(luò)的平均絕對(duì)誤差接近。但由RBF神經(jīng)網(wǎng)絡(luò)訓(xùn)練的一組截面比BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的一組截面所需的訓(xùn)練時(shí)間明顯短,速度快。而在達(dá)到規(guī)定的期望均方誤差前提下,RBF網(wǎng)絡(luò)的訓(xùn)練步數(shù)要小于BP神經(jīng)網(wǎng)絡(luò)。

        由上述分析可知,RBF神經(jīng)網(wǎng)絡(luò)擬合服裝特征截面曲線具有良好的效果,擬合得到特征截面曲線以后,若要生成完整的褲裝,接著在特征部位之間按照一定的步長(zhǎng)對(duì)掃描所得的著裝人體模型進(jìn)行截取,即可得到一系列的截面環(huán),在后續(xù)研究中可通過輪廓線表面重建的方法,根據(jù)截面環(huán)來構(gòu)建褲子曲面。

        5 結(jié)論

        1)采用神經(jīng)網(wǎng)絡(luò)對(duì)特征截面曲線進(jìn)行擬合,仿真輸出曲線和原始數(shù)據(jù)均非常接近,能夠達(dá)到目標(biāo)誤差且平均絕對(duì)誤差小,擬合曲線整體光滑且無振蕩,訓(xùn)練后的網(wǎng)絡(luò)對(duì)服裝及人體特征截面此類非線性封閉曲線的逼近效果很好。

        2)RBF神經(jīng)網(wǎng)絡(luò)相對(duì)于BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度快。在達(dá)到規(guī)定的期望均方誤差前提下,RBF網(wǎng)絡(luò)的訓(xùn)練步數(shù)要少于BP神經(jīng)網(wǎng)絡(luò)。

        [1] MACHIKO Miyoshi,TAEKO Hirokawa.Study on the method of measuring a vacant space distance in a worn jacket for clothing pattern design[J].Journal of the Japan Research Association for Textile End-Uses,2001,42:233-242.

        [2] SUSAN Ashdown,SUZANNE Loker.Use of body scan data to design sizing systems based on target markets[J]. National Textile Center Annual Report,2011(11):1-5.

        [3] 徐繼紅,張文斌,夏明.人體與服裝特征曲面間闊體松量分配關(guān)系[J].天津工業(yè)大學(xué)學(xué)報(bào),2009,28(5):27-32.XU Jihong,ZHANG Wenbin,XIA Ming.Vacant ease distribution relationship between body and garment[J].Journal of Tianjin Polytechnic University,2009,28(5):27-32.

        [4] 鄭娟.立體裁剪專用松量模型的研制[D].杭州:浙江理工大學(xué),2010:1-40.ZHENG Juan.Exploitation of special ease model for draping[D].Hangzhou:Zhejiang Sci-Tech University,2010:1-40.

        [5] 盛仲飚,同曉榮.BP神經(jīng)網(wǎng)絡(luò)在曲線擬合中的應(yīng)用[J].科學(xué)技術(shù)與工程,2011,11(28):6998 -7000.SHENG Zhongbiao,TONG Xiaorong.The application of BP meural networks in curve fitting[J].Science Technology and Engineering,2011,11(28):6998 -7000.

        [6] YOSHIKO Taya.An evaluation method of clothing fitness with body[J].Proceedings of the Human Factors and Ergonomics Society Annual Meeting,2000,44:762 -765.

        [7] WANG Z H.Study on the method of measuring a vacant space distance in a worn jacket for clothing pattern design[D].Hong Kong:The Hong Kong Polytechnic University,2007:1 -56.

        [8] 吳長(zhǎng)楠.神經(jīng)網(wǎng)絡(luò)在曲線擬合中的應(yīng)用[J].蘇州職業(yè)大學(xué)學(xué)報(bào),2000(4):62-65.WU Changnan.Neural network in the application of curve fitting[J].Journal of Suzhou Vocational University,2000(4):62 -65.

        [9] 嚴(yán)曉明,鄭之.BP與RBF網(wǎng)絡(luò)在一些非線性曲線擬合上性能的比較[J].福建農(nóng)林大學(xué)學(xué)報(bào):自然科學(xué)版,2011,40(6):653 -656.YAN Xiaoming,ZHENG Zhi.Performance comparison between some nonlinear curves fitting with BP and RBF[J].Journal of Fujian Agriculture and Forestry University Natural Science Edition,2011,40(6):653 -656.

        [10] 李國(guó)勇.智能控制及其 MATLAB實(shí)現(xiàn)[M].北京:電子工業(yè)出版社,2005:31.LI Guoyong.Intelligent Control and MATLAB[M].Bejing:Publishing House of Electronics Industry,2005:31.

        [11] 劉金琨.智能控制[M].北京:電子工業(yè)出版社,2014:133.LIU Jinkun.Intelligent Control[M].Beijing:Publishing House of Electronics Industry,2014:133.

        [12] 彭繼慎,董晶.基于RBF神經(jīng)網(wǎng)絡(luò)的控制系統(tǒng)傳感器故障診斷方法[J].現(xiàn)代電子技術(shù),2009(12):179-182.PENG Jishen,DONG Jing.Method of control system sensor fault dignosis based on RBF neural network[J].Modern Electronics Technique,2009(12):179 -182.

        Construction of radial basis function neural network models for typical cross section curve of shorts

        YE Xiaolu1,PANG Chengfang1,JIN Juanfeng1,ZOU Fengyuan1,2
        (1.School of Fashion Design & Engineering,Zhejiang Sci-Tech University,Hangzhou,Zhejiang 310018,China;2.Zhejiang Provincial Research Center of Clothing Engineering Technology,Hangzhou,Zhejiang 310018,China)

        Three-dimensional body scanning technique is used to collect point clouds data from the dressed mannequin and capture the shorts'typical cross section that is correspondent to the feature points of body.By changing the original coordinate point to polar angle and polar radius under the polar coordinate system,and taking the polar angle as the input and the polar radius as the output,RBF neural network model of the shorts'typical cross section is established.Then the curve of clothing typical cross section is fitted and the fitting effect is compared with that of BP,least square method and cubic splines.The experiment results show that the mean average absolute percentage error of both neural networks is less than that of least square method and cubic splines.The simulation output curve is very close to original data and the curve is smooth.RBF network has much higher training speed,fewer training steps,and fitting efficiency superior to the BP neural network.

        shorts;typical cross section;RBF neural network;curve fitting;MatLab simulation

        TS 941.17

        A

        10.13475/j.fzxb.20140405006

        2014-04-17

        2014-11-06

        國(guó)家國(guó)際科技合作專項(xiàng)項(xiàng)目(2011DFB51570);浙江理工大學(xué)研究生創(chuàng)新研究項(xiàng)目(YCX13016)

        葉曉露(1989—),女,碩士生。主要研究方向?yàn)槿梭w工程與數(shù)字服裝。鄒奉元,通信作者,E-mail:zfy166@zstu.edu.cn。

        猜你喜歡
        曲線擬合樣條服裝
        一元五次B樣條擬插值研究
        讓人心碎的服裝
        三次參數(shù)樣條在機(jī)床高速高精加工中的應(yīng)用
        曲線擬合的方法
        基于曲線擬合的投棄式剖面儀電感量算法
        三次樣條和二次刪除相輔助的WASD神經(jīng)網(wǎng)絡(luò)與日本人口預(yù)測(cè)
        軟件(2017年6期)2017-09-23 20:56:27
        基于樣條函數(shù)的高精度電子秤設(shè)計(jì)
        現(xiàn)在可以入手的mina風(fēng)高性價(jià)比服裝
        Matlab曲線擬合工具箱在地基沉降預(yù)測(cè)模型中的應(yīng)用
        Matlab曲線擬合法在地基沉降預(yù)測(cè)中的應(yīng)用
        精品午夜福利无人区乱码一区| 中文字字幕在线中文乱码解| 九九在线中文字幕无码| 国语自产偷拍精品视频偷| 久久精品国产亚洲不av麻豆| 在线亚洲免费精品视频| 丰满精品人妻一区二区 | 97青草超碰久久国内精品91| 牛牛在线视频| 国产一区二区三区美女| 少妇被粗大猛进进出出| 久久久精品毛片免费观看| 国产一区二区三区日韩在线观看| 国产精品日本一区二区在线播放 | 狠狠躁夜夜躁无码中文字幕| 中文无码免费在线| 午夜精品免费视频一区二区三区| 无码人妻少妇久久中文字幕蜜桃| 精品丝袜人妻久久久久久| 亚洲伊人免费综合网站| 青青草视频在线观看视频免费| 亚洲国产中文字幕视频| 熟女人妻在线视频| 亚洲中文字幕乱码免费| av黄色大片久久免费| 亚洲高清乱码午夜电影网| 亚洲中久无码永久在线观看软件| 日韩精品一区二区av在线| 丁香婷婷激情视频在线播放| 熟女熟妇伦av网站| 国产精品白浆视频免费观看| 亚洲精品国产综合久久| 久久精品亚洲一区二区三区浴池 | 久99久精品免费视频热77| 免费看黄视频亚洲网站| 乱人妻中文字幕| 一级片麻豆| 高清av一区二区三区在线| 福利视频一区二区三区| 欧美成人午夜精品久久久| 色播中文字幕在线视频|