亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于擴散模型的ControlNet網(wǎng)絡(luò)虛擬試衣研究

        2024-05-14 00:00:00郭宇軒孫林
        現(xiàn)代紡織技術(shù) 2024年3期
        關(guān)鍵詞:試衣效果圖連衣裙

        摘 要:為快速生成特定服裝款式的成衣效果圖,采用擴散模型,應(yīng)用ControlNet網(wǎng)絡(luò)實現(xiàn)虛擬試衣。首先將人體的關(guān)鍵點檢測圖與深度圖作為擴散模型的控制條件,生成姿態(tài)可控的虛擬模特;再通過Canny邊緣圖生成虛擬試衣效果圖。以3款連衣裙為例進行虛擬試衣實驗,并優(yōu)化擴散模型控制條件的參數(shù)設(shè)置;最后將生成結(jié)果與三維建模虛擬試衣結(jié)果進行對比和評價。結(jié)果表明:結(jié)合ControlNet網(wǎng)絡(luò)的擴散模型能夠控制虛擬模特的姿態(tài)特征,通過服裝Canny邊緣圖可以生成特定服裝款式的虛擬試衣效果。該方法生成的虛擬試衣相較三維建模技術(shù)實現(xiàn)的虛擬試衣方法更具表現(xiàn)力,操作更加直觀快捷,能夠為設(shè)計師提供款式圖的成衣效果可視化參考,從而提高服裝設(shè)計效率。

        關(guān)鍵詞:虛擬試衣;擴散模型;ControlNet網(wǎng)絡(luò);虛擬模特;人體關(guān)鍵點檢測;服裝設(shè)計

        中圖分類號:TS941.26

        文獻標志碼:A

        文章編號:1009-265X(2024)03-0118-11

        收稿日期:20230730

        網(wǎng)絡(luò)出版日期:20231025

        基金項目:遼寧省教育廳科研項目(LJKFR20220220)

        作者簡介:郭宇軒(2000—),男,河北邯鄲人,碩士研究生,主要從事人工智能服裝設(shè)計方面的研究。

        通信作者:孫林, E-mail: Sunlinart@163.com

        虛擬試衣能夠呈現(xiàn)直觀的成衣試穿效果,提高服裝設(shè)計效率,節(jié)約開發(fā)成本[1]?;谌S建模技術(shù)實現(xiàn)的虛擬試衣,可根據(jù)數(shù)字化服裝紙樣進行虛擬縫制,并在三維人體模型上呈現(xiàn)試衣效果[2],能夠較為準確、直觀地展現(xiàn)服裝的空間結(jié)構(gòu)以及服裝與人體的貼合狀態(tài)。常用的三維建模虛擬試衣軟件有Vstitcher、CLO3D、Style3D等[3],但這些軟件需要大量建模成本,更換與調(diào)整模型需要重新繪制紙樣,更新大量參數(shù),難以快速、高效地實現(xiàn)虛擬試衣。

        隨著計算機技術(shù)與機器學(xué)習(xí)的發(fā)展,二維虛擬試衣技術(shù)成為研究熱點。Goodfellow等[4]提出的生成對抗網(wǎng)絡(luò)(Generative adversarial networks, GANs)在圖像生成領(lǐng)域取得了成功,為后續(xù)的虛擬試衣技術(shù)開發(fā)提供基礎(chǔ)。在條件式生成對抗網(wǎng)絡(luò)(Contradiction generative adversarial network, CGAN)[5]基礎(chǔ)上改進的條件類比生成對抗網(wǎng)絡(luò)(Condition analogy generative adversarial network, CA-GAN)[6]應(yīng)用于虛擬試衣領(lǐng)域,實現(xiàn)簡單姿態(tài)的模特換裝,但生成的服裝無法適應(yīng)模特的動作變化[7]。為解決這一問題,Han等[8]提出了VITON(Virtual try on)虛擬試衣網(wǎng)絡(luò),將平鋪的服裝扭曲變形后合成到模特圖像的相應(yīng)區(qū)域,實現(xiàn)了虛擬試衣;Wang等[9]在VITON網(wǎng)絡(luò)的基礎(chǔ)上,提出了保留特征的虛擬試穿網(wǎng)絡(luò)(CP-VITON)。Men等[10]提出的屬性分離生成對抗網(wǎng)絡(luò)"(Attribute decomposed generative adversarial network, ADGAN)實現(xiàn)了樣式可控的人像生成;張淑芳等[11]在ADGAN基礎(chǔ)上進一步提高了生成圖像質(zhì)量。上述二維虛擬試衣技術(shù)傾向于解決線上購物的試衣難題,只能根據(jù)真實服裝生成虛擬試衣圖像,因此,在服裝設(shè)計階段如何利用二維虛擬試衣技術(shù),為設(shè)計師提供服裝款式的成衣效果圖參考,提高設(shè)計效率,成為需要解決的問題。

        近年來,擴散模型(Diffusion model)在圖像生成領(lǐng)域脫穎而出,成為解決上述問題的著力點之一。然而,基于該模型的虛擬試衣方法通常以文本提示作為生成條件,圖像生成具有隨機性,難以準確生成虛擬模特姿態(tài)和服裝款式。Zhang等[12]提出了ControlNet網(wǎng)絡(luò),該網(wǎng)絡(luò)使得擴散模型的生成圖像更加可控,訓(xùn)練后的ControlNet網(wǎng)絡(luò)能夠進一步根據(jù)Canny邊緣圖、深度圖、人體關(guān)鍵點圖等圖像信息調(diào)整擴散模型,控制生成圖像的人體姿態(tài)、邊緣特征、前后位置關(guān)系等,為實現(xiàn)快速虛擬試衣提供了新的思路。本文以連衣裙虛擬試衣為例,采用擴散模型,通過ControlNet網(wǎng)絡(luò)生成指定服裝款式的虛擬試衣,實現(xiàn)快速生成服裝款式的成衣效果圖,從而為設(shè)計師提供特定款式圖的可視化成衣效果,進而提高服裝設(shè)計效率。

        1 擴散模型概述

        Sohl-Dickstein等[13]受到非平衡熱力學(xué)的啟發(fā),提出擴散概率模型(Diffusion probabilistic models),并利用不同數(shù)據(jù)集測試模型的實用性,但是與同時期的其他生成模型相比,擴散概率模型生成的圖像質(zhì)量并不突出。此后,Song等[14]提出一種基于分數(shù)的生成模型(Score-based generative modeling),通過分數(shù)匹配 (Score matching)方法估計數(shù)據(jù)密度的梯度,再應(yīng)用朗之萬動力學(xué)(Langevin dynamics)生成圖像,并提出通過噪聲條件分數(shù)網(wǎng)絡(luò)(Noise conditional score networks,NCSN)和退火朗之萬動力學(xué)(Annealed Langevin dynamics)采樣改進模型,實現(xiàn)高質(zhì)量圖像的生成。 Ho等[15]基于Song的研究優(yōu)化了擴散概率模型,提出去噪擴散概率模型(Denoising diffusion probabilistic models, DDPM),并證明擴散模型同樣能夠生成高質(zhì)量圖像。去噪擴散概率模型模型分為前向的擴散過程(Forward process)和反向的逆擴散過程(Reverse process)。前向過程通過對初始圖像添加T次噪聲,將輸入的真實圖像x0漸近變換為純高斯噪聲的圖像xT,在每一步加噪過程中,xt-1添加一個高斯噪聲產(chǎn)生一個新的隱變量xt,從第t-1步到第t步的圖像加噪過程可以用高斯分布表示為:

        q(xt|xt-1)=N(xt;1-βtxt-1,βtI),

        其中:1-βtxt-1表示高斯分布的均值,βtI表示高斯分布的方差,βt是隨t逐漸增大的超參數(shù),I表示與輸入樣本x0具有相同維數(shù)的單位矩陣。擴散模型的前向過程可以表示為從t=1到t=T時刻的馬爾科夫鏈:

        q(x1:Tx0)=∏Tt=1q(xtxt-1)。

        DDPM模型反向過程也是一個馬爾科夫鏈,通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)預(yù)測反向擴散過程的高斯分布方差和均值,對加噪圖像逐步去噪生成圖像。Dhariwal等[16]使用分類器引導(dǎo)模型進行采樣和生成,并提出使用對比語言圖像預(yù)訓(xùn)練(Contrastive language-image pretraining,CLIP)網(wǎng)絡(luò)代替分類器,實現(xiàn)利用文本引導(dǎo)圖像生成。Rombach等[17]提出了隱含擴散模型"(Latent diffusion models),使用預(yù)訓(xùn)練的自編碼器(Autoencoders)將圖像壓縮至隱含空間(Latent space),并在隱含空間中訓(xùn)練擴散模型,從而能夠大大減少計算復(fù)雜度,同時也能實現(xiàn)高分辨率的圖像生成,為擴散模型的實際應(yīng)用奠定基礎(chǔ)。本文使用的擴散模型為Stable diffusion模型。Stable diffusion模型是以隱含擴散模型作為基礎(chǔ),在LAION-5B數(shù)據(jù)集訓(xùn)練得到的用于圖像生成的大型擴散模型,支持文本轉(zhuǎn)圖像(Text-to-image)、圖像轉(zhuǎn)圖像(Image-to-image)等功能,自2022年發(fā)布以來成為用于圖像生成的主流模型之一。

        2 ControlNet網(wǎng)絡(luò)

        服裝設(shè)計師能夠通過文本提示詞(Prompt)與反向提示詞(Negative prompt)控制Stable diffusion模型生成圖像,實現(xiàn)靈感的快速可視化,文本描述對生成的圖像內(nèi)容起決定性作用。然而,根據(jù)文本描述生成的圖像具有一定的隨機性,對于特定服裝的虛擬試衣任務(wù),僅根據(jù)模特姿態(tài)、服裝款式、面料色彩的文本描述進行圖像生成,會導(dǎo)致生成的服裝與最初的設(shè)計存在差別。ControlNet網(wǎng)絡(luò)的應(yīng)用大大提高了圖像生成的可控性,實現(xiàn)了在大型擴散模型中附加多種空間語義條件來控制圖像的生成[18]。ControlNet網(wǎng)絡(luò)通過復(fù)制一份可訓(xùn)練的擴散模型參數(shù)副本在特定的數(shù)據(jù)集上學(xué)習(xí)條件控制,同時保留一份原本擴散模型從大型數(shù)據(jù)集中學(xué)習(xí)到的網(wǎng)絡(luò)參數(shù),二者通過零卷積層連接,最終實現(xiàn)對擴散模型生成圖像的微調(diào)。特定控制條件的實現(xiàn),需要使用對應(yīng)的圖像數(shù)據(jù)集訓(xùn)練ControlNet網(wǎng)絡(luò),例如,使用Canny邊緣檢測算法[19]處理圖像得到的邊緣圖作為數(shù)據(jù)集,訓(xùn)練出的ControlNet網(wǎng)絡(luò)能夠控制Stable diffusion模型按照指定的邊緣輪廓進行圖像生成。本文方法應(yīng)用Canny邊緣圖、深度圖、人體關(guān)鍵點檢測圖(Openpose)[20]對應(yīng)的數(shù)據(jù)集所訓(xùn)練的ControlNet網(wǎng)絡(luò),引導(dǎo)Stable diffusion模型對指定的服裝款式與虛擬模特進行生成,實現(xiàn)虛擬試衣。

        3 本文方法

        本文虛擬試衣方法包括虛擬模特生成和模特試衣效果圖生成兩部分,方法的流程框架如圖1所示。首先對真人服裝模特圖像進行采樣,提取模特的人體關(guān)鍵點圖與深度圖作為生成條件,應(yīng)用ControlNet網(wǎng)絡(luò)控制Stable diffusion模型生成特定姿態(tài)的虛擬模特。此后,通過Canny邊緣檢測算法提取虛擬模特的邊緣圖,結(jié)合所需試衣服裝的款式圖對虛擬模特的邊緣圖進行編輯和修改,繪制虛擬模特穿著特定款式服裝的邊緣圖,最后將其作為生成條件,結(jié)合文本提示詞,控制Stable diffusion模型生成指定款式服裝的虛擬試衣效果圖。

        4 連衣裙虛擬試衣生成實驗

        通過設(shè)計虛擬試衣的實驗,驗證方法的可行性與實用性。選擇兩種模特姿態(tài)與3款連衣裙進行生成實驗,評估ControlNet網(wǎng)絡(luò)的輸入條件對Stable diffusion模型生成虛擬試衣圖像的控制效果,并對不同參數(shù)設(shè)置下的實驗結(jié)果進行比較分析。

        4.1 實驗環(huán)境

        本次實驗使用的計算機硬件配置:顯卡型號NVIDIA GeForce RTX 3080 Laptop GPU,CPU型號為11th Gen Intel(R) Core(TM) i7-11800H@2.30 GiHz,顯存16 Gi,內(nèi)存16 Gi。編程語言:Python 310.6。擴散模型:Stable diffusion。ControlNet網(wǎng)絡(luò)版本:ControlNet v1.1.224。

        4.2 虛擬模特生成

        4.2.1 模特姿態(tài)生成

        為展現(xiàn)服裝的虛擬試衣效果,首先需要對服裝模特進行設(shè)計和生成,通過對常見服裝模特展示服裝的姿態(tài)調(diào)查,選擇圖2(a)所示真人模特姿態(tài)進行采樣。使用預(yù)處理模型openpose_full對真人模特的肢體關(guān)鍵點、手指關(guān)鍵點、臉部輪廓以及五官分布進行識別和標注,獲得如圖2(b)所示人體關(guān)鍵點檢測圖,用于控制生成模特姿態(tài)以及五官分布;使用預(yù)處理模型depth_midas獲取如圖2(c)所示的深度圖像,深度圖能夠提供模特肢體的空間關(guān)系,控制生成

        圖像的空間特征更加準確。實驗使用control_v11p_sd15_openpose_fp16模型識別并控制生成模特姿態(tài),ControlNet網(wǎng)絡(luò)控制權(quán)重設(shè)置為1;control_v11f1p_sd15_depth_fp16模型控制生成模特圖像的深度信息,ControlNet網(wǎng)絡(luò)控制權(quán)重設(shè)置為0.8。附加關(guān)鍵文本提示詞為:亞洲女性、黑色頭發(fā)、黑色短袖短褲、高跟鞋,用于控制模特膚色、發(fā)型發(fā)色、著裝等細節(jié)特征;Stable diffusion模型的風(fēng)格化微調(diào)模型使用LOFIv22。最終生成結(jié)果如圖2(d)所示。

        4.2.2 模特細節(jié)特征控制

        在姿態(tài)控制的基礎(chǔ)上進行細節(jié)特征控制實驗,主要以文本提示詞進行控制,如圖3所示。圖3(a)"使用提示詞為“金色頭發(fā)”,圖3(b)提示詞則為“紅色頭發(fā)”;同理,通過更換提示詞和風(fēng)格化微調(diào)模型可以實現(xiàn)控制生成圖3(c)歐洲女性模特和圖3(d)非洲女性模特,為試衣提供多樣化、定制化的模特選擇。

        4.3 虛擬試衣效果呈現(xiàn)

        4.3.1 連衣裙款式設(shè)計

        首先繪制三款連衣裙服裝款式圖作為試衣款式,如圖4所示。其中,款式A為基礎(chǔ)連衣裙款式,衣身兩側(cè)結(jié)構(gòu)拼接設(shè)計,塑造立體感;款式B為非對稱設(shè)計,左肩設(shè)計吊帶,下擺開叉;款式C為長款禮服裙,并在腰間立體打褶設(shè)計,實驗主要以款式A的虛擬試衣效果說明繪制流程,并應(yīng)用款式B與款式C進一步驗證方法的可行性與通用性。

        4.3.2 虛擬試衣效果圖生成

        虛擬試衣效果圖的生成需要以邊緣輪廓作為生成控制條件,以達到準確表現(xiàn)服裝款式的目的。將上文方法生成的亞洲模特作為試衣模特,利用Canny邊緣檢測算法處理虛擬模特圖像獲得模特邊緣圖;結(jié)合連衣裙款式A,使用Adobe Illustrator軟件對邊緣圖進行部分重繪,獲得模特著裝邊緣圖,將其作為生成最終試衣效果圖的邊緣控制條件。繪制流程如圖5所示。

        以模特著裝邊緣圖作為控制條件進行虛擬試衣效果圖的生成,使用control_v11p_sd15_canny_fp16模型控制生成圖像的邊緣輪廓,ControlNet網(wǎng)絡(luò)控制權(quán)重為1;生成圖像大小為512×992像素,提示詞相關(guān)性(CFG Scale)設(shè)置為13.5,每張圖像的采樣迭代步數(shù)(Steps)設(shè)置為150步,實驗設(shè)備上每張圖像生成時間約為75 s,進行5到10次生成后,選擇表現(xiàn)效果較好的圖像作為最終結(jié)果。實驗發(fā)現(xiàn),生成圖像能夠根據(jù)模特著裝邊緣圖較為清楚地表現(xiàn)服裝領(lǐng)型、廓形、衣身結(jié)構(gòu)線,通過文本提示詞實現(xiàn)對服裝色彩的控制,例如提示詞為“黑色連衣裙”,生成效果為純黑色連衣裙,如圖6(a)所示;提示詞為“白色連衣裙”,效果如圖6(b)所示;提示詞為“黑色與黃色連衣裙(Black and yellow dress)”則能夠控制圖像在分界線處進行黑黃拼接設(shè)計,如圖6(c)所示。同時實驗還發(fā)現(xiàn),根據(jù)邊緣圖的線條生成圖像可能會生成多余的元素,例如將領(lǐng)口線錯誤生成為項鏈配飾,可通過在反向文本提示詞中標注出多余元素的方法減少生成誤差;在提示詞控制色彩效果不明顯時,可適當提高提示詞相關(guān)性(CFG Scale)和提示詞權(quán)重以達到滿意的提示詞表現(xiàn)效果。

        實驗通過設(shè)計面料提示詞更換同一款式連衣裙的面料,探究提示詞權(quán)重對生成效果的影響,關(guān)鍵提示詞設(shè)計為“綠色絲綢連衣裙(Green silk dress)”、“綠色針織連衣裙(Green knitted dress)”、“綠色皮革連衣裙(Green leather dress)”,將三組關(guān)鍵提示詞的權(quán)重由0.8逐漸增加至1.3,分別進行連衣裙生成實驗,實驗生成效果如圖7所示。實驗中發(fā)現(xiàn),關(guān)鍵提示詞權(quán)重大于0.8時,綠色絲綢連衣裙與綠色針織連衣裙的面料、色彩特征能夠明顯呈現(xiàn),綠色皮革連衣裙在提示詞權(quán)重小于1.1時僅能夠表現(xiàn)皮革面料特征,無法明顯表達色彩特征,服裝仍然為白色,提示詞權(quán)重大于1.1時,面料與色彩特征可以同時表達,因此,需要根據(jù)不同提示詞靈活調(diào)整權(quán)重,權(quán)重設(shè)置低容易造成部分語義信息表現(xiàn)能力弱,生成圖像的效果不佳。

        同時,實驗發(fā)現(xiàn)生成服裝的面料特征隨著提示詞權(quán)重的增加不斷增強,權(quán)重設(shè)置過高容易覆蓋其他提示詞效果并出現(xiàn)語義雜糅、畫面混亂,如關(guān)鍵提示詞權(quán)重增加至1.4,服裝面料特征表現(xiàn)能力過強,生成圖像的模特背景會帶有面料質(zhì)感的元素,同時服裝出現(xiàn)原本款式設(shè)計以外的結(jié)構(gòu),導(dǎo)致生成效果不佳,如圖8所示。通過實驗比較不同權(quán)重的生成效果,最終將絲綢面料權(quán)重設(shè)置為1,針織面料權(quán)重設(shè)置為0.9,皮革面料權(quán)重設(shè)置為1.2,使生成服裝的色彩和面料都達到較好表現(xiàn)效果,生成虛擬試衣效果如圖9所示。

        本文通過連衣裙款式B與款式C進一步驗證上文方法控制生成虛擬試衣圖像的普遍適用性,選擇與款式A相同的服裝模特邊緣圖進行連衣裙款式編輯,獲得款式B與款式C的著裝效果邊緣圖,并作為生成姿態(tài)與款式的控制條件,款式B關(guān)鍵提示詞為“紅色針織短款連衣裙與黑色腰帶”,款式C關(guān)鍵提示詞為“藍色絲綢連衣裙”,通過上述方法生成虛擬試衣效果如圖10所示。

        4.4 不同虛擬試衣方法的對比與評價

        為比較不同虛擬試衣方法的操作與試衣效果的差異,本文選擇VITON虛擬試衣網(wǎng)絡(luò)、CLO3D、Style3D與本文方法進行對比,不同虛擬試衣方法的

        技術(shù)原理與操作方法如表1所示。以VITON虛擬試衣網(wǎng)絡(luò)為代表的二維虛擬試衣方法,輸入為用戶與目標服裝圖像,輸出為用戶穿著目標服裝的試衣效果圖,合成的試衣效果圖保留用戶人體姿態(tài)與目標服裝的款式細節(jié)[21]。與本文方法相比,二維虛擬試衣方法側(cè)重于解決用戶線上購物的試衣問題[22],無法生成原創(chuàng)的虛擬模特與虛擬服裝,也不支持對輸入的用戶姿態(tài)與服裝款式進行控制和調(diào)整,難以在服裝設(shè)計階段為設(shè)計師提供虛擬服裝的試衣效果。

        CLO3D與Style3D是服裝設(shè)計階段常用的三維虛擬試衣方法,在不制作服裝成衣的情況下,可通過服裝與人體建模的方法展示服裝虛擬試衣效果。文章使用兩種三維試衣方法與本文方法生成相同姿態(tài)虛擬模特穿著同一款式服裝的虛擬試衣效果圖,生成效果如圖11所示。3種方法都能夠較為準確地表現(xiàn)服裝的款式、面料與色彩特征。與三維建模方法相比,本文方法對虛擬模特姿態(tài)的控制更加簡化,不需要手動操作控制虛擬模特肢體位置,僅需要使用人體關(guān)鍵點圖像作為輸入條件即可控制模特姿態(tài);同時本文方法對服裝款式的調(diào)整更加直觀,無需重新繪制服裝版型和虛擬縫合,只通過更改服裝邊緣輪廓并用擴散模型生成即可得到高質(zhì)量圖像,減少3D建模成本以及模型渲染所帶來的設(shè)備壓力;在生成效果方面,本文方法生成的虛擬模特姿態(tài)與面部五官更加生動自然,虛擬模特皮膚質(zhì)感與虛擬服裝的面料質(zhì)感更加細膩,并且更接近真實效果,此外擴散模型生成的背景環(huán)境與光影效果使整體試衣圖像更具有美感和表現(xiàn)力。

        5 結(jié) 論

        本文提出了一種應(yīng)用擴散模型與ControlNet網(wǎng)絡(luò)的生成式虛擬試衣方法,達到由服裝款式圖生成虛擬試衣效果圖的目的。通過3款連衣裙的虛擬試衣實驗,驗證了本文方法的實用性;生成的試衣效果圖能夠較為準確地表現(xiàn)款式圖中的服裝輪廓、結(jié)構(gòu)、面料與色彩。本文方法能夠在不制作服裝成衣的前提下,快捷地為設(shè)計師提供款式圖的成衣效果參考,輔助設(shè)計師調(diào)整與完善設(shè)計,提高服裝設(shè)計效率。

        本文提出的虛擬試衣方法仍然存在一些不足,如生成服裝的色彩和面料只能根據(jù)文本描述粗略定義,生成模型難以理解部分服裝設(shè)計與服裝工藝的專業(yè)術(shù)語等,需要在后續(xù)研究中進一步提高生成的可控性,為服裝設(shè)計的智能化提供更高效的手段。

        參考文獻:

        [1]"崔萌,陳素英,殷文,等.基于虛擬試衣技術(shù)的服裝設(shè)計與開發(fā)[J].毛紡科技,2020,48(6):58-61.

        CUI Meng, CHEN Suying, YIN Wen, et al. Design and development of clothing based on virtual fitting technology[J]. Wool Textile Journal, 2020, 48(6): 58-61.

        [2]"楊秀麗,謝子欣.基于3D虛擬試衣技術(shù)的服裝可視化結(jié)構(gòu)設(shè)計[J].針織工業(yè),2023(2):70-74.

        YANG Xiuli, XIE Zixin.Visualized structure design of clothing based on 3D virtual fitting technology[J]. Knitting Industries,2023(2):70-74.

        [3]"薛蕭昱,何佳臻,王敏.三維虛擬試衣技術(shù)在服裝設(shè)計與性能評價中的應(yīng)用進展[J].現(xiàn)代紡織技術(shù),2023,31(2):12-22.

        XUE Xiaoyu, HE Jiazhen, WANG Min. Application progress of 3Dvirtual fitting technology in fashion design and performance evaluation[J]. Advanced Textile Technology, 2023, 31(2):12-22.

        [4]"GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge, MA, USA: MIT Press, 2014: 2672-2680.

        [5]"MIRZA M, OSINDERO S. Conditional generative adversarial nets[C]NIPS Proceedings of advances in Neural Information Processing Systems. Cambridge, MA, USA: MIT Press, 2014:5767-5777.

        [6]"JETCHEV N, BERGMANN U. The conditional analogy GAN: Swapping fashion articles on people images[C]IEEE International Conference on Computer Vision Workshops (ICCVW). Venice, Italy: IEEE, 2018: 2287-2292.

        [7]"張穎,劉成霞.生成對抗網(wǎng)絡(luò)在虛擬試衣中的應(yīng)用研究進展[J].絲綢,2021,58(12):63-72.

        ZHANG Ying, LIU Chengxia.Research progress on the application of generative adversarial network in virtual fitting[J]. Journal of Silk, 2021,58(12):63-72.

        [8]"HAN X T, WU Z X, WU Z, et al. VITON: An image-based virtual try-on network[C]IEEE CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE,2018:7543-7552.

        [9]"WANG B C, ZHENG H B, LIANG X D, et al. Toward characteristic-preserving image-based virtual try-on network[M]Computer Vision (ECCV). Cham: Springer, 2018:607-623.

        [10]"MEN Y F, MAO Y M, JIANG Y N, et al. Controllable person image synthesis with attribute-decomposed GAN[C]IEEECVF Conference on Computer Vision and Pattern Recognition(CVPR). Seattle, WA, USA: IEEE, 2020: 5083-5092.

        [11]"張淑芳,王沁宇.基于生成對抗網(wǎng)絡(luò)的虛擬試穿方法[J].天津大學(xué)學(xué)報(自然科學(xué)與工程技術(shù)版),2021,54(9):925-933.

        ZHANG Shufang, WANG Qinyu. Generative-adversarial-network-based virtual try-on method[J]. Journal of Tianjin University (Science and Technology),2021,54(9): 925-933.

        [12]"ZHANG L M, RAO A Y, AGRAWALA M, Adding conditional control to text-to-image diffusion models[EBOL](2023-09-02)[2023-10-15]. https:arxiv.orgabs2302.05543.

        [13]"SOHL-DICKSTEIN J, WEISS E A, MAHESWARANATHAN N, et al. Deep unsupervised learning using nonequilibrium thermodynamics[C]Proceedings of the 32nd International Conference on Machine Learning-Volume 37. Lille, France. New York: ACM,2015:2256-2265.

        [14]"SONG Y, ERMON S. Generative modeling by estimating gradients of the data distribution[EBOL]. (2020-10-10)[2023-07-23]. https:arxiv.orgabs1907.05600.

        [15]"HO J, JAIN A, ABBEEL P. Denoising diffusion proba-bilistic models[C]Proceedings of the 34th International Conference on Neural Information Processing Systems. Vancouver, BC, Canada. New York: ACM, 2020: 6840-6851.

        [16]"DHARIWAL P, NICHOL A.Diffusion models beat GANs on image synthesis[EBOL]. (2021-05-11)[2023-07-23]. https:arxiv.orgabs2105.05233.

        [17]"ROMBACH R, BLATTMANN A,LORENZ D, et al. High-resolution image synthesis with latent diffusion models[C]IEEECVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans, LA, USA: IEEE, 2022: 10674-10685.

        [18]"余青龍.AI繪畫軟件的創(chuàng)作特征研究:以繪畫軟件Novel AI生成的動漫人物形象為例[J].信陽師范學(xué)院學(xué)報(哲學(xué)社會科學(xué)版),2023,43(3):127-132.

        YU Qinglong. A study of the creative features of AI drawing software: Exampled by anime characters generated by Novel AI[J]. Journal of Xinyang Normal University(Philosophy and Social Sciences Edition), 2023, 43(3):127-132.

        [19]"CANNY J.A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, PAMI-8(6): 679-698.

        [20]"CAO Z, SIMON T, WEI S H, et al. Realtime multiperson 2D pose estimation using part affinity fields[C]IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2017: 1302-1310.

        [21]"譚澤霖,白靜.二維圖像虛擬試衣技術(shù)綜述[J].計算機工程與應(yīng)用,2023,59(15):17-26.

        TAN Zelin, BAI Jing. Survey of two-dimensional image virtual try-on technology[J]. Computer Engineering and Applications,2023, 59(15):17-26.

        [22]"花愛玲,余鋒,陳子宜,等.深度學(xué)習(xí)在二維虛擬試衣技術(shù)的應(yīng)用與進展[J].計算機工程與應(yīng)用,2023,59(11):37-45.

        HUA Ailing, YU Feng, CHEN Ziyi, et al. Application and progress of deep learning in 2D virtual try-on technology[J]. Computer Engineering and Applications, 2023,59(11):37-45.

        Abstract:

        With the development and iteration of image generation models, models "like Stable Diffusion based on the diffusion model have become the mainstream image generation models, providing a new way for clothing design and rendering. The diffusion model usually uses the text prompt word as the image generation condition and the generated picture has randomness. It is difficult to accurately generate the virtual fitting effect of a specific style. The application of ControlNet neural networks makes the generation of images more controllable. The trained ControlNet network can use the image information such as Canny edge map, depth map, and Openpose map as additional generation conditions of the diffusion model to control the human body posture, edge features, front and rear position relationship of the generated image. This paper briefly describes the development history and principle of the diffusion model, and explores its feasibility for generating virtual fitting renderings. To achieve the purpose of visualizing the clothing style diagram as the garment effect and realize the rapid generation of virtual fitting effect, This paper attempts to use ControlNet neural network to control the diffusion model to generate virtual fitting effect of virtual models wearing specified clothing styles.

        The virtual fitting of three dresses was taken as an example for experimentation. Firstly, the images of real clothing models with expected posture were sampled, and the key human body images and pose depth maps of real models were extracted as the generation conditions. Then, the Controlnet control Stable Diffusion model was used to generate a virtual clothing model image that matches the intended pose. Subsequently, the edge image of the virtual model was generated by the Canny algorithm, and the edge image was edited and modified in combination with the dress style diagram. The edge image of the virtual model wearing the specified style dress was drawn, and it was used as the edge generation condition. The virtual fitting effect of the dress conforming to"the specific style, color and fabric was generated by the text prompt-controlled diffusion model, and the style of the dress with the virtual fitting effect was changed in real time by modifying the edge image, so as to provide an intuitive reference for fashion designers to modify and adjust designs. In addition, the detailed feature control experiment of the virtual model was also carried out during the experiment; experiment on the control effect of text prompt word weight on clothing fabric and color was carried out. Finally, the generation effect of the proposed method was compared and evaluated with the effect of 3D modeling virtual fitting clothing.

        The results show that the diffusion model combined with the ControlNet network can control the pose characteristics of the virtual model, allowing the virtual fitting effect of the expected clothing style to be generated by editing the Canny edge image control. Compared with 3D modeling, the virtual fitting effect is more expressive, the operation is more intuitive and faster, and it is more suitable for providing designers with intuitive clothing display in the style design stage, assisting designers to adjust the design style, color, fabric and process, and improving the efficiency of clothing design.

        Keywords:

        virtual fitting; diffusion model; ControlNet; virtual models; human keypoint detection; clothing design

        猜你喜歡
        試衣效果圖連衣裙
        室內(nèi)外效果圖作品
        大眾文藝(2023年5期)2023-04-02 04:49:50
        廖秀作品
        ——夏季連衣裙設(shè)計效果圖
        大觀(2023年1期)2023-03-17 14:11:40
        《客廳效果圖》
        流行色(2020年2期)2020-04-28 06:10:06
        效果圖1
        流行色(2019年11期)2020-01-09 07:20:28
        效果圖2
        流行色(2019年11期)2020-01-09 07:20:28
        基于單片機控制的網(wǎng)購試衣機器人
        電子制作(2018年18期)2018-11-14 01:47:56
        長袍連衣裙
        長袍連衣裙
        長袍連衣裙
        3D體感試衣鏡 對著屏幕可試衣
        中國連鎖(2015年5期)2015-06-17 22:42:04
        亚洲欧美日韩国产一区二区精品| 曰韩无码av一区二区免费| 国内最真实的xxxx人伦| 丰满人妻被中出中文字幕| 亚洲国产香蕉视频欧美| 中国av一区二区三区四区| 国产精品一区二区三区自拍| 日韩视频中文字幕精品偷拍| 欧美午夜刺激影院| 水蜜桃在线视频在线观看| 久久久大少妇免费高潮特黄| 性猛交ⅹxxx富婆视频| 少妇无码一区二区三区| 日本视频一区二区三区免费观看| 成人亚洲av网站在线看| 男人吃奶摸下挵进去啪啪软件| a级毛片成人网站免费看| 欧美伊人亚洲伊人色综| 国产成人高清视频在线观看免费| 蜜桃视频插满18在线观看| 亚洲av无码不卡久久| 日本视频一区二区三区免费观看 | 久久久久亚洲AV无码专| 偷拍与自偷拍亚洲精品| 亚洲成在人线视av| 色老头在线一区二区三区| mm在线精品视频| 亚洲国产日韩一区二区三区四区| 综合色就爱涩涩涩综合婷婷| 少妇极品熟妇人妻无码| 亚洲专区在线观看第三页| 中文字幕精品人妻在线| 免费a级毛片无码| 中文字幕Aⅴ人妻一区二区苍井空| 国产午夜视频高清在线观看| 大又大又粗又硬又爽少妇毛片| 精品香蕉久久久爽爽| 国产爆乳美女娇喘呻吟久久| 亚洲黄色一级在线观看| 亚洲av无码久久精品蜜桃| 妺妺窝人体色www在线直播|