亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于幾何模型與神經(jīng)網(wǎng)絡(luò)的人體參數(shù)擬合研究

        2023-07-20 00:12:18唐玉輝付曉峰
        無線互聯(lián)科技 2023年9期

        唐玉輝 付曉峰

        摘要:遠程服裝私人定制體現(xiàn)人工智能性,客戶只需要上傳幾張圖像,定制系統(tǒng)便可根據(jù)圖像分析結(jié)果遠程判定其尺碼參數(shù),定制合身服裝。因此,利用二維圖像獲取人體尺寸用于服裝定制是當前的研究熱點,但是普遍存在參數(shù)擬合精確度不足、部分尺寸參數(shù)擬合算法缺乏的問題。就此,文章提出基于幾何模型的尺寸擬合算法,對于部分尺寸采用神經(jīng)網(wǎng)絡(luò)擬合的方法。與已有算法相比,所提算法在精確度和合格率(相對誤差在5%以內(nèi)的比率)方面更有優(yōu)勢,保證各尺寸平均相對誤差在5%以內(nèi),平均絕對誤差不超過2 cm。所提算法靈活運用幾何模型和神經(jīng)網(wǎng)絡(luò)兩種方法,提高了尺寸擬合的精確度。

        關(guān)鍵詞:非接觸式測量;人體特征點檢測;人體參數(shù)擬合

        中圖分類號:TP391.41

        文獻標志碼:A

        0 引言

        服裝私人定制由人工現(xiàn)場測量人體尺寸逐漸朝遠程私人定制方向轉(zhuǎn)變,這是人工智能在服裝定制行業(yè)的應(yīng)用體現(xiàn),具有廣闊的前景和市場。一些設(shè)計者采用三維人體掃描儀,獲取人體3D點云。謝昊洋1構(gòu)建高精度的三維人體模型用于虛擬試衣。基于三維模型的人體測量難以用于目前的網(wǎng)絡(luò)購物,因為三維模型的獲取需要專業(yè)設(shè)備,無法推廣到個人,而二維圖像的獲取途徑則非常簡單方便。

        在二維圖像中測量人體尺寸時,現(xiàn)有的大多數(shù)方法是針對三圍,對于其他尺寸的參數(shù)擬合算法處于缺乏狀態(tài),國外相關(guān)研究機構(gòu)和人士針對人體尺寸的擬合算法研究也較少。本文針對青年女性的重要尺寸(前胸寬、后背寬、肩寬、袖長)的參數(shù)擬合提出精確算法,通過構(gòu)建幾何模型完成多個尺寸的參數(shù)擬合。對于弧線(如肩寬)采用圓弧擬合,一些不規(guī)則曲線(如前胸寬、后背寬、袖長)采用直線段和曲線積分的方法與神經(jīng)網(wǎng)絡(luò)相結(jié)合完成擬合。

        1 基于深度學習的人體輪廓提取

        人體輪廓提取是自動人體測量系統(tǒng)非常重要的第一步。采用深度卷積神經(jīng)網(wǎng)絡(luò)來完成人體輪廓的提取,能夠在復雜的背景中完成提取工作。DeepLabv3+是深度卷積神經(jīng)網(wǎng)絡(luò)中非常出色的圖像分割模型,本文采用它來完成人體輪廓提取。為實現(xiàn)通過圖像測量得到精確的人體尺寸,模特拍照時需要穿貼身的衣物。為保護隱私,所提取的輪廓圖是黑白二值圖,接下來的工作也將在黑白二值圖上進行。

        2 人體參數(shù)擬合算法

        2.1 肩寬、前胸寬和后背寬

        2.1.1 肩寬

        計算肩寬應(yīng)先找到左右肩膀的肩袖接縫處,再計算兩點之間的曲線距離。腋窩點(尋找方法見2.1.2節(jié))向上往外傾斜角β約為5°(tanβ=0.1)的邊界點,即為肩袖接縫處。擬合方法:肩寬是有弧度的,所以可用圓弧擬合,左右肩袖接縫點直線距離為shoulder_L,α取π/12最佳,如下式所示。

        2.1.2 前胸寬和后背寬

        前胸寬和后背寬分別是從左腋窩點經(jīng)前胸和后背到達右腋窩點的距離,存在一定的弧度。要先準確找到腋窩點,如圖1所示。具體方法如下:(1)尋找順序從臀圍線往上,從人體中線往左側(cè)。(2)每行判斷邊界點數(shù)量。(3)邊界點數(shù)量由3個轉(zhuǎn)化為1個時,即是腋窩點處。(4)將左右腋窩點連接,即為左右腋窩點直線距離armpit_L。

        由于體型差異,前胸與后背曲線弧度差異較大,采用神經(jīng)網(wǎng)絡(luò)模型擬合能適應(yīng)更復雜的情況。此模型需將影響前胸寬和后背寬的因素,作為神經(jīng)網(wǎng)絡(luò)模型的輸入。而在側(cè)面圖中直接獲取的是腋窩高度處的厚度,因為厚度并不能有效反映前胸和后背的特征,所以需要將前胸和后背劃分開2。于是,在側(cè)面圖中,沿著大腿根中線豎直往上,將腋窩點處胸部直線段劃分為前胸AP和后背BP。將AP和BP的長度以及armpit_L作為神經(jīng)網(wǎng)絡(luò)模型的輸入,輸出為前胸寬和后背寬。

        2.2 袖長

        袖長的測量是從肩袖接縫處到手腕,肩袖接縫處的定位前文已描述,此處只需再尋找手腕,并對袖長進行參數(shù)擬合。

        尋找手腕(右手):(1)確定范圍,如圖2所示右界限為白色像素點最多的一列,左界限為最右側(cè)白色像素點與肩袖接縫處點A橫坐標的1/2。(2)尋找手臂最細處(胳膊輪廓上下兩側(cè)距離最近的兩個白色像素點)。(3)最靠近右側(cè)且不大于手臂最細處3個像素點的位置為手腕處。

        尋找到手腕位置后,需要計算袖長,最簡單的方法是直接計算A,C兩點之間的直線距離,但從圖2可見,顯然不合理,因為手工測量時,皮尺不能穿過手臂(灰色的直線穿過了白色像素點)??紤]到手工測量時的情況,采用凸多邊形的方法計算袖長,結(jié)果有所提升。為進一步進行改進,筆者觀察發(fā)現(xiàn)直接計算直線距離相比手工測量值幾乎都是偏小。而計算兩點之間輪廓的曲線積分距離,相比手工測量值幾乎都是偏大。于是,提出以下方法,較凸多邊形法有進一步提升。

        計算袖長方法:(1)計算左右兩側(cè)各自肩袖接縫處與手腕處的直線距離和輪廓曲線距離。(2)將左右兩側(cè)直線距離取較大值得到L1,將左右兩側(cè)曲線距離取較小值得到L2(將左右兩側(cè)直線距離取較小值得到L3,將左右兩側(cè)曲線距離取較大值得到L4)。(3)將L1和L2求平均(或者L3和L4求平均)得到袖長值。實驗部分將分析這兩種不同方法的精確度。

        3 實驗

        3.1 實驗細節(jié)

        本文實驗在自制的青年女性樣本數(shù)據(jù)集上進行。通過兩臺固定相機拍攝獲得背面圖和側(cè)面圖,并測量身高和實驗所需要的相關(guān)尺寸。為保證測量的準確性,拍攝與測量時,模特保持相同姿勢,且由兩人多次測量,對于不同的圍度分別進行實驗對照。本文實驗的評價標準是:合格率、平均相對誤差、誤差超過15 mm的個數(shù)及比例、平均絕對誤差。合格指相對誤差<5%的數(shù)據(jù),不合格指相對誤差≥5%的數(shù)據(jù),合格率指合格數(shù)據(jù)與總體數(shù)據(jù)在數(shù)量方面的比值。

        3.2 肩寬、前胸寬和后背寬實驗結(jié)果

        鄒昆等3直接采用直線作為肩寬,未考慮擬合情況,所以所得結(jié)果較差。在準確定位肩頸點的情況下,采用直線測量必然會導致數(shù)據(jù)偏小。本文用圓弧擬合肩寬,更加貼合實際測量時的曲線,所得結(jié)果相比線性回歸擬合和直接采用直線測量所得結(jié)果更加精確1,如表1所示,平均絕對誤差更小,且平均絕對誤差超過15 mm的個數(shù)減少了18個。

        前胸寬和后背寬平均絕對誤差都較小,但平均相對誤差較大,如表2所示。由于前胸寬比胸圍等圍度尺寸更小,控制平均相對誤差變得更加艱難。近幾年文獻中,對于前胸寬和后背寬的計算方法鮮有提及,沒有將獲得的胸寬胸厚擬合成前胸寬和后背寬。譚菲4在2010年提出采用線性回歸獲得前胸寬和后背寬。本文采用神經(jīng)網(wǎng)絡(luò)擬合相比線性回歸擬合方法獲得一定提升4,保證平均相對誤差在5%以內(nèi),且平均絕對誤差也取得提升。線性回歸擬合在前胸寬上較“直線”方法有進步4,而在后背寬卻得到更差的擬合效果。

        3.3 袖長計算方法的對比

        分別計算左袖長和右袖長,記為left_n,right_n。n代表不同的方法,當n為1時,表示肩袖接縫處到手腕的直線距離;n為2時,表示肩袖接縫處到手腕輪廓線上的凸多邊形的距離;n為3時,表示肩袖接縫處到手腕輪廓上曲線積分距離。如表3所示,給出了各種組合方法的誤差,以此來確定最佳的組合。其中:

        M1=(max (left_1, right_1)+min(left_3, right_3))/2

        M2=(min(left_1,right_1)+max(left_3,right_3))/2

        M3=(min(left_2,right_2)+max(left_3,right_3))/2

        M4=(max(left_2, right_2)+min(left_3,right_3))/2

        由表3可知,M2是最優(yōu)的一種組合。鄒昆等3僅僅采用直線測量,本文方法與之相比,在合格率上提升大約10%,在平均絕對誤差上減小了約5 mm。

        4 結(jié)語

        本文對基于二維圖像的人體尺寸測量中參數(shù)擬合提出了一些創(chuàng)新性算法,所得結(jié)果獲得顯著提升。對于大部分尺寸采用幾何模型擬合,均獲得較好的實驗結(jié)果;對于部分尺寸(如前胸寬和后背寬),采取神經(jīng)網(wǎng)絡(luò)模型擬合,獲得較好的結(jié)果;對于袖長采用不同幾何方法的結(jié)合,得到一個最精確的計算袖長方法。本文為保護隱私,將彩圖處理成二值圖存在細節(jié)損失,如果直接利用彩圖進行測量將獲得更多細節(jié),達到更高精度。用深度學習算法直接對彩圖進行測量將會是一個新的方向。

        參考文獻

        [1]謝昊洋.高精度三維人體重建及其在虛擬試衣中的應(yīng)用[D].上海:東華大學,2020.

        [2]賈俊瑛.基于圖像的人體尺寸測量方法研究[D].上海:上海師范大學,2020.

        [3]鄒昆,馬黎,李蓉,等.基于圖像的非接觸式人體參數(shù)測量方法[J].計算機工程與設(shè)計,2017(2):511-516.

        [4]譚菲.基于數(shù)字圖像的青年女性體型及非接觸式二維測量系統(tǒng)研究[D].蘇州:蘇州大學,2010.

        (編輯 沈 強)

        Research on fitting of human body parameters based on geometric model and neural networkTang Yuhui, Fu Xiaofeng*

        (College of Computer Science, Hangzhou Dianzi University, Hangzhou 310018, China)

        Abstract: Remote clothing customization reflects the artificial intelligence. Customers only need to upload a few images, and the customized system can remotely determine the size parameters according to the image analysis results, and customize the fitting outfit. Therefore, it is is images to obtain human dimensions for garment customization. However, there are some problems such as insufficient accuracy of parameter fitting and lack of fitting of some dimension parameters. To solve the problems, this paper proposes a size fitting calculation method based on geometric model, and uses neural network fitting method to obtain more accurate parameter fitting for some sizes. Compared with the existing algorithms, the proposed algorithm has more superiorities in accuracy and pass rate (the ratio of relative error within 5%). Besides, it ensures that the average relative error of each size is within 5%, and the average absolute error is less than 2cm. The proposed algorithm flexibly uses two methods of geometric model fitting and neural network fitting, so that the accuracy is improved.

        Key words: non-contact measurement; human body feature point detection; human body parameter fitting

        深夜日韩在线观看视频| 两个黑人大战嫩白金发美女| 国产爆乳无码一区二区在线 | 亚洲一区二区三区国产精品| 9久久婷婷国产综合精品性色| 免费黄色影片| 欧美性猛交xxxx乱大交蜜桃| 中文字幕午夜AV福利片| 亚洲一区二区精品在线| 国产v片在线播放免费无码| 亚洲色大成网站www永久一区| 日本a在线天堂| 大香蕉青青草视频在线| 欧美老肥妇做爰bbww| 国产精品久久久久电影网| 亚洲电影久久久久久久9999| 凹凸世界视频a一二三| 免费国产黄网站在线观看视频| 日日躁夜夜躁狠狠久久av| 成人免费无码a毛片| 亚洲乱码av一区二区蜜桃av| 人妻洗澡被强公日日澡电影 | 乱中年女人伦av三区| 日本老熟女一区二区三区| 内射人妻无套中出无码| 久久免费的精品国产v∧| A亚洲VA欧美VA国产综合| 日韩精品中文字幕第二页| 美女脱了内裤张开腿让男人桶网站| 欧美z0zo人禽交欧美人禽交| 久久激情人妻中文字幕| 男女边摸边吃奶边做视频韩国| 亚洲国产成人久久综合下载| 午夜无码一区二区三区在线| 亚洲不卡高清av在线| 日本最新在线一区二区| 中文字幕精品一区久久| 久久露脸国产精品| 色欧美与xxxxx| 精品国产一区二区三区a| 免费视频成人片在线观看|