亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合卷積神經(jīng)網(wǎng)絡(luò)與曲線擬合的人體尺寸測量

        2022-10-21 01:56:02馬燕殷志昂黃慧張玉萍
        中國圖象圖形學(xué)報(bào) 2022年10期
        關(guān)鍵詞:測者肩寬圍度

        馬燕,殷志昂,黃慧,張玉萍

        上海師范大學(xué)信息與機(jī)電工程學(xué)院,上海 200234

        0 引 言

        隨著人們生活水平和生活質(zhì)量的大幅提高,消費(fèi)能力顯著提升,服裝行業(yè)得到蓬勃發(fā)展。服裝業(yè)主要是通過人體測量進(jìn)行服裝設(shè)計(jì)和個(gè)性化服裝定制。目前,人體測量主要分為接觸式和非接觸式兩種方法。接觸式測量一般指傳統(tǒng)手工測量,主要通過軟尺和人體測高儀等測量人體尺寸數(shù)據(jù)。該方法測量時(shí)間長、誤差大,在進(jìn)行大規(guī)模人體尺寸數(shù)據(jù)采集時(shí)人力物力消耗大、效率低(王力,2018;趙雅彬 等,2017)。非接觸式人體測量主要通過一些設(shè)備儀器獲得人體信息,以進(jìn)行批量的人體測量工作,具有測量精確、方便快捷等特點(diǎn)。非接觸式人體測量的核心問題在于人體關(guān)鍵點(diǎn)檢測和圍度測量兩個(gè)方面。

        人體關(guān)鍵點(diǎn)檢測用于定位目標(biāo)位置。傳統(tǒng)檢測方法有基于人體比例的人體關(guān)鍵點(diǎn)檢測算法(鄧衛(wèi)燕 等,2010)和基于人體輪廓編碼的人體關(guān)鍵點(diǎn)檢測算法(Jiang等,2012;Lin和Wang,2011)?;谌梭w比例的人體關(guān)鍵點(diǎn)檢測算法提取人體關(guān)鍵點(diǎn)的速度快,但提取的人體特征點(diǎn)數(shù)量較少,因此只能得出有限的幾組人體尺寸數(shù)據(jù),無法滿足人體尺寸測量要求?;谌梭w輪廓編碼的人體關(guān)鍵點(diǎn)檢測算法提取的人體關(guān)鍵點(diǎn)是相互獨(dú)立的,彼此之間不存在依賴關(guān)系,該方法檢測速度快,但提取效果與人體輪廓編碼有關(guān),對于一些特殊體型的人體,提取的人體關(guān)鍵點(diǎn)位置會(huì)發(fā)生一定偏差。本文使用基于OpenPose算法(Cao等,2021)優(yōu)化的Lightweight OpenPose算法(Osokin,2018)進(jìn)行人體關(guān)鍵點(diǎn)檢測,相較傳統(tǒng)的人體關(guān)鍵點(diǎn)檢測方法準(zhǔn)確率高、定位準(zhǔn)確、檢測結(jié)果完整,且相較OpenPose算法體量更輕,更適合部署在移動(dòng)端。

        圍度測量是非接觸式人體測量的另一個(gè)核心問題,也是非接觸式人體測量的目的所在。傳統(tǒng)的測量方法有莫爾條紋測量法(Meadows等,1970)、激光測量法(Jones等,1989;Crease,2010)和紅外線測量法(Chao等,2015)等,但這些技術(shù)需要借助昂貴的設(shè)備才能實(shí)施。例如,一套德國產(chǎn)的TechMat 測體間價(jià)格是500萬元,這是一般企業(yè)無法承受的。而脫離這些大型設(shè)備,利用人體圖像和數(shù)據(jù)也可以進(jìn)行人體圍度預(yù)測。目前常用的測量方法有基于橢圓曲線擬合的人體圍度測量算法(黃秀麗,2009)、基于線性回歸的人體圍度測量算法(齊嘯和計(jì)忠平,2019;徐楓 等,2006)、基于消失點(diǎn)方法與比例法結(jié)合的人體圍度測量算法(徐慧明 等,2017)和基于支持向量機(jī)(support vector machine,SVM)的腰圍估計(jì)方法(Seo等,2020)。

        基于橢圓曲線擬合的人體圍度測量算法擬合效果較好,但沒有考慮不同體型的特殊性。對于一些特殊體型的人體圍度會(huì)產(chǎn)生較大誤差?;诰€性回歸的人體圍度測量算法需要收集大量人體數(shù)據(jù),并利用最小二乘法擬合人體各圍度的計(jì)算方程,可以對新的被測者進(jìn)行較快的圍度測量。但是,影響人體圍度的影響因素較多,包括身高、體重和臂長等,這些都會(huì)對人體圍度產(chǎn)生影響。由于人體體型各異,較難采用統(tǒng)一的擬合方程定義人體圍度?;谙c(diǎn)方法與比例法結(jié)合的人體圍度測量算法利用消失點(diǎn)法,依據(jù)平行線無限遠(yuǎn)處相交原理計(jì)算身高和腿長等,利用比例法定位人體關(guān)鍵點(diǎn),并結(jié)合之前獲取的身高計(jì)算肩寬、腰寬、臂長。此方法雖然滿足自動(dòng)測量的要求,但精度依然不高,且所得的腰寬等也并非腰圍等圍度的最終計(jì)算結(jié)果?;赟VM的腰圍估計(jì)方法利用kinect獲取人體深度數(shù)據(jù),通過正背面圖像對腰部前后兩條曲線分別擬合,從而獲得腰寬和腰厚數(shù)據(jù),并利用SVM回歸方法訓(xùn)練出相應(yīng)模型。該方法對拍攝條件要求較高,且計(jì)算精度依然不夠理想。

        針對以上問題,本文提出一種基于Bezier曲線和雙橢圓曲線擬合的人體尺寸測量方法,只需獲得人體2維圖像和人體身高,即可快速計(jì)算出人體肩寬、胸圍、腰圍及臀圍等數(shù)據(jù),且便于移植到移動(dòng)端,達(dá)到隨時(shí)使用的目的。

        1 方 法

        本文設(shè)計(jì)的人體尺寸測量方法包括5部分。1)圖像采集,獲取人體正面、側(cè)面、背面圖像;2)人像分割,通過Deeplabv3+算法對圖像中的人體進(jìn)行提?。?)關(guān)鍵點(diǎn)檢測,通過OpenPose算法對提取的人體進(jìn)行關(guān)鍵點(diǎn)定位,包括肩關(guān)節(jié)、肘關(guān)節(jié)和髖關(guān)節(jié)等;4)利用Bezier曲線特性計(jì)算人體肩寬,根據(jù)胸圍、腰圍、臀圍的特性分別擬合出各部分人體圍度;5)評估預(yù)測結(jié)果。流程圖如圖1所示。

        圖1 人體尺寸測量方法流程圖

        1.1 圖像采集

        本文方法要求獲得人體的正面、側(cè)面及背面圖像。對被測者有以下要求:1)挺直身體以確保人體數(shù)據(jù)正確;2)拍攝正面(如圖2(a))和背面圖像(如圖2(c))時(shí),手臂伸直并與軀體呈大約30°角度,手臂暴露在外,不影響腰部數(shù)據(jù);3)拍攝側(cè)面圖像(如圖2(b))時(shí),手臂下垂,中指貼住褲縫;4)穿著為較貼身的衣服,使身體輪廓清晰。圖2是滿足要求的一組人體圖像。

        圖2 人體圖像

        1.2 人體分割

        從人體圖像中提取人體輪廓是非接觸式測量的關(guān)鍵環(huán)節(jié)之一。為提取準(zhǔn)確的人體輪廓,大多方法需要對背景環(huán)境制訂嚴(yán)格規(guī)定。Lin和Wang(2011,2012)和Jiang等人(2012)提出對采集的圖像進(jìn)行邊緣檢測,最終得到較精確的人體輪廓,缺點(diǎn)在于對拍攝場景要求較高,同時(shí)需要被測者穿特定服裝。鄧衛(wèi)燕等人(2008)提出利用背景差分法提取人體輪廓,但需要預(yù)先固定攝像機(jī)位置,并對人物和場景各拍一張照片,給實(shí)際使用帶來了不便。

        已有的人體分割方法對外界環(huán)境、被測者衣服和攝像機(jī)位置等要求較高,不能滿足快速、自動(dòng)獲取人體輪廓的要求。本文采用語義分割網(wǎng)絡(luò)Deeplab v3+(Chen等,2018a,b)進(jìn)行人體分割,通過encoder-decoder進(jìn)行多尺度信息融合,編碼器部分直接選用上一個(gè)版本的Deeplabv3,同時(shí)保留原來的空洞卷積和ASSP(atrous spatial pyramid pooling)層,骨干網(wǎng)絡(luò)使用Xception模型,提高了語義分割的健壯性和運(yùn)行速率。Deeplabv3+網(wǎng)絡(luò)采用的數(shù)據(jù)集為目前公開的精度最高的人像分割數(shù)據(jù)集Supervisely Person加上部分自制數(shù)據(jù)集的組合。圖3是利用Deeplabv3+對圖2所示的人體圖像進(jìn)行分割的結(jié)果??梢钥闯?,雖然圖2的人體圖像存在光照不均勻、陰影以及雙腳間存在雜物等較多干擾因素,但利用DeepLab v3+分割后可以得到較為準(zhǔn)確的人體圖像。

        圖3 人體分割結(jié)果

        進(jìn)一步對人體圖像進(jìn)行二值化,獲得人體二值圖,如圖4(a)所示。接著,對人體二值圖采用形態(tài)學(xué)算法進(jìn)行輪廓追蹤,獲得人體輪廓圖,如圖4(b)所示。

        圖4 人體二值圖和人體輪廓圖

        1.3 人體關(guān)鍵點(diǎn)檢測

        人體頭頂點(diǎn)、頸側(cè)點(diǎn)、肩峰點(diǎn)和腋窩點(diǎn)等人體關(guān)鍵點(diǎn)與人體的身高、肩寬和胸圍等尺寸密切相關(guān)。如何精確提取人體關(guān)鍵點(diǎn)直接影響后續(xù)人體關(guān)鍵參數(shù)測量的準(zhǔn)確性。因此,準(zhǔn)確提取人體關(guān)鍵點(diǎn)是研究人體測量的關(guān)鍵之一。

        本文采用的Lightweight OpenPose算法是OpenPose的輕量級優(yōu)化。OpenPose的體量較大,對硬件要求高,結(jié)合本項(xiàng)目的實(shí)際情況,輕量級的Lightweight OpenPose算法更適合使用場景,二者的區(qū)別主要體現(xiàn)在3個(gè)方面。1)用于特征提取的骨干網(wǎng)絡(luò)部分OpenPose算法使用VGG(Visual Geometry Group)結(jié)構(gòu),而Lightweight OpenPose算法使用帶空洞卷積的MobileNet結(jié)構(gòu);2)如圖5所示,原始的OpenPose在生成部分親和域(part affinity fields,PAFs)和關(guān)鍵點(diǎn)(keypoints)的階段有兩個(gè)預(yù)測分支,兩個(gè)分支的結(jié)構(gòu)是一樣的,只是在輸出階段獲得不同數(shù)量的輸出結(jié)果。因此Lightweight OpenPose算法將該階段的兩個(gè)網(wǎng)絡(luò)合并為一個(gè),共享權(quán)值,只在輸出時(shí)再分叉出兩個(gè)輸出;3)Lightweight OpenPose將OpenPose中7×7的卷積核替換為1×1、3×3、3×3的卷積級聯(lián),為保持視野,在最后一個(gè)3×3使用膨脹參數(shù)為2的空洞卷積。

        圖5 兩種算法預(yù)測分支網(wǎng)絡(luò)結(jié)構(gòu)圖

        圖6為利用Lightweight OpenPose算法對人體關(guān)鍵點(diǎn)檢測的結(jié)果。通過人體關(guān)鍵點(diǎn)檢測,可以獲取人體的肩關(guān)節(jié)、肘關(guān)節(jié)、腕關(guān)節(jié)、髖關(guān)節(jié)、膝關(guān)節(jié)和踝關(guān)節(jié)等13個(gè)人體關(guān)鍵點(diǎn)的位置。

        圖6 人體關(guān)鍵點(diǎn)檢測結(jié)果

        1.4 人體肩寬測量

        手工測量人體肩寬的標(biāo)準(zhǔn)方法是測量從人體背面的左肩端點(diǎn)經(jīng)第7頸椎點(diǎn)到右肩端點(diǎn)的長度。如圖7(a)所示,皮尺構(gòu)成的曲線基本可以視為人體的肩部曲線,曲線長度可以視為人體肩寬。利用Lightweight OpenPose算法,獲得的是肩部關(guān)節(jié)點(diǎn),并非手工測量的肩部端點(diǎn),因此首先需要確定肩部端點(diǎn)的位置。

        圖7 人體肩寬測量示意圖

        1.4.1 肩部端點(diǎn)的確定

        確定肩部端點(diǎn)的原則為:1)由于肩部端點(diǎn)位于肩與手臂轉(zhuǎn)折處,因此以該點(diǎn)為中心計(jì)算其兩端切線的夾角,該角度應(yīng)小于其周圍點(diǎn)的夾角;2)沿肩部關(guān)節(jié)點(diǎn)做水平線和垂線,得到與人體輪廓的兩個(gè)交點(diǎn),肩部端點(diǎn)一定位于這兩個(gè)交點(diǎn)之間。

        圖8中,L為肩部左關(guān)節(jié)點(diǎn),沿L點(diǎn)向左邊和上面兩個(gè)方向分別做水平線和垂線,得到與人體輪廓的交點(diǎn)分別為Lstart和Lend,Sl為左肩部端點(diǎn)處。從圖8可見,以Sl為中心,其兩端切線構(gòu)成的夾角θ小于其周圍點(diǎn)的夾角。另外,Sl一定位于Lstart與Lend兩點(diǎn)之間。因此,要確定左肩部端點(diǎn)的位置,只要在Lstart與Lend間計(jì)算所有輪廓點(diǎn)處的夾角,最小夾角對應(yīng)的輪廓點(diǎn)即為左肩部端點(diǎn)。同理,按同樣方法可以得到右肩部端點(diǎn)Sr。

        圖8 肩部端點(diǎn)示意圖

        假定p1表示Lstart與Lend間的任一輪廓點(diǎn),p1處的夾角θ的計(jì)算步驟如下:

        1)由p1點(diǎn)沿人體輪廓線向下依次取出共n個(gè)像素(這里將n設(shè)置為5),這n個(gè)像素的坐標(biāo)表示為p1(x1,y1),p2(x2,y2),…,pn(xn,yn)。利用最小二乘法擬合這條經(jīng)過p1點(diǎn)的向上方向的切線l1,假定該直線表示為y=k1x+b1,則其斜率k1為

        (1)

        b1=y1-k1x1

        (2)

        2)由p1點(diǎn)沿人體輪廓線向上依次共取出n個(gè)像素,得到經(jīng)過p1點(diǎn)的向下方向的切線l2,表示為y=k2x+b2,其中,按式(1)和式(2)分別計(jì)算k2和b2。

        3)計(jì)算直線l1與l2之間的夾角θ,即

        (3)

        按上述步驟計(jì)算Lstart與Lend間的所有輪廓點(diǎn)的θi,則左肩部端點(diǎn)Sl滿足

        Sl=arg min(θi|i∈[Lstart,Lend])

        (4)

        1.4.2 肩寬的測量

        如圖7(b)所示,分別位于兩個(gè)肩部端點(diǎn)Sl和Sr的向上方向切線交于S點(diǎn)。從圖中可見,人工測量肩寬的曲線可以通過由Sl,S和Sr3個(gè)控制點(diǎn)生成的二次Bezier曲線(嚴(yán)蘭蘭和梁炯豐,2008)來擬合。理由如下:1)肩寬曲線和Bezier曲線的起點(diǎn)和終點(diǎn)都分別位于Sl和Sr處;2)肩寬曲線與Bezier曲線的起點(diǎn)和終點(diǎn)的切線方向一致,分別等于Sl和S,Sr和S的連線方向;3)由Sl,S和Sr3個(gè)控制點(diǎn)生成的二次Bezier曲線與肩寬曲線的形狀基本一致。

        假定Sl,S和Sr3個(gè)控制點(diǎn)對應(yīng)的坐標(biāo)分別為(x0,y0),(x1,y1)和(x2,y2),則二次Bezier曲線計(jì)算為

        x(t)=(1-t)2x0+2t(1-t)x1+t2x2

        (5)

        y(t)=(1-t)2y0+2t(1-t)y1+t2y2

        (6)

        式中,變量t取值范圍為[0,1]。利用式(5)和式(6)可以計(jì)算得到Bezier曲線的長度D,具體為

        (7)

        式中,x′(t)和y′(t)分別為x(t)和y(t)的微分。這里的Bezier曲線的長度D代表的是圖像上的人體肩寬,如果需要得到實(shí)際肩寬,可以利用轉(zhuǎn)換公式,具體為

        (8)

        式中,Htrue表示人體實(shí)際身高,H表示二值圖中人體身高。

        1.5 人體腰圍測量

        本文在基于曲線擬合(Lu等,2009)的人體腰圍計(jì)算方法上進(jìn)行改進(jìn),采用基于雙橢圓曲線擬合的人體尺寸測量方法,在獲取人體正面、側(cè)面和背面圖像后,結(jié)合人體分割和關(guān)鍵點(diǎn)檢測結(jié)果,對腰圍的測量位置進(jìn)行大致定位,再擬合整個(gè)腰圍測量曲線,計(jì)算曲線長度。

        1.5.1 腰圍的寬度和厚度

        根據(jù)國標(biāo)GB/T16160-2008《服裝用人體測量的部位與方法》(中華人民共和國國家質(zhì)量監(jiān)督檢驗(yàn)檢疫總局和中國國家標(biāo)準(zhǔn)化管理委員會(huì),2008)中對腰圍的定義,腰圍指胯骨上端與肋骨下緣之間自然腰際線的水平圍長。

        人體背面及側(cè)面圖像關(guān)鍵點(diǎn)檢測結(jié)果如圖9所示。其中,Ph表示髖關(guān)節(jié)關(guān)鍵點(diǎn)(圖中方塊),Pe表示肘關(guān)節(jié)關(guān)鍵點(diǎn)(圖中圓圈)。

        圖9 背面及側(cè)面圖像關(guān)鍵點(diǎn)

        顯然,人體腰部位置在Pe與Ph之間,再結(jié)合已經(jīng)提取的人體輪廓圖,可以得出腰部在人體輪廓中的范圍,如圖10所示。

        圖10 人體輪廓圖中的腰部范圍

        對于圖10左邊的人體背面圖像,在相同縱坐標(biāo)下的兩端橫坐標(biāo)的差值構(gòu)成了人體腰部寬度wi。在Pe和Ph的縱坐標(biāo)構(gòu)成的區(qū)間[ye,yh]中,所有的腰部寬度wi構(gòu)成了集合W′={w1,w2,…,wn},取其平均值作為人體腰部寬度,即

        (9)

        同理,對圖10右邊的人體側(cè)面圖像,在相同縱坐標(biāo)下的兩端橫坐標(biāo)的差值構(gòu)成了人體腰部厚度ti,在區(qū)間[ye,yh]中所有腰部厚度ti構(gòu)成了集合T′={t1,t2,…,tm},取其平均值作為人體腰部厚度,即

        (10)

        1.5.2 腰圍的測量

        如圖11所示,可以將人體的腰部曲線大致看成兩段橢圓的結(jié)合。水平實(shí)線將人體腰圍分為腹部和下背部兩部分。由于腹部容易堆積脂肪,因此腹部厚度大于下背部厚部。其中,水平實(shí)線長度為人體腰部寬度W,垂直虛線長度為人體腰部厚度T。

        圖11 人體腰圍擬合曲線

        已知橢圓的近似周長為

        (11)

        式中,a表示長半軸長度,b表示短半軸長度,分別對應(yīng)圖11中W/2和T/2。

        人體的腰圍曲線可以看做由長軸相等、短軸不相等的兩個(gè)橢圓構(gòu)成。如圖11所示,橢圓的長軸均等于W,腹部和下背部對應(yīng)橢圓的短半軸,分別用T1和T2表示,且滿足

        T1+T2=T

        (12)

        則由雙橢圓擬合的腰圍曲線周長為

        (13)

        關(guān)于T1和T2的取值,首先將二者分別表示為T1=ratio×T,T2=(1-ratio)×T,ratio∈(0.5,1)。觀察圖9右邊的人體側(cè)面輪廓的腹部曲線,可以發(fā)現(xiàn),ratio的取值大小與這條腹部曲線的開口大小呈正相關(guān)性。即曲線的開口越小,則腹部的突出程度越明顯,此時(shí)ratio應(yīng)占比更大,反之則占比較小。

        由于人體側(cè)面輪廓線上所有點(diǎn)的坐標(biāo)已知,可以利用最小二乘法對這條曲線進(jìn)行擬合,該條腹部曲線可以采用二次函數(shù)表示。即

        y=Ax2+Bx+C

        (14)

        式中,A為二次項(xiàng)系數(shù)。根據(jù)二次函數(shù)的性質(zhì)可知,|A|表示曲線的開口大小。因此,可以將ratio表示為

        ratio=α|A|+β

        (15)

        可以通過線性回歸方法求出式(15)中的α和β。具體訓(xùn)練方法如下:

        假定共有k組訓(xùn)練人體數(shù)據(jù),對每一組數(shù)據(jù)的ratio按取值范圍(0.5, 1)之間進(jìn)行遍歷,選擇能使該組腰圍數(shù)據(jù)與實(shí)際測量值誤差最小的ratio值并保存。即

        (16)

        式中,Lac表示實(shí)際腰圍,Li表示比例為i時(shí)的腰圍預(yù)測值。接著,利用線性回歸方法,將k組ratio和|A|作為訓(xùn)練數(shù)據(jù)計(jì)算式(15)中的α和β。經(jīng)本文實(shí)驗(yàn),α和β的數(shù)值分別等于-32.172 7和0.719 7。

        當(dāng)有被測者需要測量腰圍,只需要利用式(14)擬合腹部曲線,得到|A|值,再按式(15)得到ratio值,最后利用式(13)即可得到被測者的腰圍長度。

        1.6 人體胸圍及臀圍測量

        對于人體胸圍及臀圍的測量仍然采用本文提出的基于雙橢圓曲線擬合的人體尺寸測量方法。在獲取人體正面、側(cè)面、背面圖像后,結(jié)合人體分割和關(guān)鍵點(diǎn)檢測結(jié)果,對胸圍和臀圍的測量位置進(jìn)行大致定位,從而獲取寬度和厚度信息,擬合整個(gè)胸圍和臀圍的測量曲線,計(jì)算曲線長度。

        1.6.1 人體胸圍測量

        根據(jù)國標(biāo)GB/T 16160-2008《服裝用人體測量的部位與方法》中的定義,胸圍指被測者直立,正常呼吸,用軟尺經(jīng)肩胛骨、腋窩和乳頭測量的最大水平圍長。

        如圖12左圖所示,結(jié)合已經(jīng)提取的人體輪廓圖,利用肘關(guān)節(jié)關(guān)鍵點(diǎn)Ph確定用于定位腋下點(diǎn)的左右兩邊起始點(diǎn)Lstart和Rstart,利用髖關(guān)節(jié)關(guān)鍵點(diǎn)確定左右兩邊終止點(diǎn)Lend和Rend。利用式(1)—(4),在左起始點(diǎn)Lstart與左終止點(diǎn)Lend間計(jì)算輪廓線上各點(diǎn)的夾角,將最小夾角對應(yīng)的輪廓點(diǎn)作為左腋下點(diǎn)Sl,用同樣方法確定右腋下點(diǎn)Sr。

        圖12 胸寬及胸厚示意圖

        確定左右腋下點(diǎn)Sl和Sr后,沿垂直方向并向下n個(gè)像素(這里將n設(shè)置為5)。在此縱坐標(biāo)下,人體軀干輪廓線上兩端橫坐標(biāo)的差值構(gòu)成了人體胸部寬度w。

        對于人體胸厚,采取基于比例法的人體圍度測量方法,人體各部位與身高的比例如表1所示。

        表1 人體各部位與身高的比例

        根據(jù)表1,人體胸部到腳的長度占身高的72%。圖12右圖所示為人體胸厚示意圖,圖中H表示此二值圖中的人體身高,以輪廓中最低點(diǎn)向上取0.72H的高度,設(shè)為Hchest。Hchest可大致認(rèn)為是人體胸部的高度。為進(jìn)一步提高精度,符合胸厚中“最突出部位厚度方向上的水平直線距離”這一定義,可以在Hchest上下依次取出共n個(gè)像素(這里將n設(shè)置為10),在此區(qū)間內(nèi)找到胸部最突出點(diǎn)定位胸厚,如圖13所示。在此縱坐標(biāo)下的兩端橫坐標(biāo)的差值構(gòu)成了人體胸部厚度t。

        圖13 胸厚示意圖

        人體胸圍擬合曲線大致與圖11中人體腰圍擬合曲線接近。圖12右邊人體側(cè)面輪廓中加粗部分為人體胸部曲線,可以利用式(14)對其進(jìn)行擬合,|A|表示曲線的開口大小。由于男女胸部曲線的差異問題,為了保證獲取更準(zhǔn)確有效的特征信息,利用線性回歸方法分別對男性和女性數(shù)據(jù)訓(xùn)練出對應(yīng)式(15)的α和β。經(jīng)本文實(shí)驗(yàn),若被測者為男性,α和β的數(shù)值分別為49.254 0和0.682 7;若被測者為女性,α和β的數(shù)值分別為14.418 5和0.664 7。

        當(dāng)有被測者需要測量胸圍,只需要利用式(14)擬合腹部曲線,得到|A|值,再按式(15)得到ratio值,最后利用式(13)即可得到被測者的胸圍長度。

        1.6.2 人體臀圍測量

        根據(jù)國標(biāo)GB/T 16160-2008《服裝用人體測量的部位與方法》中的定義,臀圍指被測者直立、在臀部最豐滿處測量的臀部水平圍長。

        本文對臀部曲線的定義為,以髖關(guān)節(jié)關(guān)鍵點(diǎn)Ph(圖9)水平高度為基準(zhǔn),上下依次共取出n個(gè)像素(這里將n設(shè)置為20),處于Ph右邊的所有點(diǎn)集合構(gòu)成人體臀部曲線,如圖14右圖人體側(cè)面輪廓加粗部分。

        圖14 臀寬及胸厚示意圖

        與測量腰圍和胸圍不同,測量人體臀圍時(shí),需要先對臀厚進(jìn)行測量。在已獲得人體臀部曲線的點(diǎn)集中,選擇最突出的一點(diǎn),即水平位置最遠(yuǎn)的像素點(diǎn)S。設(shè)點(diǎn)S的縱坐標(biāo)為Hhip,在Hhip上的兩端橫坐標(biāo)的差值構(gòu)成了人體臀部厚度t,臀部高度與身高的比例為

        (17)

        因?yàn)橥螌挍]有較為明顯的特征信息,依然使用比例法定位臀寬。為了定位更加準(zhǔn)確,可以用式(17)所得的比例r代替表1中的臀部與身高比例值0.53。在此縱坐標(biāo)下,人體軀干輪廓線的兩端橫坐標(biāo)的差值構(gòu)成了人體臀部寬度w。

        后面的過程與腰圍測量類似,利用線性回歸方法訓(xùn)練式(15)中的α和β。最后利用式(13)—(15)得到被測者的臀圍長度。

        2 結(jié)果分析與評估

        為驗(yàn)證本文方法的準(zhǔn)確性和魯棒性,所有被測者肩寬和腰圍數(shù)據(jù)均由專業(yè)測量師手工測量,保證數(shù)據(jù)的真實(shí)性。被測者除衣著貼身、站姿如圖2外,無其他要求。實(shí)驗(yàn)硬件包括1個(gè)高清攝像頭(用于采集人體圖像);1臺(tái)裝有Win10操作系統(tǒng)的計(jì)算機(jī)(用于圖像處理),配置為i7-7700處理器、16 GB內(nèi)存、NVIDIA GTX1060顯卡。人體分割和人體關(guān)鍵點(diǎn)檢測分別按第1.2和1.3節(jié)所述方法得到,主要對肩寬和腰圍的測量結(jié)果進(jìn)行分析。本文選用絕對誤差對測量方法進(jìn)行評估,即

        E=|T-L|

        (18)

        式中,E表示絕對誤差,T表示真實(shí)測量值,L表示利用本文測量方法得到的測量結(jié)果。所有真實(shí)測量值均為專業(yè)測量師手工測量獲得。

        2.1 人體關(guān)鍵點(diǎn)檢測

        圖15給出了5位被測者關(guān)鍵點(diǎn)檢測的對比結(jié)果。5位被測者包括3位女性和2位男性。對5位被測者分別使用3種不同的關(guān)鍵點(diǎn)檢測方法。分別是基于人體輪廓編碼的人體關(guān)鍵點(diǎn)檢測算法、基于人體比例的人體關(guān)鍵點(diǎn)檢測算法和Lightweight OpenPose算法。從圖15可以看出,基于人體輪廓編碼的人體關(guān)鍵點(diǎn)檢測算法得到的關(guān)鍵點(diǎn)較多,其中很多關(guān)鍵點(diǎn)是非必要的,干擾較多;基于人體比例的人體關(guān)鍵點(diǎn)檢測算法的針對性和準(zhǔn)確率都有所提升,但精度依然不足,且無法對胸圍等提供準(zhǔn)確定位;而基于深度學(xué)習(xí)的Lightweight OpenPose算法可以較準(zhǔn)確地提取人體關(guān)鍵點(diǎn)及骨架,以關(guān)鍵點(diǎn)確定范圍,為后續(xù)的圍度測量提供依據(jù)。

        圖15 人體關(guān)鍵點(diǎn)檢測對比結(jié)果

        表2和表3(Osokin,2018)展示了OpenPose算法和Lightweight OpenPose算法的網(wǎng)絡(luò)結(jié)果和計(jì)算量,其中AP(average precision)表示平均精度,GFLOPs(giga floating-point operations per second)表示運(yùn)算量。OpenPose細(xì)化部分共5個(gè)階段,從表2可以看出,經(jīng)過1個(gè)細(xì)化階段后,精度為43.6%,5個(gè)細(xì)化階段后,精度為48.6%,性能提升不顯著,但運(yùn)算量增加了一倍。所以Lightweight OpenPose算法只使用一個(gè)細(xì)化階段,在保證整體精度降低較少的情況下,對體量進(jìn)行充分優(yōu)化,GFLOPs僅為原來的1/15,運(yùn)算量大幅減少。

        表2 OpenPose的網(wǎng)絡(luò)結(jié)果和計(jì)算量

        表3 Lightweight OpenPose的網(wǎng)絡(luò)結(jié)果和計(jì)算量

        2.2 人體肩寬測量結(jié)果

        圖16給出了10位被測者肩部端點(diǎn)的確定結(jié)果。其中,第1行被測者編號為1—5,第2行被測者編號為6—10。在這10位被測者中,包括了人體肩部常見的4種類型,即平肩、寬肩、窄肩和溜肩。從圖16可以看出,無論何種肩形,本文都能準(zhǔn)確地獲得肩部端點(diǎn)的位置。

        圖16 肩點(diǎn)定位結(jié)果

        表4為利用本文提出的肩寬測量方法得到的10位被測者的肩寬??梢钥闯?,表4中最大誤差值僅為1.29 cm。

        表4 肩寬測量結(jié)果

        2.3 人體腰圍測量結(jié)果

        本文選取6位被測者進(jìn)行人體圍度測量實(shí)驗(yàn),被測者側(cè)面圖像及二值圖如圖17所示。6位被測者包括3位男性和3位女性,包含正常腹部和凸腹。

        圖17 被測者側(cè)面圖像及二值圖

        利用本文提出的腰圍測量法和直接橢圓擬合法,對這6位被測者的腰圍進(jìn)行計(jì)算,結(jié)果如表5所示。表5中6位被測者的腰圍寬度和厚度均采用1.5.1小節(jié)的方法得到。從表5中6位被測者的測量誤差來看,本文方法比采用直接橢圓擬合法明顯要小,特別是對于3號和5號帶有凸肚體型者,本文的測量誤差比直接橢圓擬合法降低了約1 cm和0.7 cm,可見本文方法測量結(jié)果更精確。

        表5 腰圍測量結(jié)果

        利用本文提出的胸圍及臀圍測量方法,同樣對這6位被測者的胸圍和臀圍進(jìn)行計(jì)算,結(jié)果如表6及表7所示。從表6及表7可見,本文方法在胸圍及臀圍的測量上依然能獲得較為理想的效果,從6位被測者的測量誤差來看,本文方法比采用直接橢圓擬合法也明顯更小。

        表6 胸圍測量結(jié)果

        表7 臀圍測量結(jié)果

        2.4 系統(tǒng)評估

        對于肩寬測量,選擇了100位被測者進(jìn)行數(shù)據(jù)評估。其中,29位男性被測者,71位女性被測者,且被測者要求肩部圖像較為清晰,無嚴(yán)重干擾。實(shí)驗(yàn)記錄所有被測者的平均絕對誤差以及誤差在各區(qū)間的數(shù)量。將本文方法與基于消失點(diǎn)方法與比例法結(jié)合的人體圍度測量算法和回歸分析方法進(jìn)行對比,結(jié)果如表8所示。從表8可見,基于消失點(diǎn)方法與比例法結(jié)合的測量方法,因其未考慮實(shí)際肩寬測量方式,利用線段表示肩寬,誤差較大且普遍偏小。與回歸分析方法相比,本文方法整體好于基于回歸分析的測量方法,平均誤差及最大誤差較小,且絕大部分被測者的肩寬平均絕對誤差在2 cm以內(nèi),誤差超過3 cm的數(shù)量明顯低于回歸分析方法,符合國家規(guī)定的測量標(biāo)準(zhǔn)。

        表8 肩寬測量評估結(jié)果

        對于人體圍度測量,選擇了132位被測者進(jìn)行數(shù)據(jù)評估,其中48位男性被測者,84位女性被測者,且被測者要求衣物貼身,無嚴(yán)重干擾,胸部、腰部和臀部等特征信息可以清晰暴露。記錄所有被測者的平均絕對誤差以及誤差在各區(qū)間的數(shù)量。對于腰圍測量,將本文方法與回歸分析方法、基于SVM的腰圍估計(jì)方法和直接橢圓擬合方法進(jìn)行對比,結(jié)果如表9所示。從表9可見,本文方法的平均誤差較低,且誤差低于1 cm和2 cm的數(shù)量明顯多于其他方法,而誤差超過3 cm的數(shù)量明顯低于其他3種方法。絕大部分被測者的腰圍平均絕對誤差在2 cm以內(nèi),符合國家規(guī)定的測量標(biāo)準(zhǔn)。對于胸圍及臀圍測量,將本文方法與回歸分析方法和直接橢圓擬合方法進(jìn)行對比,結(jié)果如表10和表11所示。從表10和表11可見,本文方法的平均誤差依然較低,

        表9 腰圍測量評估結(jié)果

        表10 胸圍測量評估結(jié)果

        表11 臀圍測量評估結(jié)果

        且誤差在3 cm以內(nèi)的數(shù)量低于其他兩種方法。雖然在臀圍測量評估中,回歸分析的平均誤差略低于本文方法,但在最大誤差和誤差在3 cm以內(nèi)的數(shù)量的表現(xiàn)都不如本文方法,因此本文方法測量的穩(wěn)定性更高。

        3 結(jié) 論

        本文提出了一種結(jié)合卷積神經(jīng)網(wǎng)絡(luò)與曲線擬合的人體尺寸測量方法,可以在復(fù)雜環(huán)境下準(zhǔn)確快速地計(jì)算出人體尺寸。本文手工測量數(shù)據(jù)均為專業(yè)測量師手工測量,數(shù)據(jù)真實(shí)有效,且最終結(jié)果滿足國家規(guī)定的測量標(biāo)準(zhǔn)。雖然本文方法的測量精度已經(jīng)很高,但是依然存在一定誤差,具有一定的局限性。一是人體分割和關(guān)鍵點(diǎn)檢測對測量結(jié)果影響很大,圖像質(zhì)量差或人體輪廓不明顯都會(huì)給計(jì)算造成困難;二是被測者肩部或腋下不清晰,女性長發(fā)影響胸厚,以及腹部、臀部含有衣物堆積等情況,都會(huì)給人體各圍度測量帶來不同程度誤差,導(dǎo)致實(shí)驗(yàn)結(jié)果不夠理想。未來研究方向主要集中在以下幾個(gè)方面:1)提高人像分割方法的魯棒性,以過濾不屬于人體的部分;2)消除頭發(fā)或其他異物對肩寬、胸圍測量時(shí)的影響,提高肩部端點(diǎn)、胸部位置定位的準(zhǔn)確率;3)消除衣物堆積所帶來的測量困難,對于胸部、腰部和臀部等輪廓特征不明顯的個(gè)體,應(yīng)結(jié)合其他人體數(shù)據(jù)進(jìn)行估算。

        猜你喜歡
        測者肩寬圍度
        煤礦工作服的上衣原型研究
        小學(xué)班主任管理工作的角度和圍度
        甘肅教育(2020年22期)2020-04-13 08:10:46
        常練三動(dòng)作就能腿不老
        華聲文萃(2019年9期)2019-09-10 07:22:44
        常練三動(dòng)作就能腿不老
        視功能檢查輔助視標(biāo)與輔助鏡片的聯(lián)合應(yīng)用(三)
        寬恕與寬恕干預(yù)在高校學(xué)生戀愛受挫中的運(yùn)用
        裂隙燈檢查的個(gè)性化應(yīng)用(上)
        對圍度與皮褶厚度推測幼兒體脂率方法的分析研究
        圍度與皮褶厚度推測幼兒體脂率方法的研究
        立領(lǐng)上口線圍度設(shè)計(jì)的數(shù)學(xué)原理
        精品综合久久久久久99| 日韩精品综合一本久道在线视频| 朝鲜女人大白屁股ass孕交| 亚洲日韩一区精品射精| 久久人人妻人人做人人爽| 国产免费网站看v片元遮挡| 日本熟妇精品一区二区三区| 国产精品亚洲一区二区三区在线 | 豆国产95在线 | 亚洲| 国产亚洲sss在线观看| 日韩成人精品一区二区三区| 精品国产a毛片久久久av| 蜜臀av一区二区三区免费观看| 精品综合久久久久久888蜜芽| 中国a级毛片免费观看| 欧美成人专区| 国产熟女乱综合一区二区三区| 久久亚洲乱码中文字幕熟女 | 中文字幕精品久久天堂一区| 亚洲av日韩av天堂久久不卡| 国产一区二区三区亚洲| 青春草在线视频观看| 国产性生交xxxxx无码| 亚洲三级黄色| 女人被躁到高潮嗷嗷叫| 亚洲av成熟国产精品一区二区| 人妻少妇中文字幕在线| 中文无码一区二区不卡av| 特级毛片a级毛片免费播放| 国产极品喷水视频| 国产一区二区三区在线观看黄| 无码人妻精品一区二区三区夜夜嗨 | 国产偷2018在线观看午夜| 亚洲国产综合精品一区| 精品人妻少妇av中文字幕| 性一交一乱一乱一视频| 亚洲av高清在线观看三区| 中文字幕亚洲精品综合| 国产精品久免费的黄网站| 亚洲处破女av日韩精品| 亚洲国产成人无码影院|