亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖像的人體特征點(diǎn)提取與尺寸測(cè)量①

        2018-06-14 08:48:44許明星
        關(guān)鍵詞:中心點(diǎn)形狀灰度

        許明星,李 重

        1(浙江理工大學(xué) 信息學(xué)院,杭州 310018)

        2(浙江理工大學(xué) 理學(xué)院,杭州 310018)

        隨著虛擬技術(shù)和電子商務(wù)市場(chǎng)的迅速發(fā)展,促使了虛擬試衣技術(shù)的形成,人們對(duì)虛擬試衣技術(shù)的真實(shí)性、準(zhǔn)確性、個(gè)性化要求越來(lái)越高.虛擬試衣技術(shù)是將使用者的人體形態(tài)信息、物理信息以及服裝信息等結(jié)合在一起,通過(guò)計(jì)算機(jī)處理仿真,實(shí)現(xiàn)真實(shí)的穿衣效果,而人體特征點(diǎn)提取以及尺寸測(cè)量則成了最為關(guān)鍵的一步[1].

        人體特征點(diǎn)提取,目前已有多種方法,例如snake方法、主動(dòng)形狀模型(ASM)、主動(dòng)表觀模型(AAM)等[2],其中ASM和AAM是最為常用基于點(diǎn)分布模型(PDM)的特征點(diǎn)定位算法.ASM是為每個(gè)特征點(diǎn)建立對(duì)應(yīng)的灰度模型,直接對(duì)形狀做優(yōu)化,具有較高的特征點(diǎn)提取精度.AAM則是將形狀與紋理相結(jié)合的表觀模型,其優(yōu)點(diǎn)是具有較高的紋理精度.較ASM來(lái)說(shuō),AAM算法收斂范圍較小、搜索速度相對(duì)較慢,并且單個(gè)特征點(diǎn)定位精度不一定比ASM高[3].對(duì)于人體尺寸測(cè)量方法,主要分為接觸式和非接觸式兩類.接觸式測(cè)量主要是人工手動(dòng)測(cè)量,其準(zhǔn)確率較高,但測(cè)量過(guò)程慢、需要記錄大量數(shù)據(jù),易出錯(cuò).而非接觸式測(cè)量包括照片法、三維人體掃描等,非接觸式測(cè)量?jī)?yōu)點(diǎn)在于測(cè)量速度快、測(cè)量數(shù)據(jù)多、易于保存等[4].對(duì)于三維人體掃描法與照片法進(jìn)行比較,前者需要手動(dòng)標(biāo)記基準(zhǔn)點(diǎn)才能掃描,而且對(duì)于測(cè)試者的穿著、要求具有較為嚴(yán)苛的要求,而照片法能夠較為巧妙的避開這些問(wèn)題,只需要用戶拍攝人體照,而且現(xiàn)在拍攝的照片清晰度都比較高.

        本文就是基于圖片信息實(shí)現(xiàn)人體特征點(diǎn)的自動(dòng)提取以及尺寸測(cè)量,在圖片測(cè)量基礎(chǔ)上,對(duì)單背景(白色背景)圖片進(jìn)行處理、方法改進(jìn)達(dá)到自動(dòng)化測(cè)量.對(duì)單背景圖片改進(jìn)的方法提取精度較高,速度較快.后改進(jìn)傳統(tǒng)ASM算法單一模板局部模板匹配模式,以人臉中心點(diǎn)與人體中心點(diǎn)的歐氏距離進(jìn)行分類并訓(xùn)練出平均模板,根據(jù)待測(cè)圖片兩個(gè)中心特征點(diǎn)距離分類與訓(xùn)練好的多模板進(jìn)行快匹配;以特征點(diǎn)為中心,選取特定大小范圍內(nèi)10鄰域點(diǎn)進(jìn)行搜索[5];胯部以下擬合易出現(xiàn)單側(cè)擬合效果較好,結(jié)合馬氏距離利用人體對(duì)稱性特征進(jìn)行處理.減少迭代次數(shù),提高搜索精度,縮短提取時(shí)間.

        1 概述

        本文圖像處理的流程是:首先對(duì)圖片做一個(gè)預(yù)處理.通過(guò)預(yù)處理來(lái)剔除圖片噪點(diǎn),對(duì)于處理好的圖片,采用Hog特征[6]對(duì)圖片大致檢測(cè)出人體的范圍,并且以包圍盒的方式將其顯示出來(lái).之后根據(jù)包圍盒對(duì)所需要的特征點(diǎn)進(jìn)行提取,并獲得對(duì)應(yīng)的尺寸.其操作過(guò)程如圖1所示.

        圖1 系統(tǒng)模塊圖

        2 圖片預(yù)處理以及特征點(diǎn)提取

        灰度化處理是使RGB 模型中的R=G=B,把含有亮度和色彩的彩色圖像變換成灰度圖像的過(guò)程.對(duì)圖像的平滑預(yù)處理為了消除圖像噪聲,我們一般令Sxy表示中心在(x,y)的點(diǎn),m×n濾波器模板的大小,f(x,y)為濾波器得到的結(jié)果,并賦值給(x,y)處的像素.在常見(jiàn)濾波器經(jīng)過(guò)試驗(yàn)效果對(duì)比,我們采用中值濾波器,能夠較好地過(guò)濾掉一定的噪聲,有利于加強(qiáng)我們的圖片信息.

        (1) 在多次閾值選擇過(guò)程中閾值選擇128,圖片效果較好,其效果如圖2所示.利用Hog特征原理,將整個(gè)圖像分割成一個(gè)個(gè)8×8像素的Cell單元格,結(jié)合Canny算子輪廓檢測(cè)算法,我們將人體輪廓與邊緣檢測(cè)的結(jié)果結(jié)合起來(lái)形成人體包圍盒.改進(jìn)后效果如圖3所示:

        (2) 針對(duì)處理后圖像,我們進(jìn)行邊緣檢測(cè),其主要方法是根據(jù)我們所拍攝圖片人體姿態(tài)特點(diǎn),利用Canny算子二值化的圖像,在尋找到的包圍盒范圍內(nèi)進(jìn)行搜索,找出人體特征點(diǎn).搜索過(guò)程如下:

        ① 至上而下和至下而上確定身高

        檢索范圍為包圍盒最上方往下至包圍盒縱坐標(biāo)一半的范圍.當(dāng)遇到第一個(gè)白點(diǎn),停止并返回當(dāng)前點(diǎn)的坐標(biāo);同理下方最低點(diǎn)搜索方式與其類似,遇到第一個(gè)白點(diǎn),我們認(rèn)為它為人體最低點(diǎn).

        ② 至左而右和至右而左確定臂長(zhǎng)

        我們利用Ycrcb中的cr分量以及otsu閾值化的膚色檢測(cè)算法,在包圍盒的范圍內(nèi)檢測(cè)出測(cè)試者拳頭的大致范圍.同檢測(cè)最高點(diǎn)、最低點(diǎn)方法一致,分別從至左而右、至右而左搜索出第一個(gè)白色點(diǎn)即返回其坐標(biāo).

        圖2 閾值128效果圖

        圖3 改進(jìn)后的人體包圍盒效果圖

        3 基于特征點(diǎn)坐標(biāo)轉(zhuǎn)化以及尺寸測(cè)量

        由于坐標(biāo)都是基于圖片,輸出的坐標(biāo)點(diǎn)都是以像素為單位,為獲得實(shí)際尺寸,實(shí)驗(yàn)中利用多個(gè)標(biāo)準(zhǔn)人體模型在圖片中的像素?cái)?shù)與身高形成一個(gè)參照比例系數(shù)取他們的平均值α和圖片中特征點(diǎn)對(duì)應(yīng)的像素?cái)?shù)h相乘,即可將像素單位轉(zhuǎn)為實(shí)際尺寸,轉(zhuǎn)換公式為實(shí)際尺寸等于

        4 初步算法實(shí)驗(yàn)結(jié)果分析與算法改進(jìn)

        最初的方法是通過(guò)對(duì)圖片的預(yù)處理,剔除不必要的信息以及增強(qiáng)所需的關(guān)鍵信息,通過(guò)改進(jìn)的Hog特征檢測(cè)形成人體包圍盒,再通過(guò)Canny邊緣檢測(cè)以及搜索特征點(diǎn)的方法進(jìn)行人體特征點(diǎn)自動(dòng)提取和尺寸測(cè)量.本方法一直是基于白色背景的,人體與背景對(duì)比度較大,所以對(duì)于檢測(cè)這類圖片的識(shí)別率較高,效果較好.如果圖片背景有門窗、電燈開關(guān)、有建筑物、綠化植被或者拍攝光線較暗、服裝與背景相似等,利用上述方法都會(huì)影響人體特征點(diǎn)的提取以及尺寸的測(cè)量.

        本文ASM算法是基于二維圖像進(jìn)行特征點(diǎn)的定位,在對(duì)傳統(tǒng)的ASM算法進(jìn)行了改進(jìn).對(duì)于訓(xùn)練好的樣本,按照人臉中心點(diǎn)和人體中心點(diǎn)歐式距離進(jìn)行分類.我們找到待測(cè)圖片中人臉中心點(diǎn)[7]和人體中心點(diǎn)的歐式距離找到對(duì)應(yīng)的分類,并加載平均模板,經(jīng)過(guò)一次平移、旋轉(zhuǎn)以及縮放進(jìn)行快速匹配;特征點(diǎn)匹配時(shí),以特征點(diǎn)為中心選取一定的區(qū)域灰度分布訓(xùn)練模型,在該區(qū)域內(nèi)進(jìn)行搜索;對(duì)于胯部以下區(qū)域易出現(xiàn)僅單側(cè)擬合效果較好,改變馬氏距離原先搜索方式結(jié)合人體體型分布以及對(duì)稱性特點(diǎn)進(jìn)行擬合處理,來(lái)解決這個(gè)問(wèn)題.

        (1) 樣本建立

        我們選取100幅男女正面照作為本文實(shí)驗(yàn)的樣本集,采集的圖像要求測(cè)試者站直雙手握拳兩臂呈水平狀態(tài).對(duì)于采集后的圖像,我們使用標(biāo)點(diǎn)程序按照臉部中心點(diǎn)、頭頂點(diǎn)、脖子處、手臂處、腋下、胸圍、腰圍、臀圍、胯部點(diǎn)、腳底點(diǎn)等關(guān)鍵特征點(diǎn)進(jìn)行標(biāo)記,對(duì)于每幅圖像我們共標(biāo)記70個(gè)特征點(diǎn),并按照一定的順序進(jìn)行標(biāo)記.標(biāo)記的70個(gè)點(diǎn)按照一定的順序放在一個(gè)形狀向量里,其表達(dá)式為:

        其中,(xn,yn),n=1,2,…,70是按照一定順序排列的第n個(gè)特征點(diǎn)的坐標(biāo)值.我們將100幅用于訓(xùn)練的樣本構(gòu)成訓(xùn)練集M,則M:

        (2) 樣本分類和對(duì)齊

        根據(jù)事先計(jì)算好兩中心點(diǎn)歐式距離以及樣本集人體的身高,將我們的訓(xùn)練集M分成5大類,即M1,M2,M3,M4,M5,其中身高分類標(biāo)準(zhǔn)為140 cm~150 cm,151 cm~160 cm,161 cm~170 cm,171 cm~180 cm,181 cm~190 cm.將五類分別定義為Ⅰ、Ⅱ、Ⅲ、Ⅳ、Ⅴ,每個(gè)類別有20個(gè)樣本集,計(jì)算出其人臉和人體中心點(diǎn)的歐氏距離,統(tǒng)計(jì)出距離范圍區(qū)間.我們需要將以向量形式存在的訓(xùn)練形狀進(jìn)行相對(duì)對(duì)齊,通常使用Procrustes[8]的方法來(lái)對(duì)每類訓(xùn)練集Mi(i=1,2,3,4,5)進(jìn)行對(duì)齊,以合適的權(quán)重進(jìn)行平移、縮放和旋轉(zhuǎn)等相關(guān)幾何變換,使得對(duì)齊后的形狀模型與平均形狀模型之間的差距盡量最小.對(duì)于每個(gè)特征點(diǎn),需要計(jì)算其與其余所有特征點(diǎn)的距離,根據(jù)距離的標(biāo)準(zhǔn)偏差獲取權(quán)重,標(biāo)準(zhǔn)偏差公式如下所示:

        其中,N是樣本的數(shù)量,對(duì)于樣本中每一個(gè)點(diǎn)對(duì)其求標(biāo)準(zhǔn)偏差平方和再取倒數(shù),即可作為該點(diǎn)的權(quán)重.

        由于樣本集中的樣本特征點(diǎn)的絕對(duì)位置有差異,為了克服上述問(wèn)題,我們需要對(duì)我們的樣本集中的形狀進(jìn)行對(duì)齊.對(duì)于每類訓(xùn)練樣本,我們選擇其中一個(gè)M1為基礎(chǔ),對(duì)于其他的形狀進(jìn)行旋轉(zhuǎn)、縮放、對(duì)齊使得它們與M1盡可能接近.之后計(jì)算經(jīng)過(guò)形狀變換后的訓(xùn)練集的平均形狀將平均形狀以樣本M1為模板進(jìn)行旋轉(zhuǎn)、對(duì)齊和縮放.不斷重復(fù)這一過(guò)程,直到相鄰兩次的平均形狀向量差別小于某一特定值.上述配準(zhǔn)過(guò)程效果圖如圖4所示,4(a)為歐式距離在分類Ⅰ中的20個(gè)人體輪廓圖,4(b)為通過(guò)旋轉(zhuǎn)、縮放、對(duì)齊得到后的平均模板輪廓圖.

        圖4 配準(zhǔn)效果圖

        (3) 主成分分析(PCA)

        把訓(xùn)練集中的形狀向量進(jìn)行歸一化后,需利用主成分分析的方法找出形狀變化的規(guī)律和特點(diǎn),其過(guò)程如下:

        ① 求對(duì)齊后的平均形狀

        ② 對(duì)齊后各個(gè)樣本形狀向量的偏差

        ③ 計(jì)算樣本形狀向量的協(xié)方差

        ④ 對(duì)于S進(jìn)行特征分解,求得其特征值 λ和特征向量Pk,并對(duì)特征值排序.求解好的特征值 λk的大小其實(shí)是反映了樣本在相對(duì)性方向變化所占比重的大小.經(jīng)過(guò)主成分分析,我們?nèi)∏皌個(gè)特征值對(duì)應(yīng)的特征向量,其選取的依據(jù)是我們將選定的 相對(duì)應(yīng)的特征向量p組成一個(gè)矩陣P,這樣任意一個(gè)人體形狀x新的變化子空間可以描述為:λ

        其中,表示為人體的平均形狀;P為特征向量p構(gòu)成的一個(gè)矩陣;b是一個(gè)t×l的向量,我們可以通過(guò)改變b就可以生成新的形狀.為了使得配準(zhǔn)后的形狀是所需要的人體形狀,我們最常做的是將b的取值限制在通過(guò)對(duì)b的值限定,我們可生成新的人體形狀模型.

        (4) 灰度模型建立

        初始形狀會(huì)和真實(shí)形狀不相一致,需要不斷地去調(diào)整,使其與真實(shí)形狀相吻合,通過(guò)建立局部灰度模型,對(duì)訓(xùn)練圖像特征點(diǎn)附近的灰度信息進(jìn)行分析.傳統(tǒng)方法為對(duì)每一幅特征點(diǎn)標(biāo)記的特征點(diǎn)為中心,沿著其法線方向,分別在特征點(diǎn)兩邊取k個(gè)像素的灰度值,將每個(gè)像素點(diǎn)的k鄰域范圍內(nèi)的平均灰度作為當(dāng)前像素點(diǎn)的灰度值.每一個(gè)點(diǎn)對(duì)應(yīng)的灰度模板就是關(guān)于這個(gè)2k+1個(gè)灰度值的均值和方差,這種方法缺點(diǎn)是需要花費(fèi)很長(zhǎng)時(shí)間來(lái)處理.本文方法是在特征點(diǎn)的位置為中心選取3個(gè)矩形區(qū)域內(nèi)的像素值進(jìn)行處理[5].

        局部紋理模型的作用主要是方便我們找到每個(gè)特征點(diǎn)最佳的匹配位置,本文以特征點(diǎn)為中心,選取其周圍的10鄰域點(diǎn)作為候選點(diǎn),使用候選點(diǎn)與樣本點(diǎn)的歐式距離的大小來(lái)衡量是否為最為匹配的特征點(diǎn).

        (5) ASM搜索過(guò)程人體特征點(diǎn)以及尺寸測(cè)量

        對(duì)于訓(xùn)練好的人體形狀模型以及局部紋理模型,對(duì)于人體照片進(jìn)行目標(biāo)搜索,找出人體特征點(diǎn)的位置以及計(jì)算尺寸信息.其操作流程如圖5所示.

        圖5 改進(jìn)ASM搜索過(guò)程

        我們選取兩個(gè)關(guān)鍵特征點(diǎn)的位置(人臉中心點(diǎn)以及人體中心點(diǎn)),并計(jì)算出其對(duì)應(yīng)的歐式距離,根據(jù)距離分類加載對(duì)應(yīng)平均模板,進(jìn)行縮放等操作進(jìn)行匹配.

        獲取到人臉中心點(diǎn)和人體中心點(diǎn)的坐標(biāo),我們能夠計(jì)算出兩點(diǎn)之間的歐式距離w,再計(jì)算出我們所使用的平均模板兩個(gè)中心點(diǎn)的歐式距離w',計(jì)算出縮放因子s=w/w'.以人臉中心點(diǎn)為參考點(diǎn),計(jì)算出待測(cè)圖片中的人臉中心點(diǎn)位置與訓(xùn)練模板人臉中心點(diǎn)的位置的距離得到平移向量d=(dx,dy)T,將待測(cè)圖片中人臉中心點(diǎn)與人體中心點(diǎn)之間的連線與平均模板人臉中心點(diǎn)和人體中心點(diǎn)之間的連線的夾角作為標(biāo)準(zhǔn)形狀模型的旋轉(zhuǎn)因子[10],通過(guò)如下式子的變換可以初步確定出初始形狀:

        歐氏距離分類快速搜索匹配后的初始形狀效果如圖6所示.

        圖6 歐氏距離分類快速匹配效果

        獲得初始形狀后,我們需要計(jì)算出當(dāng)前特征點(diǎn)與其周圍的10個(gè)鄰域點(diǎn)的候選點(diǎn)與模型點(diǎn)進(jìn)行歐氏距離計(jì)算,選擇歐式距離最小的點(diǎn)作為最佳特征點(diǎn),并且生成新的形狀;計(jì)算姿態(tài)參數(shù)和形狀參數(shù)改變量,更新參數(shù)使得新形狀與模型相匹配,直至最后收斂,則判斷ASM搜索結(jié)束并根據(jù)標(biāo)記點(diǎn)的序號(hào)計(jì)算出對(duì)應(yīng)的特征點(diǎn)尺寸.

        我們通過(guò)計(jì)算相鄰兩次新形狀之間的歐式距離來(lái)不斷更新我們所需要的參數(shù),當(dāng)我們得到的歐式距離大于我們?cè)O(shè)定的閾值,則需要繼續(xù)更新參數(shù)繼續(xù)搜索.因?yàn)槲覀兪孪茸隽四0宸诸惪焖贁M合的操作,所有對(duì)于身高點(diǎn)、臂長(zhǎng)點(diǎn)等位置的擬合匹配較快,迭代次數(shù)較少.

        胯部以下區(qū)域在迭代過(guò)程中會(huì)出現(xiàn)僅單側(cè)輪廓點(diǎn)擬合效果較好,我們采用了灰度向量馬氏距離最小的匹配原則[11]以及結(jié)合人體體型分布以及對(duì)稱性特點(diǎn)來(lái)解決這個(gè)問(wèn)題.馬氏距離表示數(shù)據(jù)的協(xié)方差距離,能考慮到各種特性之間的聯(lián)系,其公式為:

        其中表示為均值,協(xié)方差矩陣的多變量

        根據(jù)之前灰度模型構(gòu)建的方法,我們可以得到一個(gè)向量集的均值記為對(duì)于待測(cè)圖像中的特征點(diǎn)t,沿著法線方向得到其灰度向量grayt,我們可定義如下匹配函數(shù)[12]:

        根據(jù)上述公式,對(duì)于部分區(qū)域擬合易出現(xiàn)問(wèn)題的地方,我們采用上述方法,也就是解決f(grayt)最小值問(wèn)題.在輪廓搜索過(guò)程中,對(duì)于當(dāng)前候選點(diǎn)為中心取3個(gè)矩陣區(qū)域的鄰域點(diǎn),再沿著其法線方向取3個(gè)矩陣區(qū)域的鄰域點(diǎn),沿著每條法線獲取其灰度向量grayt,利用馬氏距離方法計(jì)算出f(grayt)的最小值,尋找出最佳匹配位置.這樣一來(lái)不斷地計(jì)算,不斷更新參數(shù),使得部分區(qū)域擬合失敗問(wèn)題得到解決.

        由于人體體型存在對(duì)稱特征[13],通過(guò)上述方法,找出人體輪廓圖.標(biāo)記對(duì)應(yīng)特征點(diǎn),我們發(fā)現(xiàn)人體特征點(diǎn)存在對(duì)稱性特征.但由于我們算法在胯部以下易出現(xiàn)單側(cè)擬合效果較好,故只對(duì)胯部以下部分作對(duì)稱性研究,效果如圖7所示.

        在ASM特征點(diǎn)搜索過(guò)程中,我們根據(jù)人體特征點(diǎn)分布特征以及人體對(duì)稱性特點(diǎn)進(jìn)行處理.依據(jù)擬合好的位置點(diǎn)標(biāo)號(hào),記錄下其坐標(biāo)點(diǎn)的位置.搜索過(guò)程中,單側(cè)擬合效果好,選擇左外側(cè)所有特征點(diǎn)位置與人體中心的位置距離d,再選取人體右外側(cè)特征的與人體中心點(diǎn)的位置距離d1.將d和d1進(jìn)行比較,設(shè)定誤差小于1 cm.兩者誤差在這范圍內(nèi),就判定兩側(cè)特征點(diǎn)擬合基本正確,當(dāng)兩者誤差大于設(shè)定的范圍,判定某側(cè)特征點(diǎn)擬合有誤.

        圖7 胯部以下人體特征點(diǎn)對(duì)稱性分析圖

        對(duì)于有誤的兩側(cè)特征點(diǎn),我們利用人體骨架線來(lái)進(jìn)行判斷,人體骨架體提取效果如圖8所示.分別計(jì)算左外側(cè)特征點(diǎn)和內(nèi)側(cè)特征點(diǎn)中點(diǎn),與骨架線上同一高度點(diǎn)的坐標(biāo)進(jìn)行比較,當(dāng)兩點(diǎn)的距離小于1 cm,我們可以判斷出當(dāng)側(cè)特征點(diǎn)擬合效果較好,當(dāng)距離大于1 cm說(shuō)明擬合有誤,對(duì)于擬合效果不好的那側(cè)特征點(diǎn),利用人體對(duì)稱性特點(diǎn),進(jìn)行擬合.

        圖8 特征點(diǎn)擬合結(jié)果分析圖

        使用改進(jìn)的灰度向量馬氏距離最小的匹配原則和人體體型對(duì)稱性特征,較好地解決了ASM搜索過(guò)程中單側(cè)效果較好的問(wèn)題.參照朱欣娟等方法對(duì)最大迭代次數(shù)的限定,我們?cè)O(shè)定了最大迭代次數(shù)為26[5].通過(guò)多次反復(fù)試驗(yàn),我們所使用的待測(cè)圖像數(shù)據(jù)迭代次數(shù)一共進(jìn)行5次,即可完成最終的匹配,其部分迭代過(guò)程如圖9所示.

        完成ASM搜索后,我們可以根據(jù)擬合好的點(diǎn)找出對(duì)應(yīng)的編號(hào),找出對(duì)應(yīng)的坐標(biāo)點(diǎn)位置,做差值運(yùn)算,可以做出對(duì)待測(cè)圖像的人體尺寸測(cè)量.再根據(jù)之前像素點(diǎn)轉(zhuǎn)為實(shí)際尺寸的計(jì)算方法,可以直接計(jì)算出待測(cè)人體真實(shí)尺寸.對(duì)于胸圍、腰圍、臀圍特征尺寸,我們的方法只計(jì)算這些特征點(diǎn)位置的距離,所有特征點(diǎn)測(cè)量結(jié)果如表1所示.

        圖9 改進(jìn)ASM方法搜索效

        表1 改進(jìn)的ASM算法尺寸測(cè)量數(shù)據(jù)(單位:cm)

        5 實(shí)驗(yàn)結(jié)果及其結(jié)果討論

        本文先是提出一種基于單背景的人體尺寸測(cè)量提取,主要是基于Canny算子人體輪廓的提取方法以及尺寸測(cè)量.同國(guó)外的系統(tǒng)Loughborough人體掃描儀、TC2分層輪廓測(cè)量方法等比較起來(lái),本文適用性更強(qiáng),檢測(cè)速度快,準(zhǔn)確度高.同時(shí)我們也發(fā)現(xiàn)當(dāng)輪廓中出現(xiàn)斷點(diǎn)時(shí),會(huì)使測(cè)量出現(xiàn)異常的問(wèn)題.針對(duì)上述問(wèn)題,我們采用人體特征點(diǎn)比例分析法、圖像特征增強(qiáng)來(lái)解決輪廓點(diǎn)缺失出現(xiàn)斷點(diǎn)導(dǎo)致檢測(cè)異常.改進(jìn)效果圖如圖10所示,其中圖10(a)是輪廓出現(xiàn)斷點(diǎn)造成檢測(cè)異常效果圖,圖10(b)則是本文改進(jìn)方法檢測(cè)效果圖.

        后在主動(dòng)形狀模型(ASM)算法的基礎(chǔ)上,結(jié)合之前的算法,并且對(duì)傳統(tǒng)的ASM算法進(jìn)行修改,選取特征點(diǎn)特定大小矩形范圍內(nèi)鄰域點(diǎn),結(jié)合馬氏距離公式,選擇特定矩陣大小鄰域范圍內(nèi)點(diǎn)的灰度與灰度模型比較,并且結(jié)合人體體型分布及對(duì)稱性特點(diǎn)進(jìn)行擬合處理選擇特定矩陣大小鄰域范圍內(nèi)的點(diǎn)進(jìn)行處理.本實(shí)驗(yàn)室選擇100幅特定照片作為訓(xùn)練集,服務(wù)器端圖像處理算法電腦CPU為Intel酷睿4核4.20 GHz,內(nèi)存為16 GB,在MyEclipse運(yùn)行環(huán)境中,通過(guò)Java程序?qū)Υ郎y(cè)圖片中的人體特征點(diǎn)進(jìn)行標(biāo)定,獲取坐標(biāo)點(diǎn)連線、訓(xùn)練、測(cè)試,并且記錄完成人體輪廓搜索所需要的時(shí)間、迭代次數(shù)以及與真實(shí)人體測(cè)量尺寸進(jìn)行比對(duì),記錄誤差值.本文改進(jìn)的ASM算法與最初的Canny算子輪廓提取算法、傳統(tǒng)ASM算法、朱欣娟等方法做了比較及分析,如表2所示.

        圖10 改進(jìn)后的輪廓缺失提取圖

        表2 傳統(tǒng)以及改進(jìn)的ASM算法準(zhǔn)確率和搜索效率數(shù)據(jù)對(duì)比

        實(shí)驗(yàn)結(jié)果對(duì)比分析表明,本文方法在對(duì)之前傳統(tǒng)方法改進(jìn)的基礎(chǔ)上,較好的適應(yīng)了復(fù)雜背景的人體輪廓檢測(cè),并且提高了特征點(diǎn)提取的準(zhǔn)確率.與傳統(tǒng)ASM方法進(jìn)行比較,搜索過(guò)程中減少了迭代次數(shù),縮短特征點(diǎn)提取時(shí)間,一定程度上提高了我們的特征點(diǎn)提取準(zhǔn)確率.與朱欣娟等方法進(jìn)行比較,由于我們檢測(cè)的特征點(diǎn)位置較多,準(zhǔn)確率比其方法較低一點(diǎn),但在搜索過(guò)程中我們的迭代次數(shù)較少,提取時(shí)間較短.

        為了驗(yàn)證我們的算法對(duì)于不同光照下、復(fù)雜背景下的有效性,我們選取了不同背景下的人體圖片進(jìn)行提取.選擇拍攝背景為建筑物并且拍攝光線較暗的圖片進(jìn)行測(cè)試,效果圖11所示;選擇拍攝背景為建筑物并且拍攝光線正常的圖片進(jìn)行測(cè)試,效果圖12所示;選擇拍攝背景為門框并且拍攝光線較亮的圖片進(jìn)行測(cè)試,效果如圖13所示.

        圖11 暗光線復(fù)雜背景測(cè)試圖

        圖12 正常光線復(fù)雜背景測(cè)試圖

        圖13 光線較亮門框背景測(cè)試圖

        為了驗(yàn)證我們的算法能夠適用較為復(fù)雜的背景,我們用了同一組人體在正常背景下、亮度較暗背景下、復(fù)雜背景下分別用了傳統(tǒng)方法、改進(jìn)的ASM算法進(jìn)行對(duì)比,我們發(fā)現(xiàn)對(duì)于亮度正常背景單一的環(huán)境下,傳統(tǒng)方法檢測(cè)效果較好準(zhǔn)確率較高效果如圖14(a)所示;對(duì)于光線較差,人體出現(xiàn)陰影的情況下,傳統(tǒng)方法檢測(cè)胸圍、腰圍、臀圍等關(guān)鍵位置出現(xiàn)較為明顯的偏差,其檢測(cè)結(jié)果如圖14(b)所示;對(duì)于復(fù)雜背景下,傳統(tǒng)方法對(duì)于關(guān)鍵特征點(diǎn)檢測(cè)幾乎全部失效,背景建筑物的輪廓會(huì)被識(shí)別為特征點(diǎn),其檢測(cè)結(jié)果如圖14(c)所示.針對(duì)上述圖片,我們采用了改進(jìn)的ASM算法進(jìn)行處理發(fā)現(xiàn),其準(zhǔn)確率大大提高,幾乎不會(huì)出現(xiàn)傳統(tǒng)方法誤檢測(cè)的問(wèn)題,其檢測(cè)效果如圖15(a)(b)(c)所示.

        6 總結(jié)與展望

        本文通過(guò)對(duì)人體圖片預(yù)處理和增強(qiáng),并且使用針對(duì)人體輪廓缺失使用人體比例關(guān)系方法對(duì)人體與背景對(duì)比度較大的圖片進(jìn)行人體特征點(diǎn)提取和尺寸測(cè)量.由于人體與背景對(duì)比度較大的圖片檢測(cè)范圍較狹隘,對(duì)于復(fù)雜背景下的特征點(diǎn)提取與尺寸測(cè)量,上述方法完全失效.為此,本文在ASM算法基礎(chǔ)上,改變傳統(tǒng)ASM算法單模板匹配模式,選擇較少有效鄰域點(diǎn)在其灰度模型中搜索,改變胯部以下搜索方式,利用改進(jìn)的馬氏距離搜索方式以及利用人體體型對(duì)稱性特點(diǎn)解決.改進(jìn)后的ASM方法,能夠很好的解決復(fù)雜背景下人體輪廓提取的問(wèn)題,對(duì)于復(fù)雜背景提取準(zhǔn)確率較高,并且提取速度快;較其他方法,提取精度高,速度快.

        圖14 傳統(tǒng)方法測(cè)試圖

        圖15 本文改進(jìn)方法測(cè)試圖

        由于人體胸圍、腰圍、臀圍等特征尺寸存在一定的弧度,用本文的方法進(jìn)行測(cè)量時(shí),對(duì)于胸圍、腰圍存在一定的誤差.本文改進(jìn)的ASM方法也可適用于人體側(cè)面的輪廓提取.下一步的研究?jī)?nèi)容是使用本文方法結(jié)合人體正面和側(cè)面圖,研究如何提高人體腰圍、胸圍等特征尺寸的測(cè)量.同樣,虛擬試衣技術(shù)也越來(lái)越廣泛,將我們的算法推廣到實(shí)際應(yīng)用中也是我們今后的工作.

        1 羅仕鑒,朱上上,孫守遷.人體測(cè)量技術(shù)的現(xiàn)狀與發(fā)展趨勢(shì).人類工效學(xué),2002,8(2):31-34.

        2 B?lan AO,Black MJ.The naked truth:Estimating body shape under clothing.Proceedings of the 10th European Conference on Computer Vision.Marseille,France.2008.15-29.

        3 Dang L,Kong FR.Facial feature point extraction using a new improved active shape model.Proceedings of the 3rd International Congress on Image and Signal Processing.Yantai,China.2010.944-948.

        4 駱順華,王建萍.基于二維圖像非接觸式人體測(cè)量方法探析.紡織學(xué)報(bào),2013,34(8):151-155.

        5 朱欣娟,熊小亞.基于改進(jìn)ASM模型的人體特征點(diǎn)定位和建模方法.系統(tǒng)仿真學(xué)報(bào),2015,27(2):286-294.

        6 田仙仙,鮑泓,王波波,等.一種局部多特征融合的行人檢測(cè)算法.北京聯(lián)合大學(xué)學(xué)報(bào),2013,27(3):21-25.

        7 周筠.監(jiān)控系統(tǒng)中人臉識(shí)別的研究[碩士學(xué)位論文].北京:清華大學(xué),2008.

        8 馮振華,吳小俊.改進(jìn)的用于ASM的歸一化方法.計(jì)算機(jī)工程與應(yīng)用,2009,45(2):187-190.

        9 孫硯銘.基于ASM自動(dòng)人臉特征點(diǎn)定位及應(yīng)用的研究[碩士學(xué)位論文].北京:北京交通大學(xué),2010.

        10 Tao L,Zhuang ZQ.Locating human eyes in complex background.Journal of Computer-Aided Design &Computer Graphics,2003,15(1):38-42.

        11 George RC,Mishra SK,Dwivedi M.Mahalanobis distance among the phase portraits as damage feature.Structural Health Monitoring,2017.[doi:10.1177/1475921717722743.]

        12 Li CM,Huang R,Ding ZH,et al.A level set method for image segmentation in the presence of intensity inhomogeneities with application to MRI.IEEE Transactions on Image Processing,2011,20(7):2007-2016.[doi:10.1109/TIP.2011.2146190]

        13 夏鳳勤,毋戈,謝昊洋,等.基于人體縱截面特征曲線的體型分類.紡織學(xué)報(bào),2017,38(6):86-91.

        猜你喜歡
        中心點(diǎn)形狀灰度
        挖藕 假如悲傷有形狀……
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
        基于灰度拉伸的圖像水位識(shí)別方法研究
        Scratch 3.9更新了什么?
        如何設(shè)置造型中心點(diǎn)?
        電腦報(bào)(2019年4期)2019-09-10 07:22:44
        你的形狀
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        看到的是什么形狀
        基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
        漢字藝術(shù)結(jié)構(gòu)解析(二)中心點(diǎn)處筆畫應(yīng)緊奏
        国产精品日本一区二区三区| а√资源新版在线天堂| 精品久久久中文字幕人妻| jlzzjlzz全部女高潮| 成人免费毛片在线播放| 日韩中文字幕在线观看一区| 国模无码一区二区三区| 国产成人www免费人成看片| 国产精品一区2区三区| 亚洲激情一区二区三区视频| 少妇人妻综合久久中文字幕| 成人免费777777被爆出| 日本a在线看| 午夜男女视频一区二区三区| 丰满少妇在线播放bd| 久久久久成人片免费观看蜜芽| 欧美一级色图| 亚洲一区二区三区在线观看| 国产一区二区三区我不卡 | 中国丰满人妻videoshd| 国产普通话对白视频二区| 国产精品狼人久久久影院| 91三级在线观看免费| 一区二区三区乱码在线 | 欧洲| 亚洲成人福利在线观看| 蜜桃av区一区二区三| 懂色av一区二区三区尤物| 婷婷五月六月综合缴情| 国产短视频精品区第一页| 久久中文字幕国产精品| 无码人妻丰满熟妇啪啪网不卡| 国产超碰人人做人人爱ⅴa| 精品三级久久久久久久| 亚洲国产区中文在线观看| 日韩精品久久无码中文字幕| 无限看片在线版免费视频大全| 中文字幕成人精品久久不卡| 不卡的高清av一区二区三区| 怡红院a∨人人爰人人爽| 天啦噜国产精品亚洲精品| 日本一区二区三区高清视|