亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進肌肉模型的三維人臉自適應參數(shù)配置

        2022-07-12 14:03:38
        計算機應用與軟件 2022年6期
        關鍵詞:方法模型

        周 悅 劉 凱

        (四川大學電氣工程學院 四川 成都 610065)

        0 引 言

        隨著計算機技術的發(fā)展,逼真的人體建模與動作模擬在動畫、游戲、教育、醫(yī)學研究等領域[1-2]有了普遍的應用。在人體行為模擬中,由于真實人臉表情復雜多變,是情感表達的重要載體,三維表情模擬一直是計算機圖形學領域內(nèi)研究的熱門與難點。

        自20世紀70年代初Parke[3]開創(chuàng)式地設計出第一個可以模擬表情的人臉模型以來,國內(nèi)外專家學者在三維表情合成領域做了大量研究工作,目前存在的方法大致可分為以下四類:(1) 基于關鍵幀插值的方法[4],通過對表情變化時頂點移動軌跡的計算,只需定義臉部少數(shù)關鍵幀,即可產(chǎn)生一段簡單表情動畫,但產(chǎn)生的表情真實感較差;(2) 基于參數(shù)的方法[5-6],通過對人臉表面參數(shù)的控制實現(xiàn)表情合成,但控制點多,參數(shù)設置復雜;(3) 基于生理模型的方法[7],利用解剖學知識,對真實人臉的骨骼、肌肉、皮膚進行建模,模仿真實表情的形變。這類方法合成的人臉逼真表情豐富,但模型復雜,在人臉上搭建困難;(4) 基于偽肌肉模型變形的方法[8-9],利用幾何形變模擬人臉肌肉運動,此類方法相比肌肉模型結(jié)構(gòu)簡單,但缺少對表情細節(jié)的模擬。

        本文對傳統(tǒng)肌肉模型缺點作出改進,使仿真的表情更具有真實感,并提出一種自適應肌肉參數(shù)配置方法,快速獲取特定人臉上各個肌肉的參數(shù)。

        1 人臉肌肉模型

        1.1 三維人臉數(shù)據(jù)

        三維人臉模型是表情合成的基礎,經(jīng)過許多研究學者的探索,目前三維人臉模型的來源通常有以下幾種:基于三維建模軟件的方法,最常見的軟件有Maya、3dmax、Rhino等;基于二維照片特征對一般人臉模型形變的方法[10-11];基于激光掃描真實人臉的點云重建方法[12-13]。

        在這些方法中,因為二維圖像獲取的門檻低、速度快,本文便基于單幅正面人臉圖片對平均人臉模型變形獲得特定三維人臉模型。

        對于一個三維人臉模型,可表示為形狀向量和紋理向量的組合。設平均人臉模型的形狀向量S和紋理向量T的定義如下:

        S=(x1,y1,z1,x2,y2,z2,…,xn,yn,zn)

        (1)

        T=(R1,G1,B1,R2,G2,B2,…,Rn,Gn,Bn)

        (2)

        式中:(xi,yi,zi,)是三維網(wǎng)格模型中第i個頂點的三維坐標;(Ri,Gi,Bi,)是第i個頂點的紋理值;n是網(wǎng)格模型中的頂點總數(shù)。用主成分分析法對形狀和紋理向量進行統(tǒng)計剖析,那么特定人臉模型的形狀S′和紋理T′可表示為:

        S′=S+λα

        (3)

        T′=T+τβ

        (4)

        式中:λ和τ分別是前m個形狀和紋理特征向量組成的特征矩陣;α和β分別是形狀和紋理系數(shù)向量。

        因為人臉模型的形狀復雜,僅考慮剛性形變很難從模板人臉轉(zhuǎn)化為特定人臉,在二維人臉圖像上選取11個特征點作為模型非剛性形變的依據(jù),具體特征點選擇見圖1。

        (a) 模板人臉 (b) 輸入人臉圖1 二維圖像人臉特征點

        1.2 肌肉模型

        抽象肌肉模型是根據(jù)人體解剖學和肌肉力學知識,通過模仿肌肉的收縮或拉伸牽扯網(wǎng)格模型發(fā)生形變,模擬出人臉表情。Waters[14]基于解剖模型,在人臉上劃分出18個肌肉群組作為表情模擬的肌肉向量,并將常用肌肉模型定義為兩大類:一種是括約肌,另一種是線性肌。括約肌控制實現(xiàn)嘴唇部分的變形,其影響范圍可用橢球體表示。線性肌的數(shù)學模型是一個向量,向量的兩端分別代表肌肉附著在相應骨骼上的固定端點和肌肉與皮膚組織相連的移動端點。在傳統(tǒng)肌肉模型中,大部分人臉肌肉的運動都是通過線性肌模擬實現(xiàn)的。

        (5)

        (6)

        圖2 線性肌模型[14]

        上述數(shù)學模型較好地模擬出了人臉肌肉對于皮膚的牽扯作用,在學術研究、工程實踐中均有了廣泛的使用。但在實際操作中發(fā)現(xiàn)這種線性肌模型存在不足之處:當受力系數(shù)較大時,形變后的網(wǎng)格會堆積在肌肉固定端,出現(xiàn)尖銳突起現(xiàn)象;而當受力系數(shù)過大時,網(wǎng)格拓撲結(jié)構(gòu)被破壞,人臉模型出現(xiàn)破損,如圖3所示。

        (a) 受力系數(shù)為0 (b) 受力系數(shù)為3

        (c) 受力系數(shù)為5 (d) 受力系數(shù)為10圖3 受力系數(shù)分別為0、3、5、10時線性肌變形效果

        1.3 斥力彈簧

        由人體肌肉力學與實際現(xiàn)象可知,肌肉收縮或拉伸造成的皮膚形變在靠近肌肉起點處逐漸緩和,最終在固定點處平滑。為了修復尖銳突起問題,使合成的表情更接近于真實,本節(jié)對線性肌模型提出改進。

        三角面片受到來自肌肉固定端的拉力發(fā)生形變,被控點P受到的拉力為fmp,但同時,根據(jù)生理學知識,肌肉是具有彈性的彈簧模型,皮膚組織在被肌肉牽引的同時,也會承受因肌肉收縮帶來的斥力,基于此原理,本文在線性肌模型靠近骨節(jié)點處加入斥力彈簧模型,對網(wǎng)格被牽引產(chǎn)生的位移進行修正。

        設彈簧的起點為固定端V1,作用半徑為R,位于作用范圍內(nèi)的一網(wǎng)格頂點在松弛狀態(tài)的坐標為Pi,在受到線性肌牽引力移動后的坐標為Pj,那它受到彈簧模型的斥力為:

        (7)

        式中:Δp=Pj-Pi;k為勁度系數(shù)。對于肌肉彈簧模型作用范圍內(nèi)每一點,勁度系數(shù)并不是一個常量,它與被控點所位于彈簧中的初始位置相關,當網(wǎng)格越接近肌肉固定端,形變改變就越困難,即勁度系數(shù)越大。因此,用非線性函數(shù)(式(8))對勁度系數(shù)進行調(diào)節(jié):

        (8)

        式中:α是非線性因子;k0為初始勁度系數(shù)。

        1.4 邊約束

        在近固定端加入斥力彈簧模型后能解決尖銳突起問題,使網(wǎng)格形變在近固定端處變得圓潤平滑,因為斥力彈簧勁度系數(shù)的非線性特性,對于不同的網(wǎng)格產(chǎn)生的斥力不同,當彈簧區(qū)域內(nèi)的網(wǎng)格形變被斥力抵消一部分后,位移修正程度小或不受到斥力修正的網(wǎng)格會重疊甚至穿過修正程度大的網(wǎng)格,造成網(wǎng)格拓撲結(jié)構(gòu)被破壞,這也是傳統(tǒng)線性肌模型需要解決的第二個問題。圖4是三角網(wǎng)格在外力作用下發(fā)生形變的示意圖,三角網(wǎng)格拓撲結(jié)構(gòu)破壞的原因是因為網(wǎng)格頂點與其對邊重疊甚至越過了對邊,如圖4中(c)和(d)兩種情況。

        (a) (b)

        (c) (d)圖4 三角網(wǎng)格受力形變分析

        為了解決該問題,參考皮膚彈性模型[15],對網(wǎng)格模型引入邊約束。邊約束的思想是在三角網(wǎng)格的頂點與其所在三角面片的對邊之間垂線相連建立質(zhì)點彈簧模型,其作用使得節(jié)點始終不能越過對邊網(wǎng)格。

        (9)

        式中:di為初始狀態(tài)下彈簧pei的長度;β是應力強度因子;δ是應力尺度因子。

        圖5 邊約束模型

        在加入兩種改進后的人臉模型中肌肉作用范圍內(nèi)網(wǎng)格頂點除了受到來自線性肌的拉力fmp,還受到斥力彈簧的斥力fR以及周圍網(wǎng)格的邊約束力fers的合力,總受力變?yōu)椋?/p>

        (10)

        2 自適應肌肉參數(shù)

        若要實現(xiàn)肌肉模型控制人臉實現(xiàn)表情動畫,需要給三維人臉模型裝配上相應肌肉模型的固定端、移動端、起始半徑、終止半徑和控制范圍等參數(shù)。在以往研究中很少有對特定人臉相應肌肉參數(shù)特定化的研究,多為手動調(diào)試實現(xiàn)。為了減少手動調(diào)試時間,快速實現(xiàn)肌肉參數(shù)特定化,本節(jié)基于一般人臉與特定人臉的特征映射關系,提出一種自適應肌肉參數(shù)獲取方法。

        人臉主要由臉形、眼睛、鼻子、嘴唇等元素組成,一般人臉模型可以看作一張具有所有人臉基本元素但不具備任何明顯特征的人臉,而根據(jù)人臉照片特征點對一般人臉模型形變生成的具有個性特征的人臉模型便是特定人臉模型。一般人臉模型與形變生成的特定人臉模型均具有MPEG- 4定義的人臉通用特征。

        參考Waters肌肉模型,在人臉模型上設置18個線性肌模型用來合成表情,具體分布情況見圖6(a),因為特定人臉模型的形變程度并不是整體均衡分布,通過分析線性肌與MPEG- 4定義的人臉特征點的分布(圖6(b)),將人臉模型劃為6個區(qū)塊(左半張臉劃分見圖6(c)),劃分時盡可能讓功能相同的肌肉模型分布在同一區(qū)塊內(nèi),每個區(qū)塊內(nèi)肌肉模型的參數(shù)便取決于該區(qū)塊的局部形狀分析。

        (a) (b) (c)圖6 肌肉模型分布與區(qū)塊劃分

        將一般人臉模型的每個肌肉向量的所有參數(shù)設為pk,特定人臉模型對應肌肉參數(shù)為qk,通過分析肌肉向量與人臉特征點的關系和所在區(qū)塊的形狀特征,得到參數(shù)的映射關系使pk→qk。

        肌肉模型參數(shù)中最為重要的便是肌肉端點位置,它是能擬合真實感人臉表情的基礎。Waters設置肌肉模型時,參考了真實人臉表情肌分布,由人臉解剖學知識可知[16],肌肉通過收縮牽扯五官和皮膚位置形狀改變產(chǎn)生表情,對于不同的人臉均有著相同的面部表情肌結(jié)構(gòu),且表情肌的分布位置相對其作用區(qū)域的五官特征的位置是大致不變的,如此才可使長相各異的人們產(chǎn)生同樣的表情。但每個區(qū)塊內(nèi)可能有上千個頂點,直接從區(qū)塊內(nèi)根據(jù)特征點相對位置關系搜尋符合要求的頂點耗時長且誤差大,為了縮小查找范圍,再對區(qū)塊進行細分。對于人臉劃分后的區(qū)塊Si(i=1,2,3,…,6),其寬度w、高度h和深度d分別是所在區(qū)塊內(nèi)頂點坐標在X軸、Y軸和Z軸上最大與最小的差值。因為三維人臉模型是一個由曲面構(gòu)成的模型,對于一般人臉模型和特定人臉模型,都沿著X軸和Y軸方向分別將對應區(qū)塊等分為M和N份。對于人臉區(qū)塊中任意網(wǎng)格頂點p,它對應的單元塊編號為Vij:

        (11)

        式中:cx=(Xmax-Xmin)/M;cy=(Ymax-Ymin)/N。

        對于肌肉向量的兩個端點,可以通過與其相近的三個人臉特征點的相對位置關系獲得。設一般人臉上該肌肉端點V和對應的三個相近人臉特征點為A、B和C,特定人臉上對應的肌肉端點為V′,對應特征點為A′、B′和C′。端點V所在的單元塊編號為Vmn,則在特定人臉該區(qū)塊內(nèi)同樣位置編號的單元塊內(nèi),搜索滿足以下關系的頂點坐標:

        (12)

        式中:D(,)是兩點間在曲面上的測地線距離;δ是設置的閾值。若單元塊內(nèi)滿足位置關系的頂點不止一個,采用求和均值的方式選定。

        (13)

        3 實驗結(jié)果與分析

        本文實驗研究所用特定人臉模型由二維圖片重建獲得,共獲取45個不同正臉樣本數(shù)據(jù),一般人臉模型使用人臉制作軟件FaceGen Modeller導出,由12 108個三角面片、36 324個頂點組成。實驗采用Intel? CoreTMi7- 8500U 2.0 GHz、16 GB內(nèi)存的PC平臺。

        第1節(jié)中針對Waters傳統(tǒng)肌肉模型的缺點提出兩種改進,一是加入斥力彈簧模型,二是在網(wǎng)格模型中加入邊約束。為了驗證本文方法的效果,分別在二維肌肉模型上進行仿真,并與當前方法進行對比。

        圖7是同一線性肌模型在相同較大受力系數(shù)情況下二維網(wǎng)格形變效果。文獻[17]通過設置形變終止半徑來解決尖銳突出的問題。可明顯看出,本文方法與文獻[17]均能解決近固定端的尖銳突出,且均存在網(wǎng)格拓撲結(jié)構(gòu)被破壞的問題。但對比可見,文獻[17]改善后的網(wǎng)格形變在終止半徑處戛然而止,形變過渡突兀,最終形變處不像真實表情皮膚形變一樣圓滑。而本文所提出的斥力彈簧方法改善后的網(wǎng)格形變效果過渡自然,在近固定端逐漸變得圓潤平滑。

        (a) 原始線性肌模型

        (b) 加入文獻[17]方法

        (c) 加入本文斥力彈簧方法圖7 尖銳突起問題改善效果

        圖8是同一線性肌模型在相同過大受力系數(shù)情況下二維網(wǎng)格拓撲結(jié)構(gòu)崩潰效果。文獻[18]提出對網(wǎng)格產(chǎn)生的位移進行約束改善拓撲結(jié)構(gòu)被破壞的問題。圖8中改善前后效果對比證明了文獻[18]方法與本文邊約束方法均能解決網(wǎng)格因受力過大而超出肌肉模型控制區(qū)域的問題,但文獻[18]方法改善后在肌肉控制區(qū)域內(nèi)部網(wǎng)格仍然存在頂點與對邊重疊的現(xiàn)象,而本文所提出的邊約束方法改善后肌肉控制區(qū)域內(nèi)部網(wǎng)格間也無重疊現(xiàn)象。

        (a) 原始線性肌模型

        (b) 加入文獻[18]方法

        (c) 加入本文邊約束方法圖8 網(wǎng)格拓撲結(jié)構(gòu)破壞問題改善效果

        圖9是在三維人臉模型上以左顴大肌為參考肌肉加入本文所提出的兩種方法改進前后對比結(jié)果,上圖為改進前,下圖為改進后。可以看出,改進后的線性肌模型能明顯避免網(wǎng)格拓撲被破壞,并緩和了固定端處尖銳突出現(xiàn)象。

        圖9 改進前后三維人臉肌肉變形效果

        圖10 人臉建模和肌肉端點定位

        表1 左半張臉肌肉參數(shù)誤差值

        經(jīng)過多次測試,本文方法可以大大縮短為三維人臉配置肌肉模型的時間,能在10分鐘至20分鐘內(nèi)完成肌肉模型參數(shù)計算和后續(xù)微調(diào),與當前主流手動添加模型相比,效率明顯提升。特定人臉模型裝配上肌肉模型后,能通過調(diào)整受力系數(shù),模擬出真實表情。

        4 結(jié) 語

        本文提出一種基于改進肌肉模型的自適應參數(shù)獲取方法。針對傳統(tǒng)肌肉模型的缺點,對線性肌提出兩點改進,一是在肌肉模型中加入斥力彈簧模型;二是對網(wǎng)格進行邊約束。經(jīng)過實驗發(fā)現(xiàn)改進效果好,杜絕了網(wǎng)格拓撲受損壞的問題。自適應肌肉參數(shù)通過特定人臉與一般人臉的映射關系獲得,顯著提升了為三維人臉配置肌肉模型的效率,減少了表情合成所需時間。

        但是本文的研究均基于線性肌,對于控制眼睛和嘴巴開閉的括約肌模型沒有研究,下一步將在人臉模型中加入括約肌,并研究其自適應參數(shù)算法。

        猜你喜歡
        方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        學習方法
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        国产一区二区黄色网页| JIZZJIZZ国产| 女同成片av免费观看| 成熟的女人毛茸茸色视频| 国产麻豆精品精东影业av网站| 国产呦系列呦交| 亚洲成a∨人片在线观看无码| 伊人狼人影院在线视频| 精品亚洲国产成人av色哟哟| 无码av天堂一区二区三区| 国产欧美日韩午夜在线观看| 久久99精品免费国产| 国产91人妻一区二区三区| 欧美乱妇高清无乱码在线观看| 成人伊人亚洲人综合网站222| 亚洲青涩在线不卡av| 亚洲不卡一区二区视频| 国产精品人妻一码二码| 国内精品久久久影院| 青青草手机成人自拍视频| 少妇人妻中文久久综合| 成年免费视频黄网站zxgk| 国产亚洲精品成人无码精品网站| 熟女人妻一区二区中文字幕| 少妇人妻综合久久中文字幕| 亚洲一线二线三线写真| 中文字幕亚洲人妻系列| 少妇被猛烈进入中文字幕| 亚洲av成人无遮挡网站在线观看| 亚洲最大中文字幕无码网站| 亚洲成AV人片无码不卡| 日韩中文字幕不卡在线| 日本乱偷人妻中文字幕| 日韩中文网| 国产精品久久久看三级| 亚洲av无码一区二区三区鸳鸯影院| 越猛烈欧美xx00动态图| а的天堂网最新版在线| 日本一区二区免费在线看| 美女把尿囗扒开让男人添| 亚洲国产麻豆综合一区|