惠 宇, 武君勝,魚 濱,張 琛,武 震
(1.西北工業(yè)大學(xué) 計算機學(xué)院,陜西 西安 710072;2.西北工業(yè)大學(xué) 軟件與微電子學(xué)院,陜西 西安 710072;3.西安電子科技大學(xué) 計算機學(xué)院,陜西 西安 710072)
?
利用曲率多特征融合改進人體三維脊椎模型特征點的標注方法
惠 宇1, 武君勝2,魚 濱3,張 琛3,武 震2
(1.西北工業(yè)大學(xué) 計算機學(xué)院,陜西 西安 710072;2.西北工業(yè)大學(xué) 軟件與微電子學(xué)院,陜西 西安 710072;3.西安電子科技大學(xué) 計算機學(xué)院,陜西 西安 710072)
由于脊椎生理結(jié)構(gòu)的精準坐標描述和準確匹配尚未達到醫(yī)學(xué)精度的要求, 本文對如何精確描述脊柱腰骶段特征點的物理坐標進行研究。介紹了人體脊椎采樣特征點的定義和傳統(tǒng)標記方法。針對手動標注特征點精確度不夠,易產(chǎn)生較大誤差等問題提出了一種基于曲率多特征融合的自適應(yīng)標注特征點的方法。該方法首先找出某個特征點的高斯曲率和平均曲率流的定義值,得到該特征點的法曲率相對極大值,并計算在指定極小半徑r范圍內(nèi)的所有模型點的法曲率相對極大值。由于極大值曲率越大,三維模型表面在該點處的彎曲程度越大,該點就越能表現(xiàn)三維模型的大致輪廓,故以r范圍內(nèi)極大值最大的點作為特征點的曲率描述來替換手動拾取的點,從而準確反映該點的特征變化情況。最后,對改進結(jié)果進行偏差驗證分析。結(jié)果表明:改進方法的準確度比現(xiàn)有手動標注特征點方法的準確度提高了約37%,驗證了本文方法的有效性。
脊椎;三維模型;特征點標注;曲率多特征融合;極大值曲率
由于人體脊椎生理結(jié)構(gòu)復(fù)雜,而且考慮外科手術(shù)的自身特點,脊椎生理結(jié)構(gòu)的精準坐標描述和準確匹配仍然達不到脊椎外科手術(shù)的要求。這主要是因為脊椎模型特征點的物理標記坐標太不精確,無法給臨床診斷提供較為可靠的科學(xué)數(shù)據(jù)。由于脊椎結(jié)構(gòu)較為復(fù)雜,鏤空切面較多,三維脊椎模型的采樣點標記一直是醫(yī)學(xué)影像研究領(lǐng)域的重點和難點,而國內(nèi)外在該方面的研究相對較少[1-13]。李根[2]等提出了一種基于思維進化算法的人臉特征點跟蹤方法,其是通過提取人臉跟蹤區(qū)域尺度不變特征變換獲得整體特征模板,并確定跟蹤特征點。李康[7]提出了一種基于深度圖像的人臉三維模型特征點標定方法,該方法首先生成人臉三維模型的二維深度圖像,然后采用SUSAN算子在該圖像上標定特征點;翟鳳文[8]提出將置信傳播與特征點形狀特征相結(jié)合來去除 SIFT 特征點的誤匹配。謝易辰[9]提出了基于三維特征點空間關(guān)系的三維特征點匹配算法,這幾種算法都是三維SIFT特征匹配算法的改進; 王瀾[10]提出一種利用共線的標定特征點確定線陣相機內(nèi)參的方法,需要通過數(shù)學(xué)建模得到線陣相機的成像模型,但上述方法均是基于模型配準時的尺度不變特征變換匹配原則,如果模型數(shù)據(jù)較大,則計算量也隨之變大,根本滿足不了醫(yī)學(xué)研究領(lǐng)域?qū)崟r性的要求;韓霜[12]等提出了基于高斯曲率的模型標注方法,但不能極大程度地近似表述模型幾何結(jié)構(gòu)的曲率,故不能準確反映模型的局部幾何特征,即方法不具備一定的自適應(yīng)力。
為了彌補上述方法的不足,本文提出了一種基于曲率多特征融合的自適應(yīng)標注特征點的方法,該方法可以動態(tài)調(diào)整拾取點曲率,因此最大程度地保證了特征點拾取的精確性。該方法通過高斯曲率和平均曲率流等多曲率特征,得到法曲率相對極大值,從而共同確定了曲面在某點的相對極大鄰域結(jié)構(gòu)特征,并通過尋找某個極小半徑區(qū)域范圍內(nèi)曲率的相對極大值點作為該區(qū)域的特征點。
脊椎模型特征點標注改進方法
2.1 特征點標定
在三維圖像學(xué)中,特征點是指在三維模型中,用來表征局部鄰域關(guān)系及特性的,具有一定幾何意義的關(guān)鍵三維坐標點,特征點矩陣可用來存儲或者表示三維模型的幾何輪廓、生理特征等屬性信息。
本文根據(jù)Cootes[13]提出的標記點分類定義,并借鑒在國際上得到廣泛認同的顱腦特征點標注標準MPEG-4[14](Moving Picture Experts Group)的人臉定義參數(shù)(FDP)和人體生理學(xué)脊椎特征,標記出脊椎三維特征點。圖1和圖2分別是在骨骼解剖學(xué)中的脊椎腰骶段的右側(cè)面觀和上面觀特征點示意圖[15]。
圖1 脊椎腰骶段的右側(cè)面觀特征點標記圖
Fig.1 Labeled graph of feature points in right lateral view of lumbosacral segment
圖2 脊椎腰骶段的上面觀特征點標記圖
Fig.2 Labeled graph of feature points in superior aspect of lumbosacral segment
2.2 基于曲率多特征融合的特征點標注改進方法
脊椎特征點一般特指三維模型曲面上那些曲率較大的點。對于曲率較大的點,三維模型表面在這些點處的彎曲程度也較大,這些點就能最大程度地表現(xiàn)三維模型的大致輪廓和局部模型變化,從而準確反映該點的特征變化情況。本文首先找出某個特征點的高斯曲率和平均曲率流的定義值,從而得到該特征點的法曲率相對極大值,并計算出在指定極小半徑R范圍內(nèi)的所有模型點的法曲率相對最大值,并以此極大值作為特征點的曲率描述來替換手動拾取的點,采用多曲率特征融合的方法,可以最大程度地保證對該點的特征變化情況的描述準確性。
2.2.1 三角網(wǎng)格表面的極大值曲率計算
在計算機三維圖像處理中,物體的曲面結(jié)構(gòu)都是由一簇網(wǎng)格的線性逼近值所組成的。因此,可以考慮將三角面片網(wǎng)格的每個頂點的度量性質(zhì)看做是此點局部鄰域的平均度量。
如計算圖3中點xi鄰域的極大曲率值,用馮洛諾伊圖(Voronoi Diagram)[16]內(nèi)有且僅含有一個的離散點極大值曲率來替換。
圖3 馮洛諾伊圖
假設(shè)kmax和kmin分別為曲面上一點處法曲率的最大值和最小值,則根據(jù)曲率定義,有:
(1)
kG=kmax·kmin.
(2)
聯(lián)立式(1)和式(2),則可以求得:
(3)
(4)
其中:kG為高斯曲率值,kH為平均曲率值。
2.2.2 三角網(wǎng)格表面的曲率偏差參數(shù)的建立
手動標記脊椎三維模型的相同特征點時,由于人為的局限性,或多或少存有一定的拾取偏差,為了衡量這種偏差對標注結(jié)果的影響,擬對拾取偏差建立偏差參數(shù)。
假設(shè)模型上的任一特征點的真實坐標位置為P0(x0,y0,z0),手動標記該點3次,3次的坐標依次記為P1(x1,y1,z1)、P2(x2,y2,z2)和P3(x3,y3,z3),P1、P2、P3均盡可能地逼近P0,由于P1、P2、P3處于相同球面上,根據(jù)定理“任意不共線的三點確定一個圓周”,則存在一個圓周,將P1、P2、P3這3點都涵蓋在內(nèi)。同時,圓周直徑的大小決定著P1、P2、P3逼近P0的程度,直徑越小,逼近程度越高,反之,則越低。
因此,建立偏差參數(shù),可轉(zhuǎn)換為找出P1、P2、P3所確定的最小圓周直徑,也就是P1、P2、P3為頂點組成的三角形,其外接圓的直徑D。計算公式如下:
(5)
其中:e1、e2、e3為相對應(yīng)的邊長,再根據(jù)海倫公式[16]可得到三角形的面積為:
其中q=(e1+e2+e3)/2。
綜上所述,ΔP1P2P3的外接圓直徑為:
D=e1·e2·e3/2S.
(6)
當(dāng)三點共線時,有式(7):
(7)
當(dāng)有兩點重合時,不妨假設(shè)P1與P2重合,即e3=0,則有式(8):
D=e1=e2.
(8)
當(dāng)三點都重合時有式(9):
D=0.
(9)
外接圓直徑D作為一個高斯曲率偏差的參數(shù),其值決定了特征點的準確度,值越小,表明方法拾取的點越集中,即更加趨近于真實特征點,準確度也越高。
2.2.3 基于曲率多特征融合的人體三維脊椎模型特征點標注改進方法描述
改進方法以鼠標拾取的點pi為圓心,計算半徑為r的圓周內(nèi)全部特征點的Gauss曲率值KG和平均曲率值KH,如圖3所示。再根據(jù)公式(3)得到點的法曲率相對極大值K。法曲率相對極大值能客觀凸顯曲面的局部幾何特征信息。一般情況下,曲率越大,曲線拐點信息越明確,幾何特征也越明顯,故以K所在的特征點替換點pi。
作為模型新的特征點,利用偏差參數(shù)D來對方法優(yōu)劣進行評價。
Step 1: 獲得脊椎三維圖像表面的結(jié)構(gòu)信息facets。
Step 2:定義各個變量的曲率KG、KH和領(lǐng)域面積AM,邊向量長度Length,角度向量Angle,并初始化。
Step 3:計算領(lǐng)域面積AM。通過遍歷,得到模型的每一個三角面片的坐標點向量,從而可以計算出邊向量以及三角面片內(nèi)角度數(shù)和,調(diào)用數(shù)學(xué)計算庫函數(shù)對三角面片求積得到AM。
Step 4:遍歷計算模型上每個點的高斯曲率值KG。
Step 5:計算向量(e1,e2)、(e2,e0)和(e0,e1)的邊向量長度Length。
Step 6:計算三角面片Δv0v1v2的法向量n_f,及其鄰域三角面片的法向量n_n,依據(jù)點積公式cos=n_f*n_n,計算出n_f*n_n的點積cos,并且依據(jù)公式sin=(n_f*n_n)*ei=0,1,2,可得到sin值。調(diào)用atan2(sin,cos)函數(shù),獲得角度向量Angle。
Step 7:遍歷計算模型上每個點的平均曲率值KH。
Step 8:利用公式(3)計算得到模型上每個點的法曲率極大值K。
Step 9:建立頂點ID與其ID對應(yīng)的法曲率極大值map映射關(guān)系,計算r范圍內(nèi)的所有ID的法曲率極大值MaxK,并以此MaxK來代替鼠標拾取的點pi。
Step 10:分別對每一組特征標記點進行多次標記操作,提取每次標記的位置屬性和相對應(yīng)的極大法曲率值K,并利用式(6)、式(7)、(8)和(9),計算每一組的偏差參數(shù),以便于后期的方法分析與評價。
驗證實驗在主頻為2.8 GHz的4 GB內(nèi)存雙核Intel主機上進行,操作系統(tǒng)為Windows 7,采用MFC作為界面交互環(huán)境,需要使用第三方圖像顯示增強庫VTK進行增強。利用以上提到的技術(shù),開發(fā)了專門的軟件用以驗證該改進方法。下文中的圖5、圖6和圖7及數(shù)據(jù)均來自于該軟件。
3.1 改進方法的特征點標記
對同一脊椎圖像樣本,運用曲率多特征融合自適應(yīng)調(diào)整方法做標記,其標記效果如圖5所示。
圖5 高斯曲率特征點拾取截圖
拾取點為33號特征點。左下角顯示的數(shù)據(jù)里,前兩行為純手工選取的特征點坐標及其曲率。后兩行為經(jīng)過本方法調(diào)整之后選取的特征點坐標及其曲率。
3.2 改進方法的效果評價
為證明方法的有效性和準確性,做了一系列改進前和改進后的仿真對比試驗。選取模型基準點(No.1)、模型特征不凸出點6(No.6)、模型表面點(No.33)作為標記樣本,在不同VTK繪制體面的條件下,進行采樣標注。結(jié)果如圖6所示。
(a)右側(cè)方位拾取
(b)左側(cè)方位拾取
(c)俯視圖方位拾取
圖6為3次實驗的結(jié)果圖。圖中顯示的數(shù)據(jù)分別為對1號、6號和33號特征點進行標定的特征點坐標及其曲率。
為了更好地進行對比,利用改進前方法,分別對No.1、6、33進行鼠標標記,得到標記的三維坐標點和對應(yīng)的極大值曲率Kmax,再利用式(6)~式(9),可以得到偏差參數(shù),具體數(shù)值如表1所示。
表1 改進前方法對特征點1、6、33的標注情況
由數(shù)據(jù)可以看到,對位于模型表面上的基準點(No.1),標注誤差會偏小一些。相較不凸出的點(No.6),位于平滑曲面上的特征的標注誤差則往往較大,拾取標注偏差也較大。
為了更好地進行對比,利用改進后方法分別對No.1、6、33號特征點進行標記,得到標記的三維坐標點和對應(yīng)的極大值曲率Kmax,利用式(6)~式(9)可以得到偏差參數(shù),具體數(shù)值如表2所示。
運用本文方法對相同標記點在同等條件下進行標記,其結(jié)果如圖7所示。
(a)右側(cè)方位拾取
(b)左側(cè)方位拾取
(c)俯視圖方位拾取
圖7中顯示的數(shù)據(jù)為使用改進后方法對模型1號、6號和33號特征點進行特征修正后,標注的特征點坐標及曲率。標記的具體參數(shù)如表2所示,利用文獻[12]的方法得到高斯曲率絕對值最大值KGmax,以方便對比分析。
表2 改進后方法對特征點1、6、33的標注情況
[1] 孟勃,韓廣良. 基于改進的尺度不變特征變換特征點匹配的電子穩(wěn)像方法[J].計算機應(yīng)用,2012,32(10):2817-2820. MENG B,HAN G L. Electronic image stabilization method using improved scale invariant feature transform [J].JournalofComputerApplications, 2012,32(10):2817-2820.(in Chinese)
[2] 李根,李文輝. 基于思維進化算法的人臉特征點跟蹤[J]. 吉林大學(xué)學(xué)報(工學(xué)版),2015,45(2):606-612. LI G,LI W H.Facial feature tracking based on mind evolutionary algorithm [J].JournalofJilinUniversity(EngineeringandTechnologyEdition), 2015,45(2):606-612.(in Chinese)
[3] 胡俊華,田錦會.醫(yī)學(xué)圖像三維重建技術(shù)研究新進展 [J].中國科技信息,2013(11):117-117. HU J H,TIAN J H. New research progress of medical image reconstruction technology [J].ChinaScienceandTechnologyInformation,2013(11):117-117.(in Chinese)
[4] BALLERINI L,CALISTI M,CORDON O.Auto-matic feature extraction from 3D range images of skulls [J].CompuationalForensics,2008,5158:58-69.
[5] BIAN Z, TONG R.Feature-preserving mesh denoising based on vertices classidication [J].ComputerAidedGeometricDesign, 2008, 28(1):50-64.
[6] 許婉露,李彬,田聯(lián)房.基于MC算法的高質(zhì)量脊柱CT圖像三維重建[J].計算機應(yīng)用與軟件,2013,30(6):79-92. XU W L,LI B,TIAN L F. High-quality 3D reconstruction of spine CT image based on MC algorithm [J].ComputerApplicationsandSoftware,2013,30(6):79-92.(in Chinese)
[7] 李康,尚鵬,耿國華. 基于深度圖像的人臉模型特征點自動標定[J].計算機科學(xué),2014,41(4):287-291. LI K,SHANG P, GENG G H.. Automatic location of feature points on three-dimensional facial model based on depth image [J].ComputerScience,2014,41(4):287-291.(in Chinese)
[8] 翟鳳文,黨建武,王陽萍,等.形狀特征和置信傳播在去除SIFT 特征點錯誤匹配中的應(yīng)用[J]. 計算機輔助設(shè)計與圖形學(xué)學(xué)報,2016,28(3).443-449. ZHAI F W,DANG J W, WANG Y P,etal.. Application of shape context and belief propagation in removing SIFT mismatches [J].JournalofComputer-AidedDesign&ComputerGraphics,2016,28(3):443-449.(in Chinese)
[9] 謝易辰,陳健,閆鑌,等. 三維特征點距離特征集合求交匹配方法[J]. 紅外與激光工程,2014,43(8):2728-2732. XIE Y CH,CHEN J, YAN B,etal..Distance feature set intersection for 3D feature matching [J].InfraredandLaserEngineering,2014,43(8):2728-2732.(in Chinese)
[10] 王瀾,孫博,隆昌宇,等. 一種基于共線特征點的線陣相機內(nèi)參標定方法[J]. 紅外與激光工程,2015,44(6):1878-1883. WANG L,SUN B, LONG CH Y,etal..A novel method for calibrating intrinsic parameters of linear array cameras based on collinear feature points [J].InfraredandLaserEngineering, 2015,44(6):1878-1883.(in Chinese)
[11] WANG J, ZHANG X, YU Z.A cascaded approach for feature-preserving surface mesh denoising [J].Computer-AidedDesign, 2012, 44(7): 597-610.
[12] 韓霜. 三維脊椎模型特征點標注的研究與實現(xiàn)[D].西安:西安電子科技大學(xué),2013. HAN SH.Researchandimplementationoftaggingthree-dimensionalmodelofthespinewithfeaturepoints[D].Xi’an:Xidian University,2013.(in Chinese)
[13] JING X,SIMON B,IAIN M,etal..Real-time combined 2D+3D active appearance model [J].Proceedingofthe2004IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition,2004,27(2):535-542.
[14] TEKALP A M, OSTERMANN J. “Face and 2-D Mesh animation in MPEG-4,”Tutorial Issue On The MPEG-4 Standard [J].ImageCommunicationJournal,Elsevier, 1999.
[15] 李瑞祥. 實用人體解剖彩色圖譜[M] 北京:人民衛(wèi)生出版社,2001:6. LI R X.ColorMapsofPracticalHumanAnatomical[M].Beijing:People’s Medical Publishing House,2001:6.(in Chinese)
[16] 陳維桓. 微分幾何[M]. 北京:北京大學(xué)出版社,2006. CHEN W H.DifferentialGeometry[M]. Beijing:Peking University Press,2006.(in Chinese)
惠 宇(1984-),男,陜西岐山人,博士研究生, 2009年于西安電子科技大學(xué)獲得碩士學(xué)位,主要從事醫(yī)學(xué)影像處理、軟件工程、有限元計算的研究。E-mail:289178013@qq.com
武君勝(1962-),男,陜西禮泉人,教授,博士生導(dǎo)師。1983年于西北大學(xué)獲得學(xué)士學(xué)位;1990年于中國航空計算技術(shù)研究所獲得碩士學(xué)位;1997年于西北工業(yè)大學(xué)獲得博士學(xué)位。主要從事計算方法、科學(xué)計算可視化、軟件工程研究。E-mail:wujunsheng@nwpu.edu.cn
(版權(quán)所有 未經(jīng)許可 不得轉(zhuǎn)載)
Improvement of feature point annotation for three-dimensional spine model based on curvature multiple feature fusion
HUI Yu1, WU Jun-sheng2, YU Bin3, ZHANG Chen3, WU Zhen2
(1. College of Computer Science, Northwestern Polytechnical University, Xi′an 710072, China;2.CollegeofSoftwareandMicroelectronics,NorthwesternPolytechnicalUniversity,Xi′an710072,China;3.CollegeofComputerScience,XidianUniversity,Xi′an710072,China)
Because the precise coordinate description and accurate matching of physiology of the lumber spine have not yet reached the accuracy requirement of the medicine, this paper researches how to describe the physical coordinates of lumber spine feature points precisely. The definition and traditional annotation method of human spine sample features were introduce. Then, an improved method to adaptively annotate the feature points was proposed based on curvature multiple feature fusing to solve the problem of weaker precision for the manual annotation of feature points. In this method, the definiting values of Gaussian curvature and average curvature of a certain feature point were found out firstly, and a relative maximum value of curvature of the feature point was obtained. Then, the relative maximum values of all the model points within a specified minimum radiusrwere obtained. Since the larger the curvature of maximum value was, the larger the crook degree of the 3-dimensioanl model surface on the point was, and the point can show the outline of the 3-dimensional model. Therefore, the maximum value was taken as the curvature description of the feature point to replace the manual pick up point, thus the feature variation of the point could be described precisely. Finally, the verification results were analyzed, and the results indicate that the improved method increases the accuracy by 37% as compared with that of traditional annotation methods. These results demonstrate that the new method is feasibility and effectiveness.
spine;3D model; feature point annotation; curvature multiple feature fusion; maximum value of the curvature
2016-07-14;
2016-09-04.
國家自然科學(xué)基金資助項目(No.61172147)
1004-924X(2016)11-2872-08
TP391.4
A
10.3788/OPE.20162411.2872
*Correspondingauthor,E-mail:289178013@qq.com