安喆, 徐熙平, 楊進(jìn)華, 喬楊, 呂耀文, 劉洋
(長春理工大學(xué) 光電工程學(xué)院, 吉林 長春 130022)
隨著虛擬現(xiàn)實(shí)(VR)技術(shù)的發(fā)展,增強(qiáng)現(xiàn)實(shí)(AR)技術(shù)逐漸走進(jìn)人們視野。與VR的沉浸式虛擬場(chǎng)景不同,AR技術(shù)將虛擬信息疊加到真實(shí)場(chǎng)景中,增加了場(chǎng)景中的有用信息,實(shí)現(xiàn)了對(duì)真實(shí)場(chǎng)景的增強(qiáng)。AR技術(shù)在很多領(lǐng)域都有應(yīng)用,例如用于康復(fù)訓(xùn)練機(jī)器人的情景交互系統(tǒng)、早期在軍用飛機(jī)上出現(xiàn)的抬頭顯示系統(tǒng)以及最近流行的Pokemon Go等都是其典型代表[1-3]。
一般AR主要涉及光學(xué)顯示、虛實(shí)注冊(cè)、實(shí)時(shí)交互3個(gè)方面內(nèi)容。而如何確定虛擬信息在真實(shí)場(chǎng)景中的對(duì)應(yīng)位置,即解決虛擬信息與真實(shí)環(huán)境的跟蹤注冊(cè)問題,是AR的關(guān)鍵技術(shù)之一。目前跟蹤注冊(cè)方法有3種[4-6]:基于硬件設(shè)備的跟蹤注冊(cè)法、基于視覺的跟蹤注冊(cè)法和混合跟蹤注冊(cè)法。其中基于視覺的跟蹤注冊(cè)方法是較為常用方法,該方法在場(chǎng)景中放置標(biāo)志物,并對(duì)標(biāo)志物進(jìn)行識(shí)別,通過算法獲取虛擬物體在真實(shí)場(chǎng)景中的位置,實(shí)現(xiàn)虛擬信息的注冊(cè)。針對(duì)基于標(biāo)志物的虛實(shí)注冊(cè)問題國內(nèi)外已有不少研究,雖然得到了很好的注冊(cè)結(jié)果,但放置標(biāo)志物不能適應(yīng)多變的場(chǎng)景,有其局限性。而無標(biāo)志物的注冊(cè)方法[7]解決了這一問題。Lepetit等[8]提出首先創(chuàng)建場(chǎng)景模型與關(guān)鍵幀,再根據(jù)用戶的視點(diǎn)變化選擇參考圖像幀,識(shí)別選取特征點(diǎn),并與當(dāng)前幀圖像特征點(diǎn)進(jìn)行匹配,通過最小化重投影誤差計(jì)算出攝像機(jī)位姿,進(jìn)而實(shí)現(xiàn)AR系統(tǒng)的跟蹤注冊(cè)。之后Klein等[9]提出了高效的并行追蹤與繪制(PTAM)算法,將定位和跟蹤分為兩個(gè)不同的線程,加快了系統(tǒng)運(yùn)行速度,但其不適用于復(fù)雜場(chǎng)景的情形。此外,國內(nèi)外也有許多改進(jìn)算法[10-13],但是大多數(shù)算法存在一個(gè)問題:一般情況下,在識(shí)別特征點(diǎn)的過程中需要計(jì)算關(guān)鍵點(diǎn)與描述子,程序需要運(yùn)行一定時(shí)間。國內(nèi)的研究基本上都是針對(duì)手機(jī)等移動(dòng)終端的虛實(shí)注冊(cè)方法,即在攝像頭獲取現(xiàn)實(shí)場(chǎng)景后,根據(jù)獲取的圖像信息估計(jì)出虛實(shí)注冊(cè)矩陣,從而將虛擬圖像直接疊加在手機(jī)屏幕中的相應(yīng)位置。本文以自由曲面離軸反射式汽車抬頭顯示器(HUD)系統(tǒng)為研究背景,建立了人眼、成像系統(tǒng)、外部場(chǎng)景以及虛像之間的關(guān)系,以解決HUD系統(tǒng)的虛實(shí)注冊(cè)問題。
本文分析了系統(tǒng)中人眼與虛像之間的關(guān)系,對(duì)獲取的圖像進(jìn)行特征識(shí)別,利用最小化灰度測(cè)量誤差方法建立圖像間的測(cè)量誤差公式,并對(duì)測(cè)量誤差進(jìn)行優(yōu)化,進(jìn)而獲取虛擬相機(jī)的跟蹤姿態(tài),根據(jù)道路場(chǎng)景的變化,在特征點(diǎn)附近實(shí)時(shí)疊加提示虛擬信息。注冊(cè)值與真實(shí)值的誤差范圍小于0.1,且虛實(shí)注冊(cè)速度較高,從而使駕駛員既可方便地觀察提示信息,又不影響正常駕駛。
本文以HUD為研究對(duì)象,對(duì)車輛行進(jìn)路線識(shí)別定位,與HUD產(chǎn)生的虛擬路面標(biāo)志進(jìn)行虛實(shí)跟蹤注冊(cè)。HUD是一種基于AR技術(shù)的輔助駕駛系統(tǒng),它通過光學(xué)投影技術(shù)將虛擬信息投射到駕駛員視線前方,使駕駛員視線不用頻繁地在真實(shí)路況與儀表盤、導(dǎo)航等信息之間轉(zhuǎn)換,有效地提高了行車安全[14-16]。
HUD系統(tǒng)由投影組件、反射鏡組件和主機(jī)3個(gè)部分組成。與汽車相連的處理器將車輛基本行駛信息及輔助行車信息整理編輯后,通過數(shù)據(jù)線傳送給投影組件,投影組件將要顯示的信息投射到一個(gè)特殊設(shè)計(jì)的自由曲面反射鏡,通過反射鏡將信息反射到汽車前擋風(fēng)玻璃上,同時(shí)矯正了擋風(fēng)玻璃產(chǎn)生的圖像畸變誤差,使駕駛員在視線前方看到顯示的圖像。此外,系統(tǒng)的處理器對(duì)圖像亮度進(jìn)行調(diào)節(jié),并將導(dǎo)航等信息進(jìn)行簡化調(diào)整后顯示在擋風(fēng)玻璃上。HUD系統(tǒng)工作原理如圖1所示。
典型AR系統(tǒng)是人眼通過顯示設(shè)備在現(xiàn)實(shí)世界中看到虛擬圖像,如果要建立人眼與虛擬圖像之間的關(guān)系,最終對(duì)虛擬圖像在現(xiàn)實(shí)場(chǎng)景中準(zhǔn)確注冊(cè),首先要明確各坐標(biāo)關(guān)系。在圖1所示的AR系統(tǒng)中,以自由曲面離軸反射式顯示成像系統(tǒng)為顯示設(shè)備,利用跟蹤攝像機(jī)建立成像系統(tǒng)與外部場(chǎng)景之間的聯(lián)系。對(duì)系統(tǒng)各部分進(jìn)行坐標(biāo)定義:人眼通過成像系統(tǒng)觀察到虛擬圖像,二者構(gòu)成組合成像系統(tǒng),將其定義為虛擬坐標(biāo)系V,將其像平面坐標(biāo)系定義為I. 跟蹤攝像機(jī)對(duì)應(yīng)跟蹤相機(jī)坐標(biāo)系定義為C,C與虛擬相機(jī)坐標(biāo)系V相對(duì)位置不變,真實(shí)場(chǎng)景對(duì)應(yīng)世界坐標(biāo)系定義為W.
本文研究目的是在真實(shí)場(chǎng)景中注冊(cè)虛擬信息,即虛擬相機(jī)對(duì)應(yīng)的虛擬圖像與真實(shí)場(chǎng)景準(zhǔn)確疊加。首先獲取虛擬相機(jī)的初始注冊(cè)矩陣T1,再通過一定方法獲取系統(tǒng)在運(yùn)動(dòng)狀態(tài)下的姿態(tài)矩陣T2,則虛擬相機(jī)的注冊(cè)矩陣Tr可用T1、T2的合成矩陣表示,具體流程如圖2所示。
定義了各部分的坐標(biāo)后,假設(shè)空間中任意一點(diǎn)P,在世界坐標(biāo)系W與平面坐標(biāo)系I之間進(jìn)行坐標(biāo)變換,得到二者關(guān)系。若世界坐標(biāo)系下任意一點(diǎn)PW在W到C下的映射點(diǎn)為PC,其坐標(biāo)的旋轉(zhuǎn)平移變換可表示為
(1)
PC在虛擬坐標(biāo)系的映射點(diǎn)PV與I的映射點(diǎn)PI的坐標(biāo)變換表示為
(2)
若由(1)式可得到PC點(diǎn)坐標(biāo)PC=(x,y,z,1)T,又設(shè):
(3)
則
PI=A(x,y,z,1)T.
(4)
通過求解(4)式中的矩陣A,即可得到虛擬內(nèi)部參數(shù)KV及虛擬相機(jī)坐標(biāo)系相對(duì)于跟蹤相機(jī)坐標(biāo)系的初始旋轉(zhuǎn)矩陣r、初始平移矩陣t.
實(shí)驗(yàn)分別采集跟蹤相機(jī)6個(gè)姿態(tài)下的6組對(duì)應(yīng)點(diǎn),代入(4)式中,并對(duì)A進(jìn)行奇異值分解,即可求出矩陣A.
求出矩陣A后,對(duì)A進(jìn)行QR分解得到虛擬相機(jī)內(nèi)部參數(shù)KV及其相對(duì)于跟蹤相機(jī)坐標(biāo)系的初始旋轉(zhuǎn)矩陣r,然后進(jìn)一步可求出初始平移矩陣t,此時(shí)的虛擬內(nèi)部參數(shù)矩陣定義為初始注冊(cè)矩陣T1.
本文提出的無標(biāo)識(shí)虛實(shí)跟蹤注冊(cè)算法首先對(duì)跟蹤相機(jī)進(jìn)行識(shí)別初始化,即求取初始狀態(tài)下的相機(jī)內(nèi)外參數(shù),然后獲取相機(jī)不同姿態(tài)下的兩張圖像,并對(duì)第1張圖像進(jìn)行特征識(shí)別,此時(shí)無需計(jì)算描述子,直接對(duì)像素進(jìn)行操作以節(jié)省算法時(shí)間。對(duì)圖像1進(jìn)行特征提取后,利用最小化灰度測(cè)量誤差法獲取特征像素點(diǎn)在圖像2中的相應(yīng)位置,此時(shí)即可估計(jì)出跟蹤相機(jī)位姿,由于跟蹤相機(jī)與虛擬相機(jī)相對(duì)位置不變,則此時(shí)估計(jì)的相機(jī)位姿即為虛擬相機(jī)注冊(cè)矩陣T2.
最小化灰度測(cè)量誤差的相機(jī)姿態(tài)求解基于灰度不變假設(shè)原理,即在同一空間中獲取兩幅圖像,兩圖像的對(duì)應(yīng)像素點(diǎn)在理論上灰度值相同。但是在實(shí)際環(huán)境中,兩張圖像的對(duì)應(yīng)點(diǎn)必定存在灰度測(cè)量誤差,因此建立灰度測(cè)量誤差求取公式,以相機(jī)姿態(tài)變化為自變量,通過求取最優(yōu)解獲取相機(jī)姿態(tài),此時(shí)灰度不變假設(shè)問題轉(zhuǎn)變?yōu)樽顑?yōu)化問題的求解,同時(shí)可以估計(jì)相機(jī)姿態(tài),獲取姿態(tài)矩陣。原理如圖3所示。
若已知跟蹤相機(jī)內(nèi)部參數(shù)為KC,則相機(jī)獲取的第1幅圖像為I1,經(jīng)平移和旋轉(zhuǎn)后獲取的第2幅圖像為I2.si,I1為對(duì)圖像I1識(shí)別提取的第i個(gè)特征像素點(diǎn),像素點(diǎn)si,I1反投影到空間點(diǎn)的坐標(biāo)為pi,將pi投影到圖像I2得到像素點(diǎn)si,I2. 此時(shí)si,I1與si,I2的灰度測(cè)量誤差為
li=l1(si,I1)-l2(si,I2),
(5)
式中:i=1,2,…,n,n為特征點(diǎn)個(gè)數(shù)。
(5)式結(jié)果越接近于0,代表灰度測(cè)量誤差越小,通過求解li的二范數(shù),將誤差最小化,即
(6)
以I1對(duì)應(yīng)的相機(jī)姿態(tài)為參考系:
si,I1=KCpi.
(7)
I2相對(duì)于I1的旋轉(zhuǎn)矩陣為R、平移矩陣為T,則si,I2為
(8)
式中:fx、fy表示像素坐標(biāo)系與成像坐標(biāo)系之間的縮放量;cx、cy表示像素坐標(biāo)系與成像坐標(biāo)系之間的平移量。
將si,I1與si,I2代入(6)式得
(9)
此時(shí)的灰度不變假設(shè)問題轉(zhuǎn)變?yōu)闊o約束非線性優(yōu)化問題的求解,通過求解上述方程,即可解出相機(jī)姿態(tài)矩陣R、T.
首先獲取跟蹤相機(jī)不同姿態(tài)下的兩幅圖像,并對(duì)第1幅圖進(jìn)行特征提取,特征點(diǎn)像素個(gè)數(shù)為n.
(10)
解此類無約束非線性化問題[18],需首先求Φ對(duì)δj的偏導(dǎo),對(duì)于單一誤差項(xiàng)li=l1(KCpi)-l2(KC·exp (j)pi),令偏導(dǎo)等于0:
(11)
選定δj的初始點(diǎn),利用迭代法進(jìn)行逼近:
(12)
式中:k為迭代次數(shù)。將l2(KCexp(j)pi)在處進(jìn)行泰勒展開:
l2(exp(j)pi)≈
(13)
泰勒展開后,將其代入(11)式化簡,并將結(jié)果寫成矩陣形式:
JTJΔβ=-JTli,
(14)
式中:Δβ為迭代增量值。
對(duì)于提取的n個(gè)特征像素點(diǎn):
(15)
從而即可求得跟蹤相機(jī)姿態(tài)矩陣T2.
由于跟蹤相機(jī)與虛擬相機(jī)的相對(duì)位置不變,此時(shí)的跟蹤相機(jī)姿態(tài)改變R、T與虛擬相機(jī)相同,則當(dāng)前虛擬相機(jī)的姿態(tài)矩陣也為T2,因此虛擬相機(jī)的注冊(cè)矩陣Tr可用T1、T2的合成矩陣表示:
Tr=T1T2,
(16)
求出了注冊(cè)矩陣,即可對(duì)虛擬圖像進(jìn)行注冊(cè)。
求出虛擬相機(jī)的注冊(cè)矩陣后,就得到了人眼相對(duì)于場(chǎng)景某一點(diǎn)的位置和方向,即可確定虛擬圖像在世界坐標(biāo)系中的疊加位置,接下來只需計(jì)算出在HUD上疊加顯示的圖像,就可看到虛實(shí)結(jié)合的圖像。實(shí)驗(yàn)結(jié)果如圖4所示。
對(duì)連續(xù)500幀視頻圖像進(jìn)行跟蹤實(shí)驗(yàn),以測(cè)試圖像的特征點(diǎn)真實(shí)坐標(biāo)為基準(zhǔn),再將估計(jì)得到的注冊(cè)矩陣進(jìn)行重投影,得到注冊(cè)矩陣的重投影坐標(biāo),將其與特征點(diǎn)的真實(shí)坐標(biāo)作對(duì)比,得到二者誤差,即注冊(cè)誤差。以注冊(cè)矩陣在xC軸方向上的平移分量為例,得到注冊(cè)值與真實(shí)值的比較結(jié)果,圖5為每幀圖像的平移分量。
(17)
經(jīng)計(jì)算:
DMN=1-0.911 1=0.088 9<0.1.
這兩組數(shù)據(jù)比較相似,即誤差在允許范圍內(nèi),滿足注冊(cè)精度的要求。
為了評(píng)定算法的速度,將本文算法與基于特征點(diǎn)法的虛實(shí)注冊(cè)方法進(jìn)行對(duì)比,表1列出了兩種方法在500幀視頻圖像中各步驟消耗的平均時(shí)間與算法總時(shí)間。
表1 特征點(diǎn)法與本文算法平均時(shí)間
由以上數(shù)據(jù)可知,本文方法不僅滿足測(cè)量精度的要求,而且對(duì)比其他方法,虛實(shí)注冊(cè)算法的平均速度提高了16.5%.
本文對(duì)HUD系統(tǒng)產(chǎn)生的虛擬圖像與真實(shí)場(chǎng)景進(jìn)行虛實(shí)注冊(cè),建立了系統(tǒng)各部分的坐標(biāo)轉(zhuǎn)換關(guān)系,并對(duì)初始注冊(cè)矩陣進(jìn)行求解。提出采用最小化灰度測(cè)量誤差方法獲得相機(jī)的姿態(tài)估計(jì),直接對(duì)像素進(jìn)行提取,省去其他跟蹤注冊(cè)方法計(jì)算特征描述子的過程,建立姿態(tài)估計(jì)公式,并詳細(xì)介紹了公式的求解方法,獲得當(dāng)前相機(jī)狀態(tài)的注冊(cè)矩陣,最終通過矩陣合成獲得虛實(shí)注冊(cè)矩陣。實(shí)驗(yàn)結(jié)果表明:真實(shí)值與注冊(cè)值的相關(guān)距離小于0.1,且比其他方法的平均注冊(cè)速度提高16.5%.
實(shí)驗(yàn)過程中如何減小跟蹤相機(jī)和HUD的抖動(dòng),以避免注冊(cè)誤差的增加,以及在遮擋和光照改變的環(huán)境下如何保證算法的魯棒性,將作為下一步研究的重點(diǎn)。
參考文獻(xiàn)(References)
[1] 秦超龍,宋愛國,吳常鋮,等. 基于Unity3D與Kinect的康復(fù)訓(xùn)練機(jī)器人情景交互系統(tǒng)[J]. 儀器儀表學(xué)報(bào), 2017, 38(3): 530-536.
QIN Chao-long, SONG Ai-guo, WU Chang-cheng, et al. Scenario interaction system of rehabilitation training robot based on Unity3D and Kinect[J]. Chinese Journal of Scientific Instrument, 2017, 38(3): 530-536.(in Chinese)
[2] 侯穎,許威威. 增強(qiáng)現(xiàn)實(shí)技術(shù)綜述[J]. 計(jì)算機(jī)測(cè)量與控制,2017,25(2):1-7,22.
HOU Ying, XU Wei-wei. A survey of augmented reality technology[J]. Computer Measurement & Control, 2017,25(2):1-7,22. (in Chinese)
[3] 余艷紅. 增強(qiáng)現(xiàn)實(shí)技術(shù)的研究現(xiàn)狀及發(fā)展趨勢(shì)[J]. 湖南大眾傳媒職業(yè)技術(shù)學(xué)院學(xué)報(bào),2016,16(1):55-57.
YU Yan-hong. Research status and development trend of augmented reality technology[J]. Journal of Hunan Mass Media Vocational Technical College, 2016, 16(1): 55-57. (in Chinese)
[4] 陳靖,孫源. 基于FAST關(guān)鍵點(diǎn)的增強(qiáng)現(xiàn)實(shí)跟蹤注冊(cè)算法[J]. 北京理工大學(xué)學(xué)報(bào),2015,35(4):421-426.
CHEN Jing, SUN Yuan. System algorithm based on FAST keypoints for markerless augmented reality applications[J]. Transactions of Beijing Institute of Technology, 2015, 35(4): 421-426.(in Chinese)
[5] 李炎,尹東. 基于TLD的增強(qiáng)現(xiàn)實(shí)跟蹤注冊(cè)方法[J]. 系統(tǒng)仿真學(xué)報(bào),2014,26(9):2062-2067,2072.
LI Yan,YIN Dong. AR tracking and registration method based-on TLD algorithm[J]. Journal of System Simulation, 2014,26(9): 2062-2067,2072. (in Chinese)
[6] 桂振文, 劉越, 陳靖,等. 基于自然場(chǎng)景在線學(xué)習(xí)的跟蹤注冊(cè)技術(shù)[J]. 軟件學(xué)報(bào), 2016,27(11): 2929-2945.
GUI Zhen-wen, LIU Yue, CHEN Jing, et al. Online learning of tracking and registration based on natural scenes[J]. Journal of Software,2016,27(11):2929-2945.(in Chinese)
[7] 林倞, 王涌天,劉越,等. 基于模板跟蹤的實(shí)時(shí)無標(biāo)志點(diǎn)注冊(cè)算法[J]. 中國圖象圖形學(xué)報(bào), 2008,13(9): 1813-1819.
LIN Jing,WANG Yong-tian, LIU Yue, et al. Realtime markerless registration algorithm for augmented reality based on template tracking[J].Journal of Image and Graphics, 2008, 13(9): 1813-1819. (in Chinese)
[8] Lepetit V, Vacchetti L, Thalmann D, et al. Fully automated and stable registration for augmented reality applications[C]∥Proceedings of IEEE and ACM International Symposium on Mixed and Augmented Reality. Tokyo, Japan: IEEE, 2003:93-102.
[9] Klein G, Murray D. Parallel tracking and mapping for small AR workspaces[C]∥IEEE and ACM International Symposium on Mixed and Augmented Reality. Cambridge, UK: IEEE Computer Society, 2007: 1-10.
[10] 李揚(yáng),張超,張明敏,等. 跟蹤與匹配并行的增強(qiáng)現(xiàn)實(shí)注冊(cè)方法[J]. 中國圖象圖形學(xué)報(bào), 2011, 16(4): 680-685.
LI Yang, ZHANG Chao,ZHANG Ming-min, et al. Parallel tracking and matching for natural feature based AR registration[J]. Journal of Image and Graphics, 2011,16(4): 680-685. (in Chinese)
[11] 張格,陳昊升,葉陽東. 一種基于LoG算子的無標(biāo)識(shí)增強(qiáng)現(xiàn)實(shí)算法: LoG-PTAMM[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2016,28(9):1577-1586.
ZHANG Ge, CHEN Hao-sheng, YE Yang-dong. A LoG operator based markerless augmented reality algorithm: LoG-PTAMM[J]. Journal of Computer-Aided Design & Computer Graphics, 2016, 28(9): 1577-1586. (in Chinese)
[12] 李紅波,王緒,聶平. 采用主監(jiān)視窗擴(kuò)展技術(shù)的增強(qiáng)現(xiàn)實(shí)三維注冊(cè)方法[J]. 計(jì)算機(jī)應(yīng)用與軟件,2014,31(10): 148-153.
LI Hong-bo, WANG Xu, NIE Ping. An augmented reality 3D registration method using main-besel extension technology[J]. Computer Applications and Software,2014,31(10):148-153.(in Chinese)
[13] 陳靖, 王涌天, 李玉,等. 基于自然特征點(diǎn)的實(shí)時(shí)增強(qiáng)現(xiàn)實(shí)注冊(cè)算法[J]. 系統(tǒng)仿真學(xué)報(bào), 2007, 19(22):5198-5201.
CHEN Jing, WANG Yong-tian, LI Yu,et al. Stabel online natural feature-based registration algorithm for AR system[J]. Journal of System Simulation,2007, 19(22): 5198-5201. (in Chinese)
[14] Ishizaki A, Ikegami S, Yamabe T, et al. Accelerometer based HUD input for car navigation[C]∥Proceedings of IEEE International Conference on Consumer Electronics. Berlin, Germany: IEEE, 2014:278-279.
[15] 盧亞軍,黃艷虎,熊慶捷. 基于ZigBee無線通信的汽車反射式HUD設(shè)計(jì)研究[J]. 電視技術(shù),2016,40(7):56-59.
LU Ya-jun, HUANG Yan-hu, XIONG Qing-jie. Design of vehicle reflective HUD application based on short-distance wireless communication[J]. Video Engineering, 2016, 40(7): 56-59.(in Chinese)
[16] 呂釗, 吳小培, 張超,等. 基于EOG的安全輔助駕駛系統(tǒng)算法設(shè)計(jì)與實(shí)現(xiàn)[J]. 通信學(xué)報(bào), 2016, 37(7):87-95.
LYU Zhao,WU Xiao-pei,ZHANG Chao,et al. Design and implementation algorithm of safe driver assistant system based on EOG[J]. Journal on Communications,2016, 37(7):87-95.(in Chinese)
[17] 戴建生.旋量代數(shù)與李群、李代數(shù)[M].北京:高等教育出版社,2014:57-64.
DAI Jian-sheng. Spinor algebra and Lie Groups and Lie algebras[M]. Beijing: Higher Education Press,2014:57-64. (in Chinese)
[18] 傅英定, 成孝予, 唐應(yīng)輝. 最優(yōu)化理論與方法[M]. 北京:國防工業(yè)出版社,2008:143-150.
FU Ying-ding, CHENG Xiao-yu, TANG Ying-hui. Optimization theory and method[M]. Beijing: National Defense Industry Press,2008:143-150.(in Chinese)