李華 王旭陽 楊華民 韓成
摘要:針對(duì)增強(qiáng)現(xiàn)實(shí)(AR)系統(tǒng)中復(fù)雜場景的光照一致性問題,運(yùn)用高動(dòng)態(tài)范圍(HDR)圖像處理技術(shù)對(duì)標(biāo)識(shí)物圖像進(jìn)行分析,提出一種基于HDR圖像中光暈分析的光照方向測算算法。為了提高虛擬物體的沉浸感和真實(shí)性,在研究和分析現(xiàn)有的光照恢復(fù)算法的基礎(chǔ)上,利用二次曲線對(duì)的投影不變性原理進(jìn)行相機(jī)標(biāo)定;為了獲得更加詳盡的光照信息,使用HDR技術(shù)對(duì)標(biāo)識(shí)物圖像進(jìn)行處理,提高了測算精確度;參照Lambert光照模型對(duì)圖像中的光照信息進(jìn)行分析,將拍攝角度進(jìn)行分類,實(shí)現(xiàn)了對(duì)傳統(tǒng)測算光源方向算法的改進(jìn),可測算出位于攝影球反射范圍外的部分光源的方向,擴(kuò)大了測算范圍。設(shè)計(jì)了針對(duì)單一點(diǎn)光源的視角1和視角2測算驗(yàn)證實(shí)驗(yàn),并進(jìn)行了分析。實(shí)驗(yàn)驗(yàn)證表明,所提方法簡單易行,具有較強(qiáng)的魯棒性,能夠?qū)崿F(xiàn)在標(biāo)識(shí)物部分遮擋的情況下,測算出位于攝影球反射范圍外部分光源的方向。
關(guān)鍵詞:增強(qiáng)現(xiàn)實(shí);沉浸感;光照恢復(fù);相機(jī)標(biāo)定;高動(dòng)態(tài)范圍
中圖分類號(hào):TP193.41 文獻(xiàn)標(biāo)志碼:A
Abstract:Aiming at the illumination consistency of complex scenes in Augmented Reality (AR) system and analyzing the marker images by HighDynamic Range (HDR) technology, an improved measurement algorithm for illumination direction based on the analysis of halo in HDR images was proposed. In order to improve the immersion and reality of virtual objects, after researching and analyzing the existing illumination recovery algorithms, a camera calibration method was proposed by utilizing the projection invariance of the quadratic curve pair. In order to get detailed light information, HDR was used to process marker image to improve accuracy. Refering to Lambert illumination model, the light information of image was analyzed to classify the shooting angle, and the improvement of traditional light source direction measuring was realized, part of the directions of the light sources outside of the photography ball reflection range was measured. The shooting 1 and shooting 2 of the single point light source were tested and analyzed. The experimental results show that this method is simple, robust, and can measure the direction of partial illumination outside the mirror ball reflection range no matter whether the marker is partially shaded or not.
Key words:Augmented Reality (AR); immersion; illumination recovering; camera calibration; HighDynamic Range (HDR)
0 引言
特種電影《阿凡達(dá)》《變形金剛》等引起的轟動(dòng)效應(yīng)使得基于增強(qiáng)現(xiàn)實(shí)的特種影片攝制技術(shù)成為國內(nèi)外學(xué)者的研究熱點(diǎn)。增強(qiáng)現(xiàn)實(shí)(Augmented Reality, AR)是虛擬現(xiàn)實(shí)研究領(lǐng)域的重要分支。然而,光照一致性問題[1]既是增強(qiáng)現(xiàn)實(shí)中實(shí)現(xiàn)虛實(shí)融合的一個(gè)難點(diǎn)也是重點(diǎn)。光照一致性需要根據(jù)光學(xué)物理的有關(guān)定律,結(jié)合坐標(biāo)系的標(biāo)定、幾何特征的提取、陰影遮擋的處理、光源方向和強(qiáng)度的檢測及恢復(fù)等來模擬自然界中光照的明暗。如何在增強(qiáng)現(xiàn)實(shí)系統(tǒng)中高效準(zhǔn)確地確保光照一致性已成為近年來備受矚目的研究熱點(diǎn)。
光照一致性是解決虛實(shí)物體無縫融合的關(guān)鍵,是增強(qiáng)沉浸感的主要手段之一[2]。最早在1991年由Zheng等[3]首次提出光照算法,通過分析包含標(biāo)識(shí)物的圖像,并利用圖像輪廓線的陰影信息,來推算真實(shí)環(huán)境中點(diǎn)光源的方位角。當(dāng)前,關(guān)于光照一致性的研究正朝著多樣性的方向發(fā)展:可以從旋轉(zhuǎn)視頻中提取動(dòng)態(tài)的光照信息[4],也可以使用魚眼鏡頭拍攝全景圖像[5],還可以利用點(diǎn)云數(shù)據(jù)對(duì)復(fù)雜場景中物體進(jìn)行分類和分割[6],此外以立方體標(biāo)識(shí)物[7]或者雙測光球[8]作為光照信息載體的光源恢復(fù)也具備較好的效果。從現(xiàn)有的光照一致性技術(shù)的分析和研究中可以看出,需要解決的問題主要集中于光源方向和光源強(qiáng)度的測算[9],其中光源的強(qiáng)度值往往是通過建立光照模型完成的[10],且僅能得到強(qiáng)度的相對(duì)值[11],在實(shí)際應(yīng)用的后期處理中還會(huì)添加手動(dòng)調(diào)整的過程;而光源方向的測算是光照恢復(fù)的基礎(chǔ),由于光源的方向變化較頻繁,且對(duì)渲染效果影響較大,所以光源方向的恢復(fù)是光照一致性技術(shù)的重點(diǎn)和難點(diǎn)。
在測算光照方向時(shí),利用標(biāo)定板測光球模型是完成幾何光照注冊的有效方法之一。但在一些遮擋面積大、遮擋物多的復(fù)雜場景中,傳統(tǒng)的標(biāo)定方法往往具有很大的局限性,甚至無法估計(jì)出結(jié)果,而且近光源于攝影球等標(biāo)識(shí)物上所得信息往往不能近似為點(diǎn),帶來較大誤差。例如,文獻(xiàn)[12]提出的標(biāo)識(shí)物光源測算模型,需要進(jìn)行人為手動(dòng)協(xié)助才能完成,并且需要進(jìn)行多次光照矯正;文獻(xiàn)[13]提出的三維光照測算模型,雖然能夠很好地測算出光照信息,但其受拍攝角度的影響較大,而且在復(fù)雜場景中被遮擋時(shí),無法完成測算工作, 因此,本文針對(duì)復(fù)雜場景的光照一致性問題,在分析和研究了傳統(tǒng)攝影球模型算法的基礎(chǔ)上,運(yùn)用高動(dòng)態(tài)范圍(HighDynamic Range, HDR)圖像處理技術(shù)對(duì)標(biāo)識(shí)物圖像進(jìn)行分析,提出一種基于HDR圖像中光暈分析的光照方向測算算法,對(duì)傳統(tǒng)的攝影球模型算法進(jìn)行了明顯改進(jìn),實(shí)現(xiàn)了在標(biāo)識(shí)物部分遮擋的情況下,測算出位于攝影球反射范圍外的光源方向。
1 隨機(jī)點(diǎn)云標(biāo)定
相機(jī)標(biāo)定是2D圖像重建3D測度信息的關(guān)鍵步驟。計(jì)算機(jī)視覺中,隨著透視投影角度的變化,所視場景中的面積、長度、角度等元素會(huì)隨著透視角度的變化而變化,場景中特征點(diǎn)與圖像像素點(diǎn)的匹配計(jì)算[14-17]直接影響到標(biāo)定算法效率。
對(duì)于本文所提測算算法,需要使用一種在標(biāo)識(shí)物被部分遮擋的情況下進(jìn)行相機(jī)姿態(tài)的標(biāo)定方法,如圖1所示為傳統(tǒng)的棋盤格標(biāo)定法中標(biāo)識(shí)物被部分遮擋的情況。
經(jīng)過實(shí)驗(yàn),傳統(tǒng)的棋盤格標(biāo)定法在以上三種遮擋情況下均無法完成相機(jī)標(biāo)定的功能,無法應(yīng)用于本文所提測算算法。
1.1 二次曲線對(duì)透視不變性
目前,對(duì)于二維圖像已經(jīng)提出了如不變矩[18]、傅里葉描繪子[19]、R描繪子[20]等方法,但僅限于空間平面與相機(jī)光軸垂直時(shí)。而本文采取的是二次曲線對(duì)的透視不變性原理[21-22],并且在此基礎(chǔ)上使用一種基于隨機(jī)點(diǎn)云標(biāo)識(shí)物的標(biāo)定方法。
1.2 隨機(jī)點(diǎn)云匹配算法
光源方向的測算實(shí)質(zhì)上是對(duì)光源三維重建的一部分,三維重建中相機(jī)的標(biāo)定過程是必不可少的,在已知匹配點(diǎn)時(shí),利用張正友算法[23]可以直接完成相機(jī)標(biāo)定工作,因此,拍攝圖像與標(biāo)定模板的點(diǎn)匹配成為了相機(jī)標(biāo)定的關(guān)鍵。
在測算光源方向時(shí),本文選定相機(jī)坐標(biāo)系作為全局坐標(biāo)系。雖然全局坐標(biāo)系選為世界坐標(biāo)系時(shí)也可以用同樣的方法確定光源位置,但是這樣設(shè)置會(huì)引起2個(gè)問題:
1)其他標(biāo)識(shí)的坐標(biāo)值要經(jīng)過2次轉(zhuǎn)換才能獲得全局坐標(biāo),增加了計(jì)算的復(fù)雜度和誤差;
2)識(shí)別標(biāo)識(shí)物時(shí)可能產(chǎn)生誤差(在現(xiàn)有的基于定位標(biāo)記的增強(qiáng)現(xiàn)實(shí)系統(tǒng)中這是一個(gè)無法避免的現(xiàn)象),多次坐標(biāo)矩陣轉(zhuǎn)換之后這個(gè)誤差會(huì)被放大,影響檢測的準(zhǔn)確性。
本文基于1.1節(jié)中驗(yàn)證的二次曲線對(duì)透視不變性原理,使用了一種隨機(jī)點(diǎn)云標(biāo)定算法。其中對(duì)應(yīng)點(diǎn)的匹配算法可以簡述為如下步驟:
1)繪制由數(shù)個(gè)等大圓隨機(jī)分布構(gòu)成的標(biāo)定模板,在將其數(shù)字化后記錄每個(gè)圓的圓心坐標(biāo)以及1.1節(jié)中涉及到的系數(shù)矩陣P;
2)將標(biāo)定模板中的每個(gè)圓與其最近的4個(gè)圓分為一組,如圖2(a),視圓間的IP值為邊長,計(jì)算中心圓與最近4個(gè)圓成角的4個(gè)余弦值并作為每個(gè)中心圓的一組特征值;
3)分析相機(jī)所拍攝的場景圖像,提取出球面圓圖中可見的每個(gè)橢圓的圓心坐標(biāo)以及系數(shù)矩陣;
4)同理于步驟2),將場景圖像中的每個(gè)橢圓與其最近的4個(gè)橢圓分為一組,如圖2(b),視橢圓間的IP為邊長,根據(jù)三角形余弦定理,計(jì)算中心橢圓與最近4個(gè)橢圓成角的4個(gè)余弦值并作為每個(gè)中心橢圓的一組特征值;
5)將場景圖像與標(biāo)定模板按照步驟2)和步驟4)中計(jì)算得到的特征值進(jìn)行匹配,從而得到相匹配的圓和橢圓的對(duì)應(yīng)圓心。
得到匹配點(diǎn)的坐標(biāo)后,即可根據(jù)相機(jī)的透視投影原理,應(yīng)用張正友算法[24-26]求得單應(yīng)性矩陣,從而計(jì)算出圖像坐標(biāo)與世界坐標(biāo)之間的轉(zhuǎn)換關(guān)系[27]。
2 多點(diǎn)光源恢復(fù)
所謂光照一致性,是指AR場景中的虛擬物體應(yīng)具備與真實(shí)場景相同的光照效果,這意味著首先要恢復(fù)出真實(shí)場景的光照情況,即恢復(fù)出真實(shí)場景中有“貢獻(xiàn)”光源的位置和強(qiáng)度,然后計(jì)算真實(shí)場景光照對(duì)虛擬對(duì)象的影響[28]。
可根據(jù)是否需要借助特殊標(biāo)定物將光照方向測算方法分為兩大類,即借助標(biāo)定物測算方法和不需要借助標(biāo)定物測算方法,其中不需要借助標(biāo)定物測算方法又可分為立體視覺法和人工智能法,本文采取的是借助攝影球的測算方法。
2.1 攝影球測光原理
真實(shí)光源在AR系統(tǒng)中通常被模擬成三種光源模型:方向光源、錐形光源和點(diǎn)光源,如圖3所示。
通過該方法可以獲得分布在以攝影球球心為中心的球面上各個(gè)光源點(diǎn)的方向,由球面圓區(qū)域中與之對(duì)應(yīng)的像素的位置確定。由此所得到的光源數(shù)據(jù)可用于AR場景的光照重構(gòu)。
2.2 測算光源方向的改進(jìn)算法
文獻(xiàn)[30-32]已提出多種借助攝影球等特殊標(biāo)定物的光源測算方法。為了獲得更加詳盡的信息,本文利用HDR技術(shù)對(duì)場景圖像進(jìn)行處理,并且通過運(yùn)用Lambert模型對(duì)標(biāo)定物圖像進(jìn)行分析,提出一種改進(jìn)的攝影球光源測算方法。本節(jié)以單點(diǎn)光源為例對(duì)改進(jìn)算法進(jìn)行敘述。
2.2.1 Lambert 模型
自然界中的大部分物體表面都是同時(shí)具有漫反射性質(zhì)和鏡面反射性質(zhì),本文只考慮攝影球的漫反射性質(zhì),看作是理想化的Lambert模型。其方程形式為:
對(duì)于攝影球,點(diǎn)A、B是其“截圓面”上點(diǎn)光源入射光線與球的切點(diǎn),則半徑OA、OB垂直于過切點(diǎn)的點(diǎn)光源的入射光線。此外,攝影球的整個(gè)球面被“截圓面”劃分成了兩個(gè)部分,將耀點(diǎn)Q所在的那一部分記為“陽面”,另一部分記為“陰面”。由式(7)可知,隨著攝影球面上的點(diǎn)距離光源越來越遠(yuǎn),式中的θ隨之增大時(shí),反射光強(qiáng)I將一直減小,當(dāng)θ增大至90°時(shí),反射光強(qiáng)I將不會(huì)減小,即位于“陰面”的點(diǎn)只受環(huán)境光影響,如圖5(b)所示。
由于拍攝角度的原因,我們只能得到攝影球一部分圖像,因此“耀點(diǎn)”有可能不會(huì)出現(xiàn)在攝影球的圖像上。為了進(jìn)一步對(duì)本算法進(jìn)行分析和描述,將攝影球圖像分為三種視角進(jìn)行討論:
1)視角1,相機(jī)拍攝到“耀點(diǎn)”的圖像,即“耀點(diǎn)”出現(xiàn)在球面圓的圖像中,如圖6(a)所示;
2)視角2,相機(jī)沒有拍攝到“耀點(diǎn)”的圖像,只拍攝到“陽面”和“陰面”的一部分,如圖6(b)所示;
3)視角3,由于“陽面”面積小于攝影球表面積的1/2,所以可能會(huì)出現(xiàn)沒有拍攝到“陽面”的情況,如圖6(c)所示,對(duì)于該種情況本文不作研究。
為了判斷拍攝的圖片屬于上述3種情況的哪一種,采取如下的方法進(jìn)行判斷:
1)如果球面圓圖像中所有像素點(diǎn)的灰度值全部相等,則可判斷屬于視角3,即屬于圖6(c)所描述的情況;
2)如果球面圓圖像中灰度值最大的點(diǎn)位于球面圓的圓周上,則可判斷屬于視角2,即屬于圖6(b)所描述的情況;
3)如果球面圓圖像中灰度值最大的點(diǎn)個(gè)數(shù)唯一,且位于球面圓內(nèi)部,則可判斷屬于視角1,即屬于圖6(a)所描述的情況。
2.2.3 點(diǎn)光源方向的計(jì)算
根據(jù)2.2.2節(jié)所述內(nèi)容可知,拍攝視角可以分為3種,本節(jié)主要針對(duì)各種視角,討論點(diǎn)光源方向的計(jì)算方法。
1)視角1:耀點(diǎn)出現(xiàn)在球面圓內(nèi)。
由于欲測點(diǎn)光源可能距離攝影球較近,從而于攝影球表面所成像的最亮部分無法近似為一個(gè)點(diǎn),為此本文要對(duì)球面圓圖像進(jìn)行再次處理:先通過設(shè)定閾值的方法將球面圓圖像進(jìn)行二值化(具有最高灰度值的一些點(diǎn)設(shè)為1,其余點(diǎn)設(shè)為0),從而將最亮部分提取出來,并對(duì)有這些點(diǎn)構(gòu)成的區(qū)域進(jìn)行橢圓擬合得出圓心點(diǎn)坐標(biāo),最終根據(jù)式(6)即可計(jì)算出光源的方向。
2)視角2:耀點(diǎn)未出現(xiàn)在球面圓內(nèi)。
球面上的點(diǎn)均滿足球面方程,在已知球半徑的前提下,可以得出A、B、C三點(diǎn)的三維坐標(biāo)。根據(jù)空間解析幾何定理,給定圓周上的三點(diǎn)可以唯一確定一個(gè)圓心。由此,可以求出圓截面的圓心三維坐標(biāo),進(jìn)而求出通過截面圓圓心、球心的直線與攝影球表面的交點(diǎn),即為未出現(xiàn)在球面圓內(nèi)的耀點(diǎn)坐標(biāo),接下來根據(jù)式(6)即可計(jì)算出光源的方向。
2.2.4 算法步驟
對(duì)于借助攝影球測光源方向的方法,往往需要滿足前提條件,即于拍攝角度處,光源映射到攝影球表面的光斑必須可見,而本文算法,利用HDR圖像技術(shù),對(duì)攝影球圖像進(jìn)行分析,擴(kuò)大了光源的測算范圍,而且提高了近光源方向的測算精度。從攝影球圖像中測算光源方向的大致步驟如圖7所示。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 光照信息的采集與虛擬物體的生成
本文主要針對(duì)視角1和視角2進(jìn)行實(shí)驗(yàn)分析,主要針對(duì)單一點(diǎn)光源進(jìn)行驗(yàn)證。如圖8所示,使用高亮LED手電筒作為點(diǎn)光源,室內(nèi)自然光作為環(huán)境光進(jìn)行光源方向的測算實(shí)驗(yàn)。如圖9所示,為本實(shí)驗(yàn)所用的相機(jī)標(biāo)定板。
如圖10為本文所使用的標(biāo)定方法的3組實(shí)驗(yàn)。表1中僅列舉了相機(jī)標(biāo)定單應(yīng)性矩陣的部分參數(shù),R為外參中三維的旋轉(zhuǎn)矩陣, f為內(nèi)參中的焦距。分析表1中的實(shí)驗(yàn)數(shù)據(jù),由實(shí)驗(yàn)1~2可知在標(biāo)定板被遮擋的情況下,相機(jī)的外參基本一致,而內(nèi)參有所差別;由實(shí)驗(yàn)1~4可知在標(biāo)定板被遮擋的情況下,相機(jī)的外參對(duì)應(yīng)一致,而內(nèi)參誤差隨遮擋的面積增大;實(shí)驗(yàn)5~6為對(duì)照實(shí)驗(yàn)組,當(dāng)視角發(fā)生改變時(shí),該標(biāo)定方法仍能夠?qū)崿F(xiàn)功能。
1)視角1實(shí)驗(yàn)。調(diào)整圖9中的高光LED手電筒的位置和角度,使其于攝影球上所呈光斑位置如2.2.2節(jié)中的視角1位置。本文算法中相機(jī)的姿態(tài)保持不變,其姿態(tài)計(jì)算過程如圖11所示。
對(duì)圖13中光斑處進(jìn)行橢圓擬合,找出橢圓圓心坐標(biāo)作為“耀點(diǎn)”的近似坐標(biāo),代入式(6)中即可算出光源方向。根據(jù)實(shí)物在MAYA中構(gòu)建虛擬模型,并利用所測算到的光照信息數(shù)據(jù)生成虛擬光源,在該虛擬光源的照射下進(jìn)行渲染,渲染效果如圖14所示。
圖13中上端的兩個(gè)高亮點(diǎn)為室內(nèi)提供環(huán)境光照的兩盞照明用燈所致。圖15中的礦泉水瓶瓶蓋為真實(shí)物體,作為參照物。對(duì)比圖14(a)和圖14(b)可知,由于本文只對(duì)光源方向做研究未考慮到光源強(qiáng)度,產(chǎn)生的虛擬陰影較深。
2)視角2實(shí)驗(yàn)。調(diào)整圖9中的高光LED手電筒的位置和角度,使其于攝影球上所呈光斑位置如2.2.2節(jié)中的視角2位置。其具體實(shí)驗(yàn)步驟與實(shí)驗(yàn)1類似,如圖15合成攝影球的高動(dòng)態(tài)范圍圖像后,對(duì)圖15(f)進(jìn)行輻射度分析,并按照2.2.3節(jié)所述算法取A、B兩點(diǎn)并計(jì)算出弧中點(diǎn)C,算出點(diǎn)光源的方向,如圖15所示。如圖16所示,為視角2下生成的攝影球輻射度圖像。
如圖17所示,為視角2下生成的虛擬物體。由于實(shí)驗(yàn)條件的限制,在該視角下,標(biāo)識(shí)物表面的鏡面反射成分無法忽略,標(biāo)識(shí)物中某些點(diǎn)無法準(zhǔn)確識(shí)別,導(dǎo)致相機(jī)標(biāo)定結(jié)果的準(zhǔn)確性下降。
3.2 實(shí)驗(yàn)分析
為了驗(yàn)證光照信息測算的準(zhǔn)確性,本文根據(jù)實(shí)物在MAYA中構(gòu)建模擬的虛擬模型,并利用所測算到的光照信息數(shù)據(jù)生成虛擬光源,在該虛擬光源的照射下進(jìn)行渲染。
在實(shí)際操作中,攝影球表面會(huì)映射出室內(nèi)物品或者下方標(biāo)識(shí)物的投影,從而在攝影球的輻射度圖中會(huì)產(chǎn)生干擾點(diǎn),如圖14中的右下方。由于使用了高動(dòng)態(tài)范圍成像技術(shù),攝影球圖像的更多細(xì)節(jié)會(huì)被保留下來,從而提高了測算的準(zhǔn)確性。
無法避免的是,創(chuàng)建的虛擬物體模型無法與實(shí)際物體的幾何性質(zhì)完全相同,所以在MAYA中生成的實(shí)驗(yàn)效果會(huì)出現(xiàn)誤差,但從光照一致性角度看,本實(shí)驗(yàn)結(jié)果已經(jīng)基本達(dá)到預(yù)期效果,實(shí)現(xiàn)了光源方向的一致性。
4 結(jié)語
針對(duì)增強(qiáng)現(xiàn)實(shí)系統(tǒng)中復(fù)雜場景的光照一致性問題,本文提出了一種基HDR圖像中光暈分析的光照方向測算算法。該算法利用二次曲線對(duì)透視不變性原理對(duì)相機(jī)姿態(tài)進(jìn)行測算,測算方法操作簡單、具有較強(qiáng)的魯棒性,能夠克服傳統(tǒng)意義上棋盤格標(biāo)識(shí)物的遮擋問題;為了更加精確地獲得光照信息,結(jié)合高動(dòng)態(tài)范圍成像技術(shù),對(duì)攝影球圖像進(jìn)行處理,還原出更加準(zhǔn)確的測算參數(shù);尤為重要的是,本文在對(duì)攝影球的HDR圖像進(jìn)行輻射化后,通過分析光斑周圍的像素點(diǎn),可以測算出位于攝影球直接反射范圍外的部分位置的點(diǎn)光源方向。由于本文所解決的重點(diǎn)在于測算光源的方向,僅用SEKONIC L308S測光表進(jìn)行光源強(qiáng)度的大致測量。最后,本文通過在MAYA中進(jìn)行模擬實(shí)驗(yàn),利用測算所得光照數(shù)據(jù)對(duì)虛擬物體進(jìn)行渲染,所得效果較好,達(dá)到預(yù)期效果。
進(jìn)一步研究將主要針對(duì)復(fù)雜場景中多光源的測算和恢復(fù),目的在于更加有效地解決多光源間的相互影響等問題,從而,使得虛擬對(duì)象更具沉浸感,更加逼真。
參考文獻(xiàn):
[1]葉東文,陳國棟. 混合場景中光照一致性研究[J]. 計(jì)算機(jī)應(yīng)用研究, 2015, 32(9):2874-2876. (YE D W, CHEN G D. Research of illumination consistency in hybrid scene[J]. Application Research of Computers, 2015, 32(9):2874-2876.)
[2]李自力,朱光喜,朱耀庭.一種基于會(huì)聚雙目立體視覺的用戶化身模型[J]. 電子與信息學(xué)報(bào),2003,25(6):763-770. (LI Z L, ZHU G X, ZHU Y T. A customization model based on convergent binocular stereo vision[J]. Journal of Electronics & Information Technology, 2003,25(6):763-770.)
[3]ZHENG Q, CHELLAPPA R. Estimation of illuminant direction, albedo, and shape from shading[C]// Proceedings of the 1991 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 1991:540-545.
[4]DONG Y, CHEN G, PEERS P, et al. Appearancefrommotion: recovering spatially varying surface reflectance under unknown lighting[J]. ACM Transactions on Graphics (TOG), 2014, 33(6): 193.
[5]MADSEN C, LAURSEN R. A scalable GPUbased approach to shading and shadowing for photorealistic realtime augmented reality[J]. International Conference on Computer Graphics Theory and Applications, 2007,1(4): 252-261.
[6]NAN L, XIE K, SHARF A. A searchclassify approach for cluttered indoor scene understanding[J]. ACM Transactions on Graphics (TOG), 2012, 31(6): 137.
[7]周雅,晏磊,趙虎. 增強(qiáng)現(xiàn)實(shí)系統(tǒng)光照模型建立研究[J]. 中國圖象圖形學(xué)報(bào), 2004, 9(8):968-971. (ZHOU Y, YAN L, ZHAO H. Study on the lighting model of the real world in augmented reality[J]. Journal of Image and Graphics, 2004, 9(8):968-971.)
[8]豐艷. 增強(qiáng)現(xiàn)實(shí)系統(tǒng)虛實(shí)無縫融合相關(guān)問題研究[D]. 上海: 上海大學(xué), 2007:106-138. (FENG Y. Research on seamless fusion of real and virtual scenes in augmented reality system[D]. Shanghai: Shanghai University, 2007:106-138.)
[9]王珂. 增強(qiáng)現(xiàn)實(shí)中虛實(shí)光照一致性研究綜述[J]. 光電技術(shù)應(yīng)用, 2013,28(6):6-12. (WANG K. Research on virtualreal illumination consistency in augment reality scene[J]. ElectroOptic Technology Application, 2013,28(6):6-12.)
[10]沈沉,沈向洋,馬頌德. 基于圖像的光照模型研究綜述[J]. 計(jì)算機(jī)學(xué)報(bào), 2000, 23(12):1261-1269. (SHEN C, SHEN X Y, MA S D. A survey of imagebased illumination model[J]. Chinese Journal of Computers, 2000, 23(12):1261-1269.)
[11]李粉莉,童小念. 基于增強(qiáng)現(xiàn)實(shí)的圖像光照一致性模型探討[J]. 電腦知識(shí)與技術(shù), 2011,7(9):6195-6196. (LI F L, TONG X N. Image illumination coherence based on augment reality[J]. Computer Knowledge and Technology, 2011,7(9):6195-6196.)
[12]姚遠(yuǎn), 朱淼良. 增強(qiáng)現(xiàn)實(shí)場景光源的實(shí)時(shí)檢測方法和真實(shí)感渲染框架[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2006.18(8):1270-1275. (YAO Y,ZHU M L. A framework for lighting detection and scene rendering in AR environment[J]. Journal of Computeraided Design & Computer Graphics, 2006,18(8):1270-1275.)
[13]KANBARA M, YOKOYA N. Realtime estimation of light source environment for photorealistic augmented reality[C]// Proceedings of the 17th International Conference on Pattern Recognition. Washington, DC: IEEE Computer Society, 2004: 911-914.
[14]侯志強(qiáng),黃安奇,余旺盛,等. 基于局部分塊和模型更新的視覺跟蹤算法[J].電子與信息學(xué)報(bào),2015,37(6):1357-1364. (HOU Z Q, HUANG A Q, YU W S, et al. Visual object tracking method based on local patch model and model update[J]. Journal of Electronics & Information Technology,2015,37(6):1357-1364.)
[15]彭勃宇,王崴,周誠,等. 面向增強(qiáng)現(xiàn)實(shí)的SUSANSURF快速匹配算法[J]. 計(jì)算機(jī)應(yīng)用研究,2015,32(8):538-2542. (PENG B Y, WANG W, ZHOU C, et al. SUSANSURF fast matching algorithm for augment reality[J]. Application Research of Computers,2015,32(8):2538-2542.)
[16]張勇,王志鋒,李丹陽. 一種改進(jìn)的SIFT特征點(diǎn)匹配方法[J]. 廣東通信技術(shù),2015,35(5):25-29. (ZHANG Y, WANG Z F, LI D Y. A modified SIFT feature points matching algorithm[J]. Guangdong Communication Technology, 2015,35(5):25-29.)
[17]黃偉國,胡大盟,楊劍宇, 等. 用于遮擋形狀匹配的弦角特征描述[J]. 光學(xué)精密工程,2015,23(6):1758-1767. (HUANG W G, HU D M, YANG J Y, et al. Chord angle representation for shape matching under occlusion[J]. Optics and Precision Engineering, 2015,23(6):1758-1767. )
[18]HU M K. Visual pattern recognition by moment invariants[J]. IRE Transactions on Information Theory, 1962,8(2):179-187.
[19]ZAHN C T, ROSKIES R Z. Fourier descriptors for plane closed curves[J]. IEEE Transactions on Computers, 1972,100(3):269-281.
[20]MA J, WU C K, LU X R. A fast shape descriptor[J]. Computer Vision, Graphics, and Image Processing, 1986,34(3):282-291.
[21]徐正偉,吳成柯. 二維形狀的透視不變性識(shí)別[J]. 自動(dòng)化學(xué)報(bào), 1995,23(4):431-439. (XU Z W, WU C K. Perspective invariance recognition of twodimensional shape[J]. Acta Automatica Ainica, 1995, 23(4):431-439.)
[22]韓笑,廖粵峰. 基于平面二次曲線的非單視點(diǎn)全景相機(jī)標(biāo)定方法[J]. 計(jì)算機(jī)與現(xiàn)代化,2015,18(7):59-64. (HAN X, LIAO Y F. Calibration method for nonsingle viewpoint omnidirectional cameras based on planar curve[J]. Computer and Modernization,2015,18(7):9-64.)
[23]ZHANG Z. Flexible camera calibration by viewing a plane from unknown orientations[C]// Proceedings of the 7th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999, 1: 666-673.
[24]李莉. OpenCV耦合改進(jìn)張正友算法的相機(jī)標(biāo)定算法[J]. 輕工機(jī)械,2015,33(4):60-63.(LI L. Camera calibration algorithm based on OpenCV and improved Zhang Zhengyou algorithm[J]. Light Industry Machinery, 2015,33(4):60-63.)
[25]劉艷,李騰飛. 對(duì)張正友相機(jī)標(biāo)定法的改進(jìn)研究[J]. 光學(xué)技術(shù),2014,19(6):565-570. (LIU Y, LI T F. Research of the improved of Zhangs camera calibration method[J]. Optical Technique, 2014,19(6):565-570.)
[26]王頒法,肖昭然,張斌. 基于Matlab的圖像預(yù)處理技術(shù)在相機(jī)標(biāo)定中的應(yīng)用研究[J]. 河南科技,2014(21):66,81. (WANG B F, XIAO Z R, ZHANG B. Application research based on image preprocessing technology in Matlab for camera calibration[J]. Journal of Henan Science and Technology, 2014(21):66,81.)
[27]VOGIATZIS G, HERNNDEZ C. WITHDRAWN: Videobased, realtime multiview stereo[J]. Image & Vision Computing, 2012,4(7) :434-441.
[28]譚茗. 基于視覺的增強(qiáng)現(xiàn)實(shí)系統(tǒng)中的光照一致性研究[D]. 長沙: 湖南大學(xué), 2009:19-73. (TAN M. The study of consistent illumination in visualbased augmented reality[D]. Changsha: Hunan University,2009:19-73.)
[29]DEBEVEC P E, MALIK J. Recovering high dynamic range radiance maps from photographs[C]// Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. New York: ACM, 2008: 31.
[30]ZHANG Y, YANG Y H. Multiple illuminant direction detection with application to image synthesis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(8): 915-920.
[31]BOUGANIS C, BROOKES M. Multiple light source detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004,26(4):509-514.
[32]FENG Y. Estimation of light source environment for illumination consistency of augmented reality[C]// Proceedings of the 2008 Congress on Congress on Image and Signal Processing. Washington, DC: IEEE Computer Society, 2008, 3: 771-775.