楊世強,喬 丹,弓逯琦,李小莉,李德信
基于Laplace逼近Gaussian過程的指節(jié)圖像中層偏移測度特征學習
楊世強,喬 丹,弓逯琦,李小莉,李德信
(西安理工大學機械與精密儀器工程學院,陜西 西安 710048)
在人機協(xié)調(diào)裝配中,為了準確描述手部位姿,需要精確的指節(jié)圖像特征提取與識別。為了豐富手部信息,提出了基于Laplace逼近Gaussian過程的多分類算法,以實現(xiàn)基于手部圖像的指節(jié)識別。在類別信息無關(guān)聯(lián)的假設(shè)基礎(chǔ)上,將中層偏移測度特征的學習轉(zhuǎn)化為對隨機量的學習;然后通過分析二值多分類高斯場上的后驗計算,給出了基于Laplace逼近Gaussian過程的多分類高斯過程學習算法;通過構(gòu)造中層隨機信息的正定核函數(shù),給出了基于Laplace的多分類高斯過程預測算法。最后,利用中層數(shù)據(jù)的分布學習與預測算法進行了指節(jié)圖像訓練學習和固定閾值的圖像識別。識別結(jié)果顯示,該方法具有一定的指節(jié)識別能力。
高斯過程;圖像識別;指節(jié)圖像;特征學習
隨著復雜機電裝備集成化、精密化與智能化程度的不斷提升,生產(chǎn)過程中的制造系統(tǒng)需進一步提高其敏捷性、適應性與可重復性,高柔性裝配技術(shù)對高效研發(fā)與精密制造有著重要意義[1-2]。在智能機器人技術(shù)的快速發(fā)展及其在制造系統(tǒng)中日益廣泛地應用這一背景下,智能化的人機協(xié)調(diào)裝配技術(shù)被認為是提高裝配系統(tǒng)柔性的有效方法[3]?;跈C器視覺的人機交互協(xié)調(diào)裝配技術(shù),將圖像分析獲得的人體裝配姿態(tài)、動作和意圖作為裝配機器人任務規(guī)劃的輸入信息,通過協(xié)作實現(xiàn)高效高柔性的裝配。手部圖像及其關(guān)聯(lián)包含手部裝配姿態(tài)的總體信息,因此圖像特征檢測手部生物結(jié)構(gòu)是裝配操作意圖推斷的基礎(chǔ)[4]。
手勢識別主要有2個研究方向,①使用傳感器和探測器等外設(shè)工具實現(xiàn)手勢識別,該方法通過傳感器進行精確的手部位姿提取,實現(xiàn)較為精準的手勢識別,但不夠便捷,需要外部設(shè)備的支持。②使用拍攝圖像進行無標記的手勢識別,精確度不夠高,魯棒性與穩(wěn)定性依然不足,需要進一步研究手部圖像特征檢測技術(shù)以提高其精確度與準確提取手部位姿的能力。
目前在圖像特征檢測領(lǐng)域涌現(xiàn)出許多新的識別技術(shù),不同領(lǐng)域所使用的方法與其側(cè)重點各有不同,有些側(cè)重于特征提取技術(shù),如DING等[5]利用雙重局部二值模式(double local binary pattern, DLBP)檢測視頻中的幀峰值;YAO等[6]給出了一種基于LLE的基于過濾器的特征選擇方法;在模型建立方面,文獻[7]將一個動作類別作為靈活的身體部分的空間配置數(shù)目進行建模,開發(fā)了一種層次化的空間SPN方法,模擬子圖像內(nèi)各部分之間的空間關(guān)系,并通過SPN的附加層對子圖像的相關(guān)性進行建模;PANDA等[8]提出了特征驅(qū)動選擇分類算法(feature driven selective classification, FALCON),優(yōu)化了機器學習分類器的能量效率;對于特征聚類的研究有助于圖像特征分類,LI等[9]在解決監(jiān)控應用中的自動異常檢測問題中使用以無監(jiān)督主成分分析(unsupervised principal component analysis, UPCA)為基礎(chǔ)的特征聚類算法實現(xiàn)自動選擇最優(yōu)數(shù)目的聚類;JIANG等[10]提出了一種基于模糊相似度的自組織特征聚類算法用以提取文本特征,該方法運行速度快,可以比其他方法更好地提取特征;RAHMANI和AKBARIZADEH[11]提出了一種使用無監(jiān)督特征學習(unsupervised feature learning, UFL)的譜聚類方法。
高斯過程(Gaussian process, GP)學習作為一種被普遍使用的特征識別方法,近幾年來眾多學者對其進行了廣泛研究。由于GP模型易于實現(xiàn)的特點,可以用來優(yōu)化識別效果,SHIN等[12]提出了一個三維點云的實時分割算法,采用高斯過程提高了分割準確性,以減少過分割效應。GP同樣被用來排除異常與模糊的數(shù)據(jù)[13-14]。XILOYANNI等[15]運用了新穎的高斯過程自回歸框架,以學習手關(guān)節(jié)和肌肉活動的連續(xù)映射來計算預期的手部運動。JIANG等[16]將監(jiān)督潛在線性高斯過程潛變量模型(supervised latent linear Gaussian process latent variable model, SLLGPLVM)用于特征提取,對高光譜圖像(hyperspectral image, HSI)分類。
基于膚色模型的圖像分割可初步解決手部的圖像定位問題,而如指形姿態(tài)、指節(jié)位置等表征手部生物結(jié)構(gòu)的重要圖像特征仍需進一步識別。在手部半握及全握姿態(tài)下,對應于手部關(guān)節(jié)位置處的骨節(jié)結(jié)構(gòu),指節(jié)圖像的灰度分布在手指局部位置附近呈現(xiàn)不規(guī)則凸包結(jié)構(gòu),可將該非確定性不規(guī)則凸包作為指節(jié)圖像的一種隨機隱結(jié)構(gòu)。文獻[17]以手指關(guān)節(jié)圖像為例,針對上述灰度結(jié)構(gòu)模糊、特征隱含且抽取困難的一類隨機圖像,通過灰度分布的密度估計獲得圖像隱特征,利用該觀測建立圖像隱特征模式的學習與估計算法框架,給出了隨機圖像上偏移特征的提取與分析方法。鑒于隨機偏移集自身的分布復雜性,不同偏移參數(shù)區(qū)間所對應偏移特征間的差異比較大,且偏移參數(shù)越遠離標準值,其對應特征就越復雜,所以在對隨機圖像雙側(cè)偏移測度的學習過程中,特別針對偏移參數(shù)在區(qū)間[0.50,0.85]內(nèi)的中層數(shù)據(jù)[17],需深入分析訓練圖像庫中實際偏移觀測的隨機分布特點,選用恰當?shù)哪P瓦M行學習。本文通過對中層密度位置多標簽分布隨機場模型的學習,獲得條件偏移概率的等價密度估計。首先對中層偏移測度的分布進行訓練,并將其特征的學習轉(zhuǎn)化為了對隨機量的學習。然后,通過對二值多分類高斯場上的后驗計算,給出了基于整體訓練數(shù)據(jù)集的隱函數(shù)后驗更新,通過中層隨機信息的正定核函數(shù)構(gòu)造,給出了基于訓練集的隱向量預測,通過對樣本進行試驗,驗證了算法的可行性。
(a) 第1類(b) 第2類(c) 第3類
針對隨機場上的多分類問題,考慮到不同的標簽值對應不同的水平參數(shù)區(qū)間,且標記類別值在有限離散空間為進行取值,同時圖像位置處對應多類別標簽間的關(guān)系并不是完全確定的,因此對所有類別標簽的隨機分布需進行統(tǒng)一建模與表示,才能較好地恢復中層數(shù)據(jù)分布的整體特征。本文利用GP模型[18],以觀測數(shù)據(jù)作為訓練樣本集,選用Bernoulli分布表示圖像固定位置處對單類別標簽的概率,以隨機場上類別標簽的概率結(jié)果作為訓練輸出。而3類標簽間的分布模式進一步包含有2類信息,其一為同一位置處狀態(tài)標簽的激活與轉(zhuǎn)換,其二是不同位置多狀態(tài)間的分布關(guān)系。針對前者,利用Gibbs形式表示標簽對應多項式分布中的參數(shù)關(guān)聯(lián);考慮到學習過程復雜性的限制,假設(shè)不同圖像位置間的不同標記類無關(guān),而同類標簽的聯(lián)合分布具有Gaussian特點,并利用Gaussian場函數(shù)表示同類別間的標記關(guān)聯(lián),即