楊世強(qiáng),閆雪萍
(西安理工大學(xué) 機(jī)械與精密儀器工程學(xué)院,西安 710048)
隨著人工智能研究及應(yīng)用的不斷發(fā)展,對智能裝配與精密制造等生產(chǎn)制造系統(tǒng)的敏捷性、適應(yīng)性與可重復(fù)性提出更高要求,基于人機(jī)交互的智能裝配技術(shù)成為解決以上需求的有效途徑.在人機(jī)交互的智能裝配系統(tǒng)中,手部生物結(jié)構(gòu)包含手部裝配姿態(tài)的總體信息,其準(zhǔn)確的圖像特征識別是獲得準(zhǔn)確裝配手形、進(jìn)行高效姿態(tài)信息推斷的基礎(chǔ)[1].基于視覺的智能裝配將圖像分析獲得的人體裝配姿態(tài)作為裝配機(jī)器人任務(wù)規(guī)劃的輸入信息[2,3],通過裝配任務(wù)協(xié)作實(shí)現(xiàn)高效高柔性的裝配過程[4,5].
作為手部生物結(jié)構(gòu)重要的圖像特征[6],指節(jié)圖像的建模與識別是獲得裝配姿態(tài)完整信息推斷的前提.Zhang等[7]結(jié)合Gabor濾波在指節(jié)位置處進(jìn)行紋理建模,實(shí)現(xiàn)了基于紋理特征的指節(jié)識別.Usha[8]等利用手部文本模式特征的極線與割線幾何,結(jié)合指節(jié)表面的對稱性特征給出了指節(jié)位置的估計(jì).Vishwakarma[9]等通過將手指關(guān)節(jié)紋理圖像的局部凸方向圖和FKP圖像的局部方向特征進(jìn)行融合識別.姚爭為[10]等將手紋與關(guān)節(jié)位置相關(guān)性結(jié)合,利用多視點(diǎn)優(yōu)化技術(shù)得出手部估計(jì).上述研究方法均局限于小尺度靜態(tài)圖像特征,對測試條件要求苛刻.
考慮到膚色在色彩空間中都具有比較明顯的聚類分布特點(diǎn)[11],并且在三色空間中的分布具有非線性特點(diǎn)[12],圖像的隨機(jī)特征為關(guān)節(jié)的檢測提供了新途徑.高斯過程是一種良好的貝葉斯分類過程,經(jīng)常應(yīng)用于半監(jiān)督聚類方面,Wang等[13]基于高斯內(nèi)核長度的尺度估計(jì)來實(shí)現(xiàn)高斯過程分類,Bazi等[14]將多源高光譜數(shù)據(jù)和高斯過程結(jié)合,通過稀疏近似進(jìn)行數(shù)據(jù)有效分類.由于高斯模型的主要計(jì)算復(fù)雜度來自對每一類樣本的核矩陣求逆,而不是對整體樣本的核矩陣求逆,因此,在處理多類問題時(shí),樣本的類別越多,該模型的優(yōu)勢會越明顯[15–17].
指節(jié)圖像灰度值的隨機(jī)性較強(qiáng),但其結(jié)構(gòu)具有近似的高斯分布特征,因此考慮在指節(jié)圖像上建立高斯過程模型,將關(guān)節(jié)數(shù)據(jù)的聚類特征作為描述對象.本文應(yīng)用同態(tài)濾波進(jìn)行圖像預(yù)處理,對圖像特征增強(qiáng),利用高斯過程模型對聚類特征數(shù)據(jù)進(jìn)行抽取,在數(shù)據(jù)擬合的基礎(chǔ)上識別出手部關(guān)節(jié)部位,以期獲得較穩(wěn)定的指節(jié)圖像特征和指節(jié)識別結(jié)果.
手部關(guān)節(jié)的識別主要由膚色的聚類特征和紋理邊緣細(xì)節(jié)表現(xiàn)出來,由于光照條件和手部運(yùn)動多變等因素,致使識別結(jié)果往往產(chǎn)生較大的差異,選用合適的濾波方法進(jìn)行圖像預(yù)處理對后續(xù)結(jié)果有較大影響.同態(tài)濾波是把頻率過濾和灰度變換結(jié)合起來的一種圖像處理方法,依靠圖像的照度/反射率模型作為頻域處理的基礎(chǔ),利用壓縮亮度范圍和增強(qiáng)對比度來改善圖像質(zhì)量,可以使圖像處理符合人眼對于亮度響應(yīng)的非線性特性,能有效地減小光照變化并銳化邊緣細(xì)節(jié),消除光照不均勻帶來的影響,同時(shí)還避免了直接對圖像進(jìn)行傅立葉變換處理的失真.
由于照度相對變化很小,可以看作是圖像的低頻成份,而反射率則是高頻成份.對于照明不均勻的圖像的處理,要盡量消減入射光分量的影響,即壓制圖像的低頻分量,同時(shí)增強(qiáng)物體的反射光分量,即放大圖像的高頻分量.同態(tài)濾波[18]中圖像的灰度值可以看成是由入射光分量和反射光分量兩部分的乘積,高通濾波器對于圖像的亮度有重要影響,在此采用巴特沃斯濾波器和高斯濾波器兩種濾波器來實(shí)現(xiàn)高通濾波.
高斯過程是基于貝葉斯框架的無參數(shù)核方法,可用于有監(jiān)督學(xué)習(xí),被成功應(yīng)用于回歸與分類.在模型構(gòu)建過程中可自動地獲取超參數(shù),具有完全的貝葉斯公式化表示,預(yù)測輸出具有清晰的概率解釋,并且可以直接實(shí)現(xiàn)多分類.本文運(yùn)用高斯過程的二分類,來實(shí)現(xiàn)關(guān)節(jié)圖像的目標(biāo)識別,通過尋找兩個(gè)潛變量函數(shù),分別靠近其中的一類樣本而遠(yuǎn)離另一類樣本,根據(jù)待預(yù)測樣本距離這兩個(gè)潛變量函數(shù)的遠(yuǎn)近來判斷類別,獲得后驗(yàn)概率函數(shù)的分析表達(dá)式,避免了逼近后驗(yàn)概率帶來的高計(jì)算復(fù)雜度問題.
令表示訓(xùn)練樣本集的特征空間,表示一個(gè)包含n個(gè)樣本的訓(xùn)練集,其中是第i個(gè)樣本的特征向量,是對應(yīng)的標(biāo)簽.分類學(xué)習(xí)就是利用訓(xùn)練集S尋找一個(gè)定義在特征空間X上的能輸出待預(yù)測樣本的正確標(biāo)簽的函數(shù)
對指節(jié)圖像中對應(yīng)高密度的關(guān)節(jié)位置分布進(jìn)行分析,其分布特點(diǎn)具有較為明顯的聚類分布趨勢與聚集結(jié)構(gòu),將抽取出的圖像數(shù)據(jù)集作為特征學(xué)習(xí)的訓(xùn)練集,對訓(xùn)練集的學(xué)習(xí)過程即為獲得該模型中各參數(shù)穩(wěn)定結(jié)果的過程.
令分別表示為正類樣本(+1)和負(fù)類樣本(–1)在特征空間上定義的潛變量函數(shù),假設(shè)服從零均值高斯過程分布,即
其中表示高斯過程的協(xié)方差函數(shù),潛變量函數(shù)的分布由它完全確定,對設(shè)置相同協(xié)方差函數(shù)
可以得到在樣本集上函數(shù)值的聯(lián)合先驗(yàn)概率分布
以及在上函數(shù)值的聯(lián)合先驗(yàn)概率分布
其中是待測正負(fù)樣本的潛變量函數(shù),是正負(fù)樣本集,是訓(xùn)練正負(fù)樣本的潛變量函數(shù)是協(xié)方差函數(shù);K是協(xié)方差函數(shù)在樣本集上的值構(gòu)成的方陣,第i行第j列元素為是一個(gè)行向量,第i個(gè)元素為表示協(xié)方差函數(shù)的超參數(shù).由聯(lián)合先驗(yàn)概率分布,可以得到如下的條件先驗(yàn)分布:
為使對應(yīng)類樣本上潛變量函數(shù)值盡可能小,而在另一類樣本上潛變量函數(shù)值盡可能大,采用如下的似然函數(shù):
可以得到如下形式的聯(lián)合似然:
其中和分別表示由正樣本和負(fù)樣本下標(biāo)構(gòu)成的集合.聯(lián)合似然函數(shù)看作多個(gè)高斯函數(shù)的線性組合,這個(gè)性質(zhì)很大程度上方便了后驗(yàn)概率分布的計(jì)算.
從特征學(xué)習(xí)的角度看,學(xué)習(xí)獲得的兩類特征模型可作為圖像特征的檢測器,檢測結(jié)果為具體圖像的兩個(gè)似然值.將經(jīng)過正負(fù)類樣本標(biāo)記過的兩種模型似然值作為輸入,利用觀測數(shù)據(jù)集在后驗(yàn)?zāi)P拖碌膶?shù)似然對迭代過程進(jìn)行收斂監(jiān)測,依據(jù)估計(jì)結(jié)果對手部關(guān)節(jié)圖像進(jìn)行識別.
通過聯(lián)合先驗(yàn)概率和聯(lián)合似然,可以得到邊緣似然函數(shù):
利用貝葉斯規(guī)則和邊緣化條件先驗(yàn)可以分別得到后驗(yàn)概率分布:
針對圖像平面上屬于觀測集X中的測試位置可以得到該位置處標(biāo)記預(yù)測的概率為:
因此,樣本的標(biāo)簽可以預(yù)測為:
以特征增強(qiáng)為基礎(chǔ),利用樣本對象的聚類測度,學(xué)習(xí)數(shù)據(jù)分布的特征模型,將學(xué)習(xí)獲得的兩類特征模型作為圖像特征的檢測器,檢測結(jié)果即為圖像的兩個(gè)似然值.將經(jīng)過正負(fù)類樣本標(biāo)記過的兩種模型似然值作為輸入,利用觀測數(shù)據(jù)集在后驗(yàn)?zāi)P拖碌膶?shù)似然值對迭代過程進(jìn)行收斂監(jiān)測,依據(jù)估計(jì)結(jié)果對手部關(guān)節(jié)圖像進(jìn)行識別.算法流程如圖1所示,模型特征學(xué)習(xí)過程主要分為初始化階段、學(xué)習(xí)階段和推理階段.
初始化階段,根據(jù)樣本數(shù)據(jù)的相似性,使用歐氏距離為測度對無類別數(shù)據(jù)集進(jìn)行聚類,從而獲得數(shù)據(jù)集的類別標(biāo)簽.學(xué)習(xí)階段用關(guān)節(jié)區(qū)域內(nèi)各像素的近鄰像素信息更新該像素所屬離散區(qū)間對應(yīng)的模型參數(shù),利用邊緣像素與中心像素的模型聚類特征進(jìn)行參數(shù)更新.推理階段將更新的數(shù)據(jù)模型和閾值判定條件結(jié)合,確認(rèn)考慮中心像素到所在離散區(qū)間對應(yīng)模型的距離,作為判定關(guān)節(jié)的依據(jù),同時(shí)將確認(rèn)標(biāo)簽作為下一次參數(shù)更新的條件.當(dāng)待定像素所學(xué)習(xí)到的概率密度值大于經(jīng)驗(yàn)閾值時(shí),判定待定像素屬于關(guān)節(jié)范圍.在對每一步更新得到的新信息形式對待定區(qū)域進(jìn)行確認(rèn)時(shí),不增加新的被確認(rèn)像素時(shí)即可判定學(xué)習(xí)過程已趨于穩(wěn)定,各參數(shù)獲得收斂值.
圖1 手部指節(jié)圖像特征學(xué)習(xí)算法流程
一般光照條件下,圖像在采集、傳輸中往往會受到噪聲污染,通常表現(xiàn)為或大或小的極值,降低了圖像質(zhì)量,需在盡量保留圖像細(xì)節(jié)特征的前提下,對噪聲抑制.本文中采用具有照度不均勻校正技術(shù)的同態(tài)濾波來進(jìn)行圖像預(yù)處理,構(gòu)建巴特沃斯濾波器和高斯濾波器,對遠(yuǎn)指節(jié)、中指節(jié)和近指節(jié)三組圖像進(jìn)行預(yù)處理,圖片尺寸為100100,取頻率距濾波器中心距離初始值為 50,銳化系數(shù)為 1.50,高頻增益為 1.0,低頻增益為 0.4,如圖2 所示,圖2(a)左圖為遠(yuǎn)指節(jié)測試圖像,中圖為中指節(jié)測試圖像,右圖為近指節(jié)測試圖像,圖2(b)為對應(yīng)巴特沃斯濾波結(jié)果,圖2(c)為對應(yīng)高通濾波效果.本文后續(xù)各圖均與圖2(a)對應(yīng).
圖2 指節(jié)圖像預(yù)處理與識別
從圖2的結(jié)果可以看出,與原始圖像相比,濾波結(jié)果壓縮了圖像整體動態(tài)范圍,同時(shí)增強(qiáng)低灰度值區(qū)域的對比度,強(qiáng)化了紋理特征.進(jìn)一步對比圖2(b)與圖2(c),高斯濾波器同態(tài)濾波進(jìn)一步對圖像的局部細(xì)節(jié)特征進(jìn)行了凸顯,提高了特征的整體性,有利于后續(xù)偏移分布觀測數(shù)據(jù)的提取.
以指節(jié)圖像的數(shù)據(jù)分布模式學(xué)習(xí)為目標(biāo),將聚類測度分布作為指節(jié)的生物特征.初始化使用歐氏距離測度對無類別數(shù)據(jù)集進(jìn)行聚類,并使用兩個(gè)經(jīng)驗(yàn)預(yù)設(shè)硬閾值1.6與0.75對圖像區(qū)域進(jìn)行初始分割.似然值大于預(yù)設(shè)閾值的區(qū)域認(rèn)定為關(guān)節(jié)區(qū)域,似然值處于兩個(gè)預(yù)設(shè)閾值之間的區(qū)域認(rèn)定為待確認(rèn)關(guān)節(jié)的區(qū)域,似然值小于預(yù)設(shè)閾值的區(qū)域認(rèn)定為非關(guān)節(jié)區(qū)域.如圖3為圖2(a)所示指節(jié)圖像對應(yīng)學(xué)習(xí)特征檢測,紅色像素位置是本階段已確認(rèn)為關(guān)節(jié)的位置,藍(lán)色像素位置為當(dāng)前步的計(jì)算位置.
圖3 特征檢測
由圖3(a)中得出,由于數(shù)據(jù)本身的高斯特征,初始化階段可以得到由相似數(shù)據(jù)形成的較小規(guī)模的簇,在學(xué)習(xí)階段圖3(b)中,新數(shù)據(jù)點(diǎn)的屬性按照均值為0和協(xié)方差為的先驗(yàn)分布確定,形成相似區(qū)域內(nèi)距離測度較小的新數(shù)據(jù)點(diǎn).通過對模型的學(xué)習(xí)和數(shù)據(jù)的擬合迭代,最終得到推理階段的檢測結(jié)果,如圖3(c).雖然測度計(jì)算受目標(biāo)數(shù)據(jù)的維度影響較小,但是其對異常數(shù)據(jù)較為敏感,而且聚類結(jié)果可能不平衡,因此,特征的分布呈現(xiàn)密集和平緩的相對變化,對于特征的分類效果也出現(xiàn)一定的不穩(wěn)定性,說明不同的指節(jié)圖像數(shù)據(jù)分布的類別間存在一定的差別.
在訓(xùn)練圖像初始學(xué)習(xí)的基礎(chǔ)上,利用關(guān)節(jié)區(qū)域內(nèi)各像素的近鄰像素信息更新該像素所屬離散區(qū)間對應(yīng)的模型參數(shù),并考慮以關(guān)節(jié)區(qū)域內(nèi)部像素位置為中心的5*5模板邊緣上的像素,用邊緣像素與中心像素的模型聚類特征進(jìn)行參數(shù)更新,獲得對當(dāng)前關(guān)節(jié)信息的學(xué)習(xí).圖4為不同關(guān)節(jié)位置處,由學(xué)習(xí)結(jié)果得到的觀測數(shù)據(jù)抽取結(jié)果.
圖4 數(shù)據(jù)抽取
由于測度分布對于不同數(shù)據(jù)的適應(yīng)性有些許差異,高斯過程模型是建立在概率論框架之上,以概率分布的形式給出預(yù)測輸出,相似性差異最大化的高斯核函數(shù),使結(jié)果更加具有統(tǒng)計(jì)意義,測度分布對不同數(shù)據(jù)的適應(yīng)性差異對實(shí)驗(yàn)結(jié)果所產(chǎn)生的影響可以忽略不計(jì).實(shí)驗(yàn)結(jié)果表明對于遠(yuǎn)指節(jié)和中指節(jié),數(shù)據(jù)的眾數(shù)和均值相對較大,偏態(tài)較為穩(wěn)定,但對于近指節(jié),其離散程度較大,導(dǎo)致方差和標(biāo)準(zhǔn)差也隨之增大.
將學(xué)習(xí)獲得的兩類特征模型作為圖像特征的檢測器,將經(jīng)過正負(fù)類樣本標(biāo)記過的兩種模型似然值作為輸入,利用觀測數(shù)據(jù)集在后驗(yàn)?zāi)P拖碌膶?shù)似然對迭代過程進(jìn)行收斂監(jiān)測,收斂條件是數(shù)據(jù)對數(shù)似然值增量小于200.收斂監(jiān)測結(jié)果顯示,由于數(shù)據(jù)分布的特異性,近指節(jié)的訓(xùn)練在70步之后趨于收斂,而中指節(jié)和遠(yuǎn)指節(jié)的訓(xùn)練在40步之后趨于收斂.
結(jié)果顯示,由于非關(guān)節(jié)位置處高似然值噪聲位置具有不穩(wěn)定性,存在較大變化區(qū)間,但隨著迭代次數(shù)的增多,模型似然值不斷升高,由于參數(shù)的估計(jì)值變化比較大,導(dǎo)致狀態(tài)估計(jì)與其真實(shí)值偏差較大,當(dāng)參數(shù)收斂于真實(shí)值附近后,狀態(tài)估計(jì)值很好地跟蹤了其真實(shí)值的變化,表明模型對數(shù)據(jù)的適應(yīng)性不斷升高,對初始化的模型結(jié)果進(jìn)行了有效修正.
學(xué)習(xí)后的模型對于指節(jié)的識別結(jié)果如圖5所示,圖中標(biāo)識出了關(guān)節(jié)的位置,結(jié)果顯示識別結(jié)果理想.在CPU: Intel i3 330M,主頻 2.13 GHz,雙核心; 內(nèi)存: 2 GB配置環(huán)境下,圖5中從左往右不同指節(jié)識別的計(jì)算時(shí)間依次為 0.7383 s、0.5894 s、0.6285 s.
為進(jìn)一步檢驗(yàn)算法的可行性和識別率,制作了3個(gè)手勢關(guān)節(jié)測試圖像庫,分別為不同人群對象的手部遠(yuǎn)指節(jié)、中指節(jié)、近指節(jié)三類,數(shù)量分別210、197、204幅,大小均為100100.雖然每個(gè)人的關(guān)節(jié)分布特征含有其獨(dú)有特征[6],但同一關(guān)節(jié)處的紋理特征分布都具有類似的分布規(guī)律.根據(jù)學(xué)習(xí)得到的圖像分類模型,將測試圖像中的模型似然值作為圖像特征對應(yīng)的信息陣,對含有手指關(guān)節(jié)的手部測試圖像上進(jìn)行固定閾值關(guān)節(jié)檢測,繪制到工作特性曲線(ROC),不同關(guān)節(jié)的識別結(jié)果圖6所示.
圖5 識別結(jié)果
圖6 ROC 曲線
圖像ROC的曲線下面積(AUC)總體衡量了識別器的識別能力.從圖6中可以看出,學(xué)習(xí)所得模型與初始化所用分布對應(yīng)的識別率有明顯差異,說明聚類特征被逐步增強(qiáng),學(xué)習(xí)后相比初始化模型結(jié)果的真正類概率值有明顯升高,說明收斂后的模型結(jié)果對測試圖像在硬閾值分割下的識別能力有顯著上升.3條ROC的AUC分別為0.7203、0.5231與0.6385,由于不同關(guān)節(jié)處的特征表象不一樣,因此識別效果也會有較大差異,但不同對象的同一關(guān)節(jié)處的紋理特征都具有較大的相似性分布,相比三處關(guān)節(jié),近指節(jié)的識別效果明顯好于遠(yuǎn)指節(jié)和中指節(jié).另外,圖像數(shù)據(jù)采集的光線、位置以及圖像的采集方式等因素也都會對識別效果產(chǎn)生一定的影響[6].
以同態(tài)濾波處理后的圖像為觀測集,利用高斯過程分類模型實(shí)現(xiàn)了指節(jié)圖像二類特征的學(xué)習(xí),根據(jù)學(xué)習(xí)得到的圖像分類模型,將測試圖像中的模型似然值作為圖像特征對應(yīng)的信息陣,對含有手指關(guān)節(jié)的手部測試圖像上進(jìn)行固定閾值關(guān)節(jié)目標(biāo)的識別.實(shí)驗(yàn)結(jié)果表明,本文方法對于不同關(guān)節(jié)的識別都得到了比較好的實(shí)驗(yàn)效果,并且可以直接得到后驗(yàn)概率的分布表達(dá)式,提高了關(guān)節(jié)目標(biāo)識別的準(zhǔn)確性和效率,相對于由不同的逼近方法得到的分類器來進(jìn)行實(shí)驗(yàn),速度有了明顯的提高.為手部特征和動作識別、行為理解以及人機(jī)合作智能化裝配等提供了新的途徑,也可應(yīng)用于生物特征的身份識別驗(yàn)證.
參考文獻(xiàn)
1Bhuyan MK,MacDorman KF,Kar MK,et al.Hand pose recognition from monocular images by geometrical and texture analysis.Journal of Visual Languages & Computing,2015,28: 39–55.[doi: 10.1016/j.jvlc.2014.12.001]
2Wang Y,Ewert D,Vossen R,et al.A visual servoing system for interactive human-robot object transfer.Journal of Automation and Control Engineering,2015,3(4): 277–283.[doi: 10.12720/joace.3.4.277-283]
3Corrales JA,García Gómez GJ,Torres F,et al.Cooperative tasks between humans and robots in industrial environments.International Journal of Advanced Robotic Systems,2012,94(9): 1–10.[doi: 10.5772/50988]
4Lenz C,Knoll A.Mechanisms and capabilities for human robot collaboration.Proceedings of the 23rd IEEE International Symposium on Robot and Human Interactive Communication.Edinburgh,UK.2014.666 –671.[doi:10.1109/ROMAN.2014.6926329]
5Tan JTC,Duan F,Kato R,et al.Safety strategy for humanrobot collaboration: Design and development in cellular manufacturing.Advanced Robotics,2010,24(5-6): 839–860.[doi: 10.1163/016918610X493633]
6陸勁挺,賈偉,葉慧,等.指節(jié)紋識別綜述.模式識別與人工智能,2017,30(7): 622–636.[doi: 10.16451/j.cnki.issn1003-6059.201707005]
7Zhang L,Zhang L,Zhang D,et al.Online finger-knuckleprint verification for personal authentication.Pattern Recognition,2010,43(7): 2560–2571.[doi: 10.1016/j.patcog.2010.01.020]
8Usha K,Ezhilarasan M.Hybrid detection of convex curves for biometric authentication using tangents and secants.Proceedings of the 3rd IEEE International Advance Computing Conference.Ghaziabad,India.2013.763–768.
9Vishwakarma S,Agrawal A.A survey on activity recognition and behavior understanding in video surveillance.The Visual Computer,2013,29(10): 983–1009.[doi: 10.1007/s00371-012-0752-6]
10姚爭為,潘志庚.基于體素的人手結(jié)構(gòu)自動估測.中國圖象圖形學(xué)報(bào),2014,19(1): 54–61.[doi: 10.11834/jig.20140107]
11Rehg JM,Kanade T.DigitEyes: Vision-based hand tracking for human-computer interaction.Proceedings of IEEE Worshop on Motion of Non-Rigid and Articulated Objects.Austin,TX,USA.1994.16–22
12Miki? I,Trivedi M,Hunter E,et al.Human body model acquisition and tracking using voxel data.International Journal of Computer Vision,2003,53(3): 199–223.
13Wang L,Li C.Spectrum-based kernel length estimation for Gaussian process classification.IEEE Transactions on Cybernetics,2014,44(6): 805–816.
14Bazi Y,Melgani F.Gaussian process approach to remote sensing image classification.IEEE Transactions on Geoscience and Remote Sensing,2010,48(1): 186–197.
15Hensman J,Matthews A,Ghahramani Z.Scalable variational Gaussian process classification.Proceedings of the 18th International Conference on Artificial Intelligence and Statistics (AISTATS).San Diego,CA,USA.2014.351–360.
16He JJ,Gu H,Wang ZL.Bayesian multi-instance multi-label learning using Gaussian process prior.Machine Learning,2012,88(1-2): 273–295.[doi: 10.1007/s10994-012-5283-x]
17Titsias MK.Variational learning of inducing variables in sparse Gaussian processes.Proceedings of the 12th International Conference on Artificial Intelligence and Statistics (AISTATS).Clearwater Beach,FL,USA.2009.567–574.
18陳春寧,王延杰.在頻域中利用同態(tài)濾波增強(qiáng)圖像對比度.微計(jì)算機(jī)信息,2007,23(2-3): 264–266.