紀啟國
(安徽城市管理職業(yè)學(xué)院 安徽 合肥 230000)
隨著計算機科學(xué)和微電子技術(shù)的飛速發(fā)展,成像傳感器被廣泛運用,面對獲取數(shù)據(jù)種類和數(shù)量急劇增加,傳統(tǒng)的信息處理方法顯然已不能滿足需求,信息融合是一種新的圖像處理技術(shù),它是對多源信息進行不同層次,不同級別的處理和綜合,獲得的信息更為豐富,精確和可靠。圖像融合[1]是以圖像為主要研究對象,涉及圖像處理、信號處理、人工智能等多個學(xué)科,一般可分為三個層次:像素級融合、特征級融合和決策級融合。經(jīng)過多年的發(fā)展,像素級融合出現(xiàn)了一系列的融合算法,從形式上可分為基于空間域的融合和基于變換域的融合。后者一般直接對圖像的像素空間進行融合,而變換域的融合算法是先對融合源圖像進行變換再對變換后的系數(shù)進行組合。兩者是相互聯(lián)系的。目前,基于多尺度變換的圖像算法是主要研究方向之一。多尺度方法是對人眼感知過程進行模擬。通過模板進行層層濾波而形成的。它基本思想是:把源圖像進行多尺度方法分解,再分別對低通或帶通圖像進行融合處理、重構(gòu)最終的圖像。由于許多算法是基于小波變換的,出現(xiàn)了許多新的融合算法,如Li等提出的采用離散小波變換進行圖像融合改善融合效果[2]和融合性能。后來還發(fā)展出多小波整合算法,這種的分析方法更加精確[3]??偠灾?,基于多尺度分解的圖像融合算法可以統(tǒng)一在一種框架下,對于這種統(tǒng)一框架進行了詳細的描述。
目前,絕大部分的融合算法都是在它的框架下展開的,可以認為基于多尺度分解的圖像融合方法是現(xiàn)今的主流方向。但必須注意到該框架也存在很多問題,特別是框架的限制性較強,阻礙了融合研究的發(fā)展。因此迫切地需要引入一些新思想到融合研究中來。其中思路一是將馬爾可夫隨機場引入到融合中[4],利用馬爾可夫隨機場模型對融合進行優(yōu)化。基于馬爾可夫隨機場的圖像融合方法是用適當(dāng)?shù)暮瘮?shù)來表示融合任務(wù)的融合結(jié)果,把原圖像作為一隨機場集進行全局尋優(yōu)。針對不同圖像用回歸分析的方法提取一組統(tǒng)計參數(shù)來表征圖像的局部結(jié)構(gòu)特征,再做相似性測度計算,最后由輸入圖像及其相似性矩陣生成融合后的邊緣圖像。
思路二是利用基于變分偏微分方程建模實現(xiàn)圖像融合。是一種基于物理學(xué)的方法。前期研究主要由Socolinsky[5]完成,它提出了多波段圖像的對比度形式(Contrast Form),進而得到對比度的主分量作為目標(biāo)對比度場,最后構(gòu)造一個能量函數(shù)的極值問題,利用它尋找最接近的圖像作為融合結(jié)果。還有,洪等提出將多個源圖像之間不同的顯著性權(quán)重作為構(gòu)建對比度形式的依據(jù)來融合多聚焦圖像[6]。
近年來,人工智能技術(shù)特別是統(tǒng)計學(xué)習(xí)的研究發(fā)展迅速。在統(tǒng)計學(xué)習(xí)中,當(dāng)我們獲得一組觀測數(shù)據(jù),當(dāng)我們沒有必要建立物理模型時,可以根據(jù)這組數(shù)據(jù)進行推算出數(shù)學(xué)模型,這類模型一般沒有對問題的物理解釋,但是輸入輸出之間反映了問題的實際。對應(yīng)于圖像融合也存在著同樣的問題,利用已有的方法我們很難建立起通用的融合模型,比如在多聚焦圖像中,已有的算法嘗試用局部顯著性、小波能量等指標(biāo)衡量像素的清晰度以構(gòu)建融合圖像,但是已有的這些物理量并不能很好地反映圖像的特性,真正評價融合效果的依據(jù)還是人類視覺。因此通過人工標(biāo)注數(shù)據(jù)學(xué)習(xí)融合的數(shù)學(xué)模型為圖像融合引入了新的思路。目前只有很少的研究人員做過類似的嘗試,如Li等提出利用SVM分類多聚焦圖像的小波特征實現(xiàn)融合[7],Liao等提出結(jié)合小波域隱馬爾科夫模型和最大似然概率的融合規(guī)則[8]。
正是收到上述研究領(lǐng)域成果的啟示,結(jié)合我們已有的多尺度分解和基于偏微分方程建模融合等方面的研究基礎(chǔ),我們認為如果能開展智能化的圖像融合模型的研究,采用多源圖像的智能化分析技術(shù),將會突破已有融合方法的局限,引入新的基于統(tǒng)計學(xué)習(xí)的融合模型,獲得融合性能的提升。
[1]Simone G.,Farina A.,Morabito F.C.,etc.Image Fusion Techniques for Remote Sensing Applications[J].Information Fusion,Elesvier.2002,3:3-15.
[2]Liu Z.,Tsukada K.,Hanasaki K.,Image Fusion by Using Steerable Pyramid[J].Pattern Recognition Letters.2001,22(9):929-939.
[3]洪日昌,吳秀清,袁勛.基于雙正交多小波的多光譜圖像與全色圖像融合研究[J].中國圖像圖形學(xué)報,2007,12(4):684-690.
[4]劉剛,敬忠良,孫韶媛.基于期望值最大算法的圖像融合[J].激光與紅外,2005,35(2):130-133.
[5]Socolinsky D.A,A Variational Approach to Image Fusion[M].Johns Hopkins U-niversity.2000.
[6]Hong R.C.,Wang C.,Wang M.,Wu X.Q.,Zhang R.,Salience Preserving Multi-focus Image Fusion.IEEE International Conference on Multimedia&Expo(ICME)[M].Beijing,China.July,2007.
[7]Li S.T.,Kwok J.T.,Tsang I.W.,Wang Y.N.,Fusing Images with Different Focuses Using Support Vector Machines[M].IEEE Transactions on Neural Networks.2004,5(6):1555-1561.
[8]Liao Z.W.,Hu S.X.,Chen W.F.etc,A Statistical Image Fusion Scheme for Multifocus Applications[M].International Conference on Machine Learning and Cybernetics,2005,9:1096-1105.