亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺仿生的圖像目標分類算法

        2014-09-10 01:18:34柳培忠王守覺
        計算機工程與設(shè)計 2014年5期
        關(guān)鍵詞:亮度分類人類

        柳培忠,王守覺

        (1.華僑大學 工學院,福建 泉州362000;2.中國科學院 蘇州納米技術(shù)與納米仿生研究所,江蘇 蘇州215123)

        0 引 言

        復(fù)雜圖像的目標分類是計算機視覺領(lǐng)域的核心研究熱點之一。而目標分類屬于計算機學科領(lǐng)域的模式識別范疇,更應(yīng)理解為人類對圖像的視覺內(nèi)容認知[1]。傳統(tǒng)的計算機目標分類方法可以概括的分為以下四類:

        (1)基于統(tǒng)計的識別算法

        依據(jù)圖像中目標特性的統(tǒng)計數(shù)據(jù),通過大量數(shù)據(jù)的訓練和基于空間距離的度量特征匹配技術(shù)進行分類。如二維不變矩[2]等,這類圖像的目標分類算法目標和周圍背景變化不大的效果顯著,對目標解決姿態(tài)變化或目標部分被遮擋等問題效果不佳。

        (2)知識理解的目標分類算法

        將專家系統(tǒng)運用到圖像的目標分類中,專家系統(tǒng)是以邏輯推理為基礎(chǔ),如馬爾科夫模型等描述目標的特征量[3]。由于存在可利用的知識源的理解和最后的驗證很困難,因而難以在復(fù)雜變化的圖像中獲得很好的效果。

        (3)模型化的自動分類算法

        采取一種描述圖像空間各種復(fù)雜變化特性的研究方法。如空間投影理論[4]等,該類算法要建立非常復(fù)雜的樣本空間模型。

        (4)人工神經(jīng)網(wǎng)絡(luò)的目標分類算法

        人工神經(jīng)網(wǎng)絡(luò)[5-7]以結(jié)構(gòu)簡單的神經(jīng)元連為基礎(chǔ),通過大量的神經(jīng)元構(gòu)成復(fù)雜的網(wǎng)絡(luò)系統(tǒng),該系統(tǒng)提供更強更豐富的處理信息能力。實現(xiàn)很好的目標識別效果。

        人類視覺仿生的圖像目標分類算法主要研究視覺感知器官對圖像的理解和分析方法,研究人類視覺系統(tǒng)對圖像信息的檢測、提取、整合等過程,實現(xiàn)復(fù)雜圖像的目標分類[8],因而其原理和方法與上述的目標分類算法有著本質(zhì)區(qū)別。

        1 人類大腦的圖像認知

        隨著人類對大腦思維模式的研究不斷深入,其圖像的視覺認知及在人類大腦的反映被清晰地描繪出來[8],基于視覺仿生的圖像理解模型構(gòu)建是通過以下相關(guān)理論來獲取數(shù)學模型:

        1.1 亮度適應(yīng)性原理

        依據(jù)Weber-Fechner定律,人眼對圖像視覺的亮度差別感覺取決于相對圖像亮度變化[9]。即人眼的主觀感覺亮度與實際亮度之間的關(guān)系不是線性關(guān)系,而是一個積分關(guān)系如下所示

        式中:I——圖像的光分布,γ——相對光強度效率函數(shù),亮度 (光強度)與環(huán)境有關(guān)。

        生物學研究表明,人眼對圖像內(nèi)容的主觀亮度是圖像內(nèi)容進入眼睛的光強度的對數(shù)函數(shù)。圖1為實際圖像所含的光強度對數(shù)與人眼的主觀亮度的關(guān)系曲線關(guān)系。

        圖1 光強對數(shù)與主觀亮度關(guān)系曲線

        1.2 視皮層生理及仿生理解

        人視覺系統(tǒng)從復(fù)雜的圖像背景中快速辨認出要分類的目標信息是一項熱門的研究問題,在人眼的視皮層中,有一種與處理大范圍復(fù)雜圖像特征有關(guān)的功能結(jié)構(gòu)[8],如圖2所示。

        (1)人類視覺處理系統(tǒng)對圖像視覺信息認知存在兩種狀態(tài):靜態(tài)和動態(tài)。

        1)對圖像中對象的認識通過靜態(tài)信息處理通路完成;

        2)對圖像對象中的空間定位則由動態(tài)信息處理通路實現(xiàn)處理。

        (2)無論靜態(tài)還是動態(tài)的視覺信息,人類視覺處理系統(tǒng)采取層次化的結(jié)構(gòu)進行處理。層次化的各層次之間,既有前饋連接聯(lián)系,又有反饋連接聯(lián)系。

        (3)人類視覺處理系統(tǒng)對圖像視覺信息的獲取不是均勻處理,而是根據(jù)視覺場景的內(nèi)容及具體的視覺任務(wù),人類視覺處理系統(tǒng)會選擇部分信息 (如顏色、亮度、形狀、運動狀態(tài)等視覺信息)進行重點處理。

        圖2 視皮層結(jié)構(gòu)

        基于上述人類視覺系統(tǒng)的功能特性,本文提出了一種模擬人類視覺處理方法的圖像目標分類算法。

        2 圖像目標分類算法

        (1)基于亮度適應(yīng)性原理,首先對圖像進行整體亮度自適應(yīng)調(diào)整[9],使得調(diào)整后圖像的亮度信息符合人類視覺處理系統(tǒng)對圖像信息的理解;

        (2)依據(jù)人類視覺系統(tǒng)視皮層的層次圖像理解機制,視皮層中靜態(tài)和動態(tài)視覺信息關(guān)注的圖像內(nèi)容不同,構(gòu)造一個基于層次化的圖像目標分類方法;

        (3)依據(jù)人類特有的形象思維原理實現(xiàn)對目標信息的特征分類。

        2.1 圖像整體亮度自適應(yīng)調(diào)整

        依據(jù)上述人類對圖像的理解機制,本文的圖像整體亮度變換是對圖像整體明暗程度進行調(diào)整,通過對圖像中暗區(qū)域的像素點進行局部的增強和降低,以適應(yīng)人類視覺系統(tǒng)對于圖像光強的需要,其調(diào)整如下描述:

        (1)基于視覺仿生的圖像整體亮度獲取

        實驗表明,在一定的范圍內(nèi),數(shù)字圖像亮度的LOG值與人類的視覺響應(yīng)近似成線性關(guān)系。人類對圖像的視覺仿生特性通過用式 (2)的亮度值變化描述

        (2)基于視覺仿生的圖像非線性亮度變換

        為使得圖像中某些區(qū)域亮度過高的亮度值降下來,本文通過引入一個非線性亮度壓縮調(diào)整,使得圖像整體更為適合視覺特性,如下所示

        寶雞市位于陜西省關(guān)中平原西部,東連咸陽市,南接漢中市,西北與甘肅省天水市和平?jīng)鍪信彙H休爡^(qū)南北長約160.6km,東西寬約156.6km,總面積18 172km2,轄三區(qū)九縣。

        式中:Is——原圖信息,β——亮度調(diào)整的強度因子,具體值和Im有關(guān),且大于1;I′——視覺仿生的非線性亮度變換后的圖像。

        為了驗證本文視覺仿生調(diào)整算法對圖像視覺仿生的適應(yīng)性,本文通過對不同類型的圖像目標進行亮度調(diào)整分析,如圖3和圖4所示,本文算法提出的亮度調(diào)整算法與其它算法比較,通過實驗分析可見,本文算法具有很好的魯棒性,其亮度調(diào)整結(jié)果基本符合人類的視覺感知,而文獻 [9]算法相對來說并不太符合視覺感知特性。

        圖3 亮度調(diào)整比較 (一)

        2.2 圖像目標分類方法

        人類獲取圖像同類目標的流程:依據(jù)人類視覺原理,本文提出了一種基于仿生原理的圖像同類目標方法[11]。如圖5所示,該方法融合了人類視覺系統(tǒng)中的反饋機制,包含了人類已經(jīng)認知的目標數(shù)據(jù)庫。

        基于內(nèi)容的圖像層次化是模仿大腦進行目標分類的前提;而反饋機制提取層次化后圖像的目標區(qū)域,提高分類的精度。圖像目標區(qū)域提取后,下一步目標區(qū)的特征與人類記憶的數(shù)據(jù)庫比較,判斷目標區(qū)域是否與人類認識一致。

        圖4 亮度調(diào)整比較 (二)

        圖5 仿生圖像目標分類流程

        具體步驟如下:

        步驟1 人類視覺對亮度的敏感度遠遠超過對顏色的敏感,在仿生視覺計算中,采用HSI空間進行對圖像進行空間轉(zhuǎn)化處理,如下所示

        其中

        步驟2 依據(jù)視皮層的視網(wǎng)膜感受野對視覺信息的感受機理,通過三維高斯函數(shù)獲得圖像主觀感覺亮度,如下所示

        式中:A1、A2、A3——中央、四周和邊緣的權(quán)值系數(shù),σ1、σ2、σ3——中央、四周和邊緣的參數(shù)。

        在處理圖像亮度對比變化時,該模型符合人類認識圖像內(nèi)容的原理[12],圖像中間信息包含的能量大且區(qū)域集中,需要中間區(qū)域的能量增強;中間的四周區(qū)域?qū)儆谳o助作用,包含信息的能量較??;而邊緣包含的信息豐富,能量大,因而可有效地實現(xiàn)視皮層感受野認知的圖像內(nèi)容層次化。

        步驟3 在步驟2獲取目標區(qū)域后,接著進行目標區(qū)域的邊界確定,本文采取Sobel算子邊界確定方法,改進的Sobel算子對噪聲具有一定的抑制能力。

        (1)為達到更好的邊緣檢測效果,本文對Sobel算子進行改進,確定某個點X在8個方向的邊緣方向式子,例如在45°邊緣方向,改進后的算子如式 (6)所示,對某個點X進行計算相鄰8個點的亮度值,最大值對應(yīng)的方向為該點X的邊緣方向

        (2)上述檢測到的層次邊緣包含噪聲,為了實現(xiàn)目標區(qū)域的準確劃分層次,本文設(shè)置的閾值θ(θ為經(jīng)驗值,依據(jù)圖像大小自動調(diào)整),將像素數(shù)目小于θ的點自動剔除,用于去除噪聲,然后對得到的結(jié)果進行形態(tài)學運算以得到最優(yōu)的邊緣曲線[13]。

        2.3 圖像目標的特征分類方法

        文獻 [10]已經(jīng)對圖像特征分類方法做了大量的研究工作,圖像目標的理解更多體現(xiàn)在形象思維方面,本文按照文獻 [10]的圖像特征分類方法對圖像目標的特征提取。

        3 實驗分析

        3.1 圖像目標分類分析

        如圖6和圖7所示是本文分析各種算法的目標分類結(jié)果,圖像中同類目標本文用同一種顏色進行表示,不同類的目標用不同的顏色區(qū)分。

        本文可以看出,相對于另外3種算法,本文算法的目標分析總體上來說比較好,能夠比較準確地認識出圖像里的同類目標。

        3.2 分類準確率分析

        本文用COREL標準圖像數(shù)據(jù)庫作為測試數(shù)據(jù)源,用本文算法、文獻 [14]、文獻 [15]和文獻 [16]等計算比較的分類準確率 (見表1)。計算方法:統(tǒng)計能正確識別圖像中不同類的數(shù)目占圖像庫的百分比。

        圖6 同類目標提取比較 (一)

        圖7 同類目標分類比較 (二)

        4 結(jié)束語

        圖像的目標識別在眾多領(lǐng)域及其重要,特別是軍工、航天等特殊行業(yè)的應(yīng)用,隨著各種仿生技術(shù)在當前的模式識別應(yīng)用領(lǐng)域的不斷深入,仿生技術(shù)也在不斷成熟和完善,其實現(xiàn)的原理更符合自然界的規(guī)律,因此探索一種視覺仿生的圖像目標分類算法一直是一項很有意義的工作。

        總之本文在分析了當前圖像目標獲取算法的發(fā)展現(xiàn)狀,提出了視覺仿生的圖像目標分類算法,通過實驗分析驗證算法的優(yōu)越性,但在圖像的語義分析方面還存在眾多不足,以后繼續(xù)研究的方向。

        [1]HUANG Shuangping.Study on key technologies of generic visual object recognition [D].Guangzhou:South China University of Technology,2011:10-26 (in Chinese). [黃雙萍.通用視覺目標識別的關(guān)鍵技術(shù)研究 [D].廣州:華南理工大學,2011.]

        [2]XUE Bindang.Fresnel transform based invariant moments extraction and object recognition method [J].Journal of Beijing University of Aeronautics and Astronautics,2012,38 (8):1001-1005 (in Chinese). [薛斌黨.基于菲涅耳變換的不變矩提取及目標識別方法 [J].北京航空航天大學學報,2012,38(8):1001-1005.]

        [3]LEI Xiaogang.Fast segmentation approach for SAR image based on simple Markov random field [J].Journal of Systems Engineering and Electronics,2010,21 (1):31-36.

        [4]Myung J C,Torralba A,Willsky A S.A tree-based context model for object recognition [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34 (2):240-252.

        [5]Mutch J.Multiclass object recognition with sparse,localized features [C]//New York:IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006:11-18.

        [6]Bosch.Scene classification using a hybrid generative/discriminative approach [J].IEEE Trans Pattern Analysis and Machine Intelligent,2008,30 (4):712-727.

        [7]Kawasaki K.Learning to recognize visual objects with microstimulation in inferior temporal cortex [J].Journal of Neurophysiology,2008,100 (1):197-211.

        [8]WEI Longsheng.Research on the computation models of attention mechanism in the visual information processin [D].Wuhan:Huazhong University of Science and Technology,2011:14-81(in Chinese).[魏龍生.視覺信息處理中注意機制計算模型研究 [D].武漢:華中科技大學,2011:14-81.]

        [9]CHEN Chen.An adaptive biomimetic image processing method:LDRF algorithm [J].CAAI Transactions on Intelligent Systems,2012,7 (5):404-408 (in Chinese). [諶琛.一種自適應(yīng)的仿生圖像增強方法:LDRF算法 [J].智能系統(tǒng)學報,2012,7 (5):404-408.]

        [10]WANG Shoujue.An image retrieval algorithm based on biomimetic imaginal thinking [J].ACTA Electronica Sinica,2010,38(5):1-4 (in Chinese).[王守覺.基于仿生形象思維方法的圖像檢索算法 [J].電子學報,2010,38 (5):1-4.]

        [11]WANG Shoujue. Analysis and theory of high-dimension spacegeometry for artificial neural networks [J].ACTA Electronica Sinica,2010,38 (5):1-4 (in Chinese). [王守覺.人工神經(jīng)網(wǎng)絡(luò)的多維空間幾何及其理論 [J].電子學報,2002,28 (5):1-4.]

        [12]GAO Qingyi.Target recognition algorithm based on visual perception [J].Journal of Harbin Institute of Technology,2013,45 (1):101-105 (in Chinese).[高慶一.視覺感知的目標識別算法 [J].哈爾濱工業(yè)大學學報,2013,45 (1):101-105.]

        [13]CAO Jiannong.Review on image segmentation based on entropy [J].PR & AI,2012,25 (6):958-971 (in Chinese).[曹建農(nóng).圖像分割的熵方法綜述 [J].模式識別與人工智能,2012,25 (6):958-971.]

        [14]KUANG Jinjun.Kernel sparse representation classification and multi-scale block rotation-extension based robust image recognition method [J].PR & AI,2012,26 (2):129-135(in Chinese).[匡金駿.基于核稀疏分類與多尺度分塊旋轉(zhuǎn)擴展的魯棒圖像識別 [J].模式識別與人工智能,2012,26(2):129-135.]

        [15]Yang J.Group-sensitive multiple kernel learning for object recognition [J].IEEE Transactions on Image Processing,2012,21 (5):2838-2852.

        [16]Koen E A.Cees Snoek.Evaluating color descriptors for object and scene recognition [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32 (9):1582-1596.

        猜你喜歡
        亮度分類人類
        人類能否一覺到未來?
        分類算一算
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        1100億個人類的清明
        分類討論求坐標
        亮度調(diào)色多面手
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        亮度一樣嗎?
        基于斬波調(diào)制的LED亮度控制
        中文字幕免费在线观看动作大片| 国产女主播强伦视频网站| 麻豆成人久久精品二区三区91| 国产熟女盗摄一区二区警花91| 又色又爽又高潮免费视频观看| 天美麻花果冻视频大全英文版 | 亚洲国产精品夜男人天堂| 一级黄色一区二区三区| 精品国产青草久久久久福利| 精品人体无码一区二区三区 | 91视色国内揄拍国内精品人妻| 国产综合在线观看| 牛牛本精品99久久精品88m| 18禁黄无遮挡免费网站| 偷拍综合在线视频二区日韩| 巨大巨粗巨长 黑人长吊| 亚洲视频毛片| 亚洲区福利视频免费看| 二区三区三区视频在线观看| 精品成人av一区二区三区| 伊人久久一区二区三区无码 | 国产精品激情| 亚洲欧美国产日韩字幕| 午夜国产小视频在线观看黄| 日本一区二区三区视频网站| 女人扒开屁股爽桶30分钟| 欧美xxxx新一区二区三区| 中国黄色偷拍视频二区| 久久婷婷五月综合色丁香| 亚洲色自偷自拍另类小说| 欧美亚洲另类国产18p| 水蜜桃在线精品视频网| 午夜福利av无码一区二区| 国产一级毛片AV不卡尤物| 国产高清不卡在线视频| 天天做天天爱夜夜爽女人爽| 久久中文字幕人妻熟av女蜜柚m| 丝袜 亚洲 另类 欧美| 日韩人妻系列在线观看| 亚洲人成网址在线播放| 亚洲AV肉丝网站一区二区无码 |