亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于紋理特征的圖像復(fù)雜度研究

        2015-02-22 07:29:18陳燕芹錢小飛
        中國光學(xué) 2015年3期
        關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò)

        陳燕芹,段 錦*,祝 勇,錢小飛,肖 博

        (1.長春理工大學(xué) 電子信息工程學(xué)院,吉林 長春 130022;

        2.長春理工大學(xué) 計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,吉林 長春 130022;

        3. 長春理工大學(xué) 空間光電技術(shù)研究所,吉林 長春 130022)

        ?

        基于紋理特征的圖像復(fù)雜度研究

        陳燕芹1,3,段錦1,3*,祝勇2,錢小飛1,肖博1

        (1.長春理工大學(xué) 電子信息工程學(xué)院,吉林 長春 130022;

        2.長春理工大學(xué) 計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,吉林 長春 130022;

        3. 長春理工大學(xué) 空間光電技術(shù)研究所,吉林 長春 130022)

        摘要:為了更好地描述圖像內(nèi)部的復(fù)雜程度,建立圖像復(fù)雜度與各指標(biāo)之間的數(shù)學(xué)模型是研究圖像復(fù)雜度最關(guān)鍵的一步。首先從圖像紋理出發(fā),試圖建立圖像復(fù)雜度與各指標(biāo)之間定量、精確的數(shù)學(xué)關(guān)系描述。針對(duì)目前圖像復(fù)雜度與各衡量指標(biāo)之間沒有明確的數(shù)學(xué)關(guān)系的特點(diǎn),文中采用灰度共生矩陣對(duì)紋理的主要特征參數(shù)進(jìn)行分析,提出了基于BP神經(jīng)網(wǎng)絡(luò)的圖像復(fù)雜度評(píng)價(jià)方法,建立了圖像復(fù)雜度與各個(gè)指標(biāo)之間非線性的數(shù)學(xué)評(píng)價(jià)模型。通過大量的圖片對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練學(xué)習(xí),得到各指標(biāo)的權(quán)重值。驗(yàn)證結(jié)果表明,所建評(píng)價(jià)模型能夠真實(shí)地反映圖像內(nèi)部的復(fù)雜程度,獲得的實(shí)驗(yàn)結(jié)果與人類視覺感知的結(jié)果基本一致。對(duì)于將BP神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像復(fù)雜度的研究具有一定的參考價(jià)值。

        關(guān)鍵詞:圖像復(fù)雜度;紋理特征;灰度共生矩陣;BP神經(jīng)網(wǎng)絡(luò);權(quán)重系數(shù)

        Research on the image complexity based on texture features

        CHEN Yan-qin1,3, DUAN Jin1,3*, ZHU Yong2, QIAN Xiao-fei1, XIAO Bo1

        (1.SchoolofElectronicandInformationEngineering,ChangchunUniversityof

        ScienceandTechnology,Changchun130022,China;

        1引言

        圖像復(fù)雜度一直是圖像工程領(lǐng)域研究的一個(gè)熱點(diǎn)和難點(diǎn)問題。針對(duì)這一問題的解決方法有好多種,但因各自的關(guān)注點(diǎn)不同方向也各有特色。Peters等人從灰度級(jí)和邊緣兩個(gè)方面對(duì)圖像的復(fù)雜度進(jìn)行了全面詳細(xì)的描述[1]。高振宇等在結(jié)合Peters等人研究的基礎(chǔ)上提出了用圖像的信息熵、邊緣信息和紋理等相關(guān)因子來分析圖像的復(fù)雜度,最后用等權(quán)重系數(shù)加權(quán)求和來計(jì)算圖像的復(fù)雜度值[2]。Walker等人利用圖像的紋理特征對(duì)圖像的復(fù)雜度進(jìn)行研究,采用灰度共生矩陣對(duì)紋理特征進(jìn)行分析和分類[3]。

        Chacon等人用一種模糊理論的方法來描述圖像的復(fù)雜度,在圖像邊緣水平百分比的基礎(chǔ)上對(duì)圖像的復(fù)雜度進(jìn)行分析。首先利用一種模糊聚類工程,把圖像復(fù)雜度分為不復(fù)雜、有點(diǎn)復(fù)雜和很復(fù)雜3個(gè)等級(jí),然后用一組區(qū)間映射函數(shù)計(jì)算該類中的成員,文獻(xiàn)中用模糊復(fù)雜性測量方案作為檢測圖像邊緣的標(biāo)準(zhǔn),該方法不包含人類主觀評(píng)價(jià)結(jié)果[4-5]。

        大多數(shù)文獻(xiàn)只是對(duì)圖像進(jìn)行了定性的描述,或者沒有考慮各指標(biāo)間權(quán)重的不同,沒有給出準(zhǔn)確、定量的描述方法[6-10]。本文所描述的圖像復(fù)雜度是指圖像整體復(fù)雜度,即整幅圖像相鄰像素間的變化情況。文中從圖像的整體描述入手,對(duì)圖像的復(fù)雜度有一個(gè)全局的了解,以便后續(xù)圖像復(fù)雜度的研究。采用BP神經(jīng)網(wǎng)絡(luò)得到各衡量指標(biāo)的權(quán)重系數(shù),建立了能定量描述圖像復(fù)雜度的數(shù)學(xué)模型。

        2圖像復(fù)雜度的特征參數(shù)

        對(duì)圖像復(fù)雜度的研究可以從不同的方面來描述,本文基于圖像的紋理特征來研究圖像的復(fù)雜度。從紋理方面對(duì)圖像的復(fù)雜度進(jìn)行研究的文獻(xiàn)有許多[3-7],但多半是從紋理方面對(duì)圖像的復(fù)雜度進(jìn)行了分析,沒能具體計(jì)算出圖像的復(fù)雜度。文中用灰度共生矩陣提取圖像的紋理特征,用以描述圖像的灰度空間分布情況和圖像整體的復(fù)雜程度。

        灰度共生矩陣[2,6-7]定義為圖像中相距為δ=(Δx,Δy)的兩個(gè)灰度像素同時(shí)出現(xiàn)的聯(lián)合概率分布。不同的δ決定了兩個(gè)像素間的距離d(d>0)和方向θ,常用的有4個(gè)方向上的位置關(guān)系:0°方向,δ(0,±d);45°方向,δ=(d,-d)和δ=(-d,d);90°方向,δ=(±d,0);135°方向,δ=(d,d)和δ=(-d,-d)。用p(i,j,d,θ)表示此灰度共生矩陣G。從灰度共生矩陣中提取出5個(gè)常用的特征參數(shù)進(jìn)行圖像復(fù)雜度的模型計(jì)算。

        (1)能量:能量用來描述圖像灰度均勻性的分布情況。當(dāng)灰度共生矩陣中元素分布較集中于主對(duì)角線附近時(shí),J值相應(yīng)較大,說明圖像的灰度分布比較均勻,從圖像整體看,紋理較粗;反之,紋理較細(xì)。

        (1)

        (2)熵:熵值用來描述圖像所包含的信息量,若圖像中沒有紋理,則灰度共生矩陣幾乎為零陣,熵值接近于零;若圖像中細(xì)紋理較多,則圖像的熵值較大;若圖像中細(xì)紋理較少,則圖像的熵值較小。

        (2)

        (3)對(duì)比度:對(duì)比度可以用來描述圖像的清晰程度,即紋理的清晰程度。在圖像中,紋理越清晰,相鄰像素對(duì)的灰度差別就越大,其對(duì)比度G越大。

        (3)

        (4)同質(zhì)性:同質(zhì)性可以用來描述圖像紋理局部變化的多少。若圖像紋理的不同區(qū)域間變化少,局部非常均勻,則Q值大;反之則小。

        (4)

        (5)相關(guān)性:相關(guān)性可以用于衡量灰度共生矩陣的元素在行(列)方向的相似程度,因此相關(guān)性值大小反映了圖像中局部灰度的相關(guān)性(COV)。當(dāng)行(列)相似程度高時(shí),則COV值較大,相應(yīng)圖像復(fù)雜度較小,反之復(fù)雜度較大。

        (5)

        式中,μ1、μ2分別代表元素沿歸一化后的G的行、列方向上的均值,σ1、σ2分別代表其均方差,K為方陣G的行(或列)數(shù)。

        本文根據(jù)以上確定的特征參數(shù)指標(biāo),采用BP神經(jīng)網(wǎng)絡(luò)來評(píng)估圖像的復(fù)雜度f,可以根據(jù)不同的域值,把圖像的復(fù)雜程度劃分為不同的等級(jí),見表1。

        表1 圖像復(fù)雜度等級(jí)劃分

        3圖像復(fù)雜度評(píng)價(jià)模型

        BP神經(jīng)網(wǎng)絡(luò)[11,12]最大優(yōu)勢在于它可以在不知道數(shù)據(jù)產(chǎn)生原因的條件下,對(duì)非線性過程建模,有效的消弱了指標(biāo)權(quán)重確定中人為因素的影響。模型的構(gòu)建過程能反映出各指標(biāo)權(quán)重的變化情況,提高了評(píng)價(jià)的科學(xué)性、有效性和實(shí)效性。

        3.1 BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法

        BP算法的基本思想是根據(jù)樣本的希望輸出與實(shí)際輸出之間的平均誤差,利用梯度下降法,從輸出層開始,逐層修正權(quán)系數(shù)(向量)。BP算法正向傳播階段是訓(xùn)練學(xué)習(xí),反向傳播階段是調(diào)整修正。

        BP網(wǎng)絡(luò)模型如圖1所示,其中,I為輸入層,J為隱含層,K為輸出層,Wji為第J層節(jié)點(diǎn)的權(quán)系數(shù),Wkj為第K層節(jié)點(diǎn)的權(quán)系數(shù)。

        圖1 BP網(wǎng)絡(luò)模型 Fig.1 BP network model

        BP網(wǎng)絡(luò)的學(xué)習(xí)算法步驟如下:

        (1)初始化,網(wǎng)絡(luò)中所有權(quán)系數(shù)賦初值(較小的隨機(jī)數(shù)),確定訓(xùn)練樣本集。

        設(shè)有n個(gè)訓(xùn)練樣本,每一訓(xùn)練樣本有m個(gè)指標(biāo),則可得到如式(6)所示的初始信息矩陣。

        (6)

        (7)

        式中,i=1,2,…n;j=1,2,…,m。

        (2)計(jì)算各層輸出,先計(jì)算隱含層各節(jié)點(diǎn)的輸出,再計(jì)算輸出層各節(jié)點(diǎn)的輸出:

        (8)

        (9)

        式中,j=1,2,…h(huán),k=1,2,…,c。

        網(wǎng)絡(luò)訓(xùn)練,先計(jì)算網(wǎng)絡(luò)誤差,再根據(jù)網(wǎng)絡(luò)誤差對(duì)各層進(jìn)行權(quán)值調(diào)整,直到滿足訓(xùn)練精度,訓(xùn)練結(jié)束,最后得到各層的權(quán)重值。

        從輸出層開始,先修正Wkj,再修正隱含層的權(quán)重系數(shù)Wji:

        (10)

        (11)

        式中,k=1,2,…,c;j=1,2,…,h+1。

        (12)

        (13)

        式中,j=1,2,…,c;j=1,2,…n+1。

        3.2 評(píng)價(jià)指標(biāo)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        為了獲得各評(píng)價(jià)指標(biāo)的權(quán)重,我們采用神經(jīng)網(wǎng)絡(luò)技術(shù),首先要確定各神經(jīng)網(wǎng)單元數(shù),因本文的評(píng)價(jià)指標(biāo)為5個(gè),BP神經(jīng)網(wǎng)絡(luò)的輸入層節(jié)點(diǎn)數(shù)為5個(gè),輸出層神經(jīng)元個(gè)數(shù)確定為1,一般要求網(wǎng)絡(luò)隱含層的神經(jīng)元數(shù)目大于輸入層神經(jīng)元和輸出層神經(jīng)元數(shù)目和的一半,小于輸入層神經(jīng)元和輸出層神經(jīng)元數(shù)目的和,所以隱含層神經(jīng)元個(gè)數(shù)為4個(gè),各神經(jīng)網(wǎng)絡(luò)的具體參數(shù)見表2。

        表2 圖像紋理評(píng)價(jià)各神經(jīng)網(wǎng)絡(luò)參數(shù)表

        4實(shí)驗(yàn)結(jié)果及分析

        4.1 具體實(shí)例權(quán)重確定

        本文選取了3組不同等級(jí)復(fù)雜度(不復(fù)雜,有點(diǎn)復(fù)雜和很復(fù)雜)的圖片,每組選擇200張有代表性圖片作為訓(xùn)練樣本集,對(duì)建立的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練學(xué)習(xí),通過Matlab進(jìn)行仿真訓(xùn)練。選擇文獻(xiàn)[2]中的三組不同復(fù)雜度圖片(如圖2)作為測試樣本對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行測試[12-13]。表3中各指標(biāo)均為歸一化后的數(shù)值,其數(shù)據(jù)分布在(0,1)之間。表3為BP神經(jīng)網(wǎng)絡(luò)測試所用圖2 15幅圖片的5個(gè)特征參數(shù)的樣本數(shù)值,評(píng)價(jià)結(jié)果為各圖片根據(jù)人類視覺感知[14-15]得到的,在此作為各訓(xùn)練樣本的期望輸出。

        圖2 不同等級(jí)復(fù)雜度的測試圖片 Fig.2 Test images of different levels of complexity

        建立神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法是為了得到各指標(biāo)的權(quán)重系數(shù),而神經(jīng)網(wǎng)絡(luò)訓(xùn)練得到的是各神經(jīng)元之間的關(guān)系,要想得到輸入層與輸出層之間的關(guān)系,需要對(duì)各神經(jīng)元之間的權(quán)重系數(shù)進(jìn)行如下處理[12]。

        表3 圖像紋理BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練的樣本數(shù)據(jù)

        相關(guān)顯著性系數(shù):

        (14)

        (15)

        相關(guān)指數(shù):

        (16)

        (17)

        絕對(duì)影響系數(shù):

        (18)

        上述公式中,i為神經(jīng)網(wǎng)絡(luò)輸入單元,I=1,2,…,n;j為神經(jīng)網(wǎng)絡(luò)隱含層單元,j=1,2,…,h;k為神經(jīng)網(wǎng)絡(luò)輸出單元,k=1,2,…,c;Wji為第J層節(jié)點(diǎn)的權(quán)系數(shù);Wkj為第K層節(jié)點(diǎn)的權(quán)系數(shù)。

        上述3個(gè)相關(guān)系數(shù)中絕對(duì)影響系數(shù)Sik就是所求的權(quán)重。

        運(yùn)用式(14)~(18)求得各指標(biāo)的權(quán)重系數(shù),如表4所示。

        表4 圖像復(fù)雜度評(píng)價(jià)指標(biāo)權(quán)重

        4.2 復(fù)雜度模型及結(jié)果分析

        綜合以上分析,本文選擇圖像紋理的能量J、熵H、對(duì)比度G、同質(zhì)性Q和相關(guān)性COV五個(gè)特征參數(shù)作為評(píng)價(jià)指標(biāo),對(duì)評(píng)價(jià)指標(biāo)均進(jìn)行了歸一化處理并轉(zhuǎn)化成與圖像復(fù)雜度呈正相關(guān)的度量指標(biāo),利用BP神經(jīng)網(wǎng)絡(luò)求得各評(píng)價(jià)指標(biāo)的權(quán)重系數(shù),圖像復(fù)雜度計(jì)算模型為:

        F=A1WJ+A2WH+A3WG+A4WQ+A5WCOV

        式中,Ai為各指標(biāo)的權(quán)重系數(shù),Wj代表上述參量經(jīng)過轉(zhuǎn)換的指標(biāo),i=1,2,…,5。

        為了驗(yàn)證和比較該方法的有效性,實(shí)驗(yàn)選用文獻(xiàn)[4]中的3種不同等級(jí)復(fù)雜度的圖片作為測試樣本,如圖2所示,分別計(jì)算它們的復(fù)雜度并與文獻(xiàn)[4]中計(jì)算結(jié)果作對(duì)比。表5為分別用基于人類視覺感知和基于模糊理論方法及本文基于BP神經(jīng)網(wǎng)絡(luò)3種不同的方法計(jì)算的圖像復(fù)雜度。

        表5 本文方法與文獻(xiàn)[4]方法對(duì)比表

        根據(jù)圖3中數(shù)據(jù)變化趨勢可知,在圖2a~o的15幅圖像中,由人類視覺感知得到的圖像復(fù)雜度曲線相對(duì)比較曲折,文獻(xiàn)[4]中基于模糊理論計(jì)算的圖像復(fù)雜度曲線基本上是從簡單到復(fù)雜逐步上升的,本文方法的計(jì)算結(jié)果與人類視覺感知結(jié)果對(duì)圖像復(fù)雜度的描述趨勢大致相同,而采用

        文獻(xiàn)[4]中基于模糊理論的計(jì)算結(jié)果與人類視覺感知結(jié)果對(duì)圖像復(fù)雜度的描述趨勢不太相似,本文方法的計(jì)算結(jié)果更趨于人類視覺感知結(jié)果,可用該方法近似代替人類視覺感知對(duì)圖像復(fù)雜度的描述。結(jié)合神經(jīng)網(wǎng)絡(luò)理論與機(jī)器學(xué)習(xí)法,根據(jù)圖像紋理的不同特征,構(gòu)造BP神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行訓(xùn)練學(xué)習(xí),得到各指標(biāo)的權(quán)重系數(shù),采用多特征決策加權(quán)法得到最終的檢測結(jié)果,這不僅能自適應(yīng)地確定不同特征的權(quán)重,也大大提升了檢測圖像復(fù)雜度的準(zhǔn)確率。

        圖3 圖像復(fù)雜度3種結(jié)果比較 Fig.3 Comparison of three image complexity results

        5結(jié)論

        本文構(gòu)建了基于圖像紋理特征的圖像復(fù)雜度評(píng)估模型,針對(duì)圖像復(fù)雜度各個(gè)度量指標(biāo)間權(quán)重大小的不同,文中采用BP神經(jīng)網(wǎng)絡(luò)技術(shù)建立數(shù)學(xué)模型來確定權(quán)重系數(shù),該方法可以很好的解決指標(biāo)權(quán)重主觀性的問題,更真實(shí)地反映各個(gè)指標(biāo)的權(quán)值。實(shí)驗(yàn)結(jié)果表明:該方法不僅能自適應(yīng)地確定不同特征的權(quán)重,也能比較準(zhǔn)確地描述圖像的復(fù)雜程度,對(duì)以后的學(xué)習(xí)具有一定的研究價(jià)值。

        參考文獻(xiàn):

        [1]PETERS II R,STRICKLAND R. Image complexity metrics for automatic Target recognizers[C]. In:Automatic Target Recognizer System and Technology Conference,October 1990:1-17.

        [2]高振宇,楊曉梅,龔劍明,等.圖像復(fù)雜度描述方法研究[J].中國圖像圖形學(xué)報(bào),2010,15(1):129-135.

        GAO ZH Y,YANG X M,GONG J M,etal.. Research on image complexity description methods[J].J.ImageandGraphics,2010,15(1):129-135.(in Chinese)

        [3]ZOU J,LIU CH C. Texture classification by matching co-occurrence matrices on statistical manifolds[C]. 10th IEEE International Conference on Computer and Information Technology(CIT 2010),Bradford,UK,June 29-July1,2010:1-7.

        [4]MARIO I,CHACON M,ALMA D,etal.. Image complexity measure:a human criterion free approach[C]. in:Proc. NAFIPS 2005 IEEE,Detroit,MI,USA,June 26-28,2005:241-246.

        [5]Mario I C M,Luis E A D,Abdi D S. A fuzzy approach on image complexity measure[J].ComputaciónySistemas,2007,10(3):268-284.

        [6]白雪冰,王克奇,王輝.基于灰度共生矩陣的木材紋理分類方法的研究[J].哈爾濱工業(yè)大學(xué)學(xué)報(bào),2005,37(12):1667-1670.

        BAI X B,WANG K Q,WANG H. Research on the classification of wood texture?based on gray level Co-occurrence Matrix[J].J.HarbinInstituteofTechnology,2005,37(12):1667-1670.(in Chinese)

        [7]楊凱陟,程英蕾.基于灰度共生矩陣的SAR圖像紋理特征提取方法[J].電子科技,2011,24( 10):66-69.

        YANG K S,CHENG Y L. Based on gray level Co-occurrence matrix of SAR image texture feature extraction method[J].ElectronicSci..&.Tech.,2011,24(10):66-69.(in Chinese)

        [8]王瑩,王延杰,周渝人,等.基于參數(shù)平面的自適應(yīng)調(diào)和紋理映射算法[J].液晶與顯示,2014,29(5):818-823.

        WANG Y,WANG Y J,ZHOU Y R,etal.. Based on the parameter plane of the adaptive harmonic texture mapping algorithm[J].ChineseJ.LiquidCrystalsandDisplays,2014,29(5):818-823.(in Chinese)

        [9]王田,劉偉寧,孫海江,等.基于復(fù)雜度和方向梯度的紅外弱小目標(biāo)檢測方法[J].液晶與顯示,2012,27(5):692-696.

        WNAG T,LIU W N,SUN H J,etal.. Infrared weak small targets detection based on complexity and direction of the gradient method[J].ChineseJ.LiquidCrystalsandDisplays,2012,27(5):692-696.(in Chinese)

        [10]錢思進(jìn),張恒,何德全.基于圖像視覺復(fù)雜度計(jì)算的分類信息隱藏圖像庫[J].解放軍理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2010,11(1):26 -30.

        QIAN S J,ZHANG H,HE D Q. The complexity of computing the classification of information hiding based on image vision image library[J].J.PLAuniversityofScienceandTechnology(Natural Science Edition),2010,11(1):26 -30.(in Chinese)

        [11]周開利,康耀紅.神經(jīng)網(wǎng)絡(luò)模型及其MATLAB仿真程序設(shè)計(jì)[M].北京:清華大學(xué)出版社,2005:73-74.

        ZHOU K L,KANG Y H.NeuralNetworkModelandMATLABSimulationProgramming[M]. Beijing:Tsinghua University press,2005:73-74.(in Chinese)

        [12]孫會(huì)君,王新華.應(yīng)用人工神經(jīng)網(wǎng)絡(luò)確定評(píng)價(jià)指標(biāo)的權(quán)重[J].山東科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2001,3(9):84-86.

        SUN H J,WANG X H. Application of artificial neural networks to determine the evaluation index weights[J].ShandongUniversityofScienceandTechnology(Natural Science),2001,3(9):84-86.(in Chinese)

        [13]金煒,符冉迪,范亞會(huì),等.采用多模糊支持向量機(jī)決策融合的積雨云檢測[J].光學(xué) 精密工程,2014,22(12):3427-3434.

        JIN W,FU R D,FAN Y F,etal.. Using multiple Fuzzy Support Vector Machine(SVM) decision fusion of cumulus cloud detection[J].Opt.PrecisionEng.,2014,22(12):3427-3434.(in Chinese)

        [14]Matthieur Perreira Da Silva,Vincent COURBOULAY,Pascal Estraillier. Image Complexity Measure Based on Visual Attention[C]. 18thIEEE International Conference on Image Processing,11-14 Sept. 2011: 3281-3284.

        [15]邵楓,姜求平,蔣剛毅,等.基于顯著性分析的立體圖像視覺舒適度預(yù)測[J].光學(xué) 精密工程,2014,22(6):1631-1638.

        SHAO F,JIANG Q P,JIANG G Y,etal.. Based on analysis of significant three-dimensional image visual comfort[J].Opt.PrecisionEng.,2014,22(6):1631-1638.(in Chinese)

        陳燕芹(1987—),女,山東菏澤人,碩士研究生,2012年于濱州學(xué)院獲得學(xué)士學(xué)位,主要從事模式識(shí)別和圖像復(fù)雜度方面的研究。E-mail:chenyanqin101329@sina.com

        錢小飛(1987—),男,內(nèi)蒙古人,碩士研究生,主要從事圖像目標(biāo)檢測與識(shí)別方面的研究。E-mail:qjf0805@163.com

        段 錦(1971—),男,吉林長春人,教授,博士生導(dǎo)師,1993年于北京理工大學(xué)獲得學(xué)士學(xué)位,1998年于沈陽工業(yè)學(xué)院獲得碩士學(xué)位,2004年于吉林大學(xué)獲得博士學(xué)位,主要從事圖像處理、模式識(shí)別、光電檢測等方面的研究。E-mail:duanjin@vip.sina.com

        ?!∮?1980—),男,四川眉山人,講師,主要從事計(jì)算機(jī)仿真、圖像處理、模式識(shí)別方面的研究。E-mail:zhy991112@sina.com

        肖 博(1987—),男,新疆烏魯木齊人,博士研究生,2009年于吉林大學(xué)獲得學(xué)士學(xué)位,2013年于長春理工大學(xué)獲得碩士學(xué)位,主要從事圖像目標(biāo)識(shí)別和圖像復(fù)雜度方面的研究。E-mail:706992535@qq.com

        向您推薦《液晶與顯示》期刊

        ● 中文核心期刊

        ● 中國液晶學(xué)科和顯示技術(shù)領(lǐng)域的綜合性專業(yè)學(xué)術(shù)期刊

        ● 中國物理學(xué)會(huì)液晶分會(huì)會(huì)刊、中國光學(xué)光電子行業(yè)協(xié)會(huì)液晶分會(huì)會(huì)刊

        ● 英國《科學(xué)文摘》(INSPEC)、美國《化學(xué)文摘》(CA)、俄羅斯《文摘雜志》(AJ)、美國《劍橋科學(xué)文摘》(CSA)、“中國科技論文統(tǒng)計(jì)源期刊”等20余種國內(nèi)外著名檢索刊物和文獻(xiàn)數(shù)據(jù)庫來源期刊

        《液晶與顯示》以材料物理和化學(xué)、器件制備技術(shù)及器件物理、器件驅(qū)動(dòng)與控制、成像技術(shù)與圖像處理等欄目集中報(bào)道國內(nèi)外液晶學(xué)科和顯示技術(shù)領(lǐng)域中最新理論研究、科研成果和創(chuàng)新技術(shù),及時(shí)反映國內(nèi)外本學(xué)科領(lǐng)域及產(chǎn)業(yè)信息動(dòng)態(tài),是宣傳、展示我國該學(xué)科領(lǐng)域和產(chǎn)業(yè)科技創(chuàng)新實(shí)力與碩果,進(jìn)行國際交流的平臺(tái)。其內(nèi)容豐富,涵蓋面廣,信息量大,可讀性強(qiáng),是我國專業(yè)學(xué)術(shù)期刊發(fā)行量最大的刊物之一。

        《液晶與顯示》征集有關(guān)液晶聚合物、膠體等軟物質(zhì)材料和各類顯示材料及制備方法、液晶物理、液晶非線性光學(xué)、生物液晶;液晶顯示、等離子體顯示、發(fā)光二極管顯示、電致發(fā)光顯示、場發(fā)射顯示、3D顯示、微顯示、真空熒光顯示、電致變色顯示及其他新型顯示等各類顯示器件物理和制作技術(shù);各類顯示新型模式和驅(qū)動(dòng)技術(shù)、顯示技術(shù)應(yīng)用;顯示材料和器件的測試方法與技術(shù);各類顯示器件的應(yīng)用;與顯示相關(guān)的成像技術(shù)與圖像處理等研究論文。

        《液晶與顯示》熱忱歡迎廣大作者、讀者廣為利用,踴躍投稿和訂閱。

        地 址:長春市東南湖大路3888號(hào)國內(nèi)統(tǒng)一刊號(hào):CN 22-1259/O4

        《液晶與顯示》 編輯部國際標(biāo)準(zhǔn)刊號(hào):ISSN 1007-2780

        郵 編:130033國內(nèi)郵發(fā)代號(hào):12-203

        電 話:(0431)6176059國內(nèi)定價(jià):50元/期

        E-mail:yjyxs@126.com網(wǎng)址:www.yjyxs.com

        2.SchoolofComputerScienceandTechnology,ChangchunUniversityof

        ScienceandTechnology,Changchun130022,China;

        3.InstituteofSpaceOptoelectronicsTechnology,ChangchunUniversityof

        ScienceandTechnology,Changchun130022,China)

        Abstract:In order to better describe the internal complexity of image, the establishment of the mathematic model between the image complexity and each index is the key step to study the complexity of image. Firstly, starting from the image texture, we try to establish a quantitative and precise mathematical description of the relationship between the image and the complexity of various indicators. There is no clear mathematical relationship between the image complexity and the measurable indicators, so gray level co-occurrence matrix(GLCM) is used to analyze the main characteristic parameters of the texture. The image complexity evaluation method is proposed based on BP neural network. Then a nonlinear mathematical evaluation model between image complexity and each index is established. And the weight values and index are obtained by the training for the neural network and learning through numbers of pictures. The verification results show that the evaluation model is able to reflect the internal complexity of the image truly, and the experimental results obtained are consistent with human visual perception. It is of a certain reference value for the application of BP neural network to study the image complexity.

        Key words:image complexity;texture feature;Gray Level Co-occurrence Matrix;BP neural network;weight value

        作者簡介:

        *Corresponding author, E-mail:duanjin@vip.sina.com

        中圖分類號(hào):TP391.4

        文獻(xiàn)標(biāo)識(shí)碼:A

        doi:10.3788/CO.20150803.0407

        文章編號(hào)2095-1531(2015)03-0407-08

        基金項(xiàng)目:國家高技術(shù)研究發(fā)展計(jì)劃(863項(xiàng)目)資助項(xiàng)目(No.2013AA7XX10XX)

        收稿日期:2014-11-15;

        修訂日期:2015-01-17

        猜你喜歡
        BP神經(jīng)網(wǎng)絡(luò)
        基于神經(jīng)網(wǎng)絡(luò)的北京市房價(jià)預(yù)測研究
        商情(2016年43期)2016-12-23 14:23:13
        一種基于OpenCV的車牌識(shí)別方法
        基于遺傳算法—BP神經(jīng)網(wǎng)絡(luò)的乳腺腫瘤輔助診斷模型
        一種基于改進(jìn)BP神經(jīng)網(wǎng)絡(luò)預(yù)測T/R組件溫度的方法
        基于BP神經(jīng)網(wǎng)絡(luò)的光通信系統(tǒng)故障診斷
        科技視界(2016年26期)2016-12-17 17:57:49
        提高BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)速率的算法研究
        考試周刊(2016年21期)2016-12-16 11:02:03
        就bp神經(jīng)網(wǎng)絡(luò)銀行選址模型的相關(guān)研究
        基于DEA—GA—BP的建設(shè)工程評(píng)標(biāo)方法研究
        基于BP神經(jīng)網(wǎng)絡(luò)的旅行社發(fā)展方向研究
        商情(2016年39期)2016-11-21 09:30:36
        復(fù)雜背景下的手勢識(shí)別方法
        久久久久亚洲av无码专区网站| 99青青草视频在线观看| av网站在线观看大全| 欧美人与禽2o2o性论交| 国产无遮挡又黄又爽又色| 国产午夜视频免费观看| 日本熟女人妻一区二区三区| 最新中文字幕日韩精品| 少妇中文字幕乱码亚洲影视| 国产精品户露av在线户外直播| 亚洲高清国产品国语在线观看 | 大量老肥熟女老女人自拍| 日本av亚洲中文字幕| 久久天天躁狠狠躁夜夜2020一| 精品午夜福利1000在线观看| 无遮挡粉嫩小泬| 一本色道久久亚洲av红楼| 东京热久久综合久久88| 久久精品人妻一区二区三区| 亚洲精品乱码久久久久久按摩高清| 深夜福利国产精品中文字幕| 亚洲熟妇色自偷自拍另类| 亚洲欧洲巨乳清纯| 国产人成无码视频在线1000| 色婷婷av一区二区三区丝袜美腿 | 狠狠综合久久av一区二区三区| 亚洲av无码一区东京热久久| 无遮无挡爽爽免费视频| 女人的天堂av免费看| 日本免费影片一区二区| 亚洲日韩中文字幕无码一区| 激情内射亚洲一区二区三区爱妻 | 一本色道久久综合狠狠躁中文| 亚洲一区二区三区av资源| 中国老熟女重囗味hdxx| 99热在线精品播放| 精品亚亚洲成av人片在线观看| 久久久精品人妻一区二区三区四区 | 中文人妻无码一区二区三区信息| 亚洲视频观看一区二区| 少妇高潮av久久久久久|