亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于局部最大熵的圖像自適應(yīng)標記方法

        2020-11-02 02:36:18安遠英段永平
        電腦知識與技術(shù) 2020年26期
        關(guān)鍵詞:并行算法

        安遠英 段永平

        摘要:針對傳統(tǒng)圖像標記方法圖像特征標記時間長,特征識別率低的問題,提出基于局部最大熵的圖像自適應(yīng)標記方法,構(gòu)建圖像局部特征最大熵矩陣,運用并行算法對圖像樣本數(shù)據(jù)中的像素特征參數(shù)進行計算,獲取圖像標記參數(shù)的局部最大熵值,根據(jù)計算結(jié)果來設(shè)定圖像特征二階矩、熵、對比度以等多種特征自適應(yīng)參數(shù)歸一化處理,并據(jù)此求出圖像自適應(yīng)標記點。實驗結(jié)果證明,與傳統(tǒng)方法比較,所提方法圖像標記耗時保持在40s以下,標記出的特征識別率約為99%左右,性能均優(yōu)于傳統(tǒng)方法,能夠?qū)崿F(xiàn)圖像的自適應(yīng)標記。

        關(guān)鍵詞:局部最大熵;并行算法;特征識別;圖像標記

        中圖分類號:TP391? ? ? 文獻標識碼:A

        文章編號:1009-3044(2020)26-0196-03

        圖像標記技術(shù)主要包括圖像局部特征預(yù)處理、像素標記、圖像標簽等[1]。把掃描設(shè)備轉(zhuǎn)化為圖像。受人為因素和硬件設(shè)備的影響,掃描得到的圖像不可避免地存在一定程度的缺陷,從而導致圖中特征自適應(yīng)識別錯誤[2]。

        針對傳統(tǒng)方法的不足,提出一種基于局部最大熵的圖像特征自適應(yīng)標記方法。通過測試結(jié)果驗證了所提特征自適應(yīng)標記方法在圖像特征標記時間與特征識別率等方面均具有優(yōu)越性能。

        1 圖像特征自適應(yīng)標記方法

        1.1 圖像局部特征最大熵矩陣構(gòu)建

        為提高局部特征最大熵矩陣的計算效率,利用并行算法計算元素間的關(guān)聯(lián)規(guī)則,設(shè)計多個標記參數(shù)對每個像素進行并行標記[3]。其具體過程如下:

        局部特征最大熵矩陣設(shè)定為從局部特征級[i]的點移動按照特定位置關(guān)系[d,θ]達到局部特征級為[j]的概率,其中[d]代表兩個圖像像素間的距離;[θ]代表兩個圖像像素間的方向角;可表示為[d=1,2,3,4],[θ=0?,45?,90?,135?]。

        從識別各個圖像像素的值[Pix_ref]與[d,θ]給出的距離及方向角識別鄰近像素值[Pix_associate],到由[Pix_ref]與[Pix_associate]組成的Simple DPRAM像素坐標中進行加1的計算,各個像素都獨立運行的,所以可以設(shè)計多個PEs對多個像素進行計算。

        Simple DPRAM的識別順序為串行的,每次僅能從Simple DPRAM識別一個圖像像素值,假設(shè)每次識別完[Pix_ref]后再識別[Pix_associate]會影響整個系統(tǒng)的運行效率,針對此弊端,設(shè)計了2個Simple DPRAM,每個Simple DPRAM中存儲了同樣的圖像數(shù)據(jù),2個Simple DPRAM分別識別[Pix_ref]與[Pix_associate],計算2個Simple DPRAM的像素坐標映射關(guān)系。

        假設(shè)2個Simple DPRAM能實現(xiàn)[Pix_ref]與[Pix_associate]同時識別,并將識別的圖像像素值分類到相應(yīng)的FIFO中,完成圖像數(shù)據(jù)分類進一步提高局部特征最大熵矩陣的計算效率。

        因為[PTi,j:d,θ]與[Pi,j:d,θ]的計算過程相同,將[Pix_ref]與[Pix_associate]位置交換組成一個新的圖像矩陣元素位置坐標,若等[Pi,j:d,θ]計算結(jié)束后再計算[PTi,j:d,θ],會增加整個流程的執(zhí)行時間,所以在各個PE完成一次像素識別的時候,不要立即進行下一個像素的識別,要對[Pix_ref]與[Pix_associate]進行轉(zhuǎn)換,組成一個新的像素坐標Simple DPRAM,再繼續(xù)進行余下的工作,當結(jié)束了全部像素識別工作后的值為[Pi,j:d,θ]+[PTi,j:d,θ]的值。

        1.2 自適應(yīng)標記

        通過1.1得到的局部特征最大熵矩陣,根據(jù)局部特征最大熵矩陣對圖像的特征二階矩、熵、對比度與特征標記點等特征自適應(yīng)參數(shù)通過四種自適應(yīng)進行計算,對其計算結(jié)果進行分析。結(jié)合分析結(jié)果對局部最大熵的圖像局部特征最大熵矩陣的局部特征集進行自適應(yīng)標記[4-5]。

        將1.1節(jié)描述的局部特征最大熵矩陣設(shè)定為圖像中相距為[δ=Δx,Δy]的兩個局部特征像素同時一起出現(xiàn)的聯(lián)合概率分布,假設(shè)圖像的局部特征級為[N],最大熵矩陣可表示為[Pδi,j],其中處于[i,j]位置的元素[Pi,j]值可描述為局部特征[i]與[j]之間距離為[δ=Δx,Δy]的像素對出現(xiàn)的概率。在實際應(yīng)用中,為了減少計算,[Δx,Δy]一般取四種情況:

        圖像特征結(jié)構(gòu)不同,相應(yīng)的局部特征最大熵矩陣也不同,其中特征尺度較大的圖像其相應(yīng)的局部特征較為平滑,像素之間差異不大,這種特征尺度下的局部特征最大熵矩陣局部特征值[Pi,j]會集中在對角線臨近區(qū)域。圖像特征尺度較小的局部特征值分布分散,[Pi,j]隨意分布,通過上述分析可知,局部特征最大熵矩陣能夠反映不同局部特征像素所處位置的空間信息。

        通過上述描述的局部特征最大熵矩陣可設(shè)定圖像特征二階矩、熵、對比度以及特征標記點等多種特征自適應(yīng)參數(shù),為了簡化分析,僅選用圖像特征二階矩、熵、對比度以及特征標記點這四種自適應(yīng)進行分析,具體過程如下。

        上述給出的自適應(yīng)參數(shù)中,對比度可描述圖像的清晰度,圖像特征溝紋越深,對比度越大,視覺效果就越清晰,對于粗特征,CON值較小;細特征,CON值較大,角二階矩是衡量圖像局部特征分布平均性的指標,當圖像局部特征分布較均勻時,ASM值較大,反之,ASM值較小。

        2 測試證明

        為了驗證所提出圖像特征自適應(yīng)標記方法的自適應(yīng)特性,需要對其進行仿真測試,測試環(huán)境為:Windows Server2012R2Intel(R) Xeon(TM)CPU 2.30GHz with 32.0GB of RAM,MATLAB2014a編程實現(xiàn),實驗結(jié)果如下。

        將所提方法、文獻[3]方法以及文獻[4]方法的實驗法輸入到仿真軟件中,并在軟件中設(shè)置樣本參數(shù),進行自適應(yīng)標記所需時間(ms)對比,對比結(jié)果如表1所示。表1中,N表示樣本數(shù)量,單位為個,用g表示;SJ表示自適應(yīng)標記所需要的時間,單位為秒;用s表示,T代表文獻[3]方法;P代表文獻[4]方法;Q代表所提方法。

        根據(jù)表1所示,伴隨樣本數(shù)量的不斷增加,三種方法的圖像特征標記時間也在不斷改變,當樣本數(shù)量為200個時,文獻[3]方法比文獻[4]方法標記節(jié)省了13s,與所提方法相比標記所需要的時間長了2s,文獻[3]方法標記所需要的時間為最少;當樣本數(shù)量增加到300個時,文獻[3]方法比文獻[4]方法標記所需時間節(jié)省了7s,與所提方法相比標記時間長4s。由上述實驗數(shù)據(jù)可知,伴隨樣本數(shù)量的進一步增加,文獻[3]方法標記所需時間不斷增加,逐漸與其他兩種方法逐漸拉開差距,因此文獻[3]方法只適用于樣本數(shù)量較少的情況下使用,而所提方法圖像特征標記時間始終保持在40s以下,整體變化趨勢較為平緩,說明所提方法進行圖像特征自適應(yīng)標記具有穩(wěn)定性。

        分別利用所提方法與文獻[3]方法、文獻[4]方法進行圖像特征自適應(yīng)圖像特征標記時間對比之后,為了進一步驗證所提方法的有效性,對比了三種方法的特征識別率。

        分析圖1可知,伴隨樣本數(shù)量的變化,三種方法的特征識別率出現(xiàn)了明顯的差異。文獻[3]、文獻[4]方法標記出的特征識別率呈現(xiàn)出逐步下降的變化曲線;當樣本數(shù)量達到40個時,文獻[3]方法、文獻[4]方法標記出的特征識別率約為71%、72%左右,而所提方法的特征識別率為96%左右,此時三種方法的特征識別率為最接近狀態(tài);伴隨樣本數(shù)量的增加,文獻[3]方法與文獻[4]方法的特征識別率趨于接近,當樣本數(shù)量為200個時,所提方法標記出的特征識別率約為99%左右,比文獻[4]方法高出40%左右,比文獻[3]方法高出35%左右,此時所提方法與文獻[4]方法、文獻[3]方法標記出的特征識別率相差最大。由此可以看出,雖然樣本數(shù)量的增加會影響特征識別率,但所提方法仍保持在穩(wěn)定的水平。

        經(jīng)過上述實驗分析可知,將所提方法用于圖像標記領(lǐng)域具有一定的自適應(yīng)性。

        3 結(jié)束語

        針對傳統(tǒng)的圖像特征自適應(yīng)標記方法所需要的時間較長、特征識別率較低等問題,提出一種基于局部最大熵的圖像自適應(yīng)標記方法,對圖像特征自適應(yīng)進行標記,對圖像特征標記時間以及圖像辨識率進行仿真測試。實驗仿真結(jié)果表明,所提方法與傳統(tǒng)方法相比,圖像特征自適應(yīng)標記所需要的時間較短,特征識別率較高。未來階段將研究重點轉(zhuǎn)向面對復雜背景下,如何更高效、準確標記圖像特征方面。

        參考文獻:

        [1] 卞仕雅, 葉兵, 吳丙芳, 等. 熒光內(nèi)窺鏡的腫瘤明場圖像標記實現(xiàn)方法[J]. 半導體光電, 2019, 40(5): 749-754

        [2] 于寧,宋海玉,孫東洋,等.基于深度學習中間層卷積特征的圖像標注[J].圖學學報,2019,40(5):872-877.

        [3] 韓征, 粟濱, 李艷鴿, 等. 基于蒙特卡洛模擬的圖像二值化增強算法[J]. 中南大學學報:英文版, 2019(6):1661-1671.

        [4] 余田椿, 孫先松. FPGA的圖像識別與目標跟蹤系統(tǒng)設(shè)計[J]. 單片機與嵌入式系統(tǒng)應(yīng)用, 2019(9):30-34.

        [5] 趙明富, 陳海軍, 宋濤, 等. 改進RANSAC-SIFT算法在圖像匹配中的研究[J]. 激光雜志, 2018(1):114-118.

        【通聯(lián)編輯:張薇】

        猜你喜歡
        并行算法
        基于多線程的巖心圖像超維重建快速算法
        地圖線要素綜合化的簡遞歸并行算法
        探究GPU視角下的圖像處理并行算法
        科技資訊(2019年18期)2019-09-17 11:03:28
        一種自適應(yīng)資源精細匹配的DAG調(diào)度方法
        基于GPU的圖像處理并行算法分析
        改進型迭代Web挖掘技術(shù)在信息門戶建設(shè)中的應(yīng)用研究
        基于GPU的GaBP并行算法研究
        循環(huán)Toeplitz矩陣逆矩陣的并行算法
        基于MapReduce的DBSCAN聚類算法的并行實現(xiàn)
        基于GPU的分類并行算法的研究與實現(xiàn)
        国产精品一区二区三久久不卡| 欧美日韩一区二区三区色综合| 久久久久亚洲AV无码去区首| 久久综合亚洲鲁鲁五月天| 无码日韩精品一区二区免费暖暖| 国产在视频线精品视频| 巨爆乳中文字幕爆乳区| 国产91精品清纯白嫩| 国产亚洲成人av一区| 中文字幕一区二区人妻性色| 99热最新在线观看| 中文字幕一区二区人妻在线不卡 | 色系免费一区二区三区| 国产av一区二区制服丝袜美腿| 四虎成人精品在永久免费| 国产96在线 | 欧美| 男人阁久久| 日韩av一区二区蜜桃| 日本熟妇色xxxxx日本妇| 少妇被粗大的猛进69视频| 国产粉嫩嫩00在线正在播放| 亚洲sm另类一区二区三区| 亚欧美日韩香蕉在线播放视频| 久久精品中文字幕第23页| 国产美女主播福利一区| 青青草成人在线免费视频| 国产精品丝袜久久久久久不卡| 久久半精品国产99精品国产| 精品国产一区二区三区九一色| 男女肉粗暴进来动态图| 无码久久精品国产亚洲av影片| 欧美人与物videos另类| 亚洲一区二区刺激的视频| 成人性生交大片免费| 亚洲精品国产一二三无码AV| 国产人妖直男在线视频| 无码熟妇人妻av在线影片最多| 女人被做到高潮免费视频| 亚洲中文字幕第二十三页| 亚洲精品国产第一区二区| 一本一道av无码中文字幕 |