亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于結構平衡網絡的圖像識別新方法

        2020-05-28 09:36:21高沛濤王銀河
        軟件導刊 2020年3期
        關鍵詞:結構方法

        高沛濤 王銀河

        摘 要:針對機器視覺中的圖像識別問題,提出一種新的基于結構平衡網絡的圖像識別方法。從一種新的結構平衡網絡(特殊的復雜網絡)視角重新審視平面灰度圖像,將圖像灰度矩陣視為結構平衡網絡的連接關系(權值)矩陣(像素點可不作為節(jié)點),通過Hadamard乘積變換得到像結構平衡矩陣,再利用像結構平衡矩陣的拓撲結構,產生新的圖像識別特征參量對圖像進行描述。該方法具有高速率、高識別率、尺度不變性及旋轉不變性等特點。最后的實驗仿真驗證了該方法的有效性。

        關鍵詞:圖像識別;結構平衡網絡;Hadamard乘積變換

        DOI:10. 11907/rjdk. 191658

        中圖分類號:TP317.4 ?? 文獻標識碼:A ??????????????? 文章編號:1672-7800(2020)003-0220-05

        A Structural Balance Network-based New Methodology for Image Recognition

        GAO Pei-tao, WANG Yin-he

        (Faculty of Automation, Guangdong University of Technology, Guangzhou 510006, China)

        Abstract: Aiming at the problem of image recognition in machine vision, a new image recognition method based on structural balance network is proposed. The planar grayscale image is re-examined from the perspective of a new structural balanced network (special complex network), and the image gray matrix is regarded as the connection relation (weight) matrix of the structural balanced network (pixels may not be used as nodes). The image structural balance matrix is obtained by Hadamard product transformation, and then the topology structure of the structural balance matrix is used to generate a new image recognition feature parameter to describe the image. The method has the characteristics of high speed, high recognition rate, scale invariance and rotation invariance. Finally, the simulation example is given to show the validity of the method in this paper.

        Key Words: face recognition; structural balance networks; Hadamard product transformation

        0 引言

        圖像識別方法是計算機視覺的重要基礎,其在機器視覺、交通監(jiān)控、智能無人機等領域都應用廣泛。目前圖像識別方法有很多,在不同條件下具有各自的優(yōu)勢[1]。值得注意的是,在圖像識別研究領域,速度和識別率是衡量圖像識別方法優(yōu)劣的兩個重要指標。一般情況下,圖像識別方法的速度和識別率不僅與相應算法有關,而且也與現場圖像處理設備的計算性能有關。例如,基于卷積神經網絡的深度學習算法被廣泛應用于圖像識別研究領域,但是網絡中的高深度隱層訓練需要大數據量(需要大容量高速計算設備),因而受限的硬件設備不僅影響其識別速度,而且影響其識別率。另外,梯度消散或梯度爆炸問題(算法問題)也會影響其識別率[2-5]。因此,尋找一種高速、高識別率的圖像識別方法具有重要的理論與工程實踐意義。

        基于復雜網絡的圖像識別方法目前已成為圖像識別領域的研究熱點之一[6]。復雜網絡不同于通常的人工神經網絡,其利用數學圖論作為模型,由眾多節(jié)點與節(jié)點之間的連接關系構成,連接關系強弱利用實數權值大小加以度量,通過節(jié)點間的“連”與“不連”,形成復雜網絡的拓撲結構。網絡節(jié)點并不“分層”,由此形成 “節(jié)點度、 平均距離、度分布、聚類系數、小世界”等量化拓撲概念,這些量化拓撲概念只與網絡拓撲結構有關,而與節(jié)點順序和位置無關[7-8]。

        值得注意的是,從復雜網絡角度看,一幅平面灰度圖像可視為由眾多像素點(節(jié)點)構成的復雜網絡,節(jié)點間合適的度量距離(或灰度值差)構成其連接關系,由此產生的量化拓撲概念可作為圖像識別的特征參量。因此,理論上而言,將復雜網絡方法引入圖像識別中,將會減小圖像在出現旋轉、平移、縮放時對識別準確率的影響。 依據相關理論思想,近年來針對基于復雜網絡的圖像處理方法,國內外學者已取得了許多有價值的研究成果[9-19]。

        然而,現有基于復雜網絡的圖像識別方法主要存在以下兩個缺點:一是復雜網絡建模時將灰度圖像中的像素點作為網絡節(jié)點,當節(jié)點增多時,網絡計算速度緩慢;二是利用節(jié)點間度量距離(或灰度值差)構成的連接關系尚不恰當,由此產生的圖像識別特征參量并不能保證提高識別率。 針對上述問題,文獻[20]-[23]結合其它類型圖像識別方法(混合方法)對該方法進行改進,識別率得到了一定程度提升。但這些改進方法仍然是將像素點作為網絡節(jié)點,因此當節(jié)點增多時仍然存在網絡計算緩慢的現象。

        為此,本文將從一種新的復雜網絡視角重新審視平面灰度圖像,將圖像灰度矩陣視為復雜網絡的連接關系(權值)矩陣(像素點可不作為節(jié)點),通過Hadamard乘積變換得到像結構平衡矩陣,再利用像結構平衡矩陣的拓撲結構,產生新的圖像識別特征參量,以此提高識別速度和識別率。最后的數值仿真驗證了本文方法的有效性。

        1 結構平衡網絡

        1946年,Heider[24]首先提出結構平衡網絡概念,隨后Cartwright等[8]學者使用數學圖論方法對其重新進行描述,并且推廣到具有正負實數權值的網絡。

        考慮由N個節(jié)點構成的復雜網絡,本文將節(jié)點i與節(jié)點j之間的連接關系權值記為xij,約定xij=xji,i,j=1,2,3,…,N, 由此構成無向復雜網絡。因此,其連接關系矩陣為對稱矩陣,記為[X=(xij)∈RN×N]。結構平衡網絡定義如下:

        定義1[25]:如果對于任意的i,j,k=1,2,3,…,N,都有[xikxkjxji>0]成立,則該無向復雜網絡稱為結構平衡網絡, 相應的連接關系矩陣[X=(xij)∈RN×N]稱為結構平衡矩陣。

        注1:結構平衡網絡的條件意味著,網絡中任何3個節(jié)點構成三角關系的3個邊權值乘積為正。在社會網絡意義下,這種三角關系遵循了“朋友的朋友是朋友,朋友的敵人是敵人”的社會關系原則。特別地,結構平衡網絡的條件意味著連接關系矩陣的對角元素都為正值。

        定理1[26]:復雜網絡是結構平衡網絡的充分必要條件,其所有節(jié)點可以分成一類或兩類,同類節(jié)點的連接關系是正的,不同類節(jié)點的連接關系是負的。

        注2:定理1意味著,在社會網絡意義下,結構平衡網絡中的所有節(jié)點可以分成一個或兩個“朋友圈”,同一個“朋友圈”中的節(jié)點是朋友關系(正連接關系),不同“朋友圈”中的節(jié)點是敵對關系(負連接關系),因此網絡中3個不同節(jié)點間的三角連接關系只有如下兩種形式,如圖1所示。

        如果網絡的連接關系有負權值,則定理1意味著,結構平衡矩陣[X=(xij)∈RN×N]中的元素(權值)可被分成3部分,其中兩部分分別由對應兩個朋友圈內的正權值構成,分別記為[F+1]、[F+2],另一部分由連接兩個朋友圈之間節(jié)點的負權值構成,記為[L-]。特別地,如果結構平衡網絡的連接關系權值都為正,則[F+1=F+2],[L-]為空集合。

        定義2:注2中的集合[F+1]、[F+2]分別稱為結構平衡網絡(或結構平衡矩陣[X])的第一、二個朋友權值集,統(tǒng)稱為朋友權值集,[L-]稱為隔離權值集。

        定義3:結構平衡矩陣[X]朋友權值集[F+i]中的最大(最小;平均)權值,稱為第i個最大(最小;平均)朋友權值,記為[maxF+i]([minF+i];[meanF+i]),[i=1,2]; 隔離權值集[L-]中絕對值最大(最小;平均)的權值,稱為最大(最小;平均)絕對隔離權值,記為[maxL-]([minL-];[meanL-])。

        注3:由定義3可以看出,結構平衡矩陣[X]的最大(最小;平均)朋友權值、最大(最小;平均)絕對隔離權值等,都是網絡的拓撲參量,只與網絡連接關系有關,而與網絡節(jié)點順序及位置無關,該特點為利用結構平衡矩陣概念方法提高圖像識別速度提供了可能。定義3中的網絡拓撲參量基于結構平衡網絡的可分類性質,因此使用這些網絡拓撲參量的關鍵是如何從結構平衡矩陣角度看待平面灰度圖像。

        2 Hadamard乘積變換及圖像識別

        考慮兩個都具有N個節(jié)點的結構平衡網絡,分別記為[∑]、[∏],其連接關系矩陣分別記為[B=(bij)∈RN×N],[Y=(yij)∈RN×N](都是[N]階結構平衡矩陣)。所有[N]階結構平衡矩陣構成的集合記為[SN]。

        定義4[27]:設[F]是[SN]上的一個映射,[F:SN→SN],[B→Y],若映射[F]是可逆的,則稱[F]為結構平衡變換,簡記為:[Y=F(B)][(B∈SN)]。

        如何構造結構平衡變換是一個重要問題。設[A=(aij)∈RN×N]是一個給定的N階結構平衡矩陣,則容易驗證,對于任意[N]階結構平衡矩陣[B=(bij)∈RN×N],利用定義1可以直接驗證,矩陣[Y=A°B]仍然為結構平衡矩陣,其中“[°]”表示矩陣間的Hadamard乘積,定義為[yij=(A°B)ij=][aijbij]。[1i,jN]。此時容易驗證,變換[B=A-1°Y]是[Y=][A°B]的逆變換, 其中N階結構平衡矩陣[A-1=(1/aij)],利用該結果給出下面的Hadamard乘積變換定義。

        定義5:對于給定的N階結構平衡矩陣[A],由[Y=A°B]([B∈SN])構成的變換稱為Hadamard乘積變換,矩陣[A]稱為變換矩陣。

        注4:定義5意味著,Hadamard乘積變換是保持像矩陣為結構平衡矩陣的變換映射(遺傳原像矩陣結構平衡的特點)。 需要特別注意的是,如果Hadamard變換矩陣[A]的元素存在負值,而原像矩陣[B]是正矩陣(元素都為正值),則Hadamard乘積變換的像矩陣[Y]是具有負元素的結構平衡矩陣,因而由定理1及定義2可知,像矩陣[Y]的所有元素可以分類為兩個朋友權值集合和一個隔離權值集合。

        下面從結構平衡網絡視角重新審視平面灰度圖像,并且利用上列定義和定理給出圖像識別基本思路。首先,對于給定的一幅方形平面灰度圖像,一般可將其灰度矩陣[M]視為正矩陣,因而可將該矩陣與其轉置和[M+MT]視為某個結構平衡網絡的連接關系矩陣(正連接關系);其次,通過選擇合適的具有負元素的變換矩陣[A],使Hadamard乘積變換的像矩陣[Y=A°(M+MT)]具有定義2所示分類;最后,得到定義2所示的兩個朋友權值集合和一個隔離權值集合,由此得到定義3所示的最大(最小;平均)權值和最大(最小;平均)絕對隔離權值,因此產生圖像識別特征參量。

        定義6:矩陣[B=M+MT]稱為原圖像的原像結構平衡矩陣,其對應圖像稱為初始結構平衡矩陣圖,其中[M]為輸入圖像經預處理后具有正值灰度值的方矩陣。

        注5:其中圖像預處理方法包括剔除0灰度值,利用小的正實數代替,將非方灰度矩陣轉化為方矩陣等。

        利用結構平衡網絡方法進行圖像識別的關鍵是如何選擇合適的具有負元素的變換矩陣[A],使Hadamard乘積變換的像矩陣具有定義2的分類,分為兩個朋友權值集和一個隔離權值集,目前尚未有統(tǒng)一的選擇方法。 本文提出一種利用向量生成的選擇方法,該方法使變換矩陣帶有“具有中心陣的十字帶”的特點,多個類似矩陣與原像結構平衡矩陣[B=M+MT] Hadamard乘積的效果相當于利用“具有中心陣的十字帶”模塊遍歷原像結構平衡矩陣。

        記二維向量[q=[1,1]T∈R2],二階矩陣[I1=qqT∈R2×2],考慮[N=2k(k=1,2,?,r,r為自然數)]維向量[Z=[1,1,?,][1]T∈RN],對向量[Z]作分塊處理,形成如下的分塊向量序列[Zi]。

        [Z1=[-1,-1,1,1,?,1]∈RNZi=[qT1,qT2,?,-qTi,?,qTk](1ik=N/2)]? (1)

        若[Zi]的第[m]個子塊為[αm],則定義[αm=qT(m≠i)-qT(m=i)],由此得到秩為1的分塊矩陣序列為[Ai=ZiZTi=(ast)],[i=1,][2,?,k]。其中[ast]表示處于位置[(s,t)]的二階矩陣分塊,容易看出[ast]可以表示為:

        [ast=qqT{(s=t=i)或(s≠i,t≠i)}-qqT(其它)]

        定義7 :對于給定的N維分塊向量[Zi][(1ik=N/2)],由[Ai=ZiZTi=(ast)]構成的矩陣稱為“具有二階中心陣的十字帶”(The Cross Band with the Second Order Central Matrix, 2-CM-CB)的結構平衡矩陣。

        注6 :在定義7中,2-CM-CB結構平衡矩陣是一個二階分塊矩陣,其中的2-CM-CB是由相鄰二行、相鄰二列構成的“帶狀”,其“中心陣”是一個元素都為1的二階子矩陣塊,十字帶內除中心陣以外的元素都是-1,十字帶以外的元素都是1(見圖2);在2-CM-CB結構平衡矩陣中,其“二階中心陣”的元素構成第一個朋友權值集合[F+1],十字帶以外的元素構成第二個朋友權值集合[F+2],十字帶內除中心外的元素構成隔離權值集合[L-]。

        由圖2可以看出,其中“圈1”表示元素都是“+1”的子矩陣塊,利用2-CM-CB結構平衡矩陣與原像結構平衡矩陣[B=M+MT]的Hadamard乘積結果具有如下特點:乘積矩陣內形成了一個相同符號的2-CM-CB結構平衡矩陣,其中心陣對角線落在乘積矩陣對角線上。 因此,多個這樣的Hadamard乘積效果相當于利用2-CM-CB模塊、沿著主對角線遍歷原像結構平衡矩陣。如果被識別平面灰度圖像的特征點分布在其灰度矩陣對角線上,這些特征點則被這種沿對角線遍歷原像結構平衡矩陣的十字帶模塊所覆蓋。

        由定義5至定義7得到,2-CM-CB的像矩陣集合為[Yi=Ai°B],其中每個子集[Yi],[i=1,2,?,k]均為2-CM-CB結構平衡矩陣,記每一個[Yi]對應的兩個朋友權值集合和一個隔離權值集合分別為:[F+i1]、[F+i2]和[Li-],相應的網絡拓撲參量分別為[maxF+i1]([minF+i1];[meanF+i1])、[maxF+i2]([minF+i2];[meanF+i2])和[maxLi-]([minLi-];[meanLi-]), 由多個“具有二階中心陣十字帶”的像矩陣構成的網絡拓撲參量作為圖像識別特征參量。

        根據以上定義和定理可得,圖像數據集分為樣本組和測試組,[et]中每一幅圖像對應的圖像識別特征參量[θ(et)]與樣本組[es]對應的圖像識別特征參量[θ(es)]之間的二階范數,記為[G(θ(et),θ(es))]。當測試組圖像識別特征參量與樣本組圖像識別特征參量之間的二階范數[G(θ(et),θ(es))]取得最小值時,該樣本圖像所處分組即是該測試圖像分組。

        3 實驗與結果分析

        實驗使用的YALE人臉數據庫包含15組人臉圖像,每組11幅圖像,共165幅。采用不同拍攝角度,獲取各種表情及臉部細節(jié)。數據庫圖像規(guī)格統(tǒng)一,其中分辨率為100*100,灰度級為256,圖片格式為bmp,如圖3所示。

        圖像識別程序的訓練級由每組前5幅圖像組成,共45幅。剩余圖像用于測試,對算法進行驗證。實驗主要分為:①通過圖像預處理得到定義6中輸入圖像對應的原像結構平衡矩陣;②與定義7中的2-CM-CB結構平衡矩陣模板分別作Hadamard乘積變換,得到2-CM-CB的像結構平衡矩陣;③提取每個2-CM-CB像結構平衡矩陣的圖像識別特征參量構成特征臉;④通過比較訓練組和測試組中特征臉之間的二范數進行圖像識別分類。

        實驗過程中,先對輸入圖像原圖(圖(a))進行二值化處理,得到二值化圖(圖(b)),再進行閾值處理以去除背景(即原來圖像灰度值為零的位置用非常小的正整數代替,值為1的位置用原來圖像的灰度值代替),再進行轉置相加,得到預處理后去除背景影響的原像結構平衡矩陣對應的初始結構平衡矩陣圖(圖(c)),原像結構平衡矩陣再與預先構建的5個2-CM-CB的結構平衡矩陣模板[Ai(i=3,8,13,][18,23)]分別作Hadamard乘積變換,得到2-CM-CB像結構平衡矩陣[Yii=3,8,13,18,23]的灰度圖像(圖(d)),再提取每個2-CM-CB像結構平衡矩陣的圖像識別特征參數構成特征臉。

        本文算法通過如圖4所示流程進行圖像識別處理,得到5個2-CM-CB像結構平衡矩陣,提取對應的網絡拓撲參量作為其圖像識別特征參數,構成特征臉用于圖像識別。該方法的主要優(yōu)點是:從一種新的復雜網絡視角重新審視平面灰度圖像,將圖像灰度矩陣視為復雜網絡的連接關系(權值)矩陣(像素點可不作為節(jié)點),通過使用結構平衡網絡(特殊的復雜網絡)拓撲結構作Hadamard乘積變換,產生新的圖像識別特征參量,并通過實驗驗證了該方法的有效性。

        最后,通過兩組實驗,從存儲空間占用、時間開銷及識別效率等方面,將本文提出方法與幾種常見算法進行比較。實驗在統(tǒng)一的PC平臺上進行,采用Intel i7處理器(主頻1.80GHz),8G內存,軟件選用Windows10操作系統(tǒng)及Matlab2016。

        實驗1:選取YALE人臉數據庫中每組圖像的前5幅圖像作為訓練樣本,其余圖像作為測試樣本進行圖像識別,對基于原始復雜網絡建模的圖像處理方法,以及結合輪廓形狀與復雜網絡建模的圖像處理方法的運行時間進行比較,結果如表1所示。

        從表1可以看出,文獻[7]中直接采用復雜網絡建模的圖像處理方法,從建立模型到網絡拓撲參量提取,耗費時間大約為6.6h;文獻[21]采用結合輪廓形狀和復雜網絡建模的圖像處理方法,從建模到網絡拓撲參量提取,耗費時間大約為36min;采用本文方法從圖像預處理到得到2-CM-CB原像結構平衡矩陣,整個過程只需要2.20s,速度遠快于文獻[7]與文獻[21]的方法,為實現機器視覺的實時識別提供了可能。

        文獻[7]中,提出運用復雜網絡識別人臉圖像的方法(以下稱為原文方法)。本實驗將通過軟件模擬該方法核心步驟,并與本文方法進行比較。原文方法通過設置閾值建立不同的復雜網絡模型,得到不同的識別參數向量,構成特征臉。原文方法設置起始值為1,步長為1,終止值為200,分別提取對應復雜網絡模型的最大值和均值,得到400個識別參數,再通過克羅內克乘積處理后得到800個識別參數;本文方法采用輸入圖像與預先構建的5個2-CM-CB結構平衡矩陣模板作Hadamard乘積,得到5個2-CM-CB像結構平衡矩陣,提取每個結構平衡矩陣的3個識別參數,得到15個識別參數。識別參數明顯減少,從而減少了算法運行所需的存儲空間,識別速度較快。

        實驗2:選取每組圖像的前5~8幅圖像作為訓練樣本,其余圖像作為測試樣本進行目標識別,并與PCA[28-29]、Fisherface以及基于歐氏距離的建模算法進行比較,實驗結果如表2所示。

        表2 算法在YALE數據庫中識別結果

        [訓練樣本數\&PCA(%)\&Fisherface(%)\&歐氏距離建模(%)\&本文方法(%)\&5\&77.33\&78.89\&86.67\&57.58\&6\&73.33\&74.67\&87.27\&63.03\&7\&80.00\&78.33\&95.15\&72.73\&8\&86.67\&84.44\&97.57\&96.97\&]

        從表2可以看出,本文方法在YALE人臉數據庫中的實驗結果較為理想。從識別率來看,在訓練樣本數超過8張時,本文方法效果優(yōu)于經典Fisherface方法與PCA方法。文獻[21]提出的基于輪廓形狀與復雜網絡建模的圖像識別方法雖然識別率高于本文方法,但識別時間過長,無法滿足機器視覺技術對實時性的要求,在誤差允許的條件下,本文方法更具有優(yōu)勢。

        本文只是簡單選取了3種圖像識別方法進行對比,在今后研究中可以對更多識別算法進行對比研究,并考慮將其與結構平衡網絡進行融合,以減少結構平衡網絡連接權值數量,減少數據儲存空間,從而提高運算速度。

        4 結語

        本文從一種新的復雜網絡視角重新審視平面灰度圖像,將圖像灰度矩陣視為復雜網絡的連接關系(權值)矩陣(像素點可不作為節(jié)點),通過Hadamard乘積變換得到像結構平衡矩陣,再利用像結構平衡矩陣的拓撲結構,產生新的圖像識別特征參量,以此提高識別速度和識別率。最后的數值仿真驗證了本文方法的有效性。然而,將本文方法應用于不同的圖像數據集,識別效果不穩(wěn)定,可考慮融合其它類型的圖像識別算法以提高算法魯棒性。該方法的識別率和識別速度與Hadamard變換矩陣選擇有著密切聯系,因此尋找一種魯棒性更強、更具代表性的圖像識別算法是后續(xù)研究方向。

        參考文獻:

        [1]章毓晉. 圖像工程[M]. 第4版.北京:清華大學出版社,2018.

        [2]SQUARTINI S, PAOLINELLI S, PIAZZA F. Comparing different recurrent neural architectures on a specific task from vanishing gradient effect perspective[C]. IEEE International Conference on Networking. IEEE,2006:380-385.

        [3]BENGIO Y,BOULANGER-LEWANDOWSKI N,PASCANU R. Advances in optimizing recurrent networks[C]. Vancouver:2013 IEEE International Conference on Acoustics, Speech and Signal Processing,2013.

        [4]KIM J,LEE J K,LEE K M. Deeply-recursive convolutional network for image super-resolution[C]. IEEE Conference on Computer Vision and Pattern Recognition,2016:1-9.

        [5]HE K,ZHANG X,REN S, et al. Deep residual learning for image recognition[C]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016:770-778.

        [6]CHALUMEAU T,LALIGANT O,COSTA L D F,et al. Complex network representation of textures: new perspectives for texture characterization and classification[C]. Boston:SPIE Wavelet application in industrial processing IV,2006.

        [7]BACKES A R,MARTINEZ A S,BRUNO O M. A complex network-based approach for boundary shape analysis [J].Pattern Recognition, 2009, 43: 54-67.

        [8]CARTWRIGHT D, HARARY F. Structural balance: a generalization of Heiders theory[J]. Psychological review,1956,63(5):277-293.

        [9]陳影. 基于復雜網絡理論的圖像描述與識別方法研究[D]. 合肥:安徽大學,2014.

        [10]湯進,陳影,江波. 基于復雜網絡的圖像建模與特征提取方法[J]. 計算機工程, 2013, 39(5):243-247.

        [11]GON?ALVES W N,SILVA J D A,BRUNO O M. A rotation invariant face recognition method based on complex network[C]. Proceedings of the 15th Ibero-American Congress Conference on Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications,2010:426-433.

        [12]ZHANG Y,DONG L,LI S,et al. A complex network-based approach for interest point detection in images[C]. IEEE International Symposium on Broadband Multimedia Systems & Broadcasting,2012:1-4.

        [13]TANG J,JIANG B,CHANG C C,et al. Graph structure analysis based on complex network[J]. Digital Signal Processing,2012,22(5):713-725.

        [14]CASANOVA D, BACKES, RICARDO A, BRUNO O M. Pattern recognition tool based on complex network-based approach[J]. Journal of Physics: Conference Series, 2013, 410:012048.

        [15]BACKES,RICARDO A,CASANOVA D,BRUNO O M. Texture analysis and classification: a complex network-based approach[J]. Information Sciences, 2013, 219:168-180.

        [16]KANG J, LU S, GONG W, et al. A complex network based feature extraction for image retrieval[C]. IEEE International Conference on Image Processing,2015:322-330.

        [17]REN H P, MA Z F. License plate recognition using complex network feature[C]. Shenyang:IEEE Conference on Intelligent Control & Automation, 2014.

        [18]LIMA G V L D,CASTILHO T R,BUGATTI P H,et al. A complex network-based approach to the analysis and classification of images[C]. Ibero-American Congress on Pattern Recognition,2015.

        [19]ZOU Q,SUN W,XING L,et al. Interest point detection in images based on topology structure features of directed complex network[C]. Dalian:36th Chinese Control Conference,2018.

        [20]湯曉,王銀河. 基于復雜網絡和圖像輪廓的形狀識別方法[J]. 山西師范大學學報:自然科學版,2013(3):33-40.

        [21]何蘇利,王銀河,陳作宏. 基于輪廓形狀和復雜網絡的圖像識別新方法[J]. 工業(yè)控制計算機,2016,29(5):129-131.

        [22]何蘇利. 基于輪廓形狀和球面距離的復雜網絡模型拓撲性質研究[J]. 現代信息科技, 2018 (3):19-21.

        [23]LIJIAN Z, CHEN Z, ZUOWEI W, et al. Hierarchical palmprint feature extraction and recognition based on multi-wavelets and complex network[J]. IET Image Processing, 2018, 12(6):985-992.

        [24]HEIDER F. Attitudes and cognitive organization[J]. The Journal of Psychology, 1946,21:107-112.

        [25]ZILIN G,YINHE W,JUN M. The structural balance analysis of complex dynamical networks based on nodes dynamical couplings[J]. PLOS ONE, 2018, 13(1):e0191941.

        [26]HE X, DU H, CAI M, et al, The evolution of cooperation in signed networks under the impact of structural balance[J]. PLoS ONE, 2018,13(1):e020508410.

        [27]林翠琴. 以線性空間和線性映射為核心的線性代數體系——高等數學教學內容與體系改革系列談(之二)[J]. 大學數學,1997(2):84-87.

        [28]周松鋒,戴曙光. 改進的PCA人臉識別算法研究[J]. 軟件導刊, 2018(2):15-18.

        [29]張楊,張仁杰. 基于改進PCA算法的人臉識別[J]. 軟件導刊, 2018(1):32-34.

        (責任編輯:黃 ?。?/p>

        收稿日期:2019-05-07

        基金項目:國家自然科學基金項目(61673120)

        作者簡介:高沛濤(1993-),男,廣東工業(yè)大學自動化學院碩士研究生,研究方向為機器視覺、結構平衡網絡機理分析;王銀河(1962-),男,博士,廣東工業(yè)大學自動化學院教授、博士生導師,研究方向為復雜動態(tài)網絡分析與控制、非線性系統(tǒng)分析與控制、模糊自適應控制等。

        猜你喜歡
        結構方法
        《形而上學》△卷的結構和位置
        哲學評論(2021年2期)2021-08-22 01:53:34
        論結構
        中華詩詞(2019年7期)2019-11-25 01:43:04
        新型平衡塊結構的應用
        模具制造(2019年3期)2019-06-06 02:10:54
        學習方法
        可能是方法不對
        論《日出》的結構
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        捕魚
        免费在线不卡黄色大片| 奇米影视久久777中文字幕| 欧美人成在线播放网站免费| 中文无码乱人伦中文视频在线v| 99久久国产福利自产拍| 人妻丰满av无码中文字幕| 成人一区二区三区蜜桃| 国产91传媒一区二区三区 | 无码精品久久久久久人妻中字| 男同gay毛片免费可播放| 免费无码又爽又刺激高潮的视频网站| 亚洲中文字幕不卡一区二区三区| 亚洲24小时免费视频| 无码中文字幕日韩专区| 亚洲av无码一区二区三区系列| 精品一区二区三区在线视频观看| 蜜桃成熟时日本一区二区| 风韵丰满熟妇啪啪区99杏| 免费女人高潮流视频在线观看| 久久精品人妻一区二区三区| 蜜臀aⅴ永久无码一区二区| 最近更新中文字幕一区二区| 新婚人妻不戴套国产精品| 97精品超碰一区二区三区| av在线色| 亚洲av免费高清不卡| 国产精品久久久天天影视| 日韩人妻无码免费视频一区二区三区| 色系免费一区二区三区| 俺来也三区四区高清视频在线观看 | 精品无码AV无码免费专区| 久久精品女人天堂AV一个| 情头一男一女高冷男女| 日韩精品中文一区二区三区在线 | 麻豆文化传媒精品一区观看| 免费国产裸体美女视频全黄| 国产手机在线αⅴ片无码| 色噜噜精品一区二区三区| 亚洲av中文无码字幕色本草| 精品国产一区二区三区久久狼| 第九色区Aⅴ天堂|