亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Mask-Grad-CAM的遙感電力目標表征方法

        2025-03-18 00:00:00楊勁松
        物聯(lián)網(wǎng)技術(shù) 2025年6期

        摘 要:基于可視化框架Grad-CAM設(shè)計了一種遙感電力目標識別模型,旨在提升針對遙感電力目標的輔助決策準確性和深度神經(jīng)網(wǎng)絡(luò)的視覺可解釋性。模型首先對現(xiàn)有的Grad-CAM框架進行改進,引入了掩膜機制以揭示和挖掘圖像中被遮擋或去除關(guān)鍵決策信息后的剩余有價值語義信息;之后構(gòu)建了一個弱監(jiān)督分割和反事實解釋的網(wǎng)絡(luò)結(jié)構(gòu),旨在通過最大化后驗概率找到最優(yōu)特征,并確保模型的解釋性。最終,基于電力遙感圖像的可視化與評估實驗,驗證了改進模型的有效性。

        關(guān)鍵詞:遙感電力圖像;可解釋性;類激活;Grad-CAM;語義信息;弱監(jiān)督分割

        中圖分類號:TP751 文獻標識碼:A 文章編號:2095-1302(2025)06-00-07

        DOI:10.16667/j.issn.2095-1302.2025.06.002

        0 引 言

        當今時代,電力系統(tǒng)的穩(wěn)定運行與安全保障離不開高效精準的遙感監(jiān)測技術(shù)。隨著深度學習算法在計算機視覺領(lǐng)域的廣泛應(yīng)用,其在電力設(shè)施檢測、故障診斷以及規(guī)劃決策等方面展現(xiàn)出強大的潛力[1]。然而,深度神經(jīng)網(wǎng)絡(luò)對電力遙感圖像的理解與解析過程往往被視為“黑箱”,這嚴重制約了其在實際場景中的應(yīng)用與信任度構(gòu)建。電力遙感圖像由于其復(fù)雜性、多變性及目標間的相互遮蔽等特點,使得深度學習模型在識別諸如發(fā)電機組、輸電線路、變壓器等關(guān)鍵電力設(shè)備時,其內(nèi)在的決策機制難以被人直觀理解。因此,亟需開發(fā)一套能夠揭示深度學習模型在處理電力遙感圖像時關(guān)注的顯著區(qū)域及其分類依據(jù)的可視化技術(shù),提升模型的可解釋性[2]。

        當前深度學習研究的核心課題之一就是如何提升圖像識別任務(wù)的準確度。值得注意的是,增強模型的可解釋性亦是提高準確率的有效途徑,因而可解釋性研究已成為近年來學術(shù)界觀注的焦點[3]。在這一領(lǐng)域,研究成果大致可以劃分為兩大分支:一是側(cè)重于類激活映射(Class Activation Map, CAM)的研究,二是基于因果關(guān)系的表征學習。其中,CAM方法以其計算效率高、可視化解釋力強等優(yōu)點受到廣泛關(guān)注,它能夠?qū)D像特征轉(zhuǎn)換為易于理解的熱力圖形式,直觀展示模型對圖像不同區(qū)域的關(guān)注程度。但是,原始CAM方法對網(wǎng)絡(luò)架構(gòu)有一定限制,要求將全連接層替換成全局池化層以降低計算復(fù)雜度。針對架構(gòu)落后這一局限,文獻[4]在CAM的基礎(chǔ)上提出了一項革新,即Grad-CAM(Gradient-Weighted Class Activation Mapping)梯度加權(quán)類激活算法,該算法借助輸出梯度信息對特征位置進行加權(quán)處理,并運用高階導數(shù)優(yōu)化權(quán)重分配,從而使模型能夠?qū)σ环鶊D像中的多個目標均給出合理的解釋。相較于完全替換全連接層的策略,Grad-CAM在保持較低運算成本的同時,成功凸顯了針對特定類別的重要區(qū)域。然而,當面對含有多個概念特征的復(fù)雜圖像時,Grad-CAM框架對整幅圖像的卷積處理可能呈現(xiàn)隨機性[5],通過生成的權(quán)重系數(shù)與特征圖相乘后疊加到原始圖像上,可能導致圖像特征表述模糊。此外,在Grad-CAM框架中直接利用上采樣插值將梯度權(quán)重信息放大至原始圖像尺寸的做法,可能會降低生成熱力圖的對比度,從而影響其直觀解釋性[6]。本文在此基礎(chǔ)上創(chuàng)新性地引入Mask算法,并構(gòu)建了一種具備掩膜分支的深度網(wǎng)絡(luò)架構(gòu),設(shè)計出改良版的類激活映射模型。這一改進旨在增強對電力目標圖像的可解釋性,同時力求輸出更加精確和詳盡的特征描述結(jié)論,以期在電力設(shè)施的識別與分析中取得更優(yōu)的表現(xiàn)。

        1 相關(guān)理論

        1.1 深度神經(jīng)網(wǎng)絡(luò)的可解釋性理論

        在計算機視覺領(lǐng)域,可解釋性可以理解為特征的可解釋性,讓神經(jīng)網(wǎng)絡(luò)表達出符合人類自身知識框架的內(nèi)容。方法是通過觀測網(wǎng)絡(luò)內(nèi)部數(shù)據(jù)特征矩陣進行因果推斷,從而發(fā)現(xiàn)特征和分類器背后的因果關(guān)系。在這些方面,已有的研究方法可以分為內(nèi)置可解釋性和事后可解釋性兩種。

        遙感電力目標檢測同樣缺乏可解釋性研究。文獻[7]中歸納了深度學習模型的可解釋性的一種定義:給定樣本集X,模型M,用E表示人類知識庫,如果存在一種決策(方法)f,在f的作用下觀測到的結(jié)果R都能在E中得到映射,R=f(X, M), R∈E,且滿足一定的解釋規(guī)律,稱這種方法為模型M的可解釋方法。如果人為觀測到的結(jié)果X1,X2,X3與網(wǎng)絡(luò)輸出的結(jié)果Y1,Y2,Y3存在高度相似和強相關(guān)性,那么可以說在一定程度上已知了網(wǎng)絡(luò)的學習和預(yù)測規(guī)劃策略及路徑,或者說,窺探到了網(wǎng)絡(luò)特征與分類結(jié)果的因果關(guān)系,如圖1所示。對于一個簡單的目標分類任務(wù),聚焦網(wǎng)絡(luò)感興趣的區(qū)域是研究的重點。在遙感電力目標分類的數(shù)據(jù)集中,在判斷一張圖片的相似目標時(例如機組和變壓器),網(wǎng)絡(luò)模型需要將提取的第一特征回傳到網(wǎng)絡(luò)的決策點,再由神經(jīng)網(wǎng)絡(luò)來決策分類結(jié)果[8]?;诖耍疚慕⒘祟惣せ钣成鋱D像描述模型,對深度學習模型進行可解釋性研究和特征可視化,也為后續(xù)目標檢測精度提升提供全新的思路。

        1.2 遙感電力目標的可解釋性建模

        可解釋性建模是一種利用數(shù)學方法來描述和解釋現(xiàn)實中復(fù)雜系統(tǒng)的過程。它可以幫助人們更好地理解現(xiàn)實世界中復(fù)雜的系統(tǒng),更好地預(yù)測它們的行為,并且可以用于解決實際問題[9]。

        在電力視覺任務(wù)中,設(shè)輸入圖像為f (x, y),f (x, y)是由一系列特征組成的,特征分解方法為F,分解向量為(f1, f2, ..., fn)。一個或者多個特征對應(yīng)某一標簽Label,Label=(a1l1, a2l2, ..., amlm)。根據(jù)以上定義,從概率角度考慮,目標檢測可解釋性模型搭建任務(wù)其實就是求各個特征屬于每個標簽的最大概率。在電力可解釋性任務(wù)中,采用了人工干預(yù)的手段,基于貝葉斯理論可得似然概率,具體見式(1)。圖2展示了遙感電力圖像的可解釋模型圖。

        式中:P(Label=yi| f (do( fj=0)))代表在給定標簽下,不含目標設(shè)置干預(yù)得到的似然概率,其分母P( f (do( fj=0)))為一常量。當P( f (do( fj=0)))滿足Gibbs分布時,其隨機場為馬爾可夫場,得到貝葉斯條件概率公式,見式(2)和式(3):

        式中:Z為歸一化參數(shù);U( f )為某一標簽中對應(yīng)特征向量所構(gòu)成的子集;V( f )是能量函數(shù),最終得到的結(jié)果為進行干預(yù)后的后驗概率。通過最大化后驗概率來尋找對應(yīng)標簽的最優(yōu)特征向量。

        1.3 梯度加權(quán)類激活映射算法

        Grad-CAM是一種類激活映射算法,算法原理如圖3所示。首先網(wǎng)絡(luò)進行正向傳播,得到特征層A,特征層A保留了空間信息,越接近預(yù)測層,特征層抽象度越高,語義信息越豐富。yp為網(wǎng)絡(luò)預(yù)測值,將yp進行反向傳播,能夠得到反傳回特征層A的梯度信息A’,計算得到A的每個通道權(quán)重,進行加權(quán)求和后由ReLU函數(shù)激活。A’中包含每個元素對y的貢獻,具體見式(4):

        式中:A代表某個特征層;c代表當前維度的特征通道;p代表類別;Ac代表特征A中通道c的數(shù)據(jù);apc為權(quán)重系數(shù)。acp為預(yù)測類別通過p的預(yù)測分數(shù)yp反向傳播得到的,acp的計算見式(5):

        式中:Acij代表A在k中的數(shù)據(jù)實體。構(gòu)建的遞推公式見

        式(6):

        式中:yi為輸出的第i類結(jié)果;ffc為全連接層的計算函數(shù);wn為卷積層對應(yīng)的權(quán)重;fn-1(Xn-1, wn-1)為上一層卷積層的輸出經(jīng)過展平處理的結(jié)果。

        yi的計算見式(8):

        根據(jù)鏈式法則可得式(9)和式(10):

        進一步求yi對輸入X的偏導數(shù),構(gòu)建雅可比矩陣求解得式(11)~式(13):

        K為上一卷積層的結(jié)果,根據(jù)遞歸關(guān)系,當輸入數(shù)據(jù)確定后,Grad-CAM的梯度反向傳播按照式(13)進行傳遞。得到掩膜矩陣后,轉(zhuǎn)換為布爾掩膜類型。計算均值作為分割閾值,將Numpy格式下的掩膜矩陣中大于閾值的元素置1,小于等于閾值的置0。

        2 基于掩膜的Grad-CAM模型

        Grad-CAM模型能夠很好地捕捉到指定類型下的重點關(guān)注區(qū)域,但當圖像包含多個特征時,會導致圖像特征不明確。以ResNet網(wǎng)絡(luò)為例,最后一層7×7×512的特征圖上,并非每個通道都能獲取有效信息,當無效信息累積到一定量時,就會反映在類激活映射圖上。此外,Grad-CAM直接將梯度權(quán)重信息通過上采樣插值放大至原圖大小,對特征表征可視化缺乏可解釋性。為了解決上述問題,在Grad-CAM的基礎(chǔ)上,本文搭建了基于掩膜分支的深度網(wǎng)絡(luò)Mask-Grad-CAM,此網(wǎng)絡(luò)學習策略主要是將生成掩膜進行疊加,在驗證模式下,利用第一次生成的梯度權(quán)重,在通道維度上加權(quán)求和作為掩膜。在顯著性映射模塊和預(yù)測模塊中加入掩膜分支,與原始圖像相減,生成帶掩膜的圖像[10],原理如圖4所示。

        該部分主要由2塊構(gòu)成,一是生成掩膜進行疊加,在驗證模式下,利用第一次生成的梯度權(quán)重,在dim=0的通道上加權(quán)求和,作為mask掩膜。在顯著性映射模塊和預(yù)測模塊中加入mask分支,與原始圖像相減,生成帶mask的圖像。該方法利用反事實推理模型,逐步挖掘圖像在某一類別下的剩余語義信息,該方法可以應(yīng)用在任何深度網(wǎng)絡(luò)模型中。二是在預(yù)測模塊的損失函數(shù)中加入循環(huán)的交叉熵損失函數(shù),該方法可應(yīng)用在任何深度網(wǎng)絡(luò)模型中[11]。

        和上一節(jié)類似,給定輸入x,標簽y,設(shè)生成的最后一層特征圖為m(x),獲得掩碼的操作為mask(m(x)),在移除x中可能包含的因果信息之前,計算交叉熵損失函數(shù),將帶有掩膜的圖片返回計算。得到新的梯度權(quán)重,更新掩膜mask信息。損失函數(shù)用來描述預(yù)測與實際數(shù)據(jù)的差距程度[12],是實驗結(jié)果分析中性能評價的主要參數(shù)。對于給定的數(shù)據(jù)集T={},應(yīng)用極大似然估計法估計模型參數(shù),最終得到自交叉熵損失函數(shù)為:

        在給定的真實分布下,使用非真實分布所指定的策略消除系統(tǒng)的不確定性。定義了一種互交叉熵函數(shù)[13],給定2個輸入X,Z,在保證X→Y的交叉熵盡可能小的同時,也要求Z→Y,通過計算X,Z的聯(lián)合分布,讓Z向X學習,通過X的學習策略調(diào)整Z向Y學習的權(quán)重。記X,Z的觀測值分別為x、z,互交叉熵損失為:

        3 實驗結(jié)果與分析

        本文所用數(shù)據(jù)來源于Google遙感衛(wèi)星5.0(無偏移)采集的國內(nèi)火電廠遙感圖像,共500張,遙感圖像分辨率為3 840×2 160。通過圖像拉伸、變換等增強將樣本擴充至836張。數(shù)據(jù)集中除汽輪機組和冷凝塔等大型設(shè)備外,還有變壓器、煙囪、風扇和水箱等小樣本目標。

        實驗處理器CPU為AMD3700X,內(nèi)存16 GB,顯卡為NVIDIA GeForce GTX2060,編程環(huán)境為Python 3.8.2以及Pycharm 2019,詳細的實驗環(huán)境設(shè)置見表1。對遙感電力目標進行檢測,并討論影響其性能指標的因素。

        數(shù)據(jù)樣本包括各類型電力設(shè)備,這些設(shè)備均來自國內(nèi)各大發(fā)電廠,其中火電廠占比98.4%,蓄水式水電廠占比1.6%。共標注了836張電力遙感圖像,統(tǒng)計相關(guān)電力目標:冷凝塔共1 421個,煙囪620個,汽輪機組645個,水箱(可標注)864個,變壓器(可見)84個,風扇(可標注)56個。此外,還有分散式目標,如輸電桿塔、輸電線路、風扇以及儲煤區(qū)若干。各樣本數(shù)量統(tǒng)計如圖5所示。

        3.1 特征可視化實驗

        對于同一圖像分別采用不同的類激活映射算法進行實驗,得到類激活映射圖(圖6),對比圖中的高亮區(qū)域,Mask-Grad-CAM更加貼合人類主觀視覺效果,并且針對不同的決策點,通過熱力圖可獲得決策依據(jù)。

        Grad-CAM能夠幫決策者分析網(wǎng)絡(luò)對于某個類別的關(guān)注區(qū)域。選取六類典型的電力目標(冷凝塔、煙囪、水箱、汽輪機組、變壓器以及小目標風扇)作為實驗數(shù)據(jù),通過圖6對比發(fā)現(xiàn),冷凝塔、煙囪、汽輪機組等設(shè)備的平均檢測率(Prediction)超0.8,分散式設(shè)備如變壓器、水箱等平均檢測率超0.7。

        在進行首階段的可解釋性實驗研究時,本文對比了標準Grad-CAM算法與本文創(chuàng)新提出的Mask-Grad-CAM算法在電力遙感圖像處理上的表現(xiàn)差異。實驗結(jié)果以圖7的可視化形式呈現(xiàn),從中可以明顯觀察到兩者在目標識別與特征突出方面的異同。

        首先,Grad-CAM算法在對遙感圖像進行分析時,其生成的類激活映射圖顯示出較大的關(guān)注度域,這意味著算法傾向于覆蓋相對寬泛的區(qū)域,試圖捕獲與目標類別相關(guān)的大部分特征信息。然而,這種廣范圍的注意力分配在某些情況下并未精確地聚焦于目標本身的細微特征和邊界,特別是圖像內(nèi)包含多個電力設(shè)備的情況下,Grad-CAM算法未能有效區(qū)分不同目標間的特征差異,易造成識別混淆[14]。

        相比之下,改進的Mask-Grad-CAM算法在實驗中體現(xiàn)出了更優(yōu)的局部特征辨別能力。盡管生成的顯著區(qū)域(以紅色標記)相對于Grad-CAM算法而言顯得更為緊湊和精確,但這種精確性恰恰反映出算法對單一小型電力目標有著更強的針對性和敏銳度。Mask-Grad-CAM通過引入掩膜策略,能夠更有效地篩選出與目標類別直接相關(guān)的特征區(qū)域,從而減少無關(guān)背景的干擾,確保對目標特征的精準鎖定與識別。實驗數(shù)據(jù)顯示,對于細小的電力設(shè)施如變壓器、風扇等,Mask-Grad-CAM在定位和識別精度上有了顯著提升,證明了改進方法的有效性。

        綜上所述,通過對Grad-CAM與Mask-Grad-CAM算法在電力遙感圖像識別中的可視化對比分析,可以得出結(jié)論:Mask-Grad-CAM算法在識別多目標、小型目標以及復(fù)雜背景下的電力目標時,展現(xiàn)出了更高的定位精確度和更好的可解釋性,這對于電力設(shè)備的實時監(jiān)測、故障診斷以及智能化管理具有重要的實際應(yīng)用價值。

        3.2 模型性能實驗

        采用Grad-CAM中的平均下降率和平均上升率作為忠實度評估的性能指標[15],平均下降率和平均上升率本質(zhì)是將產(chǎn)生的類激活映射作為指示掩碼來突出顯示與目標類別相關(guān)的像素或區(qū)域,以觀察模型輸出該目標類別的分數(shù)變化來衡量類激活圖對模型解釋的忠實度。平均下降率(Average Decrease, AD)和平均增長率(Average Increase, AI)兩個指標的計算過程如式(16)和式(17)所示:

        式中:Yic表示模型對圖像中目標類別c的預(yù)測分數(shù);Oic表示模型以顯著圖指示的目標區(qū)域作為輸入,輸出關(guān)于目標類別c的預(yù)測分數(shù);Sign( )為指示函數(shù),如果輸入為正值則輸出為1,否則輸出為0。從計算過程可知,平均下降分值越低,平均增長分值越高,說明方法的忠實度越好。實驗結(jié)果見表2。

        本研究采用平均下降率(AD)和平均上升率(AI)作為評估模型解釋忠實度的關(guān)鍵指標。通過對六種不同的CAM變體進行對比實驗,結(jié)果顯示改進后的Mask-Grad-CAM在AD上獲得的最低數(shù)值為57.4%,而在AI上獲得的最高數(shù)值為8.7%。這兩個結(jié)果共同揭示了Mask-Grad-CAM在保持目標類別預(yù)測分數(shù)穩(wěn)定性以及提高顯著區(qū)域?qū)δP皖A(yù)測影響方面的優(yōu)越性能,從而證明了其在解釋模型預(yù)測時的高忠實度[16]。

        3.3 定位性能實驗

        通過查看顯著圖落入目標對象邊界框中的能量大小來衡量其定位能力?;谀芰康闹赶蚨ㄎ恢笜擞嬎阋娛剑?8):

        式中:Lc(i, j)∈bbox表示在類激活映射圖中,關(guān)于標簽c的像素位置;P指顯著圖中落入目標對象邊界框的像素數(shù)量與總像素數(shù)量的比例。

        實驗中,對比了本文改進的Mask-Grad-CAM模型和Grad-CAM模型對于電力設(shè)備遙感圖像中類別較多且較大的目標的定位性能,包括冷凝塔、煙囪、汽輪機組和水箱。定位精度結(jié)果測試取多次實驗穩(wěn)定值,具體見表3。

        針對電力設(shè)備遙感圖像中大型目標的定位性能實驗表明,改進的Mask-Grad-CAM模型相較于基礎(chǔ)Grad-CAM模型,在定位冷凝塔、煙囪、汽輪機組和水箱等不同目標時均表現(xiàn)出顯著優(yōu)勢。實驗數(shù)據(jù)顯示,Mask-Grad-CAM在各目標類別的定位精度上分別提高了7.3個百分點(冷凝塔)、15.9個百分點(煙囪)、15.2個百分點(汽輪機組)和13.6個百分點(水箱)。這證實了Mask-Grad-CAM在復(fù)雜場景下對多特征目標的有效定位能力和較高的定位準確性[17]。

        4 結(jié) 語

        本文提出了一種名為Mask-Grad-CAM的創(chuàng)新目標表征方法,通過優(yōu)化深度神經(jīng)網(wǎng)絡(luò)內(nèi)部的類激活機制,顯著增強了對電力設(shè)備遙感圖像中多特征目標的可解釋性表征。實驗表明,該方法不僅能有效提升模型預(yù)測目標類別時的忠實度,還能在定位多種大型目標方面取得超越現(xiàn)有Grad-CAM模型的性能表現(xiàn)。通過深入挖掘多層語義信息,Mask-Grad-CAM不僅避免了因目標缺失而導致的誤判問題,而且能夠生成與目標位置高度吻合且噪聲較少的融合特征圖,這些特征圖具有更強的物體輪廓可解釋性。展望未來,我們將進一步探索Mask-Grad-CAM在其他電力遙感圖像任務(wù)中的應(yīng)用潛力和普適性。

        參考文獻

        [1] WANG D, YANG Y, TAO C, et al. Proactive pseudo-intervention: causally informed contrastive learning for interpretable vision models [J]. Computer science,2020.

        [2] GOEL N, AMAYUELAS A, DESHPANDE A, et al. The importance of modeling data missingness in algorithmic fairness: a causal perspective [Z]. 2020.

        [3] WANG S, ZHU L. A causal-regularity and deep learning-based conjoint inference [C]// 2021 IEEE 4th International Conference on Computer and Communication Engineering Technology (CCET). [S.l.]: [s.n.], 2021: 233-237.

        [4] SELVARAJU R, DAS A, VEDANTAM R, et al. Grad-CAM: Why did you say that? NIPS 2016 workshop on interpretable machine learning in complex systems [J]. arXiv: preprint arXiv: 1611.07450,"2016.

        [5] HOLZINGER A, CARRINGTON A, MüLLER H. Measuring the quality of explanations: the system causability scale (SCS): comparing human and machine explanations [J]. Kunstliche intelligenz, 2020, 34(2): 193-198.

        [6] SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization [J]. International journal of computer vision, 2020, 128 (2): 336-359.

        [7] WANG D, YANG Y, TAO C, et al. Proactive pseudo-intervention: causally informed contrastive learning for interpretable vision models [J]. arXiv preprint arXiv: 2012.03369, 2020.

        [8] JUDEA P. The seven tools of causal inference, with reflections on machine learning [J]. Communications of the ACM, 2019, 62(3):"54-60.

        [9] WANG T, HUANG J, ZHANG H, et al. Visual commonsense R-CNN [J]. arXiv: 2002.12204, 2020.

        [10] HATTOPADHAY A, SARKAR A, HOWLADER P, et al. Gradcam++: Generalized gradient-based visual explanations for deep convolutional networks [C]// Proceedings of the 2018 IEEE Winter Conference on Applications of Computer Vision (WACV). Washington, DC: IEEE, Computer Society, 2018: 839-847.

        [11] CHOLLET F. Deep learning with Python [J].1stedition. Manning publications, 2017: 162-176.

        [12] JUDEA P. The seven tools of causal inference, with reflections on machine learning [J]. Communications of the ACM, 2019, 62(3): 54-60.

        [13] SHIMIZU S, HOYER P O, HYVRINEN A, et al. A linear non-gaussian acyclic model for causal discovery [J]. Journal of machine learning research, 2006, 7(4): 2003-2030.

        [14] YANG M, LIU F, CHEN Z, et al. Causal VAE: disentangled representation learning via neural structural causal models [Z]. 2020.

        [15] ZHANG Y, TI?O P, LEONARDIS A, et al. A Survey on Neural Network Interpretability [J]. in IEEE transactions on emerging topics in computational intelligence, 2021, 5(5): 726-742.

        [16] HOLZINGER A, CARRINGTON A, MüLLER H. Measuring the quality of explanations: the system causability scale (SCS): comparing human and machine explanations [J]. Kunstliche intelligenz, 2020, 34(2): 193-198.

        [17]孫輝,史玉龍,王蕊.基于對比層級相關(guān)性傳播的由粗到細的類激活映射算法研究[J].電子與信息學報,2023,45(4):1454-1463.

        收稿日期:2024-04-03 修回日期:2024-05-10

        国语对白免费观看123| 婷婷丁香五月中文字幕| 国产精品久久无码一区二区三区网| 色老汉免费网站免费视频| 亚洲产在线精品亚洲第一站一| 欧美性福利| 精品国产1区2区3区AV| 日韩精品一二区在线视频| 日本女优免费一区二区三区| 亚洲av高清一区二区在线观看 | 亚洲AV无码日韩综合欧亚| 日本国主产一区二区三区在线观看| 中文字幕一区二区三区综合网| 色婷婷久久精品一区二区| 无码无套少妇毛多18p| 色噜噜狠狠狠综合曰曰曰| 真人二十三式性视频(动)| 少妇无码av无码去区钱| 国产精品白浆免费观看| 蜜桃传媒免费观看视频| 免费久久99精品国产| 国产一区内射最近更新| 欧美mv日韩mv国产网站| 亚洲中文字幕在线一区二区三区| 丰满人妻中文字幕乱码| 91亚洲免费在线观看视频 | 无码国模国产在线观看| 国产激情视频白浆免费| 久久国产精品老人性| 日韩国产一区二区三区在线观看| 国产三级黄色免费网站| 欧美国产综合欧美视频| www国产精品内射熟女| 一级一级毛片无码免费视频| 极品少妇被后入内射视| 一级老熟女免费黄色片| 亚洲男女内射在线播放| 又色又爽又黄还免费毛片96下载| 亚洲男人第一av网站| 亚洲国产精品综合久久20| av在线网站一区二区|