亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        SP-CPGCN:用于塵肺病分期的超像素先驗因果感知圖卷積網絡

        2025-08-03 00:00:00王月瑩紀國華馮偉毅趙涓涓強彥馬建芬施熠煒楊帆
        計算機應用研究 2025年6期
        關鍵詞:塵肺病損失準確率

        SP-CPGCN : causality-perception graph convolutional network on superpixel prior for pneumoconiosis staging

        Wang Yueyingla,Ji Guohuala,Feng Weiyi1a,Zhao Juanjuanla,Ibt,Qiang Yanla.2,MaJianfenla,Shi Yiwei 3 ,Yang Fan4 (1.a.Collegfeeceeece)odfrenUiesit 030024,Chna;2holfSfare,NUniersitfhnaTaianO3OhnaDeptofulmaryamp;ricalCaredicine ShanxiKeybsoeosliclUsi 030012,China;4Ocupioalisesereetioamp;ontroltefisnCalamp;Electricity(Gou)anna)

        Abstract:Toaddress thelowaccuracyinpneumoconiosisstaging causedbythesmallandthinpneumoconiosis fociandthe influenceof non-causal features inexistingdeeplearning methods,thispaperproposedacausality-perceptiongraph convolutionalnetworkonsuperpixelpriors(SP-CPGCN).Themethodextractedlocal,subtlefeaturesbyperforming featureextractiononsuperpixelsratherthantheentirechestradiograph.The method constructedagraph network byfullyconsidering the spatial proximityandfeaturesimilarityamongnodes,anddesignedahierarchicalaggegatedgraphconvolutionalnetwork to enableinformationtransferandfeatureintegrationacrossdiffrentdepths.Aditionally,themethodemployedadaptivecausal inferenceongraphconvolutionalnetworks,usingacausalinterventionstrategythatcombinedinterventionlossandstabilityloss to avoidheinterfereneof non-causalfeatures.Itlsointroducedanintraclassconsistencylosstoalance individual-specific features with group-universal features.Thevalidationresultsonaclinicalpneumoconiosischestradiograph datasetshowthat SP-CPGCN achieved an accuracy of 82.4% ,a precision of 78.9% ,a sensitivity of 77.3% ,a specificity of 88.6% ,and an AUC of 90.3% ,outperforming other methods. The experimental results show that SP-CPGCN efectively improves the accuracyand stability of pneumoconiosis staging and provides areliablenew method for automated medical diagnosis.

        'ey words:graph convolutional network(GNN);causal inference; superpixel; chest X-ray;pneumoconiosis stagi

        0 引言

        塵肺病是一種不可逆轉的呼吸系統(tǒng)疾病。由于其高發(fā)性和難以治愈性,塵肺病已經成為一項重要的職業(yè)健康問題[1]。

        胸片作為一種低劑量和經濟的檢查方法,可以提供肺部結構的紋理和密度變化,是塵肺診斷中最常用的影像學工具之一。在臨床上,放射科醫(yī)生通過觀察胸片上影像學特征,將塵肺病分為正常、一期、二期、三期四個期別。但由于塵肺病變具有輕薄彌漫性和漸進演化性,導致相鄰期別之間的可分難度增加,尤其是在塵肺早期診斷上。如圖1所示,這就使得放射科醫(yī)生進行塵肺定級時費時費力且主觀差異大,并且對醫(yī)生的臨床經驗和專業(yè)知識都提出了較高的要求。因此,迫切需要一種準確、高效和低成本的計算機輔助的塵肺分類診斷方法。

        目前,已經有研究探索端到端的學習模型自動提取深層特征,在塵肺病診斷方向取得了不錯的進展。例如,Zhang等人[2采用經典的ResNet模型,Wang等人[3]選用Inception-V3模型,Devnath等人[4運用CheXNet模型進行微調對塵肺胸片進行正常階段和其他病變階段的分期。為了進一步提高分期準確率,考慮塵肺病變的微薄彌漫性特征,Luo等人[5]建立了雙分支暗通道差分卷積神經網絡,Sun等人[67]提出了完全深度學習范式和深度專家咨詢范式以克服塵肺病分期的噪聲標簽。這些研究共同驗證了深度學習在解讀塵肺胸片方面與專業(yè)放射科醫(yī)生有著相媲美的表現。然而這些方法雖然在特定條件下能夠較好地捕捉胸片的全局特征,但在處理塵肺病灶這種微小且彌漫的病變時仍然存在不足,尤其是受非因果特征的影響(如正常的肺部結構、拍攝角度及噪聲等),導致診斷準確率不高。

        近些年,圖神經網絡(GNN)因其廣泛的適用性和強大的性能,正越來越多地被應用到醫(yī)學圖像分析領域。作為對非結構化數據建模學習的一種方式,GNN能夠充分利用圖的全局拓撲結構和節(jié)點連接關系來融合局部和全局信息,從而更全面地理解圖像整體特征。且與CNN相比,GNN對標記數據的需求量較小,能夠有效地利用已有的標記數據進行訓練。然而,目前針對醫(yī)學影像的圖神經網絡方法仍面臨著以下挑戰(zhàn):

        a)現有將醫(yī)學圖像轉換為圖形的方法信息豐富度損失嚴重。其通常采用簡單的映射規(guī)則將圖像中的像素或區(qū)域直接轉換為圖形中的節(jié)點或邊,這種簡化無法充分表征醫(yī)學圖像中的豐富信息和復雜結構。

        b)由于非因果特征導致的泛化能力下降。一些非因果特征,例如正常肺部胸片上由肺內血管或支氣管壁等產生的結構性變化(生理性紋理變化),或者由于胸片本身的拍攝角度、照片質量等限制引入的一些與塵肺病變無關的噪聲和偽影,都可能會被錯誤地視為具有診斷意義的判別特征,從而限制模型的性能導致結果有偏差。

        為了應對上述挑戰(zhàn),基于患者的胸片數據,提出一種基于超像素先驗的因果感知的圖神經網絡用于自動塵肺分期診斷,主要貢獻如下:

        a)針對塵肺病灶微小、輕薄和彌漫性的特點,構建了基于超像素的圖卷積網絡(GCN)框架,由超像素細粒度特征及位置嵌入作為節(jié)點,依據空間位置關系及特征相似性構建邊際關系學習全局的圖表示,提高對塵肺胸片局部和全局特征的識別和理解能力。這種基于超像素的建模方式相比像素級建模更加適合處理塵肺病中的微小病灶,避免了傳統(tǒng)方法中病灶特征被背景噪聲淹沒的問題。

        b)提出基于GCN的自適應因果推理,基于因果不變原理,采用因果干預方法,設計因果一致性和穩(wěn)定性約束增強因果推斷的準確性和可靠性,使其能夠聚焦于與塵肺病分期直接相關的因果特征,過濾掉無關的背景信息或噪聲。

        c)在因果評分模塊設計類內一致性約束,建立個體特異性和群體普遍性的平衡,提高診斷的可靠性。

        d)設計了分層聚合圖卷積網絡(hierarchicalaggregatedgraphconvolutionalnetwork,HAGCN),充分利用信息聚合來更好地捕捉不同深度的圖信息,避免了在傳統(tǒng)網絡使用多層堆疊GCN存在的過度平滑以及缺乏多層次信息聚合的問題。

        e)通過對塵肺病胸片數據集的評估,所提方法達到了最先進的性能,準確率為0.824。

        1相關工作

        1.1醫(yī)學圖像領域的圖卷積網絡

        圖卷積網絡通過傳遞和整合圖中的信息來更新節(jié)點表示,這有助于捕捉圖的全局特征。正是由于GCN在處理復雜圖數據和計算機視覺任務中表現出了強大的性能和靈活性,已被廣泛應用于胸部疾病診斷。

        在基于圖的模型中,圖的拓撲結構扮演著非常重要的角色,許多研究都專注于通過可學習方法或者手工提取節(jié)點之間的關系。如 Yu 等人[8.9]提出ResGNet和CGNet,通過CNN從圖像中提取高級特征表示,之后在基于歐幾里德距離的K近鄰圖上應用GCN重構節(jié)點特征表示,最終用于新冠肺炎的分類;Wang等人[10]將圖像劃分為patch,并提取patch嵌人作為圖節(jié)點,通過區(qū)域鄰近關系將節(jié)點相連用于眼部疾病分類。然而,這種劃分圖像為patch的方式可能會因patch中包含不同語義的像素,出現節(jié)點特征混合和不一致的問題。相比之下,超像素通過聚合具有相似屬性的像素,能夠有效保持圖像語義的連貫性。同時這種將圖像劃分為不規(guī)則小區(qū)域的方法可以幫助模型更好地關注到相對較小的病變區(qū)域,且能夠將圖像處理單元的數量從幾百萬像素減少到幾百個超像素,從而降低了醫(yī)學圖像處理的復雜度。常見的超像素分割算法有簡單線性迭代聚類算法(SLIC)[11]、線性光譜聚類算法(LSC)[12]、貝葉斯自適應超像素分割算法(BASS)[13]等,其中SLIC算法由于其簡單性和效率受到廣泛應用。

        正是由于上述優(yōu)勢,現已有研究者開始使用超像素特征及其之間的關系進行GNN建模。例如,Pradhan等人[14基于區(qū)域鄰接圖使用GCN和GAT進行結核病的分類。Singh等人[15]基于圖像森林變換將圖像優(yōu)化地分割為超像素,將超像素高級特征表示為節(jié)點,利用空間鄰近關系建立圖網絡中的邊,之后利用GNN對超像素表征間的關系進行信息傳遞,最終用于肺炎分類。然而,上述進行圖網絡構建的方法較為簡單,通常只考慮到了超像素之間的空間距離,沒有充分利用判別關系,導致圖結構建立的不完整。

        1.2醫(yī)學圖像分析中的因果關系

        根據因果關系的觀點,模型的預測結果會受到因果因素(關鍵因素)和非因果因素兩類因素的影響。非因果因素,例如醫(yī)學影像的背景、噪聲和亮度成分,都可能會導致結果偏差而限制模型的性能。而因果學習[16-18]有助于克服非因果特征帶來的干擾,從而產生更可靠的推斷結果,這樣的過程可以被描述為

        其中: Y 表示推斷結果; X 表示觀測目標; s 表示干擾因子。

        醫(yī)學圖像分析現在也越來越認識到因果推斷的重要性[19]。如Richens等人[20]定義了結構因果模型(SCM)和噪聲OR模型,致力于探索確定患者癥狀的根本原因及學習患者數據與疾病發(fā)生之間的相關性,從而有效提高疾病診斷的準確率。Yang等人[21]基于Kendall秩相關Tau-CS的因果發(fā)現算法挖掘肺CT圖像的計算特征與語義特征之間隱藏的因果關系,用于肺結節(jié)檢測和分類。Sun等人[22設計了一種使用語義工具變量的因果干預策略,以消除支氣管肺發(fā)育不良(BPD)預測任務中無關特征造成的干擾。Tang等人[23]基于多實例學習中的不變量預測原理,利用因果驅動圖卷積神經網絡增強了帕金森病姿勢異常診斷模型的穩(wěn)定性和泛化能力。Li等人[24]設計基于多實例學習的因果對比機制解耦因果因素和非因果因素,用于平掃CT的胰腺癌早期診斷和篩查。

        2方法

        本文提出的基于超像素先驗的因果感知圖卷積網絡(SP-CPGCN)如圖2所示,該網絡分為三個主要部分。(a)利用SLIC算法將圖像劃分為多個有意義的超像素,在不破壞邊緣信息的同時最大限度利用上下文信息,之后使用預訓練的特征提取網絡進行高級特征提取,將在2.1節(jié)詳細闡述。(b)構建圖網絡,將含位置信息的超像素高級特征表示作為圖節(jié)點,根據超像素間空間鄰近關系和特征相似度建立節(jié)點間的邊際關系,并基于圖卷積神經網絡進行消息傳遞,更新超像素的特征表示,將在2.2節(jié)詳細闡述。(c在GCN上引入自適應因果推理,根據因果評分機制將圖網絡劃分為因果子圖和非因果子圖,之后將子圖分別輸人HAGCN進行信息傳遞和特征整合,從而獲得圖像級塵肺病分類結果。因果干預可避免關鍵信息和虛假信息之間的混淆。此外,通過類內一致性約束增強同一類別因果評分向量的一致性,提高了模型的準確性、穩(wěn)定性和泛化能力,如2.3節(jié)所述。

        圖2 SP-CPGCN架構 Fig.2Architecture of SP-CPGCN

        2.1超像素級特征提取

        2.1.1超像素生成

        本研究采用簡單線性迭代聚類(SLIC)算法生成超像素。給定輸人的圖像 I ,首先在間隔 s 個像素的規(guī)則網格上均勻采樣初始化 M 個聚類中心 Ci=[li,ai,bi,xi,yi] ,對于CILAB色彩空間的圖像, li 是亮度, ai 表示從綠色到紅色的顏色軸, bi 表示藍色到黃色的顏色軸, xi,yi 對應著簇中心坐標,間隔 s 定義為 ,其中 N 表示圖像的像素數量, M 表示超像素的數量,同時也是SLIC算法的輸入參數之一。

        接下來,算法將每個像素都與搜索區(qū)域和其位置重疊的最近聚類中心相關聯,再將聚類中心調整為超像素中所有像素的平均向量。通過迭代優(yōu)化調整超像素的位置,直至聚類中心的位置不再發(fā)生顯著變化,或達到預設的最大迭代次數為止。SLIC算法通過合理調整緊湊度 n 和超像素數量 k ,將圖像劃分為具有重要結構特征的緊湊均勻的超像素,即 I={si} ( i=1,2 3,…,M) 三 si 表示第 i 個超像素。SLIC算法的一個突出優(yōu)勢在于在形成聚類時僅考慮較小的局部區(qū)域( 2s×2s )中的像素,在保持一定精度的同時加快了算法的運行速度。

        2.1.2超像素級局部特征提取

        獲得超像素后,使用預先訓練好的經典神經網絡架構(如ResNet、DenseNet、EfficientNet)的特征提取模塊從中提取特征,捕獲局部細粒度特征。值得注意的是,這些超像素呈現出不規(guī)則的大小。為確保超像素以相同的大小輸入CNN進行特征提取,采用了零填充法將超像素的大小調整為所需的維度( m× m )。這種零填充法相對來說即安全又方便,因為填充為0的像素在網絡更新迭代過程中梯度為0,這意味著這些零填充值對網絡的權重更新沒有貢獻,網絡會忽略它們,并集中于從非零值中學習更有意義的特征。之后這些由超像素擴充得到的規(guī)則patch被輸入CNN進行高級語義特征學習,以獲得超像素級特征表示,這對于后續(xù)涉及構建圖網絡節(jié)點的任務至關重要。

        2.2圖神經網絡的建模與特征學習

        2.2.1 圖的構建

        本文建立圖神經網絡表示超像素間復雜的特征和結構關系,以整合超像素級特征實現更可靠的塵肺期別預測。第 n 個樣本的圖被描述為 Gn={Vn,En} , Vn=RM×D 是所有超像素節(jié)點的嵌入表示, {νi}i=1M 表示第 n 個樣本的第 i 個超像素, M 表示超像素的數量, D 表示超像素高級特征表示的維度。在GNN的處理過程中,這些超像素通常被視為無序節(jié)點。然而,在胸片圖像中,病變區(qū)域往往呈現出一定的分布規(guī)律。為了在圖神經網絡中保留原始圖像中超像素的位置信息,引人位置編碼[25],即在上述特征提取器輸出的超像素節(jié)點表示 ?fi 中添加相對位置編碼 ΠIpi ,從而得到含位置信息的新節(jié)點特征表示:

        鄰接矩陣 iAn 的計算來自節(jié)點特征表示間的相似度和超像素中心的空間距離,具體步驟如下:

        a)計算第 n 張胸片的節(jié)點相似度矩陣。使用余弦相似度來度量節(jié)點間的特征相似度,即

        Ansim={eij}i,j=1,2,…,M

        其中: νi,νj 分別表示第 i 和第 j 個超像素的特征向量。

        b)計算第 n 張胸片的節(jié)點空間距離矩陣 ?Andis 。通過計算超像素中心之間的歐幾里德距離來獲取成對的空間距離 dij 并使用高斯核函數將空間距離映射為[0,1]內的度量值 aij 。具體來說,給定超像素 Si 的聚類中心 Ci 和超像素 Sj 的聚類中心 Cj ,這兩點之間的空間距離數學上可以表示為

        其中: (Cix,Ciy) 和 (Cjx,Cjy) 分別是 Ci 和 Cj 的歸一化坐標; ε 是一個任意小的常數。之后將空間距離 dij 通過方差為 σ2 的高斯分布函數以獲得第 i 和第 j 個超像素節(jié)點間的連接強度:

        若兩個超像素節(jié)點空間距離越近,其連接越緊密,連接強度越大,這也反映了超像素節(jié)點間的一致性更強,能夠更有效地傳遞特征消息。之后將上述節(jié)點相似度矩陣 ?Ansim 和節(jié)點空間距離矩陣 組合起來,得到第 n 個胸片樣本的鄰接矩陣:

        Anall=Ansim?Andis

        其中: ? 表示對應元素相乘。最后,設定一個閾值δ,將相似度小于8的邊過濾掉得到最終的鄰接矩陣 ,此操作在減少圖的復雜度的同時提高了圖神經網絡的計算效率。建立圖網絡后,通過兩層GCN進行信息傳遞,以更新節(jié)點特征表示。

        2.2.2分層聚合圖卷積網絡

        在學習圖網絡全局特征的過程中,傳統(tǒng)方法大多是通過GCN多層堆疊實現的,然而這種方式存在過度平滑以及缺乏多層次信息聚合等問題。具體來說,GCN在多層堆疊時,節(jié)點的特征會通過鄰接矩陣進行消息傳遞,導致相鄰節(jié)點的特征趨于相同,節(jié)點可區(qū)分性降低,尤其在深層網絡中表現明顯;而且GCN缺少針對不同深度圖表示的多層次特征聚合機制,只能通過最終一層的特征進行全局學習,無法充分利用不同深度層次的特征表達能力。

        因此,為有效地利用超像素之間的拓撲結構和局部連接性,捕獲不同深度的空間信息和語義信息,緩解節(jié)點過平滑問題,設計了分層聚合圖卷積網絡(HAGCN)。具體來說,利用圖感知層進行節(jié)點間的消息傳遞,之后經由讀出層將節(jié)點表示自適應地聚合為每個圖感知單元的圖級特征表示。最后,由分類器生成塵肺病分期結果。如圖3所示,HAGCN由圖感知層、讀出層和分類器組成。

        圖3HAGCN架構Fig.3ArchitectureofHAGCN

        a)圖感知層。圖感知層由多層含GCN、FC、BatchNorm、ReLU的圖感知單元組成。給定第 ξl 層圖感知單元的輸入圖G(-1),則其輸出為

        其中:GCN表示圖卷積操作,消息傳遞方式如下:

        其中: 表示含自連接在內的鄰接矩陣, An 是構建的鄰接矩陣, 是一個對角矩陣, H(l) 表示第 lth 層的節(jié)點特征表示; ΔW(l) 表示可學習權重矩陣; σ(.) 表示激活函數。此外,在圖卷積操作之后還添加了一個全連接層,以防止圖中節(jié)點的過度平滑。

        b)讀出層。為避免網絡深度增加,節(jié)點表示過于平滑,導致圖級輸出性能差的問題,設計了逐層讀出圖級表示的讀出層來更有效地整合不同深度的全局信息。具體來說,假設第 ξl 層圖感知單元的輸出圖為 ,讀出操作使用最大池化和均值池化操作再經由FC層聚合圖節(jié)點表示,其中FC層在調整維度的同時可以自適應地整合圖級表示。

        R=concat(R1,R2,…,R(l)

        其中: concat(.) 表示聚合操作; Rl 表示第 ξl 個感知單元讀出的

        圖級表示; R 表示最終圖像級別的特征表示。

        c)分類器。最終將圖級特征表示 R 輸人MLP以獲得預測結果,MLP由兩個全連接層(FC)和一個ReLU激活函數組成。

        2.3 自適應因果推斷GCN

        為正確區(qū)分因果判別特征和非因果特征,準確識別與塵肺相關的肺部表現,避免模型使用非因果快捷特征進行預測,設計了基于GCN的自適應因果推斷。

        2.3.1因果評分模塊

        為量化區(qū)域特征與塵肺疾病的關聯程度,設計因果評分模塊來自適應地評估每個圖節(jié)點的因果得分。首先,利用MLP層將每個節(jié)點向量映射到[0,1]內的一個值,代表該節(jié)點的因果關系得分,衡量每個特征節(jié)點與塵肺病灶之間的關聯程度。之后根據這些因果關系得分,選擇得分最高的 N=?M×α? 個節(jié)點構成因果子圖 Gcau ,其中 α 是比例因子, ΩM 是節(jié)點總數,這時Gcau 就包含與塵肺類標簽相關性最高的節(jié)點及其關聯邊,而其余 (M-N) 個節(jié)點及其對應邊構成非因果子圖 Gnoncau 。之后將兩個子圖分別輸入HAGCN中得到因果預測 ycau 和非因果預測 ynoncau 。值得注意的是,為避免影響因果預測的性能,為非因果子圖和因果子圖分別設計了分類器。由于這些因果分數是根據節(jié)點嵌入自適應地學習的,所以可以根據每個患者胸片的特定病變情況動態(tài)調整,從而有助于模型的性能和魯棒性。

        2.3.2具有穩(wěn)定性約束的組合干預策略

        因果子圖和非因果子圖的劃分應同時滿足兩個條件:

        a)因果子圖進行預測的結果應該與真實標簽足夠接近,即選出的特征節(jié)點對塵肺分期起到的效果足夠好。

        b)基于因果不變原理[26.27],良好的因果模型在不同非因果的干預下的預測結果也應該是正確且相似的,即 P(Y=y∣do(S= s))=P(Y=y) 。其中 s 表示非因果干擾。

        為訓練模型滿足條件a),選擇交叉熵損失函數CE來最小化因果預測結果和真實標簽之間的差異,即:

        ?sup=meann{CE(yncau,yn)}

        其中 :yncau 表示第 n 個樣本得到的因果預測結果 ,yn 表示第 n 個樣本的真實標簽。

        為滿足條件b),將因果預測和非因果預測進行結合得到綜合預測,即得到在非因果預測干預下的綜合預測結果:

        其中 表示第 k 個樣本的非因果子圖得到的非因果預測。

        為保證模型預測不受到非因果特征的干擾,應最小化以下干預損失:

        ?interv=*meann,k{CE(ynk,yn)}n,k∈B

        其中: B 表示批量大小。為確保多個受非因果干預下的預測結果之間的一致性和穩(wěn)定性,本文使用穩(wěn)定性損失函數:

        ?stable=meann{meank,m}(CE(ynk,yn)-CE(ynm,yn))2}}

        受文獻[28]的啟發(fā),將非因果預測結果對因果預測結果的干預過程 F 制定為

        ynk=F(yncau,yknon.cau)=yncau?σ(yknon.cau

        其中: ? 表示元素乘積; σ(.) 表示sigmoid激活函數,用于調整因果輸出,以修正因果子圖的預測結果。

        2.3.3類內一致性約束

        由于塵肺患者所處的工作環(huán)境各異,會暴露在不同類型的塵埃和化學物質下,且患者的既往病史也各不相同,這兩點因素導致塵肺患者胸片所呈現的癥狀和發(fā)病機制可能存在個體差異。在因果評分模塊中,針對每個個體自適應地學習特征的因果關系評分,這種針對個體化的特征選擇過程有助于保留患者的個體特征以實現精準醫(yī)療。此外,考慮塵肺不同診斷類別內的一般性群體水平特征對于理解塵肺常見的疾病模式也至關重要。對于同一類別,應盡可能選擇這些特征作為一致的因果特征。因此本文引入類內一致性約束,提高同一類樣本的因果得分向量之間的相似性。類內一致性約束如下:

        其中: ?S?m 和 |Sn| 分別表示屬于同一類別 c 的樣本 ?m 和 n 的因果得分向量; 2表示歐幾里德范數, c |表示類別的數量,本文 ∣c∣=4 0

        2.4 總體目標損失函數

        綜上所述,因果子圖的損失函數由監(jiān)督損失、干預損失、穩(wěn)定性損失和類內一致損失組成,可以表示為

        ?causal=?sup+α?interv+β?stable+γ?cons

        其中: αβ?γ 是加權因子,用于權衡不同損失函數的貢獻。

        非因果關系可以引導因果關系的學習。因此,非因果預測也應盡可能接近真實標簽,以確保模型能夠準確地捕捉數據中的模式和特征,提高模型的泛化能力和可解釋性。非因果子圖的監(jiān)督損失函數可以表示為

        因果損失對應的優(yōu)化器用于更新兩個GCN層,因果評分模塊和因果子圖對應的HAGCN的參數。第二個優(yōu)化器僅用于優(yōu)化HAGCN非因果分類器的參數,它們同時優(yōu)化且互不干擾。在測試階段,僅使用因果分支得到最終的塵肺分期結果,反向傳播過程見圖4。

        圖4自適應因果推斷GCN的模型優(yōu)化過程Fig.4Model optimizationprocessforGCN-based adaptive causal inferenci

        3實驗

        3.1 數據集和預處理

        本文的數據來源于山西某醫(yī)院的多中心塵肺胸片數據集,所有患者的隱私信息均被刪除(脫敏且過濾了數據質量低的數據)。本文共收集了2048張胸片,并使用U-Net模型分割得到肺野,其中正常925例,一期737例,二期226例,三期160例。因高千伏胸片存儲大小各異,難以直接輸入神經網絡進行訓練。因此本文將圖像大小統(tǒng)一調整為 512×512 并進行歸一化,并對其采用了中心裁剪、在[-15,15]隨機旋轉等數據增強的方法擴充數據集。數據集的標簽均經過兩名額外放射科醫(yī)生的交叉核對,他們都有著二十年以上的影像學和職業(yè)性塵肺病診斷的經驗,極大地保證了標簽的準確率。

        3.2 實現細節(jié)和評價指標

        所有實驗均在Python3.8+PyTorch1.7.1環(huán)境下進行?;赟LIC算法分割肺野為超像素的過程中,將緊湊度 n 設置為20,可以得到較為均勻且平滑的超像素。為避免超像素不規(guī)則難以統(tǒng)一輸入到CNN中進行細粒度特征提取的問題,將每個超像素通過零填充的方式擴充為 64×64 的大小。之后基于超像素的高級特征以及超像素中心坐標的距離,這些圖像數據被轉換為圖結構。以gpickle格式存儲,文件目錄結構與數據集目錄保持一致,以便于圖神經網絡的訓練,其中圖節(jié)點向量長度為512,節(jié)點數量根據實驗結果確定為50。在圖網絡構建過程中,設置閾值 δ=0.04 過濾掉節(jié)點相似度過低的邊緣使得圖更稀疏。因果得分模塊基于MLP計算因果得分,非因果特征來自于同一批量中的其他胸片。實驗中,兩個獨立分支均選用初始學習率為0.001,權重衰退為0.0005的Adam優(yōu)化器,訓練過程迭代100個epoch,批量大小設置為32,因果比率因子 α 設置為0.8,因果子圖損失函數的加權因子 α,β,γ 分別為 0.01,0.05,0.1 。本文利用準確率(ACC)、精確率(PRE)、靈敏度(SEN)、特異度(SPE)和AUC(曲線下面積)進行定量分析,以全面評估該方法的塵肺病分期性能。

        3.3消融實驗

        為驗證每個組件的有效性進行以下實驗:鄰接矩陣建立方法的有效性和自適應因果推斷GCN(干預損失、穩(wěn)定性損失和類內一致性損失)的有效性驗證。

        3.3.1鄰接矩陣建立方法的有效性

        本文通過與多個鄰接矩陣的消融實驗來驗證基于特征相似性及空間鄰近性建立圖網絡的有效性?;€實驗采用單位矩陣作為鄰接矩陣,忽略不同圖節(jié)點之間的鄰接關系。實驗結果(如表1所示),可以觀察到基線模型準確率僅有0.798,由于僅使用單位矩陣,導致所有節(jié)點被視為相互獨立,缺乏必要的上下文信息和空間關系,使得模型在捕捉全局特征時受到限制。

        表1用于構建圖網絡的不同鄰接矩陣的實驗結果

        與基線模型相比,基于GCN的超像素特征聚合方法顯著提高了分類器的性能。實驗結果顯示,考慮超像素空間鄰近性的方法相比基線模型提高了1.4百分點,準確率提升至0.812,這表明空間關系的引入有助于捕捉節(jié)點間的結構關聯;而考慮超像素特征相似性的方法相比基線模型提高了1.8百分點,準確率為0.816,表明基于特征相似性建立鄰接關系的方法在增強節(jié)點特征表達過程中發(fā)揮了作用;而通過綜合考慮超像素的特征相似性和空間鄰近性的方法在塵肺分類方法中取得了最佳性能,準確率為0.824,與基線模型相比提升了2.6百分點,并且在其他評價指標上的性能也有應的提高。這表明,結合空間鄰近關系和超像素特征相似關系能夠更全面地捕捉圖像中的復雜結構和關系,增強信息傳播的有效性,從而促進了塵肺病中細微彌漫性病變在圖像層面的全局表現。

        3.3.2基于GCN的自適應因果推斷有效性

        如表2所示,對因果約束進行了消融實驗?;€模型(模型1)表示基于超像素的GCN架構,僅依賴監(jiān)督損失進行訓練,未引入因果驅動的約束,模型難以識別不同病變區(qū)域的因果關聯性,導致其在塵肺病細微病變的分期任務中泛化能力較差,結果顯示準確率僅有0.776。當逐一去除干預損失和穩(wěn)定性損失時,模型的準確度分別下降了3.3百分點和3.5百分點(模型6\~8)。這種性能下降可以從因果不變性原理解釋。干預損失的作用在于引導模型在不同環(huán)境和條件下保持對病變區(qū)域穩(wěn)定的因果特征識別。去除這一損失后,模型表現出不穩(wěn)定性,無法有效捕捉到塵肺病變的關鍵特征,導致分期準確率顯著下降。同樣,穩(wěn)定性損失的去除使得模型在不同數據分布下的魯棒性降低,特別是在處理圖像中病灶位置和形態(tài)差異時,模型無法保持輸出的一致性,從而影響了塵肺病變的精準識別。

        此外,與不考慮因果關系的GCN模型相比,同時使用干預損失和穩(wěn)定性損失,模型準確率提高了2.0百分點(模型1、5),表明兩者協同作用顯著增強了模型的因果特征捕捉能力。然而,單獨使用干預損失(模型2)或穩(wěn)定性損失(模型3)的模型性能并未顯著超過基線模型,這表明僅依賴單一因果約束不足以充分提升模型對復雜胸片病變的分期能力。值得注意的是,當干預損失和穩(wěn)定性損失均被去除,僅保留類內一致性損失時(模型4),模型準確率比基線模型下降了1.9百分點。類內一致性損失旨在減少同一類別內樣本之間的差異,但在缺乏因果約束的情況下,模型容易過度擬合局部特征而忽略全局病變特征,導致分期效果不佳。

        當同時使用干預損失、穩(wěn)定性損失和類內一致性損失時,所有指標均達到了最高值。前兩者促進了因果判別特征的學習,使模型能夠在不同干預下產生穩(wěn)定而準確的預測結果。類內一致性損失通過減少同一類別中因果得分向量之間的距離,增強了模型的穩(wěn)健性和泛化能力,從而有利于捕捉數據中的共同特征。

        表2不同損失函數組合的實驗結果Tab.2Experimentalresultsfordifferentcombinationsoflossfunctions

        3.4超像素數量和特征提取網絡對模型性能的影響

        如圖5所示,本文研究了超像素數量和預訓練特征提取網絡對模型性能的影響??梢钥闯?,ResNet和EfficientNet的趨勢相似。隨著超像素數量從5個逐漸增加到50個,模型性能不斷提高。ResNet模型的準確率從0.802提高到0.824,而EfficientNet的性能則從0.781提高到0.808。這可能是由于更多的超像素帶來了更高的空間分辨率和更豐富的局部信息,有效避免了在圖像中進行下采樣時細節(jié)特征丟失的問題。因此,該模型能更準確地捕捉胸片圖像中肺部病變的細微特征,尤其是早期和小范圍病變的特征。然而,當超像素數量超過一定閾值,特別是超過50個時,模型的性能會呈現下降趨勢。當超像素數量達到150或200個時,模型的性能甚至不如劃分為5或10個超像素的模型,這可能是由于過度分割圖像導致了信息丟失和語義模糊。此外,隨著超像素數量的增加,圖網絡中節(jié)點和邊的數量也會增加,從而增加了計算復雜度。隨著超像素數量的增加,DenseNet的性能呈下降趨勢,在大多數情況下,其超像素特征提取能力低于其他兩個網絡。因此,選擇50個超像素和ResNet(準確率為0.824)用作塵肺病診斷任務。

        圖5超像素數量和特征提取網絡對于模型準確率的影響Fig.5Impact of superpixel numbers and feature extractionnetworks on model accuracy

        3.5超像素的可視化和因果關系得分的可解釋性

        為了探索和解釋這些高因果得分的節(jié)點,本文將胸片的超像素分割結果和部分因果得分可視化。圖6(a)展示了原始胸片及其由放射科醫(yī)生得出的六個肺部區(qū)域的相應密度;圖6(b)展示了肺部區(qū)域50個超像素的分割結果以及部分因果關系評分。根據圖6所示的結果,可以觀察到超像素索引為38和44的因果得分分別為0.73和0.82,這表明它們與塵肺病的分期有高相關性。根據圖6(a)中標準片給出的肺區(qū)分級,超像素38和44對應左下肺密度為2/2的區(qū)域,與實驗結果一致。相比之下,超像素14的因果分值僅為0.29,表明與塵肺病二期的相關性較低。觀察圖6(b)下方的對應超像素,發(fā)現該區(qū)域幾乎沒有塵肺病灶。此外,超像素31的因果得分低,僅為0.11,這與醫(yī)生在診斷時通常不太注意肺內膜邊緣的做法一致,表明位置編碼的引入使模型能更好地關注肺內的超像素。結果表明,所提方法成功地捕捉到了與塵肺病相關的區(qū)域和因果特征。

        圖6二期塵肺病胸片的示例 Fig.6Example for stage-2 pneumoconiosis chest X-ray

        3.6對比實驗

        為了全面評估所提方法的有效性,將其與其他基于超像素的GNN方法進行了比較。具體來說,Singh等人[15通過圖像森林變換將胸片劃分為超像素,并利用GCN根據區(qū)域鄰接圖對肺炎進行分類。DIR[28]和 Dise[29] 則在GNN中加人了基于圖像超像素構建的因果關系探索,以提高模型的預測和泛化能力。DIR提出了發(fā)現不變原理的新策略,使模型盡可能接近不同分布中的因果原理,過濾掉不穩(wěn)定的快捷特征。Disc提出了解糾纏的GNN框架,分別學習因果和偏差子結構。為了保證比較的公平性,將超像素的數量統(tǒng)一設置為50個,模型都在塵肺病數據集上進行了訓練和測試。圖節(jié)點特征統(tǒng)一使用CNN提取的高級特征,而不是平均像素特征,以避免因塵肺病微小病變特征丟失而導致建模效果不佳的問題。

        實驗比較結果見表3,顯示了5倍CV方案重復10次的平均值和標準偏差( mean±SD )。從中可以看出,文獻[15]的方法的準確率僅為0.741。這一相對較低的準確率可能是由于其超像素劃分與圖神經網絡傳播方式的簡單化處理,未在節(jié)點間充分建模病變區(qū)域的復雜空間關系和語義關聯,所以未能有效捕捉塵肺病細微病變的全局信息。此外,該方法在信息傳播過程中缺乏對關鍵特征的選擇和因果約束,導致模型容易受制于噪聲和局部特征的干擾,限制了整體表現。相比之下,包含因果推理的DIR和DisC方法則明顯優(yōu)于文獻[15],準確率分別達到0.779和 0.796 。這表明因果推斷技術的加入在很大程度上提高了模型的預測性能,但在整合超像素間的多層次信息方面仍顯不足,導致對細微病變的捕捉不夠充分。相比之下,本文方法通過分層聚合機制以及自適應推斷因果約束,更精準地提取塵肺病胸片中的判別特征,在所有評估指標上均優(yōu)于其他方法。

        表3與其他基于超像素的GNN方法各性能指標的實驗比較結果

        4結束語

        為解決由于塵肺病灶微小微薄以及非因果特征干擾導致塵肺分期準確率低的問題,本文提出了一種SP-CPGCN模型。具體來說,首先引人了一種基于超像素先驗的方法來捕捉局部細節(jié)特征,并采用HAGCN來學習圖形的全局特征,從而增強了模型學習塵肺病胸部X光片局部和全局特征的能力。此外,還提出了基于GCN的自適應因果推斷,利用結合了干預約束和穩(wěn)定性約束的因果干預策略來避免對非因果特征的干預。此外設計了類內一致性損失,以平衡患者的個體特征和群體的普遍性。本文是第一個將因果推理應用于塵肺病診斷。通過對塵肺病數據集的實驗驗證了因果推理提高塵肺病分期診斷的可靠性和穩(wěn)定性??傊岱椒閷崿F可靠的自動醫(yī)學診斷提供了一種新方法。未來將探究在一個更為平衡數據集上建立端到端的因果推斷圖神經網絡,進一步提高模型對微小病灶的敏感性和塵肺病分期的精度。

        參考文獻:

        [1]Qi Xianmei,Luo Ya,SongMeiyue,et al.Pneumoconiosis:current status and future prospects [J].Chinese Medical Journal,2021, 134(8) : 898-907.

        [2]Zhang Liuzhuo,Rong Ruichen,Li Qiwei,et al.A deep learningbased model for screening and staging pneumoconiosis [J].Scientific Reports,2021,11(1):2201.

        [3]Wang Xiaohua,Yu Juezhao,Zhu Qiao,et al.Potential of deep learning in assessing pneumoconiosis depicted on digital chest radiography [J].Occupational and Environmental Medicine,2020, 77(9) : 597-602.

        [4]DevnathL,LuoSuhuai,SummonsP,etal.Automated detection of pneumoconiosis with multilevel deep features learned from chest X-ray radiographs[J].Computersin Biology and Medicine,2021, 129:104125.

        [5]LuoQianhao,Liu Xin,Yuan Huaqiang,etal.Abi-branchdark channel differential convolutional neural network for occupational pneumoconiosis staging[C]//Proc of International Joint Conference onNeural Networks.Piscataway,NJ:IEEE Press,2O22:1-7.

        [6]Sun Wenjian,Wu Dongsheng,Luo Yang,et al.ExpertNet:defeat noisylabels bydeep expert consultation paradigm for pneumoconiosis staging on chest radiographs[J].Expert Systems with Applications,2023,232:120710.

        [7].Sun Wenjian,Wu Dongsheng,Luo Yang,et al.A fully deep learning paradigm for pneumoconiosis staging on chest radiographs[J]. IEEE Journal of Biomedical and Health Informatics,2022,26(10): 5154-5164.

        [8]Yu Xiang,Lu Siyuan,Guo Lili,et al.ResGNet-C:a graph convolutional neural network for detection of COVID-19[J].Neurocomputing,2021,452:592-605.

        [9]Yu Xiang,Wang Shuihua,Zhang Yudong.CGNet:agraphknowledge embedded convolutional neural network for detection of pneumonia[J].Information Processingamp;Management,2021, 58(1):102411.

        [10]Wang Bin,Pan Hongyi,Aboah A,et al. GazeGNN:a gaze-guided graph neural network for chest X-ray classification[C]//Proc of IEEE/CVF Winter Conference on Applications of Computer Vision. Piscataway,NJ:IEEEPress,2024:2183-2192.

        [11] Achanta R, Shaji A,Smith K,et al. SLIC superpixels compared to state-of-the-art superpixel methods [J]. IEEE Trans on Pattern AnalysisandMachine Inteligence,2012,34(11):2274-2282.

        [12]Li Zhengqin, Chen Jiansheng. Superpixel segmentation using linear spectral clustering [C]/′ Proc of IEEE Conference on Computer Vision and Patterm Recognition. Piscataway,NJ: IEEE Press,,2015: 1356- 1363.

        [13]Uziel R,Ronen M,Freifeld O. Bayesian adaptive super pixel segmentation [C]/′ Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ:IEEE Press,2019: 8469-8478.

        [14]Pradhan R, Santosh K C. Analyzing pulmonary abnormality with superpixel based graph neural network in chest X-ray[M]// Santosh K C,Makkar A,Conway M,et al. Recent Trends in Image Processing and Pattern Recognition. Cham:Springer,2024: 97-110.

        [15] Singh A,Van de Ven P,Eising C,et al. Connecting the dots: graph neural network powered ensemble and classification of medical images [C]//Proc of the 31st Irish Conference on Artificial Intelligence and Cognitive Science.Piscataway,NJ: IEEE Press,2023:1-8.

        [16]Luo Huishi, Zhuang Fuzhen, XieRuobing,et al.Asurveyoncausal inference for recommendation[J].The Innovation,2024,5(2): 100590.

        [17]陳薇,蔡瑞初,伍運金,等.基于多組典型相關變量的因果關系 發(fā)現算法[J].計算機應用研究,2021,38(1):53-56.(Chen Wei,CaiRuichu,Wu Yunjin,etal.Causal discovery algorithm based on multiset canonical correlation variables[J].Application Research of Computers,2021,38(1):53-56.)

        [18]麥桂珍,彭世國,洪英漢,等.混合加噪聲模型與條件獨立性檢 測的因果方向推斷算法[J].計算機應用研究,2019,36(6): 1688-1692.(Mai Guizhen,PengShiguo,HongYinghan,etal. Causation inference based on combining additive noise model and conditional independence [J].Application Research of Computers, 2019,36(6): 1688-1692.)

        [19] Castro D C,WalkerI,Glocker B. Causality matters in medical imaging[J].Nature Communications,2020,11(1):3673.

        [20]Richens JG,Lee C M, Johri S. Improving the accuracy of medical diagnosis with causal machine learming [J]. Nature Communications,2020,11(1):3923.

        [21]Yang Jing,Jiang Liufeng, Xie Kai,et al. Lung nodule detection algorithm based on rank correlation causal structure learning[J]. Expert Systems with Applications,2023,216:119381.

        [22]Sun Siqi,Ji Wei,Tang Liangfeng,et al.An interpretable causal approach for bronchopulmonary dysplasia prediction[C]// Proc of IEEE International Conference on Bioinformatics and Biomedicine. Piscataway,NJ: IEEE Press,2022:1193-1200.

        [23]Tang Xinlu,Guo Rui, Zhang Chencheng,et al.A causality-driven graph convolutional network for postural abnormality diagnosis in parkinsonians[J]. IEE Trans on Medical Imaging,2023,42(12): 3752-3763.

        [24]Li Xinyue,Guo Rui,Lu Jing,et al.Causality-driven graph neural network for early diagnosis of pancreatic cancer in non-contrast computerized tomography[J].IEEE Trans on Medical Imaging,2023, 42(6) : 1656-1667.

        [25]Liu Ze,Lin Yutong,Cao Yue,etal.Swin Transformer:hierarchical vision transformer using shifted windows [C]// Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:9992-10002.

        [26]Pearl J. Causality: models,reasoning,andinference[M].2nd ed. Cambridge:Cambridge University Press,2022.

        [27]Peters J, Buhlmann P,Meinshausen N. Causalinference by using invariant prediction: identification and confidence intervals[J].Journal of the Royal Statistical Society:Series B: Statistical Methodology,2016,78(5): 947-1012.

        [28]Wu Yingxin,Wang Xiang, Zhang An,et al. Discovering invariant rationales for graph neural networks[EB/OL].(2022-01-30).https://arxiv.org/abs/2201.12872.

        [29]Fan Shaohua,Wang Xiao,Mo Yanhu,et al.Debiasing graph neural networks via learning disentangled causal substructure [C]// Proc of the36th Intermational Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2022: 24934-24946.

        猜你喜歡
        塵肺病損失準確率
        基于改進MobileNetV2的煙絲種類識別
        基于遷移學習與注意力機制的花生葉部病害識別算法
        犬類可精準識別帕金森患者
        AI預測點球方向比守門員準
        兩條守恒定律在解決碰撞模型中的應用
        2000億元TLAC債增強國有大行抗風險能力
        肺結核和塵肺病的X線影像區(qū)別
        健康之家(2025年9期)2025-08-07 00:00:00
        員工失職定損司法審查的四大要點
        人力資源(2025年5期)2025-07-20 00:00:00
        肥老熟妇伦子伦456视频| 精品日产一区2区三区| av一区二区在线免费观看| 美女扒开大腿让男人桶| 国产色秀视频在线播放| 欧美性一区| 中文字幕手机在线精品| 国产亚洲欧洲aⅴ综合一区| 好屌草这里只有精品| 调教在线播放黄| 亚洲av综合色区久久精品| 男吃奶玩乳尖高潮视频| 91精品国自产拍老熟女露脸| 色综合久久久久综合99| 亚洲中文字幕无码爆乳av| 杨幂国产精品一区二区| 夜夜高潮夜夜爽免费观看| 日本熟妇hdsex视频| 精品伊人久久香线蕉| 在线丝袜欧美日韩制服| 大香蕉视频在线青青草| 日本a片大尺度高潮无码| 开心婷婷五月激情综合社区| 国产桃色精品网站| 狠狠爱婷婷网五月天久久| 亚洲av综合永久无码精品天堂| 国产午夜精品电影久久| 日韩女同一区二区三区久久| 国产成人精品无码免费看| 亚洲av电影天堂男人的天堂| 午夜不卡亚洲视频| 高清少妇二区三区视频在线观看 | 在线视频一区色| 人妻免费黄色片手机版| 欧美又大又硬又粗bbbbb| 国产乱子乱人伦电影在线观看| 最新永久无码AV网址亚洲| 91精品久久久中文字幕| 久久久g0g0午夜无码精品| 97中文字幕在线观看| 亚洲中文字幕一区二区三区多人|