亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能在根尖周囊腫病理診斷中的初步應(yīng)用

        2023-05-20 07:36:44郝逸航黃美暢李茂湯亞玲梁新華
        口腔疾病防治 2023年9期
        關(guān)鍵詞:模型

        郝逸航,黃美暢,李茂,湯亞玲,梁新華

        1.口腔疾病研究國家重點(diǎn)實(shí)驗(yàn)室國家口腔疾病臨床醫(yī)學(xué)研究中心四川大學(xué)華西口腔醫(yī)院口腔頜面外科,四川成都(610041);2.口腔疾病研究國家重點(diǎn)實(shí)驗(yàn)室國家口腔疾病臨床醫(yī)學(xué)研究中心四川大學(xué)華西口腔醫(yī)院病理科,四川 成都(610041)

        根尖周囊腫是與牙髓壞死相關(guān)的炎癥性囊腫,是最常見的炎癥性牙源性頜骨囊腫[1],其在頜骨牙源性囊腫中所占比例為59.9%[2]。大多數(shù)根尖周囊腫是由齲病或牙外傷造成的牙髓壞死引起,是頜骨最常見的放射透射病灶[3]。根尖周囊腫是牙髓壞死根尖區(qū)上皮受到炎癥刺激而形成的真性上皮襯里囊腫。上皮通常來源于Malassez 上皮剩余[4],但也可能是齦溝上皮、鼻竇襯里上皮或竇道襯里上皮。其由纖維結(jié)締組織囊壁、襯里上皮和含有囊液和細(xì)胞碎片的囊腔構(gòu)成[5]。精確評(píng)估根尖周病損對(duì)準(zhǔn)確診斷和制定恰當(dāng)?shù)闹委熡?jì)劃至關(guān)重要。

        全視野數(shù)字切片(whole slide image,WSI)是將玻璃切片上的組織整體轉(zhuǎn)化為高分辨率的數(shù)字切片[6],其具有方便存儲(chǔ)、不褪色等優(yōu)點(diǎn)。近年來,數(shù)字切片技術(shù)以及其在各病理亞專業(yè)的應(yīng)用呈指數(shù)級(jí)增長,帶動(dòng)傳統(tǒng)病理向數(shù)字病理轉(zhuǎn)型[7]。人工智能(artificial intelligence,AI)利用WSI 形成的豐富的數(shù)據(jù)提取樣本的特征[8],檢測(cè)數(shù)字切片中的病變區(qū)域并量化各項(xiàng)指標(biāo),使得AI 能夠基于臨床上不斷積累的WSI 數(shù)據(jù)對(duì)病理圖像進(jìn)行分析,能充分發(fā)揮在大數(shù)據(jù)樣本上的優(yōu)勢(shì),推動(dòng)病理定量分析的發(fā)展,輔助病理醫(yī)生完成病理診斷[9]。AI 在醫(yī)學(xué)領(lǐng)域最成功的應(yīng)用是病理學(xué)、影像學(xué)的圖像分析,其準(zhǔn)確度不劣于相關(guān)領(lǐng)域醫(yī)學(xué)專家,而它的分析速度之快則又是臨床醫(yī)學(xué)專家所不及的[10]。但是目前,AI 在口腔病理學(xué)領(lǐng)域的應(yīng)用罕見報(bào)道。本實(shí)驗(yàn)以87 例根尖周囊腫為研究對(duì)象,構(gòu)建U-net型結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)[11],首先用其中72 例進(jìn)行訓(xùn)練,然后對(duì)15例進(jìn)行測(cè)試,評(píng)估該網(wǎng)絡(luò)分割結(jié)果與人工標(biāo)記結(jié)果符合率,將AI 應(yīng)用于根尖周囊腫的病理診斷中,初步探索AI 在口腔病理學(xué)領(lǐng)域中的應(yīng)用。

        1 資料和方法

        1.1 病例選擇

        選取2018 年1 月1 日至2019 年12 月31 日在四川大學(xué)華西口腔醫(yī)院病理科診斷為根尖周囊腫的87 例患者的病理圖像作為AI 閱片的研究對(duì)象。本研究經(jīng)四川大學(xué)華西口腔醫(yī)院倫理委員會(huì)批準(zhǔn)(審批號(hào):WCHSIRB-D-2021-037)。納入標(biāo)準(zhǔn):病理診斷為根尖周囊腫;臨床病理資料完整;患者知情同意。排除標(biāo)準(zhǔn):病理切片上皮極少,無法標(biāo)記;病理切片褪色或臟污。

        1.2 圖像獲取

        采用Olympus 全自動(dòng)數(shù)字切片掃描系統(tǒng)(BX61VS,Olympus,日本)將根尖周囊腫病理切片掃描成WSI(200 倍)。

        通過病理圖像處理軟件Image J 將所產(chǎn)生的.vsi格式的數(shù)字切片轉(zhuǎn)換為標(biāo)記軟件能識(shí)別的.tiff格式。

        利用Labelme 圖像標(biāo)簽標(biāo)注軟件(v3.16.2,MIT,美國)對(duì)根尖周囊腫的襯里上皮進(jìn)行標(biāo)記,產(chǎn)生標(biāo)記文件。

        1.3 圖像預(yù)處理

        因掃描所得的WSI 圖像尺寸過大,首先對(duì)其預(yù)處理。

        按圖像的灰度特性,使用OSTU 閾值分割法將標(biāo)記與背景區(qū)域區(qū)分開,在后續(xù)過程中去除這部分無效的背景區(qū)域圖像。

        將WSI 進(jìn)行切分,分割成固定尺寸的圖像塊(256 像素×256 像素),建立神經(jīng)網(wǎng)絡(luò)所需數(shù)據(jù)集。

        1.4 神經(jīng)網(wǎng)絡(luò)構(gòu)建

        構(gòu)建U-net 型結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)(圖1),該網(wǎng)絡(luò)由編碼器和解碼器兩部分組成。前者是圖像下采樣過程,增加感受野,在輸入圖像資料后由神經(jīng)網(wǎng)絡(luò)模型提取抽象的圖像特征;后者是所對(duì)應(yīng)的特征圖的上采樣過程,對(duì)圖像特征進(jìn)行分析歸類;二者之間存在著相應(yīng)的跳躍連接,便于神經(jīng)網(wǎng)絡(luò)對(duì)多尺度的圖像特征進(jìn)行融合。同時(shí),為了提高神經(jīng)網(wǎng)絡(luò)模型的學(xué)習(xí)速度,增加深監(jiān)督機(jī)制,以解決深度神經(jīng)網(wǎng)絡(luò)收斂速度過慢的問題。

        圖1 U-net 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Figure 1 U-net neural network structure diagram

        1.5 圖像數(shù)據(jù)分組與訓(xùn)練和驗(yàn)證

        數(shù)據(jù)集包含87 幅根尖周囊腫的HE 圖像和標(biāo)注圖像。其中72 幅圖作為訓(xùn)練集,15 幅作為測(cè)試集,分別用于訓(xùn)練模型和測(cè)試模型。訓(xùn)練集由學(xué)生做好標(biāo)注,是用來訓(xùn)練機(jī)器算法的圖像數(shù)據(jù),一般要占用全部數(shù)據(jù)的絕大部分。驗(yàn)證集是指在上述訓(xùn)練模型完成后,對(duì)部分?jǐn)?shù)據(jù)進(jìn)行驗(yàn)證。最后評(píng)估該網(wǎng)絡(luò)分割結(jié)果與人工標(biāo)記結(jié)果符合率。

        1.6 統(tǒng)計(jì)學(xué)分析

        本實(shí)驗(yàn)用SPSS20.0 進(jìn)行統(tǒng)計(jì)分析,采用兩種評(píng)價(jià)指標(biāo):目標(biāo)級(jí)指標(biāo)和像素級(jí)指標(biāo)。F1 分?jǐn)?shù)[12]是代表性的目標(biāo)級(jí)評(píng)價(jià)指標(biāo),定義如(1),TP是真陽性、FP是假陽性以及FN是假陰性,它是精確率和召回率的調(diào)和平均數(shù),精度率定義如(2),召回率定義如(3)。代表性像素級(jí)指標(biāo)是Dice 系數(shù)[13],定義如(4),P是分割結(jié)果,T是相應(yīng)的真值。它將像素與像素進(jìn)行比較,可用于評(píng)估分割質(zhì)量。平均Dice 系數(shù)是所有Dice 系數(shù)的平均值。ROC 曲線評(píng)價(jià)U-net 模型在根尖周囊腫上皮識(shí)別中的能力。

        2 結(jié) 果

        2.1 圖像標(biāo)記

        采用Labelme 圖像標(biāo)簽標(biāo)注軟件對(duì)根尖周囊腫HE 切片中的襯里上皮進(jìn)行標(biāo)記,使用綠色標(biāo)記線,其中典型3 例根尖周囊腫的HE 切片及對(duì)應(yīng)標(biāo)記結(jié)果見圖2。

        圖2 3 例根尖周囊腫患者全視野數(shù)字切片上皮標(biāo)記Figure 2 Epithelial labeling was performed on WSIs in three patients with periapical cysts

        2.2 圖像處理及模型訓(xùn)練

        對(duì)所有原始圖像及標(biāo)記文件進(jìn)行分析,進(jìn)行背景和前景區(qū)分并可視化,前景即為神經(jīng)網(wǎng)絡(luò)模型所需識(shí)別并分割的目標(biāo)(圖3a)。引入學(xué)習(xí)衰減策略learning decay[14],每進(jìn)行50 輪訓(xùn)練進(jìn)行一次衰減,衰減指數(shù)為0.5,讓神經(jīng)網(wǎng)絡(luò)更好的收斂,使得到的神經(jīng)網(wǎng)絡(luò)模型更加穩(wěn)定(圖3b)。

        圖3 圖像處理可視化及模型訓(xùn)練優(yōu)化策略Figure 3 Visualization of image processing and optimization strategy of model training

        2.3 U-net 網(wǎng)絡(luò)模型識(shí)別根尖周囊腫病理圖像的性能

        通過計(jì)算得出15 例根尖周囊腫測(cè)試數(shù)據(jù)Dice系數(shù)值(表1),對(duì)測(cè)試集的15 例根尖周囊腫的所有指標(biāo)評(píng)分分別取平均值,F(xiàn)1 分?jǐn)?shù)為0.75,表明U-net 網(wǎng)絡(luò)模型正確預(yù)測(cè)根尖周囊腫上皮的概率為75%。平均Dice 系數(shù)0.685,表明U-net 網(wǎng)絡(luò)模型分割結(jié)果與人工標(biāo)記結(jié)果符合率為68.5%(表2)。其中6 例根尖周囊腫病理圖像及相應(yīng)的分割結(jié)果圖像見圖4。

        圖4 根尖周囊腫全視野數(shù)字切片與分割結(jié)果可視化Figure 4 Visualization of WSIs and segmentation results of periapical cysts

        表1 15 例根尖周囊腫測(cè)試數(shù)據(jù)Dice 系數(shù)值Table 1 Dice coefficient values of 15 cases of periapical cysts

        表2 U-net 網(wǎng)絡(luò)模型識(shí)別根尖周囊腫病理圖像的性能Table 2 Performance of the U-net network model in identifying pathological images of periapical cysts

        2.4 U-net 網(wǎng)絡(luò)模型的ROC 曲線

        曲線下面積(area under curve,AUC)為0.878(圖5),表明該模型在識(shí)別根尖周囊腫上皮中效果很好(AUC>0.85)。

        圖5 U-net 網(wǎng)絡(luò)模型的ROC 曲線Figure 5 ROC network curve of the U-net network model

        3 討 論

        AI 最早提出是在20 世紀(jì)五十年代,是指制造智能機(jī)器的科學(xué)與工程,是計(jì)算機(jī)科學(xué)的一個(gè)分支[15],該分支是基于機(jī)器學(xué)習(xí)的方法去模擬人類活動(dòng),而基于機(jī)器學(xué)習(xí)是指機(jī)器從輸入的數(shù)據(jù)中學(xué)習(xí),而深度學(xué)習(xí)是從人工神經(jīng)網(wǎng)絡(luò)中進(jìn)一步發(fā)展起來的,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)是深度學(xué)習(xí)的代表性算法之一[16],其優(yōu)秀的計(jì)算能力使得研究者們對(duì)其的探索不斷深入,從2012 年的AlexNet 開始,ZFNet、VGGNet、GoogLeNet 和ResNet 等越來越多的CNN 被開發(fā)應(yīng)用[17]。在醫(yī)學(xué)圖像領(lǐng)域中,AI 用于檢測(cè)、分割、診斷和分析數(shù)字化圖像[18],并且展現(xiàn)了極好的準(zhǔn)確性。

        Bychkov 等[19]結(jié)合了卷積和循環(huán)結(jié)構(gòu)評(píng)估了420 例結(jié)/直腸癌患者HE 染色的腫瘤組織芯片(tumour tissue microarray,TMA)樣本,結(jié)果表明,相較于人類專家以低級(jí)別和高級(jí)別患者分層時(shí)TMA 和整體切片水平進(jìn)行的組織學(xué)評(píng)估,僅以小組織區(qū)域作為輸入的基于深度學(xué)習(xí)的結(jié)果預(yù)測(cè)效果更好。與經(jīng)驗(yàn)豐富的人類專家相比,最新的深度學(xué)習(xí)技術(shù)可以從結(jié)/直腸癌的組織形態(tài)中提取更多的預(yù)后信息。Esteva 等[20]使用像素和疾病標(biāo)簽作為輸入,利用單個(gè)CNN 對(duì)皮膚病變進(jìn)行分類,在21個(gè)專業(yè)皮膚科醫(yī)生活檢獲得的臨床圖像上,通過兩個(gè)關(guān)鍵的二元分類測(cè)試了癌與脂溢性角化病以及惡性黑色素瘤與皮膚痣。CNN 在這兩個(gè)鑒別診斷上的表現(xiàn)均達(dá)到了所有測(cè)試的專家水平,顯示出AI 能夠?qū)ζつw癌進(jìn)行分類。Turkki 等[21]將CNN方法與基于紋理的分類以及由兩名病理學(xué)家進(jìn)行的診斷進(jìn)行了比較,結(jié)果表明,在一組123 442 個(gè)標(biāo)記的超像素中,CNN 方法在區(qū)分免疫細(xì)胞豐富和細(xì)胞貧乏區(qū)域方面獲得了0.94(0.92~0.94)的F1 評(píng)分,而通過基于紋理的分類獲得的F1 評(píng)分為0.88(0.87~0.89)。與200 幅圖像的視覺評(píng)估相比,采用CNN 方法量化免疫浸潤的一致性為90%(κ= 0.79),病理學(xué)家之間一致性為90%(κ=0.78)。這些研究表明,這種CNN 方法既減少病理學(xué)家工作量,同時(shí)又增加了診斷的客觀性。

        有研究者提出了一種空間約束卷積神經(jīng)網(wǎng)絡(luò)(spatially constrained convolutional neural network,SC-CNN)來檢測(cè)細(xì)胞核。采用了一種與CNN 結(jié)合的新型鄰近集合預(yù)測(cè)子(neighboring ensemble predictor,NEP),以更準(zhǔn)確地預(yù)測(cè)細(xì)胞核的類別,這種檢測(cè)和分類方法不需要分割核。大腸腺癌圖像的大型數(shù)據(jù)集評(píng)估結(jié)果表明,與其他方法相比,SC-CNN 和NEP 的聯(lián)合檢測(cè)和分類產(chǎn)生的平均F1評(píng)分最高[22]。Korbar 等[23]對(duì)包含2 074 張病理圖像的數(shù)據(jù)集開發(fā)了多種深度學(xué)習(xí)方法,包括五種常見類型的息肉(即增生型、無柄鋸齒狀、傳統(tǒng)鋸齒狀、管狀和管狀微管/絨毛狀)。然后在239 張WSI的獨(dú)立測(cè)試集上評(píng)估并測(cè)量了標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)評(píng)估指標(biāo)的準(zhǔn)確性、召回率和F1 得分及其95%置信區(qū)間。評(píng)估表明,殘差網(wǎng)絡(luò)體系結(jié)構(gòu)方法對(duì)WSI的結(jié)直腸息肉分類具有最佳性能(總體準(zhǔn)確度:93.0%,95%置信區(qū)間:89.0%~95.9%)。

        2015 年,Ronneberger 等[24]在國際醫(yī)學(xué)影像計(jì)算和計(jì)算機(jī)輔助介入會(huì)議中提出了一種基于全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN)改進(jìn)而來的U-Net。神經(jīng)網(wǎng)絡(luò)因具有的結(jié)構(gòu)和層次不同,在學(xué)習(xí)能力方面表現(xiàn)出差異。一般來說層次的加深與結(jié)構(gòu)的優(yōu)化能夠增強(qiáng)神經(jīng)網(wǎng)絡(luò)的特征性學(xué)習(xí)能力。U-Net 具有對(duì)稱的U 型結(jié)構(gòu),這種結(jié)構(gòu)可以將低尺度高分辨率的特征圖與高層次高語義的特征圖的信息充分結(jié)合,可以為后期的分割提供關(guān)于待分割對(duì)象更豐富的高層語義信息[25]?;赨-net 結(jié)構(gòu)的特點(diǎn)是編碼和解碼路徑之間的跳躍連接,并且已有研究證明該結(jié)構(gòu)在各種醫(yī)學(xué)圖像分割任務(wù)中是有效的[26]。本實(shí)驗(yàn)建立U-net 網(wǎng)絡(luò)模型,對(duì)訓(xùn)練集的15 張根尖周囊腫WSI 進(jìn)行訓(xùn)練,得到對(duì)象級(jí)指標(biāo)F1 分?jǐn)?shù)為0.75,結(jié)果表明,像素級(jí)指標(biāo)Dice 系數(shù)為0.685,分割性能較好,對(duì)ROC曲線分析發(fā)現(xiàn)其AUC=0.878>0.85,表明該U-net網(wǎng)絡(luò)模型識(shí)別根尖周囊腫上皮的準(zhǔn)確率很高,其識(shí)別根尖周囊腫的能力很好,能夠進(jìn)行根尖周囊腫病理學(xué)輔助診斷。

        【Author contributions】Hao YH performed the experiments andwrote the article.Huang MC, Li M, Tang YL analyzed the data.Liang XH revised the article.All authors read and approved the final manuscript as submitted.

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        丰满熟妇乱又伦| 欲女在线一区二区三区| 亚洲av无码乱码在线观看牲色| 国产精品人妻一码二码尿失禁| 无码成人片一区二区三区| 日本骚色老妇视频网站| 日本一区二区视频高清| 人妻少妇中文字幕乱码| 最好看2019高清中文字幕视频| 亚洲AV小说在线观看| 亚洲乱妇熟女爽到高潮视频高清| 久久久久亚洲av片无码| 色一乱一伦一图一区二区精品 | 中文字幕人妻中文| 成年人视频在线播放麻豆| 一个人看的视频在线观看| 精品国产一区二区三区免费 | 国产va在线观看免费| 韩国精品一区二区三区| 亚洲综合新区一区二区| 人妻少妇-嫩草影院| 欧美丰满熟妇aaaaa片| 四虎国产精品免费久久麻豆| 国产在线一区二区三区香蕉| 国产亚洲美女精品久久久2020 | 亚洲一区二区三区在线激情| 无码a级毛片免费视频内谢5j| 国产成人无码免费看片软件| 国产九九在线观看播放| 91成人国产九色在线观看| 久久久国产打桩机| 伊人99re| 日韩女同一区在线观看| 国产成人精品无码免费看| 三级在线看中文字幕完整版| 日韩激情网| 一本色道久久亚洲av红楼| 国产日产精品一区二区三区四区的特点 | 国产一区二区三区免费精品| 国产白色视频在线观看| 欧美一区二区三区久久综|