亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度哈希網(wǎng)絡(luò)的肺結(jié)節(jié)CT相似圖像檢索方法研究

        2022-08-11 14:37:00郝瑞秦亞雪甄俊平強(qiáng)彥
        關(guān)鍵詞:哈希檢索結(jié)節(jié)

        郝瑞,秦亞雪,甄俊平,強(qiáng)彥

        (1.山西財(cái)經(jīng)大學(xué)信息學(xué)院,山西太原 030006;2.山西財(cái)經(jīng)大學(xué)管理科學(xué)與工程學(xué)院,山西太原 030006;3.山西醫(yī)科大學(xué)第二醫(yī)院醫(yī)學(xué)影像科,山西太原 030001;4.太原理工大學(xué)信息與計(jì)算機(jī)學(xué)院,山西太原 030600)

        目前全球的肺癌發(fā)病率和死亡率高且呈上升趨勢(shì)。全球男性肺癌發(fā)病率和死亡率占惡性腫瘤首位,女性肺癌發(fā)病率占第3 位,死亡率占第2 位。肺癌的高發(fā)病率和死亡率嚴(yán)重威脅著人類健康和生命,是亟待解決的公共健康安全問(wèn)題之一。肺結(jié)節(jié)與早期肺癌的關(guān)系密切,對(duì)肺結(jié)節(jié)進(jìn)行早期篩查和診斷可以有效地降低肺癌的發(fā)病率,進(jìn)而提高患者的生存率[1]。CT具有較高的密度分辨率,可以較好地識(shí)別出正常肺部結(jié)構(gòu)與病理結(jié)構(gòu)[2],是目前早期肺癌常規(guī)篩查的主要手段[3]。但人工閱讀大量的CT圖片及數(shù)據(jù)工作量繁重、工作效率低,且極易漏診及誤診,已不能很好地滿足臨床需求;另外,由于肺癌存在同病異影和異病同影的現(xiàn)象,肺癌影像上的相似性也為診斷帶來(lái)了極大的困難。近年來(lái),受到社會(huì)與環(huán)境變化以及人們生活習(xí)慣的影響,肺部CT圖像呈現(xiàn)出兩個(gè)主要特征:數(shù)量上極速增長(zhǎng),內(nèi)容上愈加復(fù)雜,出現(xiàn)醫(yī)生數(shù)量和專業(yè)水平不能較好地滿足目前肺部CT 圖像診斷需求的現(xiàn)象。因此,若能將醫(yī)生固有的經(jīng)驗(yàn)?zāi)芰陀?jì)算機(jī)獨(dú)有的高速圖像檢索能力融為一體,建立大規(guī)模肺部CT 圖像相似病灶快速有效的檢索模型,充分利用肺部疾病歷史數(shù)據(jù)實(shí)現(xiàn)類似于醫(yī)生診斷過(guò)程的相似病例自動(dòng)檢索方法,可大大減少醫(yī)生的工作量,同時(shí)也能輔助醫(yī)生對(duì)相似病例的診療方案進(jìn)行回顧性分析,更好的為患者提供定制化智能診療方案[4]。哈希算法由于其占用存儲(chǔ)空間小和計(jì)算相似度速度快的優(yōu)勢(shì),已廣泛用于大規(guī)模醫(yī)學(xué)圖像檢索領(lǐng)域[5-7]。在醫(yī)學(xué)圖像診斷應(yīng)用中,針對(duì)肺結(jié)節(jié)CT 圖像檢索的深度哈希算法研究還相對(duì)較少,而肺結(jié)節(jié)CT圖像的識(shí)別與檢索在肺癌診斷和治療中占據(jù)重要的地位。為了提高肺結(jié)節(jié)CT圖像檢索精度,本文鑒于深度哈希在圖像檢索上的優(yōu)勢(shì),提出一種基于深度哈希的肺結(jié)節(jié)CT 相似圖像檢索方法。由于肺結(jié)節(jié)CT 圖像通常情況下屬于灰度圖像,因此本文在網(wǎng)絡(luò)設(shè)計(jì)中針對(duì)卷積神經(jīng)網(wǎng)絡(luò)與雙向長(zhǎng)短期記憶網(wǎng)絡(luò)的通道進(jìn)行一定的調(diào)整,并在該深度網(wǎng)絡(luò)中嵌入哈希函數(shù)以獲取有效的哈希特征。然后,本文針對(duì)所獲取的哈希特征提出一種分級(jí)檢索算法。首先利用搭建的深度哈??蚣茴A(yù)測(cè)圖像的標(biāo)注信息,在所對(duì)應(yīng)的類庫(kù)中利用哈希編碼檢索得到一定數(shù)量的圖像候選對(duì)象;其次,根據(jù)圖像高層語(yǔ)義特征進(jìn)行相似度排序獲取相似的肺結(jié)節(jié)圖像列表。

        1 材料和方法

        1.1 公開(kāi)數(shù)據(jù)集

        本文所采用的數(shù)據(jù)集是LIDC-IDRI[7]公開(kāi)數(shù)據(jù)集。LIDC-IDRI 原始圖像是由美國(guó)國(guó)家癌癥研究所收集的。該數(shù)據(jù)集共收錄了1 018 個(gè)研究病例,每一個(gè)研究病例都包括了兩種文件,分別是肺部圖像文件(.dcm)和由4 位放射科醫(yī)師給出的診斷結(jié)果標(biāo)注文件(.xml)。每一個(gè)病例都包含切片,每張切片大小為512×512 像素。本文利用1.2 節(jié)所述方法從LIDC-IDRI中分割肺結(jié)節(jié)圖片,并根據(jù)肺結(jié)節(jié)圖片對(duì)應(yīng)的標(biāo)注信息良惡性程度得到了5 類肺結(jié)節(jié),其中良惡性程度為3 表示不確定信息,對(duì)該部分?jǐn)?shù)據(jù)舍棄,剩下的整合為良性與惡性兩種標(biāo)簽信息。良惡性結(jié)節(jié)的個(gè)數(shù)分別為2 102和1 313,所占比例分別為62%和38%,良惡性程度分布相對(duì)比較均勻。模型所用的訓(xùn)練集和測(cè)試集分別按照70%和30%的比例隨機(jī)抽取。

        1.2 ROI的獲取

        由于數(shù)據(jù)集中所有的肺部CT 圖像,都會(huì)顯示肺組織內(nèi)部的空氣、液體、脂肪、軟組織等物質(zhì),因此,為了減少肺部CT圖像信息冗余現(xiàn)象,有必要鎖定圖像中存在肺結(jié)節(jié)的感興趣區(qū)域(region of interest,ROI)區(qū)域。本文首先利用二值化閾值分割算法確定肺實(shí)質(zhì)區(qū)域,然后通過(guò)形態(tài)學(xué)膨脹腐蝕算法對(duì)分割出的區(qū)域進(jìn)行邊緣輪廓平滑處理,最后通過(guò)最大連通區(qū)域算法分割肺實(shí)質(zhì)區(qū)域。通過(guò)讀取XML 標(biāo)注文件中的醫(yī)師標(biāo)注的良惡性程度信息和位置信息,將肺結(jié)節(jié)病灶區(qū)域所對(duì)應(yīng)相應(yīng)的肺實(shí)質(zhì)區(qū)域進(jìn)行識(shí)別并進(jìn)行分割,并且為了統(tǒng)一圖像大小,使其與設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)所要求的輸入圖像保持一致,將預(yù)處理得到的ROI 固定大小為32×32 像素的圖像(圖1)。

        圖1 肺結(jié)節(jié)ROI預(yù)處理過(guò)程Fig.1 Preconditioning of pulmonary nodule ROI

        1.3 方法

        本文研究的肺結(jié)節(jié)CT 圖像檢索主要包含3 大部分:①結(jié)合深度學(xué)習(xí)方法,針對(duì)肺結(jié)節(jié)CT圖像設(shè)計(jì)一種能夠完整表達(dá)圖像信息的網(wǎng)絡(luò)結(jié)構(gòu),并借助肺結(jié)節(jié)CT 圖像標(biāo)注信息進(jìn)行監(jiān)督學(xué)習(xí);②在網(wǎng)絡(luò)結(jié)構(gòu)中嵌入哈希層,圍繞哈希層節(jié)點(diǎn)數(shù)、哈希函數(shù)構(gòu)造以及哈希表示等將高維圖像特征映射為低維緊湊的哈希碼;③針對(duì)所獲取的高維圖像特征以及哈希碼,設(shè)計(jì)分級(jí)檢索算法逐級(jí)計(jì)算圖像相似度,并獲取最終的檢索結(jié)果。

        1.3.1 圖像特征表示 由于深度學(xué)習(xí)模型在特征提取方面效果較好,同時(shí)為了保證肺結(jié)節(jié)CT 圖像檢索的效率,本文通過(guò)聯(lián)合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)和雙向長(zhǎng)短期記憶網(wǎng)絡(luò),構(gòu)造能夠全面提取圖像的潛在關(guān)鍵特征的深度模型,并在深度模型中嵌入哈希層,通過(guò)設(shè)置相應(yīng)的激活函數(shù)與閾值函數(shù)以實(shí)現(xiàn)圖像哈希特征的有效映射(圖2)。

        圖2 肺結(jié)節(jié)圖像深度學(xué)習(xí)模型Fig.2 Deep learning model of pulmonary nodule image

        首先進(jìn)行深度特征提取。肺結(jié)節(jié)圖像具有相似度高和關(guān)聯(lián)度高的特點(diǎn),CNN在提取肺結(jié)節(jié)圖像特征時(shí),卷積和池化層都是獨(dú)立地對(duì)局部圖像區(qū)域進(jìn)行操作,不會(huì)考慮其他圖像區(qū)域從而忽略了不同區(qū)域間的上下文相關(guān)信息,這種上下文依賴性代表了圖像中的有用空間結(jié)構(gòu)信息[8-9],而B(niǎo)iLSTM 是由前向和后向的兩個(gè)獨(dú)立的LSTM 結(jié)構(gòu)組合而成,各循環(huán)神經(jīng)網(wǎng)絡(luò)單元之間具有反饋連接,可以挖掘不同區(qū)域間依賴關(guān)系和上下文相關(guān)信息以獲得更好特征表示。為增強(qiáng)提取的肺結(jié)節(jié)圖像特征的表達(dá)能力,本文利用CNN 與BiLSTM 分別獲取圖像的局部區(qū)域特征與區(qū)域間上下文相關(guān)信息,為了避免信息學(xué)習(xí)的覆蓋,本文采用了并行式的網(wǎng)絡(luò)結(jié)構(gòu)。同時(shí)為了減少信息學(xué)習(xí)冗余現(xiàn)象以及重點(diǎn)關(guān)注對(duì)標(biāo)注信息影響較大的特征,本文在并行設(shè)計(jì)的2 個(gè)分支網(wǎng)絡(luò)后面分別加入注意力機(jī)制(attention mechanism,AM)。此外,本文的網(wǎng)絡(luò)輸出分為2 個(gè)輸出:第1 部分輸出是嵌入哈希函數(shù)的深度哈希層,實(shí)現(xiàn)對(duì)圖像的特征表示并映射為相應(yīng)的哈希碼;第2 部分輸出連接到softmax 分類器,用于對(duì)肺結(jié)節(jié)良惡性類型進(jìn)行有效分類,利用其類別信息監(jiān)督學(xué)習(xí)圖像特征。

        其次構(gòu)建哈希函數(shù)。構(gòu)建合理的哈希函數(shù),實(shí)現(xiàn)圖像特征向哈希編碼的映射是圖像哈希方法應(yīng)用于圖像相似性檢索至關(guān)重要的一部分。本文在全連接層后面插入一層哈希層學(xué)習(xí)圖像的二值特征,其設(shè)計(jì)主要圍繞哈希節(jié)點(diǎn)的選取、哈希函數(shù)的構(gòu)造以及圖像特征二值化3 個(gè)方面進(jìn)行。①哈希節(jié)點(diǎn)的選取。由于全連接層提取的圖像特征是高維的,不宜直接進(jìn)行相似度計(jì)算,因此哈希節(jié)點(diǎn)個(gè)數(shù)在設(shè)置時(shí)不應(yīng)超過(guò)全連接層節(jié)點(diǎn)數(shù)以達(dá)到降維目的,同時(shí)也要保證其能夠唯一的表示圖像的標(biāo)簽信息。因此最終的哈希節(jié)點(diǎn)數(shù)設(shè)置如公式1所示。

        其中N表示標(biāo)簽數(shù)目,F(xiàn)C表示全連接層節(jié)點(diǎn)數(shù);H表示哈希層節(jié)點(diǎn)數(shù)。②哈希函數(shù)的構(gòu)造。本文在構(gòu)造哈希函數(shù)時(shí)借鑒了LSH的核心思想,為了便于神經(jīng)網(wǎng)絡(luò)訓(xùn)練,本文選取sigmoid 函數(shù)作為哈希層的激活函數(shù),如公式2所示。

        其中fc表示全連接層信息,h表示哈希層信息,W表示權(quán)重是,b表示偏置。③圖像特征二值化。上述函數(shù)得到的結(jié)果是[-1,1]上的連續(xù)值,為了得到圖像的二值特征,本文設(shè)置了閾值函數(shù)對(duì)哈希層的輸出進(jìn)行離散化。該函數(shù)設(shè)置如公式3所示。

        最后對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。本文CNN 采納速度較快的AlexNet 網(wǎng)絡(luò),訓(xùn)練過(guò)程中最關(guān)鍵的是損失函數(shù)的設(shè)計(jì)與梯度下降算法的選擇。本文在設(shè)計(jì)損失函數(shù)時(shí)遵循經(jīng)驗(yàn)風(fēng)險(xiǎn)與結(jié)構(gòu)風(fēng)險(xiǎn)的共同組合。其中經(jīng)驗(yàn)風(fēng)險(xiǎn)本文選取交叉熵?fù)p失函數(shù);同時(shí)為了對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行控制,緩解欠擬合或者過(guò)擬合現(xiàn)象的發(fā)生,本文加入了L2參數(shù)懲罰項(xiàng),將正則化參數(shù)λ設(shè)為0.01。在實(shí)驗(yàn)中將Batch-size 設(shè)為32、Epoch設(shè)為25 進(jìn)行訓(xùn)練。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,本文選取Adam 訓(xùn)練器進(jìn)行優(yōu)化,該訓(xùn)練器易于訓(xùn)練且具有較好的魯棒性。此外,該訓(xùn)練器是自適應(yīng)學(xué)習(xí)率,不需要手動(dòng)設(shè)置,提高模型泛化性。

        1.3.2 查詢圖像檢索 目前的檢索策略是直接在低維空間計(jì)算訓(xùn)練集中每一幅圖像與待查詢圖像的哈希編碼之間的漢明距離。雖然具有計(jì)算效率高和內(nèi)存占用少的優(yōu)勢(shì),但是在哈希編碼對(duì)原始圖像表示學(xué)習(xí)中存在量化損失,進(jìn)而導(dǎo)致其表示具有一定的局限性。因此,僅使用漢明距離衡量圖像間的相似性不夠準(zhǔn)確。因此本文設(shè)計(jì)一種分級(jí)檢索算法,實(shí)現(xiàn)由粗到細(xì)的精檢索。其具體檢索流程:①通過(guò)深度學(xué)習(xí)模型預(yù)測(cè)查詢圖像的肺結(jié)節(jié)標(biāo)注信息,找到與其對(duì)應(yīng)的類庫(kù),縮小搜索范圍;②為了進(jìn)一步快速篩選圖像,在類庫(kù)中計(jì)算與查詢項(xiàng)漢明距離最接近的一組相似圖像構(gòu)建候選池,實(shí)現(xiàn)初步粗檢索;③計(jì)算查詢項(xiàng)與候選池內(nèi)圖像通過(guò)深度學(xué)習(xí)模型提取的全連接層特征之間的歐式距離度量相似度得到最終的檢索結(jié)果,實(shí)現(xiàn)精確檢索。

        肺結(jié)節(jié)相似圖像檢索主要算法設(shè)計(jì)。

        輸入:待查詢肺結(jié)節(jié)圖像x,深度模型參數(shù)加載,肺結(jié)節(jié)圖像庫(kù),返回查詢結(jié)果數(shù)k;輸出:k個(gè)相似圖像。①初始化相似圖像池集合T,檢索結(jié)果集合S;②加載模型,將待查詢圖像輸入該模型,得到其標(biāo)注信息、哈希編碼以及全連接層特征;③在對(duì)應(yīng)的標(biāo)注信息庫(kù)中,根據(jù)公式(4)計(jì)算待查詢項(xiàng)與類內(nèi)圖像哈希碼之間的漢明距離,并對(duì)其進(jìn)行排序;

        其中,x和y為n位的哈希碼,⊕為異或運(yùn)算。取前2k個(gè)圖像添加至T集合中,T={y1,y2,…,y2k};④對(duì)T 集合中的圖像提取其全連接層特征;⑤根據(jù)公式(5)計(jì)算待查詢項(xiàng)與T集合中各圖像的歐式距離,并按照距離重新排序;

        其中,x,y分別為圖像的n維特征向量。⑥取前k項(xiàng)添加至S集合中,S=;⑦返回S集合。

        2 結(jié)果

        本文研究的肺結(jié)節(jié)CT 圖像檢索提出了實(shí)驗(yàn)環(huán)境和實(shí)驗(yàn)評(píng)價(jià)指標(biāo)和據(jù)此獲得的結(jié)果。

        2.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)使用的操作系統(tǒng)為Windows 1 064 bit,處理器為Intel(R)Core(TM)i5-10400F CPU@2.90~4.3 GHz,顯卡為GeForce RTX2060,內(nèi)存為16 GB,深度學(xué)習(xí)框架為pytorch 1.2,參數(shù)配置見(jiàn)表1。

        表1 參數(shù)配置Table 1 Parameter configuration

        2.2 評(píng)價(jià)指標(biāo)

        為了反映圖像哈希算法的效果與性能,本實(shí)驗(yàn)選擇的評(píng)價(jià)指標(biāo)有準(zhǔn)確率(precision,P)、召回率(recall,R)、調(diào)和平均數(shù)F1、P@10、MAP。

        P@10 是對(duì)檢索相似圖像返回前10 項(xiàng)結(jié)果計(jì)算精確度。

        AP 指單個(gè)類別下每個(gè)圖像檢索的相似圖像的準(zhǔn)確率的平均值。而MAP 則是所有類別的AP 的平均值。

        2.3 實(shí)驗(yàn)結(jié)果

        針對(duì)肺結(jié)節(jié)CT 圖像數(shù)據(jù)集,借助肺結(jié)節(jié)標(biāo)注信息對(duì)數(shù)據(jù)集進(jìn)行分類,其目的是驗(yàn)證本文深度學(xué)習(xí)模型所提取的圖像特征能夠更充分的反映標(biāo)注信息。并且與傳統(tǒng)的支持向量機(jī)(support vector machine,SVM)、極限學(xué)習(xí)機(jī)(extreme learning machine,ELM),以及深度網(wǎng)絡(luò)對(duì)比,其中“+”表示網(wǎng)絡(luò)構(gòu)造為串聯(lián),“-”表示網(wǎng)絡(luò)構(gòu)造為并行,驗(yàn)證本文算法所提取圖像特征的有效性(見(jiàn)表2)。

        表2 分類準(zhǔn)確率對(duì)比Table 2 Comparison of classification accuracy

        由于全連接層的圖像特征是高維的,直接進(jìn)行相似度計(jì)算成本較高,需要將高維特征投射到低維空間,因此本文在全連接層后嵌入哈希層,并通過(guò)設(shè)置不同位數(shù)的哈希節(jié)點(diǎn)來(lái)獲取低維特征,其目的是確定具有最優(yōu)區(qū)分標(biāo)注信息能力的哈希編碼位數(shù)。在LIDC-IDRI數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果見(jiàn)表3。

        表3 哈希節(jié)點(diǎn)與分類準(zhǔn)確率變化表Table 3 Relationship between hash nodes and classification accuracy

        為了驗(yàn)證本文所設(shè)計(jì)的哈希圖像檢索方法的有效性,與其它哈希算法進(jìn)行對(duì)比,分別選取P@10以及MAP 作為評(píng)價(jià)指標(biāo)。結(jié)果分別如圖3-圖4所示。

        3 討論

        國(guó)內(nèi)外相關(guān)學(xué)者開(kāi)展基于內(nèi)容的醫(yī)學(xué)圖像檢索算法研究并構(gòu)建了相應(yīng)的檢索系統(tǒng),其基本原理是通過(guò)提取圖像的顏色、紋理以及空間位置等淺層特征以構(gòu)造特征向量;利用傳統(tǒng)的哈希算法將特征向量壓縮為低維緊湊的哈希特征;通過(guò)漢明距離衡量圖像的相似性。傳統(tǒng)代表算法主要有譜哈希(spectral Hashing,SH)[5]、局部感知哈希(locality sensitive Hashing,LSH)[6]、二進(jìn)制重構(gòu)嵌入(binary reconstructive embedding,BRE)[10]、迭代量化(iterative quantization,ITQ)[11]、最小化損失哈希(minimal loss Hashing,MLH)[12]、核監(jiān)督哈希(kernelbased supervised Hashing,KSH)[13]等。上述算法主要依賴于圖像的淺層語(yǔ)義信息,并不能完整地表達(dá)CT 圖像信息且得到的哈希特征并不是最優(yōu)特征,從而使得圖像檢索算法檢索精度低下。深度哈希算法相較于傳統(tǒng)的哈希算法具有優(yōu)勢(shì),其所學(xué)習(xí)到的哈希編碼具有更有效的特征表示并且不需要人工設(shè)計(jì)抽取特征,卷積神經(jīng)網(wǎng)絡(luò)哈希(convolutional neural network Hashing,CNNH)首次采用卷積神經(jīng)網(wǎng)絡(luò)將特征學(xué)習(xí)與哈希編碼結(jié)合起來(lái)進(jìn)行深度圖像檢索[14]。不過(guò),由于其圖像特征表示無(wú)法為哈希編碼學(xué)習(xí)提供反饋信息,該算法不是一種端到端的學(xué)習(xí)方法。二進(jìn)制哈希碼深度學(xué)習(xí)(deep learning of binary Hash codes,DLBHC)采用一種監(jiān)督學(xué)習(xí)框架根據(jù)數(shù)據(jù)的標(biāo)簽信息可以同時(shí)學(xué)習(xí)圖像特征表示和二進(jìn)制編碼,并提出由粗到細(xì)的檢索策略,在滿足檢索精度的同時(shí)加快了檢索速度[15]。深度神經(jīng)網(wǎng)絡(luò)哈希(deep neural network Hashing,DNNH)在網(wǎng)絡(luò)中通過(guò)設(shè)計(jì)三元組監(jiān)督信息來(lái)捕獲圖像的相似性的深度哈希方法,使用圖像的相似對(duì)與不相似對(duì)所構(gòu)成的三元組對(duì)CNN 進(jìn)行訓(xùn)練,是一種端到端的學(xué)習(xí)方法,但在前期需要進(jìn)行大量的圖像預(yù)處理工作且人工標(biāo)記相似對(duì)與不相似對(duì)具有較大的主觀性[16]。

        肺部疾病影像不僅表現(xiàn)復(fù)雜,近幾年數(shù)量也增長(zhǎng)迅速,這導(dǎo)致影像科醫(yī)生任務(wù)繁重。而當(dāng)前的智能診斷算法可有多種應(yīng)用模式,如能夠?qū)崿F(xiàn)肺部病灶檢出、分割及其性質(zhì)判斷等,這不僅有效提升醫(yī)生診斷的效率,更有望推動(dòng)分級(jí)診療、優(yōu)化醫(yī)療資源配置,而且基于人工智能的肺部影像診斷技術(shù)已經(jīng)從單一特定的疾病診斷逐漸發(fā)展到多疾病聯(lián)合診斷[17]。本文針對(duì)肺結(jié)節(jié)CT 圖像檢索的深度哈希算法進(jìn)行研究,探討其在醫(yī)學(xué)圖像診斷中的應(yīng)用。

        分析表2 的結(jié)果可以看出本文設(shè)計(jì)的深度模型在LIDC-IDRI 數(shù)據(jù)集上的識(shí)別準(zhǔn)確率都高于常用的分類算法,這表明本文方法所提取的特征具有更強(qiáng)的圖像表征能力,可以驗(yàn)證本文設(shè)計(jì)方法檢索的有效性。從表2 還可以看出,網(wǎng)絡(luò)結(jié)構(gòu)好壞也是提取圖像特征的關(guān)鍵,CNN 和BiLSTM 并行的模型優(yōu)于串聯(lián)的模型,這是因?yàn)镃NN 和BiLSTM 串聯(lián),前者學(xué)習(xí)到的信息可能會(huì)覆蓋后者學(xué)習(xí)到的信息從而導(dǎo)致信息損失,而并行網(wǎng)絡(luò)結(jié)構(gòu)可以避免此類情況的發(fā)生。此外,本文模型相較于BiLSTM_CNN并行網(wǎng)絡(luò)模型準(zhǔn)確率又有明顯提升,究其原因是引入注意力機(jī)制能夠?yàn)閷W(xué)習(xí)到的特征分配不同的權(quán)重將關(guān)鍵信息強(qiáng)調(diào)出來(lái),更進(jìn)一步提升模型效果。分析表3 可以得知,當(dāng)哈希位數(shù)增加時(shí),本文模型在LIDC-IDRI 數(shù)據(jù)集上的分類準(zhǔn)確率也會(huì)隨之增加,哈希位數(shù)為256 位時(shí),準(zhǔn)確率最高。但是,當(dāng)哈希碼位數(shù)繼續(xù)增加時(shí),分類準(zhǔn)確率卻有下降的趨勢(shì),這是因?yàn)楣N粩?shù)較少時(shí)學(xué)習(xí)到的哈希特征不能充分表達(dá)類別信息;隨著哈希位數(shù)的增加,哈希特征數(shù)目也隨之增加,學(xué)習(xí)到的圖像內(nèi)容與圖像語(yǔ)義信息也會(huì)逐漸增強(qiáng);但是哈希位數(shù)過(guò)長(zhǎng),則可能出現(xiàn)過(guò)擬合現(xiàn)象。圖3 展示了檢索結(jié)果返回前10項(xiàng)的檢索精度對(duì)比,可以看出本文算法的檢索精度為89.79%,優(yōu)于其它的哈希算法。圖4展示了不同哈希算法在LIDC-IDRI 數(shù)據(jù)集上的平均檢索精度隨著返回圖像數(shù)目的變化圖,可以看出本文算法的平均檢索精度要優(yōu)于其它的哈希算法,其平均檢索精度高達(dá)91.00%,圖3~圖4 均驗(yàn)證了本文算法的有效性。

        本文提出的一種新的、基于深度哈希網(wǎng)絡(luò)的肺結(jié)節(jié)CT 醫(yī)學(xué)圖像檢索模型,該模型融合了肺結(jié)節(jié)圖像區(qū)域局部特征和區(qū)域間上下文相關(guān)信息,增強(qiáng)了肺結(jié)節(jié)圖像特征表示。另外,利用本文設(shè)計(jì)的一種分級(jí)檢索策略縮小了相似性檢索的范圍,對(duì)整個(gè)數(shù)據(jù)集通過(guò)分層檢索得到相似圖像。實(shí)驗(yàn)結(jié)果表明本文算法具有更高的檢索精度,并且與其他模型相比,能充分提取圖像語(yǔ)義特征,在準(zhǔn)確率、召回率、F1、P@10、MAP值上均有明顯提升,更加適用于大數(shù)據(jù)檢索,表明本文方法可能為研發(fā)肺癌影像智能診斷系統(tǒng)提供了一種思路,在臨床應(yīng)用中具有一定的實(shí)用價(jià)值。

        猜你喜歡
        哈希檢索結(jié)節(jié)
        肺結(jié)節(jié),不糾結(jié)
        中老年保健(2021年6期)2021-08-24 06:53:54
        發(fā)現(xiàn)肺結(jié)節(jié)需要做PET/CT嗎?
        中老年保健(2021年9期)2021-08-24 03:50:24
        從氣、虛、痰、瘀辨治肺結(jié)節(jié)術(shù)后咳嗽
        2019年第4-6期便捷檢索目錄
        體檢查出肺結(jié)節(jié),我該怎么辦
        專利檢索中“語(yǔ)義”的表現(xiàn)
        專利代理(2016年1期)2016-05-17 06:14:36
        基于OpenCV與均值哈希算法的人臉相似識(shí)別系統(tǒng)
        基于維度分解的哈希多維快速流分類算法
        基于同態(tài)哈希函數(shù)的云數(shù)據(jù)完整性驗(yàn)證算法
        一種基于Bigram二級(jí)哈希的中文索引結(jié)構(gòu)
        国产97在线 | 免费| 麻豆视频在线观看免费在线观看| 国产自拍在线视频观看| 亚洲中文字幕九色日本| 国产69精品久久久久9999apgf| 99热这里有精品| 国产av无码国产av毛片| 国产精品无码午夜福利| 国产一在线精品一区在线观看 | 国内国外日产一区二区| 亚洲熟女天堂av一区二区三区| 中文字幕成人乱码熟女精品国50| 国产免费a∨片在线软件| 国外精品视频在线观看免费| 日韩AV无码一区二区三不卡| 免费看男女啪啪的视频网站| 24小时免费在线观看av| 狠狠噜狠狠狠狠丁香五月| 99久久亚洲精品无码毛片| 日韩av中出在线免费播放网站| 性色av一区二区三区四区久久| 极品一区二区在线视频观看| 亚洲成av人影院| 日本精品一区二区三区在线视频 | 一区二区三区人妻在线| 国产一级一片内射视频播放| 国产超碰女人任你爽| 中文字幕无码不卡免费视频| 国产好片日本一区二区三区四区| 中文字幕亚洲五月综合婷久狠狠| 亚洲成a人片在线观看无码专区| 香蕉视频在线精品视频| 国产精品一区二区三区精品| 亚洲精品女人天堂av麻| 7194中文乱码一二三四芒果| 亚洲av无码精品色午夜在线观看| 亚洲阿v天堂2018在线观看| 免费人成网站在线播放| 久久精品国产av一级二级三级| 亚洲国产成人片在线观看无码| 日韩丝袜亚洲国产欧美一区|