亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)技術(shù)在皮膚影像自動(dòng)分類中的應(yīng)用

        2021-12-08 00:18:46高西
        粘接 2021年11期
        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別深度學(xué)習(xí)

        高西

        摘 要:以“胎兒超聲圖像”為例,將深度學(xué)習(xí)技術(shù)與皮膚影像自動(dòng)分類進(jìn)行充分結(jié)合。針對(duì)皮膚影像自動(dòng)分類原理,從CNN原理介紹、網(wǎng)絡(luò)模型設(shè)計(jì)、數(shù)據(jù)預(yù)處理及增強(qiáng)、遷移學(xué)習(xí)策略、模型訓(xùn)練與分類等方面入手,探討了皮膚影像自動(dòng)分類方法框架。從數(shù)據(jù)集及評(píng)價(jià)方法、模型定量化評(píng)價(jià)、模型可視化分析、與傳統(tǒng)特征分類器對(duì)比試驗(yàn)等方面入手,探討實(shí)驗(yàn)設(shè)置與結(jié)果。結(jié)果表明:深度學(xué)習(xí)技術(shù)具有非常高的應(yīng)用價(jià)值和應(yīng)用前景,不僅可以降低圖像復(fù)雜預(yù)處理流程,還能避免對(duì)專業(yè)特征工程的過(guò)渡依賴,保證了皮膚影像視覺(jué)上的出色性能,為進(jìn)一步提高皮膚疾病醫(yī)療診斷水平提供平臺(tái)支持。

        關(guān)鍵詞:深度學(xué)習(xí);皮膚鏡圖像;圖像識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);特征編碼

        中圖分類號(hào):TP18 文獻(xiàn)標(biāo)識(shí)碼:A ? ? 文章編號(hào):1001-5922(2021)11-0098-04

        Application of Deep Learning Technology in Automatic Classification of Skin Images

        Gao Xi1,2

        ( 1.Department of Dermatology, University-Town Hospital of Chongqing Medical University, Chongqing 401331, China; 2.Medical Data Science Academy of Chongqing Medical University, Chongqing 401331, China)

        Abstract:Taking the “fetal ultrasound image” as an example, the deep learning technology is fully combined with the automatic classification of skin images. Aiming to the principle of automatic classification of skin images, the framework of automatic classification of skin images is discussed, starting from the introduction of CNN principle, network model design, data pre-processing and enhancement, migration learning strategy, model training and classification. According to the principle of automatic classification of skin images, the framework of automatic classification of skin images is discussed, starting from the introduction of CNN principle, network model design, data pre-processing and enhancement, migration learning strategy, model training and classification. From the data set and evaluation method, model set quantitative evaluation, model visual analysis, and the traditional feature classifier comparison test and other aspects to explore the experimental setting and the results. The results show that deep learning technology has very high application value and application prospects, which can not only reduce the image complex preprocessing process, but also avoid the transition dependence on professional feature engineering, ensure the excellent visual performance of skin image, and provide platform support for further improve the medical diagnosis level of skin diseases.

        Key words:deep learning; dermatological image; image recognition; convolutional neural network; feature coding

        深度學(xué)習(xí)技術(shù)作為一種常用的數(shù)據(jù)驅(qū)動(dòng)手段,可以根據(jù)網(wǎng)絡(luò)的不同類型,提供相應(yīng)的訓(xùn)練樣本,確保不同分類任務(wù)有效開(kāi)展。通過(guò)將該技術(shù)應(yīng)用于皮膚影像自動(dòng)分類中,不僅可以保證醫(yī)學(xué)皮膚圖像的成像質(zhì)量,還能提高皮膚影像診斷水平,從根本上解決皮膚圖像成像效率低下、成像質(zhì)量差等問(wèn)題,為實(shí)現(xiàn)對(duì)皮膚影像的科學(xué)化、規(guī)范化和標(biāo)準(zhǔn)化分類打下堅(jiān)實(shí)的基礎(chǔ)。為了最大限度地提高醫(yī)學(xué)圖像自動(dòng)分類操作水平,如何將深度學(xué)習(xí)技術(shù)科學(xué),應(yīng)用于皮膚影像自動(dòng)分類中是技術(shù)人員必須思考和解決的問(wèn)題?,F(xiàn)就這一問(wèn)題,通過(guò)此次試驗(yàn)研究,為相關(guān)從業(yè)人員提供有效的借鑒和參考。

        1 皮膚影像自動(dòng)分類原理

        皮膚影像自動(dòng)分類主要運(yùn)用了卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型。CNN模型作為目前自動(dòng)分類性能較佳的模型,主要是由成千上萬(wàn)張圖像數(shù)據(jù)集經(jīng)過(guò)一系列的嚴(yán)格訓(xùn)練后所形成的,因此,該模型具有較高的數(shù)據(jù)抽象處理能力、圖像自動(dòng)分類能力和圖像數(shù)據(jù)挖掘能力。而深度學(xué)習(xí)技術(shù)在具體的運(yùn)用中,主要利用了所訓(xùn)練好的網(wǎng)絡(luò)參數(shù)[1],通過(guò)遷移利用所學(xué)到的知識(shí),完成新應(yīng)用場(chǎng)景所對(duì)應(yīng)的學(xué)習(xí)任務(wù)。在對(duì)皮膚影像進(jìn)行自動(dòng)分類時(shí),需要將根據(jù)數(shù)據(jù)集所劃分的類型,完成對(duì)最終分類結(jié)果的驗(yàn)證和分析,以保證最終分類結(jié)果的精確性和真實(shí)性[2]。此外,技術(shù)人員還要將2 350種皮膚病按照如圖1所示的皮膚疾病分類樹(shù)形結(jié)構(gòu)示意圖,將其劃分為782種訓(xùn)練類;同時(shí),每個(gè)訓(xùn)練類所包含的數(shù)據(jù)量必須低于999幅,在確保皮膚影像自動(dòng)分類操作的規(guī)范性和合理性的基礎(chǔ)上,確保訓(xùn)練數(shù)據(jù)的充足性和完整性。然后,將單個(gè)輸入圖像添加到指定的圖集訓(xùn)練器中[3],從而獲得最終的自動(dòng)分類結(jié)果,由此可見(jiàn),這種處理方式具有非常高的可行性和有效性。

        2 深度學(xué)習(xí)技術(shù)在皮膚影像自動(dòng)分類中的應(yīng)用案例

        2.1 方法框架

        為了從根本上解決數(shù)據(jù)缺失,深度模型難以收斂問(wèn)題,現(xiàn)從模型結(jié)構(gòu)設(shè)計(jì)、海量數(shù)據(jù)處理、訓(xùn)練模式選用等方面入手,開(kāi)展相關(guān)研究工作,以實(shí)現(xiàn)對(duì)19層卷積網(wǎng)絡(luò)(CNN-19-GAP)的改進(jìn)和完善,確保深度學(xué)習(xí)技術(shù)與皮膚影像自動(dòng)分類能夠充分結(jié)合。

        2.1.1 CNN原理介紹

        與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,卷積神經(jīng)網(wǎng)絡(luò)CNN離不開(kāi)對(duì)卷積層的應(yīng)用,而一定數(shù)量的神經(jīng)元經(jīng)過(guò)組合可以形成單個(gè)卷積層,單個(gè)神經(jīng)元均攜帶相應(yīng)的學(xué)習(xí)權(quán)重參數(shù),通過(guò)實(shí)時(shí)更新和調(diào)整這些權(quán)重參數(shù),可以保證模型最終優(yōu)化效果[4]。另外,單個(gè)神經(jīng)元在具體的運(yùn)用中,可以對(duì)學(xué)習(xí)層所對(duì)應(yīng)的重點(diǎn)區(qū)域進(jìn)行感知處理,從而獲得良好的預(yù)測(cè)結(jié)果。

        2.1.2 網(wǎng)絡(luò)模型設(shè)計(jì)

        網(wǎng)絡(luò)模型設(shè)計(jì)在保證最終自動(dòng)分類結(jié)果的精確性和真實(shí)性方面具有重要作用,本文所構(gòu)建的網(wǎng)絡(luò)模型主要是由以下兩個(gè)部分組成,一個(gè)是Conv層,另一個(gè)是FC層,同時(shí),要將所有的Conv層內(nèi)部的卷積核設(shè)置為邊長(zhǎng)為3 cm的矩形[5],并將步長(zhǎng)設(shè)置為1 cm。此外,還要充分利用小尺寸卷積核,不僅縮小模型的參數(shù)量,使得模型層數(shù)的內(nèi)存消耗量降到最低。另外,還要根據(jù)Conv層所對(duì)應(yīng)的通道數(shù)量,盡可能提高網(wǎng)絡(luò)模型的信息提取能力和表示能力。在此基礎(chǔ)上,還要將FC層的通道數(shù)設(shè)置為1 024,并將相關(guān)圖像劃分為4類切面,使得FC層內(nèi)部卷積核數(shù)量不斷下降,從而縮短網(wǎng)絡(luò)模型的訓(xùn)練時(shí)間。

        2.1.3 數(shù)據(jù)預(yù)處理及增強(qiáng)

        對(duì)于CNN模型而言,由于其內(nèi)部含有大量的參數(shù),因此,在優(yōu)化訓(xùn)練海量訓(xùn)練樣本數(shù)據(jù)時(shí),技術(shù)人員要根據(jù)醫(yī)學(xué)圖像的處理需求,對(duì)不同類型的自然圖像進(jìn)行了數(shù)據(jù)預(yù)處理及增強(qiáng)。在這一過(guò)程中,技術(shù)人員先要將所有US圖像上的非數(shù)據(jù)局域進(jìn)行裁剪,并對(duì)新的圖像數(shù)據(jù)區(qū)域進(jìn)行采樣和提取。此外,為了避免數(shù)據(jù)集出現(xiàn)數(shù)量類別交叉問(wèn)題,還要根據(jù)網(wǎng)絡(luò)模型學(xué)習(xí)處理流程,盡可能提高自動(dòng)分類性能。其次,還要根據(jù)不同類型子圖像的提取需求,在保證類別數(shù)量合理性的基礎(chǔ)上,對(duì)單張初始圖像進(jìn)行數(shù)據(jù)增加處理,形成19張以上的子圖像,并根據(jù)原始圖像的自動(dòng)分類結(jié)果,對(duì)圖像類別數(shù)量進(jìn)行科學(xué)調(diào)節(jié)和控制。

        2.1.4 遷移學(xué)習(xí)策略

        盡管CNN模型具有較高的特征學(xué)習(xí)能力,可以實(shí)現(xiàn)對(duì)多種醫(yī)學(xué)類圖像的精確化分析,但是,由于醫(yī)學(xué)數(shù)據(jù)量存在嚴(yán)重不足現(xiàn)象,導(dǎo)致圖像優(yōu)化訓(xùn)練難度不斷加大。為了從根本上解決以上問(wèn)題,技術(shù)人員要加大對(duì)預(yù)訓(xùn)練CNN模型的應(yīng)用力度,采用參數(shù)遷移處理的方式,將遷移學(xué)習(xí)任務(wù)落實(shí)到位。這樣一來(lái),不僅可以避免因訓(xùn)練數(shù)據(jù)量不足而導(dǎo)致圖像優(yōu)化訓(xùn)練難度大問(wèn)題,還能最大限度地提高網(wǎng)絡(luò)優(yōu)化收斂效率和效果。這種方法在具體的運(yùn)用中,表現(xiàn)出較高的可靠性和有效性,這是由于該方法重點(diǎn)運(yùn)用了CNN模型層級(jí)結(jié)構(gòu),該結(jié)構(gòu)內(nèi)部集合了多種學(xué)習(xí)層,有效地降低兩神經(jīng)元的受域范圍。數(shù)據(jù)集類型不同,所對(duì)應(yīng)的網(wǎng)絡(luò)優(yōu)化情況也存在一定的差異,為了從根本上解決網(wǎng)絡(luò)優(yōu)化問(wèn)題,技術(shù)人員要在科學(xué)調(diào)節(jié)和控制網(wǎng)絡(luò)學(xué)習(xí)層參數(shù)的基礎(chǔ)上,對(duì)網(wǎng)絡(luò)進(jìn)行規(guī)范化和標(biāo)準(zhǔn)化優(yōu)化。

        2.1.5 模型訓(xùn)練與分類

        為了降低網(wǎng)絡(luò)模型訓(xùn)練難度,技術(shù)人員要根據(jù)網(wǎng)絡(luò)模型的加深變化規(guī)律,對(duì)網(wǎng)絡(luò)模型的收斂過(guò)程進(jìn)行優(yōu)化和完善。為了實(shí)現(xiàn)這一目標(biāo),技術(shù)人員要采用批歸一化算法,從根本上解決該模型的收斂難問(wèn)題,同時(shí),還能實(shí)現(xiàn)模型收斂效率的全面提升。另外,還要借助BN(Batch Normalization)算法,對(duì)網(wǎng)絡(luò)模型內(nèi)部的學(xué)習(xí)層進(jìn)行規(guī)范化和標(biāo)準(zhǔn)化處理。在此基礎(chǔ)上,還要將Conv層和FC層所對(duì)應(yīng)的學(xué)習(xí)率分別設(shè)置為0.01和0.001,當(dāng)訓(xùn)練過(guò)程呈現(xiàn)出不斷衰減趨勢(shì)時(shí),其學(xué)習(xí)率呈現(xiàn)出不斷下降的趨勢(shì)。最后,在對(duì)網(wǎng)絡(luò)模型進(jìn)行自動(dòng)分類時(shí),要根據(jù)測(cè)試集圖像收集情況,采用訓(xùn)練樣本預(yù)處理方式,將所有子圖像輸入到指定的網(wǎng)絡(luò)模型中,然后,對(duì)根據(jù)網(wǎng)絡(luò)模型的綜合類別,實(shí)現(xiàn)對(duì)最終自動(dòng)分類結(jié)果的精確計(jì)算和統(tǒng)計(jì)。

        2.2 實(shí)驗(yàn)設(shè)置與結(jié)果

        2.2.1 數(shù)據(jù)集及評(píng)價(jià)方法

        本次實(shí)驗(yàn)中,主要涉及到了以下兩種數(shù)據(jù)集:(1)訓(xùn)練集。通過(guò)采集和整理胎兒面部超聲波圖像相關(guān)數(shù)據(jù),這些數(shù)據(jù)主要包含380張水平切面圖像、410張矢狀切面圖像以及4 012張非標(biāo)準(zhǔn)切面圖像,從而形成訓(xùn)練集[6]。在此基礎(chǔ)上,對(duì)整理好的訓(xùn)練集進(jìn)行平均值處理,然后,將其中五分之四的訓(xùn)練集用于訓(xùn)練實(shí)驗(yàn),將五分之一的訓(xùn)練集用于驗(yàn)證實(shí)驗(yàn)。(2)測(cè)試集。測(cè)試集主要是由501張的軸狀切面圖像、180張矢狀切面圖像以及1 703張非標(biāo)準(zhǔn)切面圖像組成。在進(jìn)行測(cè)試期間,需要針對(duì)圖像預(yù)測(cè)處理實(shí)際需求,對(duì)最終的圖像預(yù)測(cè)結(jié)果進(jìn)行匯總和整理。此外,還要嚴(yán)格按照數(shù)據(jù)集訓(xùn)練、數(shù)據(jù)集驗(yàn)證、數(shù)據(jù)集測(cè)試等順序,將模型評(píng)價(jià)工作落實(shí)到位,其中,數(shù)據(jù)集驗(yàn)證主要用于對(duì)模型調(diào)試參數(shù)設(shè)置情況的驗(yàn)證;數(shù)據(jù)集測(cè)試主要用于對(duì)最終模型性能的科學(xué)評(píng)價(jià)。為了保證最終評(píng)價(jià)結(jié)果的精確性和真實(shí)性,技術(shù)人員要采用定性評(píng)價(jià)與定量評(píng)價(jià)相結(jié)合的方式[7]。開(kāi)展評(píng)價(jià)工作。在定性評(píng)價(jià)環(huán)節(jié)中,需要根據(jù)深度網(wǎng)絡(luò)數(shù)據(jù)輸出特點(diǎn),詳細(xì)闡述網(wǎng)絡(luò)所學(xué)特征;在定量評(píng)價(jià)環(huán)節(jié)中,需要借助計(jì)算模型,對(duì)準(zhǔn)確率、精確率以及召回率等各項(xiàng)指標(biāo)參數(shù)進(jìn)行測(cè)試。

        2.2.2? ? 模型定量化評(píng)價(jià)

        為了有效地驗(yàn)證深度網(wǎng)絡(luò)的應(yīng)用效果,先從以下2個(gè)方面入手,探討模型深度影響程度。(1)訓(xùn)練所有深度模型結(jié)構(gòu)。在這一環(huán)節(jié)中,需要對(duì)同一類型的數(shù)據(jù)集的性能進(jìn)行對(duì)比。(2)對(duì)比測(cè)試數(shù)據(jù)自動(dòng)分類結(jié)果。在提取和整理網(wǎng)絡(luò)FC層網(wǎng)絡(luò)特征的基礎(chǔ)上,利用支持向量機(jī)(SVM)分類器,采用SVM訓(xùn)練法,對(duì)測(cè)試數(shù)據(jù)最終分類結(jié)果進(jìn)行全面分析和對(duì)比。當(dāng)模型深度不斷增加,并且訓(xùn)練條件置于隨機(jī)初始化狀態(tài)時(shí),正確率、精確率、召回率參數(shù)均呈現(xiàn)出不斷增加的趨勢(shì),但是,與CNN-16-R1性能相比,CNN-19-R1性能下降幅度比較明顯。由此可見(jiàn),當(dāng)訓(xùn)練條件置于隨機(jī)初始化狀態(tài)時(shí)會(huì)增加深度網(wǎng)絡(luò)的訓(xùn)練難度[8]。不同模型條件下頻域分段并行(FFSP)識(shí)別性能對(duì)比如表1所示。

        從表1中可以看出,當(dāng)GAP層加入到深度模型時(shí),自動(dòng)分類結(jié)果所對(duì)應(yīng)的各項(xiàng)評(píng)價(jià)參數(shù)均呈現(xiàn)出不斷上升的趨勢(shì)。與此同時(shí),通過(guò)利用SVM分類器對(duì)模型深度特征進(jìn)行訓(xùn)練,同樣可以提高最終對(duì)比結(jié)果的有效性和精確性。但是,當(dāng)深度網(wǎng)絡(luò)模型內(nèi)添加GAP層時(shí),最終結(jié)果的增加幅度明顯,這說(shuō)明在隨機(jī)初始化條件下,無(wú)法實(shí)現(xiàn)對(duì)深度網(wǎng)絡(luò)模型的科學(xué)化、合理化、充分化訓(xùn)練。加入GAP層前后模型參數(shù)占用情況如表2所示。從表2中可以看出,當(dāng)向深度網(wǎng)絡(luò)模型中加入GAP層后,模型參數(shù)降低幾乎達(dá)到了50%。由此可見(jiàn),通過(guò)加入相應(yīng)的GAP層,不僅可以最大限度地降低深度網(wǎng)絡(luò)模型參數(shù)量,還能縮小數(shù)據(jù)占用內(nèi)存,為進(jìn)一步提高皮膚影像自動(dòng)分類性能創(chuàng)造良好的條件。

        模型FC層通道數(shù)對(duì)分類結(jié)果影響如表3所示。從表3中可以看出,當(dāng)模型FC層參數(shù)從原來(lái)的1 024降低至現(xiàn)在的512時(shí),最終分類結(jié)果的正確率僅僅下降了2%,而其他評(píng)價(jià)指標(biāo)性能僅僅下降了1%。

        2.2.3? ? 模型可視化分析

        模型可視化分析可以真實(shí)、直觀地反映出當(dāng)前模型內(nèi)部實(shí)際學(xué)習(xí)狀態(tài),因此,技術(shù)人員要從以下幾個(gè)方面入手,開(kāi)展模型可視化分析工作。(1)Conv層特征圖可視化。通過(guò)對(duì)卷積層的輸出特征進(jìn)行提出處理,然后,采用可視化顯示的方式,將最終的提取結(jié)果形象、直觀地呈現(xiàn)在用戶面前。由于所有卷積層均含有相應(yīng)的通道,因此,為了確保最終展示結(jié)果的有效性和針對(duì)性,技術(shù)人員要從大量通道特征圖中提取具有代表性的特征圖,然后,根據(jù)FFSP圖像所對(duì)應(yīng)的空間信息,不僅靠近深層,此時(shí),發(fā)現(xiàn)特征圖的尺寸呈現(xiàn)出不斷下降的趨勢(shì);同時(shí),特征圖變得越來(lái)越模糊化。在此基礎(chǔ)上,通過(guò)將相關(guān)信息數(shù)據(jù)進(jìn)行全面采集和整理,采用觸發(fā)模型的方式,對(duì)最終預(yù)測(cè)結(jié)果進(jìn)行自動(dòng)分類。(2)FC層特征可視化。在這一環(huán)節(jié)中,技術(shù)人員需要采用T-SNE的方式,對(duì)模型FC層特征向量進(jìn)行收集和整理,并對(duì)最終的整理結(jié)果進(jìn)行可視化分析和對(duì)比,以實(shí)現(xiàn)對(duì)模型學(xué)習(xí)特征性能的有效驗(yàn)證。同時(shí),在收集初始化圖像數(shù)據(jù)期間,技術(shù)人員先要將這些數(shù)據(jù)轉(zhuǎn)換為二維向量,然后,將這些二維向量組合成三維矩陣,最后,借助SNE函數(shù),對(duì)FC層特征向量進(jìn)行可視化處理。

        2.2.4? ? 與傳統(tǒng)特征分類器對(duì)比試驗(yàn)

        為了更好地驗(yàn)證SVM分類器的有效性和可靠性,技術(shù)人員要采用對(duì)比實(shí)驗(yàn)的方式,將本文所提出的SVM分類器與傳統(tǒng)特征分類器進(jìn)行有效地對(duì)比,經(jīng)過(guò)對(duì)比發(fā)現(xiàn),SVM分類器在提高深度網(wǎng)絡(luò)模型性能以及保證最終測(cè)試結(jié)果的精確性方面發(fā)揮出重要作用。MFV模型以及CNN模型測(cè)試數(shù)據(jù)內(nèi)存以及計(jì)算時(shí)間對(duì)比如表4所示。從表4中可以看出,在硬件設(shè)備的影響下,通過(guò)利用CPU可以對(duì)8層網(wǎng)絡(luò)訓(xùn)練流程進(jìn)行加速處理,發(fā)現(xiàn)16層網(wǎng)格和19網(wǎng)絡(luò)所對(duì)應(yīng)的存儲(chǔ)量遠(yuǎn)遠(yuǎn)高于CPIU內(nèi)存量,但是,在運(yùn)用傳統(tǒng)特征分類器時(shí),會(huì)增加視覺(jué)表達(dá)以及相關(guān)特征新編碼的時(shí)間成本,難以取得良好的社會(huì)效益和經(jīng)濟(jì)效益。

        3 結(jié)語(yǔ)

        綜上所述,在深度學(xué)習(xí)技術(shù)的應(yīng)用背景下,為了實(shí)現(xiàn)對(duì)皮膚影像的自動(dòng)化、高效化分類,技術(shù)人員要充分利用本文所提出的分類框架,避免醫(yī)學(xué)圖像因缺乏相應(yīng)的模型而導(dǎo)致出現(xiàn)擬合問(wèn)題,只有這樣,才能借助深度學(xué)習(xí)方法,實(shí)現(xiàn)對(duì)多維度數(shù)據(jù)的深入分析和融合,以保證皮膚影像自動(dòng)分類結(jié)果的精確性和真實(shí)性,從而為輔助醫(yī)生精確診斷提供重要的依據(jù)和參考。由此可見(jiàn),PVDF具有安全可靠、實(shí)用性強(qiáng)等特點(diǎn),值得被進(jìn)一步推廣和應(yīng)用。

        參考文獻(xiàn)

        [1]王詩(shī)琪,劉 潔. 深度學(xué)習(xí)輔助皮膚影像自動(dòng)分類的研究進(jìn)展[J]. 中華皮膚科雜志,2020,53(12):1 037-1 040.

        [2]周航寧,謝鳳英,姜志國(guó),等. 基于深度學(xué)習(xí)的皮膚影像分類[J]. 協(xié)和醫(yī)學(xué)雜志,2018,9(1):15-18.

        [3]張榮梅,張 琦,劉院英. 基于Inception深度殘差網(wǎng)絡(luò)的皮膚黑色素癌圖像分類算法[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2021,30(7):142-149.

        [4]景海婷,張 秦,陳 曼,等. 小樣本域自適應(yīng)的皮膚病臨床影像識(shí)別方法[J]. 西安交通大學(xué)學(xué)報(bào),2020,54(9):142-148+156.

        [5]王 瑩,廉 佳,陳立新,等. 皮膚影像檢查輔助診斷兒童線狀色素性扁平苔蘚[J]. 臨床皮膚科雜志,2021,50(4):223-226.

        [6]孫祺琳,劉 洋,陳 駿,等. 皮膚鏡影像結(jié)合特征分析算法權(quán)衡縱行黑甲活檢必要性的臨床研究[J]. 組織工程與重建外科雜志,2021,17(3):235-238+246.

        [7]林鳴琴,莊淑蓮,楊 爽,等. 乳腺影像學(xué)報(bào)告及數(shù)據(jù)系統(tǒng)分類對(duì)肉芽腫性乳腺炎與乳腺癌鑒別診斷的價(jià)值[J]. 中國(guó)醫(yī)學(xué)裝備,2020,17(3):75-79.

        [8]鄒先彪. 皮膚影像學(xué)與人工智能[J].中國(guó)醫(yī)學(xué)前沿雜志(電子版),2019,11(8):1-4.

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別深度學(xué)習(xí)
        基于Resnet-50的貓狗圖像識(shí)別
        電子制作(2019年16期)2019-09-27 09:34:50
        高速公路圖像識(shí)別技術(shù)應(yīng)用探討
        圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
        特黄三级一区二区三区| 中文人妻无码一区二区三区在线 | 爆爽久久久一区二区又大又黄又嫩 | 亚洲一品道一区二区三区| 亚洲一区二区刺激的视频| 亚洲av免费手机在线观看| 少妇私密会所按摩到高潮呻吟| 亚洲欧美日韩高清专区一区| 久久丁香花综合狼人| 视频一区视频二区自拍偷拍| 国产成人精品免费视频大全软件| 性一交一乱一透一a级| 无码一区二区三区AV免费换脸 | 无套内谢老熟女| 黑人玩弄人妻中文在线| 婷婷色国产精品视频一区| 麻豆成年人视频在线观看| 亚洲av无码一区二区三区天堂 | 久久爱91精品国产一区| 丝袜美腿视频一区二区| 人妻熟女一区二区三区app下载| 精品久久久久久久久午夜福利| 亚洲日韩国产精品不卡一区在线 | 成熟丰满熟妇高潮xxxxx视频| 国产激情在观看| 亚洲国产中文字幕九色| 公和我做好爽添厨房| 男人扒开女人下面狂躁小视频| 欧美日韩一区二区三区色综合| 精品国产一区二区三区av新片| 中文人妻av久久人妻水蜜桃| 台湾佬综合网| www久久久888| 国产亚洲av成人噜噜噜他| 亚洲av高清在线一区二区三区| 精品国产高清一区二区广区| 精品奇米国产一区二区三区| 大又大又粗又硬又爽少妇毛片| 乱子伦视频在线看| 亚洲免费无毛av一区二区三区 | 超碰97人人做人人爱少妇|