亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        使用GANomaly網(wǎng)絡(luò)的面癱識(shí)別應(yīng)用研究

        2022-03-07 02:21:25王齊陳功胡文昕胡嘉
        軟件工程 2022年3期
        關(guān)鍵詞:深度學(xué)習(xí)

        王齊 陳功 胡文昕 胡嘉

        摘? 要:周圍型面癱作為一種多為急性發(fā)作的臨床常見病,治療上需要準(zhǔn)確掌握患者發(fā)病狀態(tài),以便判斷治療的最佳時(shí)機(jī)?,F(xiàn)有的面癱治療方法多依賴于醫(yī)生對(duì)患者臨床癥狀的直觀判斷,而本文通過研究當(dāng)前基于深度學(xué)習(xí)的異常檢測(cè)方法,并將異常檢測(cè)生成對(duì)抗網(wǎng)絡(luò)(GANomaly)作用于面癱圖像上,實(shí)現(xiàn)正常人臉和面癱人臉的識(shí)別分類,為醫(yī)生診斷提供輔助工具,可有效提高診斷效率,彌補(bǔ)現(xiàn)有方法的不足。訓(xùn)練后的GANomaly網(wǎng)絡(luò)可有效分辨出面癱圖像的異常。實(shí)驗(yàn)結(jié)果表明,基于深度學(xué)習(xí)的GANomaly網(wǎng)絡(luò)可有效實(shí)現(xiàn)面癱的診斷識(shí)別。

        關(guān)鍵詞:深度學(xué)習(xí);面癱識(shí)別;異常檢測(cè);GANomaly

        中圖分類號(hào):TP39? ? ?文獻(xiàn)標(biāo)識(shí)碼:A

        Application Research of Facial Paralysis Recognition based on GANomaly Network

        WANG Qi1, CHEN Gong1,2, HU Wenxin1, HU Jia1

        (1. School of Artificial Intelligence and Information Technology, Nanjing University of Chinese Medicine, Nanjing 210046, China;

        2. Jiangsu Province Hospital of Chinese Medicine, Nanjing 210029, China)

        20190616@njucm.edu.cn; wqdlrb@163.com; 20200998@njucm.edu.cn; 20200997@njucm.edu.cn

        Abstract: Peripheral facial paralysis is a common clinical disease that is mostly acute. It is necessary to accurately grasp the patient's onset status in order to determine the best time for treatment. Existing facial paralysis treatments mostly rely on doctors' intuitive judgments of patients' clinical symptoms. This paper proposes to study current deep learning-based anomaly detection methods, and apply generative adversarial networks for anomaly detection (GANomaly) to facial paralysis images, so that recognition and classification of normal faces and facial paralysis ones are realized. It provides auxiliary tools for doctors to diagnose, which effectively improve the efficiency of diagnosis and make up for the shortcomings of existing methods. The trained GANomaly network can effectively distinguish the anomalies of facial paralysis images. The experimental results show that the GANomaly network based on deep learning can effectively realize the diagnosis and recognition of facial paralysis.

        Keywords: deep learning; facial paralysis recognition; anomaly detection; GANomaly

        1? ?引言(Introduction)

        面癱是臨床多發(fā)疾病,患者發(fā)病時(shí)會(huì)出現(xiàn)口眼歪斜、臉部痙攣、唾液分泌減少等現(xiàn)象。據(jù)流行病學(xué)顯示,近些年來(lái),面癱發(fā)病率不斷升高,患病比例約為(11.5—53.3)/10萬(wàn)[1],所以為提高面癱診斷效率,需要研究建立更多高效的輔助診療工具。傳統(tǒng)面癱診斷方法多為利用面部觀察或醫(yī)學(xué)檢查來(lái)判斷臨床體征,例如REITZEN等人[2]研究發(fā)現(xiàn),使用House-Brackmann[3]分級(jí)量表可有效評(píng)估患者患病區(qū)域和嚴(yán)重程度。此量表作為臨床上應(yīng)用最普遍的評(píng)價(jià)系統(tǒng),可根據(jù)面部表情動(dòng)作變化和是否伴有聯(lián)動(dòng)或面部痙攣現(xiàn)象,將面癱嚴(yán)重程度區(qū)分為六級(jí),如表1所示。而管子玉等人[4]設(shè)計(jì)了深度差異性網(wǎng)絡(luò)模型(Deep Differentiated Network, DDN),實(shí)現(xiàn)對(duì)面癱和“假面癱”的面部特征區(qū)分。SONG等人[5]設(shè)計(jì)了結(jié)合圖像分類(GoogLeNet)神經(jīng)網(wǎng)絡(luò)和人臉識(shí)別(DeepID)神經(jīng)網(wǎng)絡(luò)的新型卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng),完成面癱評(píng)估分類及其研究[6-7]等,體現(xiàn)了深度學(xué)習(xí)方法應(yīng)用到面癱診斷研究中的有效性。

        本文在此基礎(chǔ)上,利用面癱作為一種面部異常疾病,發(fā)病時(shí)面部圖像與正常圖像存在明顯差異的特點(diǎn),選擇將圖像異常檢測(cè)方法GANomaly應(yīng)用到面癱識(shí)別中,從而實(shí)現(xiàn)從正常人臉圖像中檢測(cè)識(shí)別出異常面癱圖像的目的,實(shí)現(xiàn)了一種新的基于深度學(xué)習(xí)的面癱診斷應(yīng)用研究。

        2? 基于深度學(xué)習(xí)的異常檢測(cè)方法(Anomaly detection method based on deep learning)

        人工智能(AI)技術(shù)在醫(yī)療影像識(shí)別、輔助醫(yī)療診斷、智能機(jī)器人等醫(yī)療場(chǎng)景中得到了較為廣泛的應(yīng)用發(fā)展,而目前大部分AI應(yīng)用中使用較多的技術(shù)是深度學(xué)習(xí)技術(shù)。深度學(xué)習(xí)屬于機(jī)器學(xué)習(xí)范疇,實(shí)現(xiàn)了利用非監(jiān)督式的學(xué)習(xí)算法來(lái)獲得數(shù)據(jù)更深層的特征信息。與傳統(tǒng)的人工提取不同,深度學(xué)習(xí)通過建立神經(jīng)網(wǎng)絡(luò)來(lái)分析學(xué)習(xí)圖像、聲音、文本等不同類型數(shù)據(jù),實(shí)現(xiàn)特征的自動(dòng)提取。深度學(xué)習(xí)技術(shù)學(xué)習(xí)能力強(qiáng)大,網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,特別是應(yīng)用于處理圖像問題方面,可得到相當(dāng)優(yōu)秀的結(jié)果。例如生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)[8]作為當(dāng)前比較熱門的無(wú)監(jiān)督算法,通過可以生成與原圖像高度相似的新圖像的生成器模型,以及可以分辨示例為真實(shí)還是偽造的判別器模型,來(lái)實(shí)現(xiàn)圖像的生成、圖像的轉(zhuǎn)換、圖像的分類等應(yīng)用。本文在解決面癱診斷問題時(shí),選擇使用基于深度學(xué)習(xí)的異常檢測(cè)技術(shù),以便獲得優(yōu)良的實(shí)驗(yàn)效果。

        2.1? ?異常檢測(cè)方法

        傳統(tǒng)的異常檢測(cè)方法多需要人為設(shè)計(jì)特征模型,實(shí)現(xiàn)復(fù)雜算法,以達(dá)到分辨異常的目的。隨著人工智能技術(shù)的發(fā)展,越來(lái)越多的研究者選擇將深度學(xué)習(xí)方法應(yīng)用到圖像異常檢測(cè)任務(wù)中,從而獲得更高的異常檢測(cè)精度。在這之中,利用圖像重構(gòu)檢測(cè)異常的方法得到了更為廣泛的應(yīng)用,該方法核心思想在于通過訓(xùn)練神經(jīng)網(wǎng)絡(luò),以不斷最小化重構(gòu)圖像與輸入圖像之間的距離為目的,學(xué)習(xí)正常圖像的分布模式,在檢測(cè)階段利用檢測(cè)原圖像和重構(gòu)圖像之間的差異大小實(shí)現(xiàn)異常檢測(cè)的目標(biāo)。較為典型的應(yīng)用包括基于自編碼器(AutoEncoder)的相關(guān)方法,例如變分自動(dòng)編碼器(Variational Autoencoders, VAE)[9]、對(duì)抗式自動(dòng)編碼器(Adversarial Autoencoder, AAE)[10]等,以及基于GAN的相關(guān)方法,例如深度卷積生成對(duì)抗網(wǎng)絡(luò)(Deep Convolutional Generative Adversarial Networks, DCGAN)[11]、AnoGAN[12]、BiGAN[13]等。

        本文選擇了在圖像識(shí)別和分類方面應(yīng)用較廣泛的GAN模型來(lái)解決面癱識(shí)別問題,并選擇使用檢測(cè)效果較好的異常檢測(cè)方法GANomaly[14]來(lái)檢測(cè)識(shí)別面癱圖像。該模型的優(yōu)勢(shì)在于模型訓(xùn)練是作用于正常人臉圖像的,從而僅需要少量的面癱圖像就可以完成測(cè)試,這對(duì)當(dāng)前研究面癱圖像量少且難以獲得的實(shí)驗(yàn)環(huán)境是十分友好的。通過實(shí)現(xiàn)使用GANomaly網(wǎng)絡(luò)進(jìn)行面癱識(shí)別,能夠輔助醫(yī)生有效判斷患者患病狀態(tài),為面癱診斷提供輔助診療工具,可滿足醫(yī)學(xué)治療的部分智能化需求。

        2.2? ?GAN相關(guān)異常檢測(cè)方法

        生成對(duì)抗網(wǎng)絡(luò)GAN于2014 年由GOODFELLOW等人[8]提出,該網(wǎng)絡(luò)主要包括兩個(gè)部分:生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)。生成網(wǎng)絡(luò)G作用于輸入的噪聲變量,輸出重構(gòu)圖像;判別網(wǎng)絡(luò)D作用于輸入的真實(shí)圖像或重構(gòu)圖像,盡可能地分辨出重構(gòu)圖像,輸出判斷結(jié)果。生成網(wǎng)絡(luò)會(huì)盡可能地生成與真實(shí)圖像高度相似的圖像,從而混淆判別網(wǎng)絡(luò),而判別網(wǎng)絡(luò)會(huì)盡可能地分辨輸入圖像真實(shí)與否,兩個(gè)網(wǎng)絡(luò)相互對(duì)抗,就會(huì)得到最佳的生成結(jié)果。利用GAN網(wǎng)絡(luò)這一特性,RADFORD等人[11]提出并評(píng)估了一組深度卷積GANs的體系結(jié)構(gòu),命名為深度卷積生成對(duì)抗網(wǎng)絡(luò)(DCGAN),并通過一系列實(shí)驗(yàn)證明對(duì)抗性網(wǎng)絡(luò)可以用于學(xué)習(xí)圖像表示,實(shí)現(xiàn)圖像生成建模,并且在大多數(shù)情況下可以穩(wěn)定地訓(xùn)練和取得良好的結(jié)果。該體系結(jié)構(gòu)主要使用判別器和生成器,并使用批量歸一化Batchnorm處理數(shù)據(jù),除了輸出層使用Tanh外,生成器的其他所有層使用ReLU激活,判別器中所有層都使用LeakyReLU激活。

        而在DCGAN網(wǎng)絡(luò)的基礎(chǔ)上,SCHLEGL等人[12]提出了AnoGAN網(wǎng)絡(luò)用于檢測(cè)異常,該網(wǎng)絡(luò)通過在正常圖像數(shù)據(jù)上訓(xùn)練DCGAN,生成得到重構(gòu)圖像,測(cè)試階段通過比對(duì)重構(gòu)圖像與原圖得到異常區(qū)域,計(jì)算異常值,通過判別器來(lái)分辨異常。KAPLAN等人[13]提出了BiGAN異常檢測(cè)模型,該模型與AnoGAN有所不同的是,生成網(wǎng)絡(luò)中分為編碼器Encoder和解碼器Decoder。編碼器通過輸入圖像x得到編碼z,而解碼器通過輸入編碼生成圖像,判別器通過不斷縮小編碼器和解碼器之間的分布差異,使編碼z與不斷接近,從而生成得到最佳的重構(gòu)圖像,并同樣通過計(jì)算異常值來(lái)判別異常。

        3? 實(shí)驗(yàn)方法——GANomaly網(wǎng)絡(luò)(Experimental method-GANomaly network)

        為了得到更好的實(shí)驗(yàn)結(jié)果,相比于AnoGAN和BiGAN,本文選擇了檢測(cè)準(zhǔn)確率更高的GANomaly[14]網(wǎng)絡(luò)。該網(wǎng)絡(luò)通過采用編碼—解碼—編碼的網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)將輸入圖像映射成一個(gè)低維向量,然后重構(gòu)低維向量生成得到重構(gòu)圖像,附加的編碼器將重構(gòu)圖像映射得到潛在變量。模型在訓(xùn)練階段會(huì)不斷地最小化低維向量和潛在變量之間的差異,學(xué)習(xí)得到正常圖像的數(shù)據(jù)分布,判別器根據(jù)從該學(xué)習(xí)數(shù)據(jù)分布中獲得的較大距離度量推斷該分布中存在的異常值。

        GANomaly網(wǎng)絡(luò)模型可分為三個(gè)部分。第一個(gè)部分是作為模型生成器部分的自動(dòng)編碼器網(wǎng)絡(luò),該網(wǎng)絡(luò)首先讀取輸入圖像x到編碼器GE,GE利用帶有批量歸一化batch-norm和激活函數(shù)ReLU的多個(gè)卷積層,將圖像壓縮成一維向量z,即,然后通過解碼器GD的卷積轉(zhuǎn)置層作用于向量z得到重構(gòu)圖像,即。第二個(gè)部分是編碼器網(wǎng)絡(luò)E,除了參數(shù)不同,其結(jié)構(gòu)與GE基本相似,主要對(duì)重構(gòu)圖像壓縮得到,即。第三個(gè)部分是判別器網(wǎng)絡(luò)D,對(duì)輸入圖像x和重構(gòu)圖像進(jìn)行分類,區(qū)分真假。但當(dāng)測(cè)試階段異常圖像傳入生成器網(wǎng)絡(luò)G時(shí),GD無(wú)法重建異常,遺漏異常所得到的特征表示就會(huì)和z之間呈現(xiàn)差異性,模型通過檢測(cè)到這種差異性,從而判定輸入的圖像存在異常。

        實(shí)驗(yàn)采用三個(gè)損失函數(shù)訓(xùn)練優(yōu)化模型,包括對(duì)抗性損失Ladv、上下文損失Lcon和編碼器損失Lenc。Ladv表示特征匹配誤差,可優(yōu)化圖像特征之間的差異,通過計(jì)算輸入圖像與重構(gòu)圖像的特征表示之間的歐式距離,得到判別器網(wǎng)絡(luò)D的中間層向量:

        Lcon表示重構(gòu)誤差損失,通過訓(xùn)練不斷減少輸入圖像與重構(gòu)圖像之間的差異,采用曼哈頓距離計(jì)算差異結(jié)果,即:

        Lenc表示計(jì)算輸入圖像的向量特征和重構(gòu)圖像的向量特征之間的差異,優(yōu)化潛在變量誤差,即:

        得到的目標(biāo)函數(shù)為:

        其中,、、為加權(quán)參數(shù)。

        利用公式(3)可計(jì)算得出輸入圖像與重構(gòu)圖像之間的異常分,異常分越小則代表模型重構(gòu)得越成功;反之,則表示模型無(wú)法成功重構(gòu),從而得出該輸入圖像為異常圖像。對(duì)于異常圖像,其異常分定義如下:

        通過設(shè)定一個(gè)評(píng)估閾值,得到的異常分則表示存在異常圖像。由于面癱患者眼部下垂,嘴部歪斜,與正常人臉的眼部、嘴部存在明顯差別,因此GANomaly無(wú)法完美重構(gòu)異常圖像的眼部、嘴部,得到的異常分過高,從而檢測(cè)出異常,實(shí)現(xiàn)面癱的識(shí)別,如圖1所示。

        4? ?實(shí)驗(yàn)過程及結(jié)果(Experimental process and results)

        本文的實(shí)驗(yàn)?zāi)康氖菍ANomaly網(wǎng)絡(luò)應(yīng)用到正常面部圖像和面癱圖像數(shù)據(jù)中,以實(shí)現(xiàn)對(duì)面癱的檢測(cè)識(shí)別,證明異常檢測(cè)模型作用于面癱數(shù)據(jù)的有效性。

        實(shí)驗(yàn)開始之前,需要準(zhǔn)備實(shí)驗(yàn)數(shù)據(jù)和配置實(shí)驗(yàn)環(huán)境。本實(shí)驗(yàn)在訓(xùn)練階段需作用于大量的正常人臉圖像,故選取了公開數(shù)據(jù)集Pins人臉識(shí)別數(shù)據(jù)集中的3,993 張圖像作為訓(xùn)練集。為得到更好的實(shí)驗(yàn)效果以有效分辨正常人臉圖像和面癱圖像,在人臉圖像的選擇上遵循無(wú)遮擋、五官清晰、無(wú)夸張表情等原則,盡量保證面部充滿整張圖像,并設(shè)置正常人臉圖像標(biāo)簽為0。依照模型訓(xùn)練集數(shù)據(jù)量遠(yuǎn)大于測(cè)試集的原則,本實(shí)驗(yàn)的測(cè)試集僅選取了33 張正常人臉圖像和33 張面癱圖像(來(lái)自HSU等人[15]使用的面癱數(shù)據(jù)),并設(shè)置正常人臉圖像標(biāo)簽為0,面癱圖像標(biāo)簽為1。

        實(shí)驗(yàn)使用Intel(R) Core(TM) i5-10500處理器和GeForce RTX 3060 GPU處理圖像,并在配置有Windows 10+CUDA 11.1.0+CUDNN 8.0+PyTorch(v1.9.0,Python 3.7.1)的環(huán)境下進(jìn)行代碼實(shí)現(xiàn)。實(shí)驗(yàn)學(xué)習(xí)速率設(shè)置為0.0002,在人臉圖像數(shù)據(jù)上進(jìn)行了50 個(gè)時(shí)期(epochs)的訓(xùn)練,輸入批次大小設(shè)為64,每一時(shí)期處理62 批,每一批平均運(yùn)行時(shí)間約為8.4 ms,CPU利用率平均約為10%,內(nèi)存占用率平均約為51%,GPU利用率平均約為11%,顯存占用為518 MiB/12,288 MiB,并使用WandB可視化實(shí)驗(yàn)結(jié)果。

        實(shí)驗(yàn)訓(xùn)練參數(shù)主要包括、和,通過調(diào)整參數(shù),改變模型作用區(qū)域權(quán)重,并利用AUC值比較模型訓(xùn)練好壞。AUC值是指用于檢測(cè)分類器泛化能力的ROC曲線下方的總面積。偽正類率(False Positive Rate, FPR)越大,預(yù)測(cè)結(jié)果為正常的數(shù)據(jù)中實(shí)際的異常數(shù)據(jù)越多;真正類率(True Positive Rate, TPR)越大,預(yù)測(cè)結(jié)果為正常的數(shù)據(jù)中實(shí)際的正常數(shù)據(jù)越多。故而,TPR越大越好,F(xiàn)PR越小越好,體現(xiàn)在AUC值上就是AUC值越大越好[16]。通過比較不同參數(shù)條件下實(shí)驗(yàn)得到的AUC值,判斷模型訓(xùn)練得到的最佳結(jié)果。

        經(jīng)過實(shí)驗(yàn),如圖2所示,通過比較模型在取不同權(quán)重值時(shí)AUC值的大小,得出模型在=1、=50和=1時(shí)取得最佳結(jié)果。訓(xùn)練過程中AUC值的變化如圖3(a)所示;AUC值不斷增大,最大可達(dá)到0.90,如圖3(b)所示,其中EER表示等錯(cuò)誤率,即偽正類率和真正類率相等的點(diǎn)。實(shí)驗(yàn)最終得到的AUC均值約為0.87,故該模型應(yīng)用效果較好,可有效檢測(cè)分類。模型的損失函數(shù)變化結(jié)果如圖4所示。圖4(a)顯示了三個(gè)損失函數(shù)的損失變化,圖4(b)顯示了生成器和判別器的損失變化,可見模型損失不斷下降并最后趨于平穩(wěn),模型實(shí)現(xiàn)收斂。

        本實(shí)驗(yàn)使用WandB可視化實(shí)驗(yàn)結(jié)果,得到的實(shí)驗(yàn)結(jié)果具體數(shù)值如圖5所示,圖中展示了AUC和各種損失均值結(jié)果。實(shí)驗(yàn)設(shè)置了閾值=0.2,異常分大于0.2即判定為異常。為了更直觀地展示實(shí)驗(yàn)樣本分類結(jié)果,使用直方圖展現(xiàn)標(biāo)簽為0表示正常人臉圖像的異常分和標(biāo)簽為1表示面癱圖像的異常分,如圖6所示。異常樣本分值基本分布在大于0.2的范圍內(nèi),體現(xiàn)了正常樣本和異常樣本的分離,從而證明了模型可有效檢測(cè)識(shí)別出異常。

        圖7展示生成器網(wǎng)絡(luò)的訓(xùn)練結(jié)果,可以看出通過生成器訓(xùn)練得到的人臉圖像與實(shí)際數(shù)據(jù)相差無(wú)幾,且人臉五官均可清晰生成,可達(dá)到“以假亂真”的目的。圖8展示面癱數(shù)據(jù)的測(cè)試結(jié)果,與正常人臉圖像對(duì)比,使用該模型作用于面癱數(shù)據(jù)時(shí)發(fā)現(xiàn),模型無(wú)法生成清晰的面癱圖像,面部五官基本無(wú)法生成,說明模型無(wú)法產(chǎn)生異常圖像,從而達(dá)到檢測(cè)異常的目的,進(jìn)一步證實(shí)了模型識(shí)別面癱的有效性。

        綜上所述,GANomaly網(wǎng)絡(luò)可有效分辨面癱圖像和正常人臉圖像,并對(duì)面癱識(shí)別是十分有效的,可有效提高面癱診斷的可靠性和直觀性,有利于患者理解和接受,從而為面癱診斷提供有效的輔助診療工具。

        5? ?結(jié)論(Conclusion)

        本文選擇基于深度學(xué)習(xí)的異常檢測(cè)技術(shù)解決面癱的診斷識(shí)別問題,通過異常檢測(cè)方法GANomaly深度挖掘人臉圖像面部特征,并實(shí)現(xiàn)圖像的生成重構(gòu),利用正常人臉和面癱圖像重構(gòu)的特征差異來(lái)有效識(shí)別面癱,從而為面癱治療提供高效的輔助診療工具。面癱識(shí)別研究可幫助醫(yī)生更有效地判斷病情,并可盡量避免僅依靠主觀經(jīng)驗(yàn)帶來(lái)的診斷失誤,其主要優(yōu)勢(shì)包括:計(jì)算機(jī)代替人工,可在短時(shí)間內(nèi)學(xué)習(xí)到大量經(jīng)驗(yàn)和觀察到更多細(xì)節(jié);有效保存患者各治療階段的圖像信息,從而作為醫(yī)生判斷病情的依據(jù);具有更客觀、更直觀、更準(zhǔn)確的優(yōu)點(diǎn),患者也更容易理解和接受?;谏疃葘W(xué)習(xí)的異常檢測(cè)網(wǎng)絡(luò)GANomaly對(duì)面癱識(shí)別的成功實(shí)現(xiàn),體現(xiàn)了異常檢測(cè)方法應(yīng)用到面癱研究領(lǐng)域的有效性,并為以后將更多異常檢測(cè)方法應(yīng)用于面癱研究中和實(shí)現(xiàn)面癱嚴(yán)重程度的分類打下基礎(chǔ)。在之后的研究中將不斷優(yōu)化模型,并深度挖掘面癱圖像與正常人臉圖像的差異特征,實(shí)現(xiàn)面癱嚴(yán)重程度的診斷評(píng)估。

        參考文獻(xiàn)(References)

        [1] 劉明生.中國(guó)特發(fā)性面神經(jīng)麻痹診治指南[J].中華神經(jīng)科雜志,2016,49(2):84-86.

        [2] REITZEN S D, BABB J S, LALWANI A K. Significance and reliability of the House-Brackmann grading system for regional facial nerve function[J]. Otolaryngology-Head Neck Surg, 2009, 140(2):154-158.

        [3] SONG I, VONG J, YEN N Y, et al. Profiling Bell's palsy based on House-Brackmann score[J]. Journal of Artificial Intelligence and Soft Computing Research, 2013(3):1-6.

        [4] 管子玉,劉杰,謝飛,等.基于深度差異性網(wǎng)絡(luò)的真假面癱識(shí)別[J].西北大學(xué)學(xué)報(bào)(自然科學(xué)版),2019, 49(2):171-179.

        [5] SONG A, WU Z, DING X, et al. Neurologist standard classification of facial nerve paralysis with deep neural networks[J]. Future Internet, 2018, 10(11):111.

        [6] LIU X, XIA Y, YU H, et al. Region based parallel hierarchy convolutional neural network for automatic facial nerve paralysis evaluation[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2020, 28(10):2325-2332.

        [7] WANG T, ZHANG S, LIU L, et al. Automatic facial paralysis evaluation augmented by a cascaded encoder network structure[J]. IEEE Access, 2019(7):135621-135631.

        [8] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[J]. Advances in Neural Information Processing Systems, 2014, 3:2672-2680.

        [9] KINGMA D P, WELLING M. Auto-encoding variational bayes[EB/OL]. (2013-12-20) [2014-05-01]. https://arxiv.org/abs/1312.6114.

        [10] MAKHZANI A, SHLENS J, JAITLY N, et al. Adversarial autoencoders[EB/OL]. (2015-11-18) [2016-05-25]. https://arxiv.org/abs/1511.05644.

        [11] RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL]. (2015-11-19) [2016-01-07]. https://arxiv.org/abs/1511.06434.

        [12] SCHLEGL T, WALDSTEIN S M, LANGS G, et al. Unsupervised anomaly detection with generative adversarial networks to guide marker discovery[C]// NIETHAMMER M, STYNER M, AYLWARD S, et al. Lecture Notes in Computer Science. Switzerland: Springer, Cham, 2017:146-157.

        [13] KAPLAN M O, ALPTEKIN S E. An improved BiGAN based approach for anomaly detection[J]. Procedia Computer Science, 2020, 176:185-194.

        [14] AKCAY S, ATAPOUR-ABARGHOUEI A, BRECKON T P. GANomaly: Semi-supervised anomaly detection via adversarial training[C]// JAWAHAR C, LI H, MORI G, et al.

        Lecture Notes in Computer Science. Switzerland: Springer, Cham, 2018:622-637.

        [15] HSU G S J, KANG J H, HUANG W F. Deep hierarchical network with line segment learning for quantitative analysis of facial palsy[J]. IEEE Access, 2018(7):4833-4842.

        [16] FAWCETT T. An introduction to ROC analysis[J]. Pattern Recognition Letters, 2006(27):861-874.

        作者簡(jiǎn)介:

        王? ?齊(1995-),女,碩士生.研究領(lǐng)域:智能信息處理與軟件技術(shù).

        陳? 功(1969-),男,博士,研究員.研究領(lǐng)域:生物醫(yī)學(xué)工程,智能信息處理與軟件技術(shù).

        胡文昕(1997-),男,碩士生.研究領(lǐng)域:智能信息處理與軟件技術(shù).

        胡? ?嘉(1997-),男,碩士生.研究領(lǐng)域:智能信息處理與軟件技術(shù).

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        免费a级作爱片免费观看美国| 最新国产精品国产三级国产av| 日韩精品视频免费在线观看网站| 久久精品国产亚洲av果冻传媒| 青青草原精品99久久精品66| 一本大道久久精品 东京热| 亚洲天堂av免费在线| 最新中文字幕一区二区| 午夜性无码专区| 四虎精品影视| 少妇勾引视频网站在线观看| 国产青青草在线观看视频| 亚洲精品乱码久久久久久蜜桃不卡 | 日本高清中文一区二区三区| 亚洲国产综合精品中久| 无码国产色欲xxxx视频| 国产98在线 | 免费| 精品亚洲不卡一区二区| 一本色道久久综合亚洲| 久久成人影院精品777| 91免费永久国产在线观看| 一区二区三区国产偷拍| 日本一二三区在线观看视频| 亚洲日韩av无码中文字幕美国| 久草午夜视频| 亚洲一区二区三区资源| 色综合天天综合网国产成人网 | 一亚洲一区二区中文字幕| 45岁妇女草逼视频播放| 国产精品自在线拍国产手机版| 中文亚洲爆乳av无码专区 | 手机av在线中文字幕| 日韩毛片免费无码无毒视频观看| 日韩秘 无码一区二区三区| 视频一区二区免费在线观看| 欧美嫩交一区二区三区| 国产一区二区不卡老阿姨| 久久国产精品男人的天堂av| 国产亚洲精品av一区| 一品二品三品中文字幕| 中文字幕亚洲好看有码|