亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        對(duì)抗樣本生成及防御方法綜述

        2021-05-16 16:46:26劉海燕呂涵
        現(xiàn)代信息科技 2021年22期
        關(guān)鍵詞:機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

        劉海燕 呂涵

        摘? 要:隨著人工智能的不斷發(fā)展,機(jī)器學(xué)習(xí)在多個(gè)領(lǐng)域中取得了很好的應(yīng)用效果。然而對(duì)抗樣本的出現(xiàn)對(duì)機(jī)器學(xué)習(xí)模型的安全性造成了不容忽視的威脅,導(dǎo)致了機(jī)器學(xué)習(xí)模型的分類準(zhǔn)確性降低。文章簡(jiǎn)述了對(duì)抗樣本的起源、概念以及不同的對(duì)抗攻擊方式,研究了典型的對(duì)抗樣本生成方法以及防御方法,并在此基礎(chǔ)上,展望了關(guān)于對(duì)抗攻擊和對(duì)抗攻擊防御的未來發(fā)展趨勢(shì)。

        關(guān)鍵詞:機(jī)器學(xué)習(xí);對(duì)抗樣本;神經(jīng)網(wǎng)絡(luò);對(duì)抗攻擊

        中圖分類號(hào):TP18? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):2096-4706(2021)22-0082-04

        Abstract: With the continuous development of artificial intelligence, machine learning has achieved good application effects in many fields. However, the emergence of adversarial samples poses a serious threat to the security of machine learning models and reduces the accuracy of machine learning model classification. This paper briefly describes the origin, concept and different adversarial attack methods of adversarial samples, studies typical adversarial sample generation methods and defense methods, and on this basis, puts forward the future development trend of adversarial attack and adversarial attack defense.

        Keywords: machine learning; adversarial sample; neural network; adversarial attack

        0? 引? 言

        人工智能技術(shù)促進(jìn)了新興技術(shù)的快速發(fā)展,它的重要驅(qū)動(dòng)力之一就是機(jī)器學(xué)習(xí)算法,機(jī)器學(xué)習(xí)算法已廣泛應(yīng)用于各種領(lǐng)域,如自動(dòng)駕駛,醫(yī)療和惡意軟件檢測(cè)等。但是研究表明,機(jī)器學(xué)習(xí)算法面臨著一系列對(duì)抗性威脅,影響其安全性問題的關(guān)鍵就是對(duì)抗樣本。對(duì)抗樣本的產(chǎn)生使得機(jī)器學(xué)習(xí)模型的分類準(zhǔn)確率大大降低,因此,研究對(duì)抗樣本的生成及防御方法變得尤為重要。而且,由于多數(shù)機(jī)器學(xué)習(xí)算法是黑盒模型,其構(gòu)造的分類模型具有不可解釋性,進(jìn)一步研究對(duì)抗樣本對(duì)于解釋機(jī)器學(xué)習(xí)尤其是深度學(xué)習(xí)算法有所幫助。

        2013年,Szegedy等人[1]第一次提出了對(duì)抗樣本的概念,Goodfellow等人[2]解釋了對(duì)抗樣本的基本原理,證明了高維線性是導(dǎo)致攻擊效果顯著的根本原因。此后,關(guān)于機(jī)器學(xué)習(xí)算法的安全性問題的研究越來越多,包括如何提高對(duì)抗攻擊的成功率和分類模型的魯棒性。本文總結(jié)了近年來對(duì)抗樣本生成以及防御方法取得的進(jìn)展,并簡(jiǎn)述了其存在的問題以及未來的發(fā)展趨勢(shì)。

        1? 對(duì)抗樣本及對(duì)抗攻擊

        1.1? 對(duì)抗樣本的起源和概念

        假設(shè)決策邊界決定樣本的分類,如圖1所示,A類和B類分別代表不同的樣本空間,由于機(jī)器學(xué)習(xí)模型并不能做到覆蓋全樣本特征,模型決策邊界與真實(shí)決策邊界之間還存在一定差異,這兩者之間的差別體現(xiàn)在其相交的區(qū)域,即對(duì)抗樣本空間。

        對(duì)抗樣本是指在原始樣本中加入細(xì)微擾動(dòng)并使模型錯(cuò)誤分類的一種合成樣本。對(duì)抗攻擊是指用對(duì)抗樣本攻擊分類模型,使其分類的準(zhǔn)確性下降。對(duì)抗攻擊也可以說是對(duì)抗樣本生成的過程。對(duì)抗攻擊具有可遷移性,即用針對(duì)某分類模型生成的對(duì)抗樣本攻擊其他分類模型。

        1.2? 對(duì)抗攻擊的分類

        對(duì)抗攻擊按照不同的分類標(biāo)準(zhǔn)可分為不同的類型:

        (1)按照攻擊目標(biāo)的不同,對(duì)抗攻擊可分為無目標(biāo)攻擊(non-targeted attack)和目標(biāo)攻擊(targeted attack)。無目標(biāo)攻擊是指攻擊者使輸入樣本被分類到任意錯(cuò)誤類別;目標(biāo)攻擊是指攻擊者使輸入樣本被分類到指定錯(cuò)誤類別。

        (2)按照攻擊者對(duì)模型信息的獲取程度,對(duì)抗攻擊可分為白盒攻擊(White-box Attack)和黑盒攻擊(Black-box Attack)。白盒攻擊是指攻擊者掌握目標(biāo)模型的結(jié)構(gòu)、參數(shù)和訓(xùn)練數(shù)據(jù)等詳細(xì)信息。黑盒攻擊是指攻擊者不了解目標(biāo)模型的關(guān)鍵信息,僅能通過對(duì)模型輸入樣本得到輸出信息來推理模型特性。

        (3)按照算法的迭代過程,對(duì)抗攻擊可分為單次迭代攻擊和多次迭代攻擊。單次迭代算法可以快速生成對(duì)抗樣本;多次迭代算法攻擊效果好但效率較低。

        (4)按照攻擊的過程不同,對(duì)抗攻擊可分為投毒攻擊、逃避攻擊、模仿攻擊和逆向攻擊。投毒攻擊是將生成的對(duì)抗樣本加入訓(xùn)練數(shù)據(jù)中,使機(jī)器學(xué)習(xí)模型的分類準(zhǔn)確性下降;逃避攻擊是指生成能夠逃避檢測(cè)的對(duì)抗樣本;模仿攻擊是指生成與原始樣本類似的對(duì)抗樣本,使模型將其分類為正常樣本;逆向攻擊是指通過模型預(yù)測(cè)接口接收信息從而竊取模型信息。

        2? 對(duì)抗樣本生成

        生成對(duì)抗樣本的具體方法就是在原樣本上添加允許范圍內(nèi)的擾動(dòng)量,使得修改后的樣本在模型上的損失函數(shù)最大化(非定向攻擊)或最小化(定向攻擊),即對(duì)抗樣本生成算法可以轉(zhuǎn)換成空間搜索的優(yōu)化問題。在對(duì)抗攻擊過程中,為了使得對(duì)抗擾動(dòng)無法被察覺,需要計(jì)算原始樣本與對(duì)抗樣本之間的距離,來量化樣本之間的相似性,通常用L-范數(shù)來度量。擾動(dòng)量的度量計(jì)算公式為:

        其中,L0,L2和L∞是最常用的樣本距離衡量指標(biāo)。在對(duì)抗樣本生成方法中,L0是指添加擾動(dòng)的數(shù)量,L2是指原始樣本與對(duì)抗樣本之間的歐幾里得距離,L∞是指擾動(dòng)的最大改變強(qiáng)度。

        基于不同的生成特征,常見的對(duì)抗樣本生成算法可分為:基于梯度信息的攻擊如FGSM、JSMA,基于決策邊界的攻擊如Deepfool,基于優(yōu)化的攻擊如 L-BFGS算法和C&W,基于生成模型的攻擊如生成對(duì)抗網(wǎng)絡(luò)。本文介紹的對(duì)抗樣本生成方法主要是為經(jīng)典的計(jì)算機(jī)視覺任務(wù)開發(fā)的,并且多用于實(shí)驗(yàn)研究而非真實(shí)場(chǎng)景中,根據(jù)典型的數(shù)據(jù)集如Imagenet、MNIST和CIFAR10來驗(yàn)證各種算法的性能。

        2.1? L-BFGS算法

        Szegedy等人提出L-BFGS對(duì)抗樣本生成方法,通過對(duì)圖像添加少量擾動(dòng),使神經(jīng)網(wǎng)絡(luò)模型錯(cuò)誤輸出。該方法通過尋找最小的損失函數(shù)添加項(xiàng)來替代復(fù)雜的擾動(dòng)方程求解,將求解最小擾動(dòng)方程問題簡(jiǎn)化為凸優(yōu)化求解問題。L-BFGS算法生成效率較低,可遷移性較差。

        2.2? 快速梯度符號(hào)法

        快速梯度符號(hào)法(Fast Gradient Sign Method,F(xiàn)GSM)通過在神經(jīng)網(wǎng)絡(luò)模型梯度變化最大的方向加入微小擾動(dòng)使模型錯(cuò)誤分類。公式為:

        其中,ε是調(diào)節(jié)系數(shù),sign是符號(hào)函數(shù),xL(x,y)是損失函數(shù)對(duì)x的一階導(dǎo)數(shù)。實(shí)驗(yàn)證明,在一張以55.7%置信度被認(rèn)為是熊貓的圖片中加入用FGSM算法生成的擾動(dòng)后,該圖片以99.3%的置信度被認(rèn)為是長(zhǎng)臂猿。FGSM算法僅需一次梯度更新即得到對(duì)抗擾動(dòng),簡(jiǎn)單有效,但擾動(dòng)強(qiáng)度較大且只適用于線性。Kurakin等人[3]提出了基于迭代的快速梯度攻擊法BIM(Basic Iterative Method),通過多次小步梯度更新生成對(duì)抗樣本,可用于非線性目標(biāo)函數(shù)并優(yōu)化擾動(dòng)強(qiáng)度。

        2.3? Jacobin映射攻擊算法

        Jacobin映射攻擊算法(Jacobin-based Saliency Map Attack, JSMA)通過對(duì)原始樣本添加有限個(gè)特征數(shù)量的擾動(dòng)來構(gòu)造對(duì)抗樣本。JSMA算法[4]包括計(jì)算分類模型對(duì)輸入樣本的雅可比矩陣、構(gòu)建對(duì)抗顯著映射和選擇擾動(dòng)因素三個(gè)步驟。其中,雅可比矩陣用來計(jì)算輸入到輸出的特征,通過雅可比矩陣構(gòu)建對(duì)抗顯著映射,用來量化特征值對(duì)分類器的影響。每次只改變影響最大的一個(gè)特征的值來生成對(duì)抗樣本,就可以在給出盡可能小擾動(dòng)值的條件下實(shí)現(xiàn)對(duì)抗攻擊。原始樣本與對(duì)抗樣本的距離由0-范數(shù)來計(jì)算,修改特征數(shù)量最少的即為期望擾動(dòng)向量。擾動(dòng)向量公式為:

        其中,Δδ為期望擾動(dòng)向量,δ為任意擾動(dòng)向量,f為分類器,x為原始樣本。此公式表示在攻擊成功的條件下,找到0-范數(shù)最小的擾動(dòng)向量δ。實(shí)驗(yàn)證明,在改變?cè)紭颖?%的特征時(shí),JSMA算法的對(duì)抗成功率可以達(dá)到97%。JSMA算法攻擊成功率較高,但由于計(jì)算復(fù)雜使生成效率較低。

        2.4? 深度欺騙攻擊

        深度欺騙攻擊(Deepfool)通過計(jì)算原始樣本與對(duì)抗樣本的決策邊界的最小距離得到擾動(dòng)大小。它根據(jù)損失函數(shù)迭代生成滿足條件的擾動(dòng)向量,迭代一次增加一個(gè)指向最近決策邊界的擾動(dòng)向量,直到對(duì)抗樣本跨越?jīng)Q策邊界。原始樣本與對(duì)抗樣本的距離用2-范數(shù)來衡量,歐式距離最短的即為期望擾動(dòng)向量。在線性二分類模型f(x)中,添加的最小擾動(dòng)為原始樣本x到分割超平面F={x:ωT · x+b=0}的正交投影。擾動(dòng)向量公式為:

        其中,Δδ為期望擾動(dòng)向量,δ為任意擾動(dòng)向量,f為分類器,x為原始樣本。此公式表示攻擊成功的條件下,找到2-范數(shù)最小的擾動(dòng)向量δ。與FGSM相比,DeepFool能夠計(jì)算出更小的擾動(dòng),同時(shí)具有類似的對(duì)抗性,但它無法將分類器誤導(dǎo)至指定類別。

        2.5? C&W

        Carlini和Wagner等人[5]提出了針對(duì)防御性蒸餾的C&W攻擊(Carlini and Wagner attacks),它包括L0,L2和L∞三種范數(shù)形式的約束。通過實(shí)驗(yàn)對(duì)比,L2范式下的C&W攻擊能力最強(qiáng)。C&W攻擊對(duì)現(xiàn)有的多數(shù)深度學(xué)習(xí)模型能達(dá)到很好的攻擊效果,對(duì)比 L-BFGS、FGSM、JSMA 和 DeepFool攻擊,C&W的攻擊效果更強(qiáng),但為了找到約束擾動(dòng)的合適的參數(shù)導(dǎo)致效率較低。

        2.6? 邊界攻擊

        Brendel等人[6]提出一種黑盒攻擊方法——邊界攻擊(Boundary Attack),其針對(duì)目標(biāo)分類器的分類結(jié)果進(jìn)行攻擊。該方法首先找到一個(gè)初始對(duì)抗樣本,然后通過特定的搜索迭代方法逐漸找到?jīng)Q策邊界上與原始樣本最近的對(duì)抗樣本,并保證擾動(dòng)小于閾值且對(duì)抗樣本依然具有對(duì)抗性。該方法只依賴模型最終決策信息的攻擊方法較為簡(jiǎn)單,但由于其對(duì)模型訪問次數(shù)巨大造成效率較低。基于此,Boundary Attack++對(duì)該算法進(jìn)行優(yōu)化,大大提高了該算法的效率。

        2.7? 生成對(duì)抗網(wǎng)絡(luò)

        基于生成模型的對(duì)抗樣本生成方法,通過抽取原始樣本學(xué)習(xí)其概率分布,從而生成與原始樣本分布相同而又不完全相同的樣本。Goodfellow在2014年提出生成對(duì)抗網(wǎng)絡(luò)(GANs),它由生成模型G和判別模型D兩部分組成。生成模型學(xué)習(xí)真實(shí)數(shù)據(jù)分布生成偽數(shù)據(jù),判別模型區(qū)分真實(shí)數(shù)據(jù)和生成數(shù)據(jù)。生成對(duì)抗網(wǎng)絡(luò)通過生成模型和判別模型的不斷對(duì)抗和優(yōu)化,最終達(dá)到納什均衡。實(shí)驗(yàn)證明,利用生成對(duì)抗網(wǎng)絡(luò)構(gòu)造的對(duì)抗樣本,在有防御的情況下具有較高的攻擊成功率。

        表1列舉了不同的對(duì)抗攻擊方式,按照攻擊類型、攻擊目標(biāo)、攻擊頻次、擾動(dòng)范圍、攻擊強(qiáng)度、特點(diǎn)以及應(yīng)用場(chǎng)景這幾個(gè)方面進(jìn)行了對(duì)比。

        3? 對(duì)抗樣本防御

        對(duì)抗攻擊防御就是針對(duì)不同對(duì)抗攻擊設(shè)計(jì)不同防御方法,使分類模型將對(duì)抗樣本正確輸出,或使生成的對(duì)抗樣本的成功率顯著降低?,F(xiàn)有的對(duì)抗樣本防御方法主要分為兩大類,修改數(shù)據(jù)和修改網(wǎng)絡(luò)結(jié)構(gòu)。

        3.1? 基于數(shù)據(jù)修改的防御方法

        這類方法主要通過對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)處理來檢測(cè)出對(duì)抗樣本并剔除,或?qū)?duì)抗樣本加入訓(xùn)練集加強(qiáng)訓(xùn)練來提高模型魯棒性。

        3.1.1? 對(duì)抗訓(xùn)練

        在迭代訓(xùn)練中,將生成的對(duì)抗樣本加入到訓(xùn)練集中進(jìn)行訓(xùn)練,加強(qiáng)深度神經(jīng)網(wǎng)絡(luò)模型在對(duì)抗環(huán)境下的魯棒性。但單步對(duì)抗訓(xùn)練可能會(huì)導(dǎo)致模型過擬合。使用集成對(duì)抗訓(xùn)練,將不同模型生成的對(duì)抗樣本進(jìn)行再訓(xùn)練,可以增強(qiáng)模型面對(duì)黑盒攻擊時(shí)的魯棒性。

        3.1.2? 特征壓縮

        特征壓縮通過去除不必要的輸入特征來進(jìn)行壓縮,當(dāng)模型對(duì)壓縮數(shù)據(jù)的預(yù)測(cè)與對(duì)原始數(shù)據(jù)的預(yù)測(cè)結(jié)果的1-范數(shù)差大于設(shè)定值,即認(rèn)為它是對(duì)抗樣本。實(shí)驗(yàn)證明,特征壓縮能防御FGSM、Deepfool、JSMA和C&W攻擊。特征壓縮是一種對(duì)抗攻擊檢測(cè)方法,可與其他防御方法相結(jié)合。

        3.1.3? 數(shù)據(jù)隨機(jī)化處理

        隨機(jī)調(diào)整對(duì)抗樣本的大小或添加一些高斯隨機(jī)化處理?;陔S機(jī)調(diào)整大小和填充的對(duì)抗防御機(jī)制,通過輸入變換消除擾動(dòng),同時(shí)可以在預(yù)測(cè)階段修改輸入數(shù)據(jù),使得損失梯度難以計(jì)算。這種防御機(jī)制能與其他防御方法結(jié)合使用。

        3.2? 基于網(wǎng)絡(luò)模型修改的防御方法

        面對(duì)人眼無法察覺的小型擾動(dòng),深度學(xué)習(xí)模型更容易受到其影響而錯(cuò)誤輸出。通過改變或隱藏模型的結(jié)構(gòu),能夠提高神經(jīng)網(wǎng)絡(luò)模型面對(duì)小擾動(dòng)的魯棒性。

        3.2.1? 梯度正則化或梯度隱藏

        針對(duì)可微分模型進(jìn)行輸入梯度正則化,通過懲罰輸出相對(duì)輸入變化的變化幅度,從而達(dá)到隱藏梯度的目的,來提高神經(jīng)網(wǎng)絡(luò)模型的魯棒性。這表明小型擾動(dòng)不能夠大幅改變訓(xùn)練模型的輸出。實(shí)驗(yàn)證明,梯度正則化與對(duì)抗訓(xùn)練相結(jié)合,可以很好的防御FGSM和JSMA攻擊。

        3.2.2? 防御性蒸餾

        防御性蒸餾是針對(duì)神經(jīng)網(wǎng)絡(luò)模型產(chǎn)生的對(duì)抗樣本而提出的防御方法,它的基本思想是將在復(fù)雜模型中學(xué)習(xí)的“知識(shí)”作為先驗(yàn)傳遞到簡(jiǎn)單模型中去,從而降低神經(jīng)網(wǎng)絡(luò)的梯度,有效防御基于梯度的小型擾動(dòng)攻擊。這種方法面對(duì)FGSM和JSMA攻擊時(shí)具有很好的魯棒性,但不適用于C&W等較強(qiáng)攻擊方式。

        3.2.3? 生成對(duì)抗網(wǎng)絡(luò)

        生成對(duì)抗網(wǎng)絡(luò)利用生成器和判別器兩個(gè)網(wǎng)絡(luò)交替訓(xùn)練,既可以檢測(cè)對(duì)抗樣本,又可以提高模型的魯棒性。實(shí)驗(yàn)證明,該方法可以提高目標(biāo)網(wǎng)絡(luò)模型對(duì)原始圖像以及添加擾動(dòng)的圖像的識(shí)別準(zhǔn)確率。

        4? 結(jié)? 論

        機(jī)器學(xué)習(xí)的發(fā)展促進(jìn)了各個(gè)領(lǐng)域向智能化的轉(zhuǎn)變,但對(duì)抗樣本的存在對(duì)機(jī)器學(xué)習(xí)技術(shù)尤其是深度學(xué)習(xí)帶來了極大的安全挑戰(zhàn),研究對(duì)抗攻擊是為了幫助網(wǎng)絡(luò)模型更好的抵御惡意攻擊,訓(xùn)練出更加穩(wěn)健的模型。當(dāng)前對(duì)于對(duì)抗樣本的研究仍有許多問題亟待解決,進(jìn)一步研究對(duì)抗樣本,對(duì)于深度學(xué)習(xí)原理性解釋以及人工智能安全具有重大意義。

        對(duì)抗攻擊的提出源于研究深度學(xué)習(xí)在計(jì)算機(jī)視覺中的應(yīng)用,后經(jīng)過大量研究與發(fā)展,對(duì)抗攻擊的應(yīng)用已擴(kuò)展到惡意軟件檢測(cè)、語音識(shí)別和自然語言處理等領(lǐng)域。

        本文簡(jiǎn)述了對(duì)抗樣本的概念及原理,介紹了經(jīng)典的對(duì)抗攻擊方法及防御方法?,F(xiàn)有的對(duì)抗攻擊的研究從梯度攻擊發(fā)展到?jīng)Q策攻擊,所需的信息量越來越少,滿足了攻擊者很難獲取到模型具體信息的現(xiàn)實(shí)情況。盡管對(duì)抗樣本算法已取得較大進(jìn)展,但在計(jì)算成本和攻擊穩(wěn)定性方面仍有不足。未來對(duì)于攻擊性更強(qiáng)更穩(wěn)定的黑盒攻擊將是研究的重點(diǎn)。

        對(duì)抗攻擊的防御方法,理論上修改網(wǎng)絡(luò)結(jié)構(gòu)能達(dá)到更好的防御效果,然而這種方法針對(duì)性較強(qiáng)且成本較高。在實(shí)際應(yīng)用中,多使用修改數(shù)據(jù)和添加網(wǎng)絡(luò)工具的防御方法,可以應(yīng)用在不同模型中,更具有泛化性。未來可能會(huì)采取不同防御方法相結(jié)合的方式來防御對(duì)抗樣本攻擊?,F(xiàn)有的對(duì)抗攻擊防御方法多是針對(duì)特定的已知攻擊算法有效,泛化性較差。此外,對(duì)抗樣本防御方法缺乏系統(tǒng)的評(píng)估機(jī)制,很多防御方法僅通過小型數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),測(cè)試效果不夠嚴(yán)謹(jǐn)。未來這方面的研究重點(diǎn)是建立一個(gè)有效防御對(duì)抗攻擊的系統(tǒng)化防御機(jī)制。

        參考文獻(xiàn):

        [1] SZEGEDY C,ZAREMBA W,SUTSKEVER I. Intriguing properties of neural networks [J/OL].arXiv:1312.6199 [cs.CV].(2013-12-21).https://arxiv.org/abs/1312.6199.

        [2] GOODFELLOW I J,SHLENS J,SZEGEDY C. Explaining and Harnessing Adversarial Examples [J/OL].arXiv:1412.6572 [stat.ML].(2014-12-20).https://arxiv.org/abs/1412.6572v3.

        [3] KURAKIN A,GOODFELLOW I,BENGIO S. Adversarial examples in the physical world [J/OL].arXiv:1607.02533 [cs.CV].(2016-07-08).https://arxiv.org/abs/1607.02533v1.

        [4] 劉會(huì), 趙波, 郭嘉寶, 等. 針對(duì)深度學(xué)習(xí)的對(duì)抗攻擊綜述 [J].密碼學(xué)報(bào), 2021, 8(2): 202-214.

        [5] CARLINI N,WAGNER D. Towards Evaluating the Robustness of Neural Networks [J/OL].arXiv:1608.04644 [cs.CR].(2016-08-16).https://arxiv.org/abs/1608.04644.

        [6] BRENDEL W,RAUBER J,BETHGE M. Decision-Based Adversarial Attacks: Reliable Attacks Against Black-Box Machine Learning Models [J/OL].arXiv:1712.04248 [stat.ML].(2017-12-12).https://arxiv.org/abs/1712.04248.

        作者簡(jiǎn)介:劉海燕(1970—),女,漢族,北京人,教授,博士,研究方向:信息安全與對(duì)抗技術(shù);呂涵(1993—),女,漢族,江蘇連云港人,碩士研究生,研究方向:信息安全與對(duì)抗技術(shù)。

        猜你喜歡
        機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        基于詞典與機(jī)器學(xué)習(xí)的中文微博情感分析
        基于機(jī)器學(xué)習(xí)的圖像特征提取技術(shù)在圖像版權(quán)保護(hù)中的應(yīng)用
        基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測(cè)分析
        前綴字母為特征在維吾爾語文本情感分類中的研究
        基于支持向量機(jī)的金融數(shù)據(jù)分析研究
        機(jī)器學(xué)習(xí)理論在高中自主學(xué)習(xí)中的應(yīng)用
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        亚洲一区二区三区久久久| 成人一区二区免费视频| 爱我久久国产精品| 亚洲福利第一页在线观看| 日本超级老熟女影音播放| 青青草国产精品一区二区| 青青青国产精品一区二区| 久久99精品波多结衣一区| 一区二区人妻乳中文字幕| 久久精品国产精品亚洲| vr成人片在线播放网站| 国产360激情盗摄一区在线观看 | 白白色发布视频在线播放| 欧美v国产v亚洲v日韩九九| 久久久无码中文字幕久...| 亚洲另类激情专区小说婷婷久| 久久精品国产亚洲av热东京热| 一区二区三区内射美女毛片| 亚洲熟伦熟女新五十路熟妇| 国产成品精品午夜视频| 久久想要爱蜜臀av一区二区三区| 少妇性俱乐部纵欲狂欢电影| 亚洲av国产av综合av| av东京热一区二区三区| 日本二一三区免费在线 | 国产丰满老熟女重口对白| 色老汉亚洲av影院天天精品| 日韩av一区二区三区激情在线| 少妇无码av无码专区| 国产91对白在线观看| 中文字幕在线亚洲精品一区| 国产精品538一区二区在线| 国产免费破外女真实出血视频| 亚洲一区二区三区在线观看| 国偷自拍av一区二区三区| 饥渴的熟妇张开腿呻吟视频| 精品人妻少妇一区二区中文字幕 | 大ji巴好深好爽又大又粗视频| 成全视频高清免费| 日本人妻伦理片在线观看| 精品精品久久宅男的天堂|