亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合MAML和CBAM的安卓惡意應(yīng)用家族分類模型

        2023-01-29 13:24:10林佳銳黃海濱黃劍鋒
        關(guān)鍵詞:安卓注意力家族

        蘇 慶,林佳銳,黃海濱,黃劍鋒

        廣東工業(yè)大學(xué) 計(jì)算機(jī)學(xué)院,廣州510006

        大部分安卓惡意程序都可以被對(duì)應(yīng)歸類于某一安卓惡意應(yīng)用家族[1]。對(duì)安卓惡意應(yīng)用家族進(jìn)行檢測(cè),有利于針對(duì)具有相似特征的安卓惡意應(yīng)用制定針對(duì)性強(qiáng)、適應(yīng)性廣的防御策略。一般而言,新興安卓惡意應(yīng)用家族具有樣本數(shù)量小、繁殖速度快的特點(diǎn)。探究一種能快速適應(yīng)新興小樣本惡意家族識(shí)別任務(wù)的方法,對(duì)遏制新興安卓惡意應(yīng)用的快速傳播,具有重要的研究意義。

        機(jī)器學(xué)習(xí)方法常用于安卓惡意應(yīng)用家族分類研究。有研究者以較大樣本量的安卓惡意應(yīng)用家族作為實(shí)驗(yàn)對(duì)象,提出了MalDAE[2]、Revealdroid[3]和AndMFC[4]等基于機(jī)器學(xué)習(xí)算法的模型,取得了不錯(cuò)的效果。但新興惡意家族的樣本數(shù)量往往較小,基于機(jī)器學(xué)習(xí)的模型很難對(duì)其特征進(jìn)行有效提取。深度學(xué)習(xí)可以更好地挖掘小樣本惡意家族內(nèi)惡意應(yīng)用特征之間的關(guān)聯(lián),可提高模型對(duì)小樣本惡意家族的識(shí)別率。有研究者提出,將遷移學(xué)習(xí)思想與卷積神經(jīng)網(wǎng)絡(luò)融合,用于解決小樣本惡意家族訓(xùn)練過程中容易過擬合的問題[5]。楊昭[6]和Chen等[7]通過采用生成式對(duì)抗網(wǎng)絡(luò)來生成對(duì)抗樣本訓(xùn)練神經(jīng)網(wǎng)絡(luò),從而提高小樣本惡意家族識(shí)別率。張伯安[8]采用深度殘差神經(jīng)網(wǎng)絡(luò)進(jìn)行多分類訓(xùn)練,實(shí)驗(yàn)表明相比于現(xiàn)有深度卷積神經(jīng)網(wǎng)絡(luò)模型[9],其對(duì)小樣本惡意家族的識(shí)別率更高。

        基于深度學(xué)習(xí)的方法,在面對(duì)新惡意家族識(shí)別任務(wù)時(shí),需要重新執(zhí)行一遍完整的訓(xùn)練過程,導(dǎo)致耗時(shí)長(zhǎng),不利于快速完成檢測(cè)。而元學(xué)習(xí)[10](meta learning)則是一種能在小樣本應(yīng)用場(chǎng)景中,快速適應(yīng)新任務(wù)的方法。因此,有研究者將匹配網(wǎng)絡(luò)[11](matching networks)、原型網(wǎng)絡(luò)[12](prototypical networks)等元學(xué)習(xí)模型引入安卓惡意應(yīng)用檢測(cè)領(lǐng)域,驗(yàn)證了元學(xué)習(xí)模型對(duì)新的惡意家族分類任務(wù)具有較好的適應(yīng)性[13]。

        針對(duì)新興小樣本安卓惡意應(yīng)用家族進(jìn)行及時(shí)檢測(cè)的應(yīng)用場(chǎng)景,本文提出一種安卓惡意應(yīng)用家族分類模型MAML-CAS(MAML CNN-Attention-SVM)。首先對(duì)安卓惡意應(yīng)用樣本的DEX文件進(jìn)行可視化,生成灰度圖,接著將元學(xué)習(xí)方法MAML與能自動(dòng)挖掘灰度圖特征內(nèi)在關(guān)聯(lián)、對(duì)特征進(jìn)行降維的卷積神經(jīng)網(wǎng)絡(luò)(CNN)相結(jié)合,使模型面對(duì)新的小樣本安卓惡意應(yīng)用家族分類任務(wù)時(shí),只需要經(jīng)過幾步迭代就能適應(yīng);引入混合域注意力機(jī)制模塊(attention block),增加CNN訓(xùn)練過程中對(duì)重要特征的關(guān)注。最后使用對(duì)小樣本數(shù)據(jù)具有較強(qiáng)泛化能力的支持向量機(jī)(SVM)作為分類器,提高了模型泛化性能。

        1 安卓惡意家族分類模型MAML-CAS

        1.1 MAML-CAS模型

        本MAML-CAS模型是在CNN的基礎(chǔ)上,引入元學(xué)習(xí)方法MAML,提高模型對(duì)新任務(wù)的適應(yīng)能力;并引入通道域和空間域注意力組成的混合域注意力機(jī)制模塊,提取全局和局部的核心特征,進(jìn)行特征細(xì)化;使用SVM作為最終分類器,進(jìn)一步提高模型對(duì)小樣本分類任務(wù)的性能。

        MAML-CAS模型架構(gòu)如圖1所示,主要分為兩大模塊:(1)數(shù)據(jù)處理模塊。(2)融合MAML和注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)模塊(convolutional neural network module based on MAML and attention mechanism,CMA)。其中CMA內(nèi)又包含了融合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)和自適應(yīng)的元學(xué)習(xí)方法MAML。

        圖1 MAML-CAS架構(gòu)圖Fig.1 Architecture of MAML-CAS

        數(shù)據(jù)處理模塊是從經(jīng)過標(biāo)注的惡意APK樣本庫中提取出DEX文件,進(jìn)而可視化為灰度圖集,并將其劃分為訓(xùn)練集Htrain和測(cè)試集Htest,再?gòu)倪@兩個(gè)集合中抽取出訓(xùn)練任務(wù)集Ttrain和測(cè)試任務(wù)集Ttest。

        融合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)則是在卷積神經(jīng)網(wǎng)絡(luò)的每個(gè)卷積層和池化層之間嵌入混合域注意力模塊。該模塊將經(jīng)過卷積層處理后的特征圖作為輸入,從通道和空間兩個(gè)維度對(duì)特征圖的重要紋理特征進(jìn)行增強(qiáng),并保持輸入、輸出數(shù)據(jù)維度相同;然后將增強(qiáng)的特征圖輸入池化層,保留有效特征并降低維度,從而提高模型檢測(cè)效率和精度。

        自適應(yīng)的元學(xué)習(xí)方法MAML則改變傳統(tǒng)深度學(xué)習(xí)訓(xùn)練方法,通過設(shè)計(jì)兩個(gè)相同的融合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò),稱為元學(xué)習(xí)器和基學(xué)習(xí)器,分別用于元訓(xùn)練階段和元測(cè)試階段,使模型面對(duì)新的小樣本惡意家族分類任務(wù)時(shí),只需幾步迭代即以適應(yīng),無需重新執(zhí)行一遍訓(xùn)練過程,大大提高了新興惡意家族分類效率。

        1.2 數(shù)據(jù)處理模塊

        常用的靜態(tài)安卓惡意APK特征提取方法,經(jīng)常使用反編譯手段獲取程序API等特征,提取過程較為復(fù)雜、且易受代碼混淆等對(duì)抗技術(shù)干擾;而動(dòng)態(tài)特征提取方法則通常耗費(fèi)資源較大,容易降低模型檢測(cè)效率。

        為避免上述問題,本文將安卓惡意APK中的DEX文件進(jìn)行可視化,生成灰度圖,以此提升特征提取效率。相比于傳統(tǒng)的特征提取方法,可視化過程僅需要經(jīng)過文件解壓和讀取字節(jié)碼兩個(gè)步驟,簡(jiǎn)化了特征提取過程,提高了模型整體檢測(cè)效率,并可在一定程度上應(yīng)對(duì)安卓惡意APK混淆、加殼等對(duì)抗手段,使提取到的特征更具有魯棒性。

        DEX(Dalvik executable)文件結(jié)構(gòu)(包括header、string_ids和data等多個(gè)部分)與字節(jié)碼圖像存在對(duì)應(yīng)關(guān)系,主要分為三個(gè)部分:(1)DEX文件頭部分包括文件大小、簽名和數(shù)據(jù)在文件中的偏移量;(2)索引結(jié)構(gòu)區(qū)包含文件標(biāo)識(shí)符,如字符串、類型和方法等;(3)數(shù)據(jù)存儲(chǔ)區(qū)則存儲(chǔ)了定義程序行為的執(zhí)行代碼。以上各部分分別對(duì)應(yīng)于可視化后的灰度圖的不同紋理,可區(qū)分地反映了安卓惡意APK的特征。圖2(b)給出了一個(gè)灰度圖示例。

        1.2.1 灰度圖化

        安卓APK中的DEX文件封裝了可被Dalvik虛擬機(jī)執(zhí)行的所有字節(jié)碼,保存了整個(gè)文件的運(yùn)行邏輯和變量空間,是整個(gè)程序的核心。因此,本文通過對(duì)安卓惡意APK中的DEX文件進(jìn)行可視化操作,使得惡意APK生成對(duì)應(yīng)灰度圖,可以提取到必要的關(guān)鍵特征。安卓惡意APK可視化過程如圖2所示。

        如圖2(a)所示,首先通過對(duì)安卓惡意APK進(jìn)行解壓得到DEX文件,接著讀取文件中的字節(jié)碼,一個(gè)字節(jié)碼取值范圍為0x00~0xFF,即有256種取值,最后對(duì)應(yīng)生成256階灰度圖,灰度圖尺寸設(shè)置為256×256,不足的部分補(bǔ)0,多余的部分則舍棄。將所有惡意樣本可視化后,得到灰度圖集H,再將H劃分為訓(xùn)練集Htrain和測(cè)試集Htest,分別用于元訓(xùn)練和元測(cè)試階段。

        圖2(b)中首先展示的是安卓惡意應(yīng)用家族Jifake和Boogr可視化后的灰度圖,由于同一惡意家族內(nèi)的惡意程序往往會(huì)在很大程度上共用祖先的核心代碼,因此家族內(nèi)的惡意APK生成的灰度圖圖像紋理會(huì)表現(xiàn)出一定的相似性,而圖像紋理是圖像特征的關(guān)鍵組成部分,是實(shí)現(xiàn)惡意軟件分類的關(guān)鍵。不同家族之間的灰度圖具有各自的視覺特征,這對(duì)于惡意家族識(shí)別具有重要意義。

        圖2 安卓惡意APK可視化Fig.2 Visualization of Android malicious APK

        1.2.2 構(gòu)建任務(wù)集合

        任務(wù)是元學(xué)習(xí)的基本處理單位。每個(gè)任務(wù)由兩部分組成:支持集(support set)和查詢集(query set)。

        支持集用于訓(xùn)練基學(xué)習(xí)器,使其適應(yīng)當(dāng)前惡意家族分類任務(wù)。由N-wayK-shot設(shè)置,包含N個(gè)類,每個(gè)類K個(gè)樣本。

        查詢集則通過訓(xùn)練好的基學(xué)習(xí)器,計(jì)算出其損失值,決定了梯度下降的方向。包含與支持集同樣的N個(gè)類,每個(gè)類Q個(gè)樣本。

        任務(wù)集合由隨機(jī)抽取的多個(gè)任務(wù)組成,以元訓(xùn)練階段任務(wù)集合構(gòu)建為例,過程如圖3所示。

        圖3 任務(wù)集合構(gòu)建Fig.3 Construction of task set

        進(jìn)入元訓(xùn)練階段時(shí),先從訓(xùn)練集Htrain中隨機(jī)抽取N個(gè)惡意家族,再?gòu)拿總€(gè)家族中抽取Q+K個(gè)樣本,組成一個(gè)任務(wù)Ti。重復(fù)上述隨機(jī)抽取過程M次,構(gòu)建任務(wù)集Ttrain:

        用于元測(cè)試階段的任務(wù)集Ttest其構(gòu)建方式與上述過程相同。

        1.3 融合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)

        本文提出一種融合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò),其具有兩個(gè)優(yōu)勢(shì):(1)能自動(dòng)挖掘紋理特征,且特征降維后仍可較好地保留有效信息;(2)可以從通道和空間兩個(gè)維度,更準(zhǔn)確提取如特征圖的紋理關(guān)聯(lián)等關(guān)鍵的深層特征。此外,混合注意力機(jī)制在提升神經(jīng)網(wǎng)絡(luò)分類效果的過程中,增加的參數(shù)量和計(jì)算量較少,與本文設(shè)計(jì)的淺層網(wǎng)絡(luò)結(jié)合,保證了模型的分類效率。

        1.3.1 特征提取與降維

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種具有深度監(jiān)督學(xué)習(xí)的多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[14],同時(shí)擁有自動(dòng)挖掘特征內(nèi)在關(guān)聯(lián)、對(duì)特征進(jìn)行降維等優(yōu)點(diǎn)。因此本文模型利用CNN對(duì)安卓惡意APK生成的灰度圖進(jìn)行紋理特征挖掘,得到特征圖后,再對(duì)其進(jìn)行特征降維,以提高模型對(duì)惡意家族分類的準(zhǔn)確率和檢測(cè)速度。將混合域注意力機(jī)制和CNN融合后,所得網(wǎng)絡(luò)主體結(jié)構(gòu)如圖4所示。

        圖4 網(wǎng)絡(luò)主體結(jié)構(gòu)Fig.4 Structure of main network

        本文設(shè)計(jì)的融合混合域注意力機(jī)制網(wǎng)絡(luò)模型由輸入層、4組嵌入混合域注意力機(jī)制模塊的卷積池化層、激活層、全連接層以及輸出層構(gòu)成。數(shù)據(jù)處理過程以及反向傳播過程如下:

        首先利用通道數(shù)為56,卷積核大小為4×4的卷積層對(duì)輸入的灰度圖x進(jìn)行提取和局部感知,利用卷積運(yùn)算增強(qiáng)灰度圖紋理原始特征。卷積公式如式(3)所示:

        然后將56個(gè)通道生成的特征圖輸入混合域注意力模塊(mixed attention block),從通道和空間兩個(gè)維度提取特征圖中深層次的紋理特征關(guān)系,兩者結(jié)合進(jìn)一步增強(qiáng)特征表示,使安卓家族分類模型關(guān)注于特征圖中重要的區(qū)域,做出更準(zhǔn)確的判斷。最后把卷積結(jié)果進(jìn)行平均池化,減少數(shù)據(jù)處理量的同時(shí)保留有用的信息,提高模型運(yùn)行效率。池化過程計(jì)算如式(4)所示:

        經(jīng)過上述4次卷積、注意力機(jī)制特征增強(qiáng)和池化等過程后,再將得到的特征向量輸入全連接層,以進(jìn)一步提取特征,降低維度。

        最后根據(jù)全連接層輸出進(jìn)行惡意家族分類,并進(jìn)行損失計(jì)算,用于反向傳播更新模型參數(shù)。

        1.3.2 基于混合域注意力機(jī)制的特征增強(qiáng)

        注意力機(jī)制可以令使得神經(jīng)網(wǎng)絡(luò)具備專注于輸入特征的某些局部重要信息的能力[15]。由于單一注意力機(jī)制對(duì)于關(guān)鍵特征的提取效果提升有限[16],因此,本文在CNN網(wǎng)絡(luò)結(jié)構(gòu)中引入混合域注意力機(jī)制模塊CBAM,以提升安卓惡意應(yīng)用家族關(guān)鍵特征的提取效果。

        混合域注意力模塊是按通道域注意力機(jī)制、空間域注意力機(jī)制的順序構(gòu)成的組合,如圖5所示。通過通道域注意力機(jī)制獲取每個(gè)通道特征圖的重要程度,使惡意家族分類模型更加關(guān)注權(quán)重高的通道,并抑制權(quán)重低的通道,提高了惡意家族分類模型對(duì)全局紋理特征的提取能力。而空間域注意力機(jī)制則用于獲取特征圖中不同區(qū)域的重要程度,來增強(qiáng)模型對(duì)局部紋理特征的提取能力。

        圖5 混合域注意力模塊Fig.5 Mixed attention module

        首先,卷積后得到的通道數(shù)為C、高度為H、寬度為W的C×H×W三維特征圖F進(jìn)入到通道域注意力機(jī)制模塊,分別在全局平均池化和最大池化層中,從兩個(gè)不同的維度提取F的特征信息,得到兩個(gè)C×1×1的特征信息。接著特征信息輸入到多層感知機(jī)(MLP)中,利用MLP容易對(duì)特征向量進(jìn)行權(quán)重賦值、且保持輸出與輸入數(shù)據(jù)維度相同特點(diǎn),對(duì)特征圖每個(gè)通道進(jìn)行權(quán)重賦值,獲得兩個(gè)C×1×1的特征圖,將這兩個(gè)特征圖進(jìn)行加法操作后,再使用Sigmoid激活函數(shù),獲得權(quán)重向量Mc,即三維特征圖F( )C×H×W中每個(gè)通道的重要程度。計(jì)算公式如式(5)所示:

        其中,σ代表Sigmoid激活函數(shù),W表示MLP參數(shù)。最后將Mc與F進(jìn)行乘法操作后得到特征圖Fc,緊接著將Fc輸入空間域注意力機(jī)制模塊,F(xiàn)c分別經(jīng)過最大池化和平均池化后,得到兩個(gè)1×H×W的特征信息,將其拼接在一起后利用CNN卷積層能自動(dòng)挖掘特征圖關(guān)鍵特征空間分布的特點(diǎn),增加特征圖上關(guān)鍵特征關(guān)注度。最后通過Sigmoid激活函數(shù)得到相應(yīng)權(quán)重Ms,即三維特征圖Fc( )C×H×W中的每個(gè)通道特征關(guān)注度的空間分布。計(jì)算公式如式(6)所示:

        將Ms與Fc進(jìn)行乘法操作最終得到特征增強(qiáng)的特征圖Fcs。

        1.4 自適應(yīng)的元學(xué)習(xí)方法MAML

        元學(xué)習(xí)通過從許多不同小樣本任務(wù)的學(xué)習(xí)中獲取經(jīng)驗(yàn),使模型可以在多個(gè)小樣本任務(wù)之間泛化,則面對(duì)新的任務(wù)時(shí)能快速迭代。針對(duì)新興安卓惡意應(yīng)用家族的快速檢測(cè)需求,本文引入元學(xué)習(xí)方法MAML[17],將其與具有自動(dòng)特征挖掘、特征增強(qiáng)特點(diǎn)的融合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,使得模型能根據(jù)不同的惡意家族分類任務(wù),進(jìn)行快速迭代,達(dá)到及時(shí)、有效檢測(cè)新興安卓惡意應(yīng)用家族的要求。惡意家族分類模型學(xué)習(xí)的過程可分為元訓(xùn)練和元測(cè)試兩個(gè)階段:

        元訓(xùn)練階段:利用基學(xué)習(xí)器完成特定惡意家族分類任務(wù)的屬性學(xué)習(xí),元學(xué)習(xí)器則學(xué)習(xí)不同任務(wù)的共性,最終使得模型得到一個(gè)具有強(qiáng)泛化性的初始參數(shù)。

        元測(cè)試階段:通過隨機(jī)抽取不同的任務(wù),對(duì)模型進(jìn)行適應(yīng)測(cè)試。

        1.4.1 元訓(xùn)練階段

        在元訓(xùn)練階段會(huì)執(zhí)行多輪迭代訓(xùn)練,每輪迭代都會(huì)從訓(xùn)練集Htrain中抽取一個(gè)任務(wù)集Ttrain。元訓(xùn)練階段一次迭代過程如圖6所示。具體而言,會(huì)將元訓(xùn)練階段分為基學(xué)習(xí)器訓(xùn)練過程和元學(xué)習(xí)器訓(xùn)練過程:

        圖6 元訓(xùn)練階段的一次迭代過程Fig.6 Iterative process in meta training stage

        (1)基學(xué)習(xí)器訓(xùn)練過程

        在本過程中,遍歷Ttrain中每個(gè)任務(wù),分別利用任務(wù)中的支持集和查詢集進(jìn)行參數(shù)更新和損失計(jì)算,從而使基學(xué)習(xí)器可學(xué)習(xí)到不同惡意家族之間的特征。

        在已初始化基學(xué)習(xí)器參數(shù)θ的條件下,遍歷Ttrain下每個(gè)任務(wù)Ti( )1≤i≤M,接著計(jì)算當(dāng)前任務(wù)Ti支持集的損失梯度,記為

        Support關(guān)于θ的損失值,?θ表示求關(guān)于θ的梯度。接著利用對(duì)θ進(jìn)行梯度更新,記使用Ti更新后,對(duì)應(yīng)基學(xué)習(xí)器參數(shù)為θi:

        其中,α為基學(xué)習(xí)器學(xué)習(xí)率。在計(jì)算出θi后,利用Ti查詢集計(jì)算關(guān)于θi的損失,最后將Ttrain中所有任務(wù)的損失之和傳到元學(xué)習(xí)器中。

        (2)元學(xué)習(xí)器訓(xùn)練過程

        在本過程中,利用上一基學(xué)習(xí)器訓(xùn)練過程中Ttrain查詢集的損失之和來更新參數(shù),達(dá)到學(xué)習(xí)任務(wù)中各個(gè)惡意家族共性的目的。

        1.4.2 元測(cè)試階段

        元測(cè)試階段遍歷Ttest中每個(gè)任務(wù)Ti( )1≤i≤M,使用Ti支持集中的惡意家族樣本對(duì)基學(xué)習(xí)器進(jìn)行訓(xùn)練,使得模型適應(yīng)當(dāng)前的惡意家族分類任務(wù),再對(duì)Ti查詢集進(jìn)行分類。元測(cè)試階段執(zhí)行過程如圖7所示。

        圖7 元測(cè)試階段執(zhí)行過程Fig.7 Workflow of meta test stage

        (1)中式(7)和(8)對(duì)基學(xué)習(xí)器參數(shù)θ進(jìn)行幾步迭代更新,得到θi,使得基學(xué)習(xí)器適應(yīng)當(dāng)前惡意家族分類任務(wù)Ti。

        然后將基學(xué)習(xí)器最后一步迭代訓(xùn)練生成的低維特征向量XS輸入到分類器SVM中進(jìn)行訓(xùn)練,以求得最優(yōu)超平面,進(jìn)而提高模型的泛化能力。一般計(jì)算公式如式(12)所示:

        其中,w為分類超平面的系數(shù)向量,γi為松弛因子,C為懲罰參數(shù)。

        2 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

        在本文模型MAML-CAS的構(gòu)建過程中,首先建立一個(gè)基于MAML的CNN基礎(chǔ)模型MAML-CNN,然后在MAML-CNN中融入混合域注意力機(jī)制,最后引入SVM作為分類器。根據(jù)本模型特點(diǎn),實(shí)驗(yàn)方案設(shè)計(jì)如下:

        首先,將MAML-CNN與混合域注意力機(jī)制融合,再將MAML-CNN分別與其他三種注意力機(jī)制,即通道域注意力機(jī)制、空間域注意力機(jī)制、按空間域和通道域注意力機(jī)制順序組成的混合域注意力機(jī)制(空間域、通道域),結(jié)合得到的模型進(jìn)行對(duì)比,驗(yàn)證混合域注意力機(jī)制的有效性。

        然后將MAML-CNN分類層分別替換為SVM和其他5種機(jī)器學(xué)習(xí)算法(CATBOOST、GBDT、KNN、RANDFOREST、DECISIONTREE),共構(gòu)成6種CNN+機(jī)器學(xué)習(xí)算法混合模型,繼而對(duì)比融合了混合域注意力機(jī)制的6種混合模型,驗(yàn)證了SVM作為分類器的有效性。

        接著,為驗(yàn)證將MAML引入惡意家族分類領(lǐng)域的應(yīng)用效果,將MAML-CAS與常見的4種元學(xué)習(xí)模型(Relation Networks[18]、Meta-learn LSTM[19]、Matching Networks[11]、Prototypical Networks[12])進(jìn)行對(duì)比。

        繼而將MAML-CAS與常見元學(xué)習(xí)模型、其他混合模型和傳統(tǒng)深度學(xué)習(xí)模型在訓(xùn)練和檢測(cè)耗時(shí)方面進(jìn)行比較和討論,驗(yàn)證本文模型在快速檢測(cè)新興惡意家族方面具有優(yōu)勢(shì)。

        最后,為驗(yàn)證訓(xùn)練集和測(cè)試比例設(shè)置對(duì)惡意家族分類準(zhǔn)確率的影響,采用多個(gè)不同比例的惡意家族分別作為訓(xùn)練集和測(cè)試集,進(jìn)行比較實(shí)驗(yàn),以證明MAML-CAS的穩(wěn)定性。

        2.1 數(shù)據(jù)集和評(píng)估指標(biāo)

        實(shí)驗(yàn)所采集的安卓惡意APK樣本來源于加拿大網(wǎng)絡(luò)安全研究所(https://www.unb.ca/cic/datasets/invesandmal2019.html)和Drebin數(shù)據(jù)集(https://www.sec.cs.tu-bs.de/~danarp/drebin/download.html)共計(jì)5 986個(gè)。將所有安卓惡意APK上傳至VirusTotal網(wǎng)站(https://www.virustotal.com/gui/home/upload)進(jìn)行家族標(biāo)注并保存其惡意家族標(biāo)簽,最后保留78個(gè)安卓惡意應(yīng)用家族,每個(gè)惡意家族保留15個(gè)樣本,共1 170個(gè)。在本文實(shí)驗(yàn)中,惡意家族按8∶2的比例劃分訓(xùn)練集和測(cè)試集。

        本文使用準(zhǔn)確率(Accuracy),精準(zhǔn)率(Precision),召回率(Recall)和F1值作為實(shí)驗(yàn)結(jié)果判定指標(biāo)。

        2.2 注意力機(jī)制分析

        為驗(yàn)證混合域注意力機(jī)制應(yīng)用在惡意家族分類模型的有效性,本次實(shí)驗(yàn)將另外三種注意力機(jī)制分別與MAML-CNN融合作為對(duì)照組。實(shí)驗(yàn)結(jié)果如圖8和圖9所示,注意力機(jī)制模塊提升了MAML-CNN的分類效果,在準(zhǔn)確率、精確率、召回率和F1指標(biāo)上均表現(xiàn)得更好。且不同的注意力機(jī)制以及注意力機(jī)制的組合方式對(duì)模型具有一定的影響,其中單一的注意力機(jī)制忽略了某些關(guān)鍵特征,將通道域和空間域結(jié)合能夠獲取更多有效的特征表達(dá),使模型對(duì)安卓惡意應(yīng)用家族具有更好的識(shí)別率。

        圖8 5-way 1-shot實(shí)驗(yàn)結(jié)果Fig.8 Result of 5-way 1-shot

        圖9 5-way 5-shot實(shí)驗(yàn)結(jié)果Fig.9 Result of 5-way 5-shot

        各模塊組成的模型準(zhǔn)確率和參數(shù)量如表1所示。可知向MAML-CNN添加注意力機(jī)制后,新增的參數(shù)量較少,也有助于有效提升了模型準(zhǔn)確率。

        表1 模型準(zhǔn)確率和參數(shù)量Table 1 Accuracy and parameters of model

        2.3 分類器有效性驗(yàn)證實(shí)驗(yàn)

        為解決采用softmax作為卷積神經(jīng)網(wǎng)絡(luò)分類器,容易導(dǎo)致惡意家族分類模型泛化能力不足的問題,在保持網(wǎng)絡(luò)結(jié)構(gòu)相同的前提下,本文將混合域注意力機(jī)制與MAML-CNN相融合,并把MAML-CNN中的softmax分類器,替換為SVM和其他5種常見的機(jī)器學(xué)習(xí)模型(CATBOOST、GBDT、KNN、RANDFOREST、DECISIONTREE),構(gòu)成新的混合模型。為方便表示,使用CATBOOST作為分類器時(shí),模型命名為MAML-CAC,其他模型以此類推。在5-way 1-shot和5-way 5-shot條件下,實(shí)驗(yàn)結(jié)果如表2和表3所示。

        表2 5-way 1-shot實(shí)驗(yàn)結(jié)果Table 2 Result of 5-way 1-shot 單位:%

        表3 5-way 5-shot實(shí)驗(yàn)結(jié)果Table 3 Result of 5-way 5-shot 單位:%

        由表2和表3可知,并非所有機(jī)器學(xué)習(xí)算法作為CNN的分類器時(shí),都能提升分類準(zhǔn)確率。而SVM由于其間隔最大化的學(xué)習(xí)策略,使得它能較好地適應(yīng)小樣本任務(wù)。本文提出的MAML-CAS模型分類效果優(yōu)于其他混合模型,且在1-shot和5-shot的條件下,相比于融合了混合域注意機(jī)制的MAML-CNN模型,在準(zhǔn)確率上分別提升了1.32個(gè)百分點(diǎn)和2.57個(gè)百分點(diǎn)。

        2.4 MAML-CAS與其他元學(xué)習(xí)模型對(duì)比實(shí)驗(yàn)

        為了驗(yàn)證本文引入的元學(xué)習(xí)方法MAML的有效性,將MAML-CAS與其他4個(gè)典型的元學(xué)習(xí)模型Relation Networks[18]、Meta-learn LSTM[19]、Matching Networks[11]、Prototypical Networks[12]對(duì)比。實(shí)驗(yàn)結(jié)果如圖10和圖11所示。

        由圖10和圖11可知,MAML-CAS與其他4種常見元學(xué)習(xí)模型相比,在準(zhǔn)確率、精確率、召回率以及F1這4項(xiàng)指標(biāo)上最優(yōu),驗(yàn)證了元學(xué)習(xí)方法MAML在安卓惡意家族分類領(lǐng)域的適用性。

        圖11 5-way 5-shot實(shí)驗(yàn)結(jié)果Fig.11 Result of 5-way 5-shot

        2.5 各種模型訓(xùn)練和檢測(cè)耗時(shí)對(duì)比

        在本次實(shí)驗(yàn)中,將4種基于傳統(tǒng)深度學(xué)習(xí)的安卓惡圖10 5-way 1-shot實(shí)驗(yàn)結(jié)果

        Fig.10 Result of 5-way 1-shot意應(yīng)用家族分類模型(ResNet18[8]、CNN[14]、Deep-Net[20]、DAE-CNN[21]),與2.3和2.4節(jié)中出現(xiàn)的基于元學(xué)習(xí)方法的分類模型,在訓(xùn)練和測(cè)試耗時(shí)兩方面進(jìn)行對(duì)比。其中,由于DECISIONTREE模型和RANDOMFOREST模型復(fù)雜度較低,所以其混合模型訓(xùn)練和檢測(cè)耗時(shí)比較小,但在2.3節(jié)實(shí)驗(yàn)中分類準(zhǔn)確性較差,因此在本實(shí)驗(yàn)中不列入比較范圍。實(shí)驗(yàn)選用1 600個(gè)任務(wù),在5-way 5-shot條件下進(jìn)行訓(xùn)練和檢測(cè)耗時(shí)測(cè)試,對(duì)結(jié)果取平均值,實(shí)驗(yàn)結(jié)果如表4所示。

        表4 各模型訓(xùn)練和檢測(cè)耗時(shí)Table 4 Training and detection time of each model單位:s

        從表4可以看出,在訓(xùn)練耗時(shí)方面,基于元學(xué)習(xí)方法的分類模型遠(yuǎn)低于傳統(tǒng)深度學(xué)習(xí)模型。因?yàn)榛谠獙W(xué)習(xí)方法的模型在面對(duì)新的安卓惡意應(yīng)用家族分類任務(wù)時(shí),只需要經(jīng)過幾步迭代就可以適應(yīng),而傳統(tǒng)深度學(xué)習(xí)模型則需要重新執(zhí)行一遍完整的訓(xùn)練過程,導(dǎo)致耗時(shí)較長(zhǎng)。

        在基于元學(xué)習(xí)方法的模型中,MAML-CAS比其他混合模型和元學(xué)習(xí)模型的訓(xùn)練時(shí)間少,經(jīng)分析,原因如下:一方面,在本文設(shè)計(jì)的淺層CNN在有效提取灰度圖特征的同時(shí),也降低了特征的維度,使得SVM能利用低維特征進(jìn)行快速分類,而CATBOOST等分類器優(yōu)化步驟多,難以并行訓(xùn)練數(shù)據(jù)等原因?qū)е掠?xùn)練耗時(shí)較長(zhǎng);另一方面,MAML僅通過改變CNN參數(shù)更新方式,就能使CNN適應(yīng)新任務(wù),相比其他元學(xué)習(xí)模型,在復(fù)雜度更低,訓(xùn)練耗時(shí)更少。

        在檢測(cè)耗時(shí)方面,基于元學(xué)習(xí)方法的模型整體表現(xiàn)比傳統(tǒng)深度學(xué)習(xí)模型更好,并且本文模型耗時(shí)相對(duì)較少。

        2.6 模型穩(wěn)定性實(shí)驗(yàn)

        在本次實(shí)驗(yàn)中將78個(gè)惡意家族按照多個(gè)不同比例劃分實(shí)驗(yàn)集和測(cè)試集。實(shí)驗(yàn)結(jié)果如圖12所示。

        圖12 多比例下分類結(jié)果Fig.12 Result of multiple proportion

        由上述實(shí)驗(yàn)結(jié)果可以發(fā)現(xiàn),在1-shot和5-shot的實(shí)驗(yàn)條件下,隨著訓(xùn)練集占比的增加,惡意家族分類準(zhǔn)確率有小幅提升,最高提升分別為3.02個(gè)百分點(diǎn)和2.74個(gè)百分點(diǎn)。從整體實(shí)驗(yàn)來說,多個(gè)比例下的分類準(zhǔn)確率相差較小,說明了參與訓(xùn)練的惡意家族數(shù)量對(duì)模型的性能影響較小,既證明了MAML-CAS具有較好的穩(wěn)定性,也說明該模型適用于小樣本的新興安卓惡意應(yīng)用家族檢測(cè)場(chǎng)景。

        3 結(jié)束語

        本文提出了一種基于MAML的安卓惡意應(yīng)用家族分類模型MAML-CAS,通過將安卓惡意應(yīng)用的DEX文件進(jìn)行可視化,提升特征提取效率,同時(shí)將元學(xué)習(xí)方法MAML與CNN融合,使得模型面對(duì)新的小樣本安卓惡意應(yīng)用家族識(shí)別任務(wù)時(shí)能快速迭代。提出將混合域注意力機(jī)制與CNN結(jié)合,以此增強(qiáng)特征表達(dá),最后由對(duì)小樣本具有強(qiáng)泛化性的SVM進(jìn)行分類,有效提高模型整體對(duì)小樣本惡意家族的識(shí)別率。最終實(shí)驗(yàn)結(jié)果表明,該模型能很好滿足對(duì)新興安卓惡意家族的快速檢測(cè)需求。

        鑒于元學(xué)習(xí)方法對(duì)于解決新興安卓惡意應(yīng)用家族檢測(cè)問題具有良好的發(fā)展前景,因此在下一步工作將著重研究?jī)?yōu)化元學(xué)習(xí)方法,減少元學(xué)習(xí)過程中需要調(diào)整的參數(shù)量,使元學(xué)習(xí)方法能更好地適應(yīng)惡意家族分類。

        猜你喜歡
        安卓注意力家族
        讓注意力“飛”回來
        HK家族崛起
        文物表情包
        《小偷家族》
        電影(2019年3期)2019-04-04 11:57:18
        皿字家族
        家族中的十大至尊寶
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        一種基于安卓系統(tǒng)的手機(jī)側(cè)抓包分析方法
        A Beautiful Way Of Looking At Things
        安卓L未至安卓M來了!安卓首泄漏M系統(tǒng)
        中文字幕国产亚洲一区| 久久人与动人物a级毛片| 国产又色又爽无遮挡免费动态图| 日韩亚洲国产av自拍| 国产一区二三区中文字幕| 亚洲1区第2区第3区在线播放| 日韩av一区二区三区激情在线 | 一本大道av伊人久久综合| 无套内射无矿码免费看黄| 国产极品美女高潮抽搐免费网站| 亚洲一区二区三区av色婷婷| 青青草亚洲视频社区在线播放观看 | 成人网站在线进入爽爽爽| 国产极品美女高潮抽搐免费网站| 亚洲 暴爽 AV人人爽日日碰| 水蜜桃在线观看一区二区国产 | 日韩欧美中文字幕不卡| 日本一区二区三深夜不卡| 国产精品一区二区av麻豆日韩| 国产成人亚洲精品| 亚洲国产麻豆综合一区| 午夜婷婷国产麻豆精品| 尹人香蕉久久99天天拍| 狠狠色噜噜狠狠狠狠色综合久| 一区五码在线| av免费在线播放观看| 无码av不卡一区二区三区| 少妇激情av一区二区| 日本韩国黄色三级三级| 精品人妻一区二区三区在线观看 | 亚洲人午夜射精精品日韩| 国产WW久久久久久久久久| 国产午夜精品综合久久久| 国产精品天干天干| 日韩成人无码一区二区三区| 国产一区二区三区最新视频| 麻神在线观看免费观看| 少妇久久久久久被弄到高潮 | 熟女人妻中文字幕一区| 亚洲综合精品亚洲国产成人| 国产xxxx99真实实拍|