亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CBA 算法的惡意URL 檢測*

        2023-11-12 15:16:50盛蒙蒙史建暉沈立峰
        關(guān)鍵詞:機制特征文本

        盛蒙蒙 史建暉 沈立峰

        1.浙江警察學(xué)院;2.浙江省杭州市公安局拱墅區(qū)分局

        隨著網(wǎng)絡(luò)應(yīng)用的普及,惡意URL 攻擊給人們的個人隱私和財產(chǎn)安全構(gòu)成了嚴(yán)重威脅。為有效檢測惡意URL,本文構(gòu)建了基于機器學(xué)習(xí)方法的CBA 模型。該模型以Bi-LSTM 模型為基礎(chǔ),結(jié)合卷積神經(jīng)網(wǎng)絡(luò),在有效提取數(shù)據(jù)局部特征的同時解決輸入文本長度不均衡的問題。通過引入注意力機制,按不同權(quán)重對數(shù)據(jù)特征進行重新排序,提高了模型的識別準(zhǔn)確率。實驗數(shù)據(jù)表明,CBA 模型在惡意URL 檢測任務(wù)中相比其他模型表現(xiàn)出更優(yōu)異的性能。

        互聯(lián)網(wǎng)的迅猛發(fā)展為社會帶來了巨大的便利,但同時也給攻擊者提供了高效的作案平臺。其中,惡意URL(惡意統(tǒng)一資源定位符)作為一種隱蔽、具有欺騙性的網(wǎng)絡(luò)威脅,正逐漸成為網(wǎng)絡(luò)安全領(lǐng)域的突出問題。不法分子通過釣魚網(wǎng)站、垃圾郵件鏈接、社交媒體消息等方式引誘用戶點擊或訪問惡意URL,從而在用戶不知道的情況下對其進行分發(fā)惡意軟件、竊取個人信息、實施網(wǎng)絡(luò)詐騙等惡意活動[1],從而造成數(shù)據(jù)泄露、金融損失以及個人隱私泄露等一系列嚴(yán)重后果。根據(jù)CNCERT/CC發(fā)布的《2020 年中國互聯(lián)網(wǎng)網(wǎng)絡(luò)安全報告》,檢測到多個冒充境內(nèi)網(wǎng)站的釣魚頁面,這種惡意攻擊具有極高的靈活性和多樣性,攻擊者通常只需要對網(wǎng)站的URL 稍作修改便可繞過已過時的監(jiān)管,極大破壞了互聯(lián)網(wǎng)生態(tài),對公民的切身利益構(gòu)成了嚴(yán)重威脅。因此,開發(fā)有效的惡意URL 檢測方法至關(guān)重要。

        近年來,機器學(xué)習(xí)技術(shù)在惡意URL 檢測中得到了廣泛的應(yīng)用,常用的方法有支持向量機[2,3]、邏輯回歸[4]、樸素貝葉斯[5]、決策樹[6]、隨機森林[6,7]和集成學(xué)習(xí)方法[8]等。通過分析URL 的內(nèi)容、結(jié)構(gòu)和行為特征,機器學(xué)習(xí)模型能夠識別出惡意URL,并提供一定的預(yù)防措施。然而,由于惡意URL 的多樣性和不斷變化,傳統(tǒng)的機器學(xué)習(xí)方法在惡意URL 檢測中常會面臨新的挑戰(zhàn),如特征選取困難、數(shù)據(jù)不平衡等。隨著深度學(xué)習(xí)的持續(xù)發(fā)展,深度學(xué)習(xí)算法在自然語言處理、圖像處理、機器翻譯等領(lǐng)域都有著出色的表現(xiàn),越來越多的學(xué)者開始將其引入到惡意URL 處理問題中。Anu Vazhayil 等[9]將經(jīng)典機器學(xué)習(xí)技術(shù)(Logistic Regression,邏輯回歸)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和CNN 長短期記憶(CNN-LSTM))算法用于檢測惡意URL 并進行了比較研究,結(jié)果表明,CNN-LSTM對釣魚網(wǎng)站的分類準(zhǔn)確率最高。張慧[10]等提出一種基于CNN 的URLs 特征自動提取方法來提升特征的區(qū)分能力和普適性。吳曉英[11]等采用Bi-LSTM 和注意力機制(Attention)構(gòu)建檢測模型。卜佑軍[12]等使用CNN 來獲取URL 的空間局部特征,通過Bi-LSTM 來獲取URL的雙向長距離依賴特征,從而提高模型的檢測準(zhǔn)確率。

        為有效檢測惡意URL,在已有研究的基礎(chǔ)上,本文構(gòu)建了基于CNN、Bi-LSTM 和注意力機制的CBA 模型。該模型以Bi-LSTM 模型為基礎(chǔ),通過將文本數(shù)據(jù)中的單詞映射到一個低維的向量空間中,從而提取單詞的語義和上下文信息。然后通過CNN 網(wǎng)絡(luò)來用于提取輸入數(shù)據(jù)的局部關(guān)聯(lián)特征,并引入注意力機制,保證模型能夠在輸入的特征中最大程度學(xué)習(xí)到所有關(guān)鍵特征并按重要性進行排序重組。相較于傳統(tǒng)方法,CBA 模型的創(chuàng)新之處在于將多種機器學(xué)習(xí)技術(shù)進行有機結(jié)合,從而充分利用各自的優(yōu)勢,提高惡意URL 檢測的準(zhǔn)確性。

        1 模型結(jié)構(gòu)設(shè)計

        惡意URL 檢測研究的目標(biāo)是通過對URL 的文本特征進行判斷,輸出URL 文本判斷結(jié)果屬于“良性”還是“惡意”,因此,該問題本質(zhì)是屬于自然語言處理的二分類問題。本文運用多機制融合思想,深入分析各深度學(xué)習(xí)方法的優(yōu)缺點,構(gòu)建了融合CNN、BiLSTM 和Attention 機制的CBA 模型,模型算法的整體流程圖如圖1 所示。

        圖1 CBA 模型結(jié)構(gòu)流程圖Fig.1 CBA model structure flow chart

        該模型能充分運用各種機制的優(yōu)點,快速有效地提取URL 特征表達信息,增強模型的分類能力??傮w而言,模型主要包括:(1)使用NLTK 開源工具包對實驗數(shù)據(jù)集中的URL 進行分詞;(2)通過Word2Vec 詞嵌入技術(shù)將URL 進行向量化表示,并生成詞嵌入矩陣作為模型的嵌入層;(3)將數(shù)據(jù)輸入CNN 層提取其中的局部關(guān)聯(lián)特征;(4)Bi-LSTM 層接受CNN 層的特征并進行進一步信息提取,同時提取每個URL 樣本的時序特征;(5)通過注意力機制對所有提取的特征按照重要指數(shù)進行排序,并為不同特征構(gòu)建權(quán)重向量;(6)將處理完的特征向量輸入全連接層,運用分類器完成URL 分類;(7)通過計算損失函數(shù),調(diào)節(jié)模型參數(shù)來優(yōu)化模型。

        1.1 分詞技術(shù)

        分詞是自然語言處理中的關(guān)鍵任務(wù),它將連續(xù)的文本劃分為一個個有意義的單元,如單詞或短語。在惡意URL 檢測等領(lǐng)域,分詞能夠有效地提取URL 文本的特征,為后續(xù)的特征提取和模型訓(xùn)練打下基礎(chǔ)。分詞質(zhì)量直接影響著特征的表達和模型的性能,因此選擇適合的分詞方法十分重要。

        目前,常用的分詞方法有基于規(guī)則、統(tǒng)計、機器學(xué)習(xí)和深度學(xué)習(xí)等?;谝?guī)則的方法使用預(yù)定義的規(guī)則來進行分詞,但這種方法往往無法處理復(fù)雜的語言結(jié)構(gòu)和不規(guī)則的現(xiàn)象,且規(guī)則需要手動定義,難以適應(yīng)多樣性的文本?;诮y(tǒng)計的方法則根據(jù)詞頻、頻率等統(tǒng)計信息進行分詞。這種方法需要大量的訓(xùn)練數(shù)據(jù)來學(xué)習(xí)分詞規(guī)律,但在處理生僻詞或新詞時可能表現(xiàn)不佳。機器學(xué)習(xí)方法使用訓(xùn)練數(shù)據(jù)來學(xué)習(xí)分詞模式,如條件隨機場(CRF)和隱馬爾可夫模型(HMM)。然而,這些方法需要大量的標(biāo)注數(shù)據(jù)和特征工程,且對于不同領(lǐng)域的數(shù)據(jù)泛化能力可能有限。

        賓夕法尼亞大學(xué)NLTK Project 發(fā)布的NLTK(Natural Language Toolkit)開源工具包,是一個用于處理和分析自然語言文本的Python 庫,提供了一系列的工具和資源,使開發(fā)者能夠快速構(gòu)建自然語言處理應(yīng)用。它已經(jīng)成為自然語言處理領(lǐng)域的重要工具之一,被廣泛應(yīng)用于學(xué)術(shù)研究、教學(xué)以及工業(yè)界的實際應(yīng)用中。本文選擇使用NLTK 來完成URL 文本的分詞操作。

        1.2 URL 向量化

        URL 向量化是將URL 文本轉(zhuǎn)換為向量的過程,由于在訓(xùn)練數(shù)據(jù)集中,所有的樣本皆以文本格式存儲,但神經(jīng)網(wǎng)絡(luò)并不能直接處理文本格式的數(shù)據(jù),因此就需要先將URL 文本轉(zhuǎn)換為計算機可理解的數(shù)值特征,以便后續(xù)進行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和處理。然而,與僅包含數(shù)字或單詞的普通文本不同,URL 文本由各種單詞縮寫、前綴、符號、拼音、IP 甚至轉(zhuǎn)義字符等元素構(gòu)成。因此,選擇合理的文本向量化方式十分重要。

        在自然語言處理研究領(lǐng)域,目前常用的文本向量化方法有獨熱編碼(One-Hot Encoding),詞袋模型(Bag of Words, BoW),詞頻逆詞頻模型(Term Frequency-Inverse Document Frequency, TF-IDF)以及詞嵌入模型(Word2Vec)。其中,Word2Vec 是一種基于深度學(xué)習(xí)的詞向量表示方法,它能夠?qū)⒃~語映射為實數(shù)向量,并且能夠捕捉詞語之間的語義關(guān)系。因此,本文選擇Word2Vec 進行URL 向量化處理,以便更好理解URL 文本的語義信息與特征。

        在Word2Vec 模式下有兩個常用模型:連續(xù)詞袋(Continuous Bag-of-Words, CBOW)模型和跳詞(Skip-Gram)模型。CBOW 模型是一種基于神經(jīng)網(wǎng)絡(luò)的詞嵌入方法,其主要目標(biāo)是將每個單詞表示為固定維度的實數(shù)向量,使得這些向量能夠捕捉到單詞之間的語義和上下文關(guān)系;Skip-Gram 模型則是CBOW 模型的逆過程,雖然兩者都能捕捉語義和上下文關(guān)系,但Skip-Gram 模型對罕見詞匯和小規(guī)模數(shù)據(jù)集表現(xiàn)較差。因此本文中選擇CBOW 模型,具體采用的是Gensim 庫中Word2Vec函數(shù)對輸入URL 參數(shù)進行向量化,并獲取詞嵌入矩陣作為模型的嵌入層。

        1.3 卷機神經(jīng)網(wǎng)絡(luò)層

        卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),是經(jīng)典的深度學(xué)習(xí)模型,在計算機視覺領(lǐng)域取得了不俗的成績。然而,將卷積神經(jīng)網(wǎng)絡(luò)從計算機視覺領(lǐng)域擴展到自然語言處理領(lǐng)域并非易事。比如在對圖像的處理過程中,研究者可以將每張圖片的尺寸和分辨率設(shè)為固定值,從而使用多種長度不變的卷積核處理圖像。但在文本分類領(lǐng)域,如果直接將輸入文本長度截斷為固定值,就無法確保輸入信息的完整性。輸入文本長度的不同就可能導(dǎo)致后續(xù)卷積操作的異常,從而導(dǎo)致數(shù)據(jù)丟失,進而影響最終訓(xùn)練效果。

        針對上述問題,研究者們采用了不同的技術(shù)以確保網(wǎng)絡(luò)能夠有效地進行特征提取和學(xué)習(xí),部分研究者采用單層CNN 模型結(jié)構(gòu),并在最大池化階段采用1-max pooling 操作[13]。這種做法將每個卷積核產(chǎn)生的特征圖中最大特征值作為該卷積核對整個句子的特征值,從而保留了每個卷積核提取到最顯著的特征。在池化操作之后得到的特征向量,其維度大小就等于卷積核數(shù)量,這些特征便可用于進行文本分類任務(wù)。這種方法可有效解決文本長度不同的問題。本文借鑒上述思路,將CNN 融入模型來獲取輸入數(shù)據(jù)的局部關(guān)聯(lián)特征。

        首先,卷積層是CNN 模型中的核心組成部分,它能在局部范圍內(nèi)有效提取相鄰詞語間的語義關(guān)系。本文采用一維卷積層(Conv1D)對文本特征進行卷積操作。其中卷積核的尺寸通常是3 或5,卷積操作后得到的特征圖是一個一維向量,其操作過程如式(1)所示:

        其中,x為輸入的文本序列,k為卷積核的長度,W為卷積核權(quán)重矩陣,b為偏置項。

        首先,卷積操作使用ReLU 激活函數(shù),使輸出特征向量中的負(fù)值變?yōu)?,提高特征的非線性表達能力。其次,池化層是在卷積層后對特征圖進行下采樣操作,以進一步減少文本的長度。池化操作有最大池化和平均池化等,可以減少特征的數(shù)量,并且對輸入文本的長度不敏感。本設(shè)計采用最大池化層(Max Pooling)對卷積操作后的特征圖進行下采樣,將每個特征子序列的最大值作為下采樣后的特征值,縮小特征圖的尺寸和數(shù)量。MaxPooling1D 的參數(shù)通常是3 或4,表示下采樣時從3個或4 個相鄰特征值中選擇最大值作為該特征子序列的特征值,其表達式如式(2)所示:

        其中,c為卷積操作后的特征向量,p為最大池化操作后得到的特征向量,s為池化層的步長。

        通過采用單層CNN 模型結(jié)構(gòu),并在最大池化階段采用1-max pooling 操作,在最大保留特征的前提下又使輸出維度保持一致,解決了輸入文本長度不相等的問題,理論上對URL 的分類效果能起到積極作用。

        1.4 Attention 機制

        使用Bi-LSTM 模型對序列進行處理時,該模型會對每個時刻的輸入都產(chǎn)生一個隱藏狀態(tài)。這些隱藏狀態(tài)組成了一個矩陣,可以把它看作是一個由時間步組成的序列。但是并不是每個時刻的隱藏狀態(tài)對最終結(jié)果都有同等的貢獻,而某些時刻的隱藏狀態(tài)可能更重要。因此,本文中引入Attention 機制,來對不同時刻的隱藏狀態(tài)進行加權(quán),可以更好捕捉較為重要的信息。

        模型采用了基于注意力機制的加權(quán)求和方式,計算每個時刻的權(quán)重。先通過兩個全連接層對BiLSTM 輸出進行處理,將其轉(zhuǎn)換成一個對應(yīng)的向量,再利用這個向量來計算每個時刻的權(quán)重。計算過程如式(3)所示:

        其中,ht為時間步上的隱藏狀態(tài),va為注意力向量,Wa為注意力權(quán)重矩陣,ba為偏置向量。

        在得到權(quán)重向量后,將其歸一化處理,得到每個時刻的權(quán)重系數(shù)如式(4)所示:

        將每個時刻的隱藏狀態(tài)和其對應(yīng)的權(quán)重系數(shù)相乘,并將這些加權(quán)和求和,得到一個加權(quán)后的向量如式(5)所示:

        這個加權(quán)后的向量表示包含了所有時刻的隱藏狀態(tài),但每個時刻的重要性不同,因此能夠更好地捕捉序列中的重要信息。

        2 實驗

        2.1 實驗數(shù)據(jù)集

        本實驗數(shù)據(jù)均采集自互聯(lián)網(wǎng),時間范圍從2020 年5月至2023 年4 月。數(shù)據(jù)的獲取渠道涵蓋多個來源,主要包括GitHub 開源訓(xùn)練數(shù)據(jù)集(約290,000 條)、Kaggle開源訓(xùn)練數(shù)據(jù)集(約50,000 條)以及Alexa 全球網(wǎng)站排名數(shù)據(jù)(10,000 條)。通過對這些數(shù)據(jù)源進行整合,確保了實驗數(shù)據(jù)的充分性和代表性。在數(shù)據(jù)整合的過程中,針對所有的網(wǎng)站主域名進行了存活性檢測,以確保模型的輸入數(shù)據(jù)在時效性上的準(zhǔn)確性。

        2.2 數(shù)據(jù)處理

        為提高模型的泛化能力和準(zhǔn)確性,實驗對于正面和負(fù)面數(shù)據(jù)進行平衡處理,按1:1 的比例進行采樣,即正負(fù)面樣本各取10,000 條,形成最終的實驗數(shù)據(jù)集,樣例如表1 所示??梢钥闯?,惡意URL 往往巧妙地模仿正常URL 的樣式,使得它們在外觀上高度相似,從而引導(dǎo)用戶進行訪問。因此,普通網(wǎng)民很難根據(jù)URL 地址來區(qū)分該訪問是否安全。鑒于此,對于那些具有誤導(dǎo)性和高度相似性的惡意URL 的識別和分析變得至關(guān)重要。

        表1 正常與惡意URL 樣本Tab.1 Benign and malicious URL samples

        本實驗中,統(tǒng)一對樣本數(shù)據(jù)集進行二八分處理,即80%的樣本數(shù)據(jù)作為訓(xùn)練集,剩下20%的數(shù)據(jù)作為測試集。

        2.3 實驗環(huán)境

        本實驗采用的編程語言為Python3.8,計算設(shè)備配備了Intel(R)Core(TM)i7-10875H 中央處理器,NVIDIA GeForceRTX2060 顯卡,內(nèi)存為32GB。運行環(huán)境為64位Windows10Version22H2 操作系統(tǒng)。

        2.4 模型相關(guān)參數(shù)

        CBA 模型的相關(guān)參數(shù)如表2 所示。

        表2 CBA 模型相關(guān)參數(shù)表Tab.2 Parameters of CBA model

        2.5 實驗結(jié)果分析

        為驗證CBA 模型的性能,本文采用控制變量法進行對比試驗,旨在比較改進后的模型與單一模型及其他改進模型的性能差異。對比實驗各模型參數(shù)如表3 ~表6所示。

        表3 CNN 模型參數(shù)表Tab.3 Parameters of CNN model

        表4 Bi-LSTM 模型參數(shù)表Tab.4 Parameters of Bi-LSTM model

        表5 CNN + Bi-LSTM 模型參數(shù)表Tab.5 Parameters of CNN + Bi-LSTM model

        表6 Bi-LSTM + Attention 模型參數(shù)表Tab.6 Parameters of Bi-LSTM + Attention model

        CBA 模型與各模型的對比實驗結(jié)果如表7 所示,下面對各模型的表現(xiàn)進行分析,并探討造成這些差異的原因。

        首先,從準(zhǔn)確率(Accuracy)、精確率(Precision)和F1 分?jǐn)?shù)(F1-score)來看,單一CNN 模型的效果最差。這主要是因為卷積神經(jīng)網(wǎng)絡(luò)在處理可變長度文本上的優(yōu)勢不及循環(huán)神經(jīng)網(wǎng)絡(luò),且在1-max pooling 操作下仍有小部分特征丟失,所以只有約83%的準(zhǔn)確率。

        其次,可以看到Bi-LSTM 模型的表現(xiàn)優(yōu)于CNN。這是由于Bi-LSTM 模型作為一種循環(huán)神經(jīng)網(wǎng)絡(luò),能更好地處理可變長度文本并從中提取全局時序信息。此外,在Bi-LSTM 模型基礎(chǔ)上引入了Attention 機制后,Attention 機制對全局特征的加權(quán)和排序能讓模型關(guān)注到更有意義的特征,對模型的性能有較大的提升。相比而言,CNN 只能關(guān)注到局部特征,因此Bi-LSTM +Attention 模型相比CNN + Bi-LSTM 有更好的表現(xiàn)。

        最后,在所有模型中,CBA 模型在完成惡意URL檢測的任務(wù)上的表現(xiàn)最為優(yōu)異,其正確率已接近90%。其中,Attention 機制的引入對于模型性能的提升幫助較高,可以看出Attention 機制的全局特征排序有利于神經(jīng)網(wǎng)絡(luò)習(xí)得更多有價值的特征,以獲得更好的分類效果。同時卷積神經(jīng)網(wǎng)絡(luò)的引入也能在一定程度上幫助神經(jīng)網(wǎng)絡(luò)在局部上關(guān)注到更有價值的特征,從而提高整體性能。

        綜上所述,CBA 模型能有效融合多種機制,并有效提送惡意URL 檢測效果。其中,CNN 在提取局部特征方面表現(xiàn)出色,Bi-LSTM 則能夠捕獲序列的長程依賴關(guān)系,而Attention 機制則強化了全局信息的理解能力。CBA 模型的綜合優(yōu)勢使其能夠更全面地理解和分析URL 文本,從而在惡意URL 檢測任務(wù)中取得了出色的結(jié)果。

        3 總結(jié)與展望

        本文針對現(xiàn)有基于機器學(xué)習(xí)的惡意URL 檢測方法的缺點,運用多機制融合思想,提出在Bi-LSTM 模型的基礎(chǔ)上,引入卷積神經(jīng)網(wǎng)絡(luò)和Attention 機制,構(gòu)建了CBA 模型。實驗結(jié)果表明,CBA 模型通過綜合運用不同機制,能夠從不同角度捕捉URL 文本的各種特征,使得模型更全面地理解和分析URL 的語義和結(jié)構(gòu)信息。這種綜合性特點使得CBA 模型在特征表達能力上較單一機制更具優(yōu)勢,能夠更準(zhǔn)確地判別惡意和非惡意URL,這為未來的研究和應(yīng)用提供了有益的參考。今后,在數(shù)據(jù)集方面,可以更好地兼顧樣本的時效性、多樣性和數(shù)據(jù)量,使用更多更全面的數(shù)據(jù)來進行模型訓(xùn)練,從而進一步提升模型的準(zhǔn)確性;同時,還可以考慮將CBA 模型與更多深度學(xué)習(xí)技術(shù)進行整合,以進一步提升模型的序列建模和特征提取能力,此外,通過更優(yōu)化的數(shù)據(jù)預(yù)處理和模型調(diào)參,也有望進一步提升CBA 模型的性能。

        引用

        [1] 沙泓州,劉慶云,柳廳文,等.惡意網(wǎng)頁識別研究綜述[J].計算機學(xué)報,2016,39(3):529-542.

        [2] LI T,KOU G,PENG Y.Improving Malicious URLs Detection Via Feature Engineering:Linear and Nonlinear Space Transformation Methods[J].Information Systems,2020(91):1-18.

        [3] 吳森焱,羅熹,王偉平,等.融合多種特征的惡意URL檢測方法[J].軟件學(xué)報,2021,32(9):2916-2934.

        [4] JAIN A K,GUPTA B B.A Machine Learning Based Approach for Phishing Detection Using Hyperlinks Information[J].Journal of Ambient Intelligence and Humanized Computing,2019,10(5):2015-2028.

        [5] WANG Z,FENG X,NIU Y,et al.TSMWD:A High-speed Malicious Web Page Detection System Based on Two-step Classifiers[C]//2017 International Conference on Networking and Network Applications (NaNA).IEEE,2017:170-175.

        [6] TELO J.Supervised Machine Learning for Detecting Malicious URLs:An Evaluation of Different Models[J].Sage Science Review of Applied Machine Learning,2022,5(2):30-46.

        [7] XUAN C D,NGUYEN H D,TISENKO V N.Malicious URL Detection Based on Machine Learning[J].International Journal of Advanced Computer Science and Applications,2020,11(1).

        [8] 張永剛,呂鵬飛,張悅,等.基于Stacking集成學(xué)習(xí)的惡意URL檢測系統(tǒng)設(shè)計與實現(xiàn)[J].現(xiàn)代電子技術(shù),2023,46(10):105-109.

        [9] VAZHAYIL A,VINAYAKUMAR R,SOMAN K P.Comparative study of the detection of malicious URLs using shallow and deep networks[C]//2018 9th International Conference on Computing,Communication and Networking Technologies(ICCCNT).IEEE,2018:1-6.

        [10] 張慧,錢麗萍,汪立東,等.基于CNN和多分類器的惡意URLs檢測[J].計算機工程與設(shè)計,2019,40(10):2991-2995+3019.

        [11] 吳曉英,朱勁松.基于BI-lstm+attention的網(wǎng)站多結(jié)構(gòu)異常檢測分析實證研究[J].情報探索,2022(3):49-55.

        [12] 卜佑軍,張橋,陳博,等.基于CNN和BiLSTM的釣魚URL檢測技術(shù)研究[J].鄭州大學(xué)學(xué)報(工學(xué)版),2021,42(6):14-20.

        [13] 朱錦程.基于機器學(xué)習(xí)的惡意URL檢測技術(shù)研究[D].成都:電子科技大學(xué),2022.

        猜你喜歡
        機制特征文本
        如何表達“特征”
        在808DA上文本顯示的改善
        不忠誠的四個特征
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        自制力是一種很好的篩選機制
        文苑(2018年21期)2018-11-09 01:23:06
        抓住特征巧觀察
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        破除舊機制要分步推進
        注重機制的相互配合
        打基礎(chǔ) 抓機制 顯成效
        中國火炬(2014年4期)2014-07-24 14:22:19
        特级a欧美做爰片第一次| 91国际视频| 亚洲午夜精品a区| 在线观看极品裸体淫片av| 国产精品亚洲精品日韩动图| 亚洲狠狠久久五月婷婷| 青青草视频在线观看色| 午夜不卡无码中文字幕影院| 国产精品无码一区二区三区免费| 日本a天堂| 久久视频在线视频精品| 激情五月六月婷婷俺来也| 国产午夜福利片在线观看| 国产又黄又爽又色的免费| 国产极品久久久久极品| 一级一级毛片无码免费视频 | 无码一区东京热| 亚洲国产综合性感三级自拍 | 国产福利97精品一区二区| 96中文字幕一区二区| 偷看农村妇女牲交| 免费观看激色视频网站| 人妻丰满av∨中文久久不卡| 日本一区二区三区专区| 国产一区二区三区激情视频| 色多多性虎精品无码av| 最新中文字幕人妻少妇| 玩弄人妻少妇精品视频| 欧洲熟妇色xxxxx欧美老妇伦| 亚洲精品综合第一国产综合| 日本一区二区三区资源视频| 水蜜桃精品视频在线观看| 无码av无码天堂资源网| 国产精品嫩草影院AV| 精品日韩欧美| 午夜理论片日本中文在线| 国产极品粉嫩福利姬萌白酱| 少妇被猛男粗大的猛进出| 一本大道久久东京热无码av| 国产免费99久久精品| 国产午夜视频一区二区三区|