萬芳芳
摘 要:隨著社會的發(fā)展和科技的進步,互聯(lián)網(wǎng)已成為人類獲取信息的重要工具。在Internet給信息社會帶來的極大便利的同時,也帶來了許多安全隱患,跨站腳本攻擊(XSS)在眾多的Web漏洞中位居榜首。為此,提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù),包括網(wǎng)絡(luò)爬蟲模塊、代碼自動注入模塊和漏洞檢測模塊。通過實驗證明,本文對XXS漏洞檢測效果較好。
關(guān)鍵詞:XSS;網(wǎng)絡(luò)爬蟲;漏洞挖掘
1 引言
Web技術(shù)是Internet上最具活力和發(fā)展?jié)摿Φ募夹g(shù),它廣泛應(yīng)用于商業(yè)、教育、娛樂等領(lǐng)域,但是它存在許多的漏洞。由于Internet的不安全性,許多惡意攻擊者意圖進行Web攻擊。而在眾多的Web攻擊中,跨站腳本攻擊(XSS)所占的比例非常大。XSS指的是惡意攻擊者利用Web服務(wù)器中的漏洞將惡意代碼插入遠程Web頁面,當用戶訪問此頁面時,嵌入其中的代碼便會執(zhí)行,從而盜取用戶的信息。跨站腳本攻擊代碼的種類非常多,對所有的用戶輸入進行檢測是一件十分困難的事情。因而,本文提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù)。
2 基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù)
基于網(wǎng)絡(luò)爬蟲的XSS 漏洞挖掘技術(shù)可以分為3個模塊:網(wǎng)絡(luò)爬蟲模塊、代碼自動注入模塊和漏洞檢測模塊。
2.1 網(wǎng)絡(luò)爬蟲模塊
網(wǎng)絡(luò)爬蟲是搜索引擎的重要構(gòu)件之一,它是一個自動下載程序。網(wǎng)絡(luò)爬蟲模塊的具體過程是:網(wǎng)絡(luò)爬蟲從一個初始的URL出發(fā),從該網(wǎng)頁中不斷地提取新的URL,然后將該URL按照FIFO順序放入爬蟲隊列,從該爬蟲隊列中順序取出新的URL,下載對應(yīng)的頁面,并從該新的頁面中提取新的URL,不斷地重復(fù)該過程,直到爬蟲隊列中不含有URL或達到頁面最大深度。在網(wǎng)絡(luò)爬蟲過程中,需要不斷向服務(wù)器發(fā)送Web請求,那么在數(shù)據(jù)傳輸過程中通過將編碼進行壓縮可以有效減少網(wǎng)絡(luò)中傳送的數(shù)據(jù)。Gzip是一種壓縮效果十分好的壓縮算法,通過該算法壓縮的數(shù)據(jù)可以使壓縮后的文件是原先文件的30%,在客戶端對數(shù)據(jù)進行壓縮后,該功能在服務(wù)器端也必須設(shè)置,這樣服務(wù)器才能接受此請求,服務(wù)器端可以使用過濾器對其進行解壓。網(wǎng)絡(luò)爬蟲在爬取鏈接時,需要管理很多的套接字,使用完成端口模型方式可以使系統(tǒng)達到最佳的性能。在Windows系統(tǒng)下,利用它不但可以接受套接字句柄,而且還可以接受其它服務(wù)。提供服務(wù)完成端口模型要求創(chuàng)建一個Windows完成端口對象,用它管理多個I/O請求。在對頁面進行解析時采用正則表達式進行匹配,從而提取出所需的數(shù)據(jù)。利用正則表達式提取出URL后,還需要將它轉(zhuǎn)換成絕對路徑。Uri url=new Uri(src_uri,new_uri);//轉(zhuǎn)絕對路徑方式的URL。在爬蟲的過程中可能存在許多重復(fù)的URL,如果將每個URL進行匹配來判斷是否重復(fù)需要消耗大量的時間。前面我們已經(jīng)闡述過在提取URL時需要將其壓縮編碼傳輸,我們可以對其壓縮后的編碼建立Hash表,這樣便可以判定URL是否重復(fù)。我們訪問的URL大多數(shù)是以http://或https://開始而以.html、.asp、.com、.cn等常見的字符終止的,因此,當我們對字符進行hash時,應(yīng)當去除開始和結(jié)尾的常見字符,這樣可以減少碰撞發(fā)生的概率。本文提出了一種新的算法----M-Interval-Hash,可以計算URL的hash值:令M=去掉常見字符后的字符長度/N,代表在URL中選取字符時間隔的字符數(shù)。N是一個按照經(jīng)驗來設(shè)置的參數(shù),例如,N=3,字符長度為36,則M=12,表示選取字符的間隔是12個字符。
2.2 代碼自動注入模塊
在對XSS漏洞進行挖掘時,需要注入代碼來測試漏洞是否存在,而在XSS中,惡意代碼的注入可以是在GET請求中,也可以是POST請求。所以,在代碼自動注入時,應(yīng)該考慮上述兩種情形。在代碼注入時,測試每一個注入點,測試時按照數(shù)據(jù)庫中測試代碼順序依次從數(shù)據(jù)庫中取出一條記錄,直到數(shù)據(jù)庫中的記錄為空。
2.3 漏洞檢測模塊
代碼注入完成之后,還需要對注入的結(jié)果進行檢測,以確定是否存在該漏洞。本文通過匹配漏洞特征庫來判斷XSS漏洞是否執(zhí)行成功。從漏洞特征庫讀取XSS注入漏洞的測試腳本,對每個GET變量和POST變量依次進行XSS攻擊。然后分析從Web服務(wù)器端返回的響應(yīng)消息,看其是否滿足漏洞庫中該漏洞的特征。若滿足,則說明存在XSS漏洞,否則不存在。
XSS的測試效果很大程度上由測試腳本的質(zhì)量決定,本方案選擇的腳本為OWASP所推薦的測試腳本。
3 實驗結(jié)果及比較
3.1 網(wǎng)絡(luò)爬蟲模塊中URL去重算法測試
為了驗證本文技術(shù)方案的可行性,首先對URL去重算法進行了驗證,將M-Interval-Hash算法與MD5算法進行比較。實驗環(huán)境采用一臺計算機,CPU為Pentium E5300,內(nèi)存為2GB。軟件環(huán)境為Windows XP Professional版本 2002 Service Pack2和JDK 1.6,數(shù)據(jù)庫為MySQL 5.5.20。在M-Interval-Hash算法中,為了測試方便,我們?nèi)∨cM相關(guān)的經(jīng)驗參數(shù)N=8,將該算法和MD5算法比較。
4.2 XSS漏洞檢測測試
為測試本文技術(shù)的可行性,對一些網(wǎng)站進行了掃描,并和另外兩種基于爬蟲的檢測工具Acunetix WVS Free Edition 6.5和XSSer 1.5進行比較。第一個網(wǎng)站測試環(huán)境為Apache 2.2.14+PHP;第二個網(wǎng)站測試環(huán)境為IIS 6.0+ASP。
表1為上述兩種工具和本文技術(shù)掃描結(jié)果比較。
在表1中的第二個網(wǎng)站中存在Form表單,所以XSSer無法檢測出XSS漏洞。
本文技術(shù)、Acunetix WVS 8和XSSer 1.5對XSS漏洞掃描的時間比較見表2。
通過表1和表2的數(shù)據(jù)可看出本文XSS漏洞挖掘技術(shù)相對Acunetix WVS和XSSer兩種工具來說性能更佳。
4 結(jié)束語
對于Web攻擊中的大量XSS攻擊,本文提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù),為了提高網(wǎng)絡(luò)爬蟲的性能,在網(wǎng)絡(luò)爬蟲模塊使用了M-Interval-Hash新算法,以實現(xiàn)URL去重,同時為了提高網(wǎng)頁抓取速度,采用了異步I/O完成端口模型,漏洞檢測模塊則使用特征庫匹配技術(shù)。通過實驗證明,XXS漏洞檢測效果較好,在郵箱XSS漏洞的挖掘、Web網(wǎng)站XSS漏洞的檢測等方面均有成功的應(yīng)用.
[參考文獻]
[1]許思遠,鄭滔.服務(wù)器-客戶端協(xié)作的跨站腳本攻擊防御方法[J].計算機工程,2011,37(18):154-156.
[2]趙艷.基于網(wǎng)絡(luò)爬蟲的跨站腳本漏洞動態(tài)檢測技術(shù)研究.西南交通大學碩士論文,2011.5.
摘 要:隨著社會的發(fā)展和科技的進步,互聯(lián)網(wǎng)已成為人類獲取信息的重要工具。在Internet給信息社會帶來的極大便利的同時,也帶來了許多安全隱患,跨站腳本攻擊(XSS)在眾多的Web漏洞中位居榜首。為此,提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù),包括網(wǎng)絡(luò)爬蟲模塊、代碼自動注入模塊和漏洞檢測模塊。通過實驗證明,本文對XXS漏洞檢測效果較好。
關(guān)鍵詞:XSS;網(wǎng)絡(luò)爬蟲;漏洞挖掘
1 引言
Web技術(shù)是Internet上最具活力和發(fā)展?jié)摿Φ募夹g(shù),它廣泛應(yīng)用于商業(yè)、教育、娛樂等領(lǐng)域,但是它存在許多的漏洞。由于Internet的不安全性,許多惡意攻擊者意圖進行Web攻擊。而在眾多的Web攻擊中,跨站腳本攻擊(XSS)所占的比例非常大。XSS指的是惡意攻擊者利用Web服務(wù)器中的漏洞將惡意代碼插入遠程Web頁面,當用戶訪問此頁面時,嵌入其中的代碼便會執(zhí)行,從而盜取用戶的信息??缯灸_本攻擊代碼的種類非常多,對所有的用戶輸入進行檢測是一件十分困難的事情。因而,本文提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù)。
2 基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù)
基于網(wǎng)絡(luò)爬蟲的XSS 漏洞挖掘技術(shù)可以分為3個模塊:網(wǎng)絡(luò)爬蟲模塊、代碼自動注入模塊和漏洞檢測模塊。
2.1 網(wǎng)絡(luò)爬蟲模塊
網(wǎng)絡(luò)爬蟲是搜索引擎的重要構(gòu)件之一,它是一個自動下載程序。網(wǎng)絡(luò)爬蟲模塊的具體過程是:網(wǎng)絡(luò)爬蟲從一個初始的URL出發(fā),從該網(wǎng)頁中不斷地提取新的URL,然后將該URL按照FIFO順序放入爬蟲隊列,從該爬蟲隊列中順序取出新的URL,下載對應(yīng)的頁面,并從該新的頁面中提取新的URL,不斷地重復(fù)該過程,直到爬蟲隊列中不含有URL或達到頁面最大深度。在網(wǎng)絡(luò)爬蟲過程中,需要不斷向服務(wù)器發(fā)送Web請求,那么在數(shù)據(jù)傳輸過程中通過將編碼進行壓縮可以有效減少網(wǎng)絡(luò)中傳送的數(shù)據(jù)。Gzip是一種壓縮效果十分好的壓縮算法,通過該算法壓縮的數(shù)據(jù)可以使壓縮后的文件是原先文件的30%,在客戶端對數(shù)據(jù)進行壓縮后,該功能在服務(wù)器端也必須設(shè)置,這樣服務(wù)器才能接受此請求,服務(wù)器端可以使用過濾器對其進行解壓。網(wǎng)絡(luò)爬蟲在爬取鏈接時,需要管理很多的套接字,使用完成端口模型方式可以使系統(tǒng)達到最佳的性能。在Windows系統(tǒng)下,利用它不但可以接受套接字句柄,而且還可以接受其它服務(wù)。提供服務(wù)完成端口模型要求創(chuàng)建一個Windows完成端口對象,用它管理多個I/O請求。在對頁面進行解析時采用正則表達式進行匹配,從而提取出所需的數(shù)據(jù)。利用正則表達式提取出URL后,還需要將它轉(zhuǎn)換成絕對路徑。Uri url=new Uri(src_uri,new_uri);//轉(zhuǎn)絕對路徑方式的URL。在爬蟲的過程中可能存在許多重復(fù)的URL,如果將每個URL進行匹配來判斷是否重復(fù)需要消耗大量的時間。前面我們已經(jīng)闡述過在提取URL時需要將其壓縮編碼傳輸,我們可以對其壓縮后的編碼建立Hash表,這樣便可以判定URL是否重復(fù)。我們訪問的URL大多數(shù)是以http://或https://開始而以.html、.asp、.com、.cn等常見的字符終止的,因此,當我們對字符進行hash時,應(yīng)當去除開始和結(jié)尾的常見字符,這樣可以減少碰撞發(fā)生的概率。本文提出了一種新的算法----M-Interval-Hash,可以計算URL的hash值:令M=去掉常見字符后的字符長度/N,代表在URL中選取字符時間隔的字符數(shù)。N是一個按照經(jīng)驗來設(shè)置的參數(shù),例如,N=3,字符長度為36,則M=12,表示選取字符的間隔是12個字符。
2.2 代碼自動注入模塊
在對XSS漏洞進行挖掘時,需要注入代碼來測試漏洞是否存在,而在XSS中,惡意代碼的注入可以是在GET請求中,也可以是POST請求。所以,在代碼自動注入時,應(yīng)該考慮上述兩種情形。在代碼注入時,測試每一個注入點,測試時按照數(shù)據(jù)庫中測試代碼順序依次從數(shù)據(jù)庫中取出一條記錄,直到數(shù)據(jù)庫中的記錄為空。
2.3 漏洞檢測模塊
代碼注入完成之后,還需要對注入的結(jié)果進行檢測,以確定是否存在該漏洞。本文通過匹配漏洞特征庫來判斷XSS漏洞是否執(zhí)行成功。從漏洞特征庫讀取XSS注入漏洞的測試腳本,對每個GET變量和POST變量依次進行XSS攻擊。然后分析從Web服務(wù)器端返回的響應(yīng)消息,看其是否滿足漏洞庫中該漏洞的特征。若滿足,則說明存在XSS漏洞,否則不存在。
XSS的測試效果很大程度上由測試腳本的質(zhì)量決定,本方案選擇的腳本為OWASP所推薦的測試腳本。
3 實驗結(jié)果及比較
3.1 網(wǎng)絡(luò)爬蟲模塊中URL去重算法測試
為了驗證本文技術(shù)方案的可行性,首先對URL去重算法進行了驗證,將M-Interval-Hash算法與MD5算法進行比較。實驗環(huán)境采用一臺計算機,CPU為Pentium E5300,內(nèi)存為2GB。軟件環(huán)境為Windows XP Professional版本 2002 Service Pack2和JDK 1.6,數(shù)據(jù)庫為MySQL 5.5.20。在M-Interval-Hash算法中,為了測試方便,我們?nèi)∨cM相關(guān)的經(jīng)驗參數(shù)N=8,將該算法和MD5算法比較。
4.2 XSS漏洞檢測測試
為測試本文技術(shù)的可行性,對一些網(wǎng)站進行了掃描,并和另外兩種基于爬蟲的檢測工具Acunetix WVS Free Edition 6.5和XSSer 1.5進行比較。第一個網(wǎng)站測試環(huán)境為Apache 2.2.14+PHP;第二個網(wǎng)站測試環(huán)境為IIS 6.0+ASP。
表1為上述兩種工具和本文技術(shù)掃描結(jié)果比較。
在表1中的第二個網(wǎng)站中存在Form表單,所以XSSer無法檢測出XSS漏洞。
本文技術(shù)、Acunetix WVS 8和XSSer 1.5對XSS漏洞掃描的時間比較見表2。
通過表1和表2的數(shù)據(jù)可看出本文XSS漏洞挖掘技術(shù)相對Acunetix WVS和XSSer兩種工具來說性能更佳。
4 結(jié)束語
對于Web攻擊中的大量XSS攻擊,本文提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù),為了提高網(wǎng)絡(luò)爬蟲的性能,在網(wǎng)絡(luò)爬蟲模塊使用了M-Interval-Hash新算法,以實現(xiàn)URL去重,同時為了提高網(wǎng)頁抓取速度,采用了異步I/O完成端口模型,漏洞檢測模塊則使用特征庫匹配技術(shù)。通過實驗證明,XXS漏洞檢測效果較好,在郵箱XSS漏洞的挖掘、Web網(wǎng)站XSS漏洞的檢測等方面均有成功的應(yīng)用.
[參考文獻]
[1]許思遠,鄭滔.服務(wù)器-客戶端協(xié)作的跨站腳本攻擊防御方法[J].計算機工程,2011,37(18):154-156.
[2]趙艷.基于網(wǎng)絡(luò)爬蟲的跨站腳本漏洞動態(tài)檢測技術(shù)研究.西南交通大學碩士論文,2011.5.
摘 要:隨著社會的發(fā)展和科技的進步,互聯(lián)網(wǎng)已成為人類獲取信息的重要工具。在Internet給信息社會帶來的極大便利的同時,也帶來了許多安全隱患,跨站腳本攻擊(XSS)在眾多的Web漏洞中位居榜首。為此,提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù),包括網(wǎng)絡(luò)爬蟲模塊、代碼自動注入模塊和漏洞檢測模塊。通過實驗證明,本文對XXS漏洞檢測效果較好。
關(guān)鍵詞:XSS;網(wǎng)絡(luò)爬蟲;漏洞挖掘
1 引言
Web技術(shù)是Internet上最具活力和發(fā)展?jié)摿Φ募夹g(shù),它廣泛應(yīng)用于商業(yè)、教育、娛樂等領(lǐng)域,但是它存在許多的漏洞。由于Internet的不安全性,許多惡意攻擊者意圖進行Web攻擊。而在眾多的Web攻擊中,跨站腳本攻擊(XSS)所占的比例非常大。XSS指的是惡意攻擊者利用Web服務(wù)器中的漏洞將惡意代碼插入遠程Web頁面,當用戶訪問此頁面時,嵌入其中的代碼便會執(zhí)行,從而盜取用戶的信息??缯灸_本攻擊代碼的種類非常多,對所有的用戶輸入進行檢測是一件十分困難的事情。因而,本文提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù)。
2 基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù)
基于網(wǎng)絡(luò)爬蟲的XSS 漏洞挖掘技術(shù)可以分為3個模塊:網(wǎng)絡(luò)爬蟲模塊、代碼自動注入模塊和漏洞檢測模塊。
2.1 網(wǎng)絡(luò)爬蟲模塊
網(wǎng)絡(luò)爬蟲是搜索引擎的重要構(gòu)件之一,它是一個自動下載程序。網(wǎng)絡(luò)爬蟲模塊的具體過程是:網(wǎng)絡(luò)爬蟲從一個初始的URL出發(fā),從該網(wǎng)頁中不斷地提取新的URL,然后將該URL按照FIFO順序放入爬蟲隊列,從該爬蟲隊列中順序取出新的URL,下載對應(yīng)的頁面,并從該新的頁面中提取新的URL,不斷地重復(fù)該過程,直到爬蟲隊列中不含有URL或達到頁面最大深度。在網(wǎng)絡(luò)爬蟲過程中,需要不斷向服務(wù)器發(fā)送Web請求,那么在數(shù)據(jù)傳輸過程中通過將編碼進行壓縮可以有效減少網(wǎng)絡(luò)中傳送的數(shù)據(jù)。Gzip是一種壓縮效果十分好的壓縮算法,通過該算法壓縮的數(shù)據(jù)可以使壓縮后的文件是原先文件的30%,在客戶端對數(shù)據(jù)進行壓縮后,該功能在服務(wù)器端也必須設(shè)置,這樣服務(wù)器才能接受此請求,服務(wù)器端可以使用過濾器對其進行解壓。網(wǎng)絡(luò)爬蟲在爬取鏈接時,需要管理很多的套接字,使用完成端口模型方式可以使系統(tǒng)達到最佳的性能。在Windows系統(tǒng)下,利用它不但可以接受套接字句柄,而且還可以接受其它服務(wù)。提供服務(wù)完成端口模型要求創(chuàng)建一個Windows完成端口對象,用它管理多個I/O請求。在對頁面進行解析時采用正則表達式進行匹配,從而提取出所需的數(shù)據(jù)。利用正則表達式提取出URL后,還需要將它轉(zhuǎn)換成絕對路徑。Uri url=new Uri(src_uri,new_uri);//轉(zhuǎn)絕對路徑方式的URL。在爬蟲的過程中可能存在許多重復(fù)的URL,如果將每個URL進行匹配來判斷是否重復(fù)需要消耗大量的時間。前面我們已經(jīng)闡述過在提取URL時需要將其壓縮編碼傳輸,我們可以對其壓縮后的編碼建立Hash表,這樣便可以判定URL是否重復(fù)。我們訪問的URL大多數(shù)是以http://或https://開始而以.html、.asp、.com、.cn等常見的字符終止的,因此,當我們對字符進行hash時,應(yīng)當去除開始和結(jié)尾的常見字符,這樣可以減少碰撞發(fā)生的概率。本文提出了一種新的算法----M-Interval-Hash,可以計算URL的hash值:令M=去掉常見字符后的字符長度/N,代表在URL中選取字符時間隔的字符數(shù)。N是一個按照經(jīng)驗來設(shè)置的參數(shù),例如,N=3,字符長度為36,則M=12,表示選取字符的間隔是12個字符。
2.2 代碼自動注入模塊
在對XSS漏洞進行挖掘時,需要注入代碼來測試漏洞是否存在,而在XSS中,惡意代碼的注入可以是在GET請求中,也可以是POST請求。所以,在代碼自動注入時,應(yīng)該考慮上述兩種情形。在代碼注入時,測試每一個注入點,測試時按照數(shù)據(jù)庫中測試代碼順序依次從數(shù)據(jù)庫中取出一條記錄,直到數(shù)據(jù)庫中的記錄為空。
2.3 漏洞檢測模塊
代碼注入完成之后,還需要對注入的結(jié)果進行檢測,以確定是否存在該漏洞。本文通過匹配漏洞特征庫來判斷XSS漏洞是否執(zhí)行成功。從漏洞特征庫讀取XSS注入漏洞的測試腳本,對每個GET變量和POST變量依次進行XSS攻擊。然后分析從Web服務(wù)器端返回的響應(yīng)消息,看其是否滿足漏洞庫中該漏洞的特征。若滿足,則說明存在XSS漏洞,否則不存在。
XSS的測試效果很大程度上由測試腳本的質(zhì)量決定,本方案選擇的腳本為OWASP所推薦的測試腳本。
3 實驗結(jié)果及比較
3.1 網(wǎng)絡(luò)爬蟲模塊中URL去重算法測試
為了驗證本文技術(shù)方案的可行性,首先對URL去重算法進行了驗證,將M-Interval-Hash算法與MD5算法進行比較。實驗環(huán)境采用一臺計算機,CPU為Pentium E5300,內(nèi)存為2GB。軟件環(huán)境為Windows XP Professional版本 2002 Service Pack2和JDK 1.6,數(shù)據(jù)庫為MySQL 5.5.20。在M-Interval-Hash算法中,為了測試方便,我們?nèi)∨cM相關(guān)的經(jīng)驗參數(shù)N=8,將該算法和MD5算法比較。
4.2 XSS漏洞檢測測試
為測試本文技術(shù)的可行性,對一些網(wǎng)站進行了掃描,并和另外兩種基于爬蟲的檢測工具Acunetix WVS Free Edition 6.5和XSSer 1.5進行比較。第一個網(wǎng)站測試環(huán)境為Apache 2.2.14+PHP;第二個網(wǎng)站測試環(huán)境為IIS 6.0+ASP。
表1為上述兩種工具和本文技術(shù)掃描結(jié)果比較。
在表1中的第二個網(wǎng)站中存在Form表單,所以XSSer無法檢測出XSS漏洞。
本文技術(shù)、Acunetix WVS 8和XSSer 1.5對XSS漏洞掃描的時間比較見表2。
通過表1和表2的數(shù)據(jù)可看出本文XSS漏洞挖掘技術(shù)相對Acunetix WVS和XSSer兩種工具來說性能更佳。
4 結(jié)束語
對于Web攻擊中的大量XSS攻擊,本文提出了一種基于網(wǎng)絡(luò)爬蟲的XSS漏洞挖掘技術(shù),為了提高網(wǎng)絡(luò)爬蟲的性能,在網(wǎng)絡(luò)爬蟲模塊使用了M-Interval-Hash新算法,以實現(xiàn)URL去重,同時為了提高網(wǎng)頁抓取速度,采用了異步I/O完成端口模型,漏洞檢測模塊則使用特征庫匹配技術(shù)。通過實驗證明,XXS漏洞檢測效果較好,在郵箱XSS漏洞的挖掘、Web網(wǎng)站XSS漏洞的檢測等方面均有成功的應(yīng)用.
[參考文獻]
[1]許思遠,鄭滔.服務(wù)器-客戶端協(xié)作的跨站腳本攻擊防御方法[J].計算機工程,2011,37(18):154-156.
[2]趙艷.基于網(wǎng)絡(luò)爬蟲的跨站腳本漏洞動態(tài)檢測技術(shù)研究.西南交通大學碩士論文,2011.5.