羅 熹 安瑩 王建新 劉耀(中南大學(xué)信息科學(xué)與工程學(xué)院長沙410083)(中南大學(xué)信息安全與大數(shù)據(jù)研究院長沙410083)(湖南警察學(xué)院信息技術(shù)系長沙410138)(湖南商學(xué)院計算機與信息工程學(xué)院長沙410205)
?
論文
內(nèi)容中心網(wǎng)絡(luò)中能效感知的概率性緩存機制
羅熹①③安瑩*②王建新①劉耀④①
①(中南大學(xué)信息科學(xué)與工程學(xué)院長沙410083)
②(中南大學(xué)信息安全與大數(shù)據(jù)研究院長沙410083)
③(湖南警察學(xué)院信息技術(shù)系長沙410138)
④(湖南商學(xué)院計算機與信息工程學(xué)院長沙410205)
內(nèi)置緩存技術(shù)是內(nèi)容中心網(wǎng)絡(luò)(Content Centric Networking,CCN)的核心技術(shù)之一?,F(xiàn)有的研究大多主要針對網(wǎng)絡(luò)資源利用率的優(yōu)化,而忽略了網(wǎng)絡(luò)能耗的問題。該文首先建立了一個能耗模型對CCN的網(wǎng)絡(luò)能耗進行分析,并設(shè)計了一個能效判決條件來優(yōu)化緩存過程的能效性。進而,在此基礎(chǔ)上綜合考慮內(nèi)容流行度和節(jié)點中心性等因素提出一種能效感知的概率性緩存機制(E2APC)。仿真結(jié)果表明,該機制能在保證較高的緩存命中率和較小的平均響應(yīng)跳數(shù)的同時有效地降低網(wǎng)絡(luò)的整體能耗。
內(nèi)容中心網(wǎng)絡(luò);能效性;內(nèi)置緩存;概率性緩存
近年來,研究人員已經(jīng)對CCN的緩存機制開展了大量的工作。如文獻[3]提出了一種基于內(nèi)容年齡的協(xié)作緩存機制,通過為流行度高且位于網(wǎng)絡(luò)邊緣的內(nèi)容設(shè)置更長的年齡來減小內(nèi)容獲取延遲和網(wǎng)絡(luò)流量。但是該文假設(shè)網(wǎng)絡(luò)拓撲和內(nèi)容的流行度是已知的,而實際上這兩種信息的獲知并不容易。文獻[4]在同質(zhì)化緩存分配的基礎(chǔ)上,提出一種基于替換率的緩存空間動態(tài)借調(diào)機制。該機制根據(jù)節(jié)點對緩存資源的需求程度,動態(tài)地將空余緩存分配給需求更大的節(jié)點,從而有效地提升網(wǎng)絡(luò)的緩存性能。文獻[5]綜合考慮了路徑上各節(jié)點的緩存容量以及內(nèi)容的流行度來實現(xiàn)選擇性的內(nèi)容緩存,從而有效地實現(xiàn)緩存負載的合理均勻分布,緩解短期用戶突發(fā)性訪問對網(wǎng)絡(luò)性能的負面影響。文獻[6]則提出了一種分布式的協(xié)作緩存機制,該機制中每個節(jié)點將緩存空間劃分為兩部分以實現(xiàn)對不同流行度內(nèi)容的區(qū)分處理,同時結(jié)合內(nèi)容的訪問頻率和緩存副本數(shù)量來進行緩存決策。此外,文獻[7]認為社會關(guān)系更廣泛的節(jié)點在網(wǎng)絡(luò)中更具影響力,其發(fā)布的內(nèi)容被其他用戶關(guān)注的可能性更大。因此,他們根據(jù)網(wǎng)絡(luò)節(jié)點的社會關(guān)系提出一種社會感知的緩存策略,將影響力較大的節(jié)點生成的內(nèi)容預(yù)先復(fù)制到與其社會鄰居的最短路徑上,從而加快用戶響應(yīng)速度并減少用戶請求的數(shù)量。其他如文獻[8-10],均從網(wǎng)絡(luò)用戶社會屬性的角度來設(shè)計和優(yōu)化CCN的緩存策略。
然而,現(xiàn)有的研究工作大多圍繞優(yōu)化網(wǎng)絡(luò)資源利用率來設(shè)計CCN的緩存決策和替換策略,而對網(wǎng)絡(luò)能效方面的關(guān)注還十分有限。據(jù)有關(guān)報告顯示,當(dāng)前Internet產(chǎn)生的能耗占世界總能耗的10%,同時這一比例仍在持續(xù)、快速地增長[11]。因此,網(wǎng)絡(luò)的能耗成為了CCN緩存機制研究中一個不容忽視的重要問題。文獻[12]從能耗的角度分析了不同緩存策略對CCN性能的影響,并對相關(guān)的一些開放性問題進行了討論。文獻[13]綜合考慮了內(nèi)容流行度隨時間和空間變化的動態(tài)性以及網(wǎng)絡(luò)資源的異質(zhì)性,首先提出了一種基于整數(shù)線性規(guī)劃的離線緩存放置策略,利用用戶請求和網(wǎng)絡(luò)資源的全局知識獲得最大的效率收益;在此基礎(chǔ)上又提出了一種在線分布式算法,網(wǎng)絡(luò)節(jié)點根據(jù)可用的本地信息實現(xiàn)對全局能效的估計并做出相應(yīng)的緩存決策。文獻[14]將CCN緩存能效的最優(yōu)化轉(zhuǎn)化為一個最小化平均用戶響應(yīng)跳數(shù)的問題,并據(jù)此提出了一種基于時效流行度的能效緩存機制APC。文獻[15]將CCN的緩存內(nèi)容的放置問題形式化為一種非合作博弈,提出了一種基于能效的分布式緩存機制,各網(wǎng)絡(luò)節(jié)點結(jié)合緩存能耗和傳輸能耗自主地作出內(nèi)容的緩存決策。這些研究工作主要從降低內(nèi)容緩存和獲取過程中能耗的角度出發(fā)來實現(xiàn)CCN網(wǎng)絡(luò)能效的優(yōu)化,但是對節(jié)點和內(nèi)容本身特性對內(nèi)容獲取延遲、緩存命中率以及資源利用率等網(wǎng)絡(luò)性能的影響缺乏足夠的考慮。
對于CCN的緩存決策來說,內(nèi)容的緩存位置越靠近用戶端,內(nèi)容的獲取延遲將越??;而另一方面,將內(nèi)容緩存在更接近內(nèi)容服務(wù)器的高層節(jié)點,產(chǎn)生的內(nèi)容副本數(shù)量更少,則緩存能耗相應(yīng)更小。因此,權(quán)衡緩存性能和網(wǎng)絡(luò)能耗兩方面的因素來設(shè)計CCN的緩存機制就顯得尤為必要。本文提出一種新的分布式緩存機制(E2APC),綜合了能效、內(nèi)容流行度以及節(jié)點重要性等多種因素實現(xiàn)內(nèi)容的緩存決策,在保證較小的能耗的同時獲得較大網(wǎng)絡(luò)性能增益,達到網(wǎng)絡(luò)能效性與緩存服務(wù)質(zhì)量之間的合理平衡。與現(xiàn)有的研究工作相比,本文的主要貢獻如下:
(1)針對CCN內(nèi)容獲取過程的能效問題進行了建模分析,并設(shè)計了一個能效判決條件來降低網(wǎng)絡(luò)的整體能耗。
(2)提出了一種能效感知的概率性緩存機制,在滿足能效判決條件的前提下,利用用戶請求的到達頻率和新近性估計內(nèi)容的流行度,并結(jié)合節(jié)點本身的介數(shù)中心性實現(xiàn)內(nèi)容副本的概率性緩存,從而達到網(wǎng)絡(luò)能效性和緩存性能的有效均衡。
2.1網(wǎng)絡(luò)模型
2.2能耗模型
下面我們來對CCN網(wǎng)絡(luò)的能耗進行建模分析。CCN網(wǎng)絡(luò)的能耗主要來自對內(nèi)容的緩存和傳輸,因此,CCN網(wǎng)絡(luò)的總能耗Etot也主要包括兩部分:緩存能耗Ec以及傳輸能耗Et,即對于任意路由節(jié)點vi以及內(nèi)容對象Ok,令sk表示內(nèi)容Ok的大小,表示觀察時間t內(nèi)節(jié)點vi處收到的關(guān)于Ok的請求次數(shù)。同時我們定義為路由節(jié)點緩存內(nèi)容的功率密度(即緩存單位比特數(shù)據(jù)所消耗的能量),rω表示每個路由節(jié)點的功率密度,1ω表示每條鏈路的功率密度。利用文獻[14]中的能耗模型,節(jié)點vi緩存內(nèi)容Ok的緩存能耗可表示為
對于任意請求用戶節(jié)點vj,令hij表示節(jié)點vi到vj的距離(跳數(shù)),則內(nèi)容Ok從節(jié)點vi返回到vj的傳輸能耗可表示為
因此,節(jié)點vi緩存和傳輸內(nèi)容Ok的總能耗為
通常,由于緩存機制的作用,用戶請求大多通過中間緩存節(jié)點提供響應(yīng),而對OCS的直接訪問頻率相對較低,因此,為了簡化分析過程,這里我們不考慮OCS上的能耗。那么,用戶vj直接從OCS獲取內(nèi)容Ok的總能耗totE′則由內(nèi)容返回路徑上鏈路和各中間節(jié)點的傳輸能耗構(gòu)成。若內(nèi)容Ok的OCS與其請求用戶節(jié)點vj的距離為hsj,則可表示為
CCN內(nèi)置緩存技術(shù)的目的是利用網(wǎng)絡(luò)中間節(jié)點的緩存能力來加快對未來潛在用戶訪問的響應(yīng)速度,提升整體的網(wǎng)絡(luò)性能。這不可避免地導(dǎo)致了緩存空間需求和緩存能耗的增加。因此,在設(shè)計緩存機制時,應(yīng)該將二者結(jié)合起來實現(xiàn)網(wǎng)絡(luò)性能和緩存能效的有效均衡。E2APC機制主要包括兩部分:一方面利用上面的能耗模型確定內(nèi)容緩存決策的能耗判決條件,優(yōu)化內(nèi)容緩存過程的能效性;另一方面,通過內(nèi)容的流行度以及節(jié)點的中心性實現(xiàn)緩存節(jié)點的概率性選擇,進一步來保證網(wǎng)絡(luò)系統(tǒng)的緩存性能。下面具體介紹E2APC機制的基本原理。
3.1能效判決條件
CCN通過內(nèi)容緩存實際上是縮短了今后用戶到內(nèi)容對象的訪問距離。從能耗的角度上看,是以緩存資源和能量消耗為代價降低未來用戶獲取內(nèi)容所需的傳輸能耗和響應(yīng)延遲。若要使得某個中間節(jié)點vi對內(nèi)容Ok的緩存達到降低內(nèi)容獲取總能耗的目的,就要求若vi成為新的緩存節(jié)點,那么未來用戶從vi獲取內(nèi)容的傳輸能耗與存儲內(nèi)容的緩存能耗之和totE應(yīng)小于用戶直接從OCS獲取內(nèi)容的總能耗根據(jù)2.2節(jié)中的能耗模型,有
化簡后可以得到:
根據(jù)各變量的物理意義,不等式(6)的左邊即為節(jié)點vi處收到的關(guān)于Ok的請求頻率,可用表示;而不等式右邊,hsj-hij即為內(nèi)容服務(wù)器與中間節(jié)點vi的距離,用hsi表示。ωc, ωr和ω1均是與硬件有關(guān)的常量參數(shù)。文中我們僅考慮緩存設(shè)備為DRAM,傳輸鏈路采用波分多路復(fù)用時的情況,其取值參照文獻[14]如表1所示。這樣,不等式(6)可表示為
E2APC機制中,我們在每個內(nèi)容分組頭部增加一個跳數(shù)字段hops,當(dāng)用戶請求在某個節(jié)點發(fā)生命中時,該節(jié)點生成指定的內(nèi)容分組,并將其hops字段值置0。在該內(nèi)容分組沿著用戶請求的反向路徑傳播的過程中,其hops字段值逐跳加1。這樣,節(jié)點可以從收到的內(nèi)容分組中讀取hops的值從而得到該內(nèi)容的響應(yīng)服務(wù)器到當(dāng)前節(jié)點的距離。因此,我們將式(7)作為能耗判定條件,在進行緩存決策時,節(jié)點統(tǒng)計當(dāng)前指定內(nèi)容的請求頻率以及自己與內(nèi)容源節(jié)點間的距離,若不滿足條件,則不對內(nèi)容進行緩存。
3.2概率性內(nèi)容緩存
如果上節(jié)的能耗判定條件成立,則表示當(dāng)前節(jié)點作為內(nèi)容的緩存節(jié)點將能降低下次獲取該內(nèi)容的總能耗。那么,我們再進一步結(jié)合節(jié)點和內(nèi)容相關(guān)的屬性實現(xiàn)內(nèi)容的概率性緩存。
從內(nèi)容的角度考慮,內(nèi)容的流行度越高表示對其感興趣的用戶越多,下次被訪問的可能性越大。因此,緩存決策時,節(jié)點應(yīng)選擇流行度更高的內(nèi)容進行緩存。在已有的相關(guān)研究工作中,大多假設(shè)內(nèi)容的流行度為一個預(yù)先確定的屬性,然而,實際上用戶對內(nèi)容的感興趣程度是隨時間變化的,而這種變化也導(dǎo)致內(nèi)容的流行度出現(xiàn)相應(yīng)的變化。因此,在E2APC機制中,我們采用了文獻[16]中的方法,每個節(jié)點利用內(nèi)容請求在本地的到達頻率和新近性來估計各內(nèi)容的流行度,具體估算方法如式(8):
這里,Pk表示內(nèi)容Ok在當(dāng)前節(jié)點的流行度估計值。表示當(dāng)前時間,tj表示在過去的時間里Ok的第j個請求的到達時間。λ為調(diào)節(jié)參數(shù)且滿足用于權(quán)衡內(nèi)容的訪問頻次和新近性。根據(jù)文獻[16]中的分析結(jié)果,本文中λ的值取為e-4。內(nèi)容在當(dāng)前節(jié)點處的流行度估值越高,則其被節(jié)點緩存的概率越大。
從節(jié)點本身的角度來看,網(wǎng)絡(luò)中中心性較高的節(jié)點通常具有更強的連接其他節(jié)點的能力,它們收到來自不同節(jié)點請求的機會更多。將內(nèi)容緩存在高中心性節(jié)點上,發(fā)生緩存命中的概率將會更高,同時響應(yīng)速度也更快。因此,我們選擇自我中心網(wǎng)絡(luò)(ego network)的介數(shù)中心性作為概率性緩存決策的另一依據(jù)。介數(shù)中心性越大的節(jié)點,成為內(nèi)容的緩存節(jié)點的概率也就越大。于是,當(dāng)內(nèi)容Ok到達節(jié)點vi時,我們再根據(jù)vi估算的Ok的流行度Pk以及vi的介數(shù)中心性值確定vi緩存Oi的概率pc(k),計算方法如式(9),
其中,θ為權(quán)重系數(shù),用來調(diào)節(jié)內(nèi)容流行度和節(jié)點介數(shù)中心性對緩存概率的影響程度。本文中,θ取值為0.5。Pmax表示節(jié)點vk上緩存內(nèi)容的流行度最大值。Bi表示節(jié)點vi的介數(shù)中心性值,Bmax則表示內(nèi)容Ok返回路徑上節(jié)點的最大介數(shù)中心性值。由于CCN中,內(nèi)容分組是通過其請求分組的反向傳播路徑返回用戶端的。因此,我們記錄內(nèi)容請求分組傳輸路徑上節(jié)點的最大介數(shù)值,當(dāng)發(fā)生緩存命中時,命中節(jié)點再將該介數(shù)最大值寫入相應(yīng)的內(nèi)容分組。這樣,內(nèi)容返回路徑上的各個節(jié)點即可從收到的內(nèi)容分組中得到相應(yīng)的Bmax值。
3.3算法描述
E2APC算法的執(zhí)行過程簡單描述如下。
步驟1若內(nèi)容Ok到達節(jié)點vi,vi首先從Ok的內(nèi)容分組中讀取內(nèi)容服務(wù)器到當(dāng)前位置的跳數(shù)hsi以及Bmax值;
步驟2若vi統(tǒng)計的Ok的請求到達頻率滿足如式(7)所示的能耗判決條件則繼續(xù)執(zhí)行步驟3;否則,vi不對Ok進行緩存,直接轉(zhuǎn)發(fā)到下一跳;
步驟3 vi根據(jù)公式(9)以概率pc(k)緩存內(nèi)容Ok;
步驟4若vi成為Ok新的緩存節(jié)點,則復(fù)制一份內(nèi)容Ok的副本緩存在vi上,并將其跳數(shù)字段hops以及最大介數(shù)值清零;同時,將接收到的Ok原始內(nèi)容分組中的跳數(shù)字段重置為0(記錄的最大介數(shù)值不變),然后繼續(xù)向下一跳節(jié)點轉(zhuǎn)發(fā)。
本文選擇了處處緩存的LCE[2]以及基于時效流行度的能效緩存機制APC[14]作為E2APC的比較對象,并利用ndnSIM[17]模擬器對算法進行仿真和性能分析。實驗中,我們采用GT-ITM下的Transit-Stub模型構(gòu)建了一個由210個路由節(jié)點構(gòu)成的網(wǎng)絡(luò),其中包含第1層Transit域9個,每個第1層Transit域又連接2個第2層Transit域,每個第2層Transit域連接2個Stub域。每個域(Transit域或Stub域)均包含10個節(jié)點,仿真拓撲示意圖如圖1所示。同時,我們假設(shè)用戶請求的到達過程服從λ=50的泊松分布,用戶的訪問模式服從參數(shù)為α的Zip f分布。各路由節(jié)點緩存容量相同,且初始狀態(tài)下節(jié)點緩存為空。內(nèi)容大小均為1MB,請求分組采用洪泛方式進行轉(zhuǎn)發(fā),默認緩存替換策略為LRU,其他的主要實驗參數(shù)如表1所示。
圖1 仿真實驗網(wǎng)絡(luò)拓撲示意圖
表1 實驗參數(shù)設(shè)置
仿真過程中,我們通過分別改變節(jié)點緩存容量、網(wǎng)絡(luò)中的內(nèi)容個數(shù)以及Zipf參數(shù)α等網(wǎng)絡(luò)參數(shù)的大小,來觀察不同參數(shù)對網(wǎng)絡(luò)性能的影響。本文采用的主要性能指標(biāo)包括:
(1)緩存命中率:用戶請求由緩存而非原始內(nèi)容服務(wù)器響應(yīng)的概率。
(2)平均響應(yīng)跳數(shù):內(nèi)容響應(yīng)分組從原始內(nèi)容服務(wù)器或內(nèi)容緩存節(jié)點返回用戶請求節(jié)點所需的平均跳數(shù)。
(3)節(jié)能率:某種內(nèi)置緩存機制的節(jié)能率定義為:與無內(nèi)容緩存機制下的網(wǎng)絡(luò)總能耗相比,采用該緩存機制節(jié)省的能耗所占的比例。
4.1緩存大小的影響
本節(jié)首先研究不同緩存機制下節(jié)點緩存大小變化對主要網(wǎng)絡(luò)性能的影響。圖2(a)反映了緩存命中率隨緩存大小變化的情況。由于緩存空間的增長,節(jié)點能夠緩存的內(nèi)容數(shù)量增加,同時緩存替換頻率降低,因此,3種緩存機制的緩存命中率均隨著節(jié)點緩存空間的增大而逐漸提升。其中,由于LCE缺乏對緩存內(nèi)容以及緩存位置的合理選擇,因此緩存命中率最低。而E2APC綜合考慮了內(nèi)容以及節(jié)點相關(guān)的多種關(guān)鍵因素,使得節(jié)點的緩存決策更加合理,從而獲得了三者中最高的緩存命中率。在節(jié)點緩存為5 MB時,E2APC的緩存命中率仍然到達了22.4%,相比LCE(3.4%)和APC(13.5%)分別高出了約558.82%和65.93%。
圖2(b)給出了平均響應(yīng)跳數(shù)隨節(jié)點緩存變化的情況。由圖易見,隨著緩存空間的增大,通過緩存節(jié)點響應(yīng)用戶請求的機會增多,大大縮短了用戶獲取內(nèi)容的跳數(shù)距離,因此,圖中3種緩存機制的平均響應(yīng)跳數(shù)均隨節(jié)點緩存的增加而出現(xiàn)下降趨勢。其中,APC對內(nèi)容流行度及其時效性的考慮,提高了緩存決策過程的有效性,顯著地降低了內(nèi)容獲取的平均跳數(shù)。因此,APC的平均響應(yīng)跳數(shù)明顯低于LCE。以節(jié)點緩存為100MB時為例,其平均響應(yīng)跳數(shù)為7.42,比LCE(9.69)低了近23.4%。E2APC在緩存決策過程中,利用能效判決條件將內(nèi)容的緩存位置限制在靠近用戶節(jié)點的一側(cè),同時結(jié)合內(nèi)容流行度和節(jié)點中心性實現(xiàn)了內(nèi)容的概率性緩存,使緩存副本不斷趨近用戶端,因此獲得了三者中最低的平均響應(yīng)跳數(shù)。在節(jié)點緩存從5MB增加到1000MB的過程中,其平均響應(yīng)跳數(shù)較之APC平均降低了近14.54%。
最后,與不進行內(nèi)容緩存相比,3種緩存機制的節(jié)能率隨節(jié)點緩存的變化如圖2(c)所示。隨著節(jié)點緩存的增加,用戶請求通過距離更近的緩存節(jié)點得到響應(yīng)的機會大大增加,這導(dǎo)致查找和返回請求內(nèi)容所需的能耗明顯降低。因此,3種緩存機制的節(jié)能率均隨著緩存大小的增加而逐漸增大。其中,LCE由于對經(jīng)過節(jié)點的每個內(nèi)容都進行緩存,過多的冗余緩存和內(nèi)容替換必然導(dǎo)致額外的能量開銷,因此節(jié)能率最低。而E2APC通過能效判決條件降低了內(nèi)容訪問的總能耗,優(yōu)化了緩存決策過程的能效性,因此獲得了三者中最高的節(jié)能率。如圖所示,在緩存大小為1000 MB時,E2APC的節(jié)能率達到了62.3%,相比APC(55.6%)和LCE(30.1%)分別提高了約12.1%和107.0%。
4.2內(nèi)容數(shù)量的影響
接下來,分析內(nèi)容數(shù)量對不同緩存機制主要性能的影響。在節(jié)點緩存一定的情況下,網(wǎng)絡(luò)中內(nèi)容對象的數(shù)量一定程度上就是網(wǎng)絡(luò)資源稀缺程度的反映。隨著內(nèi)容數(shù)量的增加,相對于內(nèi)容的緩存需求,節(jié)點的緩存能力越發(fā)的不足。這樣,緩存內(nèi)容的替換頻率相應(yīng)增加,內(nèi)容的緩存時間相對縮短,從而導(dǎo)致內(nèi)容緩存在減小后續(xù)用戶請求的響應(yīng)距離和整體能耗、提高緩存命中機會方面的作用逐漸減弱。因此,從圖3我們可以看到,在內(nèi)容數(shù)量從100個逐漸增加到5000個的過程中,3種緩存機制的節(jié)能率和緩存命中率曲線均出現(xiàn)明顯的下降,而平均響應(yīng)跳數(shù)則不斷增加。其中,E2APC和APC的各項性能均遠遠優(yōu)于LCE,這主要得益于它們對緩存內(nèi)容和緩存節(jié)點的合理選擇,避免了LCE相對激進的緩存策略所導(dǎo)致的緩存冗余和額外開銷過大的問題。而由于E2APC利用用戶請求的到達頻率和新近性對內(nèi)容流行度更準(zhǔn)確的估計,以及基于節(jié)點介數(shù)的緩存節(jié)點選擇,使其能夠有效地將用戶請求更頻繁的流行內(nèi)容緩存在合適的位置,因此,獲得了最高的緩存命中率和最小的平均響應(yīng)跳數(shù)。如圖3(a)和圖3(b)所示,在內(nèi)容數(shù)量為2000個的情況下,E2APC的緩存命中率達到57.8%,比APC(43.7%)高出近32.3%,而平均響應(yīng)跳數(shù)僅為6.54跳,比APC減少了約11.86%。再加上根據(jù)能耗模型對系統(tǒng)能效的優(yōu)化,E2APC使得系統(tǒng)的整體能耗大大降低,從圖3(c)的結(jié)果可以看出,其節(jié)能率明顯優(yōu)于其他兩種緩存機制。以2000個內(nèi)容時的情況為例,E2APC獲得了43.6%的節(jié)能率,比APC和LCE分別高出約25.3%和177.7%。
圖2 節(jié)點緩存對網(wǎng)絡(luò)性能的影響
圖3 內(nèi)容數(shù)量對網(wǎng)絡(luò)性能的影響
4.3用戶訪問模式的影響
目前,現(xiàn)有的研究普遍認為用戶對內(nèi)容的訪問存在一定的偏好性,并且這種偏好服從Zipf分布。在不同的網(wǎng)絡(luò)應(yīng)用中,用戶偏好的分布參數(shù)α是存在差異的。α值越大,則表示用戶對內(nèi)容的偏好越集中,反之亦然。因此,本節(jié)通過改變Zipf參數(shù)α的大小來比較3種緩存機制在不同網(wǎng)絡(luò)應(yīng)用環(huán)境下的性能表現(xiàn),結(jié)果如圖4所示。
當(dāng)α取值較小時,用戶對內(nèi)容的請求相對分散。在節(jié)點緩存有限的情況下,多樣化的內(nèi)容請求和內(nèi)容緩存導(dǎo)致頻繁的緩存替換更新。過短的緩存時間使得內(nèi)容緩存無法產(chǎn)生明顯的積極作用,因此,3種緩存機制的緩存命中率和節(jié)能率均較低,平均響應(yīng)跳數(shù)較高。隨著α值的增加,用戶請求的偏好越發(fā)集中于高流行度的內(nèi)容,流行資源在緩存中的駐留時間延長,響應(yīng)用戶請求的概率增大,因此,緩存命中率和節(jié)能率顯著提高而平均響應(yīng)跳數(shù)則逐步減小。如圖4(a)所示,由于E2APC和APC在緩存決策時均通過對內(nèi)容流行度的估計來保證流行內(nèi)容獲得優(yōu)先的緩存服務(wù),因此其緩存命中率遠遠高于LCE。以1α=時的情況為例,LCE的緩存命中率僅為43.2%,而APC則達到了57.6%,E2APC更是獲得了三者中最高的69.5%的緩存命中。此外,圖4(b)中E2APC的平均響應(yīng)跳數(shù)也明顯低于其他兩種緩存機制,1α=時其平均響應(yīng)跳數(shù)僅為5.43,而APC和LCE則分別達到6.37和8.21。得益于E2APC較高的緩存命中率和較小的平均響應(yīng)跳數(shù),其同樣獲得了三者中最佳的能耗性能。由圖4(c)可見,在1α=時,E2APC的節(jié)能率達到61.6%,比APC和LCE分別高出近21.0%和124.0%。
為了在保證CCN緩存性能的同時提高緩存系統(tǒng)的能效性,本文提出了一種能效感知的概率緩存機制E2APC。該機制通過對CCN網(wǎng)絡(luò)能耗的分析,設(shè)計了一個緩存能效判決條件來降低內(nèi)容緩存和獲取過程中的總能耗,同時,在此基礎(chǔ)上結(jié)合內(nèi)容流行度和節(jié)點重要性來進一步優(yōu)化緩存內(nèi)容和緩存節(jié)點的選擇。仿真結(jié)果表明,E2APC能有效地降低網(wǎng)絡(luò)能耗和平均響應(yīng)跳數(shù),并提升系統(tǒng)的緩存命中率。在后續(xù)的工作中,我們將考慮拓撲結(jié)構(gòu)、帶寬以及節(jié)點社會性等因素對緩存機制性能的影響,并嘗試將E2APC擴展到移動網(wǎng)絡(luò)環(huán)境以及其他類型的實際應(yīng)用場景以進一步驗證其有效性。
圖4 用戶訪問模式對網(wǎng)絡(luò)性能的影響
[1]XYLOMENOSG,VERVERIDISC N,SIRISV,et al.A survey of inform ation-centric networking research[J].IEEE Comm unications Surveys&Tutorials,2014,16(2):1024-1049. doi:10.1109/SURV.2013.070813.00063.
[2]JACOBSON V,SMETTERSD K,THORNTON J D,et al. Networking named content[J].Communications of the ACM,2012,55(1):117-124.doi:10.1145/1658939.1658941.
[3]M ING Z,XU M,and W ANG D.Age-based cooperative caching in information-centric network[C].Proceedings of the 23rd International Con ference on Com puter Communication and Networks(ICCCN),Shanghai,China,2014:1-8.doi: 10.1109/ICCCN.2014.6911725.
[4]葛國棟,郭云飛,蘭巨龍,等.CCN中基于替換率的緩存空間動態(tài)借調(diào)機制[J].通信學(xué)報,2015,36(5):120-129. doi:10.11959/j.issn.1000-436x.2015115.
GE G D,GUO Y F,LAN J L,et al.Dynam ic cache size transfer scheme based on replacement rate in content centric networking[J].Journal of Communications,2015,36(5): 120-129.doi:10.11959/j.issn.1000-436x.2015115.
[5]K IM D,LEE S W,KO Y B,et al.Cache capacity-aware content centric networking under flash crowds[J].Journal of Network and Computer Applications,2015,50:101-113.doi: 10.1016/j.jnca.2014.06.008.
[6]MAJD N E,M ISRA S,and TOURANI R.Split-Cache:A holistic caching framework for imp roved network perform ance in w ireless ad hoc networks[C].Proceedings of IEEE Global Communications Conference(GLOBECOM),Austin,TX,USA,2014:137-142.doi:10.1109/GLOCOM. 2014.7036797.
[7]BERNARDINI C,SILVERSTON T,and FESTOR O. Socially-aw are caching strategy for content centric networking[C].Proceed ings of the 2014 IFIP Networking Conference,Trondheim,Norway,2014:1-9.doi:10.1109/ IFIPNetworking.2014.6857093.
[8]ZHANG N,GUAN J,XU C,et al.A dynam ic social content caching under user mobility pattern[C].Proceedings of the 10th International W ireless Comm un ications and M ob ile Com puting Con ference(IWCMC),N icosia,Cyprus,2014: 1136-1141.doi:10.1109/IWCMC.2014.6906514.
[9]IQBAL J and GIACCONE P.Interest-based cooperative caching in mu lti-hop w ireless networks[C].Proceedings of IEEE Global Communications Conference(GLOBECOM),A tlanta,GA,USA,2013:617-622.doi:10.1109/ GLOCOMW.2013.6825056.
[10]葛國棟,郭云飛,劉彩霞,等.命名數(shù)據(jù)網(wǎng)絡(luò)中基于局部請求相似性的協(xié)作緩存路由機制[J].電子與信息學(xué)報,2015,37(2): 435-442.doi:10.11999/JEIT140246.
GE G D,GUO Y F,LIU C X,et al.Collaborative caching and routing scheme based on local request sim ilarity in nam ed data networking[J],Journal of Electronics& Inform ation Techno logy,2015,37(2):435-442.doi:10.11999/ JEIT140246.
[11]CHIARAVIGLIO L,MELLIA M,and NERI F.M inimizing ISP network energy cost:Formulation and solutions[J]. IEEE/ACM Transactions on Networking,2012,20(2): 463-476.doi:10.1109/TNET.2011.2161487.
[12]BRAUN T and TRINH T A.Energy E fficiency Issues in Information-centric Networking[M].Energy Efficiency in Large Scale Distributed System s.Berlin Heidelberg,Sp ringer,2013:271-278.doi:10.1007/978-3-642-40517-4_22.
[13]LLORCA J,TULINO A M,GUAN K,et al.Dynam ic in-network cach ing for energy efficient content delivery[C]. Proceedings of IEEE INFOCOM 2013.Tu rin,Italy,2013: 245-249.doi:10.1109/INFCOM.2013.6566772.
[14]LIJ,LIU B,and WU H.Energy-efficient in-network caching for content-centric networking[J].IEEE Communications Letters,2013,17(4):797-800.doi:10.1109/LCOMM.2013. 022213.122741.
[15]FANG C,YU F R,HUANG T,et al.An energy-efficient distributed in-network caching scheme for green content-centric networks[J].Computer Networks,2015,78: 119-129.doi:10.1016/j.comnet.2014.09.017.
[16]LE T,LU Y,and GERLA M.Social caching and content retrieval in D isruption Tolerant Networks(DTNs)[C]. Proceedings of the IEEE 2015 International Conference on Com puting,Networking and Communications(ICNC),Garden Grove,CA,USA,2015:905-910.doi:10.1109/ ICCNC.2015.7069467.
[17]MASTORAKIS S,AFANASYEV A,MOISEENKO I,et al. ndnSIM 2.0:A new version of the NDN simulator for NS-3[R]. Technical Report NDN-0028,2015.
羅熹:女,1980年生,博士生,研究方向為新型網(wǎng)絡(luò)體系結(jié)構(gòu)設(shè)計、內(nèi)容中心網(wǎng)絡(luò).
安瑩:男,1980年生,講師,博士后,研究方向為新型網(wǎng)絡(luò)體系結(jié)構(gòu)設(shè)計、內(nèi)容中心網(wǎng)絡(luò)、延遲容忍網(wǎng)絡(luò)等.
王建新:男,1969年生,教授,博士生導(dǎo)師,研究方向為網(wǎng)絡(luò)優(yōu)化理論、參數(shù)計算理論、生物信息學(xué)等.
劉耀:男,1976年生,講師,博士,研究方向為延遲容忍網(wǎng)絡(luò)、社會網(wǎng)絡(luò)等.
Energy-efficiency Aware Probabilistic Caching Scheme for Content-centric Networks
LUO X i①③AN Y ing②W ANG Jianxin①LIU Yao④
①(School of Information Science and Engineering,Central South University,Changsha 410083,China)
②(Institute of Information Security&Big Data,Central South University,Changsha 410083,China)
③(Department of Information Technology,Hunan Police Academy,Changsha 410138,China)
④(School ofComputer and Information Engineering,Hunan University ofCommerce,Changsha 410205,China)
In-network caching is one of the key technologies of Content-Centric Networking(CCN),which isw idely concerned recently.However,m ost existing works are targeted for op tim izing network resource utilization,and the energy consum p tion aspect is largely ignored.In this paper,first an energy consum p tion m odel for content distribution is built and a judging condition for energy efficiency optim ization in caching is designed.On this basis and in combination with content popularity and node centrality,an Energy-Efficiency Aware Probabilistic Caching(E2APC)scheme is p roposed.Simu lation results show that the proposed scheme can effectively reduce the whole energy consump tion,while guaranteeing com paratively high cache hit rate and few average response hops.
Content-Centric Networking(CCN);Energy efficiency;In-network caching;Probabilistic caching
互聯(lián)網(wǎng)技術(shù)高速發(fā)展的今天,新型網(wǎng)絡(luò)應(yīng)用層出不窮,信息服務(wù)的“內(nèi)容化”、“個性化”成為了當(dāng)前網(wǎng)絡(luò)發(fā)展的主要趨勢[1]。然而,傳統(tǒng)的基于主機的Internet體系架構(gòu)缺乏對面向內(nèi)容的分發(fā)獲取服務(wù)的原生支持,因此無法適應(yīng)網(wǎng)絡(luò)用戶日益增長的數(shù)據(jù)內(nèi)容訪問需求。近年來,內(nèi)容中心網(wǎng)絡(luò)(Content-Centric Networking)[2]架構(gòu)作為一種潛在的解決方案受到了國內(nèi)外相關(guān)學(xué)者的極大關(guān)注。它采用內(nèi)容數(shù)據(jù)的名稱來完成對內(nèi)容的標(biāo)識、路由以及獲取,從而實現(xiàn)了內(nèi)容和物理位置的解耦。同時,為了緩解網(wǎng)絡(luò)流量的快速增長對網(wǎng)絡(luò)帶寬造成的嚴(yán)峻壓力,CCN網(wǎng)絡(luò)架構(gòu)中普遍采用了泛在化的網(wǎng)絡(luò)內(nèi)置緩存技術(shù)。它要求每個網(wǎng)絡(luò)節(jié)點都具備緩存內(nèi)容的能力,從而覆蓋全網(wǎng)的緩存使得網(wǎng)絡(luò)作為內(nèi)容傳輸體的同時也成為了內(nèi)容的存儲體。然而,泛在緩存機制在提升了網(wǎng)絡(luò)的內(nèi)容分發(fā)獲取性能的同時,也可能產(chǎn)生過大的緩存冗余而導(dǎo)致網(wǎng)絡(luò)資源利用率和能效降低的問題。
s:The National Natural Science Foundation of China(61402541,61103204),The Scientific Research Fund of Hunan Provincial Education Departm ent(15B127)
TP393
A
1009-5896(2016)08-1843-07
10.11999/JEIT 151244
2015-11-05;改回日期:2016-04-13;網(wǎng)絡(luò)出版:2016-05-25
安瑩anying@csu.edu.cn
國家自然科學(xué)基金(61402541,61103204),湖南省教育廳科學(xué)研究項目(15B 127)