王 程,周 杰,2,杜景林
(1.南京信息工程大學 電子與信息工程學院,江蘇 南京 210044;2.日本國立新瀉大學 工學部電氣電子工學科,新瀉 950-2181)
激勵機制對參與式感知有著重要的意義[1-4]。在有限的激勵預算下,任務(wù)發(fā)布者為了獲取特定時間特定區(qū)域的數(shù)據(jù)向中央服務(wù)器發(fā)出請求,移動用戶作為感知數(shù)據(jù)采集者將數(shù)據(jù)發(fā)送給中央服務(wù)器,激勵預算就會分配給被選中的移動用戶[5]。文獻[6]首次提出逆向拍賣激勵機制,主要思想:參與者收集感知數(shù)據(jù)并且將投標價格和數(shù)據(jù)一起發(fā)送到中央服務(wù)器,中央服務(wù)器會選擇最低的投標價格的數(shù)據(jù)。這種激勵機制是通過最大化收集數(shù)據(jù)的數(shù)量來提高感知結(jié)果的精度,但是忽略了數(shù)據(jù)在時間和空間上的分布,在激勵預算不足以獲取足夠的數(shù)據(jù)并且缺失的數(shù)據(jù)集中在某個區(qū)域中的時候,由于插值的原因,會導致數(shù)據(jù)重構(gòu)的結(jié)果不精確。GIA考慮了參與者的位置和感知覆蓋范圍,將GBMCA(greedy budgeted maximum coverage algorithm)和RADP-VPC(reverse auction dynamic pricing)相結(jié)合,增加參與者的人數(shù)并且激勵參與者移動來擴大感知覆蓋范圍[7-9]。文獻[10]提出了兩種系統(tǒng)模型:一種是以平臺為中心的模型,該模型為參與者提供了報酬共享的平臺;另一種是以用戶為中心的模型,用戶可以更好地控制他們收到的報酬。IEA[11]運用進化算法迭代優(yōu)化機制,在有限的預算約束下,以最大化感知覆蓋范圍為優(yōu)化目標,來選擇有效的參與者,并且提出虛擬報酬這一概念,激勵退出感知活動的參與者重新加入。然而,以上文獻都沒有考慮到數(shù)據(jù)的分布情況。針對以上問題,本文提出了一種激勵機制,該方法考慮了數(shù)據(jù)的時空分布,不是通過最大化感知數(shù)據(jù)的數(shù)量而是根據(jù)數(shù)據(jù)的分布情況,將激勵預算分配給提供最有效數(shù)據(jù)的區(qū)域來最小化感知結(jié)果的平均誤差。在對平均誤差、數(shù)據(jù)數(shù)量和分布之間的關(guān)系進行研究后,發(fā)現(xiàn)較大數(shù)量和更加均勻分布的數(shù)據(jù)可以提高感知結(jié)果的精度。本文將激勵分配作為優(yōu)化問題,通過貪婪算法對其進行優(yōu)化。
由于激勵預算是有限的,收集到的感知數(shù)據(jù)是不可能覆蓋整個目標區(qū)域的,因此文獻[12]使用數(shù)據(jù)插值的方法來對缺失的數(shù)據(jù)進行重構(gòu)。文章指出,在參與感知系統(tǒng)中,測量的密度是不均勻的,所以需要激勵參與者在目標區(qū)域收集數(shù)據(jù),并且需要控制每塊區(qū)域的測量密度。
由文獻[12]可知,當子區(qū)域的分配足夠細致的話,每個子區(qū)域中的一個樣本就可以為感知任務(wù)提供足夠的數(shù)據(jù)精度。根據(jù)任務(wù)發(fā)布者的環(huán)境數(shù)據(jù)需求,將感知任務(wù)的整個區(qū)域和持續(xù)時間劃分在子區(qū)域集合R={r=1,2,3,…,n}中。在每個子區(qū)域中,只需要目標環(huán)境參數(shù)的一個樣本。
圖1 參與感知過程
在目標區(qū)域內(nèi),Z(ri)是變量Z(r)在點ri(i=1,2,3,…,n)處的屬性值。未知點變量Z*(r)是根據(jù)n個已知的變量值加權(quán)求和后得到的,即
(1)
其中,λi是第i個位置處的測量值得未知權(quán)重,表示各空間樣本點觀測值對估計值的貢獻程度。權(quán)重λi取決于測量點、預測位置的距離和周圍f測量值之間關(guān)系的擬合模型。選取λi需要滿足無偏性和估計方差最小這兩個條件。根據(jù)方程組(2)來求解權(quán)重系數(shù)λi
(2)
其中,r和ri表示的是未知點和第i個樣本的位置。μ是拉格朗日常數(shù)。γ(ri,rj)表示變量Z(r)在ri和rj兩點之差的方差的一半,可由式(3)得到
(3)
通過求解克里金方程組可以得到權(quán)重系數(shù)λi,然后再由式(1)得出估計值。
本文用ε來表示感知結(jié)果的平均誤差和所有子區(qū)域R真值的比,誤差主要積累在無數(shù)據(jù)樣本的子區(qū)域中,有
(4)
根據(jù)式(4),可以發(fā)現(xiàn)平均誤差是與有數(shù)據(jù)樣本的區(qū)域有關(guān)的。
1.2.1 樣本數(shù)量
(5)
1.2.2 樣本分布
(2)不同區(qū)域的數(shù)據(jù)重要性隨著環(huán)境的改變而改變。例如,圖3(b)顯示了市區(qū)噪聲水平的讀數(shù)。噪聲水平在區(qū)域“A1”改變巨大,而區(qū)域“A2”相對于區(qū)域“A1”改變比較穩(wěn)定。如果大量數(shù)據(jù)是從區(qū)域“A1”收集來的,那么插值結(jié)果就會更加準確。顯然,更高的權(quán)重應該給環(huán)境變化劇烈的地區(qū),例如在圖3(b)的“A1”。
圖3 樣本數(shù)據(jù)在區(qū)域中的分布權(quán)重
將整塊區(qū)域分成區(qū)域集合A={a=1,2,…,n}。用Xa,?a∈A來表示落在每個區(qū)域中的樣本集。樣本落在每個區(qū)域的概率
(6)
除此之外,不同區(qū)域的數(shù)據(jù)的重要性是由環(huán)境數(shù)據(jù)改變的程度決定的。當數(shù)據(jù)改變穩(wěn)定的話,那么只需要較少的數(shù)據(jù)樣本就可以獲得準確的感知結(jié)果。因此,每個區(qū)域的權(quán)重可由區(qū)域中的數(shù)據(jù)讀數(shù)的標準偏差得到
(7)
(8)
(9)
考慮到本文中的優(yōu)化問題是和樣本數(shù)量和分布相關(guān)的,那么可以將式(4)中的平均誤差作為目標函數(shù)。根據(jù)式(9)
(10)
(11)
步驟1 初始化,賦初值
將所有區(qū)域分成兩個子集——選中的集S1和未被選中的集S2。在步驟1先把所有的區(qū)域放進S2中,S1為空集。
步驟2 每次迭代過程中區(qū)域的選擇
如果S2中的區(qū)域r被選中,那么就從S2移動到S1,形成一個新集S1,那么式(11)目標函數(shù)的變化為
(12)
ir是區(qū)域r中最低的激勵需求。式(11)目標函數(shù)每單位激勵的變化為
(13)
每次迭代過程中,選擇提供最有效數(shù)據(jù)的區(qū)域r,那么區(qū)域r就從S2移動到S1。將激勵ir分配到選中的區(qū)域r,最低激勵需求的參與者將數(shù)據(jù)發(fā)送到中央服務(wù)器后獲得報酬。
步驟3 循環(huán)
耗盡激勵預算B或者所有區(qū)域已被選中,則終止算法,否則一直重復步驟2。
本文將從固定的無線傳感器網(wǎng)絡(luò)收集的環(huán)境感知數(shù)據(jù)作為真值,并且利用從公園收集的軌道數(shù)據(jù)[15]來模擬參與者的移動軌道,這個軌道數(shù)據(jù)集包含了41個參與者在特定一天中的移動軌道。下面本文采取以下步驟來設(shè)置實驗:
(1)設(shè)置區(qū)域R和激勵需求ir:本文將矩形感知區(qū)域分成4×4的區(qū)域,將持續(xù)時間分成24個時間點,因此|R|=16×24=384。把41個參與者的移動軌道放入這個感知區(qū)域,每個參與者的激勵需求在[1,20]中隨機生成,通過參與者的軌道和激勵需求來計算ir,?r∈R。
圖4 仿真結(jié)果
ε=0.3777-0.0642α-0.1247β
(14)
通過這個表達式,可以發(fā)現(xiàn)樣本分布要比樣本數(shù)量對平均誤差的影響更大。圖4(b)表示根據(jù)式(14)得出的預測誤差。真實誤差和根據(jù)40 000個樣本集得出的預測誤差之間只有0.021的差距,這個差距是非常小的,在接受范圍之內(nèi)。
本文將12月8號收集的溫度數(shù)據(jù)作為真值,將本文方法與逆向拍賣機制和IEA的性能進行比較。圖4(a)和圖4(b)表示隨著激勵需求B的變化,這兩種方法在所選區(qū)域中的平均誤差和樣本數(shù)量。
從圖4(c)可以看出,當預算不夠時,本文方法的平均誤差與逆向拍賣機制和IEA的差距越來越大。當預算在20的時候,逆向拍賣的誤差是0.248,IEA的誤差是0.22,而本文方法的誤差只有0.193(比逆向拍賣機制少了22%,比IEA少了13%),這是因為本文方法在數(shù)據(jù)分布均勻的區(qū)域給了更高的激勵來收集數(shù)據(jù)。
從圖4(d)可以看出,本文方法所需要的區(qū)域比逆向拍賣機制和IEA都要的少,給足夠的預算,3種方法的數(shù)據(jù)精度是差不多的。本文方法所需要的數(shù)據(jù)樣本比逆向拍賣機制的少42%,比IEA少26%,減少了移動設(shè)備的能量消耗,為每個參與者增加了72%的激勵,這樣可以鼓勵移動用戶提供高質(zhì)量的數(shù)據(jù)。
本文提出的在預算約束條件下的參與感知激勵機制可以達到更高的數(shù)據(jù)精度。與現(xiàn)有的激勵機制不同,本文方法不僅考慮了樣本的數(shù)量還考慮了樣本的分布。本文研究并用公式表示平均誤差,樣本數(shù)量和樣本分布之間的關(guān)系。將平均誤差最小化問題轉(zhuǎn)化為每塊區(qū)域的激勵分配優(yōu)化問題,提出了一個貪婪激勵分配算法來解決優(yōu)化問題。大量真實數(shù)據(jù)集的模擬驗證了該機制的有效性。與現(xiàn)有的逆向拍賣機制和IEA進行仿真結(jié)果對比,驗證了本文的激勵分配機制可以增加感知數(shù)據(jù)的精度,提高參與者的利益。
[1]CHENLongbiao,LIShijian,PANGang.Smartphone:Pervasivesensingandapplications[J].ChineseJournalofComputers,2015,38(2):423-438(inChinese).[陳龍彪,李石堅,潘綱.智能手機:普適感知與應用[J].計算機學報,2015,38(2):423-438.]
[2]RugeL,AltakrouriB,SchraderA.Soundofthecity-conti-nuousnoisemonitoringforahealthycity[C]//InternationalWorkshoponSmartEnvironmentsandAmbientIntelligence.IEEE,2013:670-675.
[3]DevarakondaS,SevusuP,LiuH,etal.Real-timeairqualitymonitoringthroughmobilesensinginmetropolitanareas[C]//TheACMSIGKDDInternationalWorkshoponUrbanComputing.ACM,2013:1-8.
[4]WANGHao.Resarchonincentivetechnologyinparticipatorysensingnetwork[D].Harbin:HarbinEngineeringUniversity,2014:13-14(inChinese).[王浩.參與感知網(wǎng)絡(luò)激勵技術(shù)研究[D].哈爾濱:哈爾濱工程大學,2014:13-14.]
[5]ZHAOLuming.Theresearchandimplementofincentivemecha-nismbasedonparticipatorysensing[D].Beijing:BeijingUniversityofPostsandTelecommunication,2015:7-8(inChinese).[趙露名.基于參與式感知的激勵機制的研究與實現(xiàn)[D].北京:北京郵電大學,2015:7-8.]
[6]LeeJS,HohB.Sellyourexperiences:Amarketmechanismbasedincentiveforparticipatorysensing[C]//IEEEInternationalConferenceonPervasiveComputingandCommunications.IEEE,2010:60-68.
[7]JaimesLG,Vergara-LaurensI,LabradorM.Alocation-basedincentivemechanismforparticipatorysensingsystemswithbudgetconstraints[J].Dissertations&Theses-Gradworks,2012,25(3):103-108.
[8]JaimesLG,Vergara-LaurensI,ChakeriA.SPREAD,acrowdsensingincentivemechanismtoacquirebetterrepresentativesamples[C]//IEEEInternationalConferenceonPervasiveComputingandCommunicationWorkshops.IEEE,2014:92-97.
[9]JaimesLG,Vergara-LaurensI,RaijA.Acrowdsensingincentivealgorithmfordatacollectionforconsecutivetimeslotproblems[C]//Communications.IEEE,2014:1-5.
[10]YangD,XueG,FangX,etal.Crowdsourcingtosmartphones:Incentivemechanismdesignformobilephonesensing[C]//InternationalConferenceonMobileComputingandNetworking.ACM,2012:173-184.
[11]Kumrai T,Ota K,Dong M,et al.An incentive-based evolutionary algorithm for participatory sensing[C]//Global Communications Conference.IEEE,2014:5021-5025.
[12]Mendez D,Labrador M,Ramachandran K.Data interpolation for participatory sensing systems[J].Pervasive & Mobile Computing,2013,9(1):132-148.
[13]WANG Ting.Research on 3D interpolation approaches based on Kriging with anisotropic spatial structures[D].Nanjing:Nanjing Normal University,2013:1-65(in Chinese).[王亭.顧及各向異性的三維Kriging空間插值方法研究[D].南京:南京師范大學,2013:1-65.]
[14]Ji HY,Ohm SY,Min GC.Brightness preservation and image enhancement based on maximum entropy distribution[M]//Convergence and Hybrid Information Technology,2012:365-372.
[15]Solmaz G,Akbas MI,Turgut D.Modeling visitor movement in theme parks[C]//IEEE,Conference on Local Computer Networks.IEEE Computer Society,2012:36-43.