摘 要: 設(shè)計云計算平臺下的大數(shù)據(jù)分流系統(tǒng),實現(xiàn)優(yōu)化數(shù)據(jù)聚類和模式識別。傳統(tǒng)的云計算平臺下的大數(shù)據(jù)分流系統(tǒng)采用的是開源碼Linux嵌入式系統(tǒng)設(shè)計方法,分流系統(tǒng)通過耦合線圈連接到云計算平臺的交換機中,導(dǎo)致分流系統(tǒng)中的數(shù)據(jù)出現(xiàn)漏分和錯分。提出基于功能子程序動態(tài)加載和TinyOS優(yōu)先級調(diào)度的云計算平臺下大數(shù)據(jù)分流系統(tǒng)優(yōu)化設(shè)計方法。設(shè)計的云計算平臺下大數(shù)據(jù)分流模塊主要包括控制器模塊、電源管理模塊、數(shù)據(jù)存儲器模塊、傳輸通信模塊、以太網(wǎng)模塊和顯示模塊。采用TinyOS優(yōu)先級調(diào)度方法進行大數(shù)據(jù)信息流的特征采集和調(diào)度,得到大數(shù)據(jù)分流系統(tǒng)主控制器的芯片接口電路圖和串口通信電路圖。選用MBM29LV400BC作為片選和讀、寫信號的地址線,將大數(shù)據(jù)從12位的A/D結(jié)果轉(zhuǎn)換成16位,最后在Linux操作系統(tǒng)中采用功能子程序動態(tài)加載方法進行系統(tǒng)的軟件開發(fā),實現(xiàn)系統(tǒng)優(yōu)化設(shè)計。仿真結(jié)果表明,采用該系統(tǒng)能有效實現(xiàn)對云計算平臺中的大數(shù)據(jù)分流,準(zhǔn)確度高,性能優(yōu)越。
關(guān)鍵詞: 云計算; 大數(shù)據(jù)分流系統(tǒng); TinyOS; 優(yōu)先級調(diào)度
中圖分類號: TN915?34; TP391.9 文獻標(biāo)識碼: A 文章編號: 1004?373X(2016)02?0028?05
Design and optimization of large data streaming system based on
cloud computing platform
JIANG Mingyue
(Jilin Institute of Chemical Technology, Jilin 132022, China)
Abstract: The large data streaming system based on cloud computing platform is design to realize optimization of data clustering and pattern recognition. The optimization design method of big data streaming system with dynamic loading based on function subroutine and TinyOS priority scheduling is proposed, which is based on cloud computing platform. The designed big data streaming module based on cloud computing platform mainly includes controller module, power management module, data storage unit module, communication module, Ethernet module and display module. TinyOS priority scheduling method is used to collect the large data stream characteristics and dispatch the large data stream, so as to get chip interface circuit diagram and serial communication circuit diagram of big data streaming system’s master controller. MBM29LV400BC is chosen as the address line of the chip selection and read?write signals to convert the big data from 12?bit A/D result to 16?bit one. The function subroutine dynamic loading method is adopted in the Linux operating system to develop the system software and realize optimization design of the system. The simulation results show that this system can effectively realize the large data distribution with high accuracy and superior performance.
Key words: cloud computing; big data streaming system; TinyOS; priority scheduling
0 引 言
云計算是信息革命的重要產(chǎn)物,通過云計算和云存儲,實現(xiàn)對海量大數(shù)據(jù)的協(xié)同管理和調(diào)度,當(dāng)前云計算信息系統(tǒng)廣泛應(yīng)用在大數(shù)據(jù)信息資源調(diào)度和分配中。由于云計算采用的是分布式計算的方法,可以通過傳感節(jié)點進行原始數(shù)據(jù)采集和數(shù)據(jù)的無線傳輸,在云計算平臺下,通過連接傳感器網(wǎng)絡(luò)與其他網(wǎng)絡(luò)構(gòu)成一個龐大數(shù)據(jù)信息庫。通過云計算將海量的網(wǎng)絡(luò)資源數(shù)據(jù)融合到一個資源數(shù)據(jù)池中,實現(xiàn)及時、快速、精確地計算和數(shù)據(jù)調(diào)度。在云計算環(huán)境下,由于數(shù)據(jù)的來源和數(shù)據(jù)的服務(wù)用途具有巨大的差異性,而且云計算接口和通信協(xié)議存在很大的差別,導(dǎo)致云計算中的大數(shù)據(jù)具有不同的屬性,在云計算環(huán)境下,計算資源、存儲資源與軟件資源的來源具有多重屬性,形成多源信息資源的云計算和云存儲,需要對云計算環(huán)境下的多源大數(shù)據(jù)進行分流處理,提高數(shù)據(jù)聚類的準(zhǔn)確性,為實現(xiàn)模式識別提供基礎(chǔ)[1]。
云計算平臺下的大數(shù)據(jù)分流系統(tǒng)節(jié)點數(shù)目眾多,節(jié)點受環(huán)境的限制,各層協(xié)議設(shè)計需要考慮大數(shù)據(jù)信息流的內(nèi)部特征,進行大數(shù)據(jù)的信息特征提取,設(shè)計的大數(shù)據(jù)分流系統(tǒng)具有數(shù)據(jù)傳感、信號處理和無線通信等能力,實現(xiàn)了對大數(shù)據(jù)信息進行分流操作,數(shù)據(jù)采集和特征存儲的目的[2]。傳統(tǒng)方法中,云計算平臺下的大數(shù)據(jù)分流方法主要采用的是基于K?means聚類算法的大數(shù)據(jù)分流系統(tǒng)設(shè)計方法,基于模糊C均值的大數(shù)據(jù)分流系統(tǒng)設(shè)計方法和基于粒子群分割聚類方法進行云計算平臺大數(shù)據(jù)分流系統(tǒng)設(shè)計[3?5];但是,這些方法進行大數(shù)據(jù)分流過程中,容易導(dǎo)致數(shù)據(jù)的漏分和錯分。對此,相關(guān)文獻進行了系統(tǒng)的改進設(shè)計。文獻[6]提出一種基于K均值聚類云計算平臺下大數(shù)據(jù)分流系統(tǒng)模型,對群體中的個體數(shù)據(jù)進行遍歷歷經(jīng),增大覆蓋的監(jiān)測區(qū)域,提高數(shù)據(jù)的分流性能,但是系統(tǒng)設(shè)計中需要進行資源高維配置和拓撲控制,導(dǎo)致分流過程中計算量大,增大了系統(tǒng)的計算開銷;文獻[7]提出一種基于多跳節(jié)點隨機分配的云計算平臺下大數(shù)據(jù)分流模型,構(gòu)建以數(shù)據(jù)為中心的網(wǎng)絡(luò),并應(yīng)用于目標(biāo)跟蹤的傳感器模型中,實現(xiàn)數(shù)據(jù)分類和模式識別,將系統(tǒng)功能模塊化處理,提高了分流性能,但是該系統(tǒng)需要使用上下文轉(zhuǎn)換來支持并操作,導(dǎo)致系統(tǒng)的中斷時間過程容易產(chǎn)生分流誤差;文獻[8]中提出的云計算平臺下大數(shù)據(jù)分流系統(tǒng)采用的放源碼的Linux嵌入式系統(tǒng)設(shè)計方法,分流系統(tǒng)通過耦合線圈連接到云計算平臺的交換機中,導(dǎo)致分流系統(tǒng)中的數(shù)據(jù)出現(xiàn)漏分和錯分。
針對上述問題,本文提出基于功能子程序動態(tài)加載和TinyOS優(yōu)先級調(diào)度的云計算平臺下大數(shù)據(jù)分流系統(tǒng)優(yōu)化設(shè)計方法。首先進行云計算平臺下的大數(shù)據(jù)分流系統(tǒng)的總體模型構(gòu)建,進行大數(shù)據(jù)分流的TinyOS操作系統(tǒng)體系結(jié)構(gòu)設(shè)計;然后采用 S3C2440作為系統(tǒng)控制核心進行分流系統(tǒng)的硬件結(jié)構(gòu)設(shè)計;最后在Linux操作系統(tǒng)中采用功能子程序動態(tài)加載方法進行系統(tǒng)的軟件開發(fā)。仿真實驗進行了性能驗證,展示了本文設(shè)計的大數(shù)據(jù)分流系統(tǒng)的優(yōu)越性能。
1 云計算平臺下大數(shù)據(jù)分流系統(tǒng)的總體設(shè)計和
功能模塊分析
1.1 云計算平臺下大數(shù)據(jù)分流系統(tǒng)的總體設(shè)計
在云計算平臺下進行大數(shù)據(jù)分流是提高云計算的并行計算能力,實現(xiàn)數(shù)據(jù)聚類和模式識別的基礎(chǔ)?;谠朴嬎闫脚_進行的大數(shù)據(jù)分流系統(tǒng)是通過對多源信息資源進行特征提取和數(shù)據(jù)分區(qū),實現(xiàn)對云計算平臺下的大數(shù)據(jù)采集、處理、發(fā)布。
大數(shù)據(jù)分流系統(tǒng)是實現(xiàn)云計算平臺下的多源信息資源整合的基礎(chǔ)設(shè)施,云計算信息系統(tǒng)作為一種開源的框架,通過對云計算平臺下大數(shù)據(jù)分流,可以實現(xiàn)數(shù)據(jù)的無線收發(fā)和數(shù)據(jù)聚類。本文設(shè)計的云計算平臺下的大數(shù)據(jù)分流系統(tǒng)具有擴展性、穩(wěn)定可靠性和開放性等特點。擴展性是指云計算平臺下大數(shù)據(jù)分流時是開源的,所以其面向的對象非常廣泛,通過大數(shù)據(jù)分流發(fā)送和接收通知上層的射頻字節(jié),實現(xiàn)數(shù)據(jù)串口通信和無線收發(fā);可靠性是指在云計算大數(shù)據(jù)信息分流系統(tǒng)采用了分布式的處理方法,當(dāng)其中的一臺或者幾臺設(shè)備出現(xiàn)故障時,可以通知高層次的主動消息組件進行替代性工作,包括后級的數(shù)據(jù)采集與處理系統(tǒng)都具有擴展性和開放性。本文設(shè)計的云計算平臺下大數(shù)據(jù)分流系統(tǒng)的總體模型如圖1所示。
圖1 云計算平臺下大數(shù)據(jù)分流系統(tǒng)的總體模型
在上述系統(tǒng)總體模型設(shè)計的基礎(chǔ)上,進行系統(tǒng)的網(wǎng)絡(luò)設(shè)計。云計算平臺下大數(shù)據(jù)分流系統(tǒng)采用分布式加權(quán)自組網(wǎng)的形式,網(wǎng)絡(luò)中的簇內(nèi)節(jié)點在每輪向其相應(yīng)的簇頭發(fā)送的數(shù)據(jù)長度時,產(chǎn)生能量消耗,采用ZigBee通信技術(shù)進行CDMA模塊設(shè)計。當(dāng)分流系統(tǒng)的數(shù)據(jù)分發(fā)節(jié)點競選為簇頭時,置[ru]為0,傳輸距離大于或等于閾值d0時,節(jié)點的剩余能量逐漸減少,功率放大器采用多路徑衰減信道傳輸模型,此時的能耗系數(shù)是[εmp],G是在最近的[1P]輪未當(dāng)選候選簇頭的節(jié)點集合,在分布式加權(quán)自組網(wǎng)網(wǎng)絡(luò)中,使用32位ARM處理器和嵌入式網(wǎng)關(guān)進行數(shù)據(jù)通信,節(jié)點發(fā)送l b數(shù)據(jù)所消耗超過了承載能力,需要在mach?mini2440.c中把其中的16 934 400進行處理,在密集信道中產(chǎn)生間隙性混疊頻段的功耗,Linux的內(nèi)核在編譯后即可下載到目標(biāo)板運行,實現(xiàn)數(shù)據(jù)分流,數(shù)據(jù)分流的算法實現(xiàn)過程描述為:
Make menuconfig進行內(nèi)核的配置讀入新的子簇[SubCi],[SubCi∈Cj,j∈[1,k]];
While ([SubCi]不為空)
根據(jù)[CFΔi]計算[SubCi]與所有云計算平臺的數(shù)據(jù)分流簇[Cj]的中心[CenCj]的距離,確定最小距離[dist(SubCk,CenCl),l∈[1,k]];
While(數(shù)據(jù)聚類的中心點發(fā)生改變)
選擇Sound card supprt,將云計算大數(shù)據(jù)的聚類中心[SubCi]加入到[Cl]中,[SubCi][∈][Cl];
[i←i+1];
讀入新的數(shù)據(jù)聚類向量[SubCi],[SubCi?Cl],[j∈[1,k]];運行:
mkdir ?p /var/lock
mkdir ?p /var/run
mkdir ?p /var/tmp
計算所有數(shù)據(jù)分流簇[Cj]中代表簇中心的子簇[CenCj],生成的根文件系統(tǒng),使得[Cj]中各子簇到其相應(yīng)的簇中心[CenCj]的系統(tǒng)傳遞函數(shù)最小。由此實現(xiàn)數(shù)據(jù)分流。
1.2 系統(tǒng)的功能模塊設(shè)計
本文設(shè)計的云計算平臺下大數(shù)據(jù)分流模塊主要包括了控制器模塊、電源管理模塊、數(shù)據(jù)存儲器模塊、傳輸通信模塊、以太網(wǎng)模塊和顯示模塊。現(xiàn)根據(jù)上述數(shù)據(jù)分流系統(tǒng)的總體設(shè)計和數(shù)據(jù)分流系統(tǒng)設(shè)計,采用TinyOS優(yōu)先級調(diào)度方法進行大數(shù)據(jù)信息流的特征采集和調(diào)度,讀取大數(shù)據(jù)的特征采樣值,并在DSP中進行數(shù)字FIR濾波,通過PCI總線送采樣數(shù)據(jù)或處理結(jié)果到PC機,實現(xiàn)數(shù)據(jù)分流,然后輸出動態(tài)增益控制碼到功放管和變壓器,進行DSP信息處理,大數(shù)據(jù)分流處理過程如圖2所示。
圖2 大數(shù)據(jù)分流處理過程
其中,主控制器是整個嵌入式網(wǎng)關(guān)的核心,采用韓國三星公司生產(chǎn)的以32位的 RISC ARM920T 為內(nèi)核網(wǎng)絡(luò)微控制器,以ARM920T為核心的32位的RISC微處理器設(shè)計大數(shù)據(jù)分流系統(tǒng)的主控制器,采用TSXM,TSYM,TSXP,TSYP作為四線觸摸屏接口控制信號,實現(xiàn)斷執(zhí)行程序采集,主控器的芯片接口電路設(shè)計如圖3所示。
圖3 大數(shù)據(jù)分流系統(tǒng)主控制器的芯片接口圖
電源控制模塊是為云計算平臺下的大數(shù)據(jù)分流系統(tǒng)提供電源供電,采用ARM處理器進行電源控制模塊設(shè)計。供電電壓為DC 3.3 V和1.25 V,采用DC 5 V作為電路板總體供電電源,在LM1117芯片兩端都加上0.1 μF和100 μF的電容進行電源的FIR濾波。系統(tǒng)的電源能控制模塊電路設(shè)計如圖4所示。
圖4 系統(tǒng)的電源能控制模塊電路
在數(shù)據(jù)存儲器模塊設(shè)計中采用擴展1片128 MB的FLASH芯片和2片SDRAM芯片HY57V561620并聯(lián)的形式,以滿足ARM的數(shù)據(jù)存儲需求,并調(diào)入SDRAM中進行使用,由于不需要外擴設(shè)備,所以僅僅只用USB的設(shè)備控制端口,通過RS 232進行Linux終端控制,實現(xiàn)大數(shù)據(jù)的分流云存儲,大數(shù)據(jù)分流系統(tǒng)的數(shù)據(jù)存儲功能模塊設(shè)計硬件電路如圖5所示。通過TinyOS優(yōu)先級調(diào)度,每個端口都可以在中斷模式或DMA模式下工作,提高數(shù)據(jù)分流性能。
圖5 大數(shù)據(jù)分流系統(tǒng)的數(shù)據(jù)存儲功能模塊
2 大數(shù)據(jù)分流系統(tǒng)軟硬件設(shè)計關(guān)鍵技術(shù)實現(xiàn)
2.1 云計算平臺下的大數(shù)據(jù)分流系統(tǒng)硬件設(shè)計關(guān)鍵技術(shù)
在上述功能模塊設(shè)計的基礎(chǔ)上,本文針對傳統(tǒng)的云計算平臺下大數(shù)據(jù)分流系統(tǒng)采用的放源碼Linux嵌入式系統(tǒng)設(shè)計方法,分流系統(tǒng)通過耦合線圈連接到云計算平臺的交換機中,導(dǎo)致分流系統(tǒng)中的數(shù)據(jù)出現(xiàn)漏分和錯分的問題,本文進行系統(tǒng)的改進設(shè)計。這里提出一種基于功能子程序動態(tài)加載和TinyOS優(yōu)先級調(diào)度的云計算平臺下大數(shù)據(jù)分流系統(tǒng)優(yōu)化設(shè)計方法。
其設(shè)計步驟如下,對上述設(shè)計的控制器模塊、電源管理模塊、數(shù)據(jù)存儲器模塊進行集成設(shè)計,并采用DM9000 網(wǎng)卡芯片進行系統(tǒng)的傳輸通信模塊、以太網(wǎng)模塊和顯示模塊的設(shè)計,選擇一個10/100M自適應(yīng)的PHY和4 KB DWORD值的SRAM進行網(wǎng)關(guān)設(shè)計,網(wǎng)絡(luò)接口使用RJ45 連接頭,調(diào)試系統(tǒng)時需要使用Linux下的NFS文件系統(tǒng),即內(nèi)核放入系統(tǒng)中,獲得合適的220 V標(biāo)準(zhǔn)交流電,通過兩個DC?DC電源轉(zhuǎn)換模塊分別將12 V電壓轉(zhuǎn)換為5 V和±15 V電源,對S3C2440A芯片、FLASH芯片、SDRAM芯片等進行供電。用DSP單獨構(gòu)成一個數(shù)據(jù)分流系統(tǒng)的特征處理器,實現(xiàn)對大數(shù)據(jù)分流系統(tǒng)的串口設(shè)計,串口電路如圖6所示。結(jié)合圖6,通過(R/X) PHASE設(shè)置接收大數(shù)據(jù)分流信息的同步脈沖,按照DSP串口0的引腳引出15針插座到數(shù)據(jù)分流信息系統(tǒng)的三個通道BCLKX0,BDX0和BFSX0中,當(dāng)系統(tǒng)要求高的數(shù)據(jù)聚類性能時,采用5409A串口通信方法發(fā)送采樣值,利用雙端口的64 K Word空間,選用MBM29LV400BC作為片選和讀、寫信號的地址線,數(shù)據(jù)分流系統(tǒng)的FLASH與DSP控制器的連線圖如圖7所示。通過上述設(shè)計實現(xiàn)云計算平臺下的大數(shù)據(jù)分流系統(tǒng)的硬件設(shè)計,通過數(shù)據(jù)分流,將大數(shù)據(jù)從12位的A/D結(jié)果轉(zhuǎn)換成16位,采用±10 V的雙極性輸入,實現(xiàn)對云計算平臺下的大數(shù)據(jù)分流系統(tǒng)設(shè)計。
圖6 大數(shù)據(jù)分流系統(tǒng)的串口設(shè)計
圖7 FLASH與DSP控制器的連線圖
2.2 系統(tǒng)軟件開發(fā)
在上述硬件平臺設(shè)計的基礎(chǔ)上,在Linux操作系統(tǒng)中采用功能子程序動態(tài)加載方法進行系統(tǒng)的軟件開發(fā),采用CrossBow公司的telosB無線模塊構(gòu)建網(wǎng)絡(luò)協(xié)調(diào)器實現(xiàn)大數(shù)據(jù)分流節(jié)點數(shù)據(jù)的動態(tài)組網(wǎng)與數(shù)據(jù)傳輸,軟件開發(fā)平臺采用開放源碼的Linux操作系統(tǒng)。目標(biāo)板與宿主機通常使用232串口、網(wǎng)線、USB線連接,在Linux中使用GCC編譯器編譯出的二進制代碼,使用Linux?2.6.32.2 的缺省目標(biāo)平臺成為ARM 的平臺,修改總目錄下的Makefile。
原文件中的數(shù)據(jù)傳輸協(xié)議為:
export KBUILD_BUILDHOST := $(SUBARCH)
ARCH ?= $(SUBARCH)
CROSS_COMPILE ?=
改為:
export KBUILD_BUILDHOST := $(SUBARCH)
ARCH ?= arm
CROSS_COMPILE ?= arm?linux?
在大數(shù)據(jù)分流系統(tǒng)設(shè)計中,為了達到減小系統(tǒng)開支的目的,增強系統(tǒng)的穩(wěn)定性,基于功能子程序動態(tài)加載和TinyOS優(yōu)先級調(diào)度,在文件MinePressureCollectionC.nc里面完成FLASH存儲器初始化操作,軟件的接口程序描述為:
interface Timer
interface Read
interface ReadStream
//Read pressure sensor′s data
interface Leds; //Indication
interface Boot;
在上面的程序片段中,DisseminationControl為一個廣播協(xié)議,LowPowerListening可以設(shè)置傳感器節(jié)點的占空比,以節(jié)省功耗,由此實現(xiàn)對云計算平臺下的大數(shù)據(jù)分流系統(tǒng)數(shù)據(jù)采集和分流調(diào)度。
3 仿真實驗與結(jié)果分析
為了測試本文設(shè)計系統(tǒng)的性能,進行了仿真實驗。試驗平臺為通用PC機,CPU為Intel? CoreTM i7?2600@3.40 GHz,內(nèi)存為4×4 GB DDR3@1600 9?9?9?24。首先進行系統(tǒng)的硬件調(diào)試,調(diào)試過程中設(shè)置Check為一個定時器,用來實現(xiàn)開發(fā)的PC機與嵌入式的移動開發(fā)設(shè)備之間的連接;采用DM9000網(wǎng)絡(luò)模塊來實現(xiàn)采集數(shù)據(jù)的遠程傳輸,由此開始采集傳感器信息,然后發(fā)送至基站。數(shù)據(jù)采樣的程序為:
ecall ReadStream.postBuffer(pressureSamples, PRESSURE_
SAMPLES
在上述仿真環(huán)境設(shè)定的基礎(chǔ)上,進行分流系統(tǒng)的反轉(zhuǎn)參數(shù)設(shè)置,如表1所示。
表1 仿真參數(shù)設(shè)置
系統(tǒng)采用了PHP和MySQL實現(xiàn)數(shù)據(jù)分流編程仿真。在Device Drivers 菜單中,選擇SD/MMC 設(shè)備,實現(xiàn)數(shù)據(jù)分流的內(nèi)核映象文件讀取,數(shù)據(jù)讀取界面如圖8所示。
圖8 數(shù)據(jù)讀取界面
最后得到本文設(shè)計的數(shù)據(jù)系統(tǒng)仿真結(jié)果如圖9所示。由圖可見,采用本文設(shè)計系統(tǒng)通過對云計算平臺下的大數(shù)據(jù)進行聚類處理和特征提取,根據(jù)功能子程序動態(tài)加載和TinyOS優(yōu)先級調(diào)度,實現(xiàn)數(shù)據(jù)分流,分流準(zhǔn)確度較高,提高了模式識別能力。
圖9 大數(shù)據(jù)分流系統(tǒng)仿真輸出結(jié)果
4 結(jié) 語
在云計算環(huán)境下,計算資源、存儲資源與軟件資源的來源具有多重屬性,形成多源信息資源的云計算和云存儲,需要對云計算環(huán)境下的多源大數(shù)據(jù)進行分流處理,提高數(shù)據(jù)聚類的準(zhǔn)確性,為實現(xiàn)模式識別提供基礎(chǔ)。
本文提出基于功能子程序動態(tài)加載和TinyOS優(yōu)先級調(diào)度的云計算平臺下大數(shù)據(jù)分流系統(tǒng)優(yōu)化設(shè)計方法。首先進行云計算平臺下的大數(shù)據(jù)分流系統(tǒng)的總體模型構(gòu)建;采用 S3C2440作為系統(tǒng)控制核心進行分流系統(tǒng)的硬件結(jié)構(gòu)設(shè)計;最后在Linux操作系統(tǒng)中采用功能子程序動態(tài)加載方法進行系統(tǒng)的軟件開發(fā)。實驗結(jié)果表明,采用本文設(shè)計系統(tǒng)能有效實現(xiàn)對云計算平臺中的大數(shù)據(jù)分流處理,性能優(yōu)越。
參考文獻
[1] 鄧異,梁燕,周勇.水聲換能器基陣信號采集系統(tǒng)優(yōu)化設(shè)計[J].物聯(lián)網(wǎng)技術(shù),2015,5(4):36?37.
(上接第32頁)
[2] 張睿.基于多徑PID控制的網(wǎng)絡(luò)終端動態(tài)干擾監(jiān)測設(shè)計[J].科技通報,2014,30(6):188?190.
[3] 程艷合,楊文革.壓縮域直擴測控通信信號偽碼跟蹤方法研究[J].電子與信息學(xué)報,2015,37(8):2028?2032.
[4] 吳志軍,李光,岳猛.基于信號互相關(guān)的低速率拒絕服務(wù)攻擊檢測方法[J].電子學(xué)報,2014,42(9):1760?1766.
[5] 梁華東,韓江洪.采用雙譜多類小波包特征的雷達信號聚類分選[J].光子學(xué)報,2014,43(3):1?8.
[6] 匡桂娟,曾國蓀,熊煥亮.關(guān)注用戶服務(wù)評價反饋的云資源再分配方法[J].計算機應(yīng)用,2015,35(7):1837?1842.
[7] WU Tao CHEN Lifei GUO Gongde. High?dimensional data clustering algorithm with subspace optimization [J]. Journal of Computer Applications, 2014, 34(8): 2279?2284.
[8] 辛宇,楊靜,湯楚蘅,等.基于局部語義聚類的語義重疊社區(qū)發(fā)現(xiàn)算法[J].計算機研究與發(fā)展,2015,52(7):1510?1521.