亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        CPU-GPU異構計算框架下的高性能用電負荷預測

        2021-11-20 08:33:52趙嘉豪陸春艷陶曉峰馮燕鈞
        電力自動化設備 2021年11期
        關鍵詞:數據庫模型

        趙嘉豪,周 贛,黃 莉,陸春艷,陶曉峰,馮燕鈞

        (1. 東南大學 電氣工程學院,江蘇 南京 210096;2. 南瑞集團有限公司(國網電力科學研究院有限公司),江蘇 南京 211106)

        0 引言

        在智能電網時代,隨著智能電表的廣泛使用和各類傳感器的普及,電力用戶側的數據呈指數級增長。由于數據驅動的計算業(yè)務的快速擴展,現有用電信息采集系統(tǒng)在統(tǒng)計實時性和分析智能化方面面臨著巨大挑戰(zhàn),如何高效處理和充分挖掘海量用電數據已成為一個亟需解決的問題。電力負荷預測是用電數據挖掘分析的重要業(yè)務場景之一,影響到電力系統(tǒng)發(fā)電與用電量之間的平衡。精確、高效的負荷預測結果有利于提高電網調度水平和安全穩(wěn)定運行狀況[1]。

        電力負荷預測主要包括2 個環(huán)節(jié):用電數據的獲取及預處理,計算模型的訓練及結果預測。通常,數據獲取方案都是在中央處理器(CPU)支撐的關系型數據庫上執(zhí)行的。在面對數據規(guī)模較大的查詢、計算時,傳統(tǒng)的數據庫(如Oracle),受限于硬件成本與CPU 計算能力,常以較長的響應時間為代價換取較高的吞吐量,通常在數據的獲取和預處理方面耗時較長。另一方面,負荷預測是人工智能技術在電力系統(tǒng)應用最廣泛、深入的應用。眾多學者對采用人工智能模型預測電力負荷展開了大量研究,主要方法有神經網絡[2]、支持向量機[3]和集成學習[4]等。其中,以XGBoost 為代表的集成學習方法,在負荷預測中取得了良好的效果。文獻[5]對比分析了隨機森林(RF)、貝葉斯和K最近鄰(KNN)等模型,證明XGBoost在電力負荷預測方面具有優(yōu)越性。文獻[6-8]將XGBoost 與模型融合技術相結合,采用組合預測的方式提高了預測精度。然而隨著負荷數據和模型規(guī)模的增長,算法復雜程度也逐漸提升,基于人工智能方法的預測模型的訓練過程變得極為耗時,執(zhí)行效率同樣受限于CPU 的計算資源。雖然傳統(tǒng)的負荷預測應用大部分集中于批量數據的離線訓練和隨后的在線預測,但是單純的批處理學習方法無法實時整合規(guī)模日益增長的用電信息,也不能在短期負荷預測問題中及時進行新樣本的增量訓練[9]。因此,為了滿足用電大數據分析的要求,除了增加分布式并行機的節(jié)點數量,一種更高效的解決方案是使用計算能力更強的新型硬件和執(zhí)行性能更高的計算框架,以提高整體預測方案的執(zhí)行效率。

        近年來,圖形處理器(GPU)由于其在浮點計算速度和存儲帶寬方面的優(yōu)勢,已被成功應用于許多科學計算領域[10-12]。在數據庫計算上,有學者設計了GPU 數據庫來加速數據的查詢和計算[13-15]。在人工智能相關模型的訓練上,主流神經網絡框架如Tensorflow、Pytorch都支持GPU為其底層數學運算進行模型加速。但是之前學者在基于人工智能方法進行負荷預測的工作中,通常只使用GPU 加速模型的訓練過程,并未應用在數據集的獲取和處理上。而負荷計算不僅支撐了負荷預測應用的開展,也是用電信息采集系統(tǒng)日常運營維護的基本內容。由于更新頻率較高,其計算效率的提高十分重要。

        基于以上問題,本文提出并實現了一種基于中央處理器-圖形處理器(CPU-GPU)異構計算框架下全流程加速的高性能用電負荷預測方法,其充分利用CPU-GPU 異構體系的計算資源,并行化加速了用電負荷數據的預處理和預測模型的訓練。本文首先將用電數據的計算從數據庫轉移到GPU 設備上進行并行化處理,并提出結合OpenMP 多線程技術實現在多臺GPU 上同時完成多個并行計算任務。然后,對多個臺區(qū)負荷數據統(tǒng)一建模預測,在進行K均值(K-means)聚類分析后利用GPU 加速XGBoost 模型的訓練計算,從而預測臺區(qū)未來的日負荷數據。最后,實際算例結果表明,結合多線程技術的基于GPU實現的并行計算方案具有高效的計算效率和良好的擴展性,基于K-means-XGBoost的臺區(qū)負荷預測模型在高效執(zhí)行的同時也保證了預測準確性,CPUGPU異構計算框架滿足了海量用電數據實時統(tǒng)計和充分挖掘的要求。

        1 CPU-GPU異構計算框架和CUDA編程模型

        CPU-GPU 異構計算框架一般由1 臺CPU 和a臺GPU 組成,CPU 和GPU 之間通過PCI-Express 總線進行通信和數據傳輸,如圖1 所示。1 臺GPU 包含c臺流式多處理器SM(Streaming Multiprocessor),每臺SM 上有著成百上千的流處理器SP(Streaming Processor)資源,即計算核心單元,因此GPU可以提供比多核CPU 更高的并行度和更強的浮點計算能力。SM 采用單指令多線程SIMT(Single Instruction Multiple Thread)方式來管理其中的線程,GPU可以通過調度更多的SM 和數量眾多的線程實現更細粒度的數據級并行。

        圖1 CPU-GPU異構計算框架和CUDA編程模型Fig.1 CPU-GPU heterogeneous computing framework and CUDA programming model

        NVIDIA 公司于2007 年推出了GPU 的統(tǒng)一計算架構(CUDA)模型[16],使原本負責圖形處理的GPU也可進行通用的科學計算。CUDA模型為CPU-GPU異構計算框架的實現提供了支持。其中,CPU 作為主機端(Host)運行,而GPU 作為設備端(Device)配合CPU 協同處理。CPU 程序調用GPU 上運行的CUDA內核函數(Kernel)時,每個內核函數占用SM 上的1 個線程網格(Grid),每個線程網格包含b個線程塊(block),每個線程塊以32 個線程(thread)為1 組的線程束(warp)形式進行調度,線程束總數為d。通過設定內核函數啟用的線程塊數量和每個線程塊中的線程數量,可以使得每個線程對不同數據并行執(zhí)行相同的計算命令。同時,為了更好地利用GPU 的內存帶寬優(yōu)勢,可以通過“合并訪存”的高效機制來掩蓋線程的訪存延遲,其實現的要求是同步執(zhí)行的線程束中每個線程的讀取和存儲地址必須連續(xù)。

        2 基于GPU加速的用電負荷并行預處理

        在用電信息采集系統(tǒng)中,用電數據存儲于Oracle等關系型數據庫中。由于用電信息采集系統(tǒng)數據量日益增大,一直以來基于數據庫存儲過程的用電采集統(tǒng)計計算工作的耗時也與日俱增。本文提出將計算任務轉移到GPU 設備上,以GPU 并行計算的方法來改進原有串行的數據庫計算方案。

        2.1 數據交互方式設計

        在數據交互方式的設計上,通過Oracle 調用接口OCI(Oracle Call Interface)實現負荷數據的接收和計算結果的回傳。OCI 是Oracle 數據庫最底層的原生接口,其將結構化查詢語言(SQL)和高級編程語言相結合,性能上具有高度的開發(fā)靈活性、較高的執(zhí)行效率和強健的安全性。本文采用短鏈接的方式為每條數據庫執(zhí)行指令都進行一次數據庫連接與端口操作。另外,考慮到數據交互的通用性及易維護性,選擇了可擴展標記語言(XML)文件作為存儲表格信息的載體,實現數據內容和流程管理的分離。

        2.2 基于GPU實現的用電負荷并行計算

        由于用電信息采集系統(tǒng)具有通信延遲性,采集到的用戶數據通常是混亂的。用電數據的計算業(yè)務往往圍繞多張表格進行數據查找、匹配。遍歷排序是一種邏輯性強的操作,而海量數據的移動又是內存綁定的操作??紤]到CPU 擅長處理復雜邏輯運算,GPU擅長處理計算密集型的任務,本文先在CPU端進行數據重排序預處理,然后交由GPU 完成相應的數值計算。選取用戶ID 作為數據記錄的區(qū)分標識,在CPU 上將原始數據按照用戶ID 大小順序排列得到一個排序向量P,排序結果和原始數據一起從CPU 內存拷貝到GPU 內存,然后在GPU 上執(zhí)行原始數據實際排序的內存操作。GPU上內核函數執(zhí)行重排序任務的原理是賦值操作,即以1個線程執(zhí)行1條記錄的數據賦值,將1 片內存中的數據按照向量P重新寫入另一塊內存中,完成表格的重新構建。由于表格是按列讀取的,連續(xù)的線程負責連續(xù)的數據,寫入內存是合并訪存的。

        考慮到采集數據的缺失,表格的重排序操作并不意味著可以直接進行數據匹配,而為后續(xù)的表格掃描和建立映射提供了方便。以日負荷量計算為例進行計算說明,日負荷計算取電能表2 天的底碼相減乘以綜合倍率,底碼包括正(反)向有(無)功功率的尖峰平谷示值。假設電能表采集數據來自測量點數據表A和日凍結電能表B,表A中的每條記錄最多對應表B 中的2 條記錄。本文采用并行掃描的方式建立表A 和表B之間的映射關系,通過二分法尋找2個表中ID 相同的記錄,并將其數據位置存儲在1 個映射索引Map中。附錄A圖A1中的算法1解釋了在GPU上實現并行掃描生成映射索引的計算原理。

        通過并行掃描完成數據匹配之后,進一步根據映射索引對負荷數據進行數值計算,內核函數的設計方式如附錄A 圖A1 中的算法2 所示。在確定當前ID 存在2 條數據記錄后,啟動1 個線程根據映射索引獲取兩日的負荷數據和綜合倍率,完成1 個ID對應的負荷數據計算。由于硬件限制,GPU 可調用的實際線程數量遠小于需要處理的數據量,這里需要更新線程索引進行迭代計算。

        2.3 結合OpenMP實現的多GPU任務調度機制

        為了解決更大規(guī)模數據的并行計算,本文通過OpenMP 多線程技術設計了多臺GPU 完成多個并行計算任務的調度機制。OpenMP 是用于共享內存并行系統(tǒng)的多處理器程序設計的一套指導性編譯處理方案,提供了對并行算法的高層抽象描述。OpenMP采用fork-join 的執(zhí)行模式,開始時只存在一個主線程,當需要進行并行計算時,派生出若干個分支線程來執(zhí)行并行任務,當并行代碼執(zhí)行完成后,分支線程匯合,并把控制流程交給單獨的主線程。在本文的異構計算方案中,CPU 主線程先根據計算業(yè)務合理劃分數據,然后開啟OpenMP 多線程并設定與GPU設備數量相等的CPU 線程,CPU 的線程編號和GPU的設備編號進行綁定。此時,相應計算業(yè)務的數據流通過CPU 線程控制傳輸到綁定的GPU 內存中,實現計算數據的獨立;CPU的1個線程負責1個業(yè)務的GPU 計算流程,實現計算流程的獨立。這樣就實現了CPU 多線程控制多個GPU 同時開展并行計算任務。在所有獨立計算業(yè)務完成后,不同GPU 設備上的計算結果進行拼接匯總,回傳到CPU 端,最后通過OCI寫入數據庫。

        多線程多GPU 并行計算框架同樣適用于單一計算業(yè)務的執(zhí)行。當單一計算業(yè)務的數據量過大而超過GPU 單卡內存時,可將業(yè)務數據分拆到多臺GPU 設備上進行計算,最后將各個計算結果進行拼接得到總體的計算結果。

        3 基于GPU加速XGBoost的臺區(qū)負荷預測

        基于GPU 的并行計算加速了用電數據的獲取,縮短了用電信息的處理時間。利用計算結果中的負荷數據可以進一步開發(fā)臺區(qū)負荷預測應用。不同于神經網絡算法,XGBoost 是一種通過多個分類回歸樹(CART)的迭代計算擬合殘差的集成學習算法[17],在眾多回歸預測問題上表現出較好的效果。由于XGBoost 具有良好的可擴展性和并行性,能夠有效解決大數據的快速處理問題,針對大數據環(huán)境下的電力負荷預測具有較好的應用前景。

        3.1 XGBoost算法原理

        XGBoost 是優(yōu)化后的樹集成模型,通過對梯度提升樹(GBDT)的改進力爭將速度和效率發(fā)揮到極致。XGBoost 從數學角度可建立一個泛函優(yōu)化問題,如式(1)所示,對n個樣本建立Kt棵樹的目標函數L(Φ)分為損失函數和正則化項2 個部分。損失函數項l(y?i-yi)表示訓練誤差,即樣本i的預測值y?i和真實值yi的差距,鼓勵模型盡量擬合訓練數據;正則化項Ω(fk)表達式如式(2)所示,表示模型fk復雜程度越低,泛化能力越強。

        式(8)中等號右側第1、2 項分別表示左、右子樹分裂后產生的增益;第3 項為不進行子樹分裂的增益,最后一項為對引入新葉子的懲罰項,對樹進行了剪枝。

        為了提高計算效率,XGBoost 可以在GPU 上實現決策樹的生成,從而加速訓練過程。如附錄B 算法所示,針對葉子節(jié)點的分裂方式,GPU先并行計算得到特征的梯度直方圖,然后對直方圖進行并行掃描,通過并行前綴和操作來計算每個特征和每個分位數的分割增益,從而獲得最佳分裂點[18-19]。值得注意的是,單棵樹的生成仍然是具有時序依賴性的。但是,在每次迭代中需要計算每個訓練樣本對于目標函數的一階和二階梯度,而GPU 在浮點計算速度和內存帶寬方面具有巨大優(yōu)勢,在這些指標的計算上也表現出更高的效率。

        3.2 特征工程

        在訓練模型前,合理的特征工程對于預測效果的提升至關重要。區(qū)域用電情況往往按照劃分的臺區(qū)進行采集。傳統(tǒng)的統(tǒng)計方法只能對單一臺區(qū)單獨建模分析,無法解決區(qū)域性的用電負荷預測問題。考慮區(qū)域內多臺區(qū)用電情況的多樣性,首先通過K-means 聚類算法進行臺區(qū)聚類分析,然后采用XGBoost 模型對區(qū)域內多個臺區(qū)的日負荷情況進行統(tǒng)一建模預測。K-means 聚類算法根據距離相似性將樣本集x聚類成K個簇Ci(i=1,2,…,K),Ci的均值向量μi為該簇的聚類中心,迭代過程中每分配一個樣本會重新計算當前聚類中心,直至聚類中心不再變化,即誤差平方和E最小。

        本文選取附錄C 表C1 所示的臺區(qū)特征作為聚類分析輸入數據,通過主成分分析(PCA)進行特征降維后,選擇多個聚類數量,并根據肘部法則找到畸變程度得到極大改善的臨界點,也即取斜率變化較大的拐點作為效果最好的聚類數量。

        針對聚類結果,對于每一類別臺區(qū)進行模型訓練。本文通過人工經驗選擇了歷史負荷數據、天氣信息、時間規(guī)則3 個方面特征作為輸入數據,從而預測未來一天的日負荷數據,所選的輸入特征如附錄C 表C2 所示。歷史負荷數據除了選擇前一天和前一周的負荷數據,還對過去一周的負荷和負載率做均值處理,使得輸入數據更加平滑。天氣信息包括了每個臺區(qū)每日的平均溫度和平均濕度。時間規(guī)則信息包含了預測目標對應的星期、日期、月度、季節(jié)以及是否屬于節(jié)假日。為了防止各個連續(xù)數據間互相影響,對于時間規(guī)則的特征采用獨熱編碼(one-hot)的離散處理形式。

        4 算例分析

        本文提出的基于CPU-GPU 異構計算框架實現的用電負荷預測方案如附錄C 圖C1 所示。本方案涉及CPU 和GPU 之間的任務分配,其設計原則是:復雜的邏輯運算和流程控制任務在CPU 上完成,密集型的數值計算任務在GPU 上并行完成,同時盡量減少CPU 和GPU 之間的數據流動開銷。因此,在異構計算方案中,CPU負責完成用電信息的獲取、預處理和負荷數據的清洗、臺區(qū)聚類分析、特征構造及生成數據集等環(huán)節(jié),并通過OpenMP 多線程動態(tài)分配計算任務;GPU 負責完成用電信息統(tǒng)計數據的并行計算和XGBoost 算法的模型訓練等環(huán)節(jié),GPU 的Kernel1—KernelN表示為計算業(yè)務進行重排序賦值、并行掃描建立映射、數值計算等操作設計的CUDA內核函數。

        算例數據來自深圳市2018年43254個臺區(qū)的用電信息。實驗測試平臺操作系統(tǒng)為Ubuntu 16.08,服務器硬件配置為2臺NVIDIA K40C GPU和1臺Intel XeonE5 CPU,軟件配置為Oracle 11.2,CUDA 9.0。

        4.1 用電信息計算效率性能分析

        首先,本文在實驗平臺進行用電信息中的日負荷量和日負荷極值的并行計算,配置的2 臺GPU 分別負責1 個計算任務。日負荷極值的并行計算流程與日負荷量計算大致相同,不同的是數值計算的內核函數改為負荷極值的計算方式,即提取每塊電能表一天最大/最小的負荷和電壓電流值。算例相關數據表格如表1 所示。測試內容A 為多卡并行計算,序號1、2 用于日負荷量計算,序號1、3、4 用于日負荷極值計算。測試內容B 為針對3 個不同規(guī)模數據量算例進行的單卡計算性能測試,序號5 由數據表KH_CLDZB_1、CJ_RDJDNL_1組成;序號6、7的數據量分別約為序號5 的2、3 倍,2 個測試的總數據量都已達到GB級別。

        表1 數據說明Table 1 Data explanation

        針對測試內容A,表2 比較了CPU-GPU 異構計算方案與Oracle 數據庫存儲過程串行計算方案的性能,2 種方案的總耗時分別為55.34、655.80 s。從表中結果可看出,相比Oracle 數據庫計算方案,CPUGPU 異構計算方案雖然犧牲了一定的時間進行數據交互和預處理,但是在GPU 端加速了用電信息的業(yè)務計算。業(yè)務1、2 的數值計算部分在數據庫方案中分別需要232.24、423.56 s,而在GPU 上實現計算僅耗時1.73 s 和1.78 s(表2 中CPU-GPU 異構計算方案業(yè)務1 和業(yè)務2 的時間同行統(tǒng)計,表示分別在2 臺GPU 上同時進行并行計算,在最后的總時間中只計入耗時最長的業(yè)務計算時間),效率均提高了2 個數量級。同時,由于本文采用多線程技術拓展了多個GPU 并行計算的流程,在CPU-GPU 異構計算方案中業(yè)務1 和業(yè)務2 分別在2 臺GPU 上同時進行并行計算,實際總時間只計以單個GPU 上耗時最長的業(yè)務時間(即業(yè)務2),這進一步提高了用電數據的計算效率,使得總體計算流程的加速比達到了11.85 倍。表3進一步比較了不同數據規(guī)模下單臺GPU 并行計算的性能情況,測試1—3 分別對表1 中測試內容B的3 組數據進行了日負荷計算,對應的計算總耗時分別為31.53、161.69、225.94 s。由上述分析可知測試1 中相同規(guī)模的數據在Oracle 數據庫中計算需要232.24 s,在CPU-GPU異構計算方案中只耗時31.53 s,而在數據量擴大約3倍的測試3中也僅耗時225.94 s,仍小于Oracle 數據庫計算方案所需的時間,這體現了CPU-GPU 異構計算方案在處理計算密集型任務時的優(yōu)越性。

        表2 CPU-GPU異構計算方案與Oracle數據庫計算方案性能分析Table 2 Performance analysis for CPU-GPU heterogeneous computing scheme and Oracle database computing scheme

        表3 日負荷計算性能分析Table 3 Performance analysis for daily load calculation

        4.2 多臺區(qū)負荷預測效果性能分析

        根據CPU-GPU 異構計算方案中日負荷量的計算結果,采用XGBoost 模型實現多臺區(qū)負荷預測。負荷數據來自于2018 年深圳市的日用電負荷記錄,預測目標為未來一天的日負荷數據,預測時段為2019 年1 月1 日至1 月7 日。數據集按照80%比例劃出訓練集,其余為驗證集,測試集為預測日期的真實數據。

        4.2.1 實驗評價指標

        為了評估預測方法的性能,評價指標采用均方根誤差eRMSE、平均絕對誤差eMAE、平均絕對百分比誤差eMAPE和決定系數λR2,計算式分別見式(11)—(14)。

        式中:yˉ為整體樣本的平均值。eRMSE、eMAE和eMAPE描述了預測值和真實值之間的偏差情況,指標越小表示預測效果越好。λR2描述了模型對數據的擬合程度,指標越接近1表示模型擬合得越好。

        4.2.2 數據處理

        由于通信錯誤或者數據丟失等原因,歷史負荷信息中有異常數據存在,其將影響預測模型的預測精度。本文通過數據清洗剔除了缺失較多(缺失率大于90%)的臺區(qū)樣本。在清洗后的43 052 個有效臺區(qū)樣本中,先對缺失值采用相鄰日期數據的平均值進行填充,然后基于正態(tài)分布檢測出異常數據點,根據文獻[20]提供的方法,針對不同的出錯原因進行以下幾種數據修正方式:①對大事故日負荷或明顯負荷曲線異常的日負荷進行剔除或用正常曲線置換;②采用數據橫向對比方法消除由于采樣錯誤帶來的負荷毛刺;③對于某些時段的異常負荷數據,由現場人員根據經驗進行修正。

        4.2.3K-means-XGBoost方法的預測結果分析

        對預處理后的臺區(qū)負荷數據進行K-means 聚類分析,如圖2 所示,根據肘部法則選擇K=3 作為最佳聚類數。3個類別的臺區(qū)數量分別為7767、14788和20497。

        圖2 不同聚類數量的誤差曲線Fig.2 Error curve of different numbers of clusters

        本文同時選擇了長短時記憶神經網絡(LSTM)和RF模型進行了負荷預測。LSTM 改進了傳統(tǒng)的循環(huán)神經網絡,通過輸入門、遺忘門和輸出門來決定數據的更新和丟棄,解決了訓練中梯度爆炸和梯度消失的問題,可用于學習時間序列長短期依賴信息。RF 模型則是一種組合決策樹模型,通過有放回的重復采樣方式排列組合多個決策樹,然后根據多個樹的結果進行投票決定最后的結果。利用交叉驗證和網格搜索法對XGBoost、LSTM 和RF 模型參數進行尋優(yōu),選定的參數配置如附錄C 表C3 所示。模型的訓練都在GPU 上進行。LSTM 和RF 通過Tensorflow搭建,GPU 加速了底層的數學運算。XGBoost 通過GPU 加速構建決策樹,提高了葉子節(jié)點對特征的分裂選擇。

        表4 給出了3 個模型在不同類別臺區(qū)上的預測效果和總計算時間。在預測精度上,從評價指標可以看出XGBoost 模型在3 個臺區(qū)類別上的預測誤差都小于LSTM 和RF 模型,對于數據的擬合程度也優(yōu)于LSTM 和RF 模型。圖3 描述了從每個類別中各隨機抽取3個臺區(qū)的負荷預測情況,其中XGBoost模型的預測結果更接近真實數值曲線。這是由于XGBoost模型對損失函數進行二階泰勒級數展開,優(yōu)化過程使用了一階和二階導數信息進行更新迭代,使模型訓練更充分。在計算效率上,借助GPU加速的XGBoost模型的計算耗時是最少的,只需要41.786 s就完成了模型訓練。這是由于本身樹形結構的生成效率就高很多,而GPU 并行計算加速了貪心算法對葉子節(jié)點分裂特征的選擇,進一步加快了算法的迭代過程。綜合分析,基于XGBoost模型的電力負荷預測在預測精度和計算時間2個方面的指標都優(yōu)于其他方法,表現出良好的性能。

        表4 負荷預測模型性能分析Table 4 Performance analysis for load forecasting model

        圖3 臺區(qū)負荷預測結果Fig.3 Results of station load forecasting

        5 結論

        本文研究了CPU-GPU 異構計算框架下的高性能用電負荷預測方法,將GPU 應用在了電力負荷預測的數據獲取和模型訓練上,實現了GPU 并行加速的用電負荷數據計算和臺區(qū)負荷預測。算例結果表明,結合OpenMP 多線程技術的GPU 并行計算方案對業(yè)務處理的效率更高,結合K-means 聚類分析的基于XGBoost 算法的多臺區(qū)負荷預測方案在預測精度和計算效率上都表現出良好的性能。此外,在實際生產環(huán)境中,本文提出的異構計算方案綜合考慮了海量用電數據的統(tǒng)計實時性和挖掘充分性的要求,在更大規(guī)模的用電計算業(yè)務和短期負荷預測應用中有較好的應用前景,為新一代計算業(yè)務數據中臺的硬件選型提供了參考和借鑒。

        附錄見本刊網絡版(http://www.epae.cn)。

        猜你喜歡
        數據庫模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        數據庫
        財經(2017年15期)2017-07-03 22:40:49
        數據庫
        財經(2017年2期)2017-03-10 14:35:35
        3D打印中的模型分割與打包
        數據庫
        財經(2016年15期)2016-06-03 07:38:02
        數據庫
        財經(2016年3期)2016-03-07 07:44:46
        數據庫
        財經(2016年6期)2016-02-24 07:41:51
        FLUKA幾何模型到CAD幾何模型轉換方法初步研究
        少妇高潮一区二区三区99| 国产精品成人久久a级片| 日本一区二区不卡二区| 精品综合久久久久久888蜜芽| 午夜一区欧美二区高清三区| 一区五码在线| 日本免费三级一区二区| 亚洲成av人片不卡无码| 久久精品国产第一区二区三区 | 岛国熟女一区二区三区| 免费观看国产激情视频在线观看| 亚洲 日韩 激情 无码 中出| 成年无码av片完整版| 精品国产乱码一区二区三区在线| 偷偷夜夜精品一区二区三区蜜桃 | 综合精品欧美日韩国产在线| av资源吧首页在线观看| 人妻少妇精品中文字幕专区| 好日子在线观看视频大全免费动漫| 亚洲AV永久天堂在线观看 | 亚洲日韩国产一区二区三区在线| 精品国产AⅤ一区二区三区4区| 91中文字幕精品一区二区| 色翁荡熄又大又硬又粗又动态图| 在线精品一区二区三区| 男女视频在线一区二区| 国产精品久久婷婷六月丁香| 日日摸天天摸97狠狠婷婷| 日本丶国产丶欧美色综合| 日韩精品一区二区三区四区视频| 久久久精品国产性黑人| a级大胆欧美人体大胆666| 亚洲日产无码中文字幕| 成人自拍偷拍视频在线观看| 国产精品无码一区二区三区| 国产思思99re99在线观看| 中文字幕av人妻一区二区| 77777亚洲午夜久久多喷| 国产人妻精品一区二区三区不卡| 日韩少妇无码一区二区免费视频| 日本精品一区二区三区在线观看|