亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人工智能與邊緣代理的物聯(lián)網(wǎng)框架設計

        2023-10-17 05:50:22李亞國李冠良張凱晉濤
        計算機工程 2023年10期
        關鍵詞:代理邊緣部署

        李亞國,李冠良,張凱,晉濤

        (1.國網(wǎng)山西省電力公司,太原 030001;2.國網(wǎng)山西省電力公司電力科學研究院,太原 030001)

        0 概述

        隨著物聯(lián)網(wǎng)技術及其產品研究的推廣,物聯(lián)網(wǎng)已逐步應用到各類生產、制造等領域中。通過物聯(lián)網(wǎng)技術可實現(xiàn)現(xiàn)場各數(shù)據(jù)實時采集和分析預警功能,由此對物聯(lián)網(wǎng)提出了低延遲、安全性、可靠性和智能性等更高要求[1]。由于邊緣設備比云服務器更接近數(shù)據(jù)源,能夠縮短網(wǎng)絡延遲和帶寬消耗,將數(shù)據(jù)采集后進行本地處理,也稱為邊緣計算,是克服上述障礙的必然[2]。邊緣計算目前被應用于智能生產、智能運輸、智能運檢等各種智能物聯(lián)網(wǎng)應用,其核心能力是實現(xiàn)現(xiàn)場各傳感器及終端設備物聯(lián)感知與實時采集。由于近年來人工智能(Artificial Intelligence,AI)技術被廣泛采用,有望為邊緣節(jié)點提供分布式智能服務[3]。將人工智能集成到邊緣代理中,實現(xiàn)預警分析前置化具有較大的應用場景。例如在變電站、配電站房智能運檢業(yè)務中,對站內生產環(huán)境實現(xiàn)智能分析,將現(xiàn)場作業(yè)安全違章識別等AI 模型集成在邊緣代理中,不依賴于網(wǎng)絡傳輸,告警產生后現(xiàn)場即時處理,提高現(xiàn)場安全管控和管理能力。

        本文通過在邊緣代理中融合與集成人工智能模型,構建新型智能的邊緣物聯(lián)網(wǎng)框架,實現(xiàn)物聯(lián)網(wǎng)智能化和智能計算前置化。在邊緣層面采用遷移學習和增量學習,通過邊緣側本地私有數(shù)據(jù)重新訓練AI模型,并使用增量數(shù)據(jù)迭代訓練模型。在此基礎上,設計云壓縮和邊緣解壓機制,以降低模型部署的網(wǎng)絡成本,并通過配置壓縮比降低網(wǎng)絡成本。最后設計一個實驗仿真的系統(tǒng)原型來評估該框架的性能。

        1 關鍵問題

        人工智能和基于邊緣計算的物聯(lián)網(wǎng)技術在國內外已取得較大的進展,兩者融合最初是將簡單機器學習算法部署到邊緣節(jié)點以實現(xiàn)對視頻流數(shù)據(jù)的識別認知,比如火災檢測、交通流分析等[4]。然而,邊緣計算、人工智能和物聯(lián)網(wǎng)技術是為特定目的而開發(fā)的,將它們組合成一個統(tǒng)一的解決方案仍處于早期階段,并面臨以下挑戰(zhàn):

        1)在傳統(tǒng)的邊緣云范例中,人工智能模型由云服務器上的公共數(shù)據(jù)集進行全面訓練,而邊緣側只負責推理操作。這類設計對于存在個性化的上下文中或服務于特定目的應用場景中效率低下[5]。

        2)進入邊緣設備的大部分數(shù)據(jù)都包含個人用戶和本地現(xiàn)場數(shù)據(jù),尤其是電網(wǎng)數(shù)據(jù)涉及高度的敏感性。因此,與云服務器共享這些數(shù)據(jù)對于云邊協(xié)作構建高性能人工智能模型,會存在一定的安全隱患和風險。

        3)由于邊緣設備在計算、存儲和通信能力方面受到限制,頻繁地從云端接收大型AI 模型可能會導致設備過載和網(wǎng)絡擁塞。

        本文研究如何將邊緣計算和人工智能有效地集成到物聯(lián)網(wǎng)系統(tǒng)中[6]。一方面,在云端訓練人工智能模型的傳統(tǒng)方法不適用于物聯(lián)網(wǎng)應用,因為通過互聯(lián)網(wǎng)傳輸大量數(shù)據(jù)可能會帶來嚴重的延遲和信息安全風險。另一方面,訓練AI 模型需要很高的計算能力,在邊緣設備上進行訓練會受到性能約束,且高功耗較高。因此,基于人工智能對邊緣架構進行優(yōu)化調整,包括設計數(shù)據(jù)共享結構、模型部署方法和云-邊協(xié)作策略,并由此構建一個支持 AI 的邊緣代理物聯(lián)網(wǎng)框架,實現(xiàn)將邊緣計算和 AI 集成到物聯(lián)網(wǎng)系統(tǒng)中[7]。

        2 主要技術及思路

        近年來,國內外研究人員對人工智能和邊緣計算的整合已開展一定研究。本文關注最近邊緣人工智能相關的研究成果,總體思路大致分為框架設計、模型適應和處理器加速[8]。

        2.1 框架設計

        基于邊緣代理框架進行改進設計,在不干擾AI模型結構的情況下提高模型在邊緣側的訓練和推理階段的性能。

        1)模型訓練:模型訓練的工作主要基于知識蒸餾的框架技術開展?;谥R蒸餾框架的設計目標是最大限度地將模型從大型和深度神經網(wǎng)絡(Deep Neural Network,DNN)轉移到小型和淺層網(wǎng)絡[9]。該框架將模型訓練學習過程分為邊緣代理側學習和服務器側學習兩個階段。在前一個階段對每個代理進行模型遷移,并基于代理的本地數(shù)據(jù)進行強化學習(Reinforcement Learning,RL)訓練。在后一階段,聯(lián)邦學習(Federated Learning,F(xiàn)L)服務器會定期地從所有代理收集RL 模型并重新生成聯(lián)邦模型。該方法使邊緣設備能夠學習和改進預測模型,同時在本地保留其私有數(shù)據(jù)[10]。

        2)模型推理:模型推理性能優(yōu)化的工作主要通過眾多節(jié)點在模型分區(qū)上進行,這對大型和復雜的學習模型特別有益。將模型參數(shù)分為多個部分,每個部分由一個單獨節(jié)點保存,并由各節(jié)點聚合執(zhí)行訓練或推理任務。通過模型分區(qū)可避免用戶私有數(shù)據(jù)暴露,開發(fā)差分隱私機制可保證數(shù)據(jù)在邊緣設備上實現(xiàn)隔離。文獻[11]設計了一個保護隱私的深度神經網(wǎng)絡,對敏感數(shù)據(jù)和模型參數(shù)進行保護。模型分區(qū)提高了數(shù)據(jù)隱私,因每個節(jié)點只有權訪問各自的數(shù)據(jù)部分并保留相應的模型參數(shù)子集。

        2.2 模型適配

        通過對模型進行適當?shù)倪m配處理,可使預訓練的AI 模型更適合邊緣架構,包括模型壓縮、條件計算、算法異步和徹底去中心化。

        1)模型壓縮:文獻[12]提出了一種支持智能設備個性化和提高容錯能力的修剪后再訓練方案,并設計了MobileNets 模型,包括寬度乘數(shù)和圖像分辨率參數(shù),形成了16 個具有不同延遲、精度和大小值的模型。文獻[13]引入一個模型標準,可根據(jù)給定的任務分析連接的重要性,將重要性較低的連接淘汰,以降低空間和時間的復雜度。

        2)條件計算:文獻[14]提出了條件計算的方法,通過高度非線性的非微分函數(shù)設計一個梯度的無偏估計器,解決了DNN 耗時且計算成本高的問題,文獻[15]擴展了該設計,在應用非線性時通過消除具有零值的隱藏單元來降低權重矩陣的等級,并通過打開或關閉部分網(wǎng)絡組件來優(yōu)化性能和資源利用率。

        3)算法異步化:為將本地模型異步合并到聯(lián)邦學習中,文獻[16]引入了Gossip 隨機梯度下降(GoSGD)算法來異步訓練模型,模型信息通過隨機八卦算法在不同線程之間完全共享,并給出一個專門為邊緣計算(Edge Computing,EC)平臺設計的框架,減少不同EC 平臺之間的性能差異。

        4)去中心化設計:區(qū)塊鏈作為去中心化的技術,主要是用于比特幣引入,以消除聯(lián)邦學習中所用的單一服務器[17]。文獻[18]提出了一種基于區(qū)塊鏈的聯(lián)邦學習架構(BlockFL),使模型更新由相應的礦工利用工作證明機制進行交換和驗證,并設計了基于聯(lián)邦學習和區(qū)塊鏈的新系統(tǒng),實現(xiàn)去中心化。

        2.3 處理器加速

        通過改善計算密集型操作(如乘法或累加)來優(yōu)化DNN 的結構,以實現(xiàn)對處理器加速。在處理器加速方面的研究主要集中在DNN 特定指令集設計和驅動內存計算設計。

        1)DNN 特定指令集設計:由于DNN 的快速發(fā)展,許多硬件制造商都具有針對DNN 計算的特殊特性?;谌蒎e性考慮,DNN 模型傾向于以16 bit 浮點(FP16)格式存儲數(shù)據(jù),而不是FP32 或FP64,以節(jié)省內存并易于擴大系統(tǒng)。例如英特爾Knights Mill CPU(Xeon Phi 7295 SR3VD)可通過添加指令集來實現(xiàn)BFloat16 格式——BF16 計算,以支持深度學習訓練任務。雖然CPU 和GPU 在訪問數(shù)據(jù)時會消耗大量時間,但谷歌設計的張量處理單元(TPU)可實現(xiàn)在每周期基于收縮陣列機制處理多達65 536 個8 bit 乘加單元,并用于矩陣運算[19]。

        2)驅動計算內存設計:可應用記憶體來模擬ISAAC 架構中的原位模擬運算,以減少數(shù)據(jù)移動。文獻[20]提出了一種名為radix-X 卷積神經元網(wǎng)絡橫桿陣列的新型算法,通過利用記憶體橫桿陣列加速CNN 推理,以實現(xiàn)近數(shù)據(jù)處理。

        本文基于上述技術開展人工智能和邊緣代理的融合研究,設計一種新型的AI+邊緣智能框架,并取得了以下成果:1)設計一種新穎的學習過程,包括遷移學習和增量學習,并應用到邊緣代理設備中,使其具備增強的AI 智能功能,可使用本地存儲的個性化和增量數(shù)據(jù)實現(xiàn)模型動態(tài)再訓練;2)設計一種數(shù)據(jù)存儲策略,將邊緣數(shù)據(jù)分為公共和私有,私有數(shù)據(jù)被鎖定在本地邊緣以避免隱私問題,而公共數(shù)據(jù)被傳輸?shù)皆贫艘赃M行模型訓練任務,從而實現(xiàn)保護數(shù)據(jù)隱私的同時,提高邊緣-云協(xié)作能力[21];3)設計一種輕量級部署范式,支持壓縮比可配置的AI 模型云壓縮和邊緣解壓機制,實現(xiàn)網(wǎng)絡消耗最小化,降低了邊緣AI 模型的部署成本。

        3 AI+邊緣智能框架設計

        為解決上述問題,本文提出了AI+邊緣智能框架,如圖1 所示,該框架對模型的處理分為引導、部署、操作及學習3 個階段。

        圖1 AI+邊緣智能框架的主要工作階段設計Fig.1 Main working stage design of AI+edge intelligence framework

        該框架主要工作階段相關設計說明如下:

        1)引導階段:在部署到邊緣節(jié)點之前創(chuàng)建基于容器的微服務,并將用戶選擇的模型與其運行環(huán)境打包成一個docker 容器,即“模型包”,以進行后續(xù)的部署。引導階段可應用模型優(yōu)化技術來減小模型,啟用適用于模型和目標邊緣節(jié)點的機器學習平臺(如TensorFlow、PyTorch、Keras),并分配訪問權限策略以控制邊緣設備之間的協(xié)作[22]。

        2)部署階段:模型包被壓縮并加載到共享存儲庫中,具有權限的邊緣節(jié)點可以訪問該存儲庫。收到部署請求后,將模型包下發(fā)到相應的邊緣節(jié)點。該階段可采用模型壓縮和修剪技術降低網(wǎng)絡成本。

        3)操作及學習階段:邊緣代理首先解壓模型包并使用相應的docker 文件創(chuàng)建容器,容器在啟動后使用邊緣代理私有數(shù)據(jù)重新訓練模型。使用本地數(shù)據(jù)重新訓練可使模型更符合實際場景,并提高其推理準確性[23]。本框架具備較好的靈活擴展性,當邊緣環(huán)境及場景發(fā)生較大變化時,可通過最新的數(shù)據(jù)使用增量學習來更新模型。

        為提高預訓練模型的準確性,需在云和邊緣之間共享更多數(shù)據(jù),但這使得邊緣層面的數(shù)據(jù)存在安全及隱私風險。本文提出了一種隱私保護機制,將存儲在邊緣設備中的數(shù)據(jù)分為公共數(shù)據(jù)和私有數(shù)據(jù)[24],其存儲策略設計如圖2 所示。

        圖2 AI+邊緣智能框架的存儲策略設計Fig.2 Storage strategy design of AI+edge intelligence framework

        框架存儲策略主要設計如下:

        假定某用戶x,物聯(lián)網(wǎng)設備y對該用戶有數(shù)據(jù)訪問權限并接入到邊緣設備z,存儲在y中x的數(shù)據(jù)分為公共部分db(u)xy和私有部分dp(u)xy。由于物聯(lián)網(wǎng)設備存在存儲資源限制,db(u)xy數(shù)據(jù)發(fā)送到相應的邊緣設備之前,在y上進行短時存儲,時間為Ts,而dp(u)xy被鎖定在物聯(lián)網(wǎng)設備中進行安全保護。在時間t時,存儲在y中x的數(shù)據(jù)可定義如下:

        Dxy=db(u)xy|t-t0| <Ts∪dp(u)xy(1)

        其中:t0是數(shù)據(jù)上傳至邊緣設備的最新時間。同樣地,將邊緣設備z從IoT 設備收集的數(shù)據(jù)分為公共部分db(e)z和私有部分dp(e)z,db(e)z和db(e)xy的組合用于增量學習,dp(e)z用于遷移學習。db(e)z和db(u)xy臨時存儲在邊緣設備的時間為Te,之后數(shù)據(jù)傳輸?shù)皆贫恕T谙到y(tǒng)中,需配置Te>Ts以降低數(shù)據(jù)傳輸?shù)木W(wǎng)絡成本。此外,若系統(tǒng)收到數(shù)據(jù)所有者的認可,dp(u)xy可共享給邊緣設備。在上傳到邊緣之前,數(shù)據(jù)dp(u)xy將在本地受到隱私及匿名保護[25],邊緣設備無法從dp(u)xy中識別x和y。因此,存儲在z中的數(shù)據(jù)可以表示如下:

        其中:是與邊緣設備z鏈接并共享私有數(shù)據(jù)的物聯(lián)網(wǎng)設備列表。

        3.1 模型部署階段

        在使用云端的數(shù)據(jù)進行預訓練后,模型被部署在不同的多個邊緣節(jié)點上。該部署方式可能會消耗過多的網(wǎng)絡資源,并增加系統(tǒng)停機時間而損害系統(tǒng)可靠性。為此,本文提出了一種支持AI 模型壓縮和解壓縮的輕量級模型部署范式,在壓縮之前對模型修剪以消除次要因素。部署階段的設計如圖3 所示,包括模型修剪和模型壓縮兩個步驟。

        圖3 部署階段的設計Fig.3 Design of deployment phase

        模型部署過程及設計具體如下:

        1)模型修剪:模型修剪旨在減少參數(shù)數(shù)量并去除層之間的冗余連接。給定N層人工智能模型M,參數(shù)序列P={wi|1 ≤i≤N},壓縮比λ在0~1 之間,修剪過程會刪除所有在閾值K以下的權重,并在此基礎上進行修改,計算公式如下:

        其中:m是hj→c=1 的數(shù)量。通過上述步驟,減少模型M 的層數(shù)和維度。

        3)模型解壓:在模型成功部署到邊緣設備后,通過從C中心點Vc恢復參數(shù)序列P來重構模型M。首先,通過計算wi′的近似值來恢復修剪后的參數(shù)序列P′,表示為其計算公式如下:

        哈希函數(shù)和哈希種子需在云和邊緣設備之間預先共享。

        然后,通過在P′中低于閾值K的修剪后參數(shù)填充一個小的θ值來獲得參數(shù)序列P,這些參數(shù)在后續(xù)的增量學習中將會被更新。

        上述設計為邊緣設備部署AI 模型帶來了較大便利:一是修剪模型可明顯減少其大小,節(jié)省了模型部署的帶寬消耗和邊緣設備的存儲空間;二是使用哈希函數(shù)壓縮模型增加了模型的保密性,若沒有哈希函數(shù)和哈希種子,攻擊者很難恢復原始模型。

        3.2 模型學習階段

        隨著邊緣設備計算能力的增長,模型可處理更多任務,不再僅是通過有效的學習策略進行推理。然而,僅在邊緣側訓練AI 模型不足以提供高精度的智能服務。為此,本文提出一種協(xié)作式邊緣學習算法,如圖4 所示,通過在邊緣側中使用遷移學習和增量學習,通過私有和增量數(shù)據(jù)迭代地訓練并更新模型,解決了邊緣設備上對模型訓練的性能瓶頸及其動態(tài)更新的問題。

        圖4 學習階段的設計Fig.4 Design of learning phase

        本文設計具備兩大優(yōu)點:一是提高了模型精度,滿足了邊緣個性化需求,僅在云端使用一般數(shù)據(jù)訓練模型無法達到個性化邊緣上下文的準確性要求,因此采用存儲在邊緣代理中的私有數(shù)據(jù)通過遷移學習來重新訓練模型是必要的;二是保證了模型準確性,由于物聯(lián)網(wǎng)設備存在移動性,從這些設備收集的上下文和數(shù)據(jù)經常變化,導致部署到邊緣的模型不滿足后續(xù)實際場景[26]。從云端重新訓練并部署新模型可能導致設備過載和網(wǎng)絡消耗等問題,為此本文提出采用增量學習來使用邊緣設備中的傳入數(shù)據(jù)更新模型。主要過程及方法如下:

        給定一個具有L層和每層l個神經元的AI 模型M。首先使用云上的公共數(shù)據(jù)集DS(c)對模型M 進行預訓練。給定學習率γ1、期望準確度ε1和迭代次數(shù)N1,預訓練過程表示為CT(DS(c),γ1,ε1,N1)。其次使用遷移學習TL(dp(e),γ2,ε2,N2)在邊緣側重新訓練模型M,其中,dp(e)、γ2、ε2、N2分別是邊緣側私有數(shù)據(jù)、學習率、期望精度和迭代次數(shù)。為提高準確性,微調優(yōu)化被應用到最后一層wL={wiL| 1 ≤i≤nL}。假設wL層的輸入和輸出為xL和y^L,wL的損失函數(shù)定義為:

        其中:y和k分別是M 中的標記數(shù)據(jù)和神經元數(shù)量。計算wL的梯度下降值計算公式如下:

        wL的權重被重新定義如下:

        通過使用增量學習,模型M 可使用新傳入的增量數(shù)據(jù)進行更新,系統(tǒng)只需使用小批量的最新數(shù)據(jù)來更新模型即可保持其高可用性[27]。

        4 實驗與仿真

        為準確評估AI+邊緣智能框架的準確性和性能,本文以電網(wǎng)配電站房環(huán)境監(jiān)測智能分析和應用場景為例,構建一個仿真模型進行測試,包括終端設備、邊緣代理裝置和云服務器來模擬配電站房內的環(huán)境監(jiān)測系統(tǒng)。如圖5 所示,配電站房環(huán)境監(jiān)測智能分析需求有:通過布設傳感器及視頻監(jiān)控實現(xiàn)運行狀態(tài)數(shù)據(jù)實時采集及站內環(huán)境實時監(jiān)測,將采集數(shù)據(jù)及視頻數(shù)據(jù)流傳輸?shù)竭吘壌硌b置,通過深度學習模型自動識別站內是否存在火災火情、異物侵入等異常情況,模型被同時部署在邊緣代理和云服務器上。實驗系統(tǒng)采用Raspberry Pi 3 Model B(1.2 GHz CPU 和1 GB RAM)模擬終端設備,使用Raspberry Pi4 Model B(1.5 GHz CPU and 4 GB RAM)模擬邊緣代理裝置,操作系統(tǒng)為Ubuntu 18.04。云服務器配備英特爾酷睿i9-9900k 處理器、32 GB RAM 和Nvidia RTX 3080 GPU。邊緣代理和云服務器通過互聯(lián)網(wǎng)連接。

        圖5 配電站房智能監(jiān)測系統(tǒng)仿真環(huán)境Fig.5 Simulation environment of intelligent monitoring system for distribution station building

        1)準確性評估:為驗證邊緣側上使用私有數(shù)據(jù)集再訓練的重要性,研發(fā)動物識別模型模擬異物入侵場景。模型由CIFAR-102作為云端公共數(shù)據(jù)集和Cat/Dog3作為邊緣側私有數(shù)據(jù)集進行訓練。公有數(shù)據(jù)集在云上對模型訓練完后,可識別10 種動物(如馬、鳥、貓、狗等)。但配電站房實際場景只需針對貓和狗進行識別。因此,預訓練模型被部署到邊緣節(jié)點后,需使用本地貓狗圖像的專用數(shù)據(jù)集進行重新訓練[25]。實驗通過邊緣側私有數(shù)據(jù)集和公共數(shù)據(jù)集,分別比較了云模型和邊緣模型在預訓練及再訓練后的識別結果,如圖6 所示,兩個模型的測試準確率在預訓練階段是相等的,準確率大約為21%。對比本地私有數(shù)據(jù)集進一步訓練的結果,邊緣模型的質量顯著提高,其測試準確率達到88%,而云模型的測試準確率略微提高到61%。測試結果表明,相比傳統(tǒng)云AI 架構,AI+邊緣智能框架在實際應用場景中的模型訓練與準確率具有較好的優(yōu)越性。

        圖6 邊緣模型和云模型學習階段的測試準確率比較Fig.6 Comparison of test accuracy between edge model and cloud model in learning stage

        2)延遲性能評估:在邊緣和云模式上可采用不同的識別模型(SSD MobileNet V1、SSD MobileNet V2、SSD MobileDet),模型的端到端延遲可通過不同的圖像尺寸(1 080p、720p 和360p)進行評估。如圖7所示,在邊緣側上模型識別的延遲都明顯低于云模式,這主要得益于處理組件和數(shù)據(jù)源之間的距離得以縮短原因。

        圖7 邊緣模型和云模型的平均延時Fig.7 Average delays of edge model and cloud model

        實驗結果顯示,邊緣代理在延遲方面的優(yōu)勢對小圖像尺寸較為明顯,邊緣代理和人工智能集成可顯著降低端到端延遲,更適用于現(xiàn)場實際應用環(huán)境。

        3)資源消耗評估:為評估AI+邊緣智能框架對邊緣設備硬件資源的影響,實驗觀察了在不同圖像尺寸上執(zhí)行推理任務時各種已部署的物體檢測模型的RAM 和CPU 使用情況。實驗結果如圖8 所示,由于推理任務涉及的計算量比存儲量大,無論模型類型和圖像大小如何,內存消耗都保持在25%以下。此外,AI+邊緣智能框架經過高度優(yōu)化,可作為微服務在后臺運行。在同一個實驗中,在邊緣代理上處理1 080p 圖像的CPU 消耗在所有模型上約為50%,處理360p 圖像只需要大約30%的計算能力。實驗結果表明,本文框架可完全在硬件資源有限的邊緣設備上運行。

        圖8 AI+邊緣模型和云模型的資源占用分析Fig.8 Resource occupancy analysis of AI+edge model and cloud model

        4)CPU 和GPU 設備訓練時間對比分析:在CPU設備(以Raspberry Pi4 為代表)及GPU 設備(以Nvidia Jetson Nano 為代表)上訓練不同的深度學習模型(MobileNet V1,MobileNet V2,Inception V3),訓練周期為一個epoch。實驗結果如圖9 所示。

        圖9 CPU 及GPU 設備模型訓練時間Fig.9 Training time of CPU and GPU device models

        使用GPU 設備訓練模型的速度比CPU 設備快5倍,GPU 設備中所有模型的訓練時間都在4 s 以內,而CPU 設備對SSD MobileNet V1、SSD MobileNet V2 和Inception V3 的訓練時間分別為10.2、10.4 和24.8 s。實驗結果表明,GPU 設備可顯著加快AI+邊緣智能框架的模型學習階段。

        5)模型壓縮對比分析:實驗分析了在不同壓縮比下重建模型和原始模型之間的精度和尺寸的變化。如圖10 所示,將壓縮比設置在0.64 以下,模型準確性變化不大,尺寸卻明顯減小。例如當壓縮比為0.64時,原始模型和重建模型的準確率分別約為86%和84%,而模型大小從55 MB 減小到22 MB。實驗結果表明,AI+邊緣智能框架在一定壓縮比下能提高準確率的同時,較大地減少了模型尺寸。

        圖10 不同壓縮率下的模型準確率與尺寸測試Fig.10 Model accuracy and size test under different compression rates

        5 結束語

        本文介紹了AI+邊緣代理智能框架,旨在將AI和邊緣計算集成到物聯(lián)網(wǎng)中。首先在邊緣層采用遷移學習和增量學習,遷移學習幫助使用邊緣側本地私有數(shù)據(jù)重新訓練AI 模型,增量學習使用增量數(shù)據(jù)迭代訓練這些模型。涉及訓練過程的邊緣數(shù)據(jù)分為永久存儲在邊緣中的私有數(shù)據(jù)和用于在云上訓練模型的公共數(shù)據(jù),從而在維護數(shù)據(jù)隱私的同時增強邊緣與云的協(xié)作能力。其次設計了云壓縮和邊緣解壓機制,以降低模型部署的網(wǎng)絡成本,并通過配置壓縮比平衡節(jié)省的網(wǎng)絡成本和模型準確性。最后設計并實現(xiàn)了一個實驗仿真的系統(tǒng)原型來評估框架的性能。實驗結果表明,該框架不僅提高了AI 模型的推理精度,而且降低了延遲和網(wǎng)絡成本,實現(xiàn)了邊緣代理與人工智能有機融合和集成。下一步將開展更多業(yè)務場景的應用研究,對該框架的實用性進行進一步驗證,提高其推廣價值。

        猜你喜歡
        代理邊緣部署
        一種基于Kubernetes的Web應用部署與配置系統(tǒng)
        晉城:安排部署 統(tǒng)防統(tǒng)治
        部署
        代理圣誕老人
        代理手金寶 生意特別好
        一張圖看懂邊緣計算
        部署“薩德”意欲何為?
        太空探索(2016年9期)2016-07-12 10:00:02
        復仇代理烏龜君
        學生天地(2016年23期)2016-05-17 05:47:15
        一個村有二十六位代理家長
        中國火炬(2012年2期)2012-07-24 14:18:04
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        女同视频一区二区在线观看| 欧洲熟妇色xxxx欧美老妇多毛| 无码国产午夜福利片在线观看| 中文字幕无码专区一VA亚洲V专| 亚洲色图在线视频观看| av是男人的天堂免费| 日本少妇熟女一区二区| 日本一区二区视频免费在线看| 伊人久久大香线蕉综合影院首页 | 亚洲综合在线观看一区二区三区| 久久综合99re88久久爱| 久久久亚洲av成人网站| 国产女合集小岁9三部| 国产WW久久久久久久久久| 日韩熟女精品一区二区三区视频| 午夜视频在线观看一区二区小| 中文字幕日韩三级片| 中文字幕精品久久久久人妻红杏1 丰满人妻妇伦又伦精品国产 | 国产亚洲美女精品久久久2020| 亚洲一区 日韩精品 中文字幕| 欧美日韩综合网在线观看| 亚洲片在线视频| 国产喷白浆精品一区二区豆腐 | 欧美自拍区| 日本精品人妻一区二区三区| 国产禁区一区二区三区| 欧美人牲交| 91久久青青草原线免费| 亚洲视频中文字幕更新| 亚洲国产中文字幕视频| 国产精品久久久久久久久免费| 亚洲AV永久无码制服河南实里| 东京热加勒比在线观看| 亚洲成在人线天堂网站| 乱人伦中文视频在线| 久久99精品久久久久久野外 | 午夜少妇高潮免费视频| 久久免费亚洲免费视频| 国产精品186在线观看在线播放 | 亚洲av人片在线观看调教| 婷婷色国产精品视频二区|