單文麗,周 軍,錢慧敏,盧新彪,段朝霞,黃浩乾
(河海大學(xué),南京 211100)
在各控制工程領(lǐng)域,與機(jī)械、電力電子或機(jī)電一體化等傳統(tǒng)形式的硬件控制器相比,基于機(jī)器學(xué)習(xí)及其算法的軟硬混合控制器越來(lái)越顯示出獨(dú)特的優(yōu)勢(shì)。目前,在機(jī)器學(xué)習(xí)研究中影響較大的是Simon H的觀點(diǎn):機(jī)器學(xué)習(xí)能力對(duì)系統(tǒng)任何技術(shù)的改進(jìn)、改良都是有必要的, 這種學(xué)習(xí)能力的獲得使得機(jī)器系統(tǒng)在重復(fù)性極強(qiáng)的工作或類似關(guān)聯(lián)性的工作時(shí),完成得更好,有更出色的表現(xiàn)。
近年來(lái),深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界都得到廣泛關(guān)注,取得了迅猛發(fā)展。如深度學(xué)習(xí)在模式識(shí)別上取得了比一般神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的識(shí)別率有顯著提升的效果[4]。深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)在算法構(gòu)造上有更多的隱藏層和大量神經(jīng)元,這樣就大幅度提高了網(wǎng)絡(luò)學(xué)習(xí)的復(fù)雜度和自由度,從而提高了可擬合復(fù)雜關(guān)系的范圍和高度。一些無(wú)法由淺層人工神經(jīng)網(wǎng)絡(luò)解決的大規(guī)模、復(fù)雜問(wèn)題可以由深度學(xué)習(xí)算法來(lái)解決。深度學(xué)習(xí)已被應(yīng)用到各種工程問(wèn)題中,包括特征分類[1]和模式識(shí)別[2]。例如:語(yǔ)音識(shí)別[3],手寫體數(shù)字識(shí)別,人體行為識(shí)別[4]等。利用深度學(xué)習(xí)算法對(duì)復(fù)雜函數(shù)擬合能力[4-7]的研究多有報(bào)告,但利用深度學(xué)習(xí)算法代替經(jīng)典控制器的控制策略進(jìn)而形成神經(jīng)網(wǎng)絡(luò)控制器實(shí)際實(shí)施控制的研究報(bào)告不多[8-9]。本研究旨在通過(guò)使用DBN(deep belief network)算法來(lái)模擬經(jīng)典直接轉(zhuǎn)矩控制電路里的開(kāi)關(guān)表控制效果,驗(yàn)證深度學(xué)習(xí)算法用于替代硬件控制器的可行性和有效性[8,10]。具體地,以調(diào)整轉(zhuǎn)子速度和角度來(lái)驅(qū)動(dòng)加工部件實(shí)現(xiàn)位置、進(jìn)度等控制目標(biāo)的異步電動(dòng)機(jī)系統(tǒng)為例,使用MATLAB/Simulink進(jìn)行數(shù)值仿真,研究和比較深度學(xué)習(xí)控制器和經(jīng)典直接轉(zhuǎn)矩控制里開(kāi)關(guān)電路控制效果,證明了深度學(xué)習(xí)控制器的性能和有效性。
深度學(xué)習(xí)概念最早出現(xiàn)在2006年,由Hinton G E等學(xué)者[7]一起提出的復(fù)雜神經(jīng)網(wǎng)絡(luò)算法。這種算法依賴于樣本數(shù)據(jù),通過(guò)一定的訓(xùn)練方法得到每一層神經(jīng)元所構(gòu)成的結(jié)構(gòu)拓?fù)浜蜋?quán)值參數(shù)[11]。Hinton等為了解決傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)產(chǎn)生局部最小值的問(wèn)題,找出傳統(tǒng)神經(jīng)網(wǎng)絡(luò)陷入局部最小值的根本原因,即訓(xùn)練算法中權(quán)值初始化是隨機(jī)的,只需要采用無(wú)監(jiān)督的預(yù)訓(xùn)練方法優(yōu)化網(wǎng)絡(luò)權(quán)值的初值, 再進(jìn)行有監(jiān)督的權(quán)值參數(shù)微調(diào)的學(xué)習(xí)方法。這種參數(shù)微調(diào)通常使用反向傳播算法(以下簡(jiǎn)稱BP算法),微調(diào)整最后一層的權(quán)值和偏置??傊疃葘W(xué)習(xí)是從單層或淺層神經(jīng)網(wǎng)絡(luò)中擴(kuò)展出來(lái)的算法,是基于隱藏層和神經(jīng)元的數(shù)目眾多的深度神經(jīng)網(wǎng)絡(luò)的,這使得深度學(xué)習(xí)算法擁有高維參數(shù)(包括權(quán)值和偏置),從而可擬合非常復(fù)雜的函數(shù)關(guān)系。然而,層次結(jié)構(gòu)和神經(jīng)元個(gè)數(shù)的增多,也同時(shí)會(huì)在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過(guò)程中使函數(shù)被過(guò)度擬合,生成預(yù)訓(xùn)練也使得多層次特征檢測(cè)變得更為復(fù)雜。這種算法特征使得深度學(xué)習(xí)網(wǎng)絡(luò)與淺層神經(jīng)網(wǎng)絡(luò)之間的區(qū)別明顯,并具有復(fù)雜結(jié)構(gòu)的獨(dú)特特性。典型的深度置信網(wǎng)絡(luò)(以下簡(jiǎn)稱DBN)是各種深層學(xué)習(xí)網(wǎng)絡(luò)中比較著名的。以下關(guān)于DBN算法的簡(jiǎn)要說(shuō)明是為了便于理解深度學(xué)習(xí)的各過(guò)程。
DBN通常是由多個(gè)受限玻爾茲曼機(jī)(以下簡(jiǎn)稱RBM)交互堆疊而成[11-12],如圖1所示(圖1中是三重RBM形成的深度網(wǎng)絡(luò),以下說(shuō)明中為保持符號(hào)關(guān)系簡(jiǎn)明,均以此為例)。該類神經(jīng)網(wǎng)絡(luò)進(jìn)行從輸入端到輸出端的前向運(yùn)算時(shí),輸入數(shù)據(jù)從輸入層的RBM輸入網(wǎng)絡(luò),之后經(jīng)逐層RBM向前運(yùn)算,到達(dá)網(wǎng)絡(luò)的輸出層后,形成神經(jīng)網(wǎng)絡(luò)整體的輸出。
圖1 DBN的構(gòu)成框架
標(biāo)準(zhǔn)的DBN算法[13]包括有兩個(gè)基本過(guò)程:各RBM模型基于無(wú)監(jiān)督學(xué)習(xí)的初始連接權(quán)值和偏置的預(yù)訓(xùn)練(即圖1中由實(shí)線雙箭頭表示的方向與過(guò)程)以及基于BP的全局微調(diào)(即圖1中由虛線雙箭頭表示的方向與過(guò)程)。具體如下:
第一過(guò)程:進(jìn)行DBN前向計(jì)算,完成各RBM連接權(quán)值與偏置的預(yù)訓(xùn)練。具體地,輸入數(shù)據(jù)(參考向量)進(jìn)入第一層RBM的可見(jiàn)層,結(jié)合初始前置權(quán)值(即第一層RBM的可見(jiàn)層前面的權(quán)值)將向量V0轉(zhuǎn)換并轉(zhuǎn)移到該RBM隱藏層,按照Boltzmann分布隨機(jī)生成該隱含層的前置權(quán)值修改量,進(jìn)而修改權(quán)值。其中,RBM的預(yù)訓(xùn)練是由CD(Contrastive Divergence)算法完成。由圖1可知,第一層RBM的隱藏層也是第二層RBM的可見(jiàn)層,由此,第一層RBM的輸出數(shù)據(jù)作為第二層RBM的參考輸入向量就傳遞給了第二層RBM的可見(jiàn)層,并結(jié)合第二層RBM的可見(jiàn)層前置權(quán)值轉(zhuǎn)換并傳遞到第二層RBM的隱藏層,重復(fù)第一層RBM的前置權(quán)值修改過(guò)程,完成第二層RBM的預(yù)訓(xùn)練。以后諸層依次重復(fù),直至整個(gè)網(wǎng)絡(luò)的前向運(yùn)算結(jié)束。這樣就得到了下面第二過(guò)程的全局微調(diào)的初始連接權(quán)值(即各層RBM的前置權(quán)值與偏置)。
第二過(guò)程:完成針對(duì)神經(jīng)網(wǎng)絡(luò)最后一層RBM至第一層的基于BP算法的反向連接權(quán)值微調(diào),從而完成DBN整體微調(diào)。如圖1所示,在DBN的最后一層RBM中開(kāi)始反向傳播,把當(dāng)前層RBM的輸出向量反向作為輸入向量,對(duì)比理想的輸出向量, 通過(guò)偏差極小化等算法來(lái)實(shí)現(xiàn)該層RBM的權(quán)值微調(diào)。與此相對(duì),也有通過(guò)逐層BP算法進(jìn)行多層微調(diào)整個(gè)DBN的,但這樣的反向傳播會(huì)將錯(cuò)誤信息自頂向下傳播至所有RBM。本文只考慮對(duì)最后一層(即圖1的最頂層)RBM進(jìn)行BP算法的權(quán)值微調(diào),所以誤差反向傳播問(wèn)題不會(huì)發(fā)生。
下面針對(duì)DBN的參數(shù)預(yù)訓(xùn)練和微調(diào)中的連接權(quán)值修正關(guān)系公式等給出具體說(shuō)明。
DBN中的每層RBM是一個(gè)完整且獨(dú)立的神經(jīng)感知器,每一個(gè)RBM都有可見(jiàn)層和隱藏層,連接它們的神經(jīng)元為雙向全連接,其連接權(quán)值基于Boltzmann隨機(jī)分布進(jìn)行增量調(diào)整。為敘述方便,考慮一個(gè)共有n個(gè)神經(jīng)元層的DBN,其各神經(jīng)元層分別稱為第l層,各層神經(jīng)元個(gè)數(shù)分別為m1,m2,…,mn個(gè),各神經(jīng)元激活函數(shù)均為sigmoid(z)=(1+e-z)-1=∶f(z)。又定義各層的激活函數(shù)值向量:
Rmn
(1)
Rml×ml-1
(2)
(3)
Rml
(4)
(5)
這樣前向傳導(dǎo)關(guān)系可表達(dá)如下:
z(l+1)(t+1)=W(l)(t)a(l)(t)+b(l)(t)∈Rml
(6)
(7)
即z(l+1)(t)是第l+1層神經(jīng)元t時(shí)刻的狀態(tài)向量。
接下來(lái),為了刻畫以第l-1層作為可見(jiàn)層,以第l層作為隱含層的RBM中,可見(jiàn)層與隱含層間的連接權(quán)值修正過(guò)程的能量變化[13],用式(8)定義的函數(shù)表示對(duì)該RBM的能量度量:
(8)
于是,網(wǎng)絡(luò)權(quán)值的訓(xùn)練過(guò)程可看成是進(jìn)行網(wǎng)絡(luò)能量函數(shù)極小化的過(guò)程。
為建立連接權(quán)值的修正算法,定義所考慮層的RBM中的兩層神經(jīng)元的增廣狀態(tài)向量[v(l-1)(t),h(l)(t)]的聯(lián)合分布概率(即所謂Boltzmann分布):
(9)
式中:Z定義為概率運(yùn)算歸一化因子,即:
(10)
在作為感知器的RBM中,隱藏層和可視層神經(jīng)元均為二元取值,即每個(gè)神經(jīng)元只有0和1兩種狀態(tài)值??紤]給定第l-1可見(jiàn)層的所有神經(jīng)元的(隨機(jī))狀態(tài)向量時(shí),對(duì)應(yīng)隱藏層(即第l層)上神經(jīng)元被激活(即狀態(tài)值為1)的條件概率,就是要計(jì)算P[h(l)(t)=1|v(l-1)(t)]。這里h(l)(t)=1是指所有標(biāo)量元素都為1的向量。具體地,有:
(11)
同理,成立:
(12)
基于上述關(guān)系,v(l-1)(t)對(duì)隱藏層神經(jīng)元狀態(tài)的條件概率P[h(l)(t)=1|v(l-1)(t)]依定義可推導(dǎo)如下:
P[h(l)(t)=1|v(l-1)(t)]=
(13)
類似地,隱藏層神經(jīng)元狀態(tài)h(l-1)(t)關(guān)于可見(jiàn)層神經(jīng)元狀態(tài)的條件概率有:
P[v(l)(t)=1|h(l-1)(t)]=
(14)
假設(shè)給定可見(jiàn)層神經(jīng)元狀態(tài)時(shí),與其相對(duì)的隱藏層神經(jīng)元的激活條件是互不相關(guān)的,與之相反也成立。于是成立:
(15)
記θ={W,a,b}表示RBM中的待擬合參數(shù)的簡(jiǎn)約標(biāo)記。有了上述各分布概率關(guān)系后,該RBM 的隱藏層待擬合參數(shù){W,a,b}的獲得就是一個(gè)基于給定訓(xùn)練數(shù)據(jù)的最大似然訓(xùn)練過(guò)程。假設(shè)訓(xùn)練樣本集合S={v1,v2,…,vns},ns是樣本總數(shù)。訓(xùn)練RBM的目標(biāo)就是最大化如下似然概率函數(shù):
(16)
注意到樣本vi與時(shí)間無(wú)關(guān),所以t時(shí)間變量在上式中并沒(méi)有出現(xiàn)。由對(duì)數(shù)函數(shù)單調(diào)性可知,最大化Lθ和最大化lnLθ是等價(jià)的。于是訓(xùn)練RBM參數(shù)的目標(biāo)就可以通過(guò)最大化如下函數(shù)關(guān)系完成。
(17)
對(duì)lnLθ進(jìn)行最大化的常用方法就是梯度法,即通過(guò)梯度計(jì)算迭代逼近最優(yōu)點(diǎn),迭代關(guān)系定義:
(18)
式中:α為學(xué)習(xí)率。另外,有:
(19)
于是按照θ取ωi,j,ai,bi分別給出計(jì)算關(guān)系如下。
θ=ωi,j時(shí)的計(jì)算結(jié)果:
(20)
2)θ=ai時(shí)的計(jì)算結(jié)果:
(21)
3)θ=bi時(shí)的計(jì)算結(jié)果是:
(22)
進(jìn)而,由式(19),式(20)可得:
(23)
由式(19),式(21)可得:
(24)
由式(19),式(22)可得:
(25)
事實(shí)上,式(23)~式(25)的v(l-1)(t)是隨機(jī)的,可采用對(duì)比散度算法(即k步Gibbs算法)進(jìn)行采樣獲得。具體地,從第l層到第l+1層之間關(guān)系有:利用P[v(l-1)(t)=1|h(l-1)(t)]采樣得出v(l-1)(t);利用P[h(l-1)(t)=1|v(l-1)(t)]采樣得出h(l)(t),即利用rand函數(shù)產(chǎn)生隨機(jī)數(shù)r,若r
接著,利用上述采樣得到的v(l-1)(t)來(lái)近似估計(jì)式(9)~式(11)的期望項(xiàng)(均值項(xiàng)),具體如下:
(26)
(27)
(28)
在采樣取值為1,這樣得到的是權(quán)值在可見(jiàn)層偏置和隱藏層偏置在該當(dāng)意義下的修正量,從而可建立如下迭代修正關(guān)系:
(29)
在上述的參數(shù)微調(diào)過(guò)程中,和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,DBN算法多層RBM造成了根本性差異。顯然上述修正關(guān)系RBM是無(wú)監(jiān)督學(xué)習(xí),因?yàn)檫^(guò)程中沒(méi)有基于目標(biāo)數(shù)據(jù)的參數(shù)修正部分。
DBN全局微調(diào)是BP過(guò)程,步驟如下:
對(duì)于單個(gè)樣例(z,y)(指某輸入樣本向量z對(duì)應(yīng)的期望輸出值向量或目標(biāo)特征數(shù)據(jù)y的關(guān)系對(duì)),其非線性代價(jià)函數(shù)定義:
(30)
當(dāng)進(jìn)行參數(shù)微調(diào)時(shí),訓(xùn)練規(guī)則將使代價(jià)函數(shù)J在每個(gè)訓(xùn)練循環(huán)按梯度下降。于是基于代價(jià)函數(shù)梯度計(jì)算的對(duì)參數(shù)W和b的更新迭代規(guī)則:
(31)
(32)
式中:ε為修正步長(zhǎng)。
注意到式(6)的標(biāo)量展開(kāi)式:
(33)
從而對(duì)式(33)做偏導(dǎo)運(yùn)算后就有:
(34)
(35)
類似地,計(jì)算得:
(36)
3) 由式(35)和式(36)可知,參數(shù)更新規(guī)則:
(37)
(38)
這樣,式(37)和式(38)就可以給出連接權(quán)值和偏置的BP算法意義下的迭代更新值。
要設(shè)計(jì)基于DBN的深度學(xué)習(xí)控制器來(lái)替代異步電動(dòng)機(jī)系統(tǒng)中的逆變器開(kāi)關(guān)電路,首先要對(duì)原開(kāi)關(guān)表進(jìn)行操作和數(shù)據(jù)測(cè)量,如圖2(a)所示,以得到開(kāi)關(guān)表的輸入和輸出變量之間的關(guān)系;然后這些輸入和輸出信息作為深度學(xué)習(xí)算法的輸入和目標(biāo)數(shù)據(jù),對(duì)深度學(xué)習(xí)控制器進(jìn)行訓(xùn)練;最后深度學(xué)習(xí)控制器被接入電路更換原來(lái)的開(kāi)關(guān)表,實(shí)現(xiàn)深度學(xué)習(xí)控制器控制異步電動(dòng)機(jī)的目的,如圖2(b)所示。
(a) 經(jīng)典直接轉(zhuǎn)矩控制異步電動(dòng)機(jī)
(b) 深度學(xué)習(xí)替代開(kāi)關(guān)表控制異步電動(dòng)機(jī)
考慮開(kāi)關(guān)表的工作狀態(tài)如表1和表2所示。
表1 電壓矢量開(kāi)關(guān)選擇表
表2 開(kāi)關(guān)表的組合狀態(tài)
因此,用深度學(xué)習(xí)控制器來(lái)代替實(shí)際的電壓矢量開(kāi)關(guān)表電路,首先要收集有關(guān)開(kāi)關(guān)表電路的輸入輸出數(shù)據(jù),直到收集的數(shù)據(jù)足以充分地反映運(yùn)行關(guān)系為止。然后,DBN算法基于收集到的輸入輸出數(shù)據(jù)學(xué)習(xí)開(kāi)關(guān)表的控制作用訓(xùn)練學(xué)習(xí),完成深度學(xué)習(xí)控制器的設(shè)計(jì)。
深度學(xué)習(xí)控制器的預(yù)訓(xùn)練步驟如下:
步驟1:開(kāi)關(guān)表樣本數(shù)據(jù)的收集整理。即收集磁通、電磁轉(zhuǎn)矩誤差、定子磁通矢量位置和電壓矢量作為DBN算法訓(xùn)練的參考數(shù)據(jù)和目標(biāo)數(shù)據(jù)并對(duì)數(shù)據(jù),樣本進(jìn)行關(guān)系標(biāo)注;
步驟2:對(duì)DBN權(quán)值矩陣,偏置向量初始化。初始化矩陣的各元素均設(shè)為零;
步驟3:基于式(15)~式(17)的前向計(jì)算,得到各隱藏層的有關(guān)參數(shù)預(yù)置值;
步驟4:基于式(25)、式(26)的BP算法,對(duì)DBN網(wǎng)絡(luò)進(jìn)行單步反向調(diào)整,實(shí)現(xiàn)對(duì)DBN的全局微調(diào);
步驟5:訓(xùn)練收斂性滿足誤差要求時(shí),結(jié)束計(jì)算并給出訓(xùn)練結(jié)果;否則返回到步驟3再次訓(xùn)練。
考慮文獻(xiàn)[8]的異步電動(dòng)機(jī)數(shù)學(xué)方程如下:
(39)
電磁轉(zhuǎn)矩方程:
Te=p(φsdisq-φsqisd)
(40)
機(jī)械方程:
(41)
定子磁通估計(jì):
(42)
(43)
式中:Vsα,Vsβ是α,β相的定子電壓;isα,isβ是α,β相的定子電流;φsα,φsβ是α,β相的定子磁通,φsd,φsq是d,q坐標(biāo)下的定子磁通;isd,isq是d,q坐標(biāo)下的定子電流;Rs是定子電阻;Ls是定子電感;Lr是轉(zhuǎn)子電感;Lm是互感;Ts,Tr分別是定子和轉(zhuǎn)子時(shí)間常數(shù);σ是磁漏系數(shù);J表示轉(zhuǎn)動(dòng)慣量;f是摩擦系數(shù);p是極對(duì)數(shù);v是轉(zhuǎn)子轉(zhuǎn)速;ω是轉(zhuǎn)子角速度;Te是電磁轉(zhuǎn)矩;TL是負(fù)載轉(zhuǎn)矩。
表3是異步電動(dòng)機(jī)各項(xiàng)參數(shù)的設(shè)定值。
在MATLAB/Simulink環(huán)境中,基于深度學(xué)習(xí)的異步電動(dòng)機(jī)開(kāi)關(guān)表進(jìn)行控制擬合,研究和比較前后兩種控制方法的控制效果。
深度學(xué)習(xí)算法是基于Tanaka等開(kāi)發(fā)的深度神經(jīng)網(wǎng)絡(luò)工具箱的,經(jīng)過(guò)修改,形成隱藏層由4層組成,共有6層神經(jīng)元層的DBN,每層各包含63個(gè)神經(jīng)元。本文中深度學(xué)習(xí)控制器的迭代次數(shù)為3 680,學(xué)習(xí)率為0.01。
表3 異步電動(dòng)機(jī)的參數(shù)值
圖3和圖4分別給出了在開(kāi)關(guān)表電路控制和深度學(xué)習(xí)控制器作用下的異步電動(dòng)機(jī)速度響應(yīng)曲線。
圖3 開(kāi)關(guān)表控制下的速度響應(yīng)曲線
圖4 深度學(xué)習(xí)控制下的速度響應(yīng)曲線
圖5和圖6分別給出了在開(kāi)關(guān)表控制和深度學(xué)習(xí)控制器作用下的異步電動(dòng)機(jī)的定子磁通。
圖5 開(kāi)關(guān)表控制下的定子磁通
圖6 深度學(xué)習(xí)控制下的定子磁通
圖7和圖8分別給出了在開(kāi)關(guān)表控制和深度學(xué)習(xí)控制器作用下的異步電動(dòng)機(jī)的電磁轉(zhuǎn)矩。
圖7 開(kāi)關(guān)表控制下的電磁轉(zhuǎn)矩
圖8 深度學(xué)習(xí)控制下的電磁轉(zhuǎn)矩
通過(guò)對(duì)比可知,在選擇所有檢測(cè)變量關(guān)系上,深度學(xué)習(xí)控制器替代原先的開(kāi)關(guān)表的開(kāi)關(guān)電路控制作用,可以使系統(tǒng)基本達(dá)到原來(lái)的控制效果,使系統(tǒng)鎮(zhèn)定。由上述控制效果比較可知,深度學(xué)習(xí)控制器替代原先開(kāi)關(guān)表實(shí)施控制異步電動(dòng)機(jī)的方案是完全可行的。特別由DBN算法來(lái)模擬實(shí)際開(kāi)關(guān)表控制的技術(shù)思路是值得理論探討的。
本文旨在探討基于DBN算法的深度學(xué)習(xí)控制器對(duì)控制問(wèn)題的實(shí)現(xiàn)能力,以及開(kāi)關(guān)表控制和所提出的深度學(xué)習(xí)控制器之間的比較研究,以驗(yàn)證深度學(xué)習(xí)控制理論對(duì)物理控制器的擬合精度。數(shù)值仿真結(jié)果表明,基于DBN算法的深度學(xué)習(xí)控制器作為傳統(tǒng)控制器的替代方案是可行的。這種智能控制器的設(shè)計(jì)思路是,先基于基本控制理論設(shè)計(jì)控制器的結(jié)構(gòu)與策略,然后基于神經(jīng)網(wǎng)絡(luò)對(duì)控制器的控制策略的學(xué)習(xí)與模仿形成基于神經(jīng)網(wǎng)絡(luò)算法的控制策略,將神經(jīng)網(wǎng)絡(luò)算法替代原理論設(shè)計(jì)的決策環(huán)節(jié)后,與硬件執(zhí)行器一并形成智能化控制器。