亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人工神經(jīng)網(wǎng)絡(luò)的發(fā)動(dòng)機(jī)點(diǎn)火提前角預(yù)測(cè)模型

        2016-08-16 06:03:45TURKSON顏伏伍侯獻(xiàn)軍2MALI劉博現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室武漢理工大學(xué)武漢430070汽車零部件技術(shù)湖北省協(xié)同創(chuàng)新中心武漢430070現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室武漢430070MechanicalEngineeringDepartmentHoPolytechnicBoxHP27GhanaAutomotiveandTractorsEngineeringDepartmentFacultyofEngineeringMiniaU
        汽車科技 2016年4期
        關(guān)鍵詞:人工神經(jīng)網(wǎng)絡(luò)復(fù)雜度神經(jīng)元

        R. F. TURKSON,顏伏伍,2,侯獻(xiàn)軍,2M. K. A. ALI,4,劉博,2(.現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室(武漢理工大學(xué)),武漢430070;2.汽車零部件技術(shù)湖北省協(xié)同創(chuàng)新中心,武漢430070;3.現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室,武漢430070;3.Mechanical Engineering Department,Ho Polytechnic,P. O. Box HP 27,Ghana;4.Automotive and Tractors Engineering Department,F(xiàn)aculty of Engineering,Minia University,6,El-Minia,Egypt)

        基于人工神經(jīng)網(wǎng)絡(luò)的發(fā)動(dòng)機(jī)點(diǎn)火提前角預(yù)測(cè)模型

        R. F. TURKSON1,3,顏伏伍1,2,侯獻(xiàn)軍1,2M. K. A. ALI1,4,劉博1,2
        (1.現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室(武漢理工大學(xué)),武漢430070;2.汽車零部件技術(shù)湖北省協(xié)同創(chuàng)新中心,武漢430070;3.現(xiàn)代汽車零部件技術(shù)湖北省重點(diǎn)實(shí)驗(yàn)室,武漢430070;3.Mechanical Engineering Department,Ho Polytechnic,P. O. Box HP 217,Ghana;4.Automotive and Tractors Engineering Department,F(xiàn)aculty of Engineering,Minia University,61111,El-Minia,Egypt)

        本文利用人工神經(jīng)網(wǎng)絡(luò)建立發(fā)動(dòng)機(jī)點(diǎn)火提前角預(yù)測(cè)模型,提出顯式優(yōu)化神經(jīng)網(wǎng)絡(luò)模型復(fù)雜度的方法,并提出一種在將實(shí)驗(yàn)數(shù)據(jù)劃分為訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)集前的數(shù)據(jù)預(yù)處理方法,能有效提高模型的精度。得到的最優(yōu)神經(jīng)網(wǎng)絡(luò)模型,對(duì)訓(xùn)練、驗(yàn)證、測(cè)試數(shù)據(jù)集預(yù)測(cè)的相關(guān)系數(shù)均為1,模型誤差幾乎為零。在劃分?jǐn)?shù)據(jù)集前通過復(fù)制原始數(shù)據(jù)集得到大量的數(shù)據(jù)樣本,并通過多次迭代訓(xùn)練(999次),優(yōu)化的發(fā)動(dòng)機(jī)點(diǎn)火提前角預(yù)測(cè)模型具有很高的精度。

        發(fā)動(dòng)機(jī);人工神經(jīng)網(wǎng)絡(luò);點(diǎn)火提前角;預(yù)測(cè)模型

        Richard Fiifi Turkson

        武漢理工大學(xué)博士在讀,主要研究方向?yàn)榛谥悄芩惴ǎㄈ斯ど窠?jīng)網(wǎng)絡(luò)和遺傳算法等)的內(nèi)燃機(jī)建模與性能優(yōu)化,已發(fā)表論文10余篇。

        1 前言

        人工神經(jīng)網(wǎng)絡(luò)是受生物神經(jīng)系統(tǒng)啟發(fā)的一種黑箱類建模方法,用于解決現(xiàn)實(shí)世界中模式分類、聚類/分類,函數(shù)逼近/系統(tǒng)識(shí)別,優(yōu)化和控制系統(tǒng)設(shè)計(jì)等問題。人工神經(jīng)網(wǎng)絡(luò)有較強(qiáng)的并行處理、學(xué)習(xí)和泛化能力,具有高適應(yīng)性和容錯(cuò)性等特點(diǎn);能在一定的精度下,逼近任何函數(shù)[1]。因此,近年來受到很多的關(guān)注[2,3],并在汽車發(fā)動(dòng)機(jī)領(lǐng)域得到了廣泛的運(yùn)用[4-15]。

        Wu等人[4]利用人工神經(jīng)網(wǎng)絡(luò)對(duì)具有可變氣門正時(shí)和獨(dú)立進(jìn)氣排氣凸輪軸定相技術(shù)發(fā)動(dòng)機(jī)的氣流進(jìn)行建模,提出了神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)的顯式優(yōu)化方法[5],該優(yōu)化方法通過逐步遞增模型參數(shù)(隱層數(shù)量和/或每層的神經(jīng)元數(shù)量),觀察訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)集的均方誤差,但是該方法需要有大量的實(shí)驗(yàn)數(shù)據(jù),才能有較好的預(yù)測(cè)效果。文獻(xiàn)[6]用元模型的方法降低1-D發(fā)動(dòng)機(jī)模型的計(jì)算復(fù)雜度,而不損失有效數(shù)據(jù)信息,用于快速運(yùn)行的自控制模型應(yīng)用。文獻(xiàn)[7]基于Levenberg-Marquardt算法,利用人工神經(jīng)網(wǎng)絡(luò)對(duì)單缸點(diǎn)火發(fā)動(dòng)機(jī)的燃料系統(tǒng)識(shí)別和燃油噴射定時(shí)優(yōu)化。Hadef等[8]開發(fā)了一個(gè)人工神經(jīng)網(wǎng)絡(luò)模型用來預(yù)測(cè)可變氣門定時(shí)小型渦輪增壓點(diǎn)火發(fā)動(dòng)機(jī)的體積效率,用包含了穩(wěn)態(tài)與瞬態(tài)工況的實(shí)驗(yàn)數(shù)據(jù)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練模型的具有良好的預(yù)測(cè)結(jié)果。Zhang等[9]利用人工神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)發(fā)動(dòng)機(jī)的氮氧化物排放量,用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的輸入包括:發(fā)動(dòng)機(jī)轉(zhuǎn)速、扭矩和機(jī)油溫度。在不同發(fā)動(dòng)機(jī)工況下,對(duì)發(fā)動(dòng)機(jī)氮氧化物排放量的模型預(yù)測(cè)精度很高。在近期的另一項(xiàng)研究[10]中,使用GT-PowerTM 1-D仿真和人工神經(jīng)網(wǎng)絡(luò)為點(diǎn)火發(fā)動(dòng)機(jī)進(jìn)行建模,該神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)用貝葉斯規(guī)則以及對(duì)不同迭代權(quán)重進(jìn)行重新初始化的方法來優(yōu)化,從而確保了全局收斂性。

        本文利用神經(jīng)網(wǎng)絡(luò)以發(fā)動(dòng)機(jī)轉(zhuǎn)速和進(jìn)氣歧管壓力為輸入,建立發(fā)動(dòng)機(jī)點(diǎn)火提前角預(yù)測(cè)模型,提出顯式優(yōu)化神經(jīng)網(wǎng)絡(luò)模型復(fù)雜度的方法,并提出一種新的數(shù)據(jù)預(yù)處理的方法,該方法能在僅有少量數(shù)據(jù)樣本的情況下,得到精度很高的神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型。

        2 實(shí)驗(yàn)設(shè)計(jì)和建模方法

        本研究采用的是改造后以LPG為燃料的上汽通用五菱B15發(fā)動(dòng)機(jī),并用聯(lián)電LEC4AD發(fā)動(dòng)機(jī)管理系統(tǒng)來替代原始管理系統(tǒng);在配有數(shù)據(jù)采集系統(tǒng)的AVL交流測(cè)功機(jī)上測(cè)試發(fā)動(dòng)機(jī),試驗(yàn)臺(tái)架如圖1所示。改造后的發(fā)動(dòng)機(jī)特征參數(shù)如表1所示:表1 實(shí)驗(yàn)發(fā)動(dòng)機(jī)特征參數(shù)

        采集發(fā)動(dòng)機(jī)在穩(wěn)態(tài)工況下的實(shí)驗(yàn)數(shù)據(jù),發(fā)動(dòng)機(jī)轉(zhuǎn)速范圍為400-6000rpm(步長(zhǎng)為400rpm),進(jìn)氣歧管壓力范圍為25kPa- 100kPa(步長(zhǎng)為5kPa)。

        通過臺(tái)架實(shí)驗(yàn)獲得發(fā)動(dòng)機(jī)全工況范圍內(nèi)無爆震情況下的點(diǎn)火提前角范圍,所得的最小點(diǎn)火提前角為15度,最大點(diǎn)火提前角為44度。在不同工況下,保持發(fā)動(dòng)機(jī)轉(zhuǎn)速和進(jìn)氣歧管壓力不變,改變點(diǎn)火提起角,并記錄發(fā)動(dòng)機(jī)最大扭矩輸出時(shí)的最佳點(diǎn)火提前角。實(shí)驗(yàn)數(shù)據(jù)共240組,圖2為基于實(shí)驗(yàn)數(shù)據(jù)的發(fā)動(dòng)機(jī)最佳點(diǎn)火提前角MAP圖。

        2.1神經(jīng)網(wǎng)絡(luò)模型誤差

        神經(jīng)網(wǎng)絡(luò)一般由一個(gè)輸入層,一個(gè)輸出層以及一個(gè)或多個(gè)隱層構(gòu)成,每個(gè)層包含若干個(gè)神經(jīng)元。相鄰兩層的神經(jīng)元兩兩相連,前一層神經(jīng)元的輸出作為后一層神經(jīng)元的輸入。每個(gè)神經(jīng)元的所有輸入經(jīng)過權(quán)重分配和偏移運(yùn)算后代入神經(jīng)元激勵(lì)函數(shù)(一般為非線性函數(shù))中得到該神經(jīng)元的輸出。神經(jīng)網(wǎng)絡(luò)能高精度的逼近一個(gè)高度非線性函數(shù)。

        本研究利用神經(jīng)網(wǎng)絡(luò)模型進(jìn)行系統(tǒng)辨識(shí),其主要目的是獲取一個(gè)能代替原始函數(shù) f的預(yù)測(cè)函數(shù)來估算系統(tǒng)輸出,該輸出要盡可能接近輸入向量X=(x1, x2, x3…,xn)下原始函數(shù) 的實(shí)際輸出y。等式(1)為預(yù)測(cè)誤差(均方根誤差)

        模型誤差E可分解為偏差誤差和方差誤差兩個(gè)分量,如等式(2)所示:

        其中,Eb=偏差誤差,Ev=方差誤差

        偏差誤差的產(chǎn)生是因?yàn)轭A(yù)測(cè)模型不能完全準(zhǔn)確地代替一個(gè)復(fù)雜的系統(tǒng),即使神經(jīng)網(wǎng)絡(luò)模型的權(quán)重和偏差都達(dá)到最優(yōu),偏差也依然存在。

        另一方面,方差誤差的產(chǎn)生則由模型的參數(shù)數(shù)量引起的,并隨模型參數(shù)的增加而增加。文獻(xiàn)[16,17]提出,基于同樣的訓(xùn)練樣本,模型的參數(shù)越少,預(yù)測(cè)模型相對(duì)越精確,這符合精簡(jiǎn)原則。

        對(duì)于一個(gè)較多樣本的訓(xùn)練數(shù)據(jù)集,方差誤差由等式(3)近似得到。

        這里,σ2表示方差,n表示參數(shù)數(shù)量,N表示訓(xùn)練數(shù)據(jù)樣本數(shù)量。對(duì)于一個(gè)訓(xùn)練數(shù)據(jù)集,方差誤差與模型參數(shù)數(shù)量n成正比。

        對(duì)于一個(gè)高度靈活(多模型參數(shù))的模型,等式(2)中的偏差誤差Eb可以被忽略。這樣,模型誤差的平方就等于方差誤差。即:

        σ等式(4)表明了訓(xùn)練數(shù)據(jù)集樣本數(shù)量N和方差對(duì)模型誤差的影響[15]。

        圖3為模型參數(shù)、偏差誤差和方差誤差間的關(guān)系,從圖3可明顯看出,隨著模型參數(shù)的增加,偏差誤差減小,同時(shí)方差誤差增加。因?yàn)?,不可能在不惡化(增大)一種誤差的前提下,減?。ǜ纳疲┝硪环N誤差。但可以利用多目標(biāo)優(yōu)化,實(shí)現(xiàn)在偏差誤差和方差誤差間的折中,從而獲得最佳的參數(shù)參數(shù)數(shù)量(最優(yōu)模型復(fù)雜度)。

        數(shù)據(jù)集通??煞譃橛?xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集。測(cè)試數(shù)據(jù)集用于測(cè)試訓(xùn)練得到的神經(jīng)網(wǎng)絡(luò)模型的泛化能力。一般來說,模型訓(xùn)練誤差大小與偏差誤差大小很相近,并隨模型參數(shù)的增加而減小。測(cè)試模型誤差為偏差誤差和方差誤差(模型誤差)之和,并在模型參數(shù)超過最優(yōu)模型參數(shù)后開始增加。因此,模型參數(shù)過少,會(huì)導(dǎo)致較高的偏差誤差,出現(xiàn)“欠擬合”;而模型參數(shù)過多,會(huì)導(dǎo)致較大的方差誤差出現(xiàn)“過擬合”。為確定最佳的模型參數(shù)數(shù)量(模型復(fù)雜度),可以通過訓(xùn)練大量的模型,并選擇對(duì)測(cè)試數(shù)據(jù)集預(yù)測(cè)效果最好的模型為最佳模型。然而這可能會(huì)導(dǎo)致“過擬合”,因?yàn)槟P偷倪x擇和評(píng)估是基于同樣的訓(xùn)練數(shù)據(jù)集。

        解決這個(gè)問題的一種方法是引入驗(yàn)證數(shù)據(jù)集用于選擇最佳的模型,本文設(shè)置訓(xùn)練、驗(yàn)證、測(cè)試樣本集的比例為6:2:2。因?yàn)樵诒狙芯恐校瑑?yōu)化算法的迭代次數(shù)很少,隨機(jī)選擇的初始參數(shù)(權(quán)重和偏差)基本決定了模型的精度,因此,模型對(duì)驗(yàn)證數(shù)據(jù)集的誤差應(yīng)該作為選擇最佳模型的標(biāo)準(zhǔn)。

        為了得到最佳的模型復(fù)雜度,最重要的一點(diǎn)是通過顯式和/或隱式模型復(fù)雜度優(yōu)化方法對(duì)偏差和方差誤差進(jìn)行折中。顯式方法通過逐步增加模型參數(shù),并觀察每種情況下模型的誤差。隱式優(yōu)化方法使用正則化方法,在不改變模型參數(shù)的額定數(shù)量的情況下改變模型復(fù)雜度。

        2.2神經(jīng)網(wǎng)絡(luò)模型優(yōu)化方法

        本研究利用顯式模型復(fù)雜度優(yōu)化方法,逐步增加模型參數(shù)(神經(jīng)元數(shù)量),設(shè)置模型參數(shù)變化范圍為6~15個(gè),得到10個(gè)不同復(fù)雜度的模型。

        圖4為模型顯式優(yōu)化方法的過程,它包括以下步驟:

        步驟1:給定隱層層數(shù)和每層神經(jīng)元數(shù),確定神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)的類型為多層前饋神經(jīng)網(wǎng)絡(luò),使用了雙隱層結(jié)構(gòu),第一個(gè)隱層神經(jīng)元數(shù)量固定為15,第二個(gè)隱層神經(jīng)元數(shù)量初始值為6(最大為15),輸入層神經(jīng)元數(shù)量為2,輸出層神經(jīng)元數(shù)量為1。采用隨機(jī)賦值的方法初始化網(wǎng)絡(luò)參數(shù)(權(quán)重和偏差),對(duì)不同的隱層采用不同的激勵(lì)函數(shù)。對(duì)于15個(gè)神經(jīng)元的和6個(gè)神經(jīng)元的隱層,采用Tansigmoid激勵(lì)函數(shù),對(duì)于只有1個(gè)神經(jīng)元的輸出層,使用線性激勵(lì)函數(shù)。

        步驟2:使用Leveberg-Marquart[18]算法訓(xùn)練初始神經(jīng)網(wǎng)絡(luò),對(duì)步驟1得到的初始網(wǎng)絡(luò)訓(xùn)練10次,同時(shí)觀察每次訓(xùn)練的驗(yàn)證誤差。

        步驟3:如果訓(xùn)練次數(shù)小于10次,通過步驟1重新訓(xùn)練,每次訓(xùn)練時(shí),在步驟1中重新初始化網(wǎng)絡(luò)權(quán)重和偏差,直至總的訓(xùn)練次數(shù)達(dá)到10。

        步驟4:選擇10次初始訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型中驗(yàn)證誤差最小的神經(jīng)網(wǎng)絡(luò)模型。選擇驗(yàn)證誤差作為評(píng)價(jià)準(zhǔn)則是因?yàn)?,最小?yàn)證誤差可以實(shí)現(xiàn)偏差和誤差之間的最佳折中[5,19]。

        步驟5:在第二個(gè)隱層增加1個(gè)神經(jīng)元數(shù)量,以改變神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度。

        步驟6-8:類似于步驟2-4,重新訓(xùn)練增加隱層神經(jīng)元數(shù)量后的新的神經(jīng)網(wǎng)絡(luò);

        步驟9:重復(fù)步驟5-8,以獲得8個(gè)以上的模型,這樣就有了10個(gè)不同復(fù)雜度和驗(yàn)證誤差的模型。

        步驟10:在這10個(gè)不同復(fù)雜度的模型中,選擇驗(yàn)證誤差最小的模型作為最佳的神經(jīng)網(wǎng)絡(luò)模型。

        上段所述的訓(xùn)練和選擇過程在MATLAB?中實(shí)現(xiàn),10種不同復(fù)雜度模型中最佳網(wǎng)絡(luò)模型為2-15-15-1結(jié)構(gòu)。

        2.3實(shí)驗(yàn)數(shù)據(jù)處理優(yōu)化模型性能

        在本文研究對(duì)象中,有2個(gè)輸入變量:

        轉(zhuǎn)速 和進(jìn)氣歧管壓力 ,一個(gè)輸出變量:最優(yōu)點(diǎn)火提前角 。等式(5)中的矩陣D表示實(shí)驗(yàn)數(shù)據(jù),數(shù)據(jù)中的每一列表示兩個(gè)輸入和一個(gè)輸出,分別為轉(zhuǎn)速 、進(jìn)氣歧管壓力 和最優(yōu)點(diǎn)火提前角 。N表示整個(gè)實(shí)驗(yàn)數(shù)據(jù)樣本的數(shù)量(240個(gè)樣本)。

        為了優(yōu)化神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)精度,本文提出一種新方法來處理數(shù)據(jù)。傳統(tǒng)劃分?jǐn)?shù)據(jù)集方法是隨機(jī)選擇部分?jǐn)?shù)據(jù)作為訓(xùn)練集,剩下的數(shù)據(jù)樣本作為測(cè)試集。在這種情況下,訓(xùn)練集和測(cè)試集中沒有相同的元素,N1(N1=N)代表整個(gè)數(shù)據(jù)集的總數(shù)。Shamekhi and Shamekhi[10]提出一種優(yōu)化的數(shù)據(jù)集劃分方法,將整個(gè)數(shù)據(jù)樣本N2(N2=N)劃分為訓(xùn)練集和測(cè)試集,并使訓(xùn)練集和測(cè)試集共享部分樣本,如圖5中所示:

        本文提出一種新的數(shù)據(jù)集劃分方法,在數(shù)據(jù)集劃分之前將N(240)個(gè)數(shù)據(jù)樣本復(fù)制4次,得到一個(gè)總數(shù)為5N(1200)的數(shù)據(jù)集。通過多次復(fù)制樣本數(shù)據(jù),在隨機(jī)劃分?jǐn)?shù)據(jù)集時(shí),使得訓(xùn)練、驗(yàn)證、測(cè)試(訓(xùn)練、驗(yàn)證、測(cè)試集的比例為6:2:2)數(shù)據(jù)集具有一些相同的樣本。同時(shí),根據(jù)等式(4),通過復(fù)制的方法增加樣本總數(shù)可以使得減小模型誤差。

        3 結(jié)果和討論

        圖6為最佳神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練、驗(yàn)證和測(cè)試誤差,在優(yōu)化過程中,使用正則化方法,在不改變模型參數(shù)(包括權(quán)重和偏差)數(shù)量的情況下,優(yōu)化模型復(fù)雜度。在迭代訓(xùn)練一定次數(shù)后,正則化方法會(huì)在驗(yàn)證誤差開始增加時(shí)終止訓(xùn)練。

        最佳神經(jīng)網(wǎng)絡(luò)模型的驗(yàn)證誤差為6.56×10-27,迭代次數(shù)高達(dá)999次,這樣就能找到一個(gè)全局最優(yōu)值。由于最佳神經(jīng)網(wǎng)絡(luò)模型誤差幾近為零,因此,訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)集的相關(guān)系數(shù)(R)均等于1,如圖7所示:

        表2 研究結(jié)果對(duì)比

        表2比較了本研究和之前Shamekhi的研究的結(jié)果。從表中可以看出,本本研究的訓(xùn)練、驗(yàn)證和測(cè)試集相關(guān)系數(shù)均為1,優(yōu)于之前Shamekhi的研究結(jié)果。在Shamekhi的研究中,迭代次數(shù)為470,而在本研究的迭代次數(shù)為999,這樣可以得到一個(gè)更優(yōu)的神經(jīng)網(wǎng)絡(luò)模型。本文選擇Shamekhi[10]的研究的結(jié)果作為對(duì)比,是因?yàn)樗绕渌芯浚?,8,9]有更好的預(yù)測(cè)精度。

        4 結(jié)論

        本研究利用人工神經(jīng)網(wǎng)絡(luò)以發(fā)動(dòng)機(jī)轉(zhuǎn)速和進(jìn)氣歧管壓力作為輸入,預(yù)測(cè)以LPG為代用燃料的發(fā)動(dòng)機(jī)的最佳點(diǎn)火提前角,并提出了神經(jīng)網(wǎng)絡(luò)模型顯式優(yōu)化方法和一種劃分?jǐn)?shù)據(jù)集的新方法,以提高神經(jīng)網(wǎng)絡(luò)模型的預(yù)測(cè)精度。該方法有助于實(shí)現(xiàn)訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)的零誤差。點(diǎn)火發(fā)動(dòng)機(jī)對(duì)點(diǎn)火提前角的精度要求很高,預(yù)測(cè)精度較差的點(diǎn)火提前角預(yù)測(cè)模型可能經(jīng)常會(huì)引起爆燃,損壞燃燒室以及發(fā)動(dòng)機(jī)部件。本研究的模型預(yù)測(cè)精度很高,能有效避免爆震的發(fā)生,僅在發(fā)動(dòng)機(jī)的工況發(fā)生變化或當(dāng)燃料質(zhì)量(在抗爆震性方面)發(fā)生變化時(shí),才會(huì)發(fā)生燃燒爆震。

        [1]Leshno,M.,et al.,Multilayer feedforward networks with a nonpolynomial activation function can approximate any function. Neural networks,1993. 6(6):p. 861-867.

        [2]Bhattacharyya,S. and U. Maulik,Soft Computing for Image and Multimedia Data Processing. 2013: Springer.

        [3]Jain,A.K.,J. Mao,and K. Mohiuddin,Artificial neural networks: A tutorial. Computer,1996(3): p. 31-44.

        [4]Wu,B.,et al.,Using Artificial Neural Networks for Representing the Air Flow Rate through a 2.4 Liter VVT Engine,2004,SAE International.

        [5]Nelles,O.,Nonlinear system identification: from classical approaches to neural networks and fuzzy models. 2001: Springer Science & Business Media.

        [6]Papadimitriou,I.,et al.,Neural network based fastrunning engine models for control-oriented applications,2005,SAE Technical Paper.

        [7]Yücesan,E.,et al.,Gausslan Radial Basis Functions for Simulation Metamodeling.

        [8]El Hadef,J.,et al. Neural Model for Real-Time Engine Volumetric Efficiency Estimation. in 11th SAE International Conference on Engines & Vehicles-ICE2013,Capri: Italie (2013). 2013.

        [9]Zhang,Q.,et al.,Predicting the Nitrogen Oxides Emissions of a Diesel Engine using Neural Networks,2015,SAE Technical Paper.

        [10]Shamekhi,A.-M. and A.H. Shamekhi,A new approach in improvement of mean value models for spark ignition engines using neural networks. Expert Systems with Applications,2015. 42(12): p. 5192-5218.

        [11]Wu,B.,et al.,Cam-phasing optimization using artificial neural networks as surrogate modelsmaximizing torque output,2005,SAE Technical Paper.

        [12]Wu,B.,et al.,Cam-phasing optimization using artificial neural networks as surrogate models-fuel consumption and NOx emissions,2006,SAE Technical Paper.

        [13]杜常清,顏伏伍,楊平龍,等. 基于BP神經(jīng)網(wǎng)絡(luò)的發(fā)動(dòng)機(jī)轉(zhuǎn)矩估計(jì)[J]. 汽車工程,2008,30(7):588-591.

        [14]Sayin,C.,et al.,Performance and exhaust emissions of a gasoline engine using artificial neural network. Applied thermal engineering,2007. 27(1): p. 46-54.

        [15]Kiani,M.K.D.,et al.,Application of artificial neural networks for the prediction of performance and exhaust emissions in SI engine using ethanol-gasoline blends. Energy,2010. 35(1): p. 65-69.

        [16]Forster,M.R.,Key concepts in model selection:Performance and generalizability. Journal of mathematical psychology,2000. 44(1): p. 205-231.

        [17]Foussias,G. and G. Remington,Negative symptoms in schizophrenia: avolition and Occam's razor. Schizophrenia Bulletin,2010. 36(2): p. 359-369.

        [18]Lourakis,M.I.,A brief description of the Levenberg-Marquardt algorithm implemented by levmar. Foundation of Research and Technology,2005. 4: p. 1-6.

        [19]Thiery,C. and B. Scherrer. Least-squares λ policy iteration: Bias-variance trade-off in control problems. in International Conference on Machine Learning. 2010.

        專家推薦

        推薦理由:

        文章利用人工神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)發(fā)動(dòng)機(jī)最佳點(diǎn)火提前角,詳細(xì)分析了模型誤差產(chǎn)生的原因,提出了模型優(yōu)化方法,預(yù)測(cè)模型具有較高的精度。文章條理清晰,具有一定的創(chuàng)新性,并有較好的工程實(shí)用價(jià)值。

        Engine Ignition Advance Timing PredictionModelBased On Artificial Neural Network

        R. F. TURKSON1,3,YAN Fu-wu1,2,HOU Xian-jun1,2,M. K. A. ALI1,4,LIU Bo1
        ( 1.Hubei Key Laboratory of Advanced Technology for Automotive Components (Wuhan university of technology),Wuhan 430070,China; 2.Hubei Collaborative Innovation Center for Automotive Components Technology,Wuhan 430070,Chian; 3.Mechanical Engineering Department,Ho Polytechnic,P. O. Box HP 217,Ghana; 4.Automotive and Tractors Engineering Department,F(xiàn)aculty of Engineering,Minia University,61111,El-Minia,Egypt )

        An artificial neural network was used in this current study to build the prediction model for engine ignition advance timing.Theprocedure for training and selecting an optimal network structure based on the explicit method of network structure optimization has been presented. The study also presents a novel approach for manipulating limited experimental data before partitioning into training,validation and test data sets for improved prediction accuracy. The results obtained by the proposed method for processing limited experimental data achieved virtually zero errors and a correlation coefficicent of unity for training,validation and testing. The improved prediction accuracy of the selected neural network model was attributed to the larger amount of data resulting from the proposed manipulation of experimental data before partitioning,as well as the comparatively higher (999)training epochs.

        engine; artificial neural network; ignition advance timing; prediction model

        2016-03-16

        TK401

        A

        1005-2550(2016)04-0056-06

        10.3969/j.issn.1005-2550.2016.04.010

        猜你喜歡
        人工神經(jīng)網(wǎng)絡(luò)復(fù)雜度神經(jīng)元
        《從光子到神經(jīng)元》書評(píng)
        自然雜志(2021年6期)2021-12-23 08:24:46
        利用人工神經(jīng)網(wǎng)絡(luò)快速計(jì)算木星系磁坐標(biāo)
        人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)簡(jiǎn)單字母的識(shí)別
        電子制作(2019年10期)2019-06-17 11:45:10
        一種低復(fù)雜度的慣性/GNSS矢量深組合方法
        躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
        求圖上廣探樹的時(shí)間復(fù)雜度
        某雷達(dá)導(dǎo)51 頭中心控制軟件圈復(fù)雜度分析與改進(jìn)
        基于二次型單神經(jīng)元PID的MPPT控制
        毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
        出口技術(shù)復(fù)雜度研究回顧與評(píng)述
        日本老熟妇乱| 国产亚洲精品一品二品| 亚洲一区二区三区特色视频| 国产色在线 | 亚洲| 污污污污污污污网站污| 国产免费午夜福利蜜芽无码| 情av一区二区三区在线观看| a级国产乱理伦片| 人妻被黑人粗大的猛烈进出| 国产成人精品cao在线| av中文字幕在线直播| 亚洲无线一二三四区手机| 牛鞭伸入女人下身的真视频| 91网红福利精品区一区二| 国内偷拍精品一区二区| 草草地址线路①屁屁影院成人 | 激情亚洲一区国产精品| 亚洲人成网站www| 色播视频在线观看麻豆| 免费a级毛片无码免费视频120软件| 亚洲色欲在线播放一区| 亚洲乱码中文字幕综合69堂| 亚洲av区,一区二区三区色婷婷| 国产精品无码一区二区在线看| 99热这里有免费国产精品| 91青青草视频在线播放| 亚洲国产av无码精品无广告| 亚洲av永久无码国产精品久久| 日韩精品成人无码AV片| 丰满巨臀人妻中文字幕| 麻豆蜜桃av蜜臀av色欲av| 女人与牲口性恔配视频免费| 女同性恋亚洲一区二区| 久久精品人妻少妇一二三区| 国产在线一区二区三区av | 无码国产精品一区二区vr老人 | 91国产精品自拍视频| 久久午夜羞羞影院免费观看| 精品乱码久久久久久中文字幕| 亚洲毛片av一区二区三区| 国产情侣自拍一区视频|