亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向作業(yè)車間重調(diào)度的改進合同網(wǎng)機制研究*

        2013-09-13 07:55:28丁彬楚湯洪濤
        機電工程 2013年2期
        關鍵詞:工單協(xié)商變異

        丁彬楚,湯洪濤

        (浙江工業(yè)大學 工業(yè)工程研究所,浙江 杭州 310014)

        0 引 言

        車間初始生產(chǎn)調(diào)度方案實際執(zhí)行時,會遇到各種各樣的擾動,這些擾動會帶來重調(diào)度的需求,并且這些擾動對重調(diào)度方法的實時性、動態(tài)性及其耦合能力都有很高要求?;诙郃gent的調(diào)度技術采用協(xié)商機制解決調(diào)度決策中的各類沖突,能夠準確地反映系統(tǒng)的動態(tài)重調(diào)度過程,降低問題求解的復雜性,對動態(tài)的現(xiàn)實環(huán)境具有良好的靈活性和適應性。

        現(xiàn)有的協(xié)商機制中基于合同網(wǎng)(CNP)的協(xié)商機制最為常用,一般認為,合同網(wǎng)協(xié)商機制具有較好的開放性以及動態(tài)分配和自然平衡能力。但是,傳統(tǒng)的合同網(wǎng)協(xié)商機制僅僅規(guī)定單一的工作過程,本身沒有優(yōu)化能力和動態(tài)學習能力,因此具有自學習能力的合同網(wǎng)協(xié)商機制成為了該領域研究的熱點。Csaji等[1]以提高Agent的學習能力為目的,提出了基于時間差分學習算法TD(λ),從而在協(xié)商過程中獲得更好的投標者。Wang和Usher[2-3]為解決動態(tài)單機調(diào)度問題中調(diào)度規(guī)則動態(tài)優(yōu)化選擇的問題,集成了強化學習中的Q-學習和CNP機制。王世進等[4]在此基礎上,深入探討了集成Q-學習和CNP機制的分布式柔性作業(yè)車間環(huán)境下作業(yè)動態(tài)分配優(yōu)化問題,給出了具有針對性的集成機制的策略決策過程和學習過程。Q學習能夠使Agent從給定的調(diào)度規(guī)則中選擇出較好的調(diào)度規(guī)則,但是當這些啟發(fā)式規(guī)則在學習中得不到最優(yōu)解時,不能及時得到修正,并且Q學習本身無規(guī)劃能力,不能滿足重調(diào)度需求。張化祥等[5]通過考慮個體多步進化效果優(yōu)化變異策略的選擇,提出了一種基于Q學習的適應性進化規(guī)劃算法(QEP),用變異策略代替了啟發(fā)式規(guī)則,提供了更多的交互機會,使Q學習更具有廣泛性。

        在以上Q學習、QEP等算法的研究基礎上,本研究將其應用于動態(tài)重調(diào)度問題的研究,并引入滾動窗口技術改進QEP算法,提出集成QEP和CNP的協(xié)商機制,以實現(xiàn)柔性作業(yè)車間動態(tài)重調(diào)度過程。

        1 重調(diào)度假設及目標

        本研究中的動態(tài)重調(diào)度針對的對象為柔性作業(yè)車間,給出假設條件如下:

        (1)各設備同一時刻只能加工一個工件;

        (2)工件在設備上的加工時間已知;

        (3)正在加工的工件不進行重調(diào)度;

        (4)調(diào)度過程中除設備以外的其他資源充足,無需調(diào)度。

        重調(diào)度的目標描述如下:首先,仍應盡量保證原調(diào)度方案的優(yōu)化目標,即最大完成時間最??;其次,在實際的生產(chǎn)過程中,調(diào)度系統(tǒng)總體上是按照初始調(diào)度方案準備調(diào)度所需加工工具和材料,當調(diào)度方案改變時,勢必會造成這些工具和材料的運輸和浪費,所以重調(diào)度產(chǎn)生的調(diào)度方案應盡量減少與當前調(diào)度方案的差異,即最小化與重調(diào)度前調(diào)度方案的背離。

        對于多目標的求解方式主要有3種:決策先于優(yōu)化、決策與優(yōu)化交替以及優(yōu)化先于決策[6-7]。本研究采用傳統(tǒng)的決策先于優(yōu)化的方式,給出重調(diào)度目標函數(shù)數(shù)學表達式如下:

        式中:m—作業(yè)車間設備數(shù)量,n—調(diào)度工件數(shù),ni—工件i的工序數(shù),F(xiàn)h—設備h完成所有任務的時間,Sij—工件i第j道工序重調(diào)度前的開工時間,S′ij—重調(diào)度后開工時間。

        2 改進QEP重調(diào)度算法

        本研究給出的調(diào)度目標重點在于吸收和修復動態(tài)事件對調(diào)度的影響,因此筆者引入滾動窗口重調(diào)度技術。滾動窗口技術的應用可以減少動態(tài)重調(diào)度涉及的對象,縮小問題求解的規(guī)模[8],并將該技術集成到QEP算法中,使算法在求解重調(diào)度問題時具有合理的規(guī)劃性,避免盲目進化,提高進化效率。

        改進QEP算法流程設計如圖1所示。

        圖1 改進QEP算法流程

        2.1 滾動窗口初始化及更新設計

        當生產(chǎn)過程中有擾動事件發(fā)生時,某工件當前加工工序受到影響,并且由于該工件受到工序約束和設備約束,影響會進一步擴散,即重調(diào)度的擴散效應[9]。研究者通常采用二維分支樹(即工件分支和設備分支)來描述該擴散過程。滾動窗口初始化和更新建立在這種擴散過程的基礎上。

        針對3種常見擾動事件,滾動窗口初始化方法為:

        (1)加工延遲。初始滾動窗口為延遲工件兩分支上的工單;

        (2)設備故障。初始滾動窗口為故障設備故障時間內(nèi)待加工工單,如果設備故障時間未知,則表示為故障設備上所有工單;

        (3)故障恢復。初始滾動窗口為所有可在該設備上加工的工單,已完工和正在加工的工單除外,同時滾動窗口內(nèi)工單按照開工時間的先后順序進行排列。

        本研究設計了局部和全局兩種滾動窗口更新方法。局部更新是針對某一工單進行更新、整合,步驟如下:

        (1)以更新的工單為根節(jié)點,將工件分支和設備分支上的工單加入滾動窗口并刪除更新的工單;

        (2)去除滾動窗口中重復的、無延遲發(fā)生的工單;

        (3)按照工單開工時間的先后順序進行排序。

        全局更新是針對滾動窗口內(nèi)所有工單進行更新、整合,步驟如下:

        (1)根據(jù)當前滾動窗口,將各工單工件分支和設備分支上的工單作為當前滾動窗口,替換原滾動窗口,在二維分支樹上表示為下一層的工單集;

        步驟(2)、(3)同局部更新。

        2.2 進化分析

        Q學習通過選擇最大化Agent帶折扣累積收益的行動,可以學習到Agent的最優(yōu)行動集。進化過程中,研究者若把個體變異策略看成行動,則個體選擇最優(yōu)變異策略就轉化為Agent選擇最優(yōu)行動,在選擇最優(yōu)行動時考慮行動的立即及多步滯后收益,即計算折扣累計收益。

        本研究假設個體進化步長為m(m>1),即考慮m-1步滯后收益,個體開始選擇變異策略為a,可以計算個體采用行動a時的收益為:

        式中:r(a)—個體采用變異策略a的立即收益,此時個體進化了一次。

        新生成的個體采用a(1)生成新個體,此時收益記為Q(a(1)),依次類推,m-1次進化后,新生成的個體采用a(m-1)生成新個體,此時收益記為Q(a(m-1))。式(2)為個體采用a,a(1),…,a(m-1)變異策略集的累計收益。定義個體立即收益r(a)=fp(a)-fo(a)。其中:fp(a)—父代個體對應的適應度值,fo(a)—采用變異策略a后生成的子代個體對應的適應度值。適應度函數(shù)計算公式如下:

        其中,函數(shù)f1,f2已在公式(1)中給出。本研究將立即收益代入式(3),得到Q值的計算公式為:

        2.3 改進Q學習過程設計

        在Q學習過程中,為保證滯后收益對Q(a)的有效性,本研究針對每個個體分配了一個臨時滾動窗口。

        個體Q學習流程設計如圖2所示。

        Step1:獲取臨時滾動窗口,設置進化代數(shù)t=2;如果臨時滾動窗口為空,轉入step5;

        圖2 Q學習流程圖

        Step2:遍歷臨時滾動窗口中每一個工單,采用Boltzmann選擇每一個工單對應工序的變異策略;Boltzmann分布計算變異策略被保留下來的概率為:

        式中:n—工序變異產(chǎn)生的后代個數(shù);α—調(diào)節(jié)系數(shù),α∈(0,1);T0—初始溫度。

        在Q學習的初始階段,溫度參數(shù)T設置較高,系統(tǒng)探索未嘗試的動作(選擇非最優(yōu)變異策略),以獲得更多回報的機會;在Q學習的后期,筆者設置較低的溫度參數(shù),使系統(tǒng)傾向于利用當前最優(yōu)的變異策略。

        Step3:采用全局更新的方法更新臨時滾動窗口,同時設置進化代數(shù)加1;

        Step4:判斷t是否大于m,或者臨時滾動窗口為空;滿足條件則轉step5;不滿足則轉step2;

        Step5:計算個體的Q值,Q學習結束。

        以下給出m=2時的Q學習過程示意圖:

        圖3 Q學習過程示意圖

        2.4 變異策略

        基于文獻[10]的研究,本研究給出以下變異策略:

        (1)工序所用設備不變,加工順序不變,只是調(diào)整各個工序的開始時間和結束時間,記為“設備不變,順序不變”;

        (2)工序所用設備不變,但在設備內(nèi)的加工順序可以調(diào)整,記為“設備不變,順序可變”;

        (3)工序使用設備發(fā)生變化,插入到并行設備加工列表中,記為“設備可變,順序可變”。

        3 集成QEP的改進合同網(wǎng)協(xié)商機制

        擾動事件發(fā)生時,集成QEP的合同網(wǎng)機制協(xié)商過程如圖4所示。其基本交互過程發(fā)生在工序Agent(PA)和設備Agent(MA)之間。

        圖4 QEP-CNP協(xié)商流程圖

        基本流程描述如下:

        Step1:初始化滾動窗口;

        Step2:獲取滾動窗口中的第一個工單,生成相應的工序Agent(PA),解除原先合約,并獲取調(diào)度需要的相關信息,包括加工時間、可加工設備、設備上的工單列表等;

        Step3:PA向能夠加工它的設備發(fā)送招標請求;

        Step4:設備Agent(MA)作為投標方進行Q學習,根據(jù)工件平均背離、總完成時間和設備負載等生成多份標書,向PA發(fā)送應標信息;

        Step5:PA評價各MA發(fā)回的投標書,選擇中標的MA和最優(yōu)變異(最大Q值),更新調(diào)度方案;兩份標書評價值相等時,根據(jù)設備負載,選擇負載小的MA和最優(yōu)變異策略;

        Step6:采用局部更新方法更新滾動窗口;

        Step7:判斷滾動窗口是否為空;否,轉Step2;是,協(xié)商結束,輸出調(diào)度方案。

        4 仿真實驗

        本研究將文獻[11]給出的10×10標準算例調(diào)度最優(yōu)解作為初始調(diào)度解,其甘特圖如圖5所示。筆者針對表1給出的動態(tài)事件進行重調(diào)度仿真。

        圖5 10×10甘特圖(最短加工時間:t=7 s)

        表1 動態(tài)事件表

        動態(tài)重調(diào)度算法選擇參數(shù)如下:完成時間權重為0.8,工時偏差權重為0.2,進化步長為2,變溫調(diào)節(jié)系數(shù)為0.8,初始溫度為10。由于重調(diào)度協(xié)商過程中工件和設備目標明確,容易達成一致,直接受影響的工件重調(diào)度所需要的時間可以忽略。

        本研究通過仿真得到3個時刻重調(diào)度后的甘特圖如圖6所示。

        本研究將改進的合同網(wǎng)協(xié)商機制與基本合同網(wǎng)協(xié)商機制相比,得到的仿真結果如表2所示。通過對比可以看出,改進的合同網(wǎng)協(xié)商機制具有較好的全局優(yōu)化性能。

        表2 仿真結果表

        5 結束語

        圖6 動態(tài)重調(diào)度甘特圖

        本研究針對面向作業(yè)車間重調(diào)度問題的改進合同網(wǎng)協(xié)商機制進行了研究,設計了改進的QEP算法,提出了集成QEP和合同網(wǎng)的協(xié)商機制。該協(xié)商機制具有良好的反應能力和全局優(yōu)化性能,但同時也存在如下問題:

        首先,針對多目標問題,研究者在設計目標函數(shù)時采用簡單的加權法雖然提高了系統(tǒng)的反應能力,但是在一定程度上削弱了系統(tǒng)的優(yōu)化能力;

        其次,通過集成改進的QEP算法和合同網(wǎng),雖然使得多Agent具有一定的自學習能力,但出于系統(tǒng)時間性能的考慮,簡化了Q學習每一步的進化操作,并且算法中的變異策略冗余度較高,未能做出有效優(yōu)化。后續(xù)研究將從這幾方面進一步改善合同網(wǎng)機制。

        (References):

        [1] CSAJI B,MONOSTORI L,KADAR B.Reinforcement learn?ing in a distributed market-based production control system[J].Advanced Engineering Informatics,2006,20(3):279-288.

        [2] WANG Y,USHER J.Application of reinforcement learning for agent-based production scheduling[J].Engineering Applications of Artificial Intelligence,2005,18(1):73-82.

        [3] WANG Y,USHER J.A reinforcement learning approach for development routing policies in multi-agent production scheduling[J].The International Journal of Advanced Manufacturing Technology,2007,33(3/4):323-333.

        [4] 王世進.面向制造任務動態(tài)分配的改進合同網(wǎng)機制[J].計算機集成制造系統(tǒng),2011(6):1257-1263.

        [5] 張化祥,陸 晶.基于Q學習的適應性進化規(guī)劃算法[J].自動化學報,2008(7):819-822.

        [6] 陳 宇.不確定環(huán)境下的多Agent魯棒性生產(chǎn)調(diào)度研究[D].廣州:廣東工業(yè)大學自動化學院,2009.

        [7] 崔遜學.多目標進化及其應用[M].北京:國防工業(yè)出版社,2006.

        [8] 邵斌彬.柔性制造動態(tài)多目標調(diào)度模型在MES中的研究與應用[D].上海:上海交通大學軟件學院,2008.

        [9] MARLER R,ARORA J.survey of multi-objective optimiza?tion methods for engineering[J].Structural and Multidis?ciplinary Optimization,2004,26(6):369-395.

        [10] 丁 雷,王愛民,寧汝新.工時不確定條件下的車間作業(yè)調(diào)度技術[J].計算機集成制造系統(tǒng),2010(1):98-108.

        [11] 李修琳,魯建廈,柴國鐘,等.混合蜂群算法求解柔性作業(yè)車間調(diào)度問題[J].計算機集成制造系統(tǒng),2011(7):1495-1500.

        猜你喜歡
        工單協(xié)商變異
        基于量化考核的基層班組管理系統(tǒng)的設計與應用
        電子測試(2022年7期)2022-04-22 00:13:16
        基于transformer的工單智能判責方法研究
        高技術通訊(2021年6期)2021-07-28 07:39:20
        變異危機
        變異
        支部建設(2020年15期)2020-07-08 12:34:32
        論協(xié)商實效與協(xié)商倫理、協(xié)商能力
        基于HANA的工單備件采購聯(lián)合報表的研究與實現(xiàn)
        中國核電(2017年1期)2017-05-17 06:09:55
        Rheological Properties and Microstructure of Printed Circuit Boards Modifed Asphalt
        以政協(xié)參與立法深化協(xié)商民主
        電力95598熱線全業(yè)務集中后的工單預警機制
        變異的蚊子
        百科知識(2015年18期)2015-09-10 07:22:44
        中文字幕日本五十路熟女| 伊在人天堂亚洲香蕉精品区| 久久久无码人妻精品一区| 国产精品揄拍100视频| 日日噜噜噜夜夜爽爽狠狠视频| 亚洲av无码一区二区三区系列| av蓝导航精品导航| 欧美激情中文字幕在线一区二区| 日韩丝袜人妻中文字幕| 日韩精品久久午夜夜伦鲁鲁| 精品国产精品三级精品av网址| 亚洲avav天堂av在线网爱情| 中文字幕一区二区三区乱码不卡 | 亚洲一区二区自偷自拍另类| 熟妇高潮一区二区三区在线观看| 国产精品99精品无码视亚| 国产精品久久久av久久久| 欧美人与动牲交片免费播放| 亚洲av成人波多野一区二区| 中文字幕人妻饥渴浪妇| 国产午夜福利不卡在线观看| а中文在线天堂| 久久精品国产亚洲av热九九热| 一区二区中文字幕蜜桃| 免费观看人妻av网站| 成年站免费网站看v片在线| 131美女爱做视频| 99久久国语露脸国产精品| 少妇人妻无一区二区三区 | 色一情一乱一伦一区二区三区| 国产一起色一起爱| 久久精品国产亚洲av桥本有菜| 国产av无毛无遮挡网站| 久久久亚洲欧洲日产国码aⅴ | 亚洲国产成人手机在线电影| 日日噜噜夜夜久久密挑| 少妇激情一区二区三区99| 久久久久久亚洲av无码蜜芽| 狠狠躁夜夜躁AV网站中文字幕 | 狼人av在线免费观看| av黄色在线免费观看|