楊紅梅 張自武 馬園媛 孫 隆
(1,2 ,3 .昌吉學院數(shù)學系 新疆 昌吉 831100;4.西南大學經(jīng)濟管理學院 重慶 400715)
半無限規(guī)劃問題最早出現(xiàn)于20世紀60年代,其早期理論主要由Charnes等人創(chuàng)立。Kortank、Lopez和Polak等人在這方面也作了大量工作。作為數(shù)學規(guī)劃的一個重要分支,其研究引起了國內(nèi)外學者的廣泛關(guān)注,現(xiàn)已成為數(shù)學規(guī)劃的一個重要研究方向。它不僅在經(jīng)濟領(lǐng)域、最優(yōu)控制、信息技術(shù)及計算機網(wǎng)絡(luò),而且在工程技術(shù)、機器人路徑設(shè)計等方面都有廣泛而直接的應(yīng)用。而半無限極大極小問題是一類重要的半無限規(guī)劃問題,因此研究半無限極大極小問題有重要的現(xiàn)實意義。
考慮帶線性等式約束的半無限極大極小問題,其一般形式為
其中ψi(x)(i∈I)是連續(xù)可微的凸函數(shù),x=(x1,x2,...,xn)T∈Rn,I為無限集,A∈Rm×n(m≤n),b∈Rm。
在該問題中,可以看出它的約束條件的個數(shù)是無限的,在求解方面存在一定難度,所以有必要尋找求解它的新方法。而神經(jīng)網(wǎng)絡(luò)具有高速并行計算能力,能夠硬件實現(xiàn),因此它是實時求解高維的復雜的最優(yōu)化問題的一條非常有效的途徑。此外神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性、有效性和全局收斂性等方面都比傳統(tǒng)優(yōu)化方法更優(yōu)越。近幾年來,利用神經(jīng)網(wǎng)絡(luò)求解最優(yōu)化問題,已經(jīng)有了很多的運用,而且它們的計算效果都很好[1-6]。根據(jù)上述考慮,為實時并行求解問題(1),本文根據(jù)它的結(jié)構(gòu)特點,構(gòu)造了求解它的一個神經(jīng)網(wǎng)絡(luò),嚴格說明了該模型是Lyapunov穩(wěn)定的,并收斂于問題(1)的精確解。為敘述方便, 標記e=(1,0,0,...,0)∈Rn。
定義 若神經(jīng)網(wǎng)絡(luò)所對應(yīng)的動力系統(tǒng)分別是Lyapunov穩(wěn)定和漸近穩(wěn)定時,則稱該網(wǎng)絡(luò)分別是Lyapunov穩(wěn)定和漸近穩(wěn)定的。
定理1(射影定理)[7]設(shè)v∈Rn為一個閉凸集,F(xiàn)是從Rn到自身的一個單調(diào)算子,求一個向量u*∈v,使得
F(u*)T(u-u*)≥0, ?u∈v,VI(v,F)
那么,u*是VI(v,F)的解當且僅當u*是射影方程u=Pv(u-F(u))的解。
為求解問題(1),作如下假設(shè):問題(1)存在有限解x*∈Rn。
首先問題(1)等價于下面的非線性規(guī)劃問題
其中x=(x1,x2,...,xn)T∈Rn。顯然問題(1)的最優(yōu)解的獲得可以通過求解問題(2)的最優(yōu)解。
在問題(2)中,其不等式約束條件的個數(shù)是無限多的。可以從文獻[8]中知:當所考慮問題是凸規(guī)劃時,可用問題(3)來逼近問題(2),也就是通過求解問題(3)來獲得問題(2)的最優(yōu)解,即:
此外問題(3)有有限最優(yōu)解且滿足slater's條件[9]. Ω-ψi(x)在Rn上是連續(xù)可微凹函數(shù),由凸規(guī)劃的Kuhn-Tucker條件可以得到下述結(jié)論:
定理2x*是(3)的最優(yōu)解,當且僅當存在λ*∈Rl,μ*∈Rm,使下式成立
證明:顯然問題(3)的拉格朗日函數(shù)為
L(x,λ,μ)=Ω-λT(Ω-ψi(x))-μT(Ax-b)
它是定義在C=Rn×Rl×Rm.
由于問題(3)是凸的,且滿足Slater條件,根據(jù)凸規(guī)劃KKT條件知:x*是問題(3)的最優(yōu)解,當且僅當存在λ*∈Rl,μ*∈Rm,使得(x*,λ*,μ*)是L(x,λ,μ)在C上的鞍點,即
L(x*,λ*,μ)≤L(x*,λ*,μ*)≤L(x,λ*,μ*),?(x,λ,μ)∈C(5)
由(5)式左邊得:
(λ-λ*)(Ω-ψi(x))-(μ-μ*)(Ax*-b)≤0,?(λ,μ)∈Rl×Rm,
進而對?(λ,μ)∈Rl×Rm,有:
Ax*=b,λ*≥0,Ω-ψi(x)≥0,(λ*)T(Ω-ψi(x))=0.
再對?x∈Rn,且x≠x*,可知x*+t(x-x*)∈Rn,?t∈(0,1),那么由(5)式右邊得
令t→0,并取極限,就有
(x-x*)TxL(x*,λ*,μ*)=(x-x*)T[e-(e-ψ'i(x*))Tλ*-ATμ*]≥0,?x∈Rn.
再結(jié)合定理1知:
定理3[10]x*是問題(3)的最優(yōu)解當且僅當存在λ*∈Rl,μ*∈Rm,使得
其中k>0是設(shè)計參數(shù)。
再根據(jù)定理3和 (7) 式可以得到動力系統(tǒng)(6)的解和神經(jīng)網(wǎng)絡(luò)(7)的平衡點兩者之間的關(guān)系。
推論1 設(shè)C*={z∈Rn+l+m|z是系統(tǒng)(6)的解},則z∈c*當且僅當z是神經(jīng)網(wǎng)絡(luò)(7)的平衡點。
首先討論神經(jīng)網(wǎng)絡(luò)(7)初值問題解的存在惟一性,再給出它的穩(wěn)定性定理。類似于文獻[10]中的證明,可得出下述結(jié)論。
定理4[11]若e-ψi'(x)(i=1,2,...,l)在Rn上局部Lipschitz連續(xù),則對任意的z0∈Rn+l+m,神經(jīng)網(wǎng)絡(luò)(7)在[0,+∞)上存在惟一的以z0為初值的連續(xù)解z(t)(z(t0)=z0,?t≥t0)。
定理5[12]若e-ψi'(x)(i=1,2,...,l)在Rn上局部Lipschitz連續(xù),則神經(jīng)網(wǎng)絡(luò)(7)是Lyapunov穩(wěn)定的。特別地,若C*={z*},則神經(jīng)網(wǎng)絡(luò)(7)全局漸近穩(wěn)定。
參考文獻:
[1] Y.S.Xia, J.Wang. A general methodology for designing globally convergent optimizationneural networks[J]. IEEE Tran. on Neural Networks,1998,9:1311-1343.
[2] Y.S.Xia. A new neural network for solving linear programming and quadratic programming problem[J]. IEEE Trans. on Neural Networks,1996,7:1544-1547.
[3] A Bouzerdorm, T R Pattison. Neural Network for quadratic optimization with bound constrains[J]. IEEE Tran. on Neural Networks,1993,4:293-304.
[4] Gao Xingbao. A neural network for a class of extended linear variational inequalities[J]. Chinese Journal of Electronics,2001,10(4):471-475.
[5]楊紅梅等.解一類非線性極大極小問題的神經(jīng)網(wǎng)絡(luò)[J].陜西科技大學學報,2006,24(4):90-94.
[6] 楊紅梅.求解凸不等式組問題的神經(jīng)網(wǎng)絡(luò)方法[J].昌吉學院學報,2009,(3):95-97.
[7] D Kinderlehrer,G Stampacchia. An introduction to variational inequalities and their applications[M]. New York: Acadimic,1980.
[8] 李師正.半無限規(guī)劃的鞍點與對偶性[J].數(shù)學物理學報.1996,16(2):174-178.
[9] M. Avriel, Nonlinear Programming: Analysis and Method.Englewood Cliffs, NJ: Prentice-Hall,1976.
[10] [11] [12] X..B.Gao, L.-Z.Liao, L.Q.Qi. A novel neural network for variational inequalities with linear and nonlinear constraints[J]. IEEE Trans. Neural Network, 2005,16(6):1305-1317.