首页 > 范文大全 > 正文

通过设计切换律实现对切换HNN的镇定

开篇:润墨网以专业的文秘视角,为您筛选了一篇通过设计切换律实现对切换HNN的镇定范文,如需获取更多写作素材,在线客服老师一对一协助。欢迎您的阅读与分享!

摘 要:随着智能控制的快速发展,切换系统引起高度重视。我们试图将hnn引入到的切换系统中。首先,我们建立了一个切换HNN(Hopfield Neural Networks)的数学模型,其中以HNN作为子系统。第二,这种系统,并非所有组成子系统被认为是稳定的,对于决定切换律的一些有效条件,被证明是来保证切换HNN稳定被推导出来。最后,算例证明我们的推导。

关键词:HNN;稳定;切换

中图分类号:TP

文献标识码:A

文章编号:1672-3198(2010)07-0278-02

1 实际模型和前提条件

在实际情况下,神经网络模型设计的目的只有一个,那就是实现系统的全局稳定考虑用以下动力系统方程来描述一个HNN模型:

dui(t)dt=-diui(t)+∑nj=1bij×g′j(uj(t-ζ))+Ii,其中,i=1,2,3,…,n(1)

其中n是在神经网络的神经元数目,ui(t)表示的i-th神经网络在t时刻的函数,g′j(uj(t))表示j-th神经元在时间t的状态函数,连续的bij相加表示持续连接的权重,di是一个积极的常数。Ii是外部输入或者偏移。我们假设状态函数g′j(uj(t-ζ)) i=1,2,3…….,n.,是Lipschitz连续。那么我们可以得到:

u(t)=-Du(t)+Bg(u(t-ζ))+I(2)

其中u(t)=(u1(t),u2(t),…,un(t))T∈Rn是一种与神经元相关的状态向量,D>0是一个积极的对角矩阵,B∈Rn×n是一个互连矩阵,g′(x(.))=(g′1(x(.)),g′2(x(.)),…,g′n(x(.))T是神经状态向量函数,I=(I1,I2,…,In)是恒定外部输入或偏差矢量。

我们注意到,Lipschitz连续,可以允许g′(u(t))不是单调有界或可微,因为当g′(u(t))有界的时候,通过Schauder不动点定理,它可以很容易地证明神经网络公式(1)至少有一个平衡点。假设存在一个平衡点u*=(u*1,u*2,…,u*n)T在神经网络中,让xj(t)=uj(t)-u*j,然后系统(2)可以改写成:

x(t)=-Dx(t)+Bg(x(t-ζ))(3)

其中g(x(.))=(g1(x(.)),g2(x(.)),…,gn(x(.)))T和gi(xi(.)+u*i)-g′i(u*i)时,假设原点0=(0,0,…,0)T是系统(3)唯一的平衡点。那么切换HNN可以被描述成:

x(t)=∑ni=1ai-D(i)x(t)+B(i)g(x(t-ζ))(4)

其中∑Ni=1,ai=1,i=1,2,…,N。简单起见,我们选择N=2。

2 主要结果

为了证明理论,我们在本文中提出了一些假设。

假设1:存在一个正对角矩阵l+=diag(l+i,l+2,…,l+n)>0,任何一个 满足gj(.)|gj(x(.))|≤l+j|xj(.)|

对于所有的x(.)∈R,存在一个正l≤l+,那么g(x(.))=lx(.)

假设2:对矩阵M(i)定义Yi=y|y是M(i)的特征向量,对应负实部特征值Rr是Y1∪Y2的一个基,换句话说就是θ(i)(i=1,2,)向量可以选择Yi,Yi可以被指为yij∈Yi(j=1,2,…,θ(i))使得∑2i=1θ(i)=r(5)

span(y1,1,…,y1,θ(1),y2,1,…,y2,θ(2))=Rr(6)

从假设1,我们得到

x(t)=∑2i=1ai(-D(i)x(t)+B(i)lx(t-ζ))=∑2i=1ai((-D(i)+B(i)le-ζt)x(t)(7)

我们将M(i)=-D(i)+B(i)le-ζt设置成对称矩阵,这说明假设2中的M12(1)=M21(1),M(12)(2)=M21(2),我们可以设置M11(1),M22(2)为负定的,很明显,存在两个正定矩阵P(1)和P(2),这里我们可以得到:

MT11(1)P(1)+P(1)M11(1)P(1)=-I(8)

MT22(2)P(2)+P(2)M22(2)P(2)=-I(9)

定理1:认为当N=2的时候切换HNN满足假设1、2,这里存在一个切换律使得系统(4)渐近稳定。如果:

(2λmax(P(1))M11(2)+(λmax(P(1))+λmax(P(2)))M12(2)×(2λmax(P(2))M22(1)+(λmax(P(2))+λmax(P(1)))M12(1)

(10)

其中(λmax(P(1))+λmax(P(2)))M12(1)

λmax(P(1))+λmax(P(2)))M12(1))

我们得到

2λmax(P(1))M11(2)+λmax(P(1))+λmax(P(2)))M12(2)1-(λmax(P(1))+λmax(P(2)))M12(1)+2λmax(P(1))M11(2)+(λmax(P(1))+λmax(P(2)))M12(2)(13)

因此我们可以选择一个正a,那么

2λmax(P(1))M11(2)+λmax(P(1))+λmax(P(2)))M12(2)1-(λmax(P(1))+λmax(P(2)))M12(1)+2λmax(P(1))M11(2)+(λmax(P(1))+λmax(P(2)))M12(2)

为了证明该系统(4)是渐近稳定,我们定义Lyapunov函数

V(x(t),t)=V(x1(t),1)+V(x2(t),2)(15)

其中V(x1(t),1)=xT1(t)P(1)x1(t),

V(x2(t),2)=xT2(t)P(2)x2(t),

我们能得到

V1(x1(t),1)=V(x1(t),1)x1(t)((aM11(1)+(1-a)M11(2))x1+(aM12(1)+(1-a)M12(2))x2)=a(P1x1(t)+xT1(t)P1)M11(1)x1(t)+V(x1(t),1)x1(t)((1-a)M11(2)x1+(aM12(1))x1+(1-a)M12(1)+(1-a)M12(2))x2=axT1(t)(PT1+P1)M11(1)x1(t)+V(x1(t),1)x1(t)((1-a)M11(2)x1+(aM12(1)+(1-a)M12(2))x2)=axT1(t)(MT11(1)P1+P1M11(1))x1(t)+V(x1(t),1)x1(t)((1-a)M11(2)x1+(aM12(1)+(1-a)M12(2))x2

同时,我们还可以得到:

V2(x2(t),2)≤(aλmax(P(2))M12(1)+(1-a)λmax(P(2))M12(2))x1(t)2(17)

所以有

V(x(t),2)

因此,切换HNN(4)在下面的切换率下是渐近稳定的:

-a1(1-(λmax(P(1))+λmax(P(2))M12(1)+α2((λmax(P(1))+λmax(P(2))M12(2)+2λmax(P(1)))M11(2))

α1((λmax(P(1))+λmax(P(2))M12(1)+2λmax(P(2)))M22(1)

-a2(1-λmax(P(1))+λmax(P(2))M12(1)

其中a1=a,a2=1-a

3 一个设计实例

在本节中,我们将呈献一个简单例子来演示上述结果。让N=2,考虑一下切换HNN,其中gi(xi(t-ζ))2eζtxi(t-ζ),且Bg(x(t-ζ))E-ζt2Bx(t)

B(1)=20-0.101.5-0.1-0.1-0.11,

B(2)=100.101-0.10.1-0.12

D(1)=500050000,D(2)=100010004.5

M11(1)=-100-2,M12(1)=MT12(2)=0.2-0.2,M22(2)=(-0.5)。

我们得到P(1)=0.5000.25,P(2)=(1),

(λmax(P(1))+λmax(P(2)))M12(1)

我们可以选择0.1919

参考文献

[1]Zeng,Z.G.,Wang, J., Liao, X.X.: Improved Conditions for Global Exponential Stability of Recurrent Neural Network with Time-varying Delays. IEEE Trans on Neural Networks,2006:623-635.