基于神经网络的时间序列lyapunov指数普的计算毕业设计(编辑修改稿)内容摘要:

以上过程可以看出,欲求出实验数据列重构系统的 Lypunov指数谱,就要求出( 210)式中的每个雅科比矩阵。 而系统雅科比矩阵具有( 26)式所示形式,所以问题 的关键在于确定每个雅科比矩阵的最后一行矩阵元。 下面讨论小波神经网络模型求解该问题。 7 小波神经网络 小波神经网络起源于小波分解,小波神经网络是多层前馈式网络,由一个输入层,一个或多个隐含层,一个输出层组成。 每层节点的输入只接收来自上层节点的输出信号。 小波神经网络的输入层节点数和输出层节点数由具体问题决定,隐含层数及每层节点数的选取目前还没有确切的理论方法,通常是凭对学习样本和测试样本的误差交叉评价的试错法选取。 从目前已有的国内外资料看,还做不到实际应用小波网络。 有人分析了其原因,认为有三:一是小波网络出现的 时间较晚,二是小波网络需要较高的数学知识,三是没有一个实用的小波网络模型的软件。 下面简要介绍小波神经网络的结构和学习算法。 式( 34)的连续形式可写为:    kTk kk xwxf ),()( 1 (218) 上式表明框架  在 )(2 RL 中是稠密的。 式中, T 为小波基的个数。 于是有如下的所有有限和的全体 )(1)( 1kkTk kk abxawxf    (219) 在 )(2RL 中是稠密的。 比较式( 218)与式( 219),显然式( 219)中的参数个数比式( 218)多,式( 218)与式 (219)分别称为小波分解与小波网络。 在小波分解中,如果基函数固定,则只有系数 kw 是可调参数,而在小波网络中, kw , ka 和 kb 均为可调参数,这使得网络学习非线性函数较为灵活,可以满足较高的逼近精度要求,这也恰恰体现了小波逼近的精髓。 式( 219)与下式等价 )()( 1 k kTk k a bxwxf    (220) 对于具有 n 个输入的多输入网络,式( 420)变为:   kniklkiTkkl abixuwxf 11)()(  (221) 其对应的网络结构如图 2- 1所示(考虑到本论文的目的,只画出了一个输出值的情况)。 8 图 2- 1: 小波神经网络结构示意图 对于输入输出为 ),2,1)(,( Nlyx ll  的 N 个样本对,我们的目的是确定网络参 数 kkkki wbau , ,使得 )(xfl 与 ly 两序列拟 合最 优, 其中 参数kkkki wbau , 可以通过下述误差能量函数进行优化 2))(( lll yxfE  (222) 在本文中,采用人们使用较多的 Morlet母小波,即: ) p () s ()( 2xxx  (223) 网络学习的具体算法如下: (1) 网络参数的初始化:将网络的伸缩因子 ka ,平移因子 kb 以及网络的连接权重 kiu 和 kw 赋予零附近的随机的初始值; (2) 输入学习样本 lx 及相应的期望输出 ly ; (3) 利用当前网络参数计算出网络的输出:   kniklkiTkkl abixuwxf 11)()(  (224) 9 (4) 修改网络参数值: 计算 kikkk ubaw  ,  kniklkillklk abixuyxfwEw 1)())((  (225) kkllklk awyxfaEa  ))(( (226) kkllkk bwyxfbEb  ))(( (227) )())(( 39。 ixxwyxfuEu llkllkilki   (228) 其中: )(139。 ixux lni kil  (229) 令 kkln a bxt  39。 39。 (230) ( 225) ~( 227)中39。 , lkk xba  由下面式子确定: 2239。 39。 239。 239。 39。 1) xp() i n() xp() os (knnknnnk attattta   (231) knnknnnk attatttb 1) xp () i n () xp () os ( 239。 39。 39。 239。 39。   (232) knnknnnl attatttx 1) xp() i n() xp() os ( 239。 39。 39。 239。 39。 39。   (233) 网络参数值修改如下: kkk   (234) 10 kkk aaa   (235) kkk bbb   (236) kikiki uuu   (237)  为学习速率,由人为设定。 (5) 计算误差和: 2))((  l lll l yxfEE (238) (6) 返回第( 2)步,向网络加下一个模式对,直到 N 个模式对均循环一遍,再进行第( 7)步; 若 maxEE (预先设定的某值)或达到最大训练步数,则停止训练;否则,令 0E ,返回第( 2)步。 基于 RBF 神经网络的 Lyapunov 指数谱计算方法 本文采用具有 d 个输入节点,一个输出节点和一个隐含层的三层小波网络。 对一个一维的时间序列通过重构产生训练样本集合: ),2,1)(,( Njyx jj  ,RxyRxxxx dTjjdTdjjjj   ,2,1, ,),( 初始化网络的伸缩因子 ka ,平移因子 kb 以及网络的连接权重 kiu 和 kw 赋予零附近的随机的初始值。 通过对样本的学习,使神经网络的实际输出 y 在一定的精度范围内与理想输出 dTjx , 相同,这样可以利用此小波网络的输入输出关系 (239) 代表实际的映射关系式。 若小波网络已经训练完成,就可以计算输出函数对自变量的一阶偏导数: ( 240)   kdikijkiTkkdjjj abxuwxxxy 1,1,2,1, ),(  )()([ 2,1, ikjikjTk kij ttwx y  kikikjikjikj auttt ,2,, )]()(  11 其中 (241) 这样,通过( 240)式可计算雅科比矩阵( 246)式中最后一行矩阵元的数值。 按同样的方法计算所有雅科比矩阵最后一行矩阵元,也就确定了所有的雅科比矩阵,进而可以按式( 28)~( 218)计算实验观察数据所反映系统的 Lyapunov指数谱。 Lyapunov 指数实验计算代码 function It=Correlation(X,Taomax) I=zeros(Taomax,1)。 L=length(X)。 for t=1:Taomax I(t)=((X(1+t:L)mean(X))39。 *(X(1:Lt)mean(X))/(Lt))/((Xmean(X))39。 *(Xmean(X))/L)。 end plot(I)。 for i=1:Taomax if I(i)1/ It=i。 break end end function EmbedingDimensional(X,tao,M) % E=zeros(M,1)。 U=E。 L=length(X)。 for m=1:M Y=[]。 kdi kijkiikj abxut  1 , 12 N0=tao*m+1。 for i=1:m+1 Y=[Y X(N0(i1)*tao:L(i1)*tao)]。 end for i=1:length(Y) d0=10000。 J=1。 for j=1:length(Y) if j~=i。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。