基于神经网络pid控制器的设计内容摘要:

ical parameter tuning method formula 控制器类型 pK iT dT P cK PI cK PID cK 小结 本章主要研究了 PID 控制的基本原理,介绍了数字式 PID 的算法 ,总结了常用的 PID 参数整定的基本方法,为后面章节中的内容打下了良好的基础。 第三章 神经网络的基本原理 天津理工大学中环信息学院 2020届本科毕业设计说明书 7 基于人工神经网络的控制 (ANN base Control)简称神经控制 (Neural Control)。 神经网络是由大量人工神经元 (处理单元 )广泛互联而成的网络,它是在现代神经生物学和认识科学对人类信息处理研究的基础上提出来的,具有很强的自适应能力和学习能力,非线性映射能力以及鲁棒性。 神经网络控制是指在控制系统中,应用神经网络技术,对难以精确建模的复杂非 线性对象进行神经网络模型辨识。 神经网络控制在控制系统中的作用如下 : 1)用于传统控制系统中的动态系统建模,充当对象模型。 2)用于反馈控制系统中的控制器。 3)在传统控制系统中可以起到优化计算的作用。 神经网络的模型结构 1943 年由 MeCultoch 和 Pitts 共同提出了第一个神经网络模型,如下图所示 图 MP神经网络模型 MP neutral work model 该模型称之为 MP 神经网络模型,从图中可以看到,它是一个多输入,多输出的非线性结构模 型。 其中 : y,为神经元 i 的输出,它可以与其他多个神经元通过权连接。 x,为神经元 i 的输入。 wij 为神经元的连接权值。 i 为神经元的阈值; F(ui)为神经元的非线性作用函数。 我们可以令神经元的输出为: 天津理工大学中环信息学院 2020届本科毕业设计说明书 8 1( ) ( )nijyi f wi jy i i j   ( ) 令 1njui wij j ( ) 那么输出可以表示为 yi=f(ui) ( ) 我们可以根据激发函数的不同可以将人工神经元分为以下 几种: 1:分段线性激发函数如图 32a表示 11( ) 0 1 111xf x xx      2: Sigmoid 激发函数如图 32b 表示 1 ex p ( )() 1 ex p ( )xfx x  3:高斯激发函数如图 32c表示 22( / )() xf x e  图 三种人工神经元激发函数 Three kinds of artificial neuron excitation functions 几种典型的学习规则 天津理工大学中环信息学院 2020届本科毕业设计说明书 9 神 经网络的学习规则是修正神经元之间连接强度或加权系数的算法,使获得的知识结构适应周围环境的变化。 在学习过程中,执行学习规则,修正加权系数。 学习算法可分为有监督学习和无监 督学习两类,并可表示如下 : ( 1 ) ( ) ( )i i ijw k w k w k    ( ) 式中 ()ijwk 为随机过程递减的学习信号。 常见的学习规则主要有无监督的 Hebb 学习规则,有监督的 Delta 学习规则,有监督的Hebb 学习规则。 无监督的 Hebb 学习规则 Hebb 学习是一类相关学习,其基本思想是 :如果两个神经元同时被激活,则它们 之间的联接强度的增强与它们激励的乘积成正比。 用 io 表示神经元 i 的激活值, jo 表示神经元 j的激活值, ijw 表示神经元 j和 i的连接权值,那么 Hebb 学习规则可表示为 ( ) ( ) ( )ij j iw k o k o k () 其中  为学习速率。 有监督的 Delta 学习规则 在 Hebb 学习规则中,引入教师信号,即将 oj换成希望输出 dj 与实际输出 oj之差,就构成有监督的 Delta 学习规则 : ( ) ( ( ) ( ) ( ) )ij j j j iw k o d k o k o k   () 几种典型的神经网络 现 阶段应用比较广泛的几种神经网络包括 BP 神经网络,径向基 RBF 神经网络,小脑模型神经网络 (又叫 CMAC 神经网络 )。 由于神经网络大部分是多层 前向网络,这样的网络般包括一个输入层和一个输出层,一个或者多个隐含层。 应用于隐含层的变换函数多为非线性函数,比如 S 函数。 应用于输出层的变换函数可以为线性的,也可以为非线性的。 因为多层前向网络可以逼近任意非线性函数,在控制领域中有着很广泛的应用。 在所有的前向网络中,应用最为广泛的就是 BP神经网络 BP 神经网络 BP 神经网络主要包括它的前向计算,误差反向传播以及加权系数的调整。 天津理工大学中环信息学院 2020届本科毕业设计说明书 10 前向计算是在网络各神经元的活化函数和连接强度都确定情况下进行的。 以具有 m 个输入、 q 个隐含节点、 r 个输出的三 层 BP 神经网络结构为例,按逐个输入法依次输入样本,则BP 神经网络输入层的输出为 (1) ()jo x j j=1,2, .....m ( ) 隐含层第 i 个神经元的输入、输出可写成 : ( 2 ) ( 2 ) (1 )0()mi ij jj k w o  ( ) ( 2 ) 2( ) ( ( ))iio k f k i=1,2, ..., q ( ) 式中 (2)ijw 隐含层加权系数;上标 (l)、 (2)、( 3)分别代表输入层、隐含层、输出层, f()一活化函数,这里取为 Sigmoid 活化函数 : 1() 1 e xp[ ( ) ]if ne t ne t     ( ) 或者 1 e xp[ ) ]() 1 e xp[ ( ) ]iie ntf ne t ne t       ( ) 式中参数 i 表示阀值。 输出 (2)()iok将通过加权系数向前传播到第 l 个神经元作为它的输入之一,而输出层的第 l 个神经元的总输入为 : ( 3 ) ( 3 ) ( 2 )0( ) ( )qi ij iine t k w o k  ( ) 输出层的第 l个神经元的总输出为: ( 3 ) ( 3 )( ) ( ( ))iio k g k ( ) 式中 (3)ijw :为输出层加权系数, (.)g :活化函数。 在前向计算中,若实际输出 ko 与理想输出 kd 不一致,就要将其误差信号从输出端 反向传播回来,并在传播过程中对加权系数不断修正,使输出层神经元上得到所需要的期望输出 kd 为止。 为了对加权系数进行调整,二次型误差性能指标函数: 221111()22mmk k kkkE d o e   ( ) 以误差函数 E 减少最快方向调整,即使加权系数按误差函数 E 的负梯度方向调整,使网络逐天津理工大学中环信息学院 2020届本科毕业设计说明书 11 渐收敛。 按照最速下降法,可得到神经元 j 到神经元 i 的权系数调整值, ijw 与 ijEw的负值成正比。 由式 (314)可知,需要变换出 E 相对于该式中网络此刻实际输出的关系,因此 : iij i ijne tEEw w   ( ) 而其中的 ()i ik kk k w o ( ) 所以 ()ik kik jij ijwo oww  ( ) 将 17 式代入 15 式可以得到: i jij i ij in e tE E E ow n e t w n e t      ( ) 令: i iE  ( ) 可以得到: ij i jo ( ) 其中,  为比例系数,在这里为学习率。 计算 i 可分为以下两种情况: 1) 若 i为输出层神经元,即 i=k 当 i为输出层神经元时,注意到 iii i ioEEne t o ne t      ( ) 39。 ( ) ( )i i id o f  ( ) 故当 i为输出层神经元时,它对应的连接权 Wij 应该按照下列公式进行调整 : 39。 ( ) ( )ij ij i j ij i iw w o w d o f n et     ( ) 2)若 i 为隐含层神经元 天津理工大学中环信息学院 2020届本科毕业设计说明书 12 当 i为输出层神经元时,此时 39。 ()iiii i i ioE E E f ne tne t o ne t o            ( ) 我们考虑到 14式中的 221111()22mHk k kkkE d o e   ( ) Ok 是它所有前导层的所有神经元的输出 Oi 的函数。 当前的 Oi 通过它的直接后继层 的各个神经元的输出去影响下一层各个神经元输出,最终影响到 Ok。 而目前只用考虑 将 Oi 送到它的直接后继层各个神经元。 不妨假设当前层 (神经元 i 所在层 )的后继层为 第 h层,该层各个神经元 ik 的网络输入为所以, E对 Oi 的偏导可以转换成如下形式 : 1Hhk kj jj w o () 所以 E 对 Oi,的偏导可以转换成如下形式 1 ()Hh kji k iEEo o   () 由 26 式可以得到 1Hhkj jjkiiiwoEwoo () )11( ) (H h H hkkjjji k j kn e tE E E wo n e t o n e t      () 与式 (320)中的 i 相比,式 (328)中的 k 为较后一层的神经元网络输入。 所以,按照遵从△ wij 的计算是从输出层开始,逐层向输入层推进的顺序,当要计算 i 所在层的联接权的修改量时,神经元 k所在层 k 己经被计算出来。 即 kk 就是 k。 从而39。 1 ( )。 ( )Hhk k i i ikiiEEw f n e too    ( ) 故对隐 含层的神经元联接权有, 39。 1 ( ) ( )Hhij ij i j ij k k i ikw w o w w f ne t        ( ) RBF 神经网络 RBF(Radial Basia Function)宇中经网络是径向基函数神经网络,它是一种局部逼近的天津理工大学中环信息学院 2020届本科毕业设计说明书 13 神经网络。 属于多层前馈网络,即前后相连的两层之间神经元相互连接,在各神经元之间没有。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。