神经网络pid在锅炉蒸汽压力中的应用(编辑修改稿)内容摘要:

模型 人工神经网络的首个数学模型是由 McCulloch和 Pitts 建立的。 该模型 的基本思想是:神经细胞的工作方式是或者兴奋或者抑制。 基于这个思想, McCulloch和 Pitts 在神经元模型中引入了硬极限函数,该函数形式后来被其他神经网络 (多层感知器、离散 Hopfield 网络 )所采用 [6]。 MP 模型是一个多 输入单输出的非线性处理单元,示意图如图 22 所示。 ∑ ϴ i W n x 2 . .u iy i F ( u i )w 1 x 1 w 2x n 图 22 MP 模型示意图 其中 : iy , 神经元的输出信号,可与其它多个神经元连接; 江苏科技大学 本科毕业设计(论文) 6 ix , 神经元的输入信号; iw :神经 元的连接权值; i :神经元的阀值: )(iuf :神经元的非线性作用函数。 神经元输出 iy 可用下式描述: )(1 ni jijij wxfy  ( 22) 设  ni jijij wxu 1  ( 23) 则 )( jj ufy  ( 24) )(xf 是作用函数,即激发函数。 MP 神经元模型是人工神经元模型的基础,也是神经网络理论的基础。 一般的神经元模型 MP 模型过于简单,且权值不能学习,因此实际上需要更复杂、灵活性更高的神经元模型。 图 23 所示为一个具有 n 个 输入的通用的神经元模型。 与 MP 模型一样 , Tnxxxx ),....,( 21 为神经元的输入, Tnw ),. .. ,( 21 为可调的输入权值,  为偏移信号,用于建模神经元的兴奋阀值。 )(u 和 )(f 分别表示神经元的基函数和激活函数。 (也称神经元函数、挤压函数或活化函数) [7]。 基函数 )(u 是一个多输入单输出的函数 ),( wxuu  ;激活函数的作用是对基函数输出 u 进行“挤压”: )(ufy ,即通过非线性函数 )(f 将 u 变换到指定范围内。 u ( )W 2 W nuf ( )0x 1 x 2x 3..w 1 图 23 通用神经元模型 江苏科技大学 本科毕业设计(论文) 7 感知器模型 感知器( Perception)是模拟人的视觉,接收环境信息,并由神经冲动进行信息传递的神经网络。 最早由 Rosenblatt 提出的感知器模型为单层感知器,仅有输入层和输出层构成。 后来由于单层感知器在非线性不可分问题方面的局限性,人们又提出了多层感知器模型,在原有基础上增加了隐含层。 ① 单层感知器模型 单层感知器模型是一个具有单层处理单元的神经网络,如图 24 所示,非线性作用函数 )(xf 是对称型阶跃函数。 ∑ өw 1w j w nu 1u ju n ..xf ( x )w 0 μ 0 = 1y. 图 24 单层感知器模型 感知器的输出为:    nj nj jjjj uwfuwfy 1 0 )()(  ( 25) 其中, ju 为感知器的第 j 个输入; 0w (阀值); 10u。 ② 多层感知器 在输入和输出层间加一层或多层隐含层,即构成多层感知器,又称多层前馈神经网络。 多层感知器如下图所示: u 1u 2W Az 2z 1yW B 图 25 多层感知器结构 江苏科技大学 本科毕业设计(论文) 8 对于多层感知器网络,有如下定理: 若隐层节点(单元)可任意设置,则用三层阀值节点的网络可以实现任意的二值逻辑函数。 若隐层节点 (单元 )不可任意设置,则用三层 S 型非线性特性节点的网络,可以一致逼近紧集上的连续函数或按 2L 范数逼近紧集上的平方可积函数 [8]。 BP 神经网络 BP 神经网路概述 Rumelhart 和 与 1986 年提出了多层网络的误差反向传播算法( Error BackPropagation Training),即 BP 算法,系统解决了多层网络中隐含单元的连接权问题,预示着 BP 网络的出现 [9]。 BP 神经网络是人工神经网络的一种,它不仅具有人工神经网络的特点,而且有自己的 BP 算法。 BP 神经网络的结构如图 26 所示, u 、 y 为网络的输入、输出向量,每一个神经元用一个节点表示,网络有输入层、隐含层和输出层节点组成。 隐含层可以是一层,也可以是多层(图示为单隐含层),前层至后层节点通过权连接。 ijku......输 入 层隐 含 层 输 出 层 图 26 多层前馈网络结构 BP 学习算法的计算公式及流程图 设 BP 神经网络为三层网络,输入神经元以 i 编号,隐含层神经元以 j 编号,输出层神经元以 k 编号,计算公式如下: 隐含层第 j 个神经元的输入为: i iijj ow ( 26) 第 j 个神经元的输出为: 江苏科技大学 本科毕业设计(论文) 9 )( jj go  ( 27) 输出层第 k 个神经元的输入为: j jkjk ow ( 28) 相应的输出为: )( kk go  ( 29) 式中, g —— s 函数,有: )(1 1)(  xexg ( 210) 式中,  —— 阀值或偏置值 , 0 ,则使 S 曲线沿横坐标左移,反之则右移。 因此,各神经元的输出应为 )))(e xp(1/(1ji ijij owo   ( 211) )))(e xp(1/(1 ki jjik owko   ( 212) BP 网络学习中的误差反向传播过程是通过使一个目标函数 (实际输出与希望输出之间的误差平方和 )最小化完成的,可以利用梯度下降法导出计算公式 [10]。 学习过程中,设第 k 个输出神经元的希望输出为 pkt ,而网络输出为 pko ,则系统平均误差为:  k pkpkp otpE2)(21 ( 213)略去下标 p ,式( 213)可写成  k kk otE2)(21 ( 214) 式中, E —— 目标函数。 示意图如图 27 所示,梯度下降学习算法总是在寻找坡度最大的地段向下滑行,当它处于 D 位置时,沿最大坡度路线下降,到达局部最小点而 G 停止滑行。 如果它是从 A点开始向下滑行,则最终到达全局最小点 B[11]。 江苏科技大学 本科毕业设计(论文) 10 图 27 BP 网络梯度下降学习算法 BP 学习算法流程总结如下图 : 开 始连 接 权 值 及 阀 值 初 始 化将 学 习 模 式 对 提 供 给 网 络计 算 隐 含 层 各 个 单 元 的 净 输入 和 输 出计 算 输 出 层 各 个 单 元 的 净 输入 和 输 出计 算 输 出 层 各 个 单 元 的 一 般化 误 差计 算 隐 含 层 各 个 单 元 的 一 般化 误 差调 整 隐 含 层 至 输 出 层 之 间 的 连 接 权 值 及 输出 层 各 个 单 元 的 阀 值调 整 输 入 层 至 隐 含 层 之 间 的 连 接 权 值 及 隐含 层 各 个 单 元 的 阀 值更 新 学 习 模 式 对全 部 学 习 模 式 训 练 完 毕更 新 学 习 次 数误 差 小 于 限 定 最 大 误 差 要 求或 学 习 次 数 大 于 最 大 值学 习 结 束 NYNY 图 28 BP 学习算法流程图 BP 网络的学习算法的步骤归纳如下: (1)从训练样本集中取某一样本,把它的输入信息输入到网络中; 江苏科技大学 本科毕业设计(论文) 11 (2)由网络正向计算出各节点的输出; (3)计算网络的实际输出与期望输出的误差; (4)从输出层起始反向计算到第一个隐层,按一定原则向减小误差方向调整网络的各个连接权值; (5)对训练样本集合中的每一个样本重复以上步骤,直到对整个训练样本集合的误差达到要求为止。 如果通过网络训练, BP 网络的输出达到目标要求后,网络各节点之间的连接权值就确定下来了,我们就可以认为 BP 网络已经学习好了,我们就可以利用这个训练好的网络对未知样本进行识别预测了 [12]。 神经网络学习规则 神经网络的学习规则即调整神经网络连接权值的规则。 学习规则可以分为两类:有监督学习和无监督学习。 有监督学习就是通过外部教师信号进行学习,即要求同时给出输入和正确的期望输出的模式对,当实际输出结果与期望输出有误差时,网络将通过自动机制调节相应的连接强度,使之向减少误差的方向改变,经过多次反复训练,最后与正 确的结果相符合。 无监督学习就是不需要外部教师信号,因而不能确切知道正确的反应是什么,学习表现为自适应于输入空间的检测规则。 其学习过程表现为:给系统提供动态输入信号,以使各个单元以某种方式竞争,获胜的神经元本身或相邻域得到增强,其他神经元进一步抑制,从而将信号空间划分为有用的多个区域 [13]。 常见的学习规则为: (1)无监督 Hebb 学习规则 Hebb 学习规则是一类相关学习,它的基本思想是:如果两个神经元同时被激活,则它们之 间的连接强度的增强与它们激励的乘积成正比。 以 io 表示单元 i 的激活值, jo 表示单元的激活值, ijw 表示单元 i 到单元 j 的激活值,则 Hebb 学习规则可用下式表示: )()()()1( kokokwkww ijijijij  ( 214) 其中,  为学习速率,该公式表明两神经元之间连接权的变化量与它们的激活值相关。 (2)有监督的 Delta 学习规则 在 Hebb 学习规则中,引入教师信号,将式 (214)中的 jo 换成目标输出 jd 与实际输出 jo 之差,就组成了有监督的 Delta 学习规则: 江苏科技大学 本科毕业设计(论文) 12 )())()(()()1( kokokdkwkww ijjijijij   (215) 即两神经元间连接强度的变化量与教师信号 )(kdj 和网络实际输出信号 )(koj 之差成正比。 (3)有监督的 Hebb 学习规则 将无监督的 Hebb 学习和有监督的 Delta 学习两者结合起来就可组成有监督的 Hebb学习规则,即: )()())()(()()1( kokokokdkwkww jijjijijij   ( 216) 采用 Hebb 学习和有监督的 Delta 学习相结合的学习策略,使神经元通过关联搜索对未知的外界作出反应,即在教师信号 ))()( kokd jj  的指导下,对环境信号进行相关学习和自组织,使相应的输出增强或削弱。 BP 网络的学习过程由正向和反向传 播两部分构成。 正向传播过程中,每一层神经元的状态只影响下一层神经元结构,如果输出层不能得到期 望输出,即期望输出与实际输出之间存在误差时,就转向反向传播。 反向传播过程 将误差信号沿着原 来路径返回,通过不断修正各层神经元 权值,逐次地向输入层传播进行计算,修改之后的权值再经。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。