基于神经网络的电力电子装置故障检测与诊断研究毕业论文(编辑修改稿)内容摘要:
元只与前一层神经元相连,最上一层为输出层,最下一层为输入层。 输入层和中间层也称为隐层。 隐层的层数可以是一层或多层,前向网络在神经网络中应用十分广泛,感知器、线性网络、 BP 网络都属于这种类型。 感知器 美国学者 Rosenblatt 于 1957 年提出一种用于模式分类的神经网络模型,称为感知器,它是一个单层神经网络,神经元模型为阀值模型。 与 MP 模型不同之处在于其联结权值可变,因此它具有学习功能。 感知器信息处理的 规则为: ni ii θxtWfty 1 ))(()( 式中 )(ty 为 t 时刻的输出, ix 为输入向量的一个分量, )(tWi 为 t 时刻第 i 个输入的权重, θ 为阀值, )(f 为阶跃函数。 感知器 的学习规则如下: iii xtydtWtW ))(()()1( () 其中 为学习率( 01), d 为期望输出(又称教师信号), )(ty 是实际输出。 感知器的工作原理及学习规则可参见图。 修正权值 2x … f _ + dd 1x nx 误差 图 感知器 12 感知器只有一层神经元,这是由感知器学习规则所决定的,因为感知器学习规则只能训练单层神经网络。 感知器神经网络这种结构上的局限性也在一定程度上限制了其应用范围。 线性神 经网络 线性神经网络是最简单的一种神经网络,它由一个或多个线性神经元构成。 1960年由 和 提出的自适应线性单元网络是线性神经网络最早的典型代表。 线性神经网络采用线性函数作为传递函数,因此其输出可取任意值。 线性神经网络可以采用 WidrowHoff 学习规则 来调节网络的权值和阀值,其收敛速度和精度都有较大的改进。 该模型的结构如图 所示: 和感知器神经网络一样,线性神经网络只能反映输入和输出样本矢量间的线性映射关系,它也只能解决线性可分问题。 线性神经网络在函数拟合、信号过滤、预测和控制方面都有着广泛的应用。 BP 控制方法 BP 算法的基本思想是,学习过程由信号的正 向传播与误差的反向传播两个过程组成。 正向传播时,输入样本 从输入层 传入,经各层传入,经各隐层逐层处理后,传向输出层。 若输出层的实际输出与期望的输出( 教师信号)不符,则转入误差的反向传播阶段。 误差反传是将输出误差 某种形式 , 通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号没,此误差信号即作为修正各单元权值的依据 [12]。 这种信号正向传播与误差反向传播的各层权值调整过程,是周而复始地进行的。 权值不断调整的过程,也就是网络的学习训练过程。 此过程一直进行到网络输出的误差减少到可接受的程度,或进行到预先设定的学习次数为止。 基 于 BP 算法的多层前馈网络模型 利用 BP 算法的多层前馈网络是至今为止应用最为广泛的神经网络。 在多层前馈网 2p 1p np b a 图 线性神经元模型 13 络的应用中,已图 所示的单隐层网络的应用最为普遍。 一般习惯将单隐层前馈网络称为三层前馈网或三层感知器,所谓三层包括了输入层、隐层和输出层。 三层前馈网中,输入向量 Tni xxxxX ),,( 21 为 ,如加入 10 x ,可为隐层神经元引入阀值;隐层输出向量 Tmj yyyyY ),,( 21 , 如加入 10 y ,可为输出层神经元引入阀值;输出 层 输 出 向 量 为 Tlk ooooO ),,( 21 。 期望输出向量为Tlk ddddd ),,( 21 。 输 入 层 到 隐 层 之 间 的 权 值 矩 阵 用 V 表示,Tni VVVVV ),,( 21 ,其中列向量 jV 为隐层第 j 个神经元对应的权向量;隐层到输出层之间的权值矩阵用 W 表示, Tni WWWWW ),,( 21 ,其中列向量 kW 为 输出层第 k 个神经元对应的权向量。 下面分析各层信号之间的数学关系。 对于输出层,有 )( kk fo lk ,2,1 „„„„„„„„„ „„„„ ( ) mj jjkk yw 0 lk ,2,1 „„„„„„„„„ „„„„ ( ) 对于隐层,有 )( jj fy mk ,2,1 „„„„„„„„„ „„„„ ( ) mj iijj xv 0 mk ,2,1 „„„„„„ „„„„ „„„ „„ „„„„ ( ) 以上两式中,转移函数 )(xf 均为单极 Sigmoid 函数 xexf 1 1)(„„„„„„ „„„ „„„„„ „„„„„„„ „„„„ ( ) )(xf 具有连续、可导的特点,且有 x1 x2 xi xi+1 i 层 k 层 j 层 1yy1 2yy1 _ + 训练信号 td 调整权值 误差 输入层( n 个) 隐层( p 个) 输出层( q 个) 图 BP 网络结构及反向学 习 14 )](1)[()( xfxfxf „„„„„„„„„ „„„„„„ „„ „„„„ ( ) 根据应用需要,也可以采用双极性 Sigmoid(或称双曲线正切函数) xxeexf 11)(„„„„„„ „„„„ „„„„„„„„ „ „„ „„„„ ( ) 式( ) ~ 式( )共同构成了三层前馈网的数学模型。 BP 学习算法 下 面以三层前馈网为例介绍 BP 学习算法,然后将所得结论推广到一般多层前馈网的情况。 网络误差与权值调整 : 当网络输出与期望输出不等时,存在输出误差 E,定义如下 212 )(21)(21 klk k ododE „„„„„„„ „„„„ ( ) 将以上误差定义式展开至隐层,有 20121 )]([21)]([21 mj jjklk kklk k ywfdn e tfdE„„„ ( ) 进一步展开至输入层,有 20 01201]})([{21]})([{21 mjniiijjklkkmjjjklkkxvfwfdfwfdE„„„„„„ „„„ ( ) 由上式可以看出,网络输入误差是各层权值 jkw 、 ijv ,的函数,因此调整权值可改变误差 E。 显然,调整权值的原则是使误差不断地减小,因此应使权值调整量与误差的负梯度成正比,即 jkjk wEw mj ,2,1,0 lk ,2,1 „„„„„„ „„„„ ( ) ijij vEv ni ,2,1,0 mj ,2,1 „„„„„ „„„„ ( ) 式 中负号表示梯度下降,常数 )1,0( 表示比例系数,在训练中反映了学习速率。 可以看出 BP 算法属于 学习规则类,这类算法通常被称为误差的梯度下降算法。 15 标准 BP 算法的改进 将 BP 算法用于具有非线形转移函数的三层前馈网,可以以任意精度逼近任何非线形函数,这一非凡优势使多层前馈网络得到越来越广泛的应用。 然而标准的 BP 算法在应用中暴露出不少内在的缺陷: (1)易形成局部极小而得不 到全局最优; (2)训练次数多使得学习效率低,收敛速度慢; (3)隐节点的选取缺乏理论指导; (4)训练时学习新样本有遗忘旧样本的趋势; 针对上述问题,国内外已提出不少有效的改进算法,下面仅介绍其中 3 种较常用的方法。 ( 1) 增加动量项 一些学者于 1986 年提出,标准 BP 算法在调整权值时,只按时刻误差的梯度降方向调整,而没有考虑 t 时刻以前的梯度方向,从而使训练过程发生振荡,收敛缓慢。 为了提高网络的训练速度,可以在权值调整公式中增加一动量项若用 w 代表某层权矩阵, X 代表某层输入向量,则含有动量项的权值调整向量表达式为 )1()( tWXtW „„„„„„„„„ „„„„ ( ) 可以看出,增加动量项即从前一次权值调整量中取出一部分叠加到本次权值调整量中, 称为动量系数,一般有 )1,0(。 动量项反映了以前积累的调整经验,对于 t 时刻的调整阻尼 作用。 当误差曲面出现骤然起伏时,可减小振荡趋势,提高训练速度。 目前, BP 算法中都增加了动量项,以至于有动量项 BP 算法成为一种新的标准算法 [13]。 ( 2) 自适应调节学习率 学习率 也称为步长,在标准 BP 算法中定为常数,然而在实际应用中,很难确定一个从始至终都合适的最佳学习率。 从误差曲面可以看出,在平坦区域内 太小会使训练次数增加,因而希望增大 值;而在误差变化剧烈的区域, 太大会因调整量过大而跨过较窄的“坑凹”处,使训练出现振荡,反而使迭代此时增加。 为了加速收敛过程,一个较好的思路是自适应调节学习率,使其该大时增大,该小时减小。 ( 4) 引入陡度因子 前面的分析指出,误差曲面上存在着平坦区域。 权值调整进入平坦区的原因是神经元进入了转移函数的饱和区。 如果在调整进入平坦区后,设法压缩神经元的净输入,是其输出退出转移函数的饱和区,就可以改变误差函数的形状,从而使调整脱离平坦区。 实现这一思路的具体作法是,在原转移函数引入一个陡因子 16 /1 1eo 图 压缩后的转移函数曲线 当发现 E 接近零而 od 仍较大时,可判断已进入平坦区,此时令 1 ;当退出平坦区后,再令 1。 从图 可以看出,当 1 时, 坐标压缩了 倍,神经元的转移函数曲线的敏感区段变长,从而可使绝对值较大的 退出饱和值。 当1 时转移函数恢复原状,对较小的 具有较高的灵敏度。 应用结果表明该方法对于提高 BP 算法的收敛速度十分有效。 基于 BP 算法的多层前馈网络设计基础 ( 1) 网络信息容量与训练样本数 多层 前馈网络的分类能力与网络信息容量相关。 如用网络的权值和阀值总数 表征网络信息容量与训练误差之间应满足如下匹配关系 wnP „„„„„„„„„„„„„„„„„„„„„ „„„ ( ) 上式表明网络的信息容量与训练样本之间存在着合理匹配关系。 在解决实际问题时,训练样本常常难以满足以上要求。 对于确定的样本数,网络参数太少则不足以表达样本中蕴涵的全部规律,而网络参数太多则由于样本信息太少而得不到充分训练。 因此,当实际问题不能提供较多的训练样本时,必需设法减少样本维数, 从而降低。 ( 2) 训练样本集的准备 训练数据的准备工作是网络设计和训练的基础,数据选择的科学性以及数据表示的合理性对于网络设计具有极为重要的影响。 数据准备工作包括原始数据的收集、数据分析、变量选择和数据预处理等诸多步骤,下面分几个方面介绍有关的知识。 ( 3) 输入输出的选择 一个待建模系统的输入输出就是神经网络的输入输出变量。 这些变量可能是事先确定的,也可能不够明确,需要进行一番筛选。 一般来讲,输出量代表系统要实现的功能目标,其选择确定相对容易一些。 输入量必须选择那些对输出影响大且能检测或提取o 0 1 1 1 21 17 的变量,此外还 要求各输入变量之间互不相关或相关性很小,这是输入量选择的两条基本原则。 如果对某个变量是否适合作网络输入没有把握,可分别训练含有和不含有该输入的两个网络,对其效果进行对比 [14]。 ( 4) 输入量的提取与表示 在很多情况下,神经网络的输入量无法直接获得,常常需要用信号处理与特征提取技术从原始数据中提取能反映其特征的若干特征参数作为网络的输入。 提取的方法与解决的问题密切相关,下面仅讨论几种典型的情况。 ① 文字符号输入 在各类字符识别的应用中,均以字符为输入的原始对象。 BP 网络的输入层不能直接接受字符输入,必须先 对其进行编码,变成网络可以。基于神经网络的电力电子装置故障检测与诊断研究毕业论文(编辑修改稿)
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。
用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。