基于matlab的自适应均衡器的研究毕业论文(编辑修改稿)内容摘要:

) 11 由此看出, J 是与滤波器的系数 ( 0,1, 2,...)k k  有关系的 函数。 获得教小的 J 才能得到最佳滤波器的系数值。 定义代价函 数 J 的梯度向量 ▽ J,对它求导,期中 K 元素为 k KJJ  k=0, 1, 2, ... (33) 为了得到最小的 J 值,令 0kwJ,也就是 0KJ k=0, 1, 2... (34) 这就是满足了最优条件下的滤波器了。 将( 32) 代 入( 33),得到  2 () ()2 ( ) 2 ( ) ( )k K k kE e nJ e nJ E e n E x n k e n            k=0, 1, 2, ... (35) 将( 35)的最后结果带入( 34)中,得到维纳滤波器最优解的等效形式为  0( ) ( ) 0E x n k e n k=0, 1, 2, ... (36) 式中, 0()en是滤波器 最好的估计误差值。 根据式( 36),可得结论:使均方误差代价函数 J 达到最小值 必须要满足 其相应的估计误差 0()en与 估计期望响应的每个输入样本值 x(nk)(k=0, 1, 2, ...)正交。 这就是正交原理的线性 MMSE 估计。 这是一个很重要的理论。 利用式( 36),可以得到离散形式维纳滤波器的另一个 充 分必要 条件。 将式子( 31)带入到( 36),得到     0 0 0 ,0( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 0iiE x n k e n E x n k d n y n E x n k d n x n i          k=0, 1, 2, ... (37) 式中, 0()yn是 最佳的输出 滤波器, 0,i 是最 佳 滤波器的第 i个 系数。 将式子( 37)进 行整理可得    0,0 ( ) ( ) ( ) ( )ii E x n k x n i E x n k d n     k=0, 1, 2, ... (38) 式中,  ( ) ( ) ( )E x n k x n i r i k    是滤波器输入 随机过程中不同时刻输入之间的自相关函数 ;  ( ) ( ) ( )E x n k d n p k  是滤波器输入信号 x(nk)与期望响应 d(n)的互相关。 12 于是,维纳滤波器的另一 个 条件为 0,0 ( ) ( )ii r i k p k    k=0, 1, 2, ... ( 39) 这个方程称为 WienerHoff 方程。 最小均方误差 由滤波器估计误差定义,可得到维纳滤波器的估计误差为 000( ) ( ) ( ) ( ) ( )e n d n y n d n d n    ( 310) 式中。 0()dn 理论中 最优估值。 于是 0( ) ( ) ( )d n d n e n ( 311) 令最小均方误差为 2m in 0()J E e n  ( 312) 对于式子( 311)两边取均方值,假定 d(n)和 0()dn 为零均值,根据正交原理的推论可得 220 minddJ ( 313) 式中, 2d 是期望响应 d(n)的方差; 20d 是 其最优估值 0()dn 的方差。 于是得到 22min 0ddJ  ( 314) 由此可以看出: d(n)的方差与 0()dn 的差值就是等于维纳滤波器所得最小均方误差。 横向滤波器 WienerHoff 方程 图 32 横向滤波 器 使用 最小均方误差准则( MMSE)进行优化,导出横向滤波器满足 WienerHoff 方程 13 为 10,0 ( ) ( )Mii r i k p k    k=0, 1, 2, ... (315) 式中, 0,0 0,1 0, 1, ,.... M   就是要求的最佳权值。 横向滤波器的维纳 霍夫方程可 用以下形式表示。 将 横向滤波器的抽头输入( ) , ( 1 ) , ..., ( 1 )x n x n x n M  的相关矩阵 定义 为 R,则 ( ) ( )TR E x n x n (316) 式中,  ( ) ( ) , ( 1 ) , . . . , ( 1 ) Tx n x n x n x n M   是 抽头 输入向量。 矩阵 R 一定是对称矩阵。 互相关矢量 P 被定义为横向滤波器的抽头的输入和所需的响应 ,则    ( ) ( ) (0 ) , ( 1 ) , . . . , ( 1 )Tp E x n d n p p p M    ( 317) 这可以将横向滤波器的 WienerHoff 方程表示为 0Rp ( 318) 式中, 0 = 0 , 0 0 ,1 0 , 1, , .. .. TM   这里是最佳的 横向滤波器的抽头权 重 向量。 显然,如果相关矩阵 R 是非奇异的,则可得横向滤波器维纳解为 10 Rp  ( 319) LMS 算法 LMS 算法,采用最速下降算法,平均梯度的平方误差从目前估计系数矢量迭代于下一时刻滤波器系数向量 , 而 且如果收敛因子 μ 选择 适合 [8],抽头权 值 向量 就会无限接近于 维纳解 , 但为了得到一个准确的梯度向量必须知道的互相关矢量的抽头输入相关矩阵和抽头输入和预期的响应值的关系 , 所以 当 是处于时变的环境条件下 梯度向量 ()Jn 的是 不可能通过测量得到 , 只能通过 数据对梯度向量进行 有意义的猜测。 则 估计梯度向量的为: ( 1 ) ( ) ( )w n w n J n     ( 320) 对 于 最小均方误差准则来说,如果采用一般的梯度估计方法的自适应算法 是需要一组数据中的平均值的两个均方误差的差 [9]作为梯度估计 , 而 LMS 算法 不需要这么做,而 是r(0) r(1) ... r(M1) r(1) r(0) ... r(M2) ... ... ... ... r(M1) r(M2) ... r(0) 14 直接 用一次 采样数据的 2()en来 等效为 均方误差 ()Jn, 然后 进行梯度估计,这 种就 称为瞬时梯度估计。 所以在自适应过程中的每次迭代,其梯度估计形式可以具体表现为此公式: 2 2()( ) ( ) ( ) ( ) ( ) ( ) 2 ( ) ( ) ( )( ) ( ) T T TenJ n d n w n x n x n w n d n x n w nw n w n        2 ( ) ( ) ( ) 2 ( ) ( ) 2 ( ) ( ) ( ) ( ) 2 ( ) ( )TTx n x n w n d n x n d n x n w n x n e n x n      ( 321) 将( 321) 代 入( 320) 中,可得 : ( 1 ) ( ) ( ) ( ) 2 ( ) ( )w n w n J n w n e n x n      ( 322) 式( 322)就是 称为 LMS 算法。 在这里, μ 是一个重要的因素,用来控制自适应收敛的稳定性和收敛速 度。 简化可得 ( ) 2 ( ) 2J n Rw n p   ( 323) LMS 算法的梯度估计指的就是 ()Jn 中 R 和 p 作瞬时估计,即: ( ) ( ) ( )TR n x n x n  ( 324) ( ) ( ) ( )p n x n d n  ( 325) 相应的梯度向量的瞬时估计为: ( ) 2 ( ) 2 2 ( ) ( ) ( ) 2 ( ) ( )TJ n R w n p x n x n w n x n d n       ( 326) 所以,根据 式( 326)的梯度估计 的 迭代公式为: ( 1 ) ( ) ( ) ( ) 2 ( )w n w n J n w n R w n p          ( ) 2 ( ) ( ) ( ) ( ) ( )Tw n x n x n w n x n d n    ( ) 2 ( ) ( ) ( ) ( ) ( ) ( ) ( ) 2 ( ) ( )TTw n x n d n x n w n x n w n w n e n x n     ( 327) 与( 322)给出的迭代公式一致。 15 图 33 LMS 算法向量信号流图 图 33 给出了 LMS 算法的向量信号流图。 显然 ,这是一个 本身就 有 性能 反 馈的闭环自适应系统。 正确的调整滤波器来测量,你可以得到一个响应信号非常接近预期的输出 [10];让 输出与期望响应 相相减 得到 “误差 ”信号, 通过降低误差信号,就能得到最有权值。 从图中 可以明显的看出 , LMS 算法 是 容易高效实现。 梯度向量的每个分量 是由一 个数据样本得到, 没有进行平均 , 所以 梯度估计 肯定含有噪声的。 但是 在自适应过程中 ,随着时间的推移,这个噪声肯定会衰减的。 表 31 LMS 算法流程 参数设置: M=滤波器的抽头系数 μ=收敛因子 已知数据: x(n)=抽头输入响应 d(n)=期望响应 初始化: w(0)由先验知识确定;否则令 w(0)=0 迭代计算: 对 n=0, 1, ...,计算 ( ) ( ) ( )Ty n w n x n e(n)=d(n) y(n) ( 1 ) ( ) 2 ( ) ( )w n w n e n x n   LMS 算法的收敛性 LMS 算法 最主要问题就是 使 2[ ( )]Ee n 达到最小值 然后得到 最 优 权向量的问题。 一般情 16 况下 LMS 算法最后的抽头权向量 不可能是精准的出现在 0w ,而是 随机的游走在 0w 附近。 下面 分析讨论 LMS 算法抽头权向量的期望值 如何 收敛。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。