sas系统和数据分析非线性回归分析(编辑修改稿)内容摘要:

非线性回归模型为 : y=b0*(1exp(b1*x) proc nlin method=gauss NonLinear Least Squares Grid Search Dependent Variable Y B0 B1 Sum of Squares NonLinear Least Squares Iterative Phase Dependent Variable Y Method: GaussNewton Iter B0 B1 Sum of Squares 0 1 2 3 4 NOTE: Convergence criterion met. NonLinear Least Squares Summary Statistics Dependent Variable Y Source DF Sum of Squares Mean Square Regression 2 Residual 18 Uncorrected Total 20 (Corrected Total) 19 Parameter Estimate Asymptotic Asymptotic 95 % Std. Error Confidence Interval Lower Upper B0 B1 Asymptotic Correlation Matrix Corr B0 B1 B0 1 B1 1 c7147b9288abe2b7cd5d14ba9c008f20 商务数据分析 电子商务系列 上海财经大学经济信息管理系 IS/SHUFE Page 11 of 20 )1(9 9 6 1 8 8 5 6 5 0 4 1 9 5 3 8 8 6 xey  第三十五课 同时 , 还给出 B0 和 B1 参数估计的渐近有效标准差( Asymptotic Std. Error) 和渐近 95%置信区间( Asymptotic 95 % Confidence Interval)。 最后 , 还给出了参数的渐近相关阵( Asymptotic Correlation Matrix)。 主成分分析 六、 主成分的导出 主成分分析( principal ponent analysis)是 1901 年提出,再由 Hotelling( 1933)加以发展的一种统计方法。 其主要目的是在于将许多变量减少,并使其改变为少数几个相互独立的线性组合形成的变量(主成分),而在经由线性组合而得的成分之方差会变为最大,使得原始 p 维资料在这些成分上显示最大的个别差异来。 用一句话来说,主成分分析是将多个变量化为少数综合变量的一种多元统计方法。 设有 n 组样品,每组样品有 p 个变量,记 n 组样品数据见表。 表 p 个变量的 n 组样品数据 样品号 变量 1 2 „ n 1X 2X  pX 11x 21x „ 1nx 12x 22x „ 2nx 错误 !未定义书签。 错误 !未定义书签。 错误 !未定义书签。 px1 错误 ! 未定义书签。 „ 错误 !未定义书签。 如果 p 个变量是相互独立的,则可以将问题化为单变量逐个处理,这是比较简单的。 c7147b9288abe2b7cd5d14ba9c008f20 商务数据分析 电子商务系列 上海财经大学经济信息管理系 IS/SHUFE Page 12 of 20 但是对大量的实际问题中提出来的数据,各变量之间往往存在着不同程度的相关关系,这时要搞清这些数据之间的关系,就必须在高维空间中加以研究,这显然是比较麻烦的,为了克服这一困难,一个很自然的想法就是采取降维的方法,也就是利用全部 p 个变量来重新构造 q 个新的综合变量( pq ) , 并使得这些较少的变量既能尽可能多地反映原来 p 个变量的统计特性 , 并且它们之间又是相互独立的。 假定 x 1(x , 2x , „ , )px是一组随机变量,并且 Ex ,协方差阵 VxD )( 错误 !未定义书签。 考虑 1x , 2x , „ ,px的一个线性组合(或称线性变换): xaxaxaxaZ pp  2211 () 这里 ),( 21 paaaa 。 对于综合变量 Z ,我们要选择一组系数 ),( 21 paaaa 使得 Z 的方差最大;由于 VaaxaVar  )( ,对任意给定的常数 c , VaacxacV ar  2)( ,如果对 a 不加以限制,上述问题就变得毫无意义。 于是限制 1aa ,求 )( xaVar  的最大值。 根据限制性条件下的拉格朗日极值理论可以证明,在此情况下的 )( xaVar  的最大值等价于求: aaVaaa 0max () 的值,就等于矩阵 V 的最大特征根 1 , a 就是 1 对应的特征向量。 若记矩阵 Σ *的 p 个特征值 1 ≥ 2 ≥„≥ m 1m = „ = p = 0,且 m 个非零特征值所对应的特征向量分别为 1a , 2a ,„, ma ,则: 1111m a x VaaVaaaa   222011m a x VaaVaaaa aa     mmmmiaa aa VaaVaai  )1,2,1(01 m a x  那么,把矩阵 V 的非 0 特征根 1 ≥ 2 ≥„≥ m 0 所对应的单位特征向量 1a , 2a ,„,ma 分别作为 x 1(x , 2x , „ , )px 的系数向量, xaxaxa m , 21  分别称为随机向量 x 的第 1 主成分、第 2 主成分,„,第 m 主成分。 当 ji 时 c7147b9288abe2b7cd5d14ba9c008f20 商务数据分析 电子商务系列 上海财经大学经济信息管理系 IS/SHUFE Page 13 of 20 0),(  jijjiji aaVaaxaxaC O V  () 所以,主成分之间是不相关的。 而且可以看到,主成分分析主要就是由观察数据阵 X 得到协方差 V 的估计 Vˆ ,从 Vˆ 出发计算它的特征值和特征向量。 p 维随机向量 X 的主成分其实就是 p 个变量 pxxx , 21  的一些特殊的线性组合,在几何上这些线性组合正好把 pxxx , 21  构成的原坐标系统经过旋转后产生新坐标系统,这个新坐标系统的轴方向上具有最大的变异,同时提供了协方差阵的最简洁的表示(非对角线上为 0)。 例如,我们有一个 p =2 维随机向量 X 的 n =100 个点构成一个椭圆形状,如图 35- 1所示。 第一主成分则是这个椭圆的长轴方向,因为原坐标系的 100 点按长轴方向旋转后数据最离散,具有最大的方差,设定旋转方向的表示为单元圆上的一个单位方向,与长轴平行的单位方向 ),( 2111aa 具有 1221211 aa ,因此,不难求出第一主成分的系数向量 ),( 2111aa 的具体值。 而椭圆的短轴与长轴是垂直的,是第二个主成分的方向,因为短轴是与长轴不相关方向中具有最大的方差,同样与短轴平行的单位方向 ),( 2212aa 具有 1222212 aa ,同求第一主成分的系数向量一样,我们也能容易求出 )。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。