经济预测与决策判断预测法(编辑修改稿)内容摘要:

( 万件 )  则若本公司自行产销该产品 , 平均可获利为:  ( 8050) 47- ( 300+20) =1090( 万元 )  因此决策的结果应自行生产和销售。 20 04 50 92 80 04 47     (二)累计概率中位数法  是根据累计概率,确定不同预测意见的中位数,得出预测值。  步骤:  制定主观概率和累计概率调查表。  将调查表情况进行汇总,求得预测值。 经济预测与决策 第四章 回归分析预测法 本章学习目的与要求 通过本章的学习,了解回归分析预测法的概念;掌握回归分析中各系数的计算方法及回归预测方法。 回归分析预测法  回归分析预测法就是从各种经济现象之间的相互关系出发,通过对与预测对象有联系的现象的变动趋势的回归分析,推算出预测对象未来状态数量表现的一种预测方法。 第一节 回归分析概述  一、回归的定义  二、回归分析与相关分析  三、回归模型的分类 一、回归的定义  回归是研究自变量与因变量之间的关系形式的分析方法,其目的在于根据已知自变量值来估计因变量的总体平均值。  在研究某一社会经济现象的发展变化规律时,经过分析可以找到影响这一现象变化的原因。 在回归分析中,把某一现象称为因变量,它是预测的对象,把引起这一现象变化的因素称为自变量,它是引起这一现象变化的原因。 而因变量则反映了自变量变化的结果。 回归  自变量与因变量之间的因果关系可以通过函数形式来表现,用数学模型来体现两者之间的数量关系。 自变量的值是确定的,而因变量的值是随机的。  回归函数中,确定的自变量值所对应的是随机的因变量值的总体平均值。 父亲们的身高与儿子们的身高之间 关系的研究 1889年 收集了上千个家庭的身高、臂长和腿长的记录 企图寻找出儿子们身高与父亲们身高之间关系的具体表现形式 下图是根据 1078个家庭的调查所作的散点图(略图) yx160 165 170 175 180 185 140 150 160 170 180 190 200 Y X 儿子们身高向着平均身高“回归”,以保持种族的稳定 “ 回归 ” 一词的由来  从图上虽可看出,个子高的父亲确有生出个子高的儿子的倾向,同样地,个子低的父亲确有生出个子低的儿子的倾向。 得到的具体规律如下:   如此以来,高的伸进了天,低的缩入了地。 他百思不得其解,同时又发现某人种的平均身高是相当稳定的。 最后得到结论:儿子们的身高回复于全体男子的平均身高,即 “ 回归 ” —— 见 1889年 《 普用回归定律 》。  后人将此种方法普遍用于寻找变量之间的规律 xyubxay 二、回归分析与相关分析  相关分析:是研究两个或两个以上随机变量之间相互依存关系的紧密程度。  回归分析:研究某一随机变量与其它一个或几个普通变量之间的数量变动的关系。 三、回归模型的分类  , 分为一元回归模型和多元回归模型。  一元回归模型是指只包含一个自变量的回归模型;  多元回归模型是指包含两个或两个以上自变量的回归模型。 间是否线性  分为线性回归模型和非线性回归模型。 线性回归模型是指自变量与因变量之间呈线性关系;  非线性回归模型是指自变量与因变量之间呈非线性关系。  分为单一方程模型和联立方程模型。  单一方程模型是指只包含一个方程的回归模型;联立方程模型是指包含两个或两个以上方程的回归模型。  单一方程的一元线性回归分析是其它回归分析的基础,本章将主要介绍一元线性回归预测法。 第二节 一元线性回归预测法  一元线性回归预测法是根据一元线性回归模型中单一自变量的变动来预测因变量平均发展趋势的方法。 一、一元线性回归模型  若用 X代表自变量, Y代表因变量。 则给定一个自变量的值 Xi时,对于一元线性回归模型就有一个因变量的总体平均值E(Yi)与它对应,其函数关系可写成E(Yi)=f(Xi), 它表明 Y的总体平均值是随着 X的变化而变化的。 该函数亦称为总体回归函数。 一元线性回归模型的基本形式为:  E(Yi)=b0+b1Xi ( 31)  或 Yi=E (Yi)+ui=b0+b1Xi+ui ( 32)  其中 b0、 b1是未知而固定的参数,称为回归系数, ui称为随机扰动项。  在回归分析中,我们要根据 Y和 X的观测值来估计未知的 b0和 b1的值,进而建立回归模型。 一元线性回归样本函数 的估计式。 为的估计式;为)的估计式;(为式中1100i10iˆ ˆ Yˆ , 3)(3 ˆˆYˆ bbbbYEXbbii回归模型  对于样本中每一个与 Xi相对的观测值 Yi与由样本回归函数得到的估计值有一随机偏差,这个偏差称为随机误差,记为 ei。 样本回归模型 ˆˆYˆY 10ii iii eXbbe 二、最小二乘估计  建立样本回归函数的方法有许多,其中最流行的是最小二乘法( OLS)。    当给定样本 X和 Y的 n对观测值时,我们希望据此建立的样本回归函数值应尽可能接近观测值 Yi, 使其样本剩余的平方和尽可能地小,即 ei2min。 这一准则就是最小二乘准则。 图 31 Y Yi . e . . . . 0 Xi X  根据最小二乘准则建立样本回归函数的过程为最小二乘估计,简记 OLS估计。  由此得到的估计值得计算式称为最小二乘估计式。 一元线性回归模型的最小二乘估计 ˆˆYˆ 10i iXbb  eYˆY iii  ˆˆYYˆY 10iii ii Xbbe  )ˆˆY( 210i2 ii Xbbe 一元线性回归模型的最小二乘估计  由最小二乘准则: ei2min  有: 0ˆ)ˆˆY(ˆ0ˆ)ˆˆY(ˆ1210i120210i02bXbbbbXbbbiiiiee0)ˆˆY。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。