baggingboosting内容摘要:

 AdaBoost    … AdaBoost  输入 :(X1,Y1), (X2,Y2),… (Xn,Yn) Xi∈ X, Yi∈ Y={+1,1} 初始化 :D1(i)=1/n  For t=1,… ,T  在 Dt下训练 ,  得到弱的假设 ht: X{1,+1}, 错误率 :Εt=ΣDt(i) [ht(Xi)≠Yi]  选择 αt=1/2 ln ( (1 Εt)/ Εt ),  更改权值 : if ht(Xi)≠Yi , Dt+1(i)=Dt(i)* e αt /Zt if ht(Xi)=Yi , Dt+1(i)=Dt(i)* e αt /Zt  输出 :H(X)=sign( ∑ αtht(X) )  初始赋予每个样本相等的权重 1/N ;  For t = 1, 2, …, T Do  学习得到分类法 Ct;  计算该分类法的错误率 Et Et=所有被错误分类的样本的权重和;  βt= Et/( 1 Et)  根据错误率更新样本的权重; 正确分类的样本: Wnew= Wold* βt 错误分类的样本: Wnew= Wold  调整使得权重和为 1;  每个分类法 Ct的投票价值为 log [ 1 / βt ] Boosting … … x c1(x) c2(x) cT(x) C* c*(x) = argmaxcm Sct(x)=cm log(1/bt) C1 train S,w1 train C2 S,w2 CT train S,wT AdaBoost training error    24112 ttt   tt22e xp  将 γt=1/2Et。 。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。