baggingboosting内容摘要:
AdaBoost … AdaBoost 输入 :(X1,Y1), (X2,Y2),… (Xn,Yn) Xi∈ X, Yi∈ Y={+1,1} 初始化 :D1(i)=1/n For t=1,… ,T 在 Dt下训练 , 得到弱的假设 ht: X{1,+1}, 错误率 :Εt=ΣDt(i) [ht(Xi)≠Yi] 选择 αt=1/2 ln ( (1 Εt)/ Εt ), 更改权值 : if ht(Xi)≠Yi , Dt+1(i)=Dt(i)* e αt /Zt if ht(Xi)=Yi , Dt+1(i)=Dt(i)* e αt /Zt 输出 :H(X)=sign( ∑ αtht(X) ) 初始赋予每个样本相等的权重 1/N ; For t = 1, 2, …, T Do 学习得到分类法 Ct; 计算该分类法的错误率 Et Et=所有被错误分类的样本的权重和; βt= Et/( 1 Et) 根据错误率更新样本的权重; 正确分类的样本: Wnew= Wold* βt 错误分类的样本: Wnew= Wold 调整使得权重和为 1; 每个分类法 Ct的投票价值为 log [ 1 / βt ] Boosting … … x c1(x) c2(x) cT(x) C* c*(x) = argmaxcm Sct(x)=cm log(1/bt) C1 train S,w1 train C2 S,w2 CT train S,wT AdaBoost training error 24112 ttt tt22e xp 将 γt=1/2Et。 。baggingboosting
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。
用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。