Scidown文献预览系统!
关于AdaBoost有效性的分析
付忠良 机器学习;弱学习定理;大数定理;AdaBoost;Bagging
机器学习领域的弱学习定理表明,如果能找到比随机猜测稍好的弱学习算法,就能构造出具有任意精度的强学习算法。AdaBoost和Bagging是基于该定理使用最多的方法。但是AdaBoost和Bagging的许多问题还没有得到很好的解决:对AdaBoost和Bagging的误差分析不统一;AdaBoost中使用的训练误差不是真实的训练误差,而是基于样本权值的误差,如果能代表真实的训练误差,则需要解释;最后给出了保证强学习算法有效性的条件。通过调整Bagging错误率和采用加权投票的方法,统一了AdaBoost和Bagging的算法流程和误差分析。通过直接图分析,说明了弱学习算法是如何提升为强学习算法的。在大数定律对弱学习定理的解释和证明的基础上,分析了AdaBoost的有效性。采用AdaBoost的样本权重调整策略,保证正确样本的均匀分布。其训练误差的概率与实际训练误差的概率相等。为保证AdaBoost算法的有效性,提出了弱学习算法的训练规则。说明了AdaBoost的有效性,并给出了构造新的集成学习算法的方法。通过查阅Adaboost对装袋训练集的选择策略提出了一些建议。
『Sci-Hub|Scidown』怎么用?来看看教程吧!

支持模式 1.支持DOI号 2.支持英文文献全名搜索 3.支持参考文献搜索 4.知网文献(暂时关闭)


安卓手机、电脑用户,您可以在QQ浏览器里输入 www.scidown.cn 打开scidown解析,就可以解析、下载了!(注意是文献的DOI号)


苹果手机用户,您需要先在App Store里搜索并下载 Documents by Readdle 这个APP,在APP首页,左划右下角的指南针图标打开APP内置浏览器,在浏览器里输入 www.scidown.cn 打开scidown解析,就可以解析、下载了!


如出现BUG?赶快加入【Scidown互助交流群】反馈吧:729083885【点击一键加群】