
Bagging、Boosting及AdaBoost在集成学习中的实现
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本篇文章主要探讨了Bagging、Boosting以及AdaBoost三种算法在集成学习中的应用和实现方式,并对它们的特点进行了分析。
在之前的博客分享中,我们已经讲解了许多分类算法,包括knn、决策树、朴素贝叶斯、逻辑回归以及svm。我们知道,在做出重要决定时,人们通常会考虑听取多个专家的意见而不是仅依赖一个人的判断。同样地,机器学习解决问题的方式也是如此。集成学习(ensemble learning)通过构建并结合多个学习器来完成任务,有时也被称为多分类器系统或基于委员会的学习方法。
如图所示,集成学习的一般结构包括两个步骤:首先产生一组“个体学习器”,然后使用某种策略将它们结合起来。我们之前已经分享了五种不同的分类算法,可以将这些算法以不同方式组合在一起形成新的模型,这种组合结果称为集成方法或元算法。采用集成方法时有多种形式:
1. 集成中仅包含同类型的个体学习器。
此外还可以考虑混合不同种类的学习器来构建更为复杂的集成模型。
全部评论 (0)
还没有任何评论哟~


