集成学习之xgboost

一、XGBoost和GBDT xgboost是一种集成学习算法,属于3类常用的集成方法(bagging,boosting,stacking)中的boosting算法类别。它是一个加法模型,基模型一般选择树模型,但也可以选择其它类型的模型如逻辑回归等。 ...

2023-03-16 19:35 · 9 min · 4009 words · Reid

集成学习之AdaBoost

Boosting算法的工作机制 用初始权重D(1)从数据集中训练出一个弱学习器1 根据弱学习1的学习误差率表现来更新训练样本的权重D(2),使得之前弱学习器1学习误差率高的样本点的权重变高,使得这些误差率高的点在后面的弱学习器2中得到更多的重视。 然后基于调整权重后的训练集来训练弱学习器2 如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。 现如今已经有很多的提升方法了,但最著名的就是Adaboost(适应性提升,是Adaptive Boosting的简称)和Gradient Boosting(梯度提升)。让我们先从 Adaboost 说起。 ...

2023-03-16 19:35 · 5 min · 2315 words · Reid

集成学习之Bagging,Boosting

生成子模型的两种取样方式 那么为了造成子模型之间的差距,每个子模型只看样本中的一部分,这就涉及到两种取样方式: 放回取样:Bagging,在统计学中也被称为bootstrap。 不放回取样:Boosting 在集成学习中我们通常采用 Bagging 的方式,具体原因如下: ...

2023-03-16 19:35 · 7 min · 3496 words · Reid

集成学习之GBD

什么是GBDT 到底什么是梯度提升树?所谓的GBDT实际上就是: GBDT = Gradient Descent + Boosting + Desicion Tree 与Adaboost算法类似,GBDT也是使用了前向分布算法的加法模型。只不过弱学习器限定了只能使用CART回归树模型,同时迭代思路和Adaboost也有所不同。 ...

2023-03-16 19:35 · 6 min · 2682 words · Reid