【机器学习一】


🐳 集成学习相关代码和博文整理 🐳

1、Tree + boost GitHub

Github 链接参考

2、GBM(Gradient Boosting Machine)

GBM 理解,该博客中的公式色系和注释非常便于辅助理解。

  • 三种损失函数,square loss,absolute loss,huber loss。
  • AdaBoost 采用 square loss,GBDT 采用后面两种损失函数之一。

3、Tree 系列一

主要介绍ID3、C4.5、CART

4、Tree 系列二

主要介绍Random Forest、Adaboost、GBDT

  • 集成学习三大类,Bagging(RF),Boosting(GBDT) 和 Stacking。
  • 偏差(Bias)描述的是预测值和真实值之差;方差(Variance)描述的是预测值作为随机变量的离散程度。如下图所示。偏差与方差

5、Tree 系列三

主要介绍XGBoost、LightGBM

  • 直方图算法可以显著降低内存消耗。

6、LightGBM 安装教程

参考LightGBM 教程

  • 辅助理解 LightGBM 中的直方图算法等。
  • 安装命令,pip install lightgbm。

参考LightGBM 调参

  • sklearn 中 GBDT 和 LightGBM 的参数介绍。


文章作者: Yude Bai
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Yude Bai !
  目录