XGBoost
1.多个决策树的 集成
2.一个树一个树向里增加,同时每加一个树,需要保证效果是提升的
当要增加树的时候,会将前面的树当成一个整体,构造的树,使得之前当成整体的目标函数减小
集成学习
两者具体的区别:https://blog.csdn.net/u013709270/article/details/72553282
Bagging 并行生成
Boosting 将弱分类器 提升为强分类器,串行生成
好逸恶劳,贪生怕死
1.多个决策树的 集成
2.一个树一个树向里增加,同时每加一个树,需要保证效果是提升的
当要增加树的时候,会将前面的树当成一个整体,构造的树,使得之前当成整体的目标函数减小
两者具体的区别:https://blog.csdn.net/u013709270/article/details/72553282
Bagging 并行生成
Boosting 将弱分类器 提升为强分类器,串行生成