Gradient boosting算法(GBM)和随机森林都是基于树的算法,它们有什么区别【面试题详解】

今天爱分享给大家带来Gradient boosting算法(GBM)和随机森林都是基于树的算法,它们有什么区别【面试题详解】,希望能够帮助到大家。
最根本的区别是,随机森林算法使用bagging技术做出预测。 GBM采用boosting技术做预测。在bagging技术中,数据集用随机采样的方法被划分成使n个样本。然后,使用单一的学习算法,在所有样本上建模。接着利用投票或者求平均来组合所得到的预测。

Bagging是平行进行的。而boosting是在第一轮的预测之后,算法将分类出错的预测加高权重,使得它们可以在后续一轮中得到校正。这种给予分类出错的预测高权重的顺序过程持续进行,一直到达到停止标准为止。随机森林通过减少方差(主要方式)提高模型的精度。生成树之间是不相关的,以把方差的减少最大化。在另一方面,GBM提高了精度,同时减少了模型的偏差和方差。

人已赞赏
Python

如何在一个数据集上选择重要的变量【面试题详解】

2020-12-25 15:33:31

Python

凸包是什么【面试题详解】

2020-12-25 15:34:46

'); })();