机器学习:CatBoost简介( 三 )

树在CatBoost中是对称的

  • 默认max_depth = 6

其他梯度增强算法的程序(XG boost , Light GBM)

步骤1:考虑所有(或一个样本)数据点以训练高度偏差的模型 。

步骤2:计算每个数据点的残差(误差) 。

步骤3:在相同的数据点和相应的残差(误差)上训练另一个模型作为类标签 。

步骤4:重复步骤2和步骤3(n次迭代) 。

这个过程容易过度拟合 , 因为我们计算的是模型已经在同一数据点上训练过的数据点的残差 。

CatBoost程序

CatBoost以非常优雅的方式进行梯度增强 。 以下是使用示例对CatBoost的说明 。

假设我们的数据集中有10个数据点 , 并按时间排序 , 如下所示 。

示例数据集

推荐阅读