江苏分分快3计划

江苏分分快3计划

EEPW江苏分分快3计划 > 智能计算 > 业界动态江苏分分快3计划 > 剑指LightGBM和XGboost!斯坦福发表NGBoost算法

编者按:与 LightGBM 和 GBoost 比较,它是否具有优势?

Stanford ML Group 最近在他们的论文中发表了一个新算法,其实现被称为 。该算法利用自然梯度将不确定性估计引入到梯度增强中。本文试图了解这个新算法,并与其他流行的 boosting 算法 LightGBM 和 XGboost 进行比较,以了解它在实践中是如何工作的。

本文引用地址:http://wancontoh.com/article/201911/407222.htm

注:Stanford ML Group 发表的论文网址为:http://arxiv.org/abs/1910.03225,有兴趣的同学可以下载学习~

James Pond 在 Unsplash 杂志上的照片

本文的主要内容包括以下三个部分:

什么是自然梯度增强?

江苏分分快3计划经验验证——与 LightGBM 和 XGBoost 的比较

结论

1.什么是自然梯度增强?

正如我在简介中所写那样,江苏分分快3计划 是一种新的 boosting 算法,它使用自然梯度 boosting,是一种用于概率预测的模块化 boosting 算法。该算法由 Base learners 、参数概率分布和评分规则组成。我将简要地解释一下这些术语是什么。

Base learners

该算法使用 Base learners。它接受输入 x,输出用来形成条件概率。这些 Base learners 使用 scikit-learn 的决策树作为树型学习者,使用岭回归作为线性学习者。

参数概率分布

参数概率分布是一种条件分布。这是由 Base learners 输出的加法组合形成的。

评分规则

江苏分分快3计划评分规则采用预测的概率分布和对目标特征的观察来对预测结果进行评分,真实的结果分布期望值得到最好的分数。该算法使用最大似然估计(MLE)或 CRPS(连续排序概率得分)。

我们刚刚介绍了 的基本概念。我建议你阅读原稿以便进一步理解(用数学符号更容易理解算法)。

2.经验验证:与 LightGBM 和 XGBoost 的比较

billy lee 在 Unsplash 杂志上的照片

让我们实现 NGBoost,看看它的性能如何。论文还对各种数据集进行了实验。他们比较了 MC-dropout、Deep-Ensembles 和 NGBoost 在回归问题中的表现,NGBoost 表现出了很强的竞争力。在这篇博文中,我想展示一下这个模型在 Kaggle 上著名的房价预测数据集上的性能。这个数据集包含 81 个特征,1460 行,目标是预测销售价格。让我们看看 NGBoost 如何处理这些情况。

目标特征的分布

由于测试算法的性能是本文的目的,我们将跳过整个特征工程部分,并将使用 Nanashi 的解决方案。

导入包:

# import packages

import pandas as pd

江苏分分快3计划from ngboost.ngboost import NGBoost

from ngboost.learners import default_tree_learner

江苏分分快3计划from ngboost.distns import Normal

from ngboost.scores

import MLE import lightgbm as lgb

import xgboost as xgb

from sklearn.model_selection import train_test_split

江苏分分快3计划from sklearn.metrics import mean_squared_error

from math import sqrt

在这里,我将使用上面的默认学习者、分布和评分规则,看看结果如何变化。

# read the dataset

df = pd.read_csv('~/train.csv')

# feature engineering

tr, te = Nanashi_solution(df)

现在使用 NGBoost 算法进行预测。

# NGBoost

ngb = NGBoost(Base=default_tree_learner, Dist=Normal, Score=MLE(),

江苏分分快3计划natural_gradient=True,verbose=False)

江苏分分快3计划ngboost = ngb.fit(np.asarray(tr.drop(['SalePrice'],1)),

np.asarray(tr.SalePrice))

y_pred_ngb = pd.DataFrame(ngb.predict(te.drop(['SalePrice'],1)))

对 LightGBM 和 XGBoost 也做一样的事情:

# LightGBM

ltr = lgb.Dataset(tr.drop(['SalePrice'],1),label=tr['SalePrice'])

param = {

江苏分分快3计划'bagging_freq': 5,

'bagging_fraction': 0.6,

江苏分分快3计划'bagging_seed': 123,

江苏分分快3计划'boost_from_average':'false',

江苏分分快3计划'boost': 'gbdt',

'feature_fraction': 0.3,

江苏分分快3计划'learning_rate': .01,

江苏分分快3计划'max_depth': 3,

江苏分分快3计划'metric':'rmse',

'min_data_in_leaf': 128,

'min_sum_hessian_in_leaf': 8,

'num_leaves': 128, 'num_threads': 8,

江苏分分快3计划'tree_learner': 'serial',

'objective': 'regression',

'verbosity': -1,

江苏分分快3计划'random_state':123,

'max_bin': 8,

'early_stopping_round':100

}

lgbm = lgb.train(param,ltr,num_boost_round=10000,valid_sets= [(ltr)],verbose_eval=1000)

江苏分分快3计划y_pred_lgb = lgbm.predict(te.drop(['SalePrice'],1))

江苏分分快3计划y_pred_lgb = np.where(y_pred>=.25,1,0)

# XGBoost

params = {

江苏分分快3计划'max_depth': 4, 'eta': 0.01,

'objective':'reg:squarederror',

'eval_metric': ['rmse'],

江苏分分快3计划'booster':'gbtree',

江苏分分快3计划'verbosity':0,

'sample_type':'weighted',

江苏分分快3计划'max_delta_step':4,

'subsample':.5,

'min_child_weight':100,

江苏分分快3计划'early_stopping_round':50

}

dtr, dte = xgb.DMatrix(tr.drop(['SalePrice'],1),label=tr.SalePrice),

xgb.DMatrix(te.drop(['SalePrice'],1),label=te.SalePrice)

江苏分分快3计划num_round = 5000

xgbst = xgb.train(params,dtr,num_round,verbose_eval=500)

江苏分分快3计划y_pred_xgb = xgbst.predict(dte)

现在我们用所有算法进行了预测。让我们检查一下它们的准确性。我们将使用与这次 kaggle 竞赛相同的标准,RMSE。

# Check the results

print('RMSE: NGBoost',

round(sqrt(mean_squared_error(X_val.SalePrice,y_pred_ngb)),4))

江苏分分快3计划print('RMSE: LGBM',

江苏分分快3计划round(sqrt(mean_squared_error(X_val.SalePrice,y_pred_lgbm)),4))

江苏分分快3计划print('RMSE: XGBoost',

round(sqrt(mean_squared_error(X_val.SalePrice,y_pred_xgb)),4))

以下是预测结果的总结。

预测结果总结

江苏分分快3计划看来 NGBoost 的性能优于其他著名的 boosting 算法。公平地说,我觉得如果我调整 BGBoost 的参数,它会更好。

NGBoost 与其他 boosting 算法最大的区别之一是可以返回每个预测的概率分布。这可以通过使用 pred_dist 函数可视化。此函数能够显示概率预测的结果。

江苏分分快3计划# see the probability distributions by visualising

Y_dists = ngb.pred_dist(X_val.drop(['SalePrice'],1))

y_range = np.linspace(min(X_val.SalePrice), max(X_val.SalePrice), 200)

dist_values = Y_dists.pdf(y_range).transpose()

# plot index 0 and 114

idx = 114

plt.plot(y_range,dist_values[idx])

plt.title(f"idx: {idx}")

plt.tight_layout()

plt.show()

概率分布示例

江苏分分快3计划上面的图表是每个预测的概率分布。X 轴显示销售价格的日志值(目标特征)。我们可以观察到,指数 0 的概率分布比指数 114 的更宽。

结论与思考

江苏分分快3计划从实验结果可以看出,NGBoost 算法与其他著名的 boosting 算法具有相同的性能。然而,计算时间比其他两种算法要长得多。这可以通过使用子采样方法来改进。此外,在我的印象中,NGBost 包仍在开发中,例如,没有提前停止选项,没有显示中间结果的选项,选择 Base leaners 的灵活性(到目前为止,我们只能在决策树和岭回归之间选择),设置一个随机状态种子,等等。我相信这些要点将很快得到落实。

你也可以在我的 GitHub 页面上找到我在这篇文章中使用的代码:http://github.com/kyosek/NGBoost-experiments

总结

江苏分分快3计划NGBoost 是一种返回概率分布的 boosting 算法。

江苏分分快3计划自然梯度增强,一种用于概率预测的模块化增强算法。这包括 Base leaners、参数概率分布和评分规则。

NGBoost 预测与其他流行的 boosting 算法相比具有很大的竞争力。

*参考文献:

[1] T. Duan, et al., NGBoost: Natural Gradient Boosting for Probabilistic Prediction (2019), ArXiv 1910.03225

via:http://towardsdatascience.com/ngboost-explained-comparison-to-lightgbm-and-xgboost-fda510903e53@Peter_Dong

本文转自雷锋网,如需转载请至雷锋网官网申请授权。

原文章地址为



关键词: NGBoost boosting算法
分享给小伙伴们:

评论


相关推荐

技术专区

关闭