2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > 用通俗易懂的方式讲解:CatBoost 算法原理及案例

用通俗易懂的方式讲解:CatBoost 算法原理及案例

时间:2023-07-22 10:58:20

相关推荐

用通俗易懂的方式讲解:CatBoost 算法原理及案例

文章目录

知识汇总解惑答疑1、梯度提升概述2、什么是 CatBoost3、CatBoost 的主要特点01 对称树FloatFeatureOneHotFeatureOnlineCtr02 Ordered Boosting03 鲁棒性04 原生特征支持,易于使用4、CatBoost 的基本使用导入基本数据创建一个baseline模型特征变量统计Float featureOne-hot feature模型交叉验证模型应用5、CatBoost 应用案例数据预处理数据标签提取检查数据集中标签平衡性保存数据创建 Pool 类拆分训练集和测试集选择目标函数训练模型评估模型模型比较交叉验证过拟合检验选择概率决策边界绘制 ROC 曲线模型预测在未知数据集上评估模型特征重要性特征评估模型保存和导入参考资料

知识汇总

前面已讲了7节,为方便大家学习,我总结在一起,无论是日常实践还是面试使用,都非常方便,喜欢记得收藏

用通俗易懂的方式讲解:逻辑回归模型及案例(Python 代码)用通俗易懂的方式讲解:决策树模型及案例(Python 代码)用通俗易懂的方式讲解: 随机森林及案例(Python 代码)用通俗易懂的方式讲解: xgboost 算法及案例(Python 代码)用通俗易懂的方式讲解: GBDT算法及案例(Python 代码)用通俗易懂的方式讲解:lightGBM 算法及案例(Python 代码)用通俗易懂的方式讲解:主成分分析(PCA)算法及案例(Python 代码)

CatBoost(categorical boosting)是一种能够很好地处理类别型特征的梯度提升算法库。本文中,我们对 CatBoost 基本原理及应用实例做个详细介绍。

后面我还将针对其中几个重要特性做专门介绍,如 CatBoost 对类别型特征处理、特征选择、文本特征处理、超参数调整以及多标签目标处理,感兴趣记得收藏、点赞、关注。

解惑答疑

本文来自技术群小伙伴分享的,技术交流欢迎入群

目前开通了技术交流群,群友已超过3000人,添加时最好的备注方式为:来源+兴趣方向,方便找到更快获取资料、入群

方式①、添加微信号:dkl88191,备注:来自CSDN+加群

方式②、微信搜索公众号:Python学习与数据挖掘,后台回复:加群

1、梯度提升概述

要理解boosting,我们首先理解集成学习,为了获得更好的预测性能,集成学习结合多个模型(弱学习器)的预测结果。它的策略就是大力出奇迹,因为弱学习器的有效组合可以生成更准确和更鲁棒的模型。集成学习方法分为三大类:

Bagging:该技术使用随机数据子集并行构建不同的模型,并聚合所有预测变量的预测结果。

Boosting:这种技术是可迭代的、顺序进行的和自适应的,因为每个预测器都是针对上一个模型的错误进行修正。

Stacking:这是一种元学习技术,涉及结合来自多种机器学习算法的预测,例如 bagging 和 boosting。

2、什么是 CatBoost

CatBoost(categorical boosting)是 Yandex 开源的机器学习算法。它可以与深度学习框架轻松集成。它可以处理多种数据类型,以帮助解决企业今天面临的各种问题。CatBoost 和 XGBoost、LightGBM 并称为 GBDT 的三大主流神器,都是在 GBDT 算法框架下的一种改进实现。XGBoost 被广泛的应用于工业界,LightGBM 有效的提升了 GBDT 的计算效率,而 Yandex 的 CatBoost 号称是比 XGBoost 和 LightGBM 在算法准确率等方面表现更为优秀的算法。

CatBoost 是一种基于对称决策树(oblivious trees)为基学习器实现的参数较少、支持类别型变量和高准确性的GBDT框架,主要解决的痛点是高效合理地处理类别型特征,这一点从它的名字中可以看出来,CatBoost 是由CategoricalBoosting组成。此外,CatBoost 还解决了梯度偏差(Gradient Bias)以及预测偏移(Prediction shift)的问题,从而减少过拟合的发生,进而提高算法的准确性和泛化能力。

此外,CatBoost 梯度提升算法库中的学习算法基于 GPU 实现,打分算法基于 CPU 实现。

3、CatBoost 的主要特点

CatBoost 优于同类产品的一些关键特性:

01 对称树

与 XGBoost 和 LightGBM 不同,CatBoost 构建对称(平衡)树。在每一步中,前一棵树的叶子都使用相同的条件进行拆分。选择损失最低的特征分割对并将其用于所有级别的节点。这种平衡的树结构有助于高效的 CPU 实现,减少预测时间,模型结构可作为正则化以防止过度拟合。

在对称决策树中,只使用一个特性来构建每个树级别上的所有分支。我们使用图示方法更加清晰地观察三种类型的拆分:"FloatFeature"、"OneHotFeature" 和 "OnlineCtr"

FloatFeature

模型没有类别型特征时,在可视化的树中只有"FloatFeature"节点。"FloatFeature"拆分对应的节点包含特征索引和边界值,用于拆分对象。

boston = load_boston()y = boston['target']X = boston['data']pool = catboost.Pool(data=X, label=y)model = CatBoostRegressor(depth=2, verbose=False, iterations=1).fit(X, y)model.plot_tree(tree_idx=0,# pool=pool, )

在这个例子中,深度为0的节点表示对象被它们的第0个带边界值的特征分割。类似地,深度1的节点通过其具有边界值的第二个特征来分割对象。

OneHotFeature

titanic_df = titanic()X = titanic_df[0].drop('Survived',axis=1)y = titanic_df[0].Survived# 分类变量的缺失值用"NAN"填充,代码略pool = Pool(X, y, cat_features=cat_features_index, feature_names=list(X.columns))model = CatBoostClassifier(max_depth=2, verbose=False, max_ctr_complexity=1, random_seed=42, iterations=2).fit(pool)model.plot_tree(tree_idx=0,pool=pool # 对于一个需要使用独热编码的特征,"pool" 是一个必须的参数)

第一棵树只包含一个由"OneHotFeature"特征产生的分裂。这种分割将"Sex=female"的对象放在左边,而"other"的对象放在右边。

OnlineCtr

model.plot_tree(tree_idx=1, pool=pool)

02 Ordered Boosting

经典提升算法存在预测偏移的问题,容易在小的/嘈杂的数据集上过度拟合。在计算数据实例的梯度估计时,这些算法使用与构建模型相同的数据实例,因此没有机会遇到看不见的数据。

另一方面,CatBoost 使用排序提升的概念,这是一种置换驱动的方法,在数据子集上训练模型,同时在另一个子集上计算残差,从而防止目标泄漏和过度拟合。

03 鲁棒性

它减少了对大量超参数调整的需求,并降低了过度拟合的机会,这也导致了更通用的模型。虽然,CatBoost 有多个参数需要调整,它包含树的数量、学习率、正则化、树深度、折叠大小、装袋温度等参数。您可以在此处阅读所有这些参数。

04 原生特征支持,易于使用

CatBoost 支持数字、分类或文本的各种特征,节省了预处理的时间和精力。可以从命令行使用 CatBoost,使用 Python 和 R 的用户友好 API。

4、CatBoost 的基本使用

导入基本数据

我们使用 CatBoost 库里自带的经典数据集 titanic。

from catboost.datasets import titanicimport numpy as nptrain_df, test_df = titanic()# 用一些超出分布范围的数字来填充缺失值train_df.fillna(-999, inplace=True)test_df.fillna(-999, inplace=True)# 拆分特征变量及标签变量X = train_df.drop('Survived', axis=1)y = train_df.Survived# 划分训练集和测试集from sklearn.model_selection import train_test_splitX_train, X_validation, y_train, y_validation = train_test_split(X, y, train_size=0.75, random_state=42)X_test = test_df

Titanic 数据集中的特征变量具有不同的类型—有些是数值类型,有些是分类类型,甚至有些只是字符串类型,通常应该以某种特定的方式进行处理(例如使用词袋表示进行编码)。但这里我们可以将这些字符串特征视为分类特征——所有繁重的工作都是在 CatBoost 中完成的。

创建一个baseline模型

我们首先从一个基础baseline模型开始,认识如何使用catboost进行预测目标。

# !pip install catboostfrom catboost import CatBoostClassifier, Pool, metrics, cvfrom sklearn.metrics import accuracy_scoremodel = CatBoostClassifier(custom_loss=[metrics.Accuracy()], # 该指标可以计算logloss,并且在该规模的数据集上更加光滑random_seed=42,logging_level='Silent')# 模型训练model.fit(X_train, y_train,cat_features=categorical_features_indices,eval_set=(X_validation, y_validation),#logging_level='Verbose', # you can uncomment this for text outputplot=True);

可以通过详细输出或使用漂亮的绘图来观察我们的模型学习,我们使用CatBoost自带的可交互模型过程可视化,查看模型的学习过程。

特征变量统计

Float feature

feature = 'Fare'res = model.calc_feature_statistics(X_train, y_train, feature, plot=True)

One-hot feature

feature = 'Sex'res = model.calc_feature_statistics(X_train, y_train, feature, plot=True)

模型交叉验证

验证模型是否是性能最佳的,使用交叉验证,可能甚至会得到更好的模型。

cv_params = model.get_params()cv_params.update({'loss_function': metrics.Logloss()})cv_data = cv(Pool(X, y, cat_features=categorical_features_indices),cv_params,plot=True)

现在我们得到了每个 boosting 步骤 3folds 平均的损失函数值,这提供了更准确的模型性能估计。

print('Best validation accuracy score: {:.2f}±{:.2f} on step {}'.format(np.max(cv_data['test-Accuracy-mean']),cv_data['test-Accuracy-std'][np.argmax(cv_data['test-Accuracy-mean'])],np.argmax(cv_data['test-Accuracy-mean'])))print('Precise validation accuracy score: {}'.format(np.max(cv_data['test-Accuracy-mean'])))

Best validation accuracy score: 0.83±0.02 on step 355Precise validation accuracy score: 0.8294051627384961

如上所示,最初对单次验证的性能估计并不是特别理想,而经过交叉验证后会有所提升。

模型应用

模型训练结束后,可以保存模型,以供预测使用。

predictions = model.predict(X_test)predictions_probs = model.predict_proba(X_test)print(predictions[:10])print(predictions_probs[:10])

[0 0 0 0 1 0 1 0 1 0][[0.85473931 0.14526069][0.76313031 0.23686969][0.88972889 0.11027111][0.87876173 0.12123827][0.3611047 0.6388953 ][0.90513381 0.09486619][0.33434185 0.66565815][0.78468564 0.21531436][0.39429048 0.60570952][0.94047549 0.05952451]]

5、CatBoost 应用案例

出于演示目的,我们同样使用 catboost 自带的 amazon 数据集。

import pandas as pdimport osimport numpy as npnp.set_printoptions(precision=4)import catboostfrom catboost import *from catboost import datasets(train_df, test_df) = catboost.datasets.amazon()train_df.head()

数据预处理

数据标签提取

y = train_df.ACTIONX = train_df.drop('ACTION', axis=1)

检查数据集中标签平衡性

print('Labels: {}'.format(set(y)))print('Zero count = {}, One count = {}'.format(len(y) - sum(y), sum(y)))

abels: {0, 1}Zero count = 1897, One count = 30872

保存数据

dataset_dir = './amazon'if not os.path.exists(dataset_dir):os.makedirs(dataset_dir)train_df.to_csv(os.path.join(dataset_dir, 'train.csv'),index=False, sep=',', header=True)test_df.to_csv(os.path.join(dataset_dir, 'test.csv'),index=False, sep=',', header=True)

创建 Pool 类

from catboost.utils import create_cdfeature_names = dict()for column, name in enumerate(train_df):if column == 0:continuefeature_names[column - 1] = namecreate_cd(label=0, cat_features=list(range(1, train_df.columns.shape[0])),feature_names=feature_names,output_path=os.path.join(dataset_dir, 'train.cd'))!cat amazon/train.cd

0Label1CategRESOURCE2CategMGR_ID3CategROLE_ROLLUP_14CategROLE_ROLLUP_25CategROLE_DEPTNAME6CategROLE_TITLE7CategROLE_FAMILY_DESC8CategROLE_FAMILY9CategROLE_CODE

这里展示了几种创建Pool的不同方法,实际中你选中其中一种创建方法即可。

pool1 = Pool(data=X, label=y, cat_features=cat_features)pool2 = Pool(data=os.path.join(dataset_dir, 'train.csv'), delimiter=',', column_description=os.path.join(dataset_dir, 'train.cd'),has_header=True)pool3 = Pool(data=X, cat_features=cat_features)# 创建Pool的最快方法是从numpy矩阵创建它。# 如果你想要快速的预测或者以最快的方式在python中加载数据,就应该使用这种方式。X_prepared = X.values.astype(str).astype(object)# 对于FeaturesData类,类别特性必须具有str类型pool4 = Pool(data=FeaturesData(cat_feature_data=X_prepared,cat_feature_names=list(X)),label=y.values)print('Dataset shape')print('dataset 1:' + str(pool1.shape) +'\ndataset 2:' + str(pool2.shape) + '\ndataset 3:' + str(pool3.shape) +'\ndataset 4:' + str(pool4.shape))print('\n')print('Column names')print('dataset 1:')print(pool1.get_feature_names()) print('\ndataset 2:')print(pool2.get_feature_names())print('\ndataset 3:')print(pool3.get_feature_names())print('\ndataset 4:')print(pool4.get_feature_names())

Dataset shapedataset 1:(32769, 9)dataset 2:(32769, 9)dataset 3:(32769, 9)dataset 4:(32769, 9)Column namesdataset 1:['RESOURCE', 'MGR_ID', 'ROLE_ROLLUP_1','ROLE_ROLLUP_2', 'ROLE_DEPTNAME', 'ROLE_TITLE', 'ROLE_FAMILY_DESC','ROLE_FAMILY', 'ROLE_CODE']dataset 2:['RESOURCE', 'MGR_ID', 'ROLE_ROLLUP_1','ROLE_ROLLUP_2', 'ROLE_DEPTNAME', 'ROLE_TITLE', 'ROLE_FAMILY_DESC','ROLE_FAMILY', 'ROLE_CODE']dataset 3:['RESOURCE', 'MGR_ID', 'ROLE_ROLLUP_1','ROLE_ROLLUP_2', 'ROLE_DEPTNAME', 'ROLE_TITLE', 'ROLE_FAMILY_DESC','ROLE_FAMILY', 'ROLE_CODE']dataset 4:['RESOURCE', 'MGR_ID', 'ROLE_ROLLUP_1','ROLE_ROLLUP_2', 'ROLE_DEPTNAME', 'ROLE_TITLE', 'ROLE_FAMILY_DESC','ROLE_FAMILY', 'ROLE_CODE']

拆分训练集和测试集

这一步大家应该比较熟悉,就不做过多的介绍。

from sklearn.model_selection import train_test_splitX_train, X_validation, y_train, y_validation = train_test_split(X, y, train_size=0.8, random_state=1234)

选择目标函数

对于二分类数据集,目标函数可以选择Logloss,如果要预测目标标签的概率值,推荐使用交叉熵CrossEntropy

from catboost import CatBoostClassifiermodel = CatBoostClassifier(iterations=5,learning_rate=0.1,# loss_function='CrossEntropy')model.fit(X_train, y_train,cat_features=cat_features,eval_set=(X_validation, y_validation),verbose=False)print('Model is fitted: ' + str(model.is_fitted()))print('Model params:')print(model.get_params())

Model is fitted: TrueModel params:{'iterations': 5, 'learning_rate': 0.1}

训练模型

模型训练与通常sklearn模型训练差异不大,先实例化模型 model,然后直接fit训练即可。

from catboost import CatBoostClassifiermodel = CatBoostClassifier(iterations=15,#verbose=5,)model.fit(X_train, y_train,cat_features=cat_features,eval_set=(X_validation, y_validation),)

评估模型

Catboost 做模型评估时,同一般模型少有区别,该模型在model.fit()时,传递给参数eval_set相应的验证子集,设置参数plotTrue,即可在训练模型的同时,用验证集评估模型,并且输出过程可视化结果,可谓是非常方便与惊艳。

from catboost import CatBoostClassifiermodel = CatBoostClassifier(iterations=50,random_seed=63,learning_rate=0.5,custom_loss=['AUC', 'Accuracy'])model.fit(X_train, y_train,cat_features=cat_features,eval_set=(X_validation, y_validation),verbose=False,plot=True)

模型比较

与模型评估一样,使用相同 CatBoostClassifier 分类器,仅仅设置不同的learning_rate,并设置train_dir分别为'learing_rate_0.7''learing_rate_0.01'

model1 = CatBoostClassifier(learning_rate=0.7,iterations=100,random_seed=0,train_dir='learing_rate_0.7')model2 = CatBoostClassifier(learning_rate=0.01,iterations=100,random_seed=0,train_dir='learing_rate_0.01')model1.fit(X_train, y_train,eval_set=(X_validation, y_validation),cat_features=cat_features,verbose=False)model2.fit(X_train, y_train,eval_set=(X_validation, y_validation),cat_features=cat_features,verbose=False)

然后使用catboost的MetricVisualizer方法比较两个模型。该方法在单个图表上绘制有关训练、指标评估或交叉验证运行的信息。根据输入信息,一个图表可以包含有关一次或多次运行的信息。图表既可以在训练进行时实时绘制,也可以在训练结束后绘制。

from catboost import MetricVisualizerMetricVisualizer(['learing_rate_0.01', 'learing_rate_0.7']).start()

交叉验证

在前面已经提到,使用交叉验证可以得到性能更好的模型,进而得到更好的预测结果。相对使用sklearn 中的交叉验证方法,Catboost 模型自带的交叉验证方法简单、灵活,还可以直接显示可视化交叉验证过程及结果。下面小猴子录制了动画,展示交叉验证过程。

from catboost import cv# 设置参数空间params = {}params['loss_function'] = 'Logloss'params['iterations'] = 80params['custom_loss'] = 'AUC'params['random_seed'] = 63params['learning_rate'] = 0.5# 直接使用catboost中自带的cv参数。cv_data = cv(params = params,pool = Pool(X, label=y, cat_features=cat_features), # 设置Pool类。fold_count=5,shuffle=True,partition_random_seed=0,plot=True, # 设置可视化过程stratified=False, verbose=False)

交叉验证过程中所有数据都记录下来并以DataFrame格式返回,可以直接查看,或后续使用,非常方便!

cv_data.head()

其实,我们只关系最佳得分,使用如下方法可以轻松获得:

best_value = np.min(cv_data['test-Logloss-mean'])best_iter = np.argmin(cv_data['test-Logloss-mean'])print('Best validation Logloss score, not stratified: {:.4f}±{:.4f} on step {}'.format(best_value,cv_data['test-Logloss-std'][best_iter],best_iter))

Best validation Logloss score,not stratified: 0.1581±0.0104 on step 52

过拟合检验

在创建CatBoostClassifier实例时,设置参数early_stopping_rounds=20(根据实际情况设置),模型可以在early_stopping_rounds所设置的迭代轮数内寻找模型效果最好的,这个模型效果评价指标可以通过eval_metric设置,默认Logloss,也可以设置为"AUC"。还可以通过设置custom_metric参数,使用自定义评价指标函数。

model_with_early_stop = CatBoostClassifier(eval_metric='AUC',iterations=200,random_seed=63,learning_rate=0.5,early_stopping_rounds=20)model_with_early_stop.fit(X_train, y_train,cat_features=cat_features,eval_set=(X_validation, y_validation),verbose=False,plot=True)

print(model_with_early_stop.tree_count_)

30

可以使用tree_count_属性查看在何时停止的。

选择概率决策边界

绘制 ROC 曲线

首先使用catboost的工具函数get_roc_curve获取到在验证池中的数据fprtpr值,然后将其输入到 sklearn 中的auc函数中,计算得到roc_auc面积大小。为了更加直观,我们绘制如下曲线。

from catboost.utils import get_roc_curveimport sklearnfrom sklearn import metricseval_pool = Pool(X_validation, y_validation, cat_features=cat_features)curve = get_roc_curve(model, eval_pool)(fpr, tpr, thresholds) = curveroc_auc = sklearn.metrics.auc(fpr, tpr)lw = 2plt.plot(fpr, tpr, color='darkorange',lw=lw, label='ROC curve (area = %0.2f)' % roc_auc, alpha=0.5)plt.plot([0, 1], [0, 1], color='navy', lw=lw, linestyle='--', alpha=0.5)

除了上面上面用于ROC曲线的FPR,TPR,另外还可以绘制FPR,FNR曲线。

from catboost.utils import get_fpr_curvefrom catboost.utils import get_fnr_curve(thresholds, fpr) = get_fpr_curve(curve=curve)(thresholds, fnr) = get_fnr_curve(curve=curve)lw = 2plt.plot(thresholds, fpr, color='blue', lw=lw, label='FPR', alpha=0.5)plt.plot(thresholds, fnr, color='green', lw=lw, label='FNR', alpha=0.5)

返回实现指定FNR或FPR所需的概率边界。

from catboost.utils import select_thresholdprint(select_threshold(model=model, data=eval_pool, FNR=0.01))print(select_threshold(model=model, data=eval_pool, FPR=0.01))

0.486895299450490760.9899713850692811

模型预测

CatBoost预测有四种方式,predict、staged_predict、predict_proba 及 staged_predict_prob。我们看下他们之间的区别。

首先predictpredict_proba,将模型应用于给定数据集,预测得到结果,predict是直接得到计算后的结果,如果是二分类,就是0或1。predict_proba结果是归属于哪种类别的概率值。

print(model.predict_proba(X=X_validation))

[[0.0608 0.9392][0.0141 0.9859][0.0126 0.9874]...[0.0148 0.9852][0.0215 0.9785][0.0333 0.9667]]

print(model.predict(data=X_validation))

[1 1 1 ... 1 1 1]

与常规预测不同,Predict()函数中有个prediction_type参数,支持的预测类型包含多种:

Probability

Class

RawFormulaVal

Exponent

LogProbability

raw_pred = model.predict(data=X_validation,prediction_type='RawFormulaVal')print(raw_pred)

[2.7374 4.2445 4.3614 ... 4.1992 3.8198 3.3681]

可以通过 Sigmoid 函数将上面结果转换为概率。

from numpy import expsigmoid = lambda x: 1 / (1 + exp(-x))probabilities = sigmoid(raw_pred)print(probabilities)

[0.9392 0.9859 0.9874 ... 0.9852 0.9785 0.9667]

另一个就是 staged_predict 及 staged_predict_prob,他是阶段预测,仅考虑 trees 在range[0; i) 内的计算结果值。这个范围是通过参数

eval_period控制的:

要在应用模型或计算指标时减少要使用的树的数量,将树索引的范围设置为[ntree_start; ntree_end)并将要使用的树的步长设置为eval_period

此参数定义迭代范围的步骤[ntree_start; ntree_end)。例如,假设设置了以下参数值:

ntree_start设置为 0

ntree_end设置为 N(总树数)

eval_period设置为 2

在这种情况下,将返回以下树范围的结果:[0, 2), [0, 4), ... , [0, N)

predictions_gen = model.staged_predict_proba(data=X_validation,ntree_start=0, ntree_end=5, eval_period=1)try:for iteration, predictions in enumerate(predictions_gen):print('Iteration ' + str(iteration) + ', predictions:')print(predictions)except Exception:pass

Iteration 0, predictions:[[0.3726 0.6274]...[0.3726 0.6274]]...Iteration 4, predictions:[[0.1388 0.8612]...[0.175 0.825 ]]

在未知数据集上评估模型

我们使用eval_metrics方法计算指定数据集的指定指标。

metrics = model.eval_metrics(data=pool1,metrics=['Logloss','AUC'],ntree_start=0,ntree_end=0,eval_period=1,plot=True)

从可视化结果看,eval_metrics只包含Eval结果曲线,我们设置了metrics=['Logloss','AUC'],因此包含'Logloss''AUC'两条评估曲线。

print('AUC values:')print(np.array(metrics['AUC']))

特征重要性

使用模型自带的get_feature_importance方法。

model.get_feature_importance(prettified=True)

使用第三方解释库Shap。与一般模型直接使用Shap有所不同,使用model.get_feature_importance()方法,并设置参数type='ShapValues', 直接输出shap_values值,该值可直接用户输出结果值及绘制相应可视化图形。

shap_values = model.get_feature_importance(pool1, type='ShapValues')expected_value = shap_values[0,-1]shap_values = shap_values[:,:-1]print(shap_values.shape)

(32769, 9)

import shapshap.initjs()shap.force_plot(expected_value, shap_values[3,:], X.iloc[3,:])

shap.initjs()shap.force_plot(expected_value, shap_values[91,:], X.iloc[91,:])

shap.summary_plot(shap_values, X)

X_small = X.iloc[0:200]shap_small = shap_values[:200]shap.force_plot(expected_value, shap_small, X_small)

特征评估

CatBoost还有个很厉害的功能,就是对指定特征进行评估,给出评估结果,是好是坏

from catboost.eval.catboost_evaluation import *learn_params = {'iterations': 20, # 2000'learning_rate': 0.5, # we set big learning_rate,# because we have small# #iterations'random_seed': 0,'verbose': False,'loss_function' : 'Logloss','boosting_type': 'Plain'}evaluator = CatboostEvaluation('amazon/train.tsv',fold_size=10000, # <= 50% of datasetfold_count=20,column_description='amazon/train.cd',partition_random_seed=0,#working_dir=... )result = evaluator.eval_features(learn_config=learn_params,eval_metrics=['Logloss', 'Accuracy'],features_to_eval=[6, 7, 8])

以上设定用来评估的特征是[6, 7, 8],从以下结果看到特征6得到正向结论,而特征8得到负向结论,特征7从各项指标中得不到确切的指标。

from catboost.eval.evaluation_result import *logloss_result = result.get_metric_results('Logloss')logloss_result.get_baseline_comparison(ScoreConfig(ScoreType.Rel, overfit_iterations_info=False))

模型保存和导入

当我们得到一个较为理想的模型后,需要保存模型,以后期使用模型,因此,该步骤还是非常重要的。而CatBoost保存模型非常方便,无需借助第三方库如pickle等,直接使用其save_model方法,即可保存模型。

save_model保存模型,可以保存为各种格式:

cbm — CatBoost 二进制格式。

coreml — Apple CoreML 格式(目前仅支持没有分类特征的数据集)。

json — JSON 格式。有关格式详细信息,请参阅CatBoost JSON 模型教程[1]。

python — 独立的 Python 代码(目前不支持多分类模型)。有关应用结果模型的详细信息,请参阅 Python[2]部分。

cpp — 独立 C++ 代码(当前不支持多分类模型)。有关应用结果模型的详细信息,请参阅 C++[3]部分。

onnx — ONNX-ML 格式(目前仅支持没有分类特征的数据集)。详情请参阅 https://onnx.ai/。有关应用结果模型的详细信息,请参阅 ONNX[4]部分。

pmml — PMML 4.3 版[5]格式。如果训练数据集中存在分类特征,则必须在训练期间将其解释为 one-hot 编码。这可以通过将--one-hot-max-size/one_hot_max_size参数设置为大于数据集中所有分类特征中唯一分类特征值的最大数量的值来实现。有关应用结果模型的详细信息,请参阅PMML[6]部分。

my_best_model.save_model('catboost_model.bin')my_best_model.save_model('catboost_model.json', format='json')

当然,导入模型也是非常方便,直接使用load_model方法

my_best_model.load_model('catboost_model.bin')print(my_best_model.get_params())print(my_best_model.random_seed_)

参考资料

[1]CatBoost JSON 模型教程:/catboost/tutorials/blob/master/model_analysis/model_export_as_json_tutorial.ipynb

[2]Python:https://catboost.ai/en/docs/concepts/python-reference_apply_catboost_model

[3]C++:https://catboost.ai/en/docs/concepts/c-plus-plus-api_applycatboostmodel

[4]ONNX:https://catboost.ai/en/docs/concepts/apply-onnx-ml

[5]PMML 4.3 版:/pmml/pmml-v4-3.html

[6]PMML:https://catboost.ai/en/docs/concepts/apply-pmml

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。