LightGBM实战+随机搜索调参:准确率96.67%

PHPz
发布: 2024-06-08 22:45:30
原创
712 人浏览过

LightGBM实战+随机搜索调参:准确率96.67%

大家好,我是Peter~

LightGBM是一种经典的机器学习算法,它的背景、原理和特点都非常值得研究。LightGBM的算法产生了一些特点,例如高效、可扩展和高准确性。本文将简要介绍LightGBM的特点、原理以及一些基于LightGBM和随机搜索优化的案例。

LightGBM算法

在机器学习领域,梯度提升机(Gradient Boosting Machines, GBMs)是一类强大的集成学习算法,它们通过逐步添加弱学习器(通常是决策树)来最小化预测误差,从而构建一个强大的模型。GBMs通常用于最小化预测误差,从而构建一个强大的模型,这可以通过最小化残差或损失函数来实现。这种算法被广泛使用,并经常被用于决策树等弱学习器构建的强大模型的最小化预测误差。

在大数据时代,数据集的规模急剧增长,传统的GBMs由于其计算和存储成本高昂,难以有效地扩展。

  • 例如,对于水平分割的决策树生长策略,虽然可以生成平衡的树,但往往会导致模型的区分能力下降;而对于基于叶子的生长策略,虽能提高精度却容易过拟合。
  • 此外,大多数GBM实现在每次迭代中都需要遍历整个数据集来计算梯度,这在数据量巨大时效率低下。因此,需要一个既能高效处理大规模数据又能保持模型准确度的算法。

为了解决这些问题,Microsoft在2017年推出了LightGBM(Light Gradient Boosting Machine),一个更快速、更低内存消耗、更高性能的梯度提升框架。

官方学习地址:https://lightgbm.readthedocs.io/en/stable/

LightGBM的原理

1、基于直方图的决策树算法:

  • 原理:LightGBM使用直方图优化技术,将连续的特征值离散化成特定的bin(即直方图的桶),减少了在节点分裂时需要计算的数据量。
  • 优点:这种方法可以在减少内存使用的同时,提高计算速度。
  • 实现细节:对于每个特征,算法都维护一个直方图,记录该特征在不同分桶中的统计信息。在进行节点分裂时,可以直接利用这些直方图的信息,而不需要遍历所有数据。

2、带深度限制的leaf-wise树生长策略:

  • 原理:与传统的水平分割不同,leaf-wise的生长策略是每次从当前所有叶子节点中选择分裂收益最大的节点进行分裂。
  • 优点:这种策略可以使得决策树更加侧重于数据中的异常部分,通常可以得到更好的精度。
  • 缺点:容易导致过拟合,特别是当数据中有噪声时。
  • 改进措施:LightGBM通过设置最大深度限制来防止过拟合。

3、单边梯度采样(GOSS):

  • 原理:对于数据集中的大梯度样本,GOSS算法只保留数据的一部分(通常是大梯度的样本),减少计算量同时保证不会损失太多的信息。
  • 优点:这种方法可以在不显著损失精度的情况下加快训练速度。
  • 应用场景:特别适用于数据倾斜严重的情况。

4、互斥特征捆绑(EFB):

  • 原理:EFB是一种减少特征数量,提高计算效率的技术。它将互斥的特征(即从不同时为非零的特征)进行合并,以减少特征维度。
  • 优点:提高了内存的使用效率和训练速度。
  • 实现细节:通过特征的互斥性,算法可以在同一时间处理更多的特征,从而减少了实际处理的特征数。

5、支持并行和分布式学习:

  • 原理:LightGBM支持多线程学习,能够利用多个CPU进行并行训练。
  • 优点:显著提高了在多核处理器上的训练速度。
  • 扩展性:还支持分布式学习,可以利用多台机器共同训练模型。

6、缓存优化:

  • 原理:优化了对数据的读取方式,可以使用更多的缓存来加快数据交换的速度。
  • 优点:特别是在大数据集上,缓存优化可以显著提升性能。

7、支持多种损失函数:

  • 特点:除了常用的回归和分类的损失函数外,LightGBM还支持自定义损失函数,满足不同的业务需求。

8、正则化和剪枝:

  • 原理:提供了L1和L2正则化项来控制模型复杂度,避免过拟合。
  • 实现:实现了后向剪枝的策略来进一步防止过拟合。

9、模型解释性:

  • 特点:由于是基于决策树的模型,LightGBM具有良好的模型解释性,可以通过特征重要性等方式理解模型的决策逻辑。

LightGBM的特点

高效性

  • 速度优势:通过直方图优化和 leaf-wise 生长策略,LightGBM 在保证精度的同时大幅提升了训练速度。
  • 内存使用:相比于其他GBM实现,LightGBM 需要的内存更少,这使得它能够处理更大的数据集。

准确性

  • 最佳优先的生长策略:LightGBM 采用的 leaf-wise 生长策略可以更紧密地拟合数据,通常可以得到比水平分割更好的精度。
  • 避免过拟合的方法:通过设置最大深度限制和后向剪枝,LightGBM 能够在提升模型精度的同时避免过拟合。

可扩展性

  • 并行和分布式学习:LightGBM 的设计支持多线程和分布式计算,这使得它能够充分利用现代硬件的计算能力。
  • 多平台支持:LightGBM 可以在 Windows、macOS 和 Linux 等多种操作系统上运行,支持 Python、R、Java 等多种编程语言。

易用性

  • 参数调优:LightGBM 提供了丰富的参数选项,方便用户根据具体问题进行调整。
  • 预训练模型:用户可以从预训练的模型开始,加速自己的建模过程。
  • 模型解释工具:LightGBM 提供了特征重要性评估工具,帮助用户理解模型的决策过程。

导入库

In [1]:

import numpy as npimport lightgbm as lgbfrom sklearn.model_selection import train_test_split, RandomizedSearchCVfrom sklearn.datasets import load_irisfrom sklearn.metrics import accuracy_scoreimport warningswarnings.filterwarnings("ignore")
登录后复制

加载数据

加载公开的iris数据集:

In [2]:

# 加载数据集data = load_iris()X, y = data.data, data.targety = [int(i) for i in y]# 将标签转换为整数
登录后复制

In [3]:

X[:3]
登录后复制

Out[3]:

array([[5.1, 3.5, 1.4, 0.2], [4.9, 3. , 1.4, 0.2], [4.7, 3.2, 1.3, 0.2]])
登录后复制

In [4]:

y[:10]
登录后复制

Out[4]:

[0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
登录后复制

划分数据

In [5]:

# 划分训练集和测试集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
登录后复制

同时创建LightGBM数据集:

In [6]:

lgb_train = lgb.Dataset(X_train, label=y_train)
登录后复制

参数设置

In [7]:

# 设置参数范围param_dist = {'boosting_type': ['gbdt', 'dart'],# 提升类型梯度提升决策树(gbdt)和Dropouts meet Multiple Additive Regression Trees(dart)'objective': ['binary', 'multiclass'],# 目标;二分类和多分类'num_leaves': range(20, 150),# 叶子节点数量'learning_rate': [0.01, 0.05, 0.1],# 学习率'feature_fraction': [0.6, 0.8, 1.0],# 特征采样比例'bagging_fraction': [0.6, 0.8, 1.0],# 数据采样比例'bagging_freq': range(0, 80),# 数据采样频率'verbose': [-1]# 是否显示训练过程中的详细信息,-1表示不显示}
登录后复制

随机搜索调参

In [8]:

# 初始化模型model = lgb.LGBMClassifier()# 使用随机搜索进行参数调优random_search = RandomizedSearchCV(estimator=model, param_distributinotallow=param_dist, # 参数组合 n_iter=100,  cv=5, # 5折交叉验证 verbose=2,  random_state=42,  n_jobs=-1)# 模型训练random_search.fit(X_train, y_train)Fitting 5 folds for each of 100 candidates, totalling 500 fits
登录后复制

输出最佳的参数组合:

In [9]:

# 输出最佳参数print("Best parameters found: ", random_search.best_params_)Best parameters found:{'verbose': -1, 'objective': 'multiclass', 'num_leaves': 87, 'learning_rate': 0.05, 'feature_fraction': 0.6, 'boosting_type': 'gbdt', 'bagging_freq': 22, 'bagging_fraction': 0.6}
登录后复制

使用最佳参数建模

In [10]:

# 使用最佳参数训练模型best_model = random_search.best_estimator_best_model.fit(X_train, y_train)# 预测y_pred = best_model.predict(X_test)y_pred = [round(i) for i in y_pred]# 将概率转换为类别# 评估模型print('Accuracy: %.4f' % accuracy_score(y_test, y_pred))Accuracy: 0.9667
登录后复制

以上是LightGBM实战+随机搜索调参:准确率96.67%的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板