原文:LightGBM调参笔记

本文链接:https: blog.csdn.net u article details . 概述在竞赛题中,我们知道XGBoost算法非常热门,是很多的比赛的大杀器,但是在使用过程中,其训练耗时很长,内存占用比较大。在 年年 月微软在GitHub的上开源了LightGBM。该算法在不降低准确率的前提下,速度提升了 倍左右,占用内存下降了 倍左右。LightGBM是个快速的,分布式的,高性能的基于决 ...

2019-08-28 17:07 0 655 推荐指数:

查看详情

自动库hyperopt+lightgbm demo

在此之前,要么网格调,要么随机,要么肉眼。虽然到一定程度,进步有限,但仍然很耗精力。 自动库hyperopt可用tpe算法自动,实测强于随机。 hyperopt 需要自己写个输入参数,返回模型分数的函数(只能求最小化,如果分数是求最大化的,加个负号),设置参数空间 ...

Thu Nov 08 22:25:00 CST 2018 0 1205
模型融合---LightGBM总结

1. 参数速查 使用num_leaves,因为LightGBM使用的是leaf-wise的算法,因此在调节树的复杂程度时,使用的是num_leaves而不是max_depth。 大致换算关系:num_leaves = 2^(max_depth)。它的值的设置应该小于 ...

Fri Mar 29 01:12:00 CST 2019 0 2672
xgboost&lightgbm指南

本文重点阐述了xgboost和lightgbm的主要参数和技巧,其理论部分可见集成学习,以下内容主要来自xgboost和LightGBM的官方文档。 xgboost Xgboost参数主要分为三大类: General Parameters(通用参数):设置整体功能 Booster ...

Thu May 23 03:35:00 CST 2019 0 1689
【集成学习】lightgbm案例

lightgbm使用leaf_wise tree生长策略,leaf_wise_tree的优点是收敛速度快,缺点是容易过拟合。 # lightgbm关键参数 # lightgbm方法cv 代码github地址 ...

Thu Apr 05 21:38:00 CST 2018 3 14596
工程能力UP | LightGBM干货教程与并行优化

这是个人在竞赛中对LGB模型进行的详细过程记录,主要包含下面六个步骤: 大学习率,确定估计器参数n_estimators/num_iterations/num_round/num_boost_round; 确定num_leaves和max_depth 确定 ...

Thu Jul 23 09:02:00 CST 2020 0 650
LightGBM 方法(具体操作)

鄙人新手,最近用lightGBM有点猛,无奈在各大博客之间找不到具体的方法,于是将自己的notebook打印成markdown出来,希望可以跟大家互相学习。 其实,对于基于决策树的模型,的方法都是大同小异。一般都需要如下步骤: 首先选择较高的学习率,大概0.1附近 ...

Sat Jul 14 04:56:00 CST 2018 1 21681
LightGBM 方法(具体操作)

鄙人新手,最近用lightGBM有点猛,无奈在各大博客之间找不到具体的方法,于是将自己的notebook打印成markdown出来,希望可以跟大家互相学习。 其实,对于基于决策树的模型,的方法都是大同小异。一般都需要如下步骤: 首先选择较高的学习率,大概0.1 ...

Sat Nov 03 00:38:00 CST 2018 0 2714
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM