Stacking集成学习挑战天池新人赛【工业蒸汽量预测 】 (3) 初级学习模型构建

举报
地上一只鹅~ 发表于 2018/12/23 18:57:26 2018/12/23
【摘要】 本项目暂时选取RandomForestRegressor,GradientBoostingRegressor和xgboost三种模型作为初级学习模型。导入所需库from sklearn.ensemble import RandomForestRegressor, GradientBoostingRegressorimport xgboost as xgb设置参数# RandomForest...

本项目暂时选取RandomForestRegressor,GradientBoostingRegressor和xgboost三种模型作为初级学习模型。

导入所需库

from sklearn.ensemble import RandomForestRegressor,  GradientBoostingRegressor
import xgboost as xgb

设置参数

# RandomForest parameters
rf_params = {
    'n_estimators': 100,
    'max_depth': 8
}
# GradientBoosting parameters
gb_params = {
    'n_estimators': 100,
    'max_depth': 8
}
# xgboost parameters
xgb_params = {
    'n_estimators': 100,
    'max_depth': 8,
    'eval_metric': 'rmse'
}

构建模型

rf_model = SklearnHelper(clf=RandomForestRegressor, seed=0, params=rf_params)
gb_model = SklearnHelper(clf=GradientBoostingRegressor, seed=0, params=gb_params)

# XGB分为原生接口和Sklearn接口,下面是基于Sklearn的接口, 方便后面GridSearchCV调参
xgb_model = SklearnHelper(clf=xgb.XGBRegressor, params=xgb_params)

通过交叉验证的方式训练并获取次级训练、测试的数据集

rf_oof_train, rf_oof_test = get_oof(rf_model, train_x, train_y, test_x)
gb_oof_train, gb_oof_test = get_oof(gb_model, train_x, train_y, test_x)
xgb_oof_train, xgb_oof_test = get_oof(xgb_model, train_x, train_y, test_x)

fit-log.png

下一篇介绍次级学习模型的构建

【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请自行联系原作者进行授权。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。