数据建模及模型优化大赛辅导实战
讲师:傅一航 发布日期:06-20 浏览量:882
大数据建模大赛辅导实战
【课程目标】
本课程主要面向专业人士的大数据建模竞赛辅导需求(假定学员已经完成Python建模及优化--回归篇/分类篇的学习)。
通过本课程的学习,达到如下目的:
熟悉大赛常用集成模型
掌握模型优化常用措施,掌握超参优化策略
掌握特征工程处理,以及对模型质量的影响
掌握建模工程管道类(Pipeline, ColumnTransformer)的使用
【授课时间】
2-3天时间,大致内容安排(会根据需求和学员水平调整进度)
时间
主题
具体内容
目的
第一天
上午
建模流程
建模步骤
模型评估指标
模型基本原理
常用建模步骤,构建通用common模型,完成模型训练、评估等的封装
第一天
下午
数据清洗
数据清洗
缺失值填充
理解异常数据对模型的影响
缺失值常用的填充方式(固定值、分类填充、拉格朗日、预测填充)
不同填充对模型的影响
第二天
上午
特征选择
特征选择模式
(Filter/Wrapper/Embedded)
特征选择的封装实现
优缺点及应用场景
(SelectKBest,REF,SelectFromModel)
第二天
下午
变量降维
因子分析
主成份分析
管道实现
变量降维PCA/FA
掌握管道处理技能 (Pipeline, FeatureUnion, ColumnsTransformer等)
第三天
上午
变量变换
变量派生
变量标准化
模型集成思想
利用探索性分析,指导变量派生
不同标准化对模型的影响
特征处理的不同顺序对模型效果的影响
第三天下午
超参优化
超参优化方法
欠拟合优化
过拟合优化
其它优化(性能、样本均衡处理)
不同超参的作用(欠拟合/过拟合)
超参优化方法
超参优化策略
Stacking集成
【授课对象】
参加大数据建模大赛的IT专业人士。
要求精通Python语言,熟悉sklearn库的基本使用等。
【授课方式】
理论框架 + 落地措施 + 实战训练
【课程大纲】
常用集成模型
问题:数据建模的基本步骤是什么?每一步要重点考虑哪些知识和技能?
数据建模六步法
选择模型:基于业务选择恰当的数据模型
特征工程:选择对目标变量有显著影响的属性来建模
训练模型:采用合适的算法,寻找到最合适的模型参数
评估模型:进行评估模型的质量,判断模型是否可用
优化模型:如果评估结果不理想,则需要对模型进行优化
应用模型:如果评估结果满足要求,则可应用模型于业务场景
模型集成思想
Bagging
Boosting
Stacking
竞赛常用的集成模型
RandomForest
Adaboosting/GBDT/XGBoost
各模型的原理及适用场景
数据清洗技巧
数据清洗处理
重复值
错误值
离群值
缺失值
缺失值填充的常见方式
固定值填充
同类别均值填充
相邻值填充(向下/向上填充)
两点插值(相邻值均值填充)
拉格朗日插值
预测方法填充
不同填充方式对模型效果的影响
案例:泰坦尼克号沉船幸存者预测
特征选择模式
降维的两大方式:特征选择与因子合并
特征选择的三种模式
基于变量本身的重要性筛选
缺失值所占比例过大
标准差/变异系数过小(VarianceThreshold)
类别值比值失衡严重
类别值与样本量比例过大
Filter式(特征选择与模型分离)
常用评估指标(相关系数/显著性/互信息等)
f_regression, f_classif, chi2,
mutual_info_regression, mutual_info_classif
案例:运营商流失预测的特征选择
Wrapper式(利用模型结果进行特征选择)
Sklearn实现(RFE/RFECV-Recursive Feature Elimination)
Embedded式(模型自带特征选择功能)
L1正则项(Lasso/ElasticNet)
信息增益(决策树)
Sklearn实现(SelectFromModel)
不同模式的优缺点及应用场景
特征选择的变量个数
特征合并方法
特征合并与特征选择
因子分析(FactorAnalysis)
FA原理及思想
载荷矩阵相关概念(变量共同度/方差贡献率)
如何确定降维的因子个数
主成份分析(Principal Component Analysis)
PCA原理
PCA的几何意义
案例:汽车油效预测
变量变换影响
为何需要变换变换
假设条件需求,可比性需要,同权重需要
因变量变换对模型质量的影响
案例:波士顿房价预测
特征标准化
标准化的作用: 缩小,消除/统一量纲
常用标准化方法:MinMaxScaler, StandardScaler,…
不同模型对标准化的要求
不同标准化对模型的影响
案例:医院肿瘤预测
其它变换:正态化、正则化
变量派生:多项式等
案例:用户收入预测
管道实现,简化代码
管道类Pipeline
列转换类ColumnTransformer
特征合并类FeatureUnion
XGBoost模型详解及优化
基本参数配置
框架基本参数: n_estimators, objective
性能相关参数: learning_rate
模型复杂度参数:max_depth,min_child_weight,gamma
生长策略参数: grow_policy, tree_method, max_bin
随机性参数:subsample,colsample_bytree
正则项参数:reg_alpha,reg_lambda
样本不均衡参数: scale_pos_weight
早期停止与基类个数优化(n_estimators、early_stopping_rounds)
样本不平衡处理
欠抽样与过抽样
scale_pos_weight= neg_num/pos_num
XGBoost模型欠拟合优化措施
增维,派生新特征
非线性检验
相互作用检验
降噪,剔除噪声数据
剔除不显著影响因素
剔除预测离群值(仅回归)
多重共线性检验(仅回归)
变量变换
自变量标准化
残差项检验与因变量变换
增加树的深度与复杂度
增大max_depth
减小min_child_weight, gamma等
禁止正则项生效
特征重要性评估与自动特征选择
超参优化策略:
分组调参:参数分组分别调优
分层调参:先粗调再细调
XGBoost模型过拟合优化措施
降维,减少特征数量
限制树的深度和复杂度
减小max_depth
增大min_child_weight,gamma等
采用dart模型来控制过拟合(引入dropout技术)
启用正则项惩罚:reg_alpha,reg_lambda等
启用随机采样:subsample,colsample_bytree等
Stacking模式:XGBoost+LR、XGBoost+RF等
XGBoost的优化模型:LightGBM
实战训练篇
互联网广告判断模型
客户流失预测模型
直销响应模型
结束:课程总结与问题答疑。