机器学习、深度学习与强化学习(姿态识别)-5天
讲师:叶梓 发布日期:03-03 浏览量:240
机器学习、深度学习与强化学习
【课程时长】
5天(6小时/天)
【课程对象】
理工科本科及以上,且至少了解一门编程语言。
【课程大纲】(培训内容可根据客户需求调整)
时间
内容
案例实践与练习
Day1上午
准备工作
准备工作
决策树
准备工作(1)
概念与术语
Python(Anaconda)的安装
Pycharm的安装与使用
Jupyter Notebook的安装与使用
Tensorflow与pytorch的安装
Opencv、Sklearn工具包的运用
决策树(2)
分类和预测
熵减过程
贪心法
ID3与C4.5
其他改进方法
决策树剪枝
案例实践:
Anaconda安装
Pip install的技巧
Tensorflow-GPU的安装
pytorch的安装
Jupyter Notebook的使用
Opencv的基本例子
Day1下午
基础模型
聚类
BP神经网络
性能评价指标
聚类(3)
监督学习与无监督学习
K-means
k-medoids
判断最优聚类个数的调参方法
基于层次、密度、网格的方法
BP神经网络 (4)
人工神经元及感知机模型
Sigmoid激活函数
前向神经网络的架构
梯度下降
误差反向传播详解
性能评价指标(5)
精确率;
P、R与F1
ROC与AUC
对数损失
泛化性能评价:k折验证验证
案例实践:
验证一下:聚类算法是不稳定的
手肘法分析NBA球队的最佳聚类个数
各种聚类方式的图形化展示
皮马印第安人糖尿病风险:验证多种模型
绘制ROC并计算AUC
手算神经网络BP算法
只用numpy,手推BPNN
Day2上午
深度学习基础
支持向量机
深度学习基础知识
支持向量机 (1)
“双螺旋”问题
基本模型与惩罚项
求解对偶问题
核函数:映射到高维
从二分类到多分类
用于连续值预测的支持向量机
深度学习基础知识(2)
连接主义的兴衰
深度学习与神经网络的区别与联系
目标函数与激励函数
学习步长
权重初始化
权重衰减(Weight Decay)
梯度下降的方法:Adagrad \ RMSprop \ Adam
避免过适应
案例实践:
SVM实现人脸识别应用
通过深度BP网络实现手写数字的识别
各种梯度下降方法的实战效果
Batch normalization的实战效果
Day2下午
图像分类 CNN
图像分类CNN
图像分类CNN(3)
图像分类概述
AlexNet
ZF-Net
卷积层的误差反向传播
池化层的误差反向传播
VGG(5层变为5组)
迁移学习
GoogLenet和Inception模块
模型退化与ResNet
DenseNet(充分利用特征)
最新的efficientnet
案例实践:
VGG各层的可视化展现
迁移学习:识别猫和狗
Resnet用于图像分类
Day3上午
目标检测
二阶段目标检测与一阶段目标检测
二阶段目标检测(1)
目标检测项目介绍
R-CNN
SPPNET(全图卷积、SPP层)
Fast-RCNN(多任务)
Faster-RCNN(RPN)
一阶段目标检测(2)
YOLO-v1(一切都是回归)
YOLO -v2(9000)
YOLO -v3(多尺度)
案例实践:
基于Faster-RCNN的通用目标检测示例
基于YOLO v3的通用目标快速检测示例
Day3下午
人体姿态识别
最新的一阶段目标检测(3)
YOLO -v4
YOLO -v5
YOLO -v6/v7
人体姿态识别(4)
早期人体姿态识别
AlphaPose
OpenPose
RMPE
案例实践:
DeepSOCIAL
RMPE的演示
Day4上午
自然语言处理
自然语言处理初步
隐马尔科夫模型
自然语言处理初步(1)
语言模型
Bi-Gram与N-Gram
机械分词与统计分词
词性标注
命名实体识别
情感分析
隐马尔科夫模型(2)
HMM形式化定义
向前向后算法解评估问题
Viterbi算法处理解码问题
鲍姆韦尔奇算法解学习问题
案例实践:
jieba的分词效果
《绝代双骄》人物关系分析
SnowNLP:褒义的中性词
出现这种情况可能吗?
今天身体怎么样?
Day4下午
强化学习
强化学习初步
强化学习经典方法
强化学习初步(3)
agent的属性
马尔科夫奖励/决策过程
exploration and exploitation
状态行为值函数
Bellman期望方程
最优策略
强化学习经典方法(4)
策略迭代与价值迭代
蒙特卡洛法
时序差分法
DP、MC、TD的关系
案例实践:
财宝在右
格子世界
机器人走迷宫
谷底的小车
倒立摆
Day5上午
深度强化学习
深度强化学习
深度强化学习(1)
值函数的参数化表示
值函数的估计过程
深度学习与强化学习的结合
基础的DQN 方法
Double DQN
Prioritized Replay
Dueling Network
深度强化学习(2)
策略梯度方法介绍
常见的策略表示
减小方差的方法
引入基函数与修改估计值函数
案例实践:
井字棋
笨鸟先飞:DQN
Day5下午
深度强化学习及其他
深度强化学习
GAN
深度强化学习(3)
围棋AI的难点
MCTS
策略网络
价值网络
Alpha Go的完整架构
Alpha Go zero
GAN(4)
生成对抗网络(GAN)
KL散度与JS散度
改进的GAN:DCGAN
加上约束:infoGAN
根本上解决:Wasserstein GAN
案例实践:
alphazero版五子棋
计算机想象的数字
特朗普的孩子?