机器学习、深度学习与强化学习(姿态识别)-5天

讲师:叶梓 发布日期:03-03 浏览量:240


机器学习、深度学习与强化学习

【课程时长】

5天(6小时/天)

【课程对象】

理工科本科及以上,且至少了解一门编程语言。

【课程大纲】(培训内容可根据客户需求调整)

时间

内容

案例实践与练习

Day1上午

准备工作

准备工作

决策树

准备工作(1)

概念与术语

Python(Anaconda)的安装

Pycharm的安装与使用

Jupyter Notebook的安装与使用

Tensorflow与pytorch的安装

Opencv、Sklearn工具包的运用

决策树(2)

分类和预测

熵减过程

贪心法

ID3与C4.5

其他改进方法

决策树剪枝

案例实践:

Anaconda安装

Pip install的技巧

Tensorflow-GPU的安装

pytorch的安装

Jupyter Notebook的使用

Opencv的基本例子

Day1下午

基础模型

聚类

BP神经网络

性能评价指标

聚类(3)

监督学习与无监督学习

K-means

k-medoids

判断最优聚类个数的调参方法

基于层次、密度、网格的方法

BP神经网络 (4)

人工神经元及感知机模型

Sigmoid激活函数

前向神经网络的架构

梯度下降

误差反向传播详解

性能评价指标(5)

精确率;

P、R与F1

ROC与AUC

对数损失

泛化性能评价:k折验证验证

案例实践:

验证一下:聚类算法是不稳定的

手肘法分析NBA球队的最佳聚类个数

各种聚类方式的图形化展示

皮马印第安人糖尿病风险:验证多种模型

绘制ROC并计算AUC

手算神经网络BP算法

只用numpy,手推BPNN

Day2上午

深度学习基础

支持向量机

深度学习基础知识

支持向量机 (1)

“双螺旋”问题

基本模型与惩罚项

求解对偶问题

核函数:映射到高维

从二分类到多分类

用于连续值预测的支持向量机

深度学习基础知识(2)

连接主义的兴衰

深度学习与神经网络的区别与联系

目标函数与激励函数

学习步长

权重初始化

权重衰减(Weight Decay)

梯度下降的方法:Adagrad \ RMSprop \ Adam

避免过适应

案例实践:

SVM实现人脸识别应用

通过深度BP网络实现手写数字的识别

各种梯度下降方法的实战效果

Batch normalization的实战效果

Day2下午

图像分类 CNN

图像分类CNN

图像分类CNN(3)

图像分类概述

AlexNet

ZF-Net

卷积层的误差反向传播

池化层的误差反向传播

VGG(5层变为5组)

迁移学习

GoogLenet和Inception模块

模型退化与ResNet

DenseNet(充分利用特征)

最新的efficientnet

案例实践:

VGG各层的可视化展现

迁移学习:识别猫和狗

Resnet用于图像分类

Day3上午

目标检测

二阶段目标检测与一阶段目标检测

二阶段目标检测(1)

目标检测项目介绍

R-CNN

SPPNET(全图卷积、SPP层)

Fast-RCNN(多任务)

Faster-RCNN(RPN)

一阶段目标检测(2)

YOLO-v1(一切都是回归)

YOLO -v2(9000)

YOLO -v3(多尺度)

案例实践:

基于Faster-RCNN的通用目标检测示例

基于YOLO v3的通用目标快速检测示例

Day3下午

人体姿态识别

最新的一阶段目标检测(3)

YOLO -v4

YOLO -v5

YOLO -v6/v7

人体姿态识别(4)

早期人体姿态识别

AlphaPose

OpenPose

RMPE

案例实践:

DeepSOCIAL

RMPE的演示

Day4上午

自然语言处理

自然语言处理初步

隐马尔科夫模型

自然语言处理初步(1)

语言模型

Bi-Gram与N-Gram

机械分词与统计分词

词性标注

命名实体识别

情感分析

隐马尔科夫模型(2)

HMM形式化定义

向前向后算法解评估问题

Viterbi算法处理解码问题

鲍姆韦尔奇算法解学习问题

案例实践:

jieba的分词效果

《绝代双骄》人物关系分析

SnowNLP:褒义的中性词

出现这种情况可能吗?

今天身体怎么样?

Day4下午

强化学习

强化学习初步

强化学习经典方法

强化学习初步(3)

agent的属性

马尔科夫奖励/决策过程

exploration and exploitation

状态行为值函数

Bellman期望方程

最优策略

强化学习经典方法(4)

策略迭代与价值迭代

蒙特卡洛法

时序差分法

DP、MC、TD的关系

案例实践:

财宝在右

格子世界

机器人走迷宫

谷底的小车

倒立摆

Day5上午

深度强化学习

深度强化学习

深度强化学习(1)

值函数的参数化表示

值函数的估计过程

深度学习与强化学习的结合

基础的DQN 方法

Double DQN

Prioritized Replay

Dueling Network

深度强化学习(2)

策略梯度方法介绍

常见的策略表示

减小方差的方法

引入基函数与修改估计值函数

案例实践:

井字棋

笨鸟先飞:DQN

Day5下午

深度强化学习及其他

深度强化学习

GAN

深度强化学习(3)

围棋AI的难点

MCTS

策略网络

价值网络

Alpha Go的完整架构

Alpha Go zero

GAN(4)

生成对抗网络(GAN)

KL散度与JS散度

改进的GAN:DCGAN

加上约束:infoGAN

根本上解决:Wasserstein GAN

案例实践:

alphazero版五子棋

计算机想象的数字

特朗普的孩子?

分享
联系客服
返回顶部