人工智能“最强模型”transformer详解-2天

讲师:叶梓 发布日期:03-03 浏览量:405


人工智能“最强模型”transformer详解

【课程简介】

Transformer 是迄今为止人工智能领域的最新和最强大的模型类别之一。它几乎正在凭借一己之力来推动深度学习的又一波重大进步。Transformer 模型充分运用了称为注意力和自注意力机制,以检测系列(或图像)中元素相互影响和相互依赖的微妙关系。本课程通过2天时间的详细介绍,可使学习者初步了解Transformer的原理、应用场景、最新发展等。

【课程收益】

掌握深度学习框架:TensorFlow、pytorch等;

理解“自监督学习”在当代AI领域的核心作用;

掌握Transformer背景知识、相关理论与实践;

理解Transformer在NLP领域和CV领域的应用场景;

为学员的后续项目应用提供针对性的建议。

【课程特点】

本课程力图理论结合实践,强调从零开始,重视动手实践;课程内容以原理讲解为根本,以应用落地为目标。课程通过大量形象的比喻和手算示例来解释复杂的理论,既能将原理充分讲懂讲透,也避免了繁复而枯燥的公式推导。

【课程对象】

理工科本科以上,或至少了解一种编程语言。

时间

内容

案例实践与练习

第一天上午

深度学习知识

BP神经网络

人工神经元及感知机模型

Sigmoid激活函数

前向神经网络的架构

梯度下降

误差反向传播详解

深度学习基础

连接主义的兴衰

深度学习与神经网络

目标函数与激励函数

学习步长

权重初始化

权重衰减(Weight Decay)

梯度下降的方法

案例实践:

手算神经网络BP算法

只用numpy,手推BPNN

深度BP网络实现手写数字的识别

各种梯度下降方法的实战效果

第一天上午

CV初步

CNN

图像分类概述

AlexNet与ZF-Net

VGG(5层变为5组)

迁移学习

GoogLenet

模型退化与ResNet

DenseNet(充分利用特征)

最新的efficientnet

VAE与GAN

图像生成模型

AE与VAE

DAE

GAN

改进的GAN

案例实践:

VGG各层的可视化展现

迁移学习:猫狗大战

VAE生成的数字

StyleGAN

第二天上午

RNN与W2V

循环神经网络

RNN基本原理

LSTM、GRU

双向循环神经网络

编码器与解码器结构

seq2seq模型

初识Attention

NIC模型

词向量基础(word2vec)

W2V:CBOW

W2V:skip-gram

W2V:Hierachical Softmax

W2V:Negative Sampling

案例实践:

股票交易数据的预测;

谁和小鱼儿最相似?

SnowNLP:褒义的中性词

Word2vec代码解读

第二天下午

Transformer以及发展

Transformer

所有你需要的仅仅是“注意力”

Transformer中的block

自注意力机制

多头注意力

位置编码(抛弃RNN)

Batch Norm与Layer Norm

解码器的构造

BERT

BERT整体架构

Masked-LM

Next Sentence Prediction

改造下游任务

WordPiece作为输入

CV领域的Transformer

iGPT

Vision Transformer(ViT)

BEiT

MAE令人惊奇的效果

MAE详解

未来可期:MaskFeat等

案例实践:

手推Transformer

BERT代码解读

BERT下游任务的改造

BEiT的效果

分享
联系客服
返回顶部