第1章 初识深度学习 8 节 | 34分钟
本章中将向大家介绍,深度学习的应用范畴、人才需求、基础概念和子学科分类,并会结合应用现状,与大家讨论技术发展前景,带领同学们初识深度学习。
1-1 系统入门深度学习,从这里轻松开始 (07:44)
1-2 本章内容介绍 (01:19)
1-3 神经网络&深度学习 (08:22)
1-4 深度学习路线图 (06:07)
1-5 深度学习应用 (08:27)
1-6 本章总结 (01:24)
第2章 入门必修:单、多层感知机17 节 | 152分钟
本章将以机器学习中的逻辑回归算法作为引子,展开与其相关的神经网络基础学习。帮助大家认识神经网络的一般结构和实施方法;实践神经网络搭建和训练的过程,并能用神经网络搭建二分类器。
2-1 本章内容介绍 (01:28)
2-2 深度学习实施的一般过程 (07:34)
2-3 逻辑回归 (06:00)
2-4 逻辑回归损失函数 (09:18)
2-5 逻辑回归示例 (12:17)
2-6 单层、多层感知机 (08:51)
2-7 pytorch 构建单多层感知机 (19:53)
2-8 基于多层DNN假钞识别 (01:43)
2-9 数据集及特征分析 (05:49)
2-10 项目构建和模型训练(1) (16:43)
2-11 项目构建和模型训练(2) (14:25)
2-12 项目构建和模型训练(3) (16:27)
2-13 项目构建和模型训练(4) (15:58)
2-14 模型评估和选择 (13:02)
2-15 本章总结 (02:24)
第3章 深度学习基础组件精讲 11 节 | 116分钟
本章将带领大家,学习深度学习中一些重要的组件、优化原理及方法,他们既是神经网络优化的重要准备知识和基础支撑理论,更是所有深度学习训练和优化的基础。
3-1 本章内容介绍 (02:30)
3-2 如何划分和处理你的数据集 (06:27)
3-3 正确的初始化模型参数 (13:57)
3-4 激活函数选择 (16:32)
3-5 优化器选择 (20:00)
3-6 Normalization 增强模型训练(上) (17:40)
3-7 Normalization 增强模型训练(下) (15:38)
3-8 使用正则提升模型表现 (19:13)
3-9 本章总结 (03:40)
第4章 图像处理利器:卷积神经网络 22 节 | 251分钟
本章将重点学习卷积神经网络,帮助大家理解卷积的意义和各种卷积的变体,学会如何设计、搭建卷积神经网络,并应用解决实际的问题。
4-1 本章内容介绍 (02:06)
4-2 人类视觉和卷积神经网络关系 (07:46)
4-3 卷积神经网络的应用 (05:23)
4-4 卷积运算是怎样的过程(上) (15:58)
4-5 卷积运算是怎样的过程(下) (13:56)
4-6 用池化进行下采样 (15:54)
4-7 几种卷积的变体(上) (15:19)
4-8 几种卷积的变体(下) (14:49)
4-9 利用残差搭建更深的网络 (16:30)
4-10 Vgg介绍及实现 (24:02)
4-11 图片的数据增广 (15:15)
4-12 手势识别应用来源和项目分析 (06:27)
4-13 模型设计 (08:12)
4-14 MoocTrialNet模型搭建(1) (16:18)
4-15 MoocTrialNet模型搭建(2) (14:04)
4-16 MoocTrialNet模型搭建(3) (18:12)
4-17 MoocTrialNet模型搭建(4) (17:58)
4-18 MoocTrialNet模型搭建(5) (07:45)
4-19 模型评估和选择 (10:09)
4-20 本章总结 (04:22)
第5章 为序列数据而生:RNN系列19 节 | 191分钟
本章将带领大家认识序列模型,主要围绕RNN和其变体进行相关讲解。帮助大家理解序列模型和序列数据,并能应用用序列模型处理序列数据的实际问题。
5-1 本章内容介绍 (02:43)
5-2 什么是序列模型 (12:25)
5-3 不同的RNN应用类型:OvM, MvM (04:26)
5-4 循环神经网络原理 (19:18)
5-5 用BPTT 训练RNN (05:06)
5-6 两个重要的变体:LSTMGRU(上) (15:25)
5-7 两个重要的变体:LSTMGRU(下) (14:08)
5-8 利用双向、多层RNN增强模型 (16:02)
5-9 典型应用范式:Encoder-Decoder (05:50)
5-10 GRU实现唤醒词识别 (07:20)
5-11 基于双层、双向GRU的命令词识别模型搭建(1) (16:12)
5-12 基于双层、双向GRU的命令词识别模型搭建(2) (15:29)
5-13 基于双层、双向GRU的命令词识别模型搭建(3) (16:52)
5-14 基于双层、双向GRU的命令词识别模型搭建(4) (14:32)
5-15 基于双层、双向GRU的命令词识别模型搭建(5) (09:26)
5-16 模型评估和选择 (10:02)
5-17 本章总结 (05:15)
第6章 深度学习新思路: GAN网络21 节 | 255分钟
本章将一起学习生成式网络,帮助大家重点掌握GAN网络,理解GAN的原理和背后的数学原理,并能实践如何应用GAN网络构建一个人脸生成器,真正所学及所用。
6-1 本章内容介绍 (03:23)
6-2 什么是生成式模型? (12:58)
6-3 GAN的原理(上) (12:04)
6-4 GAN的原理(下) (11:58)
6-5 GAN的一些变体之:CycleGAN (14:26)
6-6 GAN的一些变体之:StyleGAN(上) (10:38)
6-7 GAN的一些变体之:StyleGAN(下) (10:20)
6-8 GAN的一些变体之:DCGAN (03:48)
6-9 GAN的一些变体之:text-to-image (09:12)
6-10 用DCGAN生成人脸照片 (04:14)
6-11 超参和dataset编写 (28:03)
6-12 generator编写 (28:24)
6-13 discriminator编写 (16:01)
6-14 trainer 编写(1) (16:39)
6-15 trainer 编写(2) (16:28)
6-16 trainer 编写(3) (17:05)
6-17 trainer 编写(4) (15:08)
6-18 怎么检查GAN的训练过程? (19:35)
6-19 本章总结 (04:31)
第7章 赋予模型认知能力:注意力机制24 节 | 312分钟
Transformer作为深度学习研究的重点和热点,日渐受到关注。在本章中,将帮助大家认识注意力机制,掌握Transformer的原理,并能在搭建Transformer的同时巩固对Attention的理解。
7-1 本章内容介绍 (02:28)
7-2 什么是注意力机制? (07:40)
7-3 注意力机制的一般性原理 (09:31)
7-4 几种典型的注意力机制 hard、soft、local attention (10:12)
7-5 自注意力机制:self-attention (14:03)
7-6 Transformer (14:03)
7-7 用Transformer实现G2P(上) (17:42)
7-8 用Transformer实现G2P(下) (16:21)
7-9 g2p dataset 编写 (27:31)
7-10 model结构和位置编码 (20:48)
7-11 encoder (19:18)
7-12 Multi-head attention(上) (18:23)
7-13 Multi-head attention(下) (21:45)
7-14 Pointwise FeedForward (06:49)
7-15 decoder (21:52)
7-16 transformer(上) (19:59)
7-17 transformer(下) (06:07)
7-18 trainer脚本编写 (12:29)
7-19 infer推理函数编写 (13:49)
7-20 inference和attention map展示(上) (14:15)
7-21 inference和attention map展示(下) (12:10)
7-22 本章总结 (03:52)
第8章 数据不够怎么办?迁移学习来帮忙10 节 | 78分钟
本章会带领大家熟悉迁移学习的基本概念,掌握实用得实施迁移学习的方法,并将手把手的教会同学们如何构建迁移学习的项目,解决实际问题。
8-1 本章内容介绍 (02:01)
8-2 什么是迁移学习 (07:26)
8-3 迁移学习分类 (11:46)
8-4 怎么实施迁移学习? (09:18)
8-5 基于ResNet迁移学习的姿势识别 (09:09)
8-6 工程代码(上) (13:16)
8-7 工程代码(下) (11:31)
8-8 inference (09:20)
8-9 本章总结 (03:45)
第9章 深度学习新范式:半监督学习19 节 | 202分钟
本章将帮助大家,在掌握半监督学习核心概念的同时,更能基于实际问题,提出半监督学习的解决方案、设计半监督的理论和实施方法,并完成相关项目,循序渐进带领大家学通学会半监督学习。
9-1 本章内容介绍 (02:19)
9-2 半监督学习是什么? (06:01)
9-3 半监督学习能解决什么问题? (05:30)
9-4 几种典型的半监督学习方法(上) (13:34)
9-5 几种典型的半监督学习方法(下) (11:44)
9-6 在Cifar10上实现MixMatch半监督学习-论文拆解 (08:10)
9-7 超参和dataset (09:32)
9-8 utils编写(1) (17:59)
9-9 utils编写(2) (17:22)
9-10 utils编写(3) (13:33)
9-11 utils编写(4) (09:23)
9-12 model编写 (06:49)
9-13 loss 编写 (08:48)
9-14 trainer 编写(1) (17:23)
9-15 trainer 编写(2) (15:45)
9-16 trainer 编写(3) (20:22)
9-17 trainer 编写(4) (14:43)
9-18 本章总结 (02:59)
评论0