深度学习

第 1 周

本课程对机械学习进行了简要概括。 已经熟悉机器学习的学员可跳至下一周的课程。

下载

观看本周课程

第 2 周

神经网络的灵感源自生物学。本周课程教授学生深度学习的基本命名法:什么是神经元(以及它与生物学神经元的相似性),前馈神经网络的架构,激活函数和权重。

下载

观看本周课程

第 3 周

本课程以第二周教授的概念为基础:神经网络如何根据单次前像传递的输入数据计算输出,以及如何使用则总网络训练模型。学习如何使用反向传播的技术来计算损失并调整权重。还介绍不同类型的激活函数。

下载

观看本周课程

第 4 周

学习提高训练速度和准确性的技术。识别使用梯度下降、随机梯度下降和迷你批量之优缺点。掌握了第 2 周至第 4 周讲授的神经网络基础知识,学习如何使用 Keras*(以 TensorFlow* 作为后端)建立一个基本神经网络。

下载

观看本周课程

第 5 周

如何避免神经网络中的拟合过度(正则化)?在本周课程中,您将学习惩罚性成本函数、删节、提前停止、动量及一些有助于正则化神经网络的优化器(如 AdaGrad 和 RMSProp)。

下载

观看本周课程

第 6 周

学习有关卷积神经网络 (CNN) 的知识以及卷积神经网络与业已介绍的完全连接的神经网络之比较 学习如何通过选择网格大小 (grid size)、填充 (padding)、步幅 (stride)、深度 (depth) 和池化 (pooling) 来建造卷积神经网络。

下载

观看本周课程

第 7 周

使用 LeNet-5* 拓扑,学习如何将上周课程中学到的所有卷积神经网络概念应用到 MNIST(修订的美国国家标准技术研究所)手写数字的数据集。通过训练的神经网络,观察在最初几层中学到的原始特征可如何被类推至所有图像分类任务,以及迁移学习有何帮助。

下载

观看本周课程

第 8 周

深度学习文献讨论许多图像分类拓扑,如 AlexNet、VGG-16 和 VGG-19、Inception 及 ResNet。本周学习这些拓扑是如何设计的,以及每一种拓扑的使用场合。

下载

观看本周课程

第 9 周

构建图像分类器的一个实际障碍是获得标记的训练数据。探讨如何使用数据增强来最大限度地利用可用标记数据,并使用 Keras* 实施数据增强。

下载

观看本周课程

第 10 周

至此,我们已使用图像作为对神经网络的输入。图像值本质上是数字(灰度或 RGB)。但是,如何处理文字呢?我们能如何建立神经网络来处理可变长度的文字片段?如何将文字转换成数字值?了解循环神经网络 (RNN) 以及它们在自然语言处理 (NLP) 中的应用。

下载

观看本周课程

第 11 周

学习开发循环神经网络 (RNN) 的更高级课题,以及循环概念可如何用于解决涉及变量序列和字序的问题。取出笔记本和铅笔,逐步学习循环神经网络 (RNN) 的数学。

下载

观看本周课程

第 12 周

标准循环神经网络 (RNN) 的记忆能力不良。在自然语言处理 (NLP) 中,重要的是具有一种结构,能携带一些信号向前传递许多步骤。了解解决这个问题的长短期记忆 (long short term memory,LSTM)。

下载

观看本周课程