Aprendizagem profunda

Semana 1

Essa aula recapitula o assunto Aprendizado de máquina. Estudantes que são especialistas em aprendizado de máquina podem pular para a aula da próxima semana.

Baixar

Assista à aula

Semana 2

A inspiração para as redes neurais vem da biologia. Essa aula ensina aos alunos a nomenclatura básica da aprendizagem profunda: o que é um neurônio artificial (e sua similaridade com um neurônio biológico), a arquitetura de uma rede neural de alimentação direta, funções de ativação e pesos.

Baixar

Assista à aula

Semana 3

Essa aula se baseia nos conceitos aprendidos na semana 2: como uma rede neural calcula a saída a partir de uma entrada em uma única passagem direta e como usar essa rede para treinar um modelo. Saiba como calcular a perda e ajustar pesos usando uma técnica chamada backpropagation. Diferentes tipos de funções de ativação também são introduzidos.

Baixar

Assista à aula

Semana 4

Aprenda técnicas para aumentar a velocidade e precisão do treinamento. Identifique os prós e os contras de usar o método do gradiente, método estocástico e mini-lotes. Com o conhecimento básico sobre redes neurais abordado nas semanas 2 a 4, aprenda como construir uma rede neural básica usando Keras* com TensorFlow* como backend.

Baixar

Assista à aula

Semana 5

Como você pode evitar o sobreajuste (regularização) em uma rede neural? Nessa aula, aprenda sobre a função de custo penalizado, abandono, parada precoce, impulso e alguns otimizadores como AdaGrad e RMSProp que ajudam a regularizar uma rede neural.

Baixar

Assista à aula

Semana 6

Saiba mais sobre as redes neurais convolutivas (CNN) e compare-as às redes neurais totalmente conectadas já introduzidas. Saiba como criar uma CNN escolhendo o tamanho da grade, preenchimento, passo, profundidade e agrupamento.

Baixar

Assista à aula

Semana 7

Usando a topologia LeNet-5*, saiba como aplicar todos os conceitos de CNN aprendidos na última lição para a base de dados MNIST (Modified National Institute of Standards and Technology) para dígitos manuscritos. Com uma rede neural treinada, veja como as características primitivas aprendidas nas primeiras camadas podem ser generalizadas em tarefas de classificação de imagens e como a transferência de aprendizagem ajuda.

Baixar

Assista à aula

Semana 8

A literatura sobre aprendizagem profunda fala a respeito de muitas topologias de classificação de imagens como AlexNet, VGG-16 e VGG-19, Inception e ResNet. Esta semana, saiba como essas topologias são projetadas e os cenários de uso para cada uma.

Baixar

Assista à aula

Semana 9

Um obstáculo prático para a construção de classificadores de imagens é a obtenção de dados de treinamento rotulados. Explore como aproveitar ao máximo os dados rotulados disponíveis usando o aumento de dados e implemente o aumento de dados usando o Keras*.

Baixar

Assista à aula

Semana 10

Até agora, utilizamos imagens como entradas para redes neurais. Os valores da imagem são essencialmente números (escala de cinza ou RGB). Porém, como trabalhamos com texto? Como podemos construir uma rede neural para trabalhar com partes de texto de tamanho variável? Como converter palavras em valores numéricos? Saiba mais sobre as redes neurais recorrentes (RNN) e sua aplicação ao processamento de linguagem natural (NLP).

Baixar

Assista à aula

Semana 11

Aprenda tópicos mais avançados para o desenvolvimento de uma RNN e como o conceito de recorrência pode ser usado para resolver o problema com seqüência variável e ordenamento de palavras. Pegue seu notebook e um lápis e trabalhe com a matemática das RNNs.

Baixar

Assista à aula

Semana 12

As RRNs padrão tem poucas capacidades de memória. Na NLP, é importante ter uma estrutura que possa transmitir um pouco do sinal em várias etapas. Saiba sobre a memória longa de curto prazo que aborda esse problema.

Baixar

Assista à aula