Aprendizaje profundo

Semana 1

En esta clase se hace un repaso de Aprendizaje automático. Los estudiantes con experiencia en aprendizaje automático puede omitir la clase de la próxima semana.

Descargar

Ver la clase

Semana 2

La inspiración para las redes neurales proviene de la biología. En esta clase se enseña a los estudiantes la nomenclatura básica del aprendizaje profundo: qué es una neurona (y su similitud con una neurona biológica), la arquitectura de una red neuronal de prealimentación, ponderaciones y funciones de activación.

Descargar

Ver la clase

Semana 3

Esta clase avanza sobre los conceptos aprendidos en la Semana 2: de qué manera una red neuronal computa los resultados generados como entradas en un movimiento adelante único, y cómo utilizar esta red para entrenar un modelo. Aprenda cómo calcular la pérdida y ajustar las ponderaciones utilizando una técnica llamada propagación retrospectiva. También se presentan diferentes tipos de activación.

Descargar

Ver la clase

Semana 4

Aprenda técnicas para mejorar la precisión y la velocidad de entrenamiento. Identifique los pro y los contra utilizando el descenso gradual, el descenso gradual estocástico y mini lotes. Con el conocimiento básico sobre redes neurales adquirido en las semanas 2 a 4, aprenderá cómo desarrollar una red neural básica utilizando Keras* con TensorFlow* como backend.

Descargar

Ver la clase

Semana 5

Entonces, ¿cómo puede evitar el sobreajuste (regularización) en una red neural? En esta clase, aprenderá sobre la función de costo con penalización, deserciones, interrupción temprana, impulso y algunos optimizadores como AdaGrad y RMSProp que ayudan a regularizar una red neuronal.

Descargar

Ver la clase

Semana 6

Conozca las redes neurales convolucionales y compárelas con las redes neurales totalmente conectadas (CNN) ya presentadas. Aprenda a desarrollar una CNN eligiendo el tamaño de red, el relleno, el paso, la profundidad y el agrupamiento.

Descargar

Ver la clase

Semana 7

Utilizando la topología LeNet-5*, descubra cómo aplicar todos los conceptos sobre CNN aprendidos en la última lección al conjunto de datos MNIST (Modified National Institute of Standards and Technology) para dígitos manuscritos. Con una red neural entrenada, vea cómo las características fundamentales aprendidas en los primeros niveles se pueden generalizar en las tareas de clasificación de imágenes, y cómo ayuda el aprendizaje de transferencia.

Descargar

Ver la clase

Semana 8

La literatura sobre aprendizaje profundo habla sobre muchas topologías de clasificación como AlexNet, VGG-16 y VGG-19, Inception y ResNet. Esta semana, descubra cómo han sido diseñadas estas topologías y los escenarios de uso de cada una de ellas.

Descargar

Ver la clase

Semana 9

Un obstáculo práctico para desarrollar clasificadores de imagen es obtener datos de capacitación rotulados. Explore cómo aprovechar al máximo los datos rotulados disponibles utilizando el acrecentamiento de datos e implemente el acrecentamiento de datos utilizando Keras*.

Descargar

Ver la clase

Semana 10

Hasta ahora, hemos utilizado imágenes como ingresos a redes neurales. Los valores de imágenes son esencialmente números (escala de grises o RGB). Pero, ¿exactamente de qué manera funcionamos con texto? ¿Cómo podemos desarrollar una red neural para que funcione con trozos de texto de extensión variable? ¿Cómo convertimos palabras en valores numéricos? Conozca las redes neuronales recurrentes (RNN) y su aplicación al procesamiento de lenguaje natural (NLP).

Descargar

Ver la clase

Semana 11

Acceda a temas más avanzados para desarrollar una RNN y cómo se puede utilizar el concepto de recurrencia para resolver el problema con secuencia variable y ordenamiento de palabras. Tome su cuaderno y su lápiz y realice los cálculos de las RNN.

Descargar

Ver la clase

Semana 12

Las redes neurales recurrentes (RNN) tienen mala capacidad de memoria. En el procesamiento de lenguaje natural (NLP), es importante tener una estructura que pueda trasladar parte de la señal a lo largo de muchos pasos. Aprenda sobre la memoria a corto plazo prolongada (LSTM) que resuelve este problema.

Descargar

Ver la clase