Semana 1

En esta clase se presenta el conjunto básico de herramientas para la ciencia de datos:

  • Jupyter Notebook* para codificación interactiva
  • NumPy, SciPY y pandas para computación numérica
  • Matplotlib y Seaborn para visualización de datos
  • Scikit-learn* para bibliotecas de aprendizaje automático

Utilizará estas herramientas para resolver los ejercicios cada semana.

Descargar

Semana 2

Esta clase presenta los conceptos básicos y el vocabulario del aprendizaje automático:

  • Aprendizaje supervisado y cómo se lo puede aplicar a los problemas de clasificación y regresión.
  • Algoritmo K-vecino más cercano (KNN) para clasificación

Descargar

Semana 3

En esta clase se analizan los principios de la generalización del modelo central:

  • La diferencia entre sobreajustar o subajustar un modelo
  • Compensaciones por el sesgo con respecto a varianza
  • Encontrar el entrenamiento óptimo y probar las divisiones de conjuntos de datos, validación cruzada y complejidad del modelo versus error
  • Introducción al modelo de regresión lineal para aprendizaje supervisado

Descargar

Semana 4

Esta clase retoma conceptos enseñados en semanas anteriores. Además, utilizará:

  • Aprenda sobre funciones de costo, regularización, selección de características e hiperparámetros.
  • Comprenda algoritmos de optimización estadística complejos como descenso gradual y su aplicación a la regresión lineal

Descargar

Semana 5

En esta clase se analiza lo siguiente:

  • Regresión logística y cómo difiere de la regresión lineal
  • Métricas para errores de clasificación y situaciones en las cuales se pueden utilizar

Descargar

Semana 6

Durante esta sesión, analizaremos:

  • Los aspectos básicos de la teoría de las probabilidades y su aplicación al clasificador Naïve Bayes
  • Los diferentes tipos de clasificadores Naïve Bayes y cómo entrenar un modelo utilizando este algoritmo

Descargar

Semana 7

En esta semana cubrimos:

  • Máquinas de vectores de soporte (SVM)—un algoritmo popular utilizado para clasificación de problemas
  • Ejemplos para aprender similitudes de SVM con la regresión logística
  • Cómo calcular la función de costo de las SVM
  • La regularización en SVM y algunos consejos para obtener clasificaciones no lineales con SVM

Descargar

Semana 8

Continuando con el tema de los algoritmos de aprendizaje supervisado avanzados, esta clase cubre:

  • Diagramas de decisiones y cómo utilizarlos para problemas de clasificación
  • Cómo identificar la mejor división y los factores para la división
  • Puntos fuertes y débiles de los diagramas de decisiones
  • Diagramas de regresión que ayudan a clasificar valores continuos

Descargar

Semana 9

Luego de lo aprendido en la Semana 8, en esta clase se enseña:

  • Los conceptos de impulso y agregación (comúnmente conocidos como “bagging”) para reducir la varianza
  • El algoritmo Random Forest que reduce más la correlación detectada en los modelos de bagging

Descargar

Semana 10

Esta semana aprenda sobre el algoritmo de "boosting" que ayuda a reducir la varianza y el sesgo.

Descargar

Semana 11

Hasta el momento, el curso se ha centrado en gran medida en los algoritmos de aprendizaje supervisado. Esta semana conocerá los algoritmos de aprendizaje no supervisado y cómo se los puede aplicar a los problemas de reducción de dimensionalidad y clústeres.

Descargar

Semana 12

Dimensionalidad hace referencia a la cantidad de características en el conjunto de datos. Teóricamente, más características debería significar mejores modelos, pero esto no es cierto en la práctica. Un exceso de características podría dar lugar a correlaciones espurias, más ruido y un desempeño más lento. Esta semana, conozca algoritmos que se pueden utilizar para lograr una reducción en la dimensionalidad, por ejemplo:

  • Análisis de componentes principales (PCA)
  • Escalamiento multidimensional (MDS)

Descargar