Anuncios


Este curso proporciona una descripción general de los fundamentos del aprendizaje automático en la arquitectura Intel® moderna. Los temas cubiertos incluyen:

  • Revisar los tipos de problemas que se pueden resolver.
  • Entender los bloques de construcción
  • Aprender los fundamentos de la construcción de modelos en el aprendizaje automático
  • Explorando algoritmos clave

Al final de este curso, los estudiantes tendrán conocimientos prácticos de:

  • Algoritmos de aprendizaje supervisado
  • Conceptos clave como ajuste insuficiente y excesivo, regularización y validación cruzada
  • Cómo identificar el tipo de problema a resolver, elegir el algoritmo correcto, ajustar los parámetros y validar un modelo

El curso se estructura en torno a 12 semanas de conferencias y ejercicios. Cada semana requiere tres horas para completar. Los ejercicios se implementan en Python *, por lo que se recomienda familiarizarse con el lenguaje (puede aprender a lo largo del camino).

Prerrequisitos

  • Programación en Python
  • Cálculo
  • Algebra lineal
  • Estadística

Curso

A continuación puedes descargar las lecciones correspondiente a cada semana del curso. Solo da clic en el enlace de descarga.

Semana 1

Esta clase presenta el conjunto de herramientas básicas de ciencia de datos:

  • Jupyter * Notebook para codificación interactiva
  • NumPy, SciPy y pandas para cálculo numérico
  • Matplotlib y seaborn para visualización de datos
  • Scikit-learn * para bibliotecas de aprendizaje automático

Utilizará estas herramientas para trabajar con los ejercicios cada semana.

Descargar

Semana 2

Esta clase presenta los conceptos básicos y el vocabulario del aprendizaje automático:

  • Aprendizaje supervisado y cómo se puede aplicar a problemas de regresión y clasificación.
  • Algoritmo K-Vecino más cercano (KNN) para clasificación

Descargar


Semana 3

Esta clase revisa los principios de la generalización del modelo central:

  • La diferencia entre el ajuste excesivo y el ajuste insuficiente de un modelo
  • Compensación de sesgo-varianza
  • Encontrar las divisiones óptimas del conjunto de datos de prueba y entrenamiento, la validación cruzada y la complejidad del modelo frente al error
  • Introducción al modelo de regresión lineal para el aprendizaje supervisado

Descargar

Semana 4

Esta clase se basa en conceptos enseñados en semanas anteriores. Además usted:

  • Obtenga información sobre las funciones de costos, la regularización, la selección de funciones y los hiperparámetros
  • Comprender algoritmos de optimización estadística más complejos como el descenso de gradiente y su aplicación a la regresión lineal.

Descargar

Semana 5

Esta clase analiza lo siguiente:

  • Regresión logística y en qué se diferencia de la regresión lineal
  • Métricas para errores de clasificación y escenarios en los que se pueden usar

Descargar

Semana 6

Anuncios

Durante esta sesión, revisamos:

  • Los fundamentos de la teoría de la probabilidad y su aplicación al clasificador Naïve Bayes
  • Los diferentes tipos de clasificadores Naïve Bayes y cómo entrenar un modelo usando este algoritmo

Descargar

Semana 7

Esta semana cubre:

  • Admite máquinas vectoriales (SVM): un algoritmo popular que se utiliza para problemas de clasificación.
  • Ejemplos para aprender la similitud de SVM con la regresión logística
  • Cómo calcular la función de costo de las SVM
  • Regularización en SVM y algunos consejos para obtener clasificaciones no lineales con SVM

Descargar

Semana 8

Continuando con el tema de los algoritmos avanzados de aprendizaje supervisado, esta clase cubre:

  • Árboles de decisión y cómo usarlos para problemas de clasificación
  • Cómo identificar la mejor división y los factores para la división
  • Fortalezas y debilidades de los árboles de decisión
  • Árboles de regresión que ayudan a clasificar valores continuos

Descargar

Semana 9

Siguiendo con lo aprendido en la Semana 8, esta clase enseña:

  • Los conceptos de bootstrapping y agregación (comúnmente conocido como “ensacado”) para reducir la varianza
  • El algoritmo Random Forest que reduce aún más la correlación observada en los modelos de ensacado.

Descargar

Semana 10

Esta semana, aprenda sobre el algoritmo de impulso que ayuda a reducir la varianza y el sesgo.

Descargar

Semana 11

Hasta ahora, el curso se ha centrado en gran medida en algoritmos de aprendizaje supervisado. Esta semana, aprenda sobre los algoritmos de aprendizaje no supervisados ​​y cómo se pueden aplicar a los problemas de agrupamiento y reducción de dimensionalidad.

Descargar

Semana 12

La dimensionalidad se refiere a la cantidad de características en el conjunto de datos. Teóricamente, más características deberían significar mejores modelos, pero esto no es cierto en la práctica. Demasiadas funciones pueden resultar en correlaciones falsas, más ruido y un rendimiento más lento. Esta semana, aprenda algoritmos que se pueden usar para lograr una reducción en la dimensionalidad, como:

  • Análisis de componentes principales (PCA)
  • Escala multidimensional (MDS)

Descargar


Esta entrada tiene 2 comentarios

  1. Claudio

    Excelente, me interesa mucho el análisis de componentes principales, lo hacía con R ahora lo revisaré con Python

  2. Hernan Nina

    Excelente Material, bien didáctico y fácil de aprender Machine Learning

Deja una respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.