Este curso proporciona una descripción general de los fundamentos del aprendizaje automático en la arquitectura Intel® moderna. Los temas cubiertos incluyen:
- Revisar los tipos de problemas que se pueden resolver.
- Entender los bloques de construcción
- Aprender los fundamentos de la construcción de modelos en el aprendizaje automático
- Explorando algoritmos clave
Al final de este curso, los estudiantes tendrán conocimientos prácticos de:
- Algoritmos de aprendizaje supervisado
- Conceptos clave como ajuste insuficiente y excesivo, regularización y validación cruzada
- Cómo identificar el tipo de problema a resolver, elegir el algoritmo correcto, ajustar los parámetros y validar un modelo
El curso se estructura en torno a 12 semanas de conferencias y ejercicios. Cada semana requiere tres horas para completar. Los ejercicios se implementan en Python *, por lo que se recomienda familiarizarse con el lenguaje (puede aprender a lo largo del camino).
Prerrequisitos
- Programación en Python
- Cálculo
- Algebra lineal
- Estadística
Curso
A continuación puedes descargar las lecciones correspondiente a cada semana del curso. Solo da clic en el enlace de descarga.
Semana 1
Esta clase presenta el conjunto de herramientas básicas de ciencia de datos:
- Jupyter * Notebook para codificación interactiva
- NumPy, SciPy y pandas para cálculo numérico
- Matplotlib y seaborn para visualización de datos
- Scikit-learn * para bibliotecas de aprendizaje automático
Utilizará estas herramientas para trabajar con los ejercicios cada semana.
Semana 2
Esta clase presenta los conceptos básicos y el vocabulario del aprendizaje automático:
- Aprendizaje supervisado y cómo se puede aplicar a problemas de regresión y clasificación.
- Algoritmo K-Vecino más cercano (KNN) para clasificación
Semana 3
Esta clase revisa los principios de la generalización del modelo central:
- La diferencia entre el ajuste excesivo y el ajuste insuficiente de un modelo
- Compensación de sesgo-varianza
- Encontrar las divisiones óptimas del conjunto de datos de prueba y entrenamiento, la validación cruzada y la complejidad del modelo frente al error
- Introducción al modelo de regresión lineal para el aprendizaje supervisado
Semana 4
Esta clase se basa en conceptos enseñados en semanas anteriores. Además usted:
- Obtenga información sobre las funciones de costos, la regularización, la selección de funciones y los hiperparámetros
- Comprender algoritmos de optimización estadística más complejos como el descenso de gradiente y su aplicación a la regresión lineal.
Semana 5
Esta clase analiza lo siguiente:
- Regresión logística y en qué se diferencia de la regresión lineal
- Métricas para errores de clasificación y escenarios en los que se pueden usar
Semana 6
Durante esta sesión, revisamos:
- Los fundamentos de la teoría de la probabilidad y su aplicación al clasificador Naïve Bayes
- Los diferentes tipos de clasificadores Naïve Bayes y cómo entrenar un modelo usando este algoritmo
Semana 7
Esta semana cubre:
- Admite máquinas vectoriales (SVM): un algoritmo popular que se utiliza para problemas de clasificación.
- Ejemplos para aprender la similitud de SVM con la regresión logística
- Cómo calcular la función de costo de las SVM
- Regularización en SVM y algunos consejos para obtener clasificaciones no lineales con SVM
Semana 8
Continuando con el tema de los algoritmos avanzados de aprendizaje supervisado, esta clase cubre:
- Árboles de decisión y cómo usarlos para problemas de clasificación
- Cómo identificar la mejor división y los factores para la división
- Fortalezas y debilidades de los árboles de decisión
- Árboles de regresión que ayudan a clasificar valores continuos
Semana 9
Siguiendo con lo aprendido en la Semana 8, esta clase enseña:
- Los conceptos de bootstrapping y agregación (comúnmente conocido como «ensacado») para reducir la varianza
- El algoritmo Random Forest que reduce aún más la correlación observada en los modelos de ensacado.
Semana 10
Esta semana, aprenda sobre el algoritmo de impulso que ayuda a reducir la varianza y el sesgo.
Semana 11
Hasta ahora, el curso se ha centrado en gran medida en algoritmos de aprendizaje supervisado. Esta semana, aprenda sobre los algoritmos de aprendizaje no supervisados y cómo se pueden aplicar a los problemas de agrupamiento y reducción de dimensionalidad.
Semana 12
La dimensionalidad se refiere a la cantidad de características en el conjunto de datos. Teóricamente, más características deberían significar mejores modelos, pero esto no es cierto en la práctica. Demasiadas funciones pueden resultar en correlaciones falsas, más ruido y un rendimiento más lento. Esta semana, aprenda algoritmos que se pueden usar para lograr una reducción en la dimensionalidad, como:
- Análisis de componentes principales (PCA)
- Escala multidimensional (MDS)
Excelente, me interesa mucho el análisis de componentes principales, lo hacía con R ahora lo revisaré con Python
Excelente Material, bien didáctico y fácil de aprender Machine Learning