Un lector está interesado en un artículo de noticias específico y quiere encontrar artículos similares para recomendar. ¿Cuál es la noción correcta de similitud?

Además, ¿qué pasa si hay millones de otros documentos? Cada vez que desea recuperar un nuevo documento, ¿necesita buscar en todos los demás documentos? ¿Cómo se agrupan los documentos similares? ¿Cómo descubre nuevos temas emergentes que cubren los documentos?

En este tercer caso de estudio, cuando encuentre documentos similares, examinará los algoritmos basados en la similitud para su recuperación.



En este curso, también examinará las representaciones estructuradas para describir los documentos del corpus, incluidos los modelos de membresía mixtos y de agrupamiento, como la asignación de Dirichlet latente (LDA).

Implementará Expectation Maximization (EM) para aprender a agrupar documentos y ver cómo escalar métodos usando MapReduce.

Resultados de aprendizaje: al final de este curso, podrá:

  • Crear un sistema de recuperación de documentos usando k-vecinos más cercanos.
  • Identificar varias métricas de similitud para datos de texto.
  • Reducir los cálculos en la búsqueda de vecinos más cercanos mediante el uso de árboles KD.
  • Producir vecinos más cercanos aproximados utilizando hashing sensible a la localidad.
  • Comparar y contrastar tareas de aprendizaje supervisadas y no supervisadas.
  • Agrupar documentos por tema utilizando k-means.
  • Describir cómo paralelizar k-means usando MapReduce.
  • Examinar enfoques de agrupamiento probabilístico utilizando modelos mixtos.
  • Ajustar un modelo de mezcla gaussiana utilizando la maximización de expectativas (EM).
  • Realizar modelos de membresía mixtos usando Latent Dirichlet Allocation (LDA).
  • Describir los pasos de un muestreador Gibbs y cómo usar su salida para sacar inferencias.
  • Comparar y contrastar técnicas de inicialización para objetivos de optimización no convexos.
  • Implementar estas técnicas en Python.

Las habilidades que conseguirás

  • Algoritmos de agrupamiento de datos
  • Agrupación de K-Means
  • Aprendizaje automático
  • Árbol KD

Este curso es ofrecido por la Universidad de Washington

Fundada en 1861, la Universidad de Washington es una de las instituciones de educación superior financiadas por el estado más antiguas de la costa oeste y es una de las universidades de investigación más importantes del mundo.



Accede a este Curso

Si te ha parecido interesante y quieres inscribirte a este curso gratuito, solo debes dar clic o tocar el botón de aquí abajo. Recuerda que, al ser un sitio externo, este puede presentar fallas o retirar el curso sin previo aviso. ¡Éxito!



Encuentra cursos y libros gratuitos, además de cupones de Udemy, en nuestros Telegram.


Jesús Amaro

Si lees esto, es por que sabes leer. Un saludo...