021.- Curso de IA Generativa. Atención Multi-cabeza enmascarada en GPT

Lección 20 de 2483%

Ya has superado la mitad. Estás muy cerca de completar el curso.

Sobre esta lección

Video en el que vemos el modo en el que GPT aplica la atención multi-cabeza al tratarse de un modelo auto-regresivo y usar solo los decodificadores de la arquitectura transformer. Vemos ejemplos de su uso y los visualizamos gráficamente con el uso de Bertviz, comparando su uso de las cabezas de atención con el modelo auto-codificado de BERT. Colab con las prácticas: https://colab.research.google.com/drive/1jj-_QxKZq1LcvvoLQZMJmIVptpDm1QR4?usp=sharing

Sobre este curso

Lección 20 de 24Nivel: principianteDuración total: 6h 34m

Lo que aprenderás en este curso:

  • Comprender los fundamentos del aprendizaje automático
  • Implementar algoritmos de clasificación y regresión
  • Preparar y limpiar datos para modelos predictivos
  • Evaluar y optimizar modelos de machine learning