021.- Curso de IA Generativa. Atención Multi-cabeza enmascarada en GPT
Lección 20 de 2483%
Ya has superado la mitad. Estás muy cerca de completar el curso.
Sobre esta lección
Video en el que vemos el modo en el que GPT aplica la atención multi-cabeza al tratarse de un modelo auto-regresivo y usar solo los decodificadores de la arquitectura transformer. Vemos ejemplos de su uso y los visualizamos gráficamente con el uso de Bertviz, comparando su uso de las cabezas de atención con el modelo auto-codificado de BERT. Colab con las prácticas: https://colab.research.google.com/drive/1jj-_QxKZq1LcvvoLQZMJmIVptpDm1QR4?usp=sharing
Sobre este curso
Lección 20 de 24Nivel: principianteDuración total: 6h 34m
Lo que aprenderás en este curso:
- Comprender los fundamentos del aprendizaje automático
- Implementar algoritmos de clasificación y regresión
- Preparar y limpiar datos para modelos predictivos
- Evaluar y optimizar modelos de machine learning