003.- Curso de IA Generativa. ¿Cómo usan los Transfomers la Atención?

Lección 2 de 248%

Sigue así. Cada lección te acerca más a tu certificado.

Sobre esta lección

Profundiza en el contenido del video con NotebookLM: https://tinyurl.com/IAGENVT3 Podcast sobre el vídeo: https://notebooklm.google.com/notebook/b0a9289a-13b9-48eb-9f36-cc1e7f16616e/audio Tercer video del Curso de IAGenerativa en el que vemos como utiliza la Arquitectura Transformer la Atención y como la calcula para cada Token de entrada a través de la fórmula denominada "Atención de producto escalar." Vemos en que se diferencian las Redes Neuronales Recurrentes y Convolucionales de las Redes Neuronales Transformer basadas en la Atención. Explicamos el uso de las Matrices de Ponderación y como se calculan las Matrices Query, Key y Value necesarias para la fórmula "Scaled dot product Attention" o "Atención de Producto Escalar"

Sobre este curso

Lección 2 de 24Nivel: principianteDuración total: 6h 34m

Lo que aprenderás en este curso:

  • Comprender los fundamentos del aprendizaje automático
  • Implementar algoritmos de clasificación y regresión
  • Preparar y limpiar datos para modelos predictivos
  • Evaluar y optimizar modelos de machine learning