009.- Curso de IA Generativa. BETO, el BERT en español.

Lección 8 de 2433%

Sigue así. Cada lección te acerca más a tu certificado.

Sobre esta lección

Vemos en este video la tokenización y BETO, un modelo BERT entrenado desde cero con un corpus de datos exclusivamente en español. Vemos las distintas técnicas de tokenización que se pueden aplicar a los Modelos de Lenguaje Grandes y las usadas por BERT y GPT. Vemos ejemplos prácticos sobre Colab de como BETO, el BERT en español se entrena a través de técnica de Enmascaramiento de Palabras Completas y diferencias entre la tokenización en el modelo en inglés y en español. Acceso al Colab con el código usado: https://colab.research.google.com/drive/1qaDWZb04hKQA-UDBfezeXZb-kyEG1c6d?usp=sharing https://colab.research.google.com/drive/1-cELpNbihIvus9H8gssPdxa_i0W_n-te?usp=sharing

Sobre este curso

Lección 8 de 24Nivel: principianteDuración total: 6h 34m

Lo que aprenderás en este curso:

  • Comprender los fundamentos del aprendizaje automático
  • Implementar algoritmos de clasificación y regresión
  • Preparar y limpiar datos para modelos predictivos
  • Evaluar y optimizar modelos de machine learning