Artwork

Contenu fourni par Emily Laird. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Emily Laird ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

What is a Transformer?

6:28
 
Partager
 

Manage episode 425336406 series 3578824
Contenu fourni par Emily Laird. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Emily Laird ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

In this episode, we discover the fascinating world of Transformers. Imagine it's the early days of AI, with RNNs and LSTMs doing the heavy lifting, but struggling with long-range dependencies like forgetful grandparents. Enter the Transformer model—a revolutionary architecture introduced in 2017 by Google’s "Attention is All You Need" paper. Transformers handle long-range dependencies and process data in parallel, making them incredibly efficient. We'll break down their key components like self-attention, positional encoding, and multi-head attention, showing how they transformed the AI landscape. Tune in to discover why Transformers are the shiny new sports car of AI models.

Connect with Emily Laird on LinkedIn

  continue reading

72 episodes

Artwork
iconPartager
 
Manage episode 425336406 series 3578824
Contenu fourni par Emily Laird. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Emily Laird ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

In this episode, we discover the fascinating world of Transformers. Imagine it's the early days of AI, with RNNs and LSTMs doing the heavy lifting, but struggling with long-range dependencies like forgetful grandparents. Enter the Transformer model—a revolutionary architecture introduced in 2017 by Google’s "Attention is All You Need" paper. Transformers handle long-range dependencies and process data in parallel, making them incredibly efficient. We'll break down their key components like self-attention, positional encoding, and multi-head attention, showing how they transformed the AI landscape. Tune in to discover why Transformers are the shiny new sports car of AI models.

Connect with Emily Laird on LinkedIn

  continue reading

72 episodes

Όλα τα επεισόδια

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide