Artwork

Contenu fourni par Brian Carter. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Brian Carter ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Let's Get Activated! Why Non-Linear Activation Matters

7:15
 
Partager
 

Manage episode 447355898 series 3605861
Contenu fourni par Brian Carter. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Brian Carter ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Let's get RE(a)L, U!

This research paper explores the impact of different activation functions, specifically ReLU and L-ReLU, on the performance of deep learning models. The authors investigate how the choice of activation function, along with factors like the number of parameters and the shape of the model architecture, influence model accuracy across various data domains (continuous, categorical with and without transfer learning). The study concludes that L-ReLU is more effective than ReLU when the number of parameters is relatively small, while ReLU generally performs better with larger models. The paper also highlights the importance of considering the specific data domain and the use of pre-trained models for transfer learning when selecting the most suitable activation function.

Read more: https://github.com/christianversloot/machine-learning-articles/blob/main/why-nonlinear-activation-functions-improve-ml-performance-with-tensorflow-example.md

  continue reading

65 episodes

Artwork
iconPartager
 
Manage episode 447355898 series 3605861
Contenu fourni par Brian Carter. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Brian Carter ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Let's get RE(a)L, U!

This research paper explores the impact of different activation functions, specifically ReLU and L-ReLU, on the performance of deep learning models. The authors investigate how the choice of activation function, along with factors like the number of parameters and the shape of the model architecture, influence model accuracy across various data domains (continuous, categorical with and without transfer learning). The study concludes that L-ReLU is more effective than ReLU when the number of parameters is relatively small, while ReLU generally performs better with larger models. The paper also highlights the importance of considering the specific data domain and the use of pre-trained models for transfer learning when selecting the most suitable activation function.

Read more: https://github.com/christianversloot/machine-learning-articles/blob/main/why-nonlinear-activation-functions-improve-ml-performance-with-tensorflow-example.md

  continue reading

65 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide