Artwork

Contenu fourni par Brian Carter. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Brian Carter ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Reviewing Stanford on Linear Regression and Gradient Descent

8:25
 
Partager
 

Manage episode 446880554 series 3605861
Contenu fourni par Brian Carter. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Brian Carter ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

This lecture from Stanford University's CS229 course, "Machine Learning," focuses on the theory and practice of linear regression and gradient descent, two fundamental machine learning algorithms. The lecture begins by motivating linear regression as a simple supervised learning algorithm for regression problems where the goal is to predict a continuous output based on a set of input features. The lecture then introduces the cost function used in linear regression, which measures the squared error between the predicted output and the true output. Gradient descent, an iterative algorithm, is then explained as a method to find the parameters that minimize the cost function. Two variants of gradient descent, batch gradient descent and stochastic gradient descent, are discussed with their respective strengths and weaknesses. The lecture concludes with a derivation of the normal equations, an alternative approach to finding the optimal parameters in linear regression that involves solving a system of equations rather than iteratively updating parameters.

Watch Andrew Ng teach it at Stanford: https://www.youtube.com/watch?v=4b4MUYve_U8&t=1086s&pp=ygUSdmFuaXNoaW5nIGdyYWRpZW50

  continue reading

71 episodes

Artwork
iconPartager
 
Manage episode 446880554 series 3605861
Contenu fourni par Brian Carter. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Brian Carter ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

This lecture from Stanford University's CS229 course, "Machine Learning," focuses on the theory and practice of linear regression and gradient descent, two fundamental machine learning algorithms. The lecture begins by motivating linear regression as a simple supervised learning algorithm for regression problems where the goal is to predict a continuous output based on a set of input features. The lecture then introduces the cost function used in linear regression, which measures the squared error between the predicted output and the true output. Gradient descent, an iterative algorithm, is then explained as a method to find the parameters that minimize the cost function. Two variants of gradient descent, batch gradient descent and stochastic gradient descent, are discussed with their respective strengths and weaknesses. The lecture concludes with a derivation of the normal equations, an alternative approach to finding the optimal parameters in linear regression that involves solving a system of equations rather than iteratively updating parameters.

Watch Andrew Ng teach it at Stanford: https://www.youtube.com/watch?v=4b4MUYve_U8&t=1086s&pp=ygUSdmFuaXNoaW5nIGdyYWRpZW50

  continue reading

71 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide

Écoutez cette émission pendant que vous explorez
Lire