Artwork

Contenu fourni par Benoit Hardy-Vallée. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Benoit Hardy-Vallée ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

Achieving Fairness in Algorithmic Decision Making in HR

29:08
 
Partager
 

Manage episode 354749391 series 3428014
Contenu fourni par Benoit Hardy-Vallée. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Benoit Hardy-Vallée ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Join us on this episode as we dive into the complex world of algorithmic fairness in HR with Manish Raghavan, Assistant Professor of Information Technology at the MIT Sloan School of Management. Discover the challenges and opportunities of using algorithms to make decisions about people, and learn about the importance of preventing algorithms from replicating discriminatory and unfair human decision-making. Get insights into the distinction between procedural fairness and outcome fairness, and understand why the deployment environment of a machine learning model is just as crucial as the technology itself. Gain a deeper understanding of the scoring mechanism behind algorithmic tools, and the potential dangers and consequences of their use. Learn how common signals in assessments can result in similar assessments across organizations and what it takes to achieve fairness in algorithmic decision-making in HR.
Manish page at MIT
Follow Manish on LinkedIn

  continue reading

42 episodes

Artwork
iconPartager
 
Manage episode 354749391 series 3428014
Contenu fourni par Benoit Hardy-Vallée. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Benoit Hardy-Vallée ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Join us on this episode as we dive into the complex world of algorithmic fairness in HR with Manish Raghavan, Assistant Professor of Information Technology at the MIT Sloan School of Management. Discover the challenges and opportunities of using algorithms to make decisions about people, and learn about the importance of preventing algorithms from replicating discriminatory and unfair human decision-making. Get insights into the distinction between procedural fairness and outcome fairness, and understand why the deployment environment of a machine learning model is just as crucial as the technology itself. Gain a deeper understanding of the scoring mechanism behind algorithmic tools, and the potential dangers and consequences of their use. Learn how common signals in assessments can result in similar assessments across organizations and what it takes to achieve fairness in algorithmic decision-making in HR.
Manish page at MIT
Follow Manish on LinkedIn

  continue reading

42 episodes

ทุกตอน

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide