Artwork

Contenu fourni par Info Support. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Info Support ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

#20 - Het ontwikkelen van AI modellen die je kunt vertrouwen(met Niels Naglé, Bas Niesink en Joop Snijder)

27:29
 
Partager
 

Manage episode 374513126 series 3407233
Contenu fourni par Info Support. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Info Support ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

27 episodes

Artwork
iconPartager
 
Manage episode 374513126 series 3407233
Contenu fourni par Info Support. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Info Support ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

27 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide