Artwork

Contenu fourni par Choses à Savoir. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Choses à Savoir ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

IA : des modèles entraînés par des données générées par IA ?

2:06
 
Partager
 

Manage episode 455971144 series 2709331
Contenu fourni par Choses à Savoir. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Choses à Savoir ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

L’intelligence artificielle, jadis présentée comme une révolution technologique, serait-elle en train de se tirer une balle dans le pied ? En misant de plus en plus sur des données synthétiques plutôt que sur des données humaines, les entreprises et laboratoires ont ouvert la porte à un cercle vicieux : l’apprentissage autoréférentiel. Autrement dit, l’IA se nourrit de ses propres productions, amplifiant erreurs et biais à chaque itération.


Rick Song, PDG de Persona, spécialiste de la vérification d’identité, décrit ce phénomène comme un « effondrement du modèle ». Imaginez un photocopieur qui reproduit sans fin ses propres copies : les documents deviennent flous, perdent en précision. De la même manière, les modèles d’IA s’éloignent progressivement de leur mission initiale, produisant des données de moins en moins fiables. Une étude publiée dans Nature confirme qu’après neuf cycles d’entraînement sur des contenus générés par l’IA, les résultats deviennent incohérents.


Les conséquences sont préoccupantes : réduction de la diversité des données, amplification des biais préexistants, et incapacité à restituer des informations pertinentes. Alors que l’IA est déjà sous le feu des critiques pour ses dérives, comme des incitations au suicide ou à la violence, ce phénomène met en lumière une faille structurelle. Pourtant, des solutions existent. Rick Song appelle à une refonte complète des pratiques. Cela passe par des outils de traçabilité sophistiqués, des partenariats pour garantir des données d’origine humaine et une vigilance accrue face aux contenus synthétiques. L’objectif est clair : reconstruire une IA ancrée dans la réalité, capable d’évoluer sans s’enfermer dans une boucle stérile. La balle est désormais dans le camp des entreprises technologiques. Elles doivent privilégier l’intégrité et la transparence pour éviter que l’IA ne devienne sa propre ennemie.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  continue reading

1376 episodes

Artwork
iconPartager
 
Manage episode 455971144 series 2709331
Contenu fourni par Choses à Savoir. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Choses à Savoir ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

L’intelligence artificielle, jadis présentée comme une révolution technologique, serait-elle en train de se tirer une balle dans le pied ? En misant de plus en plus sur des données synthétiques plutôt que sur des données humaines, les entreprises et laboratoires ont ouvert la porte à un cercle vicieux : l’apprentissage autoréférentiel. Autrement dit, l’IA se nourrit de ses propres productions, amplifiant erreurs et biais à chaque itération.


Rick Song, PDG de Persona, spécialiste de la vérification d’identité, décrit ce phénomène comme un « effondrement du modèle ». Imaginez un photocopieur qui reproduit sans fin ses propres copies : les documents deviennent flous, perdent en précision. De la même manière, les modèles d’IA s’éloignent progressivement de leur mission initiale, produisant des données de moins en moins fiables. Une étude publiée dans Nature confirme qu’après neuf cycles d’entraînement sur des contenus générés par l’IA, les résultats deviennent incohérents.


Les conséquences sont préoccupantes : réduction de la diversité des données, amplification des biais préexistants, et incapacité à restituer des informations pertinentes. Alors que l’IA est déjà sous le feu des critiques pour ses dérives, comme des incitations au suicide ou à la violence, ce phénomène met en lumière une faille structurelle. Pourtant, des solutions existent. Rick Song appelle à une refonte complète des pratiques. Cela passe par des outils de traçabilité sophistiqués, des partenariats pour garantir des données d’origine humaine et une vigilance accrue face aux contenus synthétiques. L’objectif est clair : reconstruire une IA ancrée dans la réalité, capable d’évoluer sans s’enfermer dans une boucle stérile. La balle est désormais dans le camp des entreprises technologiques. Elles doivent privilégier l’intégrité et la transparence pour éviter que l’IA ne devienne sa propre ennemie.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  continue reading

1376 episodes

Tous les épisodes

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide