Artwork

Contenu fourni par Washington AI Network with Tammy Haddad: Artificial Intelligence Initiatives in Public Policy, Government, and Business and Washington AI Network. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Washington AI Network with Tammy Haddad: Artificial Intelligence Initiatives in Public Policy, Government, and Business and Washington AI Network ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

27: Elizabeth Kelly, director of the U.S. AI Safety Institute, on AI policy, guidance on misuse, combating harms, international cooperation, and model testing

47:06
 
Partager
 

Manage episode 434214207 series 3501364
Contenu fourni par Washington AI Network with Tammy Haddad: Artificial Intelligence Initiatives in Public Policy, Government, and Business and Washington AI Network. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Washington AI Network with Tammy Haddad: Artificial Intelligence Initiatives in Public Policy, Government, and Business and Washington AI Network ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Elizabeth Kelly, director of the U.S. AI Safety Institute, joins host Tammy Haddad for a live interview at the new Johns Hopkins University Bloomberg Center in Washington, D.C., before a live theater audience. Kelly, who co-authored President Biden’s AI Executive Order, highlights her efforts standing up the U.S. AI Safety Institute at NIST, the Institute’s new draft guidance on AI model misuse, including combatting image-based sexual abuse content generated by AI, and lays out how safety drives innovation and their plans for international cooperation and model testing. Kelly also introduces the Institute’s new head of policy, Conrad Stosz.
  continue reading

35 episodes

Artwork
iconPartager
 
Manage episode 434214207 series 3501364
Contenu fourni par Washington AI Network with Tammy Haddad: Artificial Intelligence Initiatives in Public Policy, Government, and Business and Washington AI Network. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Washington AI Network with Tammy Haddad: Artificial Intelligence Initiatives in Public Policy, Government, and Business and Washington AI Network ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Elizabeth Kelly, director of the U.S. AI Safety Institute, joins host Tammy Haddad for a live interview at the new Johns Hopkins University Bloomberg Center in Washington, D.C., before a live theater audience. Kelly, who co-authored President Biden’s AI Executive Order, highlights her efforts standing up the U.S. AI Safety Institute at NIST, the Institute’s new draft guidance on AI model misuse, including combatting image-based sexual abuse content generated by AI, and lays out how safety drives innovation and their plans for international cooperation and model testing. Kelly also introduces the Institute’s new head of policy, Conrad Stosz.
  continue reading

35 episodes

كل الحلقات

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide