Artwork

Contenu fourni par Programas Arquivos - Engenharia Rádio. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Programas Arquivos - Engenharia Rádio ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.
Player FM - Application Podcast
Mettez-vous hors ligne avec l'application Player FM !

INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial?

30:41
 
Partager
 

Manage episode 390748956 series 2480659
Contenu fourni par Programas Arquivos - Engenharia Rádio. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Programas Arquivos - Engenharia Rádio ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Science Bits é um podcast produzido pelo INESC TEC e Engenharia Rádio, que aborda as últimas tendências de ciência e tecnologia. Neste mês, vamos falar sobre a utilização de modelos de inteligência artificial para reconhecimento facial.

Em agosto de 2023, chegavam-nos notícias do outro lado do Atlântico que davam conta de que uma mulher de 32 anos, chamada Porcha Woodruff, havia sido erradamente detida, devido a um erro na tecnologia de reconhecimento facial da polícia de Detroit. Segundo a imprensa norte-americana tratava-se da sexta pessoa a ser detida de forma indevida por falhas nos modelos de inteligência artificial – todas pessoas negras. Certo é que vários estudos indicam que existe um problema de viés na utilização desta tecnologia. Um dos exemplos é o estudo “Gender Shades” de 2018, que avaliou três algoritmos de classificação de género, incluindo modelos desenvolvidos pela IBM e pela Microsoft. Os três algoritmos apresentaram um pior desempenho em mulheres com tom de pele escuro. Já em homens com tom de pele claro, o erro ficou abaixo de um por cento.

No início deste mês, a Europa alcançou um acordo para regular a Inteligência Artificial. Depois de uma maratona de negociações que durou mais de 30 horas, os colegisladores da União Europeia, Conselho e Parlamento Europeu convergiram para avançar com aquela que será a primeira lei do mundo a ditar as regras para a utilização de IA. A AI Act prevê, entre outras, a proibição de sistemas de categorização biométrica que utilizem caraterísticas sensíveis, nomeadamente “convicções políticas, religiosas, filosóficas, orientação sexual ou etnia”. A exceção vai para o recurso a sistemas de vigilância biométrica para identificação de vítimas ou em casos de crimes considerados graves, por exemplo.

Mas, porque se verifica este viés? Qual poderá ser a solução? É o que vamos descobrir na conversa com Pedro Neto, Investigador do INESC TEC.

Pedro Neto, Investigador do INESC TEC

Recentemente, o artigo “Compressed Models Decompress Race Biases: What Quantized ModelsForget for Fair Face Recognition” da autoria de Pedro Neto, Eduarda Caldeira, Jaime Cardoso e Ana Sequeira, investigadores do INESC TEC, foi distinguido na edição de 2023 da International Conference of the Biometrics Special Interest Group (BIOSIG). O trabalho de investigação conclui que a utilização de modelos de inteligência artificial comprimidos para reconhecimento facial pode resultar num viés racial. O estudo identifica também uma potencial estratégia para resposta a esta problemática, através do uso de dados sintéticos. Mais informação aqui.

O conteúdo INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial? aparece primeiro em Engenharia Rádio.

  continue reading

301 episodes

Artwork
iconPartager
 
Manage episode 390748956 series 2480659
Contenu fourni par Programas Arquivos - Engenharia Rádio. Tout le contenu du podcast, y compris les épisodes, les graphiques et les descriptions de podcast, est téléchargé et fourni directement par Programas Arquivos - Engenharia Rádio ou son partenaire de plateforme de podcast. Si vous pensez que quelqu'un utilise votre œuvre protégée sans votre autorisation, vous pouvez suivre le processus décrit ici https://fr.player.fm/legal.

Science Bits é um podcast produzido pelo INESC TEC e Engenharia Rádio, que aborda as últimas tendências de ciência e tecnologia. Neste mês, vamos falar sobre a utilização de modelos de inteligência artificial para reconhecimento facial.

Em agosto de 2023, chegavam-nos notícias do outro lado do Atlântico que davam conta de que uma mulher de 32 anos, chamada Porcha Woodruff, havia sido erradamente detida, devido a um erro na tecnologia de reconhecimento facial da polícia de Detroit. Segundo a imprensa norte-americana tratava-se da sexta pessoa a ser detida de forma indevida por falhas nos modelos de inteligência artificial – todas pessoas negras. Certo é que vários estudos indicam que existe um problema de viés na utilização desta tecnologia. Um dos exemplos é o estudo “Gender Shades” de 2018, que avaliou três algoritmos de classificação de género, incluindo modelos desenvolvidos pela IBM e pela Microsoft. Os três algoritmos apresentaram um pior desempenho em mulheres com tom de pele escuro. Já em homens com tom de pele claro, o erro ficou abaixo de um por cento.

No início deste mês, a Europa alcançou um acordo para regular a Inteligência Artificial. Depois de uma maratona de negociações que durou mais de 30 horas, os colegisladores da União Europeia, Conselho e Parlamento Europeu convergiram para avançar com aquela que será a primeira lei do mundo a ditar as regras para a utilização de IA. A AI Act prevê, entre outras, a proibição de sistemas de categorização biométrica que utilizem caraterísticas sensíveis, nomeadamente “convicções políticas, religiosas, filosóficas, orientação sexual ou etnia”. A exceção vai para o recurso a sistemas de vigilância biométrica para identificação de vítimas ou em casos de crimes considerados graves, por exemplo.

Mas, porque se verifica este viés? Qual poderá ser a solução? É o que vamos descobrir na conversa com Pedro Neto, Investigador do INESC TEC.

Pedro Neto, Investigador do INESC TEC

Recentemente, o artigo “Compressed Models Decompress Race Biases: What Quantized ModelsForget for Fair Face Recognition” da autoria de Pedro Neto, Eduarda Caldeira, Jaime Cardoso e Ana Sequeira, investigadores do INESC TEC, foi distinguido na edição de 2023 da International Conference of the Biometrics Special Interest Group (BIOSIG). O trabalho de investigação conclui que a utilização de modelos de inteligência artificial comprimidos para reconhecimento facial pode resultar num viés racial. O estudo identifica também uma potencial estratégia para resposta a esta problemática, através do uso de dados sintéticos. Mais informação aqui.

O conteúdo INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial? aparece primeiro em Engenharia Rádio.

  continue reading

301 episodes

すべてのエピソード

×
 
Loading …

Bienvenue sur Lecteur FM!

Lecteur FM recherche sur Internet des podcasts de haute qualité que vous pourrez apprécier dès maintenant. C'est la meilleure application de podcast et fonctionne sur Android, iPhone et le Web. Inscrivez-vous pour synchroniser les abonnements sur tous les appareils.

 

Guide de référence rapide