Artwork

Engenharia Rádio에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Engenharia Rádio 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial?

30:41
 
공유
 

Manage episode 390744232 series 2480626
Engenharia Rádio에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Engenharia Rádio 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

Science Bits é um podcast produzido pelo INESC TEC e Engenharia Rádio, que aborda as últimas tendências de ciência e tecnologia. Neste mês, vamos falar sobre a utilização de modelos de inteligência artificial para reconhecimento facial.

Em agosto de 2023, chegavam-nos notícias do outro lado do Atlântico que davam conta de que uma mulher de 32 anos, chamada Porcha Woodruff, havia sido erradamente detida, devido a um erro na tecnologia de reconhecimento facial da polícia de Detroit. Segundo a imprensa norte-americana tratava-se da sexta pessoa a ser detida de forma indevida por falhas nos modelos de inteligência artificial – todas pessoas negras. Certo é que vários estudos indicam que existe um problema de viés na utilização desta tecnologia. Um dos exemplos é o estudo “Gender Shades” de 2018, que avaliou três algoritmos de classificação de género, incluindo modelos desenvolvidos pela IBM e pela Microsoft. Os três algoritmos apresentaram um pior desempenho em mulheres com tom de pele escuro. Já em homens com tom de pele claro, o erro ficou abaixo de um por cento.

No início deste mês, a Europa alcançou um acordo para regular a Inteligência Artificial. Depois de uma maratona de negociações que durou mais de 30 horas, os colegisladores da União Europeia, Conselho e Parlamento Europeu convergiram para avançar com aquela que será a primeira lei do mundo a ditar as regras para a utilização de IA. A AI Act prevê, entre outras, a proibição de sistemas de categorização biométrica que utilizem caraterísticas sensíveis, nomeadamente “convicções políticas, religiosas, filosóficas, orientação sexual ou etnia”. A exceção vai para o recurso a sistemas de vigilância biométrica para identificação de vítimas ou em casos de crimes considerados graves, por exemplo.

Mas, porque se verifica este viés? Qual poderá ser a solução? É o que vamos descobrir na conversa com Pedro Neto, Investigador do INESC TEC.

Pedro Neto, Investigador do INESC TEC

Recentemente, o artigo “Compressed Models Decompress Race Biases: What Quantized ModelsForget for Fair Face Recognition” da autoria de Pedro Neto, Eduarda Caldeira, Jaime Cardoso e Ana Sequeira, investigadores do INESC TEC, foi distinguido na edição de 2023 da International Conference of the Biometrics Special Interest Group (BIOSIG). O trabalho de investigação conclui que a utilização de modelos de inteligência artificial comprimidos para reconhecimento facial pode resultar num viés racial. O estudo identifica também uma potencial estratégia para resposta a esta problemática, através do uso de dados sintéticos. Mais informação aqui.

O conteúdo INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial? aparece primeiro em Engenharia Rádio.

  continue reading

302 에피소드

Artwork
icon공유
 
Manage episode 390744232 series 2480626
Engenharia Rádio에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Engenharia Rádio 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

Science Bits é um podcast produzido pelo INESC TEC e Engenharia Rádio, que aborda as últimas tendências de ciência e tecnologia. Neste mês, vamos falar sobre a utilização de modelos de inteligência artificial para reconhecimento facial.

Em agosto de 2023, chegavam-nos notícias do outro lado do Atlântico que davam conta de que uma mulher de 32 anos, chamada Porcha Woodruff, havia sido erradamente detida, devido a um erro na tecnologia de reconhecimento facial da polícia de Detroit. Segundo a imprensa norte-americana tratava-se da sexta pessoa a ser detida de forma indevida por falhas nos modelos de inteligência artificial – todas pessoas negras. Certo é que vários estudos indicam que existe um problema de viés na utilização desta tecnologia. Um dos exemplos é o estudo “Gender Shades” de 2018, que avaliou três algoritmos de classificação de género, incluindo modelos desenvolvidos pela IBM e pela Microsoft. Os três algoritmos apresentaram um pior desempenho em mulheres com tom de pele escuro. Já em homens com tom de pele claro, o erro ficou abaixo de um por cento.

No início deste mês, a Europa alcançou um acordo para regular a Inteligência Artificial. Depois de uma maratona de negociações que durou mais de 30 horas, os colegisladores da União Europeia, Conselho e Parlamento Europeu convergiram para avançar com aquela que será a primeira lei do mundo a ditar as regras para a utilização de IA. A AI Act prevê, entre outras, a proibição de sistemas de categorização biométrica que utilizem caraterísticas sensíveis, nomeadamente “convicções políticas, religiosas, filosóficas, orientação sexual ou etnia”. A exceção vai para o recurso a sistemas de vigilância biométrica para identificação de vítimas ou em casos de crimes considerados graves, por exemplo.

Mas, porque se verifica este viés? Qual poderá ser a solução? É o que vamos descobrir na conversa com Pedro Neto, Investigador do INESC TEC.

Pedro Neto, Investigador do INESC TEC

Recentemente, o artigo “Compressed Models Decompress Race Biases: What Quantized ModelsForget for Fair Face Recognition” da autoria de Pedro Neto, Eduarda Caldeira, Jaime Cardoso e Ana Sequeira, investigadores do INESC TEC, foi distinguido na edição de 2023 da International Conference of the Biometrics Special Interest Group (BIOSIG). O trabalho de investigação conclui que a utilização de modelos de inteligência artificial comprimidos para reconhecimento facial pode resultar num viés racial. O estudo identifica também uma potencial estratégia para resposta a esta problemática, através do uso de dados sintéticos. Mais informação aqui.

O conteúdo INESC TEC Science Bits #37 -Será possível mitigar o viés nos algoritmos de reconhecimento facial? aparece primeiro em Engenharia Rádio.

  continue reading

302 에피소드

Wszystkie odcinki

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

빠른 참조 가이드