Mercado fechado

Robôs preconceituosos são resultado de IA defeituosa

Os bancos de dados dos robôs tinham muitas informações imprecisas e tendenciosas (Getty Image)
Os bancos de dados dos robôs tinham muitas informações imprecisas e tendenciosas (Getty Image)
  • Robôs fazem classificações racistas e sexistas na hora de selecionar pessoas

  • Uma explicação estaria na fonte de dados tiradas de conteúdos gratuitos da internet

  • Cientistas realizaram testes com as máquinas para apontar os problemas

Não são apenas os seres humanos que podem ser ensinados a serem racistas e sexistas. Pelo menos é iss que mostra um estudo realizado pelos pesquisadores da Universidade Johns Hopkins, nos Estados Unidos. Os cientistas identificaram que robôs programados com um modelo de inteligência artificial (IA) defeituoso se tornaram preconceituosos.

Como as informações que alimentavam esse sistema era tiradas de conteúdos disponíveis gratuitamente na internet, os bancos de dados tinham muitas informações imprecisas e tendenciosas que contaminavam o algoritmo das máquinas.

No teste, os cientistas realizaram demonstrações com um programa de reconhecimento facial e em uma rede neural projetada para comparar imagens com legendas. Durante o experimento, o robô tinha que colocar objetos com a imagem de rostos humanos em uma caixa.

No resultado final, o robô selecionou 8% mais homens do que mulheres. Os mais escolhidos foram homens brancos e asiáticos, ao mesmo tempo em que mulheres negras foram menos escolhidas. o computador ainda associou mulheres como donas de casa, mais homens negros como criminosos e latinos como zeladores.

“Como os robôs aprendem estereótipos tóxicos por meio desses modelos de rede neural defeituosos, corremos o risco de criar uma geração de máquinas racistas e sexistas, que colocam homens à frente de mulheres ou tiram conclusões precipitadas com base no tom de pele das pessoas”, afirma o pós-doutorando em ciência da computação Andrew Hundt, coautor do estudo.

O estudo sugere que, ao utilizar essas informações da internet sem filtro ou monitoramento, as corporações correm o risco de criar máquinas preconceituosas, que reproduzm padrões de discriminação.

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos