Mercado abrirá em 6 h 4 min

Tecnologia de reconhecimento facial de gigantes tech apresenta padrões racistas

Claudio Yuge

A tecnologia de reconhecimento facial, que antes estava presente somente em smartphones e redes sociais, aos poucos vem ganhando contornos mais complexos nos mais diferentes sistemas, principalmente nos de monitoramento. Ela promete estar cada vez mais presente, mas, há um problema que vem gerando muito discussão: um estudo federal norte-americano descobriu que muitas plataformas apresentam padrões racistas.

De acordo com o Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês), os softwares abordados produziram taxas mais altas de falsos positivos para mulheres, negros e asiáticos do que para homens brancos. Dependendo do algoritmo utilizado, a diferença foi de 10 a 100 vezes. A demografia dos nativos americanos foi a mais afetada. O levantamento do NIST examinou 99 fornecedores, entre eles Intel, Microsoft, Panasonic, SenseTime e Vigilant.

Imagem: Divulgação/NIST

"Embora seja geralmente incorreto fazer declarações entre algoritmos, encontramos evidências empíricas da existência de diferenciais demográficos na maioria dos algoritmos de reconhecimento facial que estudamos. Esses dados serão valiosos para os formuladores de políticas, desenvolvedores e usuários finais ao pensar nas limitações e no uso apropriado desses algoritmos", afirmou o pesquisador Patrick Grother, principal autor do relatório, divulgado nesta quinta-feira (19).

Assunto já gera polêmica desde o ano passado

As agências policiais estadunidenses começaram a adotar a tecnologia de reconhecimento facial como uma ferramenta para rastrear o movimento de pessoas e identificar suspeitos no ano passado. Os defensores das liberdades civis se opuseram a essa tendência, e algumas cidades proibiram os oficiais de usar esse sistema.

O estudo do NIST confirma outra pesquisa, realizada pelo Instituto de Tecnologia de Massachusetts. Nesse caso, os cientistas descobriram que o software da Amazon, o Rekognition, rastreou pessoas de cor com uma taxa mais alta do que as brancas. A companhia de Jeff Bezos criticou o estudo, afirmando que o programa foi manuseado incorretamente.

Imagem: Reprodução/Gemalto

A Amazon não disponibilizou sua plataforma para o exame feito pelo NIST, e um porta-voz da empresa se recusou a comentar o assunto. No passado, o grupo afirmou que seu software em nuvem precisaria ser alterado para ser submetido a esse teste. Por outro lado, o NIST descobriu que fabricantes asiáticas conseguem identificar rostos asiáticos sem errar tanto. "Esses resultados são um sinal encorajador de que dados de treinamento mais diversos podem produzir resultados mais equitativos, caso seja possível para os desenvolvedores usarem esses dados", afirmou Grother.

Fonte: Canaltech