Mercado abrirá em 8 h 59 min
  • BOVESPA

    120.700,67
    +405,99 (+0,34%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    48.514,10
    +184,26 (+0,38%)
     
  • PETROLEO CRU

    63,45
    -0,01 (-0,02%)
     
  • OURO

    1.763,70
    -3,10 (-0,18%)
     
  • BTC-USD

    63.024,42
    +44,50 (+0,07%)
     
  • CMC Crypto 200

    1.400,70
    +19,75 (+1,43%)
     
  • S&P500

    4.170,42
    +45,76 (+1,11%)
     
  • DOW JONES

    34.035,99
    +305,10 (+0,90%)
     
  • FTSE

    6.983,50
    +43,92 (+0,63%)
     
  • HANG SENG

    28.825,08
    +31,94 (+0,11%)
     
  • NIKKEI

    29.721,67
    +78,98 (+0,27%)
     
  • NASDAQ

    13.971,75
    -42,25 (-0,30%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,7120
    -0,0091 (-0,14%)
     

Facebook lança ferramenta contra viés de IA, mas comunidade acha que é pouco

Wagner Wakka
·2 minuto de leitura

O Facebook já havia anunciado um mecanismo que colabora para que inteligências artificiais sejam menos enviesadas na rede social. Agora, a companhia divulgou o toolkit chamado Fairness Flow.

Um toolkit é um conjunto de ferramentas com que desenvolvedores podem trabalhar. Segundo a rede social, um dos objetivos é detectar vieses estatísticos e corrigir os dados usados pela inteligência artificial.

A questão já está em discussão há tempos no mundo da tecnologia. O problema do enviesamento de inteligências artificiais está intimamente ligado ao banco de dados que possui. Por exemplo, se um banco de dados não conta com pessoas negras para análise, isso faz com que todo processo se torne enviesado e excludente. É isso que o Facebook quer evitar.

O Fairness Flow teria a capacidade de reconhecer os dados estruturados e estimar o desempenho em análise de inteligência artificial. Assim, poderia informar se aquele conjunto de dados é acurado para uma análise específica, supondo diferentes grupos.

De acordo com o MIT Tech Review, contudo, o mecanismo ainda é “insuficiente para arrumar os problemas de desinformações, extremismo e polarização política na rede social”. O veículo alega que o movimento é voltado para que o Facebook fuja da necessidade de regulação.

Já o grupo de pesquisas em IA da Universidade de Londres disse ao VentureBeat que um dos problemas é a falta de informação sobre o Fairness Flow. Segundo a instituição, a questão está em o Facebook ainda manter os dados enviesados na rede social. “Parece que o objetivo da ferramenta é conectar as expectativas dos engenheiros do Facebook com resultados esperados pelos modelos. Ou seja, toda pocaria enviesada de publicidade de dados que entraram e saíram ainda estão lá”, explica Mike Cook, pesquisador da Universidade de Londres.

A crítica está em dizer que ainda é possível manter os dados enviesados, caso os pesquisadores queiram que eles assim sejam. “Por exemplo, é razoável que uma tecnologia mostre uma publicidade primeiro para homens, se o Facebook entende que a majoritariamente são os homens que clicam nisso? Isso está de acordo com os padrões de equidade colocados aqui, mas, a meu ver, o sistema não vai atrás da conta que escreveu a publicidade, nem do tom, nem do estado da companhia que está divulgando isso, ou dos problemas inerentes da indústria na qual a companhia está. Ou seja, está simplesmente reagindo à ‘verdade-base’ observável”, aponta o pesquisador.

Apesar das críticas, o Facebook já disponibilizou a ferramenta para todos times da companhia e disse que o modelo pode ser aplicado inclusive nos desenvolvimentos já em andamento.

Fonte: Canaltech

Trending no Canaltech: