Mercado fechado
  • BOVESPA

    119.710,03
    -3.253,98 (-2,65%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    48.748,41
    -906,88 (-1,83%)
     
  • PETROLEO CRU

    65,76
    +0,48 (+0,74%)
     
  • OURO

    1.814,30
    -21,80 (-1,19%)
     
  • BTC-USD

    54.382,39
    -2.485,84 (-4,37%)
     
  • CMC Crypto 200

    1.470,93
    -92,90 (-5,94%)
     
  • S&P500

    4.063,04
    -89,06 (-2,14%)
     
  • DOW JONES

    33.587,66
    -681,50 (-1,99%)
     
  • FTSE

    7.004,63
    +56,64 (+0,82%)
     
  • HANG SENG

    28.231,04
    +217,23 (+0,78%)
     
  • NIKKEI

    28.147,51
    -461,08 (-1,61%)
     
  • NASDAQ

    12.968,50
    -377,50 (-2,83%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,4044
    +0,0590 (+0,93%)
     

Twitter vai estudar seus próprios algoritmos para descobrir se eles são nocivos

Ramon de Souza
·2 minuto de leitura

Não é de hoje que o Twitter vem sendo amplamente criticado por conta de seus algoritmos supostamente tóxicos — em um dos episódios mais emblemáticos, o sistema de recorte de fotos da plataforma foi chamado de racista por priorizar pessoas de pele branca caso elas aparecessem junto com indivíduos de pele negra. Por conta dessas e outras alegações, a companhia anunciou, nesta quinta-feira, a Iniciativa Responsável de Machine Learning (que, para facilitar, vamos referenciar aqui como IRML).

A ideia é simples: reunir cientistas de dados e engenheiros da companhia para que eles possam, em conjunto, estudar os algoritmos de inteligência artificial do serviço e descobrir se eles realmente são “nocivos de forma não-intencional”, publicando suas descobertas para todos os internautas. Isso inclui a já citada preferência do sistema por pessoas de pele clara e recomendações inapropriadas de publicações prejudiciais, especialmente aquelas que podem causar disputas políticas.

“Quando o Twitter usa machine learning, ele pode impactar centenas de milhões de tweets por dia e, às vezes, a maneira como um sistema foi projetado para ajudar pode começar a se comportar de maneira diferente do que se pretendia. Essas mudanças sutis podem estar começando a impactar as pessoas que usam o Twitter e queremos ter certeza de que estamos estudando essas mudanças e usando-as para construir um produto melhor”, explicou a companhia.

A plataforma ressalta que as pesquisas não serão inúteis — elas guiarão a rede social a ajustar seus algoritmos e melhorar sua aprendizagem de máquina, removendo eventuais algoritmos perigosos e até mesmo dando mais controle aos usuários sobre quais sistemas automatizados eles querem usar. “Os resultados desse trabalho nem sempre se traduzem em mudanças visíveis no produto, mas levam a uma maior conscientização e discussões importantes sobre a maneira como construímos e aplicamos o machine learning”, finaliza.

Fonte: Canaltech

Trending no Canaltech: