Mercado fechado
  • BOVESPA

    106.858,87
    +1.789,18 (+1,70%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    50.594,10
    -3,19 (-0,01%)
     
  • PETROLEO CRU

    69,96
    +3,70 (+5,58%)
     
  • OURO

    1.777,30
    -4,70 (-0,26%)
     
  • BTC-USD

    49.314,43
    +399,89 (+0,82%)
     
  • CMC Crypto 200

    1.276,71
    +16,55 (+1,31%)
     
  • S&P500

    4.591,67
    +53,24 (+1,17%)
     
  • DOW JONES

    35.227,03
    +646,95 (+1,87%)
     
  • FTSE

    7.232,28
    +109,96 (+1,54%)
     
  • HANG SENG

    23.349,38
    -417,31 (-1,76%)
     
  • NIKKEI

    27.927,37
    -102,20 (-0,36%)
     
  • NASDAQ

    15.842,75
    +125,00 (+0,80%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,4232
    +0,0279 (+0,44%)
     

Inteligência Artificial não diminui discurso de ódio no Facebook

·3 min de leitura
Sistemas de inteligência artificial sinalizaram e divulgaram cerca de 0,6% de todo o conteúdo que violava as políticas do Facebook contra violência e incitação. (Chesnot/Getty Images)
  • Vice-presidente de integridade da companhia escreveu em blog para desmentir WSJ

  • Relatórios internos apontam que apenas 0,6% dos discursos de ódios foram retirados

  • Funcionários da companhia estão preocupados com exposição feita pelo WSJ

O vice-presidente de integridade do Facebook, Guy Rosen, tocou o alarme da empresa de mídia social por moderar conteúdo prejudicial, escrevendo em uma postagem de blog que a prevalência de discurso de ódio na plataforma caiu quase pela metade desde julho de 2020. A postagem parecia estar em a resposta a uma série de reportagens condenatórias do Wall Street Journal e depoimentos da denunciante Frances Haugen, descrevendo como a empresa de mídia social está envenenando conscientemente a sociedade.

Leia também

“Dados extraídos de documentos que vazaram estão sendo usados ​​para criar uma narrativa de que a tecnologia que usamos para combater a incitação ao ódio é inadequada e que deturpamos deliberadamente nosso progresso”, disse Rosen. "Isso não é verdade."

Ele argumentou que era “errado” julgar o sucesso do Facebook em combater o discurso de ódio com base apenas na remoção de conteúdo. A diminuição da visibilidade deste conteúdo é uma métrica mais significativa. Para suas métricas internas, o Facebook rastreia a prevalência de discurso de ódio em sua plataforma, que caiu quase 50% nos últimos três trimestres para 0,05% do conteúdo visualizado, ou cerca de cinco visualizações em cada 10.000, de acordo com Rosen.

Isso porque, quando se trata de remover conteúdo, a empresa muitas vezes erra no lado da cautela, explicou ele. Suponha que o Facebook suspeite que uma parte do conteúdo - seja uma única postagem, uma página ou um grupo inteiro - viola seus regulamentos, mas "não é confiante o suficiente" para justificar a remoção. Nesse caso, o conteúdo pode permanecer na plataforma, mas os sistemas internos do Facebook irão limitar silenciosamente o alcance da postagem ou retirá-la das recomendações para os usuários.

Funcionários da companhia estão preocupados com exposição

No último domingo (17), o Wall Street Journal soltou mais uma matéria expondo a empresa de Mark Zuckerberg. Os funcionários do Facebook disseram ao canal que estavam preocupados com o fato de a empresa não ser capaz de rastrear de forma confiável conteúdo ofensivo. Dois anos atrás, o Facebook reduziu a quantidade de tempo que suas equipes de revisores humanos tinham para se concentrar em reclamações de discurso de ódio dos usuários e reduziu o número geral de reclamações, mudando em vez da aplicação de IA dos regulamentos da plataforma, de acordo com o Journal. Os funcionários alegaram que isso serviu para aumentar o aparente sucesso da tecnologia de moderação do Facebook em suas estatísticas públicas.

Uma equipe de pesquisa interna descobriu em março que os sistemas automatizados do Facebook estavam removendo postagens que geravam entre 3 a 5% das visualizações de discurso de ódio na plataforma. Esses mesmos sistemas sinalizaram e divulgaram cerca de 0,6% de todo o conteúdo que violava as políticas do Facebook contra violência e incitação. 

O Facebook contestou veementemente esses relatórios, com o vice-presidente de assuntos globais da empresa, Nick Clegg, chamando-os de "caracterizações errôneas deliberadas" que usam citações escolhidas a dedo de material vazado para criar "uma visão deliberadamente distorcida dos fatos mais amplos".

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos