Mercado fechado
  • BOVESPA

    113.750,22
    +1.458,62 (+1,30%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    43.646,03
    -288,18 (-0,66%)
     
  • PETROLEO CRU

    46,09
    +0,45 (+0,99%)
     
  • OURO

    1.842,00
    +0,90 (+0,05%)
     
  • BTC-USD

    18.924,22
    +29,70 (+0,16%)
     
  • CMC Crypto 200

    365,19
    -14,05 (-3,71%)
     
  • S&P500

    3.699,12
    +32,40 (+0,88%)
     
  • DOW JONES

    30.218,26
    +248,74 (+0,83%)
     
  • FTSE

    6.550,23
    +59,96 (+0,92%)
     
  • HANG SENG

    26.835,92
    +107,42 (+0,40%)
     
  • NIKKEI

    26.751,24
    -58,13 (-0,22%)
     
  • NASDAQ

    12.509,25
    +47,00 (+0,38%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,2497
    +0,0137 (+0,22%)
     

IA ajudou Facebook contra discurso de ódio, mas moderação ainda é necessária

Felipe Demartini
·4 minuto de leitura

Em mais uma edição de seu relatório periódico de transparência, o Facebook demonstrou que seus sistemas de inteligência artificial foram fundamentais no combate ao discurso de ódio e violência em suas plataformas, principalmente com a adoção de novas normas no início deste ano. Segundo a companhia, hoje, cerca de 0,1% da audiência registrada na plataforma corresponde a tais conteúdos, o que equivale a uma visualização para cada 1.000.

No terceiro trimestre de 2020, foram 6,5 milhões de publicações retiradas do ar, um aumento de mais de nove vezes em relação ao final do ano passado. O relatório, publicado nesta quinta (20), também traz dados sobre o uso das IAs que moderam conteúdo e seriam capazes de remover 95% dos materiais irregulares do Facebook e Instagram antes mesmo de serem denunciados por alguém. A taxa seria equivalente em ambas as plataformas, apesar do caráter intrinsicamente diferente entre elas no que toca o uso de textos e o destaque para as imagens.

O Facebook considerou os dados positivos por, principalmente, representarem um salto importante. Em 2017, a remoção “proativa” de publicações, como é chamada, era de apenas 24%, e na medida em que a rede social ganhou usuários, também melhoraram muito suas tecnologias de detecção de discurso impróprio. Isso ajudou, por exemplo, a ampliar também o combate a grupos organizados que disseminam o ódio e a violência, com 224,7 mil remoções de conteúdo relacionadas a tais bandos, contra 139,9 mil no final de 2019.

Ainda assim, a rede social ressalta a importância da moderação humana e defendeu sua decisão, nesta semana, de pedir que alguns funcionários desse segmento retornem ao escritório. Uma carta aberta foi assinada por mais de 200 colaboradores do setor, citando a pandemia do novo coronavírus e pedindo que a empresa os deixe trabalhar de casa, como acontece com outros grupos do mesmo segmento.

<em>Gráfico mostra evolução na retirada proativa de conteúdos no Facebook e Instagram; empresa se diz satisfeita com resultados, mas solicitou o retorno de moderadores aos escritórios e continua desenvolvendo tecnologia (Imagem: Divulgação/Facebook)</em>
Gráfico mostra evolução na retirada proativa de conteúdos no Facebook e Instagram; empresa se diz satisfeita com resultados, mas solicitou o retorno de moderadores aos escritórios e continua desenvolvendo tecnologia (Imagem: Divulgação/Facebook)

Em resposta, o vice-presidente de integridade do Facebook, Guy Rosen, afirmou que conteúdos sensíveis podem ter de ser revisados pela equipe, e que isso precisa ser feito dos escritórios devido aos sistemas de segurança e proteção de dados existentes lá, além da possível presença de outras pessoas nas residências dos trabalhadores, que não devem ter acesso ao material. Segundo o executivo, as áreas de trabalho foram retrabalhadas e todos os protocolos de saúde estão sendo tomados para garantir que não sejam um foco de contaminação, enquanto outros funcionários do mesmo setor, mas envolvidos em questões de moderação menos delicadas, permanecem em home office.

A pandemia do novo coronavírus também foi citada como uma questão no relatório de transparência, com o Facebook afirmando que, inicialmente, alguns destes conteúdos mais sensíveis não passaram por revisão humana, justamente, pelo fato de não poderem ser enviados para os computadores das casas dos trabalhadores. Para compensar, a empresa trabalhou em seus sistemas de inteligência artificial para que detectassem de forma mais assertiva tais publicações, o que fez com que os índices de retirada de conteúdo, que caíram no primeiro semestre, retornassem aos níveis normais neste segundo.

Pressão de cima

Ainda assim, há muito trabalho a fazer. O Facebook admite que a parte mais complicada do sistema é fazer com que a IA entenda diferenças territoriais e assuntos de interesse para diferentes partes do globo, bem como expressões idiomáticas e discursos específicos. A rede social ressalta, ainda, que novas tendências de discurso de ódio vivem surgindo, justamente, quando a anterior apresenta mais detecção ou com base em novas notícias ou movimentos, o que faz com que o desenvolvimento da tecnologia tenha de ser constante.

Além disso, e por mais que a maioria das detecções aconteça antes da denúncia dos usuários, essa continua sendo uma parte importante do trabalho, principalmente, por ajudar a determinar essas diferenças entre países. O objetivo final, afirma o relatório, é garantir uma experiência segura no Facebook e Instagram, com a empresa acreditando estar conseguindo fazer isso.

Os senadores americanos, porém, não pensam da mesma forma. Em uma audiência na última semana, 15 representantes do país fizeram um alerta ao Facebook sobre falhas na moderação de discurso de ódio, principalmente, voltado a muçulmanos. A pressão, agora, é por regulações que controlem e punam empresas que falharem em esforços de moderação, enquanto a publicação de relatórios de transparência foi defendida pelo CEO Mark Zuckerberg como uma forma, justamente, de mostrar o trabalho que está sendo realizado pela rede social.

Fonte: Canaltech

Trending no Canaltech: