Mercado fechado
  • BOVESPA

    98.953,90
    +411,95 (+0,42%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    47.743,15
    +218,70 (+0,46%)
     
  • PETROLEO CRU

    108,46
    +2,70 (+2,55%)
     
  • OURO

    1.812,90
    +5,60 (+0,31%)
     
  • BTC-USD

    19.239,12
    -189,33 (-0,97%)
     
  • CMC Crypto 200

    420,84
    +0,70 (+0,17%)
     
  • S&P500

    3.825,33
    +39,95 (+1,06%)
     
  • DOW JONES

    31.097,26
    +321,83 (+1,05%)
     
  • FTSE

    7.168,65
    -0,63 (-0,01%)
     
  • HANG SENG

    21.859,79
    -137,10 (-0,62%)
     
  • NIKKEI

    25.935,62
    -457,42 (-1,73%)
     
  • NASDAQ

    11.610,50
    +81,00 (+0,70%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    5,5587
    +0,0531 (+0,96%)
     

Brasileiro cria bot no Twitter que debocha racistas e homofóbicos

·2 min de leitura
Twitter se utiliza de moderação e inteligência artificial para analisar e excluir conteúdos de discurso de ódio (Thomas Trutschel/Photothek via Getty Images)
Twitter se utiliza de moderação e inteligência artificial para analisar e excluir conteúdos de discurso de ódio (Thomas Trutschel/Photothek via Getty Images)
  • Após interação, publicações são analisadas e denunciadas para a plataforma;

  • Objetivo é entender como o Twitter lida com os conteúdos nocivos em seu site;

  • David Nemer é autor do livro Tecnologia do Oprimido.

O brasileiro David Nemer é professor universitário nos Estados Unidos, trabalhando na Universidade de Virgínia. Em 2022, no entanto, ele foi chamado para lecionar como visitante na Universidade de Harvard, uma das mais prestigiosas do mundo. Em meio a tanto trabalho, ele ainda teve tempo de desenvolver um bot no Twitter que caçoa de racistas e homofóbicos na plataforma.

A aplicação funciona assim: o código faz uma varredura das novas publicações na rede social e, ao encontrar alguns termos pré-determinados, faz um tuíte de resposta para interagir com a conta. Ao invés de se colocar combativa e provocadora, as respostas são sempre divertidas, com trechos de músicas, frases de motivação, ou curiosidades. A partir disso uma pessoa analisa as contas interagidas e verifica se o tuíte contém realmente discurso de ódio e o denuncia.

O objetivo, segundo o professor, é entender como as denúncias são analisadas pela empresa. Sabe-se que além de contar com as denúncias dos usuários, o Twitter e outras redes sociais empregam algoritmos de inteligência artificial para encontrar e excluir esse tipo de conteúdo.

“A gente sabe que diariamente no Twitter há diversas violações dos termos de serviço e a plataforma não toma providências em todos os casos, apenas em alguns. Então a gente não sabe, de fato, que tipo de conteúdo pode ser retirado. Eles não são transparentes em relação a isso”, disse Nemer.

Autor do livro Tecnologia do Oprimido, em que fala dos usos da tecnologia por populações marginalizadas como formas de se libertarem, David Nemer diz que seu experimento pode não ser sustentável, por ter muita participação de trabalho manual humano. Entretanto, ele ajudará a entender como funciona o algoritmo do Twitter, e como ele pode ser melhorado para ajudar no combate ao discurso de ódio.

Por enquanto o bot ficou apenas duas horas em funcionamento, mas nesse pequeno período de tempo já deu para perceber que contas com publicações homofóbicas tendem a ter seus conteúdos excluídos mais facilmente do que aquelas com conteúdo racista, por exemplo. No teste, diversas contas interagiram com discurso de ódio. Só que depois da denúncia das contas, as únicas que foram suspensas foram as que engajaram com discurso homofóbico”, afirmou.

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos