Brasileiro cria bot no Twitter que debocha racistas e homofóbicos
Após interação, publicações são analisadas e denunciadas para a plataforma;
Objetivo é entender como o Twitter lida com os conteúdos nocivos em seu site;
David Nemer é autor do livro Tecnologia do Oprimido.
O brasileiro David Nemer é professor universitário nos Estados Unidos, trabalhando na Universidade de Virgínia. Em 2022, no entanto, ele foi chamado para lecionar como visitante na Universidade de Harvard, uma das mais prestigiosas do mundo. Em meio a tanto trabalho, ele ainda teve tempo de desenvolver um bot no Twitter que caçoa de racistas e homofóbicos na plataforma.
A aplicação funciona assim: o código faz uma varredura das novas publicações na rede social e, ao encontrar alguns termos pré-determinados, faz um tuíte de resposta para interagir com a conta. Ao invés de se colocar combativa e provocadora, as respostas são sempre divertidas, com trechos de músicas, frases de motivação, ou curiosidades. A partir disso uma pessoa analisa as contas interagidas e verifica se o tuíte contém realmente discurso de ódio e o denuncia.
O objetivo, segundo o professor, é entender como as denúncias são analisadas pela empresa. Sabe-se que além de contar com as denúncias dos usuários, o Twitter e outras redes sociais empregam algoritmos de inteligência artificial para encontrar e excluir esse tipo de conteúdo.
“A gente sabe que diariamente no Twitter há diversas violações dos termos de serviço e a plataforma não toma providências em todos os casos, apenas em alguns. Então a gente não sabe, de fato, que tipo de conteúdo pode ser retirado. Eles não são transparentes em relação a isso”, disse Nemer.
Autor do livro Tecnologia do Oprimido, em que fala dos usos da tecnologia por populações marginalizadas como formas de se libertarem, David Nemer diz que seu experimento pode não ser sustentável, por ter muita participação de trabalho manual humano. Entretanto, ele ajudará a entender como funciona o algoritmo do Twitter, e como ele pode ser melhorado para ajudar no combate ao discurso de ódio.
Por enquanto o bot ficou apenas duas horas em funcionamento, mas nesse pequeno período de tempo já deu para perceber que contas com publicações homofóbicas tendem a ter seus conteúdos excluídos mais facilmente do que aquelas com conteúdo racista, por exemplo. No teste, diversas contas interagiram com discurso de ódio. Só que depois da denúncia das contas, as únicas que foram suspensas foram as que engajaram com discurso homofóbico”, afirmou.