Mercado fechará em 2 h 33 min
  • BOVESPA

    123.984,26
    -2.019,60 (-1,60%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    50.871,84
    -25,95 (-0,05%)
     
  • PETROLEO CRU

    71,36
    -0,55 (-0,76%)
     
  • OURO

    1.799,90
    +0,70 (+0,04%)
     
  • BTC-USD

    37.698,15
    -1.515,13 (-3,86%)
     
  • CMC Crypto 200

    891,12
    +14,89 (+1,70%)
     
  • S&P500

    4.372,63
    -49,67 (-1,12%)
     
  • DOW JONES

    34.912,09
    -232,22 (-0,66%)
     
  • FTSE

    6.996,08
    -29,35 (-0,42%)
     
  • HANG SENG

    25.086,43
    -1.105,89 (-4,22%)
     
  • NIKKEI

    27.970,22
    +136,93 (+0,49%)
     
  • NASDAQ

    14.804,25
    -313,50 (-2,07%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,1230
    +0,0127 (+0,21%)
     

Estudo revela que YouTube recomenda vídeos que violam seus termos de uso

·3 minuto de leitura

Um estudo conduzido pela Mozilla Foundation concluiu que o algoritmo do YouTube é responsável por recomendar aos usuários vídeos que violam as próprias políticas de conteúdo da plataforma.

A pesquisa descobriu que 71% dos vídeos marcados como “Nocivo e perigoso” pelos participantes da avaliação foram sugeridos a outras pessoas pelo próprio site de hospedagem de vídeos. Curiosamente, os não falantes da língua inglesa foram os perfis mais propensos a encontrar conteúdos perturbadores, como uma taxa média de 60% de arrependimento.

O relatório foi montado por meio da coleta de dados do RegretsReporter, uma extensão de navegador criada pela Mozilla exatamente para tal finalidade. Ela permite responder se a experiência com a recomendação foi negativa e qual indicação levou até um vídeo. Assim, dá para cruzar os vídeos e identificar se existe relação entre os conteúdos.

A extensão deixa que o usuário diga que o vídeo recomendado foi positivo ou negativo, com base no seu hábito (Imagem: Reprodução/Mozilla)
A extensão deixa que o usuário diga que o vídeo recomendado foi positivo ou negativo, com base no seu hábito (Imagem: Reprodução/Mozilla)

Esse experimento teve a participação de mais de 30 mil usuários do YouTube, portanto se trata de uma amostra bastante relevante.

Violação das próprias políticas

A Mozilla afirma ter sinalizado um total de 3.362 vídeos como “Nocivo e perigoso”, originários de 91 países, entre julho de 2020 e maio de 2021. Dentre os principais assuntos estavam conteúdos que promoviam a desinformação, violência explícita, discursos de ódio e tentativas de golpe virtual.

Em um caso, o voluntário assistiu conteúdos sobre as forças armadas dos Estados Unidos. Logo após a conclusão, o site redirecionou ele para um vídeo em que um homem “humilhava uma feminista”, com conteúdo misógino e inapropriado.

O levantamento revela que 200 vídeos recomendados pelo algoritmo do YouTube foram removidos pouco tempo depois, mas chegaram a acumular juntos 160 milhões de visualizações. Em muitos casos, como nos envolvendo golpistas, a remoção pode ter vindo tarde demais.

Mesmo violando as diretrizes, alguns vídeos são recomendados pelo próprio site (Imagem: Reprodução/YouTube)
Mesmo violando as diretrizes, alguns vídeos são recomendados pelo próprio site (Imagem: Reprodução/YouTube)

Segundo a fundação, é possível afirmar que o mecanismo da rede social de vídeos está projetado hoje para prejudicar e desinformar as pessoas. A empresa reforça que tal prática é ainda mais perigosa porque é voltada para quem não tem o inglês como língua nativa, o que pode gerar falhas de comunicação ou incompreensão.

A companhia afirma ter entregue o resultado ao site para que sejam tomadas providências quanto à necessidade de aprimoramento da inteligência artificial.

Dados bem relevantes

Só para ficar clara a importância do sistema de recomendação de vídeos: 70% do tempo de visualização na plataforma (o que dá um total de 700 milhões de horas por dia) é proveniente de algum conteúdo indicado pelo YouTube. As pessoas vão emendando um vídeo no outro porque eles, teoricamente, trazem coisas do seu interesse.

O grande problema é que vários conteúdos nocivos encontram desempenho bom na plataforma. Em alguns casos, eles chegam a ter sete vezes mais acessos diários do que conteúdos mais “normais”.

Isso não significa que as recomendações do YouTube sejam ruins. Em mais de 43% dos casos analisados pela pesquisa, os voluntários disseram que a recomendação estava completamente relacionada com os vídeos anteriores.

Por enquanto, não houve nenhuma manifestação formal da rede sobre essa acusação. Assim que algo novo surgir, o Canaltech trará a informação em primeira mão para os leitores.

Fonte: Canaltech

Trending no Canaltech:

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos