Mercado fechado

96% dos deepfakes são pornográficos, segundo relatório

Nathan Vieira

Uma empresa norte-americana chamada Deeptrace fez uma espécie de censo do deepfake durante junho e julho de 2019 e encontrou quase 15 mil vídeos apresentados abertamente como deepfakes — quase o dobro do que foi encontrado sete meses antes. A startup aponta que cerca de 96% dos deepfakes que circulam são de natureza pornográfica. A tecnologia está sendo usada inclusive como ferramenta de assédio.

A Deeptrace diz que as ferramentas necessárias para criar deepfakes estão se tornando mais sofisticadas e mais amplamente disponíveis. O relatório da startup descreve sites e fóruns em que as pessoas compartilham e discutem deepfakes pornográficos. Todas as pessoas editadas nos clipes pornográficos encontrados pela Deeptrace eram mulheres. Os clipes das figuras mais populares — atrizes ocidentais e celebridades pop sul-coreanas — tiveram milhões de visualizações.

No fim de setembro, durante uma aparição no apareceu no programa Power Lunch, da CNBC, Hao Li, um dos especialistas na área dos deepfakes disse que a tecnologia fácil de usar para criar deepfakes perfeitos — que são virtualmente impossíveis de detectar a olho nu — está a apenas seis meses de acontecer. A CNBC mais tarde entrou em contato com Li para perguntar o que havia mudado nos dois dias desde a conferência do MIT, quando ele anunciou que essa perfeição levaria três anos para acontecer, e o especialista respondeu que a mudança de ideia aconteceu devido a um maior foco na tecnologia deepfake e à crescente popularidade de Zao, o principal aplicativo que trabalha com vídeos do tipo.

Will Smith no papel de Keanu Reeves em Matrix, um exemplo de deepfake

Danielle Citron, professora de direito da Universidade de Boston, descreve os deepfakes pornográficos feitos sem o consentimento de uma pessoa como uma "invasão da privacidade sexual". Ela falou em uma audiência em junho pelo Comitê de Inteligência da Câmara dos EUA sobre ferramentas de manipulação de mídia de inteligência artificial."Vimos que as pessoas usam tudo o que está ao alcance para atormentar as mulheres. Os Deepfakes são uma ilustração disso". Citron atualmente está conversando com os parlamentares da Câmara e do Senado para penalizar falsificações maliciosas, incluindo deepfakes.

Uma das principais preocupações em torno da ascensão dos deepfakes é o período eleitoral que está prestes a tomar conta dos Estados Unidos, já que a tecnologia pode ser usada para disseminar fake news. No entanto, Ajder, da Deeptrace, minimiza os temores de que os vídeos deepfakes possam afetar significativamente as eleições de 2020.

Jack Clark, diretor de políticas do laboratório independente de inteligência artificial OpenAI, diz que o relatório do Deeptrace é, no entanto, uma tentativa bem-vinda de reunir evidências sobre os deepfakes, algo que está em falta. Clark prevê que os deepfakes não serão o primeiro exemplo de consequências desagradáveis ​​da disseminação de ferramentas de inteligência artificial por meio de comercialização e código aberto.

Fonte: Canaltech

Trending no Canaltech: