Mercado fechado
  • BOVESPA

    121.113,93
    +413,26 (+0,34%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    48.726,98
    +212,88 (+0,44%)
     
  • PETROLEO CRU

    63,07
    -0,39 (-0,61%)
     
  • OURO

    1.777,30
    +10,50 (+0,59%)
     
  • BTC-USD

    62.245,71
    +722,43 (+1,17%)
     
  • CMC Crypto 200

    1.398,97
    +7,26 (+0,52%)
     
  • S&P500

    4.185,47
    +15,05 (+0,36%)
     
  • DOW JONES

    34.200,67
    +164,68 (+0,48%)
     
  • FTSE

    7.019,53
    +36,03 (+0,52%)
     
  • HANG SENG

    28.969,71
    +176,57 (+0,61%)
     
  • NIKKEI

    29.683,37
    +40,68 (+0,14%)
     
  • NASDAQ

    14.024,00
    +10,00 (+0,07%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,6872
    -0,0339 (-0,50%)
     

Algoritmo é capaz de desmascarar deepfakes analisando o movimento dos olhos

Igor Almenara
·3 minuto de leitura

Recentemente, um perfil focado em deepfakes tomou as redes sociais com cenas inusitadas protagonizadas pelo Tom Cruise — não o verdadeiro, mas um rapaz com face reconstruída por inteligência artificial para que se pareça com o famoso ator. Os resultados despertaram discussões relacionadas ao uso da tecnologia ao mesmo tempo que aceleraram o trabalho de pesquisadores que buscam meios para desmascarar esses vídeos.

Uma das opções nesse sentido é a criação de cientistas da Universidade de Buffalo, nos Estados Unidos. O projeto se trata de um algoritmo especial para análise de imagens, que foca nos reflexos dos olhos da pessoa presente no vídeo — detalhe ainda não representado com perfeição por deepfakes.

Os algoritmos de substituição facial podem ser bastante convincentes para o olho humano — ainda mais quando sujeito à compressão de vídeos publicados em redes sociais —, contudo, eles ainda não são tão eficientes na representação de reflexos nos olhos. De acordo com um estudo levantado durante a Conferência Internacional do Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE), softwares que analisam imagens falsas a partir de reflexos apresentam 94% de precisão nas avaliações.

Isso se dá porque a córnea é uma “semiesfera quase perfeita e é muito reflexiva”, comenta Siwei Lyu, professor na SUNY Empire Innovation e um dos principais responsáveis pelo estudo. Segundo ele, toda luz emitida pelo cenário gera reflexos nas córneas, e a deficiência na precisão do deepfake entrega a montagem.

Além disso, o cientista complementa que ambos os globo oculares de um indivíduo apresentam uma semelhança bem evidente para o algoritmo. “Os dois olhos apresentam padrões de reflexo bem parecidos, visto que estão vendo a mesma coisa. Não é algo que nos damos conta quando observamos um rosto”, explica Lyu.

Em imagens que ilustram essa distinção entre olhos verdadeiros e olhos gerados por inteligência artificial, a pesquisa mostra que essas diferenças são bem gritantes, mas praticamente invisíveis para um espectador despreparado.

Quando observados com atenção, os reflexos dos olhos são visivelmente distintos. (Imagem: Universidade de Buffalo/Reprodução)
Quando observados com atenção, os reflexos dos olhos são visivelmente distintos. (Imagem: Universidade de Buffalo/Reprodução)

Os perigos do deepfake

Graças aos avanços nos seus estudos, o cientista chegou ao evento para levantar os perigos proporcionados pelos avanços do deepfake — que até agora foram utilizados para fins pornográficos ou recreativos, como o caso do perfil conhecido como @deeptomcruise do TikTok, que viralizou nas últimas semanas.

“Infelizmente, boa parte desses vídeos falsos foram criados para fins de pornografia e isso causou graves danos psicológicos às vítimas. Também há o potencial de gerar impacto político, principalmente de vídeos mostrando políticos falando ou fazendo alguma coisa que eles não deveriam fazer. E isso é ruim”, comentou Lyu.

A solução do professor, porém, não é perfeita. Apesar de apresentar 94% de precisão na análise de vídeos falsos, o sistema precisa que o integrante falso esteja olhando fixamente para a câmera e que seus olhos estejam visíveis para análise. O resultado é uma comparação da reflexão das córneas, ou seja, ambas não podem estar obstruídas para execução da análise; caso contrário, ela falhará.

Os estudos para a identificação de deepfakes continuará e, segundo Lyu, se tornam “constantemente mais importantes” em um mundo repleto de tensões entre raças e gêneros e sujeito aos perigos da desinformação. Portanto, o algoritmo de análise de imagens deve passar por retrabalhos constantes para sempre manter os vídeos fakes para trás e evitar que criadores mal intencionados gerem tumulto com conteúdo falso.

Fonte: Canaltech

Trending no Canaltech: