Mercado fechado
  • BOVESPA

    115.202,23
    +2.512,05 (+2,23%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    46.342,54
    +338,35 (+0,74%)
     
  • PETROLEO CRU

    66,28
    +2,45 (+3,84%)
     
  • OURO

    1.698,20
    -2,50 (-0,15%)
     
  • BTC-USD

    47.814,19
    +483,61 (+1,02%)
     
  • CMC Crypto 200

    982,93
    +39,75 (+4,21%)
     
  • S&P500

    3.841,94
    +73,47 (+1,95%)
     
  • DOW JONES

    31.496,30
    +572,16 (+1,85%)
     
  • FTSE

    6.630,52
    -20,36 (-0,31%)
     
  • HANG SENG

    29.098,29
    -138,50 (-0,47%)
     
  • NIKKEI

    28.864,32
    -65,78 (-0,23%)
     
  • NASDAQ

    12.652,50
    +197,50 (+1,59%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,7797
    -0,0062 (-0,09%)
     

Descubra se seu rosto foi usado em apps de reconhecimento biométrico

Ramon de Souza
·2 minuto de leitura

O norte-americano Brett Gaylor, hoje em seus 43 anos de idade, resolveu usar a plataforma Flickr (lembra dela?) para armazenar as fotos de sua lua de mel em 2006. Na época, ele não se importou muito com o fato de que as imagens seriam disponibilizadas sob a licença Creative Commons — que basicamente exime qualquer pessoa de pagar-lhe direitos autorais e possibilita a livre reprodução daquele conteúdo para fins não-lucrativos.

Hoje, Gaylor descobriu que sua decisão não foi muito muito feliz. Os rostos dele, de sua esposa e de quaisquer outros civis que apareciam nos retratos foram utilizados para treinar algoritmos de reconhecimento facial sem a sua devida autorização. Tal descoberta só foi possível graças ao Exposing.ai, um serviço gratuito que lhe permite descobrir se as suas fotografias do Flickr acabaram caindo em alguma base de dados obscuras de rostos.

A plataforma foi criada pelo artista alemão Adam Harvey em parceria com Liz O’Sullivan, diretora do Projeto de Fiscalização de Tecnologias de Vigilância (ou Surveillance Technology Oversight Project), um grupo de ativismo que advoga os direitos humanos e de privacidade. Segundo Liz, a ideia é mostrar para as pessoas que “alguns de seus momentos mais íntimos viraram armas”.

O Exposing.ai é muito simples — basta informar seu nome de usuário do Flickr, uma hashtag específica ou a URL de uma fotografia. O serviço indicará caso algum conteúdo apareça em seis datasets diferentes: DiveFace, FaceScrub, IJB-C, MegaFace, PIPA e VGG Face. Todos esses bancos são de código aberto, mas passaram a ser incorporados em soluções profissionais de reconhecimento facial.

<em>Imagem: Captura de Tela/Canaltech</em>
Imagem: Captura de Tela/Canaltech

De longe, o MegaFace é o mais “bem-sucedido” deles, tendo coletado rostos de 3,5 milhões de imagens do Flickr. Ele foi criado por professores da Universidade de Washington em 2015 para fins acadêmicos, mas já foi baixado mais de 6 mil vezes; e não pense que tais downloads foram efetuados por alunos. De acordo com investigações do The New York Times, diversas autoridades e empresas privadas embutiram a base de dados em suas soluções.

Isso inclui a Northrop Grumman, fornecedora de serviços de segurança e inteligência dos Estados Unidos; In-Q-Tel, braço de investimentos da Agência Central de Inteligência; a ByteDance, criadora do TikTok e até mesmo a Megvii, companhia chinesa de vigilância. Isso significa que aquelas singelas fotos que você postou anos atrás no Flickr podem ser usadas atualmente para rastrear minorias asiáticas ou para finalidades policiais.

Harvey e O’Sullivan afirmam que é necessário a criação de legislações específicas que proíbam a coleta desenfreada de fotografias para o treinamento de sistemas de inteligência artificial e reconhecimento facial. “Nós precisamos desarticular isso o mais rápido possível — antes que eles causem ainda mais prejuízos”, afirmou o artista.

Fonte: Canaltech

Trending no Canaltech: