Mercado fechado
  • BOVESPA

    108.013,76
    +456,09 (+0,42%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    50.849,62
    -68,66 (-0,13%)
     
  • PETROLEO CRU

    72,70
    +0,65 (+0,90%)
     
  • OURO

    1.785,00
    +0,30 (+0,02%)
     
  • BTC-USD

    50.628,11
    -328,36 (-0,64%)
     
  • CMC Crypto 200

    1.319,13
    +14,01 (+1,07%)
     
  • S&P500

    4.691,74
    +4,99 (+0,11%)
     
  • DOW JONES

    35.668,82
    -50,61 (-0,14%)
     
  • FTSE

    7.337,05
    -2,85 (-0,04%)
     
  • HANG SENG

    23.996,87
    +13,21 (+0,06%)
     
  • NIKKEI

    28.860,62
    +405,02 (+1,42%)
     
  • NASDAQ

    16.369,50
    +51,50 (+0,32%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,2812
    -0,0585 (-0,92%)
     

Pesquisadores encontram novas falhas em sistema da Apple contra abuso infantil

·2 min de leitura

Um grupo de pesquisadores do Imperial College, de Londres, apresentou nesta semana uma maneira simples de burlar o CSAM (sigla em inglês para material de abuso sexual infantil), sistema da Apple voltado à análise e descoberta automática de imagem de pedofilia em seus dispositivos e sistemas. De acordo com os especialistas, bastaria usar um filtro simples para burlar o método de detecção utilizado pela Maçã, sem que a imagem resultante tivesse mudanças visuais perceptíveis.

A manipulação acontece no hash, uma espécie de identificador numérico que acompanha os arquivos. A proposta do CSAM, também chamado de NeuralHash, é comparar tais sequências com dados compartilhados por organizações oficiais ou que lutem contra o abuso infantil; na maioria dos casos, a privacidade dos usuários não seria atingida, mas quando coincidências fossem encontradas, as imagens seriam submetidas a avaliadores humanos, de forma a confirmar seu caráter ilegal.

O tema já era motivo de preocupação para ativistas da liberdade e sigilo individual e ganhou contornos de ineficácia com a apresentação do trabalho dos pesquisadores britânicos durante o simpósio de segurança USENIX, realizado em agosto. Usando um filtro de hash, os especialistas foram capazes de burlar o sistema da Apple 99,9% das vezes, enquanto as imagens resultantes tinham diferenças visuais quase imperceptíveis.

A medida, apontam os estudiosos, exige mudanças drásticas no software e ampliaria ainda mais seus problemas de privacidade. Na visão deles, seria necessário aumentar o escopo de similaridades para compensar a filtragem, o que poderia levar a falsos positivos, ou criar um sistema de pontuação em que os usuários receberiam mais ou menos atenção de acordo com o total de coincidências, também levando a dificuldades de aplicação prática. A conclusão é que, como funcionam hoje, tais algoritmos simplesmente não podem ser usados em estratégias que envolvem o acionamento de autoridades e avaliações criminais.

O estudo do Imperial College é o segundo, de grande porte, a apontar a ineficácia do CSAM. Em agosto, o especialista em criptografia Ashuhariet Ygvar publicou no GitHub os resultados da engenharia reversa no sistema, apontando que ele é propenso a identificar hashes semelhantes, levando imagens não relacionadas ao abuso infantil para verificação manual. Com isso, afirmou, seria possível manipular o sistema de identificação para capturar também conteúdos não relacionados à pedofilia, servindo como arma política para caçar dissidentes ou atacar oponentes ideológicos.

Entre estudos como estes e o posicionamento de entidades em prol da privacidade, a Apple anunciou em setembro que adiaria a adoção do CSAM. A empresa deixou claro que não descartou a ideia e que pretende a aplicar no ano que vem, mas que entendeu o feedback à proposta e pretende aprofundar os estudos antes de aplicar o mecanismo a seus sistemas operacionais.

Fonte: Canaltech

Trending no Canaltech:

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos