Mercado fechado
  • BOVESPA

    113.282,67
    -781,69 (-0,69%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    51.105,71
    -358,56 (-0,70%)
     
  • PETROLEO CRU

    73,95
    +0,65 (+0,89%)
     
  • OURO

    1.750,60
    +0,80 (+0,05%)
     
  • BTC-USD

    42.547,89
    -330,68 (-0,77%)
     
  • CMC Crypto 200

    1.067,20
    -35,86 (-3,25%)
     
  • S&P500

    4.455,48
    +6,50 (+0,15%)
     
  • DOW JONES

    34.798,00
    +33,18 (+0,10%)
     
  • FTSE

    7.051,48
    -26,87 (-0,38%)
     
  • HANG SENG

    24.192,16
    -318,82 (-1,30%)
     
  • NIKKEI

    30.248,81
    +609,41 (+2,06%)
     
  • NASDAQ

    15.319,00
    +15,50 (+0,10%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,2556
    +0,0306 (+0,49%)
     

Apple anuncia atraso para lançar novas medidas contra a pornografia infantil

·1 minuto de leitura
Logotipo da Apple Store em um iPhone (AFP/Chris Delmas)

A Apple anunciou, nesta sexta-feira (3), que vai atrasar o lançamento de suas novas e controversas ferramentas de proteção contra a pornografia infantil, acusadas por alguns de prejudicar a privacidade de seus dispositivos e serviços.

A gigante do Vale do Silício disse no mês passado que os iPhones e iPads em breve começariam a detectar imagens que contenham abuso sexual infantil e as denunciariam à medida que forem baixadas em seu armazenamento online nos Estados Unidos.

No entanto, as associações de direitos digitais notaram rapidamente que os ajustes aos sistemas operacionais da Apple criam uma "porta dos fundos" potencial nos dispositivos, que poderiam ser explorados por governos ou outras organizações.

"Com base nos comentários dos clientes, grupos de defesa, investigadores e outros, decidimos tomar mais tempo nos próximos meses para coletar informações e realizar melhorias antes de lançar esses recursos tão importantes para a segurança das crianças", disse a empresa em um comunicado.

A nova tecnologia permite ao software que alimenta os dispositivos móveis da Apple comparar as fotos armazenadas no celular de um usuário com uma base de dados de imagens de abuso sexual infantil fornecidas por organizações de segurança, e depois marcar as imagens à medida que são baixadas no armazenamento iCloud online da Apple, de acordo com a empresa.

O sistema, caso seja usado, seria "impulsionado por uma tecnologia de criptografia" para determinar "se há uma coincidência sem revelar o resultado", a menos que se descubra que a imagem contém abuso sexual infantil.

jm/dw/yow/dg/aa

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos