Mercado fechado
  • BOVESPA

    111.439,37
    -2.354,91 (-2,07%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    51.307,71
    -884,62 (-1,69%)
     
  • PETROLEO CRU

    71,96
    -0,65 (-0,90%)
     
  • OURO

    1.753,90
    -2,80 (-0,16%)
     
  • BTC-USD

    48.416,71
    +948,38 (+2,00%)
     
  • CMC Crypto 200

    1.193,48
    -32,05 (-2,62%)
     
  • S&P500

    4.432,99
    -40,76 (-0,91%)
     
  • DOW JONES

    34.584,88
    -166,44 (-0,48%)
     
  • FTSE

    6.963,64
    -63,84 (-0,91%)
     
  • HANG SENG

    24.920,76
    +252,91 (+1,03%)
     
  • NIKKEI

    30.500,05
    +176,71 (+0,58%)
     
  • NASDAQ

    15.282,75
    -226,75 (-1,46%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,1994
    +0,0146 (+0,24%)
     

Apple adia plano para escanear telefones em busca de material de abuso infantil

·2 minuto de leitura
Apple adia plano para escanear telefones em busca de material de abuso infantil
Apple adia plano para escanear telefones em busca de material de abuso infantil

A Apple publicou uma atualização da nota sobre as mecânicas da 15ª versão de seu sistema operacional iOS, informando que o plano de escanear aparelhos automaticamente em busca de material de abuso infantil está em pausa. O sistema, que detectaria conteúdo de pedofilia presente no iCloud automaticamente, teve sua implementação adiada após riscos de invasão de privacidade.

“Baseada no retorno de clientes, grupos sociais, pesquisadores e outros, decidimos levar mais tempo nos próximos meses para coletar opiniões e aplicar melhorias antes de implementar este recurso criticamente importante de proteção infantil.”

A controvérsia se deu após o uso de uma das mecânicas que informaria a crianças que estão recebendo ou enviando conteúdo sexualmente explícito pelo Messages. A Apple utilizaria algoritmos para detectar se os materiais são, de fato, impróprios, e borraria o conteúdo antes, perguntando se queriam ver.

Caso optarem pela visualização (ou envio), um alerta seria enviado aos pais. A crítica dos usuários se baseia nos precedentes de constrangimento após as notificações, criando medo e trauma nas crianças após visualização do conteúdo.

A própria instituição argumenta que não utiliza o recurso para invadir a privacidade, que seus algoritmos são precisos na detecção e que avaliam apenas as imagens, sem olhar as conversas. Ainda assim, o recurso está fora da atualização, mas permanece previsto para os próximos meses.

Apple utilizaria base de dados de proteção às crianças dos EUA

Além do chat de mensagens, o mecanismo da Apple irá escanear material de abuso infantil através de comparações de hashes, ou padrões de imagem. Ao encontrar uma imagem suspeita, o sistema converteria as formas em padrões básicos e a compararia com um banco de dados oferecido pelo National Center for Missing and Exploited Children (NCMEC) — a instituição de proteção às crianças nos Estados Unidos.

O escaneamento seria feito pelo próprio sistema no dispositivo, e não por um algoritmo varrendo o iCloud. Assim que a plataforma detectasse conteúdo abusivo, um alerta ao NCMEC seria enviado. Ainda não está claro como as políticas se aplicariam em países como o Brasil.

Via Cnet

Imagem: HTWE/Shutterstock

Leia mais:

Já assistiu aos nossos vídeos no YouTube? Inscreva-se no nosso canal!

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos