Mercado fechará em 2 h 46 min
  • BOVESPA

    113.638,20
    +355,53 (+0,31%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    51.577,77
    +472,06 (+0,92%)
     
  • PETROLEO CRU

    75,62
    +1,64 (+2,22%)
     
  • OURO

    1.752,30
    +0,60 (+0,03%)
     
  • BTC-USD

    43.099,52
    -219,89 (-0,51%)
     
  • CMC Crypto 200

    1.068,34
    -33,18 (-3,01%)
     
  • S&P500

    4.443,58
    -11,90 (-0,27%)
     
  • DOW JONES

    34.912,12
    +114,12 (+0,33%)
     
  • FTSE

    7.063,40
    +11,92 (+0,17%)
     
  • HANG SENG

    24.208,78
    +16,62 (+0,07%)
     
  • NIKKEI

    30.240,06
    -8,75 (-0,03%)
     
  • NASDAQ

    15.148,25
    -170,50 (-1,11%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    6,2748
    +0,0192 (+0,31%)
     

Apple sabia que pornografia infantil era um problema em seus apps desde 2020

·2 minuto de leitura

No início de agosto, a Apple anunciou novas medidas de segurança para conter a circulação e posse de Material de Abuso Sexual de Crianças (CSAM, na sigla em inglês). A comunidade especializada em segurança e privacidade prontamente se manifestou contra a novidade, que sujeita todo e qualquer usuário de dispositivo Apple a um monitoramento constante de mecanismos automatizados.

A proliferação de conteúdo relacionado a pedofilia, porém, parece ser um problema antigo no ecossistema Apple. Conforme revela um papo entre executivos de áreas de segurança da Apple, Eric Friedman e Herve Sibert, a companhia sabia que seu aplicativo de mensagens, o iMessage, servia como uma grande plataforma para a circulação de material ilegal.

“O foco do Facebook é sobre confiança e segurança (contas fakes, etc). Em privacidade, eles vacilam”, iniciou Eric Friedman. “Nossas prioridades são o oposto. O que faz de nós a melhor plataforma para distribuir pornografia infantil, etc”, complementou o executivo.

Na mesma conversa, Friedman compartilha o que seria um slide de uma apresentação interna que mostram recursos de apps da companhia e seus principais defeitos. A tabela associa a App Store e a seção “Platform” (que inclui o iMessage) ao problema “Child predator grooming” (“aliciadores de menores”, em tradução livre) sem mais detalhes.

A troca de mensagens entre os executivos aconteceu em fevereiro de 2020, sugerindo que as medidas para proteção de crianças da Apple estão nos planos da empresa, pelo menos, desde o início do ano passado. Os mecanismos de monitoramento devem ser incluídos em todos os dispositivos da companhia logo na próxima grande atualização de sistemas operacionais — no iPhone, o tão aguardado iOS 15, cuja estreia deve acontecer em outubro.

Monitoramento fere privacidade

Para conter o compartilhamento de CSAM, a Apple fará um cruzamento entre dados de imagens armazenadas no iCloud e um conjunto de hashes de material ilegal obtido do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) dos EUA. Enquanto no iMessage, mecanismos alimentados por aprendizado de máquina analisarão mídias enviadas ou recebidas por crianças e censurará o conteúdo imediatamente. O menor de idade ainda poderá conferir o material, mas uma notificação será encaminhada aos responsáveis vinculados ao perfil.

Para conter a reação negativa às adições, a Apple lançou uma série de documentos para esclarecer pontos mais criticados. A companhia alega que o sistema é praticamente livre de erros e que governo nenhum poderá expandir a base de comparação para outras categorias. Além disso, a fabricante afirma que o sistema será transparente e auditável.

As respostas não foram suficientes para conter manifestações contrárias nem de funcionários da companhia, que se revoltaram contra a adição em conversas internas. Especialistas de segurança também não ficaram satisfeitos com as justificativas, já que elas não satisfazem suas principais críticas.

Fonte: Canaltech

Trending no Canaltech:

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos