Mercado fechado

Apple passa a detectar pedofilia em fotos do iCloud

Nathan Vieira

Um caso muito grave que ainda está presente em uma parte obscura da tecnologia é o abuso sexual infantil, como apontamos em uma matéria de 2018 sobre o YouTube. Tendo isso em mente, a Apple decidiu começar a escanear fotos enviadas dos iPhones para verificar a existência de pedofilia, enquanto empresas de tecnologia sofrem pressão para intensificar o combater ao crime. As informações são do veículo britânico The Telegraph.

Durante uma conferência de tecnologia, Jane Horvath, diretora de privacidade da Apple, revelou que a empresa automaticamente seleciona imagens copiadas para o serviço de armazenamento em nuvem da empresa, o iCloud, para verificar se há alguma coisa ilegal. Por outro lado, a Apple costuma se recusar a invadir os telefones dos criminosos e aplicar criptografia ao seu aplicativo de mensagens em nome da proteção da privacidade de seus usuários.

De acordo com Jane Horvath, remover a criptografia não é a maneira como estão resolvendo esses problemas, mas acrescentou que estão "utilizando algumas tecnologias para ajudar a rastrear material que tenha abuso sexual infantil". Além disso, um porta-voz da Apple apontou um aviso no site da empresa que diz o seguinte: “A Apple se dedica a proteger as crianças onde quer que nossos produtos sejam usados, e continuamos a apoiar a inovação nesse espaço. Como parte desse compromisso, a Apple usa a tecnologia de correspondência de imagens para ajudar a encontrar e relatar a exploração infantil. Assim como os filtros de spam no email, nossos sistemas usam assinaturas eletrônicas para encontrar as suspeitas. Contas com conteúdo de exploração infantil violam nossos termos e condições de serviço, e quaisquer contas que encontrarmos com este material serão desativadas".

Apple passa a detectar pedofilia em fotos do iCloud


Segundo o The Telegraph, a empresa não detalhou como verifica as imagens de abuso infantil, mas muitas empresas de tecnologia usam um sistema chamado PhotoDNA, no qual as imagens são verificadas em um banco de dados de imagens previamente identificadas, usando uma tecnologia conhecida como "hash". A tecnologia também é usada pelo Facebook, Twitter e Google.

Vale lembrar que a Apple fez uma alteração em sua política de privacidade no ano passado, dizendo que pode digitalizar imagens em busca de material de abuso infantil, embora não esteja claro quando exatamente essa alteração nas diretrizes foi realizada.

Fonte: Canaltech

Trending no Canaltech: