Apple planeja instalar sistema que rastreia imagens de abuso infantil

A Apple pretende instalar nos IPhones americanos um sistema capaz de escanear imagens de abuso infantil, diz o Financial Times. O sistema, chamado de “neuralMatch”, é seria capaz de identificar automaticamente imagens com indícios de ilegalidade e alertar uma equipe de fiscais, que seriam responsáveis por fazer uma análise e comunicar autoridades se os indícios forem comprovados.

Segundo a Apple, a ferramenta pretende ajudar a combater abuso de menores a partir da análise de fotos de iPhones armazenadas no iCloud. O recurso é um dos esforços que a empresa está apresentando com o foco em proteção para crianças, e usará algoritmos treinados para identificar Material de Abuso Infantil (o que a companhia chamou de “CSAM”, na sigla em inglês) — na prática, esse material consiste em conteúdo que revele atividades sexualmente explícitas envolvendo crianças.


Divulgação/Apple


A possibilidade gerou a preocupação de que a medida abra as portas para a vigilância de milhões de dispositivos pessoais, mas a empresa tenta atender às demandas de governos e agências internacionais por colaboração em investigações criminais. A Apple declarou que o processo é seguro e foi pensado de modo a preservar a privacidade dos usuários. As garantias são de que ela não armazena nenhum tipo de conhecimento baseado em imagens que não correspondam ao banco de dados referente ao CSAM, fornecidas pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA.

Além disso, a companhia diz que “o risco de o sistema sinalizar incorretamente uma conta extremamente baixo”, mais especificamente, menos de 1 em 1 trilhão de contas por ano poderiam ser sinalizadas indevidamente. Ainda assim, a empresa irá contar com análise manual de todos os alertas que virarem relatórios para as autoridades, com o intuito de evitar erros de IA (Inteligência Artificial).

Os usuários não têm acesso ao banco de dados de CSAM e também não são avisados sobre conteúdo que foi sinalizado como CSAM pelo sistema da Apple.

Como funciona o sistema?

A explicação dada pela Apple diz, em termos práticos, que antes de uma imagem ser armazenada no iCloud, ela passa por um processo de correspondência no próprio dispositivo. A ação procura padrões e os compara a um conjunto ilegível de hashes de conteúdo CSAM conhecido — tudo isso coberto por criptografia. Imagens salvas apenas localmente não passam por esse processo.

Desse modo, é possível para a Apple identificar se um hash de imagem corresponde a um hash do banco de dados sem de fato adquirir conhecimento sobre qualquer outro aspecto do conteúdo.

Se o processo der match, o dispositivo irá codificar o resultado positivo. Esses resultados não podem ser interpretados pela Apple até que a conta do iCloud ultrapasse um limite estabelecido de resultados positivos — o número não foi divulgado pela empresa.

Ao chegar no limite, a Apple deverá analisar de forma manual o relatório para confirmar o resultado e poderá bloquear a conta do usuário, enviando também um relatório ao Centro Nacional para Crianças Desaparecidas e Exploradas.

O grupo também planeja novas ferramentas para prevenir crianças e pais que tenham uma conta para “Compartilhar em família” (Family Sharing) quando fotos explícitas lhes forem enviadas ao aplicativo de mensagens.

As fotos ficarão embaçadas e o menor receberá mensagens preventivas como advertência de que não é obrigado a abri-las.

Os pais podem optar por receber uma mensagem quando o filho abrir as fotos. Serão implementadas proteções similares para crianças que enviarem fotos sexualmente explícitas.

Com informações dos sites G1, Isto É, Tecnoblog e O Antagonista



 





Comentários