Apple vai vasculhar celulares para combater abuso infantil
A Apple, conhecida por levantar a bandeira da privacidade dos usuários e por comprar brigas sobre o tema com o FBI e com o Facebook, detalhou nesta segunda-feira, 9, como funcionará a nova ferramenta de detecção de imagens de abuso infantil da empresa — anunciada na semana passada, a função tem sido criticada por especialistas na área de proteção de dados.
O caso põe em questão o compromisso da companhia com as autoridades, que podem querer que a ferramenta seja utilizada para outros tipos de crimes — a Apple, no entanto, afirmou que irá recusar todos os pedidos de governos.
“Já enfrentamos exigências para criar e lançar mecanismos pedidos por governos que prejudicam a privacidade dos usuários e temos recusado tais demandas”, afirmou a Apple. “Vamos continuar recusando no futuro.”
A medida é similar ao que outras empresas de tecnologia já fazem, como Google e Microsoft, que vasculham os anexos de e-mails em busca de conteúdos que do banco de dados do Centro Nacional para Crianças Desaparecidas e contra Abuso Infantil, dos Estados Unidos.
Entenda o caso:
O que é a nova ferramenta da Apple?
Chamado de “Segurança Infantil”, o recurso e contempla três medidas, que têm como objetivo garantir o bem-estar de menores de idade nas plataformas da empresa. A base da tecnologia será um algoritmo de aprendizado de máquina que vasculha as imagens dos usuários armazenadas na nuvem (o iCloud) em busca de conteúdos que combinem com os requisitos de abuso infantil estabelecidos pelo governo dos Estados Unidos.
A primeira medida tem a ver com a comunicação no aplicativo de chats da empresa, o iMessage, disponível para iPhone, iPad e Mac. Crianças que receberem imagens tidas como sexualmente explícitas verão o arquivo “borrado”, com um aviso de que aquele conteúdo pode ser sensível — a depender da idade da pessoa, o responsável pelo menor receberá uma notificação no celular avisando do incidente. A Apple garante que as mensagens continuarão criptografadas de ponta a ponta — isto é, não poderão ser acessadas por terceiros, nem pela própria empresa.
Além disso, a Apple irá vasculhar as fotos armazenadas no iCloud em busca de conteúdo de abuso infantil, reportando casos suspeitos a uma organização não-governamental (ONG) americana que trabalha junto com as autoridades dos EUA. A empresa garante que a análise será feita no dispositivo do usuário, sem que as fotos sejam legíveis a terceiros — isso será feito por meio de uma conversão de imagens em números únicos, que serão analisados antes de os materiais serem enviados para a nuvem.
Por fim, como última medida, a Siri irá fornecer informações para crianças e pais que perguntarem à assistente virtual sobre como denunciar abuso infantil.
Quais as críticas?
Apesar das boas intenções, a Apple enfrentou críticas de especialistas que consideram que a medida pode ser deturpada por governos autoritários para impor censura. Em junho passado, a companhia foi acusada de censurar 27 aplicativos LGBT na China e em outras 150 lojas de aplicativos pelo mundo, algo negado pela empresa.
O chefe do WhatsApp, Will Cathart, publicou no Twitter que está “preocupado” e que acredita que esse é o tratamento errado ao abuso infantil na internet. “Esse é um retrocesso na privacidade das pessoas em todo o mundo”, escreveu, acrescentando que o aplicativo de mensagens, conhecido pela criptografia de ponta a ponta, não irá desenvolver medida semelhante.
“Ao invés de focar em produzir algo que seja fácil para as pessoas denunciarem o que é compartilhado com elas, a Apple desenvolveu um software que escaneia todas as fotos privadas do seu celular, até aquelas que você nunca compartilhou. Isso não é privacidade”, publicou Cathart. “Este é um sistema de vigilância operado e construído pela Apple e que poderia muito bem ser usado para escaneiar conteúdos que ela ou qualquer governo decida que queira controlar.”
O executivo também questiona se o software será à prova de erros e o que pode acontecer se hackers tiverem acesso a ele.
Outro especialista que foi a público criticar a decisão foi Edward Snowden, ex-funcionário da Agência de Segurança Nacional dos Estados Unidos (NSA) e foragido da Justiça após expor um esquema de vigilância do governo americano.
“A Apple está lançando um sistema de vigilância em massa para o mundo inteiro com isso. Não se engane: se eles podem escanear por pornô infantil hoje, eles podem procurar por qualquer coisa amanhã”, escreveu no Twitter.
Quem receberá a atualização?
A princípio, todos os usuários de iOS, iPad e macOS dos Estados Unidos receberão a atualização. Outros países podem ser contemplados e, no futuro, a empresa pretende fornecer essa ferramenta para que desenvolvedores possam trabalhar com ela.
Vale frisar que, para que os recursos funcionem, é preciso que a criança esteja listada no grupo Família, no iCloud, e que as fotos sejam armazenadas em nuvem, e não localmente no dispositivo.
Quando será implementado?
Não há data precisa para a implementação, mas a Apple planeja lançar as ferramentas em futuras atualizações do iOS 15 (e semelhantes para iPad e macOS), que deve ser lançado a partir de setembro.