Princípios importantes
- A nova política da Apple contra material de abuso sexual infantil causou polêmica entre usuários e especialistas em privacidade.
- A tecnologia funciona digitalizando imagens no iCloud para CSAM e usando aprendizado de máquina para identificar fotos explícitas em Mensagens.
- Especialistas dizem que não importa quão privada a Apple diga que sua tecnologia de digitalização é, ela ainda permite que uma porta dos fundos seja aberta onde tudo pode acontecer.
A Apple introduziu recentemente uma nova tecnologia para detectar material de abuso sexual infantil (CSAM), mas está recebendo mais críticas do que elogios da comunidade de privacidade.
Embora a Apple tenha sido anteriormente aclamada como uma das únicas grandes empresas de tecnologia que realmente se preocupam com a privacidade do usuário, a nova tecnologia de varredura CSAM introduzida na semana passada está colocando uma grande chave nisso. Especialistas dizem que, embora a Apple prometa privacidade ao usuário, a tecnologia acabará por colocar todos os usuários da Apple em risco.
"A Apple está descendo uma ladeira muito escorregadia; eles desenvolveram uma ferramenta que está em risco de portas dos fundos do governo e uso indevido por maus atores", disse Farah Sattar, fundador e pesquisador de segurança do DCRYPTD, disse para Lifewire em uma entrevista por e-mail.
O Plano da Apple não é Privado
A nova tecnologia funciona de duas maneiras: primeiro, digitalizando uma imagem antes do backup no iCloud - se uma imagem corresponder aos critérios do CSAM, a Apple recebe os dados do voucher criptográfico. A outra parte usa aprendizado de máquina no dispositivo para identificar e desfocar imagens sexualmente explícitas que as crianças recebem por meio do Mensagens.
Apple está descendo uma ladeira muito escorregadia; eles desenvolveram uma ferramenta que está em risco para as portas dos fundos do governo e uso indevido por maus atores.
Os especialistas estão apreensivos com o recurso Mensagens, pois ele efetivamente acabaria com a criptografia de ponta a ponta (E2EE) que a Apple defendeu.
"A introdução da verificação do lado do cliente pela Apple é uma invasão de privacidade, pois isso efetivamente quebra o E2EE", disse Sattar.
"O objetivo do E2EE é tornar uma mensagem ilegível para qualquer parte, excluindo o remetente e o destinatário, mas a varredura do lado do cliente permitirá que terceiros acessem o conteúdo no caso de uma correspondência. Isso estabelece o precedente de que seu os dados são E2EE… até que não sejam."
Embora a Apple tenha dito em uma página de perguntas frequentes recentemente publicada abordando as preocupações das pessoas sobre sua nova política de que não alterará as garantias de privacidade das mensagens e não obterá acesso às comunicações, as organizações ainda desconfiam das promessas da Apple.
"Como a detecção de uma 'imagem sexualmente explícita' usará o aprendizado de máquina no dispositivo para verificar o conteúdo das mensagens, a Apple não poderá mais chamar honestamente o iMessage de "criptografado de ponta a ponta", a Electronic Frontier Foundation (EFF) escreveu em resposta à política da Apple.
"A Apple e seus proponentes podem argumentar que a varredura antes ou depois de uma mensagem ser criptografada ou descriptografada mantém intacta a promessa 'de ponta a ponta', mas isso seria uma manobra semântica para encobrir uma mudança tectônica no postura em relação à criptografia forte."
Potencial para uso indevido
A principal preocupação de muitos especialistas é a existência de um backdoor que, não importa o que a Apple possa alegar, ainda está aberto ao uso indevido potencial.
"Embora esta política deva ser aplicável apenas a usuários com menos de 13 anos, esta ferramenta também está pronta para uso indevido, pois não há garantia de que o usuário tenha realmente menos de 13 anos. Tal iniciativa representa um risco para jovens LGBTQ+ e indivíduos em relacionamentos abusivos, pois pode existir como uma forma de stalkerware", disse Sattar.
EFF disse que a menor pressão externa (particularmente do governo) abriria a porta para abusos e apontou para casos em que isso já está acontecendo. Por exemplo, a EFF disse que as tecnologias criadas inicialmente para escanear e hash CSAM foram reaproveitadas para criar um banco de dados de conteúdo "terrorista" para o qual as empresas podem contribuir e acessar para banir esse conteúdo.
"Tudo o que seria necessário para ampliar o backdoor estreito que a Apple está construindo é uma expansão dos parâmetros de aprendizado de máquina para procurar tipos adicionais de conteúdo, ou um ajuste dos sinalizadores de configuração para verificar, não apenas os de crianças, mas contas de ninguém", disse EFF.
Edward Snowden até condenou a nova tecnologia da Apple como uma "questão de segurança nacional" e "desastrosa", e sua organização, Freedom of the Press Foundation, é uma das muitas que assinaram uma nova carta pedindo à Apple para acabar com isso política antes mesmo de começar.
A carta foi assinada por mais de 7.400 organizações e especialistas em segurança e privacidade, pedindo à Apple que interrompa essa tecnologia imediatamente e emita uma declaração reafirmando o compromisso da empresa com a criptografia de ponta a ponta e a privacidade do usuário.
"O caminho atual da Apple ameaça minar décadas de trabalho de tecnólogos, acadêmicos e defensores de políticas para que medidas fortes de preservação da privacidade sejam a norma na maioria dos dispositivos eletrônicos de consumo e casos de uso", diz a carta.
O tempo dirá como a Apple planeja implementar essa tecnologia, apesar da enorme controvérsia em torno dela, mas as reivindicações da empresa de priorizar a privacidade certamente nunca serão as mesmas.