Depois de muita reação de críticos e usuários, a Apple está adiando suas medidas contra o abuso infantil.
Em agosto, a gigante da tecnologia anunciou inicialmente uma nova política que usa a tecnologia para identificar possíveis imagens de abuso infantil no iCloud e no Mensagens, mas as preocupações se seguiram. Especialistas alertaram que, embora a Apple tenha prometido privacidade ao usuário, a tecnologia acabaria por colocar todos os usuários da Apple em risco.
Na sexta-feira, a Apple disse que atrasaria o lançamento da tecnologia para fazer melhorias e garantir totalmente a privacidade do usuário.
"Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos dedicar mais tempo nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes ", disse a Apple em um comunicado comunicado atualizado em seu site.
A tecnologia de detecção de material de abuso sexual infantil deveria estar disponível ainda este ano no lançamento do iOS 15, mas agora não está claro quando ou se o recurso será lançado.
A nova tecnologia funcionaria de duas maneiras: primeiro, digitalizando uma imagem antes do backup no iCloud. Se essa imagem corresponder aos critérios do CSAM, a Apple receberia esses dados. A outra parte da tecnologia usa aprendizado de máquina para identificar e desfocar imagens sexualmente explícitas que as crianças recebem por meio do Mensagens.
No entanto, depois que a nova política foi anunciada, os defensores da privacidade e grupos disseram que a Apple está essencialmente abrindo uma porta dos fundos que os maus atores podem usar indevidamente.
Para resolver essas preocupações, a Apple lançou uma página de perguntas frequentes logo após anunciar a tecnologia CSAM. A Apple explicou que a tecnologia não digitalizaria todas as fotos armazenadas em um dispositivo, quebraria a criptografia de ponta a ponta nas mensagens e não sinalizaria falsamente pessoas inocentes para a aplicação da lei.