A Apple está enfrentando um processo nos Estados Unidos por abandonar um projeto polêmico que prometia detectar e remover materiais de abuso infantil (CSAM) armazenados em dispositivos e contas iCloud. A ação foi movida por uma mulher, que usou um pseudônimo, alegando que foi vítima de abuso sexual na infância e que conteúdos relacionados ao crime ainda estariam em dispositivos Apple.
O que aconteceu?
Em 2021, a Apple apresentou uma ferramenta que usaria inteligência artificial para identificar conteúdos ilegais em contas do iCloud e notificaria as autoridades. Na época, a novidade gerou críticas de especialistas em privacidade e cibersegurança, que alertaram sobre possíveis violações de dados, falsos positivos e riscos de abuso do sistema.
Após o backlash, a Apple adiou o lançamento e, eventualmente, deixou o projeto de lado. Segundo a vítima que abriu o processo, a empresa teria enviado uma notificação alertando sobre materiais relacionados ao caso, mas nunca tomou ações concretas. Ela alega que a Apple “quebrou a promessa” de proteger vítimas de crimes tão graves.
A ação busca representar mais de 2.600 possíveis vítimas, exigindo uma indenização de US$ 1,2 bilhão (cerca de R$ 7,2 bilhões) e que a Apple retome o desenvolvimento da ferramenta. A acusação reforça que o abandono do projeto deixou milhares de pessoas expostas e desprotegidas.
Apple responde
Em nota ao TechCrunch, a empresa declarou estar “inovando urgente e ativamente para combater esses crimes sem comprometer a segurança e a privacidade de todos os usuários”. Ainda assim, essa não é a primeira vez que a Apple enfrenta processos e críticas relacionadas à forma como lida com materiais de abuso infantil.