Organizações ligadas à segurança na internet expressaram preocupação com os planos da Meta de utilizar inteligência artificial para automatizar avaliações de risco em suas plataformas, como Facebook, Instagram e Threads. A questão foi formalmente levada ao regulador britânico Ofcom, que afirmou estar analisando as críticas recebidas.
Organizações pedem limites no uso de IA
A preocupação foi formalizada em uma carta enviada à diretora executiva da Ofcom, Melanie Dawes, e assinada por entidades como Molly Rose Foundation, NSPCC e Internet Watch Foundation. Os grupos pedem que o órgão regulador imponha limites ao uso de sistemas automatizados em avaliações de risco previstas pela Lei de Segurança Online do Reino Unido.
Essa lei obriga plataformas digitais a identificar e mitigar riscos que possam causar danos aos usuários, com foco especial na proteção de crianças e na prevenção de conteúdos ilegais. Para os ativistas, automatizar esse processo representa um “passo retrógrado e altamente alarmante”.
O que está em jogo
Segundo reportagem da NPR, a Meta estaria avançando em mudanças nos algoritmos e recursos de segurança que seriam aprovados automaticamente por sistemas de IA, sem revisão direta de funcionários humanos. Isso incluiria até áreas sensíveis, como riscos para menores e monitoramento de desinformação.
As mudanças têm como objetivo acelerar o lançamento de novos recursos nos aplicativos da Meta. No entanto, segundo um ex-executivo da empresa, essas alterações podem reduzir a capacidade de identificar e corrigir problemas antes da liberação para o público.
Respostas da Meta e da Ofcom
A Meta rebateu as críticas, dizendo que a carta “distorce” sua abordagem. Em comunicado, a empresa afirmou:
“Não estamos usando IA para tomar decisões sobre risco. Criamos uma ferramenta que auxilia nossas equipes a identificar quando requisitos legais e de política se aplicam a um produto. Essa ferramenta é supervisionada por especialistas humanos.”
A Ofcom, por sua vez, reforçou que exige transparência das empresas, incluindo a identificação de quem completou, revisou e aprovou cada avaliação de risco. O órgão disse que responderá oficialmente às preocupações “em breve”.
Outra polêmica: rastreamento no Android
A Meta também foi acusada de rastrear o histórico de navegação de usuários de Android, mesmo com o uso de VPNs ou guias anônimas. O relatório, produzido por pesquisadores da IMDEA Networks (Espanha), Radboud University (Holanda) e KU Leuven (Bélgica), indica que a prática se iniciou em setembro de 2024.
Segundo os cientistas, a Meta usava o Meta Pixel — ferramenta de rastreamento publicitário — em conjunto com dados dos aplicativos do Facebook e Instagram. Isso permitiria identificar o histórico de navegação por meio do endereço IP registrado nos apps, mesmo em contextos que teoricamente garantiriam privacidade.
O uso crescente de inteligência artificial em processos sensíveis como segurança digital e privacidade levanta debates importantes sobre transparência, responsabilidade corporativa e limites da automação. A Meta, por estar no centro dessas transformações, continuará sendo observada de perto por reguladores e organizações da sociedade civil.