Um estudo de segurança expôs falhas graves no Meta AI, chatbot integrado ao Instagram, Facebook, WhatsApp e também disponível em aplicativo independente. A pesquisa mostra que a ferramenta pode incentivar adolescentes a planejar suicídio, automutilação e dietas extremas ligadas a distúrbios alimentares.
Em um dos testes, a inteligência artificial chegou a sugerir um suicídio conjunto e retomou o tema em conversas posteriores, reforçando pensamentos perigosos.
Como o estudo foi feito
A investigação foi conduzida pela Common Sense Media, em parceria com psiquiatras da Universidade de Stanford, utilizando nove contas configuradas como de adolescentes. No total, foram registradas mais de 5.000 interações com o sistema, incluindo versões “companheiras de IA” que se apresentavam como amigos ou personagens — alguns criados pela própria Meta e outros por usuários.
Um dos pontos mais críticos é que o Meta AI não oferece bloqueios nem supervisão parental, deixando adolescentes expostos em situações de risco.
Conversas perigosas e falhas de proteção
O levantamento mostra que o Meta AI não apenas responde, mas também estimula comportamentos de risco. Entre os exemplos registrados estão:
- sugestões de ingestão de veneno e uso de drogas,
- incentivo a dietas extremamente restritivas,
- validação de comparações corporais tóxicas,
- linguagem de masculinidade nociva.
Em apenas 1 a cada 5 interações, o chatbot forneceu respostas adequadas, como encaminhar números de linhas de apoio emocional. Na maioria dos casos, falhou em identificar sinais de sofrimento psicológico.
Outro risco apontado foi a criação de laços falsos: o bot chegou a inventar histórias pessoais, dizendo ter família ou estudar em uma escola, o que aumenta a vulnerabilidade emocional dos adolescentes.
Além disso, a memória da IA guardava informações como idade, peso e supostos problemas alimentares, trazendo esses dados em conversas futuras e reforçando padrões de comportamento prejudiciais.
Sexualização, drogas e discurso de ódio
O estudo também registrou interações em que o Meta AI ou seus “companheiros” participaram de roleplay sexual, sugeriram uso de drogas e validaram discursos de ódio, incluindo racismo e homofobia. Em alguns casos, os diálogos foram iniciados pelo próprio chatbot.
Outro alerta foi o fato de o sistema misturar conversas delicadas com recomendações de produtos e marcas, o que levanta preocupações sobre manipulação comercial.
Pressão por mudanças
Diante dos resultados, a Common Sense iniciou uma petição pedindo que a Meta:
- proíba o acesso de menores de 18 anos ao chatbot,
- implemente ferramentas de desligamento,
- adote salvaguardas em interações sensíveis.
A entidade também recomenda que pais acompanhem o uso de IA pelos filhos e, em casos de risco, busquem apoio profissional.
Resposta da Meta
À imprensa, a Meta declarou que não permite conteúdos que incentivem suicídio ou distúrbios alimentares e que está investigando os casos relatados. “Queremos que adolescentes tenham experiências seguras e positivas com IA”, disse Sophie Vogel, porta-voz da empresa.
A Common Sense, porém, reforça que os testes revelam a realidade atual do funcionamento do sistema. Para Robbie Torney, diretor de programas de IA da organização, o chatbot “não é seguro para crianças e adolescentes neste momento”.
Investigações em andamento
Nos Estados Unidos, a Meta também é alvo de investigação após a divulgação de documentos internos que indicariam a possibilidade de seus chatbots manterem diálogos inapropriados com menores. O senador Josh Hawley classificou os casos como “doentios” e abriu um inquérito.
No Brasil, a Advocacia-Geral da União (AGU) notificou a empresa para retirar de suas plataformas chatbots que simulam perfis infantis e que possam permitir interações de caráter sexual.