Character.ai proíbe adolescentes de interagirem com chatbots após denúncias e processos judiciais

A Character.ai anunciou que, a partir de 25 de novembro, adolescentes não poderão mais interagir com chatbots da plataforma. A decisão vem após uma série de críticas, denúncias e ações judiciais que destacaram os riscos das interações entre jovens e personagens virtuais criados com inteligência artificial (IA).

A empresa, conhecida por permitir que milhões de usuários criassem e conversassem livremente com avatares digitais, descreve a medida como parte de seu esforço para transformar o serviço na “plataforma de IA mais segura do planeta para fins de entretenimento”.

Denúncias e investigações motivaram a mudança

Fundada em 2021, a Character.ai tem sido alvo de processos nos Estados Unidos, incluindo um caso relacionado à morte de um adolescente. Pais, especialistas e grupos de segurança digital classificaram o serviço como um risco direto para jovens.

De acordo com a empresa, a decisão foi baseada em relatórios e recomendações de reguladores, pesquisadores e pais, que alertaram sobre comportamentos inadequados dos chatbots — como inventar informações, exagerar empatia e incentivar decisões perigosas.

“O anúncio de hoje reflete nossa crença de que precisamos continuar construindo a plataforma de IA mais segura do planeta para fins de entretenimento”,
declarou Karandeep Anand, CEO da Character.ai, em entrevista à BBC.

Acusações de conteúdo ofensivo e bots inadequados

Nos últimos anos, a Character.ai enfrentou diversas controvérsias por hospedar chatbots considerados ofensivos. Em 2024, a plataforma abrigou avatares que imitavam Brianna Ghey e Molly Russell, adolescentes britânicas vítimas de casos de violência e suicídio.

Já em 2025, uma investigação do Bureau of Investigative Journalism (TBIJ) revelou um bot inspirado no criminoso Jeffrey Epstein, que manteve mais de 3 mil conversas com usuários, incluindo tentativas de flerte com um repórter que se passou por menor de idade. O avatar foi removido logo após a denúncia.

Esses episódios acenderam um alerta sobre os riscos emocionais e éticos da IA, especialmente quando usada por adolescentes que ainda estão desenvolvendo maturidade emocional.

Novas medidas e foco em segurança

Com a nova política, a Character.ai vai bloquear totalmente o acesso de menores de 18 anos aos chats com bots. Para esse público, a empresa vai oferecer experiências baseadas em “jogabilidade e narrativa de RPG”, consideradas mais seguras.

Além disso, serão implementadas verificações de idade e criado um laboratório de pesquisa em segurança de IA.

Principais mudanças anunciadas:

  • Proibição total de conversas entre menores de 18 anos e chatbots;

  • Implementação de verificação de idade obrigatória;

  • Criação de um laboratório de segurança em IA;

  • Substituição das interações pessoais por experiências de jogo e narrativa.

“Essa medida ajuda a separar a brincadeira criativa de interações emocionalmente intensas — algo essencial para adolescentes que ainda estão aprendendo a lidar com limites digitais”,
afirmou Dra. Nomisha Kurian, pesquisadora em segurança de IA, à BBC.

Com isso, a Character.ai busca reconstruir sua reputação e estabelecer um novo padrão de segurança digital, reforçando a responsabilidade das plataformas de IA no combate a riscos psicológicos e comportamentais entre jovens.