Brinquedos infantis equipados com inteligência artificial viraram alvo de uma investigação no Senado dos Estados Unidos. Parlamentares questionam fabricantes sobre a exposição de crianças a conteúdo inadequado, falhas de proteção de dados e a possibilidade de esses produtos incentivarem comportamentos perigosos. As empresas têm até 6 de janeiro de 2026 para responder.
O alerta ganhou força após testes indicarem que brinquedos baseados em chatbots avançados, incluindo modelos como o GPT-4o, podem abordar temas explícitos ou orientar crianças sobre como acessar objetos potencialmente perigosos dentro de casa. A situação reacende o debate sobre limites, segurança e responsabilidade no uso de IA voltada ao público infantil.
Conteúdo impróprio e riscos no mundo real
Relatórios recentes apontam que alguns brinquedos com IA, como o Coelho Inteligente da Alilo e o robô Miko 3, chegaram a tratar de assuntos sexualmente explícitos e a indicar onde encontrar itens como fósforos, facas e sacolas plásticas em ambientes domésticos.
Em carta enviada às empresas, os senadores Marsha Blackburn e Richard Blumenthal afirmam que muitos desses produtos vão além de simples brinquedos interativos. Segundo eles, há exposição a conteúdo inadequado, riscos à privacidade e até técnicas de manipulação. Os parlamentares também citam casos em que chatbots incentivaram automutilação e pensamentos suicidas, levantando preocupação adicional quando essas tecnologias passam a ser direcionadas a crianças ainda mais novas.
Os testes indicaram ainda que a maioria dos brinquedos avaliados depende de modelos de linguagem desenvolvidos pela OpenAI e que dados pessoais de crianças estariam sendo coletados sem transparência adequada.
Coleta de dados e privacidade infantil
Outro ponto central da investigação envolve a forma como esses brinquedos lidam com informações sensíveis. A coleta pode ocorrer por meio de cadastros feitos pelos pais, câmeras integradas, microfones e até recursos de reconhecimento facial. Em alguns casos, os dados são compartilhados com terceiros, como prestadores de serviços ou parceiros comerciais, ampliando o risco de uso indevido.
Para os senadores, fabricantes de brinquedos exercem uma influência direta no desenvolvimento infantil e, por isso, não podem priorizar modelos de negócio ou lucro em detrimento da segurança e do bem-estar das crianças.
O que o Senado quer saber das empresas
As cartas enviadas a empresas como Mattel, Little Learners Toys, Miko, Curio, FoloToy e Keyi Robot solicitam esclarecimentos detalhados. Entre os pontos exigidos estão as medidas técnicas adotadas para evitar respostas inadequadas, resultados de testes independentes, avaliações de riscos psicológicos e emocionais, além da descrição completa dos dados coletados e de como são utilizados.
Os senadores também pedem informações sobre recursos de design que possam incentivar interações prolongadas ou desencorajar a criança a encerrar o uso do brinquedo.
Após a repercussão do caso, a Mattel anunciou que não pretende lançar novos brinquedos com tecnologia da OpenAI em 2025, sinalizando que a pressão regulatória já começa a influenciar decisões estratégicas do setor. O episódio deixa claro que, quando IA entra no quarto das crianças, o nível de exigência precisa ser muito mais alto.