A OpenAI anunciou um novo plano de ação voltado à proteção de crianças no ambiente digital, em resposta ao crescimento do uso de inteligência artificial generativa. A iniciativa tem como foco principal combater a exploração sexual infantil associada a essas tecnologias.
O projeto foi desenvolvido em parceria com o National Center for Missing & Exploited Children (NCMEC) e autoridades dos Estados Unidos, além de contar com contribuições de especialistas e organizações dedicadas à segurança infantil. A proposta busca tornar mais eficientes a detecção e a investigação de casos de abuso.
Principais pilares do plano
A estratégia da OpenAI se baseia em três frentes principais:
- Atualização das leis: adaptação da legislação para lidar com conteúdos de abuso sexual infantil (CSAM) criados ou manipulados por IA
- Melhoria nos sistemas de denúncia: fortalecimento dos mecanismos de comunicação com autoridades, facilitando investigações mais rápidas e eficazes
- Prevenção tecnológica: integração de novas medidas de segurança nos próprios modelos de IA para identificar e bloquear usos indevidos
Além disso, o plano inclui ações legais, operacionais e técnicas para identificar riscos com mais rapidez, acelerar respostas e garantir maior responsabilização. Outro objetivo é disponibilizar informações relevantes de forma ágil para investigadores.
Representantes da Força-Tarefa de IA da Aliança dos Procuradores-Gerais dos EUA destacaram a importância da iniciativa, afirmando que ela aproxima as práticas do setor tecnológico das necessidades reais enfrentadas pelas autoridades.
Continuidade de medidas anteriores
O novo plano amplia iniciativas já adotadas pela OpenAI. Recentemente, a empresa atualizou suas diretrizes para interações com menores de 18 anos e passou a proibir conteúdos que incentivem automutilação.
Crescimento preocupante de casos
A iniciativa surge em meio ao aumento de denúncias relacionadas ao uso de IA para gerar conteúdo ilegal. Dados da Internet Watch Foundation indicam que, apenas no primeiro semestre do último ano, foram registrados mais de 8 mil casos de material de abuso sexual infantil criado com IA — um aumento de 14% em relação ao período anterior.
Entre os conteúdos denunciados estão imagens falsas de crianças em situações explícitas, frequentemente utilizadas para extorsão financeira e aliciamento de menores.
Michelle DeLaune, CEO do NCMEC, reforçou o compromisso de التعاون entre empresas de tecnologia, governos e organizações de proteção infantil para reduzir danos e aumentar a segurança no ambiente digital.
Um esforço conjunto contra novos riscos
Com o avanço acelerado da inteligência artificial, cresce também a necessidade de mecanismos mais robustos de proteção. O plano da OpenAI representa um passo importante na tentativa de equilibrar inovação tecnológica com responsabilidade e segurança, especialmente quando se trata da proteção de crianças.