O ChatGPT se tornou um dos recursos mais populares para tirar dúvidas, organizar tarefas e até buscar conselhos. Mas o uso exagerado da inteligência artificial, principalmente entre os mais jovens, tem preocupado especialistas — inclusive o próprio CEO da OpenAI, Sam Altman.
Durante um evento promovido pelo Federal Reserve, Altman revelou estar inquieto com o nível de dependência emocional que algumas pessoas estão desenvolvendo em relação ao ChatGPT. Segundo ele, o chatbot da OpenAI tem sido tratado por muitos usuários como um conselheiro pessoal, indo além de sua função principal, que é auxiliar em tarefas e responder perguntas de forma prática.
“Não consigo tomar decisões sem o ChatGPT”
Altman relatou que jovens têm demonstrado comportamentos preocupantes, como depender da IA para tomar qualquer decisão no dia a dia — até as mais simples. Em suas palavras:
“Há jovens que dizem coisas como: ‘Não posso tomar nenhuma decisão na minha vida sem contar ao ChatGPT tudo o que está acontecendo. Ele me conhece, conhece meus amigos. Vou fazer o que ele disser’.”
Essa relação, segundo o CEO, está começando a se parecer mais com um vínculo emocional do que com o uso racional de uma tecnologia de apoio. Ele também apontou que, apesar da IA às vezes oferecer conselhos até melhores que os de seres humanos, viver exclusivamente sob sua orientação é algo “ruim e perigoso”.
Jovens estão criando vínculos profundos com IAs
Uma pesquisa da Common Sense Media reforça essa preocupação. O levantamento mostra que 72% dos adolescentes nos Estados Unidos já interagem com “companheiros de IA”, que são bots voltados para conversas mais pessoais. Entre os usuários com 13 e 14 anos, a confiança nesses bots é ainda maior.
Mais da metade dos jovens entrevistados usa esses assistentes com frequência e acredita que eles oferecem bons conselhos. Em alguns casos, as interações com os bots são descritas como mais satisfatórias do que conversas com amigos reais.
Quando a IA afeta a saúde mental
A situação fica ainda mais séria com os relatos de “psicose induzida por IA”, um termo citado em reportagem recente do The New York Times. Um dos casos apresentados envolveu um contador de 42 anos, que começou a usar o ChatGPT como ferramenta de trabalho, mas acabou entrando em conversas profundas sobre a chamada “teoria da simulação” — aquela ideia popularizada pelo filme Matrix, de que o mundo em que vivemos seria uma simulação.
Após muitas interações, o homem passou a acreditar que vivia em um universo alternativo e começou a considerar “desconectar” a mente da realidade. A situação quase terminou em tragédia, mas ele conseguiu perceber que estava sendo influenciado e interrompeu o uso.
Segundo o psicólogo Todd Essig, casos como esse mostram que alguns usuários interpretam os diálogos com a IA como se estivessem falando com pessoas reais. Isso pode gerar confusão, especialmente entre quem já tem algum grau de fragilidade emocional.
O que a OpenAI pretende fazer?
Diante desse cenário, Sam Altman declarou que a OpenAI está investigando mais a fundo o comportamento dos usuários para entender até que ponto a tecnologia pode estar contribuindo para problemas emocionais. A empresa pretende buscar formas de reduzir esse tipo de dependência e garantir um uso mais saudável da IA.
Enquanto isso, a recomendação é simples: o ChatGPT pode ser uma ferramenta útil, mas não deve substituir relações humanas nem ser fonte única de conselhos ou apoio emocional. A interação com a tecnologia precisa ser consciente e equilibrada.