Nos Estados Unidos, um homem de 60 anos acabou internado após substituir o sal de cozinha por brometo de sódio, seguindo informações obtidas por meio do ChatGPT. O caso, raro e preocupante, foi descrito na revista Annals of Internal Medicine Clinical Cases.
Tudo começou quando ele leu sobre os possíveis malefícios do consumo excessivo de cloreto de sódio e resolveu cortar o sal da dieta. Para isso, consultou a IA da OpenAI em busca de alternativas. Não se sabe exatamente quais foram as respostas dadas, já que o registro da conversa não foi divulgado, mas pesquisadores da Universidade de Washington, que investigaram o caso, testaram a mesma pergunta no ChatGPT e receberam como sugestão o uso do brometo — sem qualquer alerta sobre riscos à saúde.
O paciente decidiu iniciar um “experimento pessoal” e consumiu brometo de sódio diariamente por três meses. Durante esse período, passou a apresentar sintomas graves: paranoia, alucinações, insônia, fadiga, sede excessiva, acne, perda de coordenação motora e até deficiência de nutrientes.
Ele chegou a procurar o hospital alegando ter sido envenenado por um vizinho, mas foi diagnosticado com quadro de psicose e internado na ala psiquiátrica. A situação só começou a se estabilizar após tratamento com antipsicóticos e suspensão do brometo. Depois de três semanas, recebeu alta, mas continuou sob acompanhamento médico.
O que é o bromismo
O bromismo é uma condição causada pela exposição excessiva ao brometo, capaz de provocar delírios, agitação, perda de memória e problemas motores. A substância já foi utilizada em sedativos, soníferos e anticonvulsivantes, mas começou a ser retirada das fórmulas na década de 1970, o que reduziu drasticamente a ocorrência da doença.
Risco de “consultas médicas” com IA
Para os especialistas, o caso é um alerta sobre os perigos de usar inteligência artificial como substituto para aconselhamento médico. Segundo os pesquisadores, esses sistemas podem fornecer informações imprecisas, sem avaliar criticamente o contexto, e acabar reforçando a desinformação.
Um porta-voz da OpenAI afirmou ao Live Science que os termos de uso do ChatGPT deixam claro que ele não deve ser usado para diagnóstico ou tratamento, e que a empresa treina seus modelos para incentivar os usuários a procurarem profissionais de saúde em casos semelhantes.