O ChatGPT, plataforma de inteligência artificial (IA) da OpenAI, enfrentou críticas em uma nova avaliação de diagnóstico médico, desta vez focada em determinar doenças e condições médicas em crianças.
Pesquisadores do Cohen Children’s Medical Center, em Nova York, concluíram que o ChatGPT não possui as mesmas habilidades de diagnóstico que um pediatra humano. A capacidade das IAs auxiliarem médicos na identificação de causas de doenças ou prevenção de condições é um tópico debatido na área médica.
Esta não é a primeira vez que o chatbot é questionado por respostas relacionadas à saúde. Um estudo anterior, publicado no final de 2023, indicou que a versão gratuita da plataforma fornecia respostas incorretas e potencialmente perigosas sobre o uso de medicamentos.
O novo estudo apresentou 100 casos médicos ao ChatGPT com o motor GPT-4, utilizando questões reais da área publicadas na última década. A expectativa era que o chatbot fornecesse diagnósticos corretos ou, pelo menos, seguisse um raciocínio lógico em direção a uma possível resposta.
O resultado revelou que o ChatGPT acertou apenas 17 casos, resultando em uma taxa de erro de 83%. Errou completamente em 72 questões, enquanto nas 11 restantes o resultado foi considerado insatisfatório ou incompleto.
O principal problema identificado no ChatGPT é a incapacidade de relacionar sintomas entre si ou conectá-los com características do paciente. Falha em identificar questões neurológicas e de comportamento, além de não estabelecer relações entre uma dieta e possíveis deficiências vitamínicas.
Apesar disso, os pesquisadores não descartam o potencial do ChatGPT. O texto sugere que, se treinado com literatura médica especializada, em vez de dados provenientes de toda a internet, a plataforma poderia melhorar no auxílio à medicina diagnóstica. O acesso a dados em tempo real e atualizados também é destacado como um fator que poderia aumentar a precisão, algo que atualmente não é possível na plataforma da OpenAI.