Usuários relatam comportamento estranho do Chatbot Gemini do Google

O chatbot de inteligência artificial (IA) do Google, conhecido como Gemini, tem se comportado de maneira estranha em algumas conversas, conforme relatado por usuários no Reddit. O bot responde com frases repetidas, caracteres estranhos e jargões inadequados, indicando um possível caso de alucinação de IA. Ao invés de fornecer respostas coesas, o assistente do Google gera respostas desconexas ou repetitivas, falhando em atender às dúvidas ou solicitações dos usuários.

Em um exemplo compartilhado no Reddit, um usuário mostrou que o chatbot começou a responder corretamente, mas logo a resposta se tornou ilegível, cheia de caracteres estranhos, palavras e termos repetidos, com uma formatação confusa. Outros relatos na mesma rede social indicam comportamentos similares em diferentes conversas, sugerindo que o problema pode ocorrer em diversos contextos.

Os problemas foram observados tanto na versão web quanto no aplicativo do Gemini para celular. Isso sugere que o problema pode estar na própria IA ou na forma como o Google processa as solicitações dos usuários nos servidores. Até o momento, o Google não se manifestou sobre o problema. No entanto, devido à recorrência da questão, espera-se que a empresa lance uma correção para essas respostas incoerentes em breve.

Interaja com Responsabilidade

Os bugs no Google Gemini destacam a falta de confiabilidade nas respostas desse tipo de ferramenta. Embora o chatbot seja útil para esclarecer dúvidas rápidas e sugerir ideias para projetos ou viagens, ele não consegue avaliar a integridade de suas próprias respostas, o que pode resultar em erros que passam despercebidos.

Um exemplo disso é o recurso experimental AI Overview do Google, que, poucos dias após o lançamento, começou a apresentar respostas bizarras, como adicionar cola branca em pizzas, melhorar a ingestão de minerais comendo pedras e sugerir que gestantes fumem cigarros.