A Anthropic anunciou que começará a usar dados de usuários para treinar seus modelos de inteligência artificial. Isso inclui transcrições de conversas e sessões de programação, que poderão ser armazenadas por até cinco anos. Mas a decisão não será automática: cada pessoa poderá escolher se autoriza ou não o uso dessas informações.
Quem já utiliza o chatbot Claude precisa tomar essa decisão até 28 de setembro de 2025. Novos usuários terão que definir a preferência no momento do cadastro.
O que está em jogo
Segundo a empresa, a configuração só afeta novas conversas, chats retomados e sessões de programação. As interações antigas não serão incluídas, a menos que o usuário volte a acessá-las.
A mudança vale para todos os planos individuais do Claude — Free, Pro e Max — inclusive quando o Claude Code é utilizado. Já planos corporativos, como Claude Gov, Claude for Work, Claude for Education e uso via API (incluindo Amazon Bedrock e Google Cloud Vertex AI), ficam de fora.
Como será feita a escolha
Para quem já usa o Claude, um pop-up aparecerá pedindo a decisão. É possível adiar clicando em “Agora não”, mas a resposta se tornará obrigatória em setembro.
Na tela, os usuários verão os novos termos de uso e privacidade, acompanhados de um botão de “Aceitar”. Por padrão, a chave que permite o uso de conversas e sessões de programação para treinar a IA vem ativada — por isso, é preciso atenção para quem não deseja participar.
Como recusar o uso de dados
Para não autorizar, basta desativar a chave no momento do pop-up. Caso já tenha aceitado sem perceber, é possível reverter a decisão:
- Acesse Configurações > Privacidade > Configurações de Privacidade
- Desative a opção “Ajudar a melhorar o Claude”
A Anthropic destaca que essa escolha pode ser alterada a qualquer momento, mas só vale para dados futuros. O que já tiver sido usado no treinamento não poderá ser retirado.
Privacidade e proteção
Em comunicado, a empresa reforçou que adota filtros e processos automáticos para ocultar dados sensíveis e garantiu: “não vendemos dados de usuários a terceiros”.
Cooperação com a OpenAI
Apesar da concorrência, a Anthropic e a OpenAI decidiram avaliar os sistemas uma da outra em relação à segurança. Nos testes, a Anthropic analisou modelos da OpenAI quanto a riscos como bajulação excessiva, autopreservação e uso indevido. Já a OpenAI avaliou os modelos Claude em temas como manipulação, alucinações e resistência a instruções perigosas.
Os resultados mostraram pontos fortes e falhas em ambas as frentes, mas também indicaram que ainda há muito a melhorar na segurança das IAs.
A iniciativa chama atenção porque, recentemente, a OpenAI foi acusada de violar os termos de serviço da Anthropic ao usar acesso ao Claude no desenvolvimento de seus modelos GPT — o que levou a um bloqueio. Mesmo assim, as empresas decidiram compartilhar análises em nome da segurança, assunto que ganha cada vez mais relevância diante da pressão por regras mais rígidas de proteção, principalmente para menores de idade.