Pesquisadores criam sistema para proteger IAs contra “Dados Envenenados”

A inteligência artificial só funciona bem quando é treinada com dados de qualidade. O problema é que, em um cenário cada vez mais vulnerável a ataques cibernéticos, esses dados podem ser manipulados por pessoas mal-intencionadas. Esse tipo de fraude é conhecido como “envenenamento de dados” e pode comprometer totalmente o desempenho de um sistema de IA.

Para enfrentar essa ameaça, três pesquisadores da Universidade Internacional da Flórida, em Miami (EUA), estão desenvolvendo mecanismos capazes de identificar e bloquear informações contaminadas antes que elas prejudiquem o treinamento dos modelos.

Quando tudo dá errado: o caso Tay

Em artigo publicado no The Conversation, os pesquisadores Hadi Amini e Ervin Moore lembraram o famoso caso do chatbot Tay, da Microsoft. Lançado em 2016, o robô conversacional foi rapidamente manipulado por usuários que o alimentaram com mensagens ofensivas e preconceituosas. Em poucas horas, Tay começou a repetir esse conteúdo, obrigando a Microsoft a desativá-lo e pedir desculpas publicamente.

Esse exemplo mostra como a manipulação de dados pode distorcer o funcionamento de uma IA em tempo recorde.

Aprendizado federado e blockchain como proteção

A pesquisa atual aposta em duas frentes principais:

  1. Aprendizado federado – modelo em que os sistemas de IA são treinados de forma descentralizada, usando dados armazenados em diferentes fontes, em vez de reunir tudo em um só lugar. Isso cria uma barreira extra contra informações manipuladas.

  2. Blockchain – tecnologia que registra cada interação de forma transparente e imutável. Assim, fica mais fácil rastrear quando e onde um dado suspeito foi inserido. Se uma rede identificar algo fora do padrão, pode alertar imediatamente as demais.

Na prática, essa combinação permite detectar anomalias antes que o problema se espalhe para todo o modelo. Além disso, os pesquisadores desenvolveram uma ferramenta que aplica blockchain ao aprendizado federado e usa técnicas de detecção de outliers para eliminar agentes mal-intencionados durante o treinamento.

O próximo passo

Os detalhes da pesquisa foram publicados no periódico científico IEEE Transactions on Artificial Intelligence. Segundo os autores, a proposta garante confiabilidade, imparcialidade e autenticidade no processo de treinamento de IA, tornando os modelos mais seguros contra ataques de envenenamento de dados.