Deepfakes e o desafio de identificar o que é real na era da inteligência artificial

Já não é novidade que vídeos, áudios e imagens podem ser manipulados com um realismo impressionante. As chamadas deepfakes — conteúdos criados com inteligência artificial — estão cada vez mais sofisticadas, o que torna difícil saber o que é verdadeiro ou falso na internet. E esse problema tem crescido a ponto de preocupar especialistas e empresas de tecnologia no mundo todo.

Marcas d’água não estão dando conta do recado

Uma das soluções mais adotadas atualmente para tentar conter o avanço das deepfakes é o uso de marcas d’água digitais invisíveis. Elas funcionam como um tipo de selo que sinaliza que o conteúdo foi gerado por IA, mesmo que o usuário comum não veja nada diferente.

Empresas como OpenAI, Google e Meta já usam esse tipo de marcação em conteúdos gerados por suas ferramentas. Mas uma pesquisa feita pela Universidade de Waterloo, no Canadá, mostra que essa tecnologia pode não ser tão segura quanto se imaginava.

A ferramenta que apaga marcas invisíveis

No estudo, os pesquisadores desenvolveram uma ferramenta chamada UnMarker, capaz de remover marcas d’água de conteúdos criados por IA. O mais preocupante é que ela faz isso sem precisar saber como a marca foi aplicada, sem acesso ao sistema original e sem interagir com os detectores usados para identificar o conteúdo.

Segundo Andre Kassis, autor principal da pesquisa, a ideia era justamente mostrar que se os pesquisadores conseguem fazer isso, pessoas mal-intencionadas também podem.

“A marca d’água está sendo promovida como uma solução perfeita, mas mostramos que essa tecnologia pode ser quebrada. Vivemos em uma era em que você não pode mais confiar no que vê.”

O tamanho do problema

Os números deixam claro que estamos diante de uma ameaça real. De acordo com o Entrust Cybersecurity Institute, em 2024, um caso de deepfake foi registrado a cada cinco minutos. E a tendência é de crescimento.

Já um estudo da Deloitte revelou que:

  • 59% das pessoas têm dificuldade em diferenciar conteúdos reais daqueles criados por IA;
  • 84% dos entrevistados que conhecem a tecnologia acreditam que os conteúdos gerados por inteligência artificial devem ser rotulados de forma clara.

Apesar disso, ainda há pouco consenso sobre como identificar e regulamentar esse tipo de conteúdo, o que aumenta o risco de manipulações e golpes usando vídeos ou áudios falsos, mas extremamente convincentes.

O que podemos fazer?

Enquanto as soluções técnicas são desenvolvidas, o caminho mais seguro é a educação digital. Estar atento ao que consumimos online, desconfiar de conteúdos muito sensacionalistas e checar informações em fontes confiáveis são atitudes essenciais.

Além disso, é importante que plataformas, empresas e governos avancem juntos na criação de políticas claras e eficazes para lidar com deepfakes e garantir que a IA seja usada de forma ética e transparente.

No fim das contas, o grande desafio da inteligência artificial não está só na criação de conteúdo, mas em como reconhecer quando ela está sendo usada — e com qual intenção.