A Meta, empresa por trás das redes sociais Instagram e Facebook, divulgou uma nova iniciativa voltada para combater a desinformação propagada por meio de conteúdos gerados por inteligência artificial (IA) em suas plataformas.
A nova política da Meta direcionada aos anunciantes estabelece que os responsáveis por postagens pagas devem informar os usuários quando as publicações modificadas por IA tenham sido “digitalmente criadas ou alteradas” a partir de qualquer ferramenta. Essa exigência se aplica a áudios, vídeos ou fotos que retratam pessoas reais fazendo algo que nunca fizeram, posts que representam eventos reais de forma distorcida, ou conteúdos que apresentam pessoas ou eventos que foram inteiramente gerados pela IA.
Essa ação da Meta tem como principal objetivo conter a disseminação de informações falsas, sobretudo durante o período de campanhas presidenciais nos Estados Unidos. Em diversas ocasiões, deepfakes de candidatos foram compartilhados nas redes sociais, mostrando-os em discursos fictícios ou situações comprometedoras, frequentemente sem qualquer aviso de que esses conteúdos foram produzidos por IA.
A Meta esclareceu que modificações digitais sutis e puramente estéticas, como recortes, ajustes de cor e melhorias na nitidez de um conteúdo, não requerem notificação. Além disso, a empresa implementará esse aviso na sua biblioteca de anúncios, o que significa que conteúdos semelhantes ou tentativas de promover a mesma postagem já terão suas configurações registradas no sistema.
A nova política está programada para entrar em vigor somente em 2024 e pode não ser aplicada de forma simultânea em todos os países. A Meta promete fornecer mais detalhes sobre as regras adicionais posteriormente.
Recentemente, a própria Meta lançou uma IA generativa chamada Llama 2, que está planejada para se tornar um chatbot para dispositivos móveis até o próximo ano. Além disso, a empresa já desenvolveu uma plataforma capaz de traduzir textos e áudios em até 100 idiomas.