Inteligência Artificial na moderação de conteúdo: solução ou novo problema?

A moderação de conteúdo é essencial para manter a internet um espaço mais seguro. Esse processo consiste em analisar e aplicar regras sobre o que os usuários publicam em redes sociais e outras plataformas digitais, com o objetivo de barrar desinformação, discurso de ódio e outros tipos de conteúdos nocivos.

No início, essa tarefa era feita apenas por humanos. Depois, com o avanço da tecnologia, surgiram ferramentas automatizadas — e agora a inteligência artificial (IA) já desempenha parte desse papel. Mas será que a IA realmente resolve o problema?

A promessa da IA e as preocupações

Segundo reportagem da Bloomberg, grandes empresas de tecnologia veem na IA uma forma de agilizar a moderação e reduzir custos. Porém, profissionais da área afirmam que, na prática, a tecnologia ainda está longe de substituir o olhar humano.

Dos 13 moderadores entrevistados pela Bloomberg, quase todos disseram que a IA atrapalha mais do que ajuda. A estimativa é de que cerca de 70% das análises feitas pela inteligência artificial estejam incorretas. Isso porque a máquina até consegue responder a questões objetivas, mas não entende bem contextos culturais, ironia, mudanças sociais ou sutilezas da linguagem humana.

Essa limitação aumenta o risco de ambientes virtuais ficarem ainda mais inseguros, especialmente para crianças e adolescentes.

O dilema das plataformas

As big techs alegam que é impossível contratar moderadores em número suficiente para acompanhar o volume de publicações. Além disso, a moderação humana traz altos custos, o que tem levado muitas empresas a investir cada vez mais em IA.

O TikTok, por exemplo, já demitiu centenas de moderadores e planeja novos cortes. O X (antigo Twitter) também aposta que a inteligência artificial pode “apoiar o bem-estar da equipe de moderação” e, ao mesmo tempo, melhorar os serviços.

Por outro lado, erros da IA já causaram problemas. A própria Meta admitiu, em janeiro, que seus sistemas automatizados cometeram “muitos erros” e censuraram conteúdos que não violavam nenhuma regra.

O futuro da moderação digital

Mike Pappas, CEO da Modulate (empresa de moderação de IA), destacou que o desafio é enorme: as normas sociais mudam constantemente, novas expressões surgem todos os dias e o comportamento humano evolui mais rápido do que os algoritmos conseguem acompanhar.

Ou seja, apesar do avanço da tecnologia, a inteligência artificial ainda não é capaz de lidar com toda a complexidade do discurso humano. No fim das contas, o grande desafio das plataformas será equilibrar eficiência, custo e responsabilidade para garantir que a internet continue sendo um espaço seguro para todos.