A Comissão Federal de Comunicações (FCC) dos Estados Unidos anunciou nesta quinta-feira (08) que as chamadas automáticas utilizando vozes geradas por inteligência artificial (IA) foram oficialmente consideradas ilegais. A medida surge após a proliferação de deepfakes que imitam a voz do presidente Joe Biden, pedindo aos eleitores para não comparecerem às eleições. Agora, as pessoas por trás dessas fraudes poderão ser responsabilizadas.
Proibição de Vozes Geradas por IA em Chamadas
De acordo com informações do The Verge, a decisão da FCC estabelece que vozes criadas por IA são agora equiparadas a “voz artificial ou pré-gravada”. Embora já existisse uma proibição na Lei de Proteção ao Consumidor Telefônico (TCPA) contra chamadas automáticas utilizando esse tipo de recurso, não estava claro anteriormente se as vozes artificiais se enquadravam em “pré-gravada”. Agora, com a determinação da FCC, está oficialmente esclarecido.
Essa decisão abre espaço para que os procuradores-gerais de cada estado americano tomem medidas legais contra aqueles que utilizam vozes clonadas em chamadas telefônicas.
Jessica Rosenworcel, presidente da FCC, declarou em comunicado que o recurso tem sido frequentemente utilizado para aplicar golpes e, agora, os estados têm o poder de reprimir essas práticas.
“Maus atores estão utilizando vozes geradas por IA em chamadas automáticas não solicitadas para extorquir familiares vulneráveis, imitar celebridades e desinformar os eleitores. Os procuradores-gerais estaduais terão agora novas ferramentas para reprimir essas fraudes e garantir que o público esteja protegido contra fraudes e desinformação”, afirmou Rosenworcel.
Contexto
A decisão da FCC foi motivada pelo incidente ocorrido em janeiro, quando alguns residentes de New Hampshire receberam chamadas com a voz do presidente Joe Biden instruindo-os a não comparecerem às primárias presidenciais. A voz foi gerada utilizando inteligência artificial. A investigação subsequente revelou que duas empresas sediadas no Texas estavam ligadas às chamadas falsas.