A startup Yepic AI, com sede no Reino Unido, proclamou seu compromisso de usar deepfakes para fins benevolentes e prometeu nunca recriar alguém sem sua autorização. No entanto, a empresa violou exatamente o que afirmou que não faria.
Em um e-mail não solicitado a um jornalista do TechCrunch, um representante da Yepic AI compartilhou dois vídeos deepfaked do repórter, que não havia dado permissão para a reprodução de sua imagem. A Yepic AI alegou ter usado uma foto publicamente disponível do jornalista para criar dois vídeos falsos em que ele aparecia falando em diferentes idiomas.
O jornalista solicitou que a Yepic AI excluísse os deepfakes criados sem seu consentimento.
Os deepfakes são mídias, como fotos, vídeos ou áudio, geradas por sistemas de IA visando parecerem ou soarem como um indivíduo específico. Embora essa tecnologia não seja nova, a proliferação de sistemas de IA possibilita que quase qualquer pessoa crie conteúdo deepfake convincente de qualquer outra pessoa, muitas vezes sem o conhecimento ou consentimento da vítima.
A página “Ética” da Yepic AI afirma: “Deepfakes e personificações satíricas para fins políticos e outros são proibidos”. Além disso, a empresa afirmou em um post de blog em agosto que “recusa-se a produzir avatares personalizados de pessoas sem sua permissão expressa”.
Não se sabe se a empresa criou deepfakes de outras pessoas sem permissão, e a Yepic AI recusou-se a fornecer informações a esse respeito.
Quando questionado sobre o incidente, o CEO da Yepic AI, Aaron Jones, disse ao TechCrunch que a empresa está atualizando sua política ética para “incluir exceções para imagens geradas por IA com propósitos artísticos e expressivos”.
Explicando como o incidente ocorreu, Jones afirmou: “Nem eu nem a equipe da Yepic estivemos diretamente envolvidos na criação dos vídeos em questão. Nossa equipe de relações públicas confirmou que o vídeo foi especificamente criado para conscientizar o jornalista sobre a incrível tecnologia desenvolvida pela Yepic”.
Jones garantiu que os vídeos e imagens usados para criar a representação do jornalista foram removidos.
Deepfakes têm enganado vítimas inocentes, levando a fraudes que resultaram na divulgação involuntária de criptomoedas ou informações pessoais, contornando sistemas de moderação. Em um caso, os fraudadores utilizaram a IA para falsificar a voz de um CEO de uma empresa, induzindo funcionários a realizar uma transação fraudulenta no valor de centenas de milhares de euros. Antes de se tornarem uma ferramenta popular entre os fraudadores, os deepfakes eram usados para criar pornografia não consensual ou imagens explícitas, vitimizando mulheres e gerando vídeos pornográficos com aparência realista usando a imagem de pessoas que não deram seu consentimento.