A Voz Sintética do ChatGPT e o risco de apego Emocional

A OpenAI está de olho em um efeito curioso de sua tecnologia: a voz sintética do ChatGPT é tão convincente que pode levar usuários a desenvolverem um apego emocional ao modelo. Em um artigo recente, a empresa destacou preocupações sobre como essa tecnologia pode impactar as relações humanas.

Conexão Emocional com a IA?

No artigo “GPT-4 System Card,” a OpenAI mencionou que alguns usuários mostraram sinais de apego emocional ao ChatGPT. Em um estudo inicial, participantes usaram expressões como “esse é o nosso último dia juntos,” sugerindo que estavam criando laços emocionais com o modelo. A empresa vê esses casos como geralmente inofensivos, mas reconhece que eles levantam questões importantes.

A grande preocupação da OpenAI é que essas interações possam afetar as relações humanas reais. Se as pessoas começarem a criar vínculos sociais com a IA, isso pode reduzir a necessidade de interações humanas. Para indivíduos solitários, isso pode ser visto como algo positivo, mas também pode prejudicar relacionamentos saudáveis.

A empresa ainda apontou que o comportamento do modelo pode influenciar normas sociais. Por exemplo, o ChatGPT permite que o usuário o interrompa a qualquer momento, o que é natural em uma IA, mas não em interações humanas. Essa diferença pode moldar o comportamento humano de maneiras inesperadas.

Atribuir características humanas a uma IA não é apenas uma questão de apego emocional. Quando a voz sintética é convincente demais, os usuários tendem a confiar mais nas respostas do chatbot, o que é arriscado, já que o modelo pode gerar informações incorretas ou “alucinações.”

Outro perigo é que usuários possam encontrar maneiras de contornar as restrições da IA, levando a respostas perigosas ou até ofensivas. A OpenAI está ciente desses riscos e pretende aprofundar seus estudos para entender melhor como a integração íntima com a IA pode impactar o comportamento humano.