Antes da demissão de Sam Altman, a OpenAI estava desenvolvendo uma inteligência artificial (IA) poderosa, denominada Q* (pronuncia-se “Q-Star”), que gerou preocupações dentro da própria companhia. O modelo tinha a capacidade de resolver problemas matemáticos inéditos, representando um avanço notável na tecnologia, conforme relata a Reuters.
As preocupações foram expressas em uma carta enviada ao Conselho Administrativo da OpenAI pouco antes da demissão de Sam Altman, que reassumiu recentemente o cargo de CEO da empresa. Esse episódio contribuiu para o afastamento do executivo.
Os Riscos Associados ao Q*
Atualmente, os modelos de linguagem (LLMs) conseguem gerar frases e períodos baseados em modelos probabilísticos, limitando-se a lidar com questões previamente apresentadas a eles, embora com impressionante capacidade de processamento.
Segundo fontes da Reuters, o Q* superou essa limitação ao demonstrar habilidade para resolver problemas matemáticos de nível primário, diferentemente de uma calculadora convencional, capaz apenas de executar uma quantidade finita de operações.
Especialistas destacam que o projeto Q* representaria um passo significativo em direção à inteligência artificial geral (AGI), um sistema autônomo com inteligência superior à humana. Em termos gerais, a IA teria uma capacidade cognitiva semelhante à dos humanos.
O modelo não apenas teria acesso ao conhecimento anteriormente fornecido, mas também seria capaz de generalizar, aprender e compreender uma quantidade virtualmente infinita de soluções matemáticas.
Sam Altman mencionou o progresso do Q* em uma conferência, descrevendo-o como uma descoberta recente que empurrou os limites da ignorância para frente e da descoberta para trás. Curiosamente, um dia depois desse comentário, ele foi demitido.
Os Riscos Não Especificados do Q*
Na carta enviada ao conselho, os pesquisadores teriam alertado sobre os perigos associados a esse novo projeto, embora sem detalhar quais seriam esses riscos. A Reuters não teve acesso à carta em questão e não obteve resposta da OpenAI, impossibilitando a confirmação do conteúdo da mensagem ou do real potencial da ferramenta.