OpenAI cria equipe para mitigar riscos da inteligência artificial superinteligente

A OpenAI anunciou a formação de uma equipe dedicada a garantir que a versão avançada do ChatGPT não ultrapasse a inteligência humana. Preocupada com os potenciais riscos que uma inteligência artificial (IA) ainda mais inteligente pode trazer para a humanidade, a empresa revelou detalhes sobre esse trabalho em um comunicado na última quarta-feira (5).

A startup americana enfatizou que a IA superinteligente ainda é apenas uma ideia, mas acredita que não levará muito tempo até que um sistema capaz de superar o raciocínio humano esteja disponível. A OpenAI estima que esse mecanismo poderá ser lançado em até uma década.

No comunicado, o cofundador da OpenAI, Ilya Sutskever, e o chefe da nova equipe, Jan Leike, afirmam que atualmente não há uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela se torne desonesta. Por isso, o objetivo da empresa é desenvolver um mecanismo de controle antes que o sistema seja lançado.

Os especialistas destacam que a IA superinteligente tem potencial para se tornar a tecnologia de maior impacto já inventada, ajudando a resolver muitos dos principais problemas da atualidade. No entanto, eles alertam para os riscos associados, que podem levar ao enfraquecimento da humanidade e até mesmo à extinção humana.

A equipe de “superalinhamento”, como é chamada, terá a missão de desenvolver avanços técnicos e científicos para controlar a IA superinteligente. A OpenAI planeja construir um pesquisador de alinhamento automatizado de nível humano nos próximos quatro anos. Para isso, a empresa dedicará 20% de sua capacidade computacional e contará com a colaboração de pesquisadores de outras áreas. A OpenAI está procurando os melhores profissionais para se juntarem ao projeto e recentemente abriu vagas de emprego para atrair as “melhores mentes do mundo”.

Essa não é a primeira vez que a OpenAI alerta sobre os riscos de extinção da humanidade associados à IA. Em maio, o CEO da empresa, Sam Altman, juntou-se a outros líderes importantes do setor ao solicitar uma regulamentação imediata da tecnologia, comparando seus perigos aos de pandemias e guerras nucleares.

Com a criação dessa equipe e o foco em mitigar os riscos da IA superinteligente, a OpenAI busca liderar o caminho no desenvolvimento responsável e seguro da inteligência artificial avançada, garantindo que a tecnologia seja benéfica para a humanidade.