Um grupo de especialistas em inteligência artificial (IA), incluindo atuais e ex-funcionários de empresas do setor, publicou uma carta aberta destacando os perigos dessa tecnologia. Intitulada “O direito de alertar sobre inteligência artificial avançada”, a carta é assinada por 13 pessoas, a maioria ex-funcionários da OpenAI, criadora do ChatGPT. Outros signatários incluem um funcionário atual e um ex-funcionário do DeepMind, laboratório de IA do Google, sendo que um deles também trabalhou na Anthropic, responsável pelo chatbot Claude.
Críticas às Empresas de IA
A carta critica severamente a forma como as empresas de IA estão gerenciando essa tecnologia, especialmente em termos de transparência. Os autores reconhecem os potenciais benefícios da IA, mas expressam grande preocupação com a falta de abertura das empresas, que compartilham informações apenas internamente, excluindo governos, entidades independentes e a sociedade. Eles afirmam que as empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz e que as estruturas de governança corporativa existentes não são suficientes para resolver esse problema.
Propostas de Regulamentação para Empresas de IA
Os especialistas sugerem quatro princípios que as empresas de IA devem seguir:
- Liberdade de crítica: Não firmar acordos que proíbam os funcionários de criticá-las.
- Processo de alerta anônimo: Implementar um mecanismo confiável e anônimo para denúncias sobre riscos.
- Cultura de críticas abertas: Fomentar um ambiente que incentive críticas construtivas.
- Transparência pública: Permitir que os funcionários relatem riscos ao público, incluindo o compartilhamento de informações confidenciais se todas as outras medidas falharem.
Iniciativas Recentes e Contradições
Recentemente, a OpenAI criou um comitê de Segurança e Proteção para fiscalizar suas operações com IA. No entanto, a empresa enfrentou críticas por usar uma voz similar à de Scarlett Johansson em seu chatbot, mesmo após a atriz negar permissão.
A carta aberta busca aumentar a conscientização sobre os riscos da IA e promover uma maior transparência e responsabilidade nas operações das empresas que desenvolvem essa tecnologia.