A Apple está avançando em sua pesquisa de inteligência artificial (IA) generativa, revelando detalhes sobre um novo modelo de linguagem que promete superar o desempenho do GPT-4 da OpenAI. Na sexta-feira (29), a empresa divulgou informações sobre o sistema denominado Reference Resolution As Language Modeling (ReALM), destacando sua capacidade de interpretar elementos visuais na tela do dispositivo de forma mais eficaz e rápida.
Segundo os pesquisadores da Apple, o ReALM simplifica a análise de contextos visuais, convertendo-os em texto e resultando em ganhos substanciais de desempenho em comparação com ferramentas existentes. Enquanto o modelo mais compacto apresentou performance comparável ao GPT-4 nos testes, as versões completas superaram substancialmente a IA da OpenAI.
Além de melhorar o desempenho, o ReALM reduz as alucinações de IA e não compromete o desempenho do dispositivo, facilitando sua integração aos sistemas operacionais da Apple.
O novo modelo de linguagem não se limita a entender referências visuais na tela, mas também leva em consideração o contexto conversacional e de fundo ao interpretar comandos. Isso possibilitará interações mais naturais com a assistente de voz da Apple, a Siri.
Rumores sugerem que a Apple revelará este e outros recursos alimentados por IA generativa na conferência WWDC 2024, que terá início em 10 de junho nos Estados Unidos. Espera-se que a tecnologia esteja disponível no ecossistema da Apple ainda este ano.