A Apple apresentou uma nova família de modelos de linguagem grande(LLM) de código aberto conhecidos como OpenELM (Modelos de Linguagem Eficientes de Código Aberto). Esses modelos são projetados para operar localmente nos dispositivos, marcando uma mudança da dependência tradicional do processamento baseado em nuvem.
Esse desenvolvimento faz parte da estratégia mais ampla da Apple de integrar recursos de IA mais avançados diretamente em seus dispositivos, aprimorando tanto a privacidade quanto a velocidade de processamento.
Os destaques do OpenELM incluem:
- Disponibilidade de código aberto: a Apple disponibilizou o OpenELM no Hugging Face Hub, permitindo que desenvolvedores e pesquisadores acessem e contribuam para seu desenvolvimento.
- Estrutura de treinamento abrangente: ao contrário dos modelos tradicionais que fornecem apenas pesos de modelo e código de inferência, o lançamento do OpenELM inclui a estrutura completa para treinamento e avaliação em conjuntos de dados publicamente disponíveis.
- Privacidade e velocidade aprimoradas: ao ser executado no dispositivo, o OpenELM elimina a necessidade de transmitir dados para servidores na nuvem, aprimorando a privacidade do usuário. Além disso, o processamento local reduz a latência, oferecendo um tempo de resposta mais rápido para recursos baseados em IA nos dispositivos.
- Quanto à precisão dos modelos, é explicado que, usando um orçamento de parâmetros de um bilhão, o OpenELM tem uma melhoria de precisão de 2,36% sobre o OLMo, enquanto exige metade do número de tokens de pré-treinamento.
A Apple planeja incorporar o OpenELM em seu próximo lançamento, o iOS 18, que promete introduzir uma variedade de novos recursos de IA. A integração do OpenELM deve potencializar diversas funcionalidades de IA no dispositivo, incluindo versões mais avançadas da Siri e outros aplicativos baseados em IA. É importante lembrar que a WWDC, evento da Apple que apresentará outras integrações com IA, ocorrerá em junho deste ano.
Fonte: Apple Insider