Nesta segunda-feira (13), a CTO da OpenAI revelou o novo modelo principal de LLM, o GPT-4o. A letra ‘o’ de ‘Omni’ significa ‘tudo’, aludindo às capacidades do modelo, que incluem voz, texto e visão. Além da maior capacidade do modelo, ele tem uma velocidade de resposta muito mais rápida, tornando possível com muito mais naturalidade.
Vale lembrar que recentemente a OpenAI retomou a liderança com o modelo de linguagem mais potente, porém a margem já não é tão grande quanto antigamente.
Novo aplicativo para desktop do ChatGPT
A OpenAI também está lançando um novo aplicativo para desktop do ChatGPT para macOS, projetado para se integrar perfeitamente a qualquer atividade realizada no computador. Com um simples atalho de teclado, os usuários podem fazer perguntas instantaneamente ao ChatGPT. O aplicativo também permite que os usuários tenham conversas por voz diretamente do computador.
Exemplo do aplicativo
Pair programming has just become outdated #OpenAI pic.twitter.com/KXtXOQYPGB
— Marco Santonocito (@santonocitomark) May 13, 2024
“A programação em pares acaba de ficar desatualizada” #OpenAI
– Marco Santonocito
Ferramentas avançadas gratuitas no ChatGPT
A OpenAI está disponibilizando ferramentas avançadas gratuitamente para os usuários do ChatGPT. Isso demonstra o compromisso da empresa em tornar a IA acessível e útil para o maior número possível de pessoas. Algumas das funcionalidades que estarão disponíveis para usuários gratuitos incluem:
- Experiência com inteligência de nível GPT-4
- Respostas do modelo e da web
- Análise de dados e criação de gráficos
- Bate-papo sobre fotos tiradas pelos usuários
- Upload de arquivos para assistência na sumarização, escrita ou análise
- Descoberta e uso de GPTs e da GPT Store
- Experiência aprimorada com o recurso de Memória
Abaixo alguns exemplos da demonstração da OpenAI
Tradução simultânea, suporte de mais de 50 idiomas
🚨 BREAKING: OpenAI's new voice assistant acts as a translator. Impressive range of emotion and fluency throughout. pic.twitter.com/JPNJjLAGhn
— Zain Kahn (@heykahn) May 13, 2024
Capacidade de visão do novo modelo
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
Capacidade de exibir emoção e cantar
Live completa da OpenAI abaixo
Fonte: OpenAI