Quando a OpenAI lançou o GPT-4 em março de 2023, ajudou a consolidar o conceito das Leis de Escala (Scaling Laws). O GPT-4 era cerca de 10 vezes maior do que o modelo que alimentava o ChatGPT original, e seu tamanho maior produziu um salto significativo no desempenho dos GPTs. Desde então, o mercado passou a ansiar por um GPT-5, gigantesco e poderoso. Mas 18 meses depois, a OpenAI limitou-se a lançar vários outros modelos com capacidades impressionantes, incluindo o GPT-4o, em maio, e o o1, em setembro, sem revelar o tamanho desses modelos. Hoje, acredita-se amplamente que eles não são muito maiores do que o GPT-4 original — e podem até ser menores.
A história tem sido semelhante em outros laboratórios líderes em IA. Alguns meses atrás, tanto Google quanto Anthropic atualizaram seus modelos de pequeno e médio porte (Sonnet 3.5 e Haiku 3.5 para Anthropic, Pro 1.5 e Flash 1.5 para Google). Mas ainda estamos esperando por atualizações correspondentes para seus modelos maiores (Opus 3.5 para o Anthropic e Ultra 1.5 para o Google).
As leis de escala estão perdendo força? A revolução da IA Generativa — construída com base na crença de que os modelos continuarão melhorando à medida que crescem vertiginosamente — começa a estagnar?
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Quatro lançamentos recentes — GPT-5, GPT-OSS, Genie 3 e Claude Opus 4.1 — mostram que a disputa não é mais por modelos maiores, mas por modelos mais úteis.
Mais seguro, mais barato e com novos truques agênticos, modelo continua longe da AGI e leva OpenAI a enfrentar críticas no lançamento.
Enquanto a IA avança, a amnésia digital dos modelos permanece um gargalo. Mas soluções já estão surgindo — de cofres pessoais de memória a plugins especializados.
Deepfakes e phishing por IA estão entre os principais vetores. Violação com IA encurta tempo e amplia escala de ataque
Relatório da IBM mostra que o custo médio é de R$ 7,19 milhões por violação. Mais de 60% das empresas não têm política de uso e uma em cada 6 violações usam IA para atacar organizações
Crie um conselho consultivo com personas geradas por IA para tomar decisões mais estratégicas, com clareza sob demanda e diversidade de pensamento
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso