Quando a OpenAI lançou o GPT-4 em março de 2023, ajudou a consolidar o conceito das Leis de Escala (Scaling Laws). O GPT-4 era cerca de 10 vezes maior do que o modelo que alimentava o ChatGPT original, e seu tamanho maior produziu um salto significativo no desempenho dos GPTs. Desde então, o mercado passou a ansiar por um GPT-5, gigantesco e poderoso. Mas 18 meses depois, a OpenAI limitou-se a lançar vários outros modelos com capacidades impressionantes, incluindo o GPT-4o, em maio, e o o1, em setembro, sem revelar o tamanho desses modelos. Hoje, acredita-se amplamente que eles não são muito maiores do que o GPT-4 original — e podem até ser menores.
A história tem sido semelhante em outros laboratórios líderes em IA. Alguns meses atrás, tanto Google quanto Anthropic atualizaram seus modelos de pequeno e médio porte (Sonnet 3.5 e Haiku 3.5 para Anthropic, Pro 1.5 e Flash 1.5 para Google). Mas ainda estamos esperando por atualizações correspondentes para seus modelos maiores (Opus 3.5 para o Anthropic e Ultra 1.5 para o Google).
As leis de escala estão perdendo força? A revolução da IA Generativa — construída com base na crença de que os modelos continuarão melhorando à medida que crescem vertiginosamente — começa a estagnar?
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.
Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.
SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.
Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.
Novo relatório do EIC mapeia avanços em IA, materiais avançados, computação quântica e biotecnologia que começam a ganhar escala na corrida global pela inovação
Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
