s
INTELIGÊNCIA ARTIFICIAL

A quantidade de parâmetros pode deixar de ser referência para os LLMs

Segundo Sam Altman, CEO da OpenAI, estamos no fim da era dos modelos gigantescos. A indústria vai torná-los melhores de outras maneiras

Modelos de linguagem cada vez maiores não são o futuro. Pelo menos não na visão do CEO da OpenAI, Sam Altman. “Acho que estamos no fim da era desses modelos gigantes, e vamos torná-los melhores de outras maneiras”, disse ele na semana passada, durante um evento do MIT. "É melhor focar em aumentar rapidamente a capacidade, em vez de na contagem de parâmetros", explicou.

Altman já havia dito algo parecido durante sua conversa com Lex Fridman, publicada aqui semanas atrás. A ideia é obter melhorias de capacidade com contagens de parâmetros mais baixas ou aproveitando vários modelos menores juntos. O que sugere que o GPT-4 pode ser o último avanço da IA fruto da estratégia de tornar os modelos maiores e alimentá-los com mais dados. Infelizmente, Altman não detalhou as estratégias ou técnicas de pesquisa que poderiam substituí-la. "Existem muitas maneiras de tornar os modelos Transformers melhores e mais úteis, e muitas delas não envolvem a adição de parâmetros ao modelo", concorda Nick Frostst, da Cohere.

A questão é quanto progresso virá de novos designs de modelos, arquiteturas, aprimoramento da eficiência de dados, avanço de técnicas algorítmicas ou ajuste adicional, propostos por muitos. Técnicas como as dos modelos ajustados para tarefas específicas provavelmente trarão progresso, mas talvez nada parecido com o que vimos nos últimos anos. A esperança é que mantenham o ritmo, reduzindo o custo de desenvolvimento.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Inteligência Artificial

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Empresas que tratam rotulagem como capex cognitivo, e não custo operacional, estão melhor preparadas para transformar aprendizado em ROI.

Vibe coding encontra a realidade corporativa

Inteligência Artificial

Vibe coding encontra a realidade corporativa

O pico de expectativas sobre vibe coding está cedendo lugar a um uso mais controlado. Em protótipos e automações locais, funciona. Em produção, sem governança, vira dívida técnica e risco.

Entre ambição e execução, o gap da IA corporativa

Inteligência Artificial

Entre ambição e execução, o gap da IA corporativa

Cisco mede a prontidão, IBM mede a transformação — juntas, expõem o ponto cego da maturidade em IA. Charlene Li mostra o caminho para atingi-la.

O CEO e a IA Agêntica: a nova dupla de comando das empresas

Inteligência Artificial

O CEO e a IA Agêntica: a nova dupla de comando das empresas

Segundo a McKinsey, liderar na era da IA Agêntica exige CEOs fluentes em tecnologia, capazes de equilibrar velocidade, confiança e responsabilidade em um modelo híbrido entre humanos e agentes inteligentes

Do hype ao humano: o que sua empresa precisa entender sobre futuro da IA no trabalho

Inteligência Artificial

Do hype ao humano: o que sua empresa precisa entender sobre futuro da...

Para que a IA gere valor real, as empresas precisam abandonar pilotos isolados e investir no que torna o trabalho mais humano

Dê boas-vindas à Era da IA Operacional

Inteligência Artificial

Dê boas-vindas à Era da IA Operacional

Em 2026, infraestrutura, governança e métricas reais começam a substituir promessas e hype, segundo novo relatório do Gartner.