s
INTELIGÊNCIA ARTIFICIAL

A quantidade de parâmetros pode deixar de ser referência para os LLMs

Segundo Sam Altman, CEO da OpenAI, estamos no fim da era dos modelos gigantescos. A indústria vai torná-los melhores de outras maneiras

Modelos de linguagem cada vez maiores não são o futuro. Pelo menos não na visão do CEO da OpenAI, Sam Altman. “Acho que estamos no fim da era desses modelos gigantes, e vamos torná-los melhores de outras maneiras”, disse ele na semana passada, durante um evento do MIT. "É melhor focar em aumentar rapidamente a capacidade, em vez de na contagem de parâmetros", explicou.

Altman já havia dito algo parecido durante sua conversa com Lex Fridman, publicada aqui semanas atrás. A ideia é obter melhorias de capacidade com contagens de parâmetros mais baixas ou aproveitando vários modelos menores juntos. O que sugere que o GPT-4 pode ser o último avanço da IA fruto da estratégia de tornar os modelos maiores e alimentá-los com mais dados. Infelizmente, Altman não detalhou as estratégias ou técnicas de pesquisa que poderiam substituí-la. "Existem muitas maneiras de tornar os modelos Transformers melhores e mais úteis, e muitas delas não envolvem a adição de parâmetros ao modelo", concorda Nick Frostst, da Cohere.

A questão é quanto progresso virá de novos designs de modelos, arquiteturas, aprimoramento da eficiência de dados, avanço de técnicas algorítmicas ou ajuste adicional, propostos por muitos. Técnicas como as dos modelos ajustados para tarefas específicas provavelmente trarão progresso, mas talvez nada parecido com o que vimos nos últimos anos. A esperança é que mantenham o ritmo, reduzindo o custo de desenvolvimento.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Engenharia e P&D sob pressão: custos sobem, decisões atrasam

Inteligência Artificial

Engenharia e P&D sob pressão: custos sobem, decisões atrasam

Relatório global da Capgemini mostra por que tecnologia não é mais o gargalo — e como a lentidão organizacional ameaça a competitividade.

A IA já funciona. Mas tem um problema estrutural

Inteligência Artificial

A IA já funciona. Mas tem um problema estrutural

A tecnologia amadureceu. Porém, organizações, processos e governança não acompanharam a velocidade da IA em escala.

Um tutor digital para cada pessoa

Inteligência Artificial

Um tutor digital para cada pessoa

A equação "IA + supervisão humana" redefine aprendizagem, reduz desigualdades e cria novo padrão de qualificação. A IA vira infraestrutura cognitiva, reconfigurando talento, ensino e competitividade.

Modelos demais, valor de menos

Inteligência Artificial

Modelos demais, valor de menos

Em 2026, o maior risco de IA pode ser o excesso de modelos e a ausência de integração. O contexto se perde. E o ROI também.

A monetização via anúncios chegou às buscas de IA

Inteligência Artificial

A monetização via anúncios chegou às buscas de IA

O desafio agora é manter neutralidade e valor estratégico em um ambiente que tende à manipulação invisível.

A corrida da IA é vencida (ou perdida) na camada de dados

Inteligência Artificial

A corrida da IA é vencida (ou perdida) na camada de dados

Relatórios da IBM e da Deloitte apontam na mesma direção: empresas só extraem valor de IA quando CDOs garantem governança, integração e métricas consistentes para os dados.