s
INTELIGÊNCIA ARTIFICIAL

Estamos atingindo os limites de escala da IA?

Modelos gigantescos já não estão entregando mais os melhores resultados. Talvez o próximo avanço em LLMs não venha do dimensionamento por força bruta. E isso pode ser bom.

Quando a OpenAI lançou o GPT-4 em março de 2023, ajudou a consolidar o conceito das Leis de Escala (Scaling Laws). O GPT-4 era cerca de 10 vezes maior do que o modelo que alimentava o ChatGPT original, e seu tamanho maior produziu um salto significativo no desempenho dos GPTs. Desde então, o mercado passou a ansiar por um GPT-5, gigantesco e poderoso. Mas 18 meses depois, a OpenAI limitou-se a lançar vários outros modelos com capacidades impressionantes, incluindo o GPT-4o, em maio, e o o1, em setembro, sem revelar o tamanho desses modelos. Hoje, acredita-se amplamente que eles não são muito maiores do que o GPT-4 original — e podem até ser menores.

A história tem sido semelhante em outros laboratórios líderes em IA. Alguns meses atrás, tanto Google quanto Anthropic atualizaram seus modelos de pequeno e médio porte (Sonnet 3.5 e Haiku 3.5 para Anthropic, Pro 1.5 e Flash 1.5 para Google). Mas ainda estamos esperando por atualizações correspondentes para seus modelos maiores (Opus 3.5 para o Anthropic e Ultra 1.5 para o Google).

As leis de escala estão perdendo força? A revolução da IA Generativa — construída com base na crença de que os modelos continuarão melhorando à medida que crescem vertiginosamente — começa a estagnar?

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

IA, a colega que isola

Inteligência Artificial

IA, a colega que isola

O lançamento dos interaction models pela Thinking Machines redefine a fronteira entre homem e máquina. Mas cuidado: a tecnologia que resolve o gargalo técnico pode ser a mesma que atrofia as habilidades sociais do seu time.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.