Para onde a fixação da indústria de IA em modelos cada vez maiores nos levará? O que realmente pretendemos alcançar ao injetar trilhões de dólares em IA, particularmente grandes modelos de linguagens (LLMs) e modelos de fundação multimodais? Estamos perseguindo cegamente modelos maiores e mais dados, mesmo quando a própria internet pode não fornecer matéria-prima suficiente para uma expansão significativa? Quão mais capazes serão o GPT-5 ou 6? Poderão ser melhores em responder perguntas? O que estamos construindo no final do dia? Até o próprio Sam Altman, em uma entrevista recente, revelou que quando começou a OpenAI, acreditava que a IA assumiria o trabalho pesado. Mas o que realmente estamos automatizando?
Os players maiores estão abordando necessidades genuínas ou estão presos em um loop de criação de sistemas cada vez mais complexos sem um propósito claro? À medida que a corrida armamentista da IA se intensifica, o mesmo acontece com o debate sobre despesas de capital. David Cahn, da Sequoia, argumentou recentemente que o debate atual não é apenas sobre se o CapEx da IA é muito alto, mas se a velocidade e a necessidade de construção da infraestrutura são justificadas.
A competição entre os principais provedores de nuvem, como Microsoft, Amazon e Google, está levando a uma rápida expansão, mas a que custo? Os players menores estão sendo espremidos, e os investimentos de hoje podem se tornar obsoletos se o progresso da IA ultrapassar a infraestrutura física que está sendo construída, alertam os analistas. The Information relata que duas empresas estão planejando data centers de IA de US$ 125 bilhões. Elon Musk anunciou que a xAI construiu um cluster de 100 mil unidades de processamento gráfico H100 — supostamente para ser dobrado em meses a um custo entre US$ 10 bilhões e US$ 15 bilhões. Isso supera o cluster de treinamento do GPT-4 em 30 vezes!!!
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Estudos mostram que memória de longo prazo para Transformers permite lidar com contextos mais longos
Conheça quais são as seis perguntas que lideranças devem fazer antes de comprar ou desenvolver uma IA para sua organização
Com o lançamento do modelo R1, da DeepSeek, e a OpenAI correndo atrás, a disputa para construir uma IA que imita os pensamentos de um ser humano se intensifica
A OpenAI propõe a criação de "zonas econômicas de IA" e novos centros de dados para garantir que os EUA não percam a corrida pela supremacia em Inteligência Artificial
Os Large Concept Models prometem transformar a inteligência artificial ao trabalhar com ideias e conceitos, e não apenas com palavras isoladas
Eles não apenas escreverão e-mails ou criarão conteúdo. Também executarão processos empresariais inteiros de forma autônoma, reduzindo custos em 30%, aumentando a produtividade em até 40%.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso