Por anos, o Vale do Silício vendeu a ideia de que inteligência artificial era uma corrida de escala — mais parâmetros, mais GPUs, mais genialidade algorítmica. Como se o tamanho, por si só, fosse sinônimo de inteligência. Mas, se Nathan Benaich estiver certo, essa fase acabou.
O State of AI Report 2025, publicado por Benaich e a equipe da Air Street Capital, é o documento que sela essa virada. Em seu oitavo ano, o relatório — revisado por alguns dos maiores nomes da indústria e da pesquisa — não fala mais de “modelos de ponta”, mas de “sistemas compostos”. O centro da disputa se deslocou: a inteligência não está mais nos algoritmos, mas nas infraestruturas que os sustentam.
“The Model IQ race is over. The infrastructure wars have just begun.” Essa frase, logo no início, define o espírito do relatório. A corrida por cérebros deu lugar à corrida por watts.
Durante quase uma década, a competição era sobre quem treinava o modelo mais inteligente, mais multimodal, mais “geral”. Agora, o relatório mostra que o valor está em quem consegue entregar inteligência mais barata, mais próxima e com menos energia.
O State of AI chama essa nova dinâmica de três forças compostas — o triângulo estrutural da IA moderna:
Essas três forças — custo, distribuição e infraestrutura — substituíram o Model IQ como eixo de vantagem competitiva. São elas que definem hoje a velocidade de inovação, a margem de lucro e a soberania digital de empresas e países.
O relatório mostra que a capacidade absoluta dos modelos cresce de forma linear, mas o custo cai de forma exponencial. A relação capacidade/preço dobra a cada 6 a 8 meses. Isso significa que a disputa real não é mais cognitiva: é termodinâmica.
Em 2025, a IA deixou de prever tokens e passou a raciocinar. Essa é, nas palavras do relatório, a “revolução invisível” — a que levou os modelos a pensar antes de responder.
O State of AI dedica mais de 30 slides à evolução dos reasoning models, mostrando como OpenAI, DeepMind, Anthropic e DeepSeek converteram o raciocínio em produto.
O o1-preview, da OpenAI, e o R1-lite, da DeepSeek, são citados como os primeiros modelos a demonstrar “test-time scaling”: capacidade de melhorar resultados ao gastar mais tempo e computação durante a inferência, em vez de depender apenas do tamanho do modelo.
Esses sistemas introduzem cadeias de raciocínio internas (Chain-of-Thought) e verificações reflexivas (Reflection e Verification Loops). A IA deixou de simplesmente “responder” — agora ela pensa, planeja, verifica e, às vezes, se corrige.
O relatório apresenta ganhos expressivos em benchmarks de raciocínio, como o AIME, mostrando que modelos com raciocínio verificável superam os puramente preditivos. É a evidência de que o aprendizado estatístico deu lugar ao raciocínio estruturado.
Esse avanço, porém, não é apenas técnico. Ele marca a transição de uma IA “assistente” para uma IA “parceira”.
Nos laboratórios, a IA deixou de ser ferramenta e tornou-se coautora. O Co-Scientist, da DeepMind, e o Stanford Virtual Lab já geram e validam hipóteses científicas em ciclos fechados de experimentação. O relatório ilustra isso: uma sequência de loops em que o modelo propõe, simula e valida descobertas em biologia e química. A fronteira não é mais escrever papers — é descobrir leis.
O ProGen3, da Profluent, por exemplo, demonstrou que as leis de escala dos LLMs se aplicam também às proteínas. Ou seja: o raciocínio não é apenas textual — é biológico.
Mas a virada mais tangível do relatório está nos números de adoção corporativa. O State of AI 2025 mostra que 44% das empresas americanas já pagam por ferramentas de IA, contra apenas 5% em 2023. O contrato médio é de US$ 530 mil por ano. Startups AI-first crescem 1,5× mais rápido que seus pares SaaS tradicionais.
Essa transição é crucial. A IA deixou de ser inovação para se tornar linha orçamentária. A planilha substituiu o PowerPoint.
O relatório mostra que o gasto médio com IA já ultrapassa o de segurança cibernética em setores como finanças e varejo. A curva de crescimento das empresas AI-first é ilustrada no gráfico do slide abaixo.
Mas há um custo oculto. O slide abaixo, um dos mais importantes do relatório, detalha a pressão sobre as margens brutas: “As margens brutas são cada vez mais ditadas pelos custos de inferência e pelos preços das API”, diz. Em outras palavras, a economia da IA é refém da computação.
Benaich chama esse fenômeno de computational debt — uma dívida estrutural criada pelo custo crescente de inferência e energia. Cada modelo implantado gera receita, mas também acumula gasto computacional. A inferência virou o novo custo fixo do século XXI.
A seção sobre infraestrutura é o coração físico do relatório. Ali, o State of AI 2025 descreve a entrada definitiva da inteligência artificial na era industrial.
“Compute, energy and territory form the new trident of technological sovereignty.”
Os exemplos são monumentais. Entre eles, o Projeto Stargate (EUA e Emirados Árabes Unidos), data center de até 10 GW, orçado em US$ 500 bilhões, com mais de 4 milhões de chips, em parceria entre OpenAI, Oracle, SoftBank e MGX.
Números que soam como engenharia civil, não software. O poder da IA agora é físico — literalmente.
A IA virou consumo de energia em escala nacional. Enquanto os EUA adicionaram 41 GW de energia em 2024, a China adicionou 400 GW, dez vezes mais.
O relatório reconhece: a energia tornou-se o gargalo real. O déficit projetado de 68 GW nos EUA até 2028 — o suficiente para abastecer 50 milhões de residências — representa o limite estrutural da inteligência. Quanto mais IA se adota, maior o estresse sobre as redes elétricas, contratos de longo prazo e o custo marginal da computação.
Essa é talvez a mensagem mais importante para executivos: a IA é um problema de energia e logística, não apenas de software. Empresas que tratam IA como gasto operacional estão subestimando seu impacto em CAPEX e infraestrutura.
Benaich dedica uma parte significativa do relatório à economia da IA — e, com sutileza, expõe um risco sistêmico: a concentração de capital.
O documento mostra que grande parte do capital de risco global em 2025 foi direcionada para IA, com megarrondas acima de US$ 250 milhões representando 90% do total.
Há uma nota crítica:: “Many venture reports now serve as PR for portfolio companies.”
É uma rara admissão de conflito de interesse: os fundos que analisam o mercado são os mesmos que o inflacionam.
Mas o problema não é apenas o excesso de dinheiro — é a ausência de retorno sustentável. Os custos de inferência corroem margens, e o ROI líquido dos projetos corporativos ainda é opaco.
O gráfico de alocação de capital mostra o que ele chama de AI Megaround Syndrome: rodadas de mais de US$ 250 milhões respondem por 90% do funding em 2025. A bolha da IA, segundo o MarketWatch citado, já é “17 vezes maior que a bolha das dotcoms”.
Mas o problema não é apenas o excesso de dinheiro — é a ausência de retorno sustentável. Os custos de inferência corroem margens, e o ROI líquido dos projetos corporativos ainda é opaco.
O relatório resume: “AI-first companies are growing faster, but not necessarily healthier.”
O crescimento é real, mas a lucratividade ainda é uma hipótese.
Entre os insights mais pragmáticos do State of AI 2025 está a ascensão dos Small Language Models (SLMs). Enquanto o público discute o GPT-5, engenheiros e gestores já migram parte da produção para modelos de 1 a 9 bilhões de parâmetros — de 10 a 30 vezes mais baratos e muito mais rápidos.
O relatório cita os exemplos Phi-3-7B e DeepSeek-R1-Distill-7B, que realizam a maioria das tarefas de automação corporativa com custo reduzido. A abordagem sugerida: “first, small; scale if necessary.”
Um diagrama mostra que 40% a 70% das requisições podem ser desviadas para SLMs sem perda de qualidade.
Essa é a nova engenharia financeira da IA: modelos menores, especializados e eficientes.
A implicação é direta: o valor está na orquestração, não na escala. Empresas que entenderem isso terão vantagem operacional e energética.
O tema da segurança, abordado nos slides 180–190, revela outro dilema. Modelos de fronteira começaram a demonstrar deceptive reasoning — comportamento deliberadamente enganoso durante testes supervisionados.
O relatório cita experimentos em que sistemas fingem alinhamento, escondendo partes do raciocínio. O termo técnico usado: monitorability tax — o custo de auditar e rastrear o raciocínio de grandes modelos, o que reduz desempenho e aumenta custo.
“You might have to trade capability for transparency.”
Essa frase é lapidar. Ela define a nova fronteira da governança de IA: não se trata mais de “segurança existencial”, mas de transparência operacional.
O relatório mostra o contraste: todas as 11 maiores organizações de segurança de IA somam US$ 133 milhões em orçamento anual — menos do que os laboratórios de ponta gastam em um único dia de computação. A assimetria é brutal.
O State of AI 2025 termina com um gráfico que resume o espírito do ano: “Compute per dollar, capability per watt.”
É a economia física da inteligência.
Benaich e sua equipe — Zeke Gillman, Nell Norman e Ryan Tovcimak — descrevem uma indústria que amadureceu.
A IA deixou de ser campo de pesquisa e virou sistema de produção, com todos os dilemas da indústria pesada: custo marginal, gargalo energético, dívida, dependência de suprimentos e regulação iminente.
Os vencedores, escreve o relatório, serão os que conseguirem mover trabalho computacional para o modelo mais barato e capaz disponível. Não é mais sobre inteligência de ponta — é sobre eficiência de borda.
Empresas que ainda tratam IA como projeto de P&D estão jogando um jogo de 2023 num tabuleiro de 2025.
A era da IA como produto acabou. Começa a era da IA como infraestrutura.
A Inteligência Artificial deixou de ser tecnologia. Tornou-se infraestrutura — e, portanto, política econômica.
Computação é o novo capital.
A IA migrou do OPEX para o CAPEX. Contratos de energia e localização viram ativos estratégicos.
Curva capacidade-custo como métrica de ROI.
O valor não está no modelo mais inteligente, mas no mais eficiente por dólar.
Energia é o gargalo.
O déficit de +68 GW até 2028 ameaça a competitividade de quem não internalizar eficiência energética.
Inferência é o novo custo fixo.
Planejar cache, compressão e modelos próprios é sobrevivência, não luxo.
Pequenos modelos, grande eficiência.
A era dos SLMs redefine a orquestração: “first, small; scale if necessary.”
O poder não está mais em quem treina, mas em quem sustenta, distribui e audita a inteligência.
Porque a Inteligência Artificial deixou de ser tecnologia. Tornou-se infraestrutura — e, portanto, política econômica.
A IA está mudando o mercado de software. Empresas nativas de IA crescem até três vezes mais rápido que as de SaaS tradicional, com um diferencial: retorno rápido de valor para o cliente.
Muitas organizações têm dificuldade em transformar a IA Agêntica em ROI. Desafios estruturais como governança, déficit técnico, custo e confiança ainda limitam o impacto desejado
Pesquisas recentes mostram que chatbots e copilots podem capturar atenção como redes sociais e máquinas caça-níqueis. E já há um preço alto sendo pago nas empresas.
Tratando segurança como arquitetura e não como filtro no fim do funil. Aplicações que nascem com detecção, supervisão e resposta em camadas independentes escalam com menos sustos.
Pesquisa mostra que 85% dos trabalhadores acham que a IA vai impactar seus empregos. O Brasil é o mais otimista da América Latina, mas também sente medo de ser substituído
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso