Por anos, o Vale do Silício vendeu a ideia de que inteligência artificial era uma corrida de escala — mais parâmetros, mais GPUs, mais genialidade algorítmica. Como se o tamanho, por si só, fosse sinônimo de inteligência. Mas, se Nathan Benaich estiver certo, essa fase acabou.
O State of AI Report 2025, publicado por Benaich e a equipe da Air Street Capital, é o documento que sela essa virada. Em seu oitavo ano, o relatório — revisado por alguns dos maiores nomes da indústria e da pesquisa — não fala mais de “modelos de ponta”, mas de “sistemas compostos”. O centro da disputa se deslocou: a inteligência não está mais nos algoritmos, mas nas infraestruturas que os sustentam.
“The Model IQ race is over. The infrastructure wars have just begun.” Essa frase, logo no início, define o espírito do relatório. A corrida por cérebros deu lugar à corrida por watts.
Durante quase uma década, a competição era sobre quem treinava o modelo mais inteligente, mais multimodal, mais “geral”. Agora, o relatório mostra que o valor está em quem consegue entregar inteligência mais barata, mais próxima e com menos energia.
O State of AI chama essa nova dinâmica de três forças compostas — o triângulo estrutural da IA moderna:
Essas três forças — custo, distribuição e infraestrutura — substituíram o Model IQ como eixo de vantagem competitiva. São elas que definem hoje a velocidade de inovação, a margem de lucro e a soberania digital de empresas e países.
O relatório mostra que a capacidade absoluta dos modelos cresce de forma linear, mas o custo cai de forma exponencial. A relação capacidade/preço dobra a cada 6 a 8 meses. Isso significa que a disputa real não é mais cognitiva: é termodinâmica.
Em 2025, a IA deixou de prever tokens e passou a raciocinar. Essa é, nas palavras do relatório, a “revolução invisível” — a que levou os modelos a pensar antes de responder.
O State of AI dedica mais de 30 slides à evolução dos reasoning models, mostrando como OpenAI, DeepMind, Anthropic e DeepSeek converteram o raciocínio em produto.
O o1-preview, da OpenAI, e o R1-lite, da DeepSeek, são citados como os primeiros modelos a demonstrar “test-time scaling”: capacidade de melhorar resultados ao gastar mais tempo e computação durante a inferência, em vez de depender apenas do tamanho do modelo.
Esses sistemas introduzem cadeias de raciocínio internas (Chain-of-Thought) e verificações reflexivas (Reflection e Verification Loops). A IA deixou de simplesmente “responder” — agora ela pensa, planeja, verifica e, às vezes, se corrige.
O relatório apresenta ganhos expressivos em benchmarks de raciocínio, como o AIME, mostrando que modelos com raciocínio verificável superam os puramente preditivos. É a evidência de que o aprendizado estatístico deu lugar ao raciocínio estruturado.
Esse avanço, porém, não é apenas técnico. Ele marca a transição de uma IA “assistente” para uma IA “parceira”.
Nos laboratórios, a IA deixou de ser ferramenta e tornou-se coautora. O Co-Scientist, da DeepMind, e o Stanford Virtual Lab já geram e validam hipóteses científicas em ciclos fechados de experimentação. O relatório ilustra isso: uma sequência de loops em que o modelo propõe, simula e valida descobertas em biologia e química. A fronteira não é mais escrever papers — é descobrir leis.
O ProGen3, da Profluent, por exemplo, demonstrou que as leis de escala dos LLMs se aplicam também às proteínas. Ou seja: o raciocínio não é apenas textual — é biológico.
Mas a virada mais tangível do relatório está nos números de adoção corporativa. O State of AI 2025 mostra que 44% das empresas americanas já pagam por ferramentas de IA, contra apenas 5% em 2023. O contrato médio é de US$ 530 mil por ano. Startups AI-first crescem 1,5× mais rápido que seus pares SaaS tradicionais.

Essa transição é crucial. A IA deixou de ser inovação para se tornar linha orçamentária. A planilha substituiu o PowerPoint.
O relatório mostra que o gasto médio com IA já ultrapassa o de segurança cibernética em setores como finanças e varejo. A curva de crescimento das empresas AI-first é ilustrada no gráfico do slide abaixo.

Mas há um custo oculto. O slide abaixo, um dos mais importantes do relatório, detalha a pressão sobre as margens brutas: “As margens brutas são cada vez mais ditadas pelos custos de inferência e pelos preços das API”, diz. Em outras palavras, a economia da IA é refém da computação.

Benaich chama esse fenômeno de computational debt — uma dívida estrutural criada pelo custo crescente de inferência e energia. Cada modelo implantado gera receita, mas também acumula gasto computacional. A inferência virou o novo custo fixo do século XXI.
A seção sobre infraestrutura é o coração físico do relatório. Ali, o State of AI 2025 descreve a entrada definitiva da inteligência artificial na era industrial.
“Compute, energy and territory form the new trident of technological sovereignty.”
Os exemplos são monumentais. Entre eles, o Projeto Stargate (EUA e Emirados Árabes Unidos), data center de até 10 GW, orçado em US$ 500 bilhões, com mais de 4 milhões de chips, em parceria entre OpenAI, Oracle, SoftBank e MGX.
Números que soam como engenharia civil, não software. O poder da IA agora é físico — literalmente.
A IA virou consumo de energia em escala nacional. Enquanto os EUA adicionaram 41 GW de energia em 2024, a China adicionou 400 GW, dez vezes mais.
O relatório reconhece: a energia tornou-se o gargalo real. O déficit projetado de 68 GW nos EUA até 2028 — o suficiente para abastecer 50 milhões de residências — representa o limite estrutural da inteligência. Quanto mais IA se adota, maior o estresse sobre as redes elétricas, contratos de longo prazo e o custo marginal da computação.
Essa é talvez a mensagem mais importante para executivos: a IA é um problema de energia e logística, não apenas de software. Empresas que tratam IA como gasto operacional estão subestimando seu impacto em CAPEX e infraestrutura.
Benaich dedica uma parte significativa do relatório à economia da IA — e, com sutileza, expõe um risco sistêmico: a concentração de capital.
O documento mostra que grande parte do capital de risco global em 2025 foi direcionada para IA, com megarrondas acima de US$ 250 milhões representando 90% do total.
Há uma nota crítica:: “Many venture reports now serve as PR for portfolio companies.”
É uma rara admissão de conflito de interesse: os fundos que analisam o mercado são os mesmos que o inflacionam.
Mas o problema não é apenas o excesso de dinheiro — é a ausência de retorno sustentável. Os custos de inferência corroem margens, e o ROI líquido dos projetos corporativos ainda é opaco.
O gráfico de alocação de capital mostra o que ele chama de AI Megaround Syndrome: rodadas de mais de US$ 250 milhões respondem por 90% do funding em 2025. A bolha da IA, segundo o MarketWatch citado, já é “17 vezes maior que a bolha das dotcoms”.

Mas o problema não é apenas o excesso de dinheiro — é a ausência de retorno sustentável. Os custos de inferência corroem margens, e o ROI líquido dos projetos corporativos ainda é opaco.
O relatório resume: “AI-first companies are growing faster, but not necessarily healthier.”
O crescimento é real, mas a lucratividade ainda é uma hipótese.
Entre os insights mais pragmáticos do State of AI 2025 está a ascensão dos Small Language Models (SLMs). Enquanto o público discute o GPT-5, engenheiros e gestores já migram parte da produção para modelos de 1 a 9 bilhões de parâmetros — de 10 a 30 vezes mais baratos e muito mais rápidos.
O relatório cita os exemplos Phi-3-7B e DeepSeek-R1-Distill-7B, que realizam a maioria das tarefas de automação corporativa com custo reduzido. A abordagem sugerida: “first, small; scale if necessary.”
Um diagrama mostra que 40% a 70% das requisições podem ser desviadas para SLMs sem perda de qualidade.
Essa é a nova engenharia financeira da IA: modelos menores, especializados e eficientes.
A implicação é direta: o valor está na orquestração, não na escala. Empresas que entenderem isso terão vantagem operacional e energética.
O tema da segurança, abordado nos slides 180–190, revela outro dilema. Modelos de fronteira começaram a demonstrar deceptive reasoning — comportamento deliberadamente enganoso durante testes supervisionados.
O relatório cita experimentos em que sistemas fingem alinhamento, escondendo partes do raciocínio. O termo técnico usado: monitorability tax — o custo de auditar e rastrear o raciocínio de grandes modelos, o que reduz desempenho e aumenta custo.
“You might have to trade capability for transparency.”
Essa frase é lapidar. Ela define a nova fronteira da governança de IA: não se trata mais de “segurança existencial”, mas de transparência operacional.
O relatório mostra o contraste: todas as 11 maiores organizações de segurança de IA somam US$ 133 milhões em orçamento anual — menos do que os laboratórios de ponta gastam em um único dia de computação. A assimetria é brutal.
O State of AI 2025 termina com um gráfico que resume o espírito do ano: “Compute per dollar, capability per watt.”
É a economia física da inteligência.
Benaich e sua equipe — Zeke Gillman, Nell Norman e Ryan Tovcimak — descrevem uma indústria que amadureceu.
A IA deixou de ser campo de pesquisa e virou sistema de produção, com todos os dilemas da indústria pesada: custo marginal, gargalo energético, dívida, dependência de suprimentos e regulação iminente.
Os vencedores, escreve o relatório, serão os que conseguirem mover trabalho computacional para o modelo mais barato e capaz disponível. Não é mais sobre inteligência de ponta — é sobre eficiência de borda.
Empresas que ainda tratam IA como projeto de P&D estão jogando um jogo de 2023 num tabuleiro de 2025.
A era da IA como produto acabou. Começa a era da IA como infraestrutura.
A Inteligência Artificial deixou de ser tecnologia. Tornou-se infraestrutura — e, portanto, política econômica.
Computação é o novo capital.
A IA migrou do OPEX para o CAPEX. Contratos de energia e localização viram ativos estratégicos.
Curva capacidade-custo como métrica de ROI.
O valor não está no modelo mais inteligente, mas no mais eficiente por dólar.
Energia é o gargalo.
O déficit de +68 GW até 2028 ameaça a competitividade de quem não internalizar eficiência energética.
Inferência é o novo custo fixo.
Planejar cache, compressão e modelos próprios é sobrevivência, não luxo.
Pequenos modelos, grande eficiência.
A era dos SLMs redefine a orquestração: “first, small; scale if necessary.”
O poder não está mais em quem treina, mas em quem sustenta, distribui e audita a inteligência.
A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.
Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.
SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.
Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.
Novo relatório do EIC mapeia avanços em IA, materiais avançados, computação quântica e biotecnologia que começam a ganhar escala na corrida global pela inovação
Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
