s
INTELIGÊNCIA ARTIFICIAL

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Na semana em que a HumanX 2026 foi realizada em San Francisco — quatro dias de sessões no Moscone Center com palestrantes como o presidente do conselho da OpenAI, Bret Taylor, o CEO da AWS, Matt Garman, e a pesquisadora Fei-Fei Li —, dois estudos documentaram o que os palcos da conferência deixaram subentendido.

Stanford Digital Economy Lab analisou 51 deployments reais e concluiu que 61% dos projetos bem-sucedidos tiveram pelo menos uma tentativa fracassada anterior, cujos custos nunca aparecem no ROI final. E pesquisa da Writer, divulgada pela organização da HumanX, indica que 92% das empresas estão formando ativamente uma classe de funcionários com acesso privilegiado a IA, enquanto 75% dos executivos admitem que a estratégia comunicada ao restante da força de trabalho é “mais para aparência” do que orientação real.

Esses dados chegam numa semana em que a a16z publicou que 29% da Fortune 500 e 19% do Global 2000 já são clientes pagantes ativos de alguma startup de IA, com contrato assinado, piloto convertido e produto em produção. O avanço é real. O que os dois estudos documentam é o que não aparece no registro desse avanço.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

O discurso corporativo sobre IA em 2026 sugere, em muitos casos, a coexistência de duas camadas de registro: uma voltada ao mercado (com métricas consolidadas de ROI e narrativa de democratização) e outra interna, onde permanecem custos menos visíveis, como pilotos abandonados e esforços de adaptação organizacional. Os dois estudos apontam para esse descompasso a partir de ângulos distintos, financeiro e organizacional, ainda que não permitam estimar sua extensão no conjunto das empresas.

O custo que não entra na conta

Uma empresa americana de logística com mais de US$ 1 bilhão de receita processava mais de 100 mil notas fiscais por ano, recebidas por fax, e-mail e telefonema. Sete funcionários cuidavam exclusivamente disso: consolidando faturas, validando trabalhos, inserindo dados no ERP, gerando cobranças para clientes. Depois de um projeto de IA combinando reconhecimento óptico de caracteres com modelos de linguagem para mapear o conteúdo das faturas diretamente para o sistema financeiro, o headcount caiu para dois. ROI superior a US$ 1 milhão. Oito semanas de implementação.

O que esse número não mostra: a empresa acumulara 750 templates de notas fiscais, a maioria redundante, nenhuma revisada. Meses de trabalho foram necessários para reduzi-los a algumas centenas de categorias consistentes antes de qualquer modelo funcionar. Especialistas de negócio validaram milhares de outputs de IA além de suas funções regulares. O presidente da empresa participou de check-ins semanais para desbloquear gargalos. Dois funcionários de TI foram alocados em tempo integral desde o primeiro dia, em standups diários, para garantir que a operação pudesse funcionar de forma independente depois.

Nada disso aparece no denominador. Esses esforços raramente são contabilizados de forma explícita nos cálculos de ROI apresentados externamente, em parte porque muitos desses custos são classificados como despesas operacionais ou de transformação, não como investimentos diretamente atribuíveis ao projeto de IA.

O Stanford estudou 51 deployments que efetivamente entregaram valor mensurável. Projetos que saíram do piloto, entraram em produção e foram adotados por equipes por pelo menos três meses. Conclusão: em 77% dos casos, os desafios mais difíceis foram custos invisíveis (gestão de mudança, qualidade de dados, redesenho de processos). A tecnologia foi “consistentemente descrita como a parte mais fácil”. “O problema não são os modelos”, disse um executivo de uma empresa de serviços profissionais aos pesquisadores.

Dois terços dos projetos bem-sucedidos tiveram pelo menos um fracasso anterior. Esses fracassos seguem padrão identificável: equipes que trataram IA como projeto tecnológico em vez de mudança organizacional; primeiras tentativas aplicadas a workflows quebrados, sem redesenho prévio; liderança técnica sem patrocínio executivo do negócio. Em um dos casos documentados, uma empresa tentou usar IA no processo de recrutamento e falhou porque “achou que a IA resolveria os processos em vez de exigir redesenho”.

Esses são sunk costs, que tendem a desaparecer dos cálculos de retorno do projeto subsequente. Não há evidência de que esses custos sejam consistentemente incorporados aos relatórios de ROI divulgados publicamente, em parte porque os padrões contábeis atuais não exigem esse nível de granularidade. A Accenture estima que 80% a 85% das empresas estão presas em estágio de “fábrica de provas de conceito”, com experimentos de baixo retorno e baixa taxa de escalonamento.

Dois números em aparente contradição definem o estado atual. O MIT, em estudo de julho de 2025 baseado em análise de 300 deployments públicos, concluiu que 95% dos pilotos de IA enterprise não entregam impacto mensurável em P&L. Apenas 5% chegam à produção com resultado verificável em ferramentas customizadas ou de vendor. A a16z aponta que 29% da Fortune 500 já tem produto de IA em produção. Os dois números são compatíveis, mas medem coisas diferentes. O paradoxo se resolve quando se entende que “estar em produção” e “entregar ROI estrutural” são categorias distintas.

O mecanismo tem nome na literatura econômica. Brynjolfsson, Rock e Syverson chamam de “curva J da produtividade” o padrão pelo qual tecnologias de propósito geral habilitam e requerem investimentos complementares significativos para redesenho de processos, desenvolvimento de força de trabalho, reestruturação organizacional. Esses investimentos são em grande parte intangíveis e mal medidos. Quando os ganhos chegam, o crédito vai para a tecnologia. Quando os custos chegam (projetos abandonados, horas de change management, treinamento que precisa ser refeito), não há linha no balanço para registrá-los.

Para cada US$ 1 de investimento técnico tangível, empresas gastam até US$ 10 em intangíveis. Essa proporção, identificada nas pesquisas de Brynjolfsson sobre a era dos computadores, parece se repetir na era da IA, com a diferença de que os intangíveis da IA são ainda mais difusos e menos documentados.

A norma que chegou tarde e o regulador que hesita

A tensão entre o que as empresas registram e o que de fato gastam em IA chegou aos organismos normativos — com atraso considerável em relação ao ritmo de adoção.

Em setembro de 2025, o FASB publicou a ASU 2025-06, atualizando o ASC 350-40 — norma de contabilização de software interno. A mudança central: o modelo de estágios do projeto foi removido. Em vez de separar custos por fase preliminar, de desenvolvimento e pós-implementação, a nova norma adota dois critérios para capitalização: autorização da gestão e probabilidade razoável de conclusão. A intenção é reconhecer que desenvolvimento de software, e de IA, é iterativo e não-linear.

O problema prático: a norma só entra em vigor de forma obrigatória para anos fiscais após dezembro de 2027. E não endereça projetos abandonados — sob o critério de “conclusão provável”, não está definido como tratar trabalho em processo que eventualmente é descontinuado.

Sob GAAP e IFRS atuais, gastos internos em desenvolvimento de IA são tratados como despesa de P&D, não como investimento de capital. Apenas ativos adquiridos em transações de M&A aparecem no balanço como intangíveis. Isso cria uma assimetria com consequências diretas de governança: empresas que constroem os melhores sistemas de IA, internamente, com dados proprietários, registram as menores bases de ativos. A firma que compra uma startup de IA reconhece o intangível. A que desenvolve o sistema superior em casa não reconhece nada.

Do lado regulatório, o movimento mais concreto veio em dezembro de 2025, quando o Investor Advisory Committee da SEC votou por recomendar à agência que exija das empresas abertas divulgação sobre o impacto da IA em operações internas,incluindo impacto no capital humano, reduções de força de trabalho e programas de upskilling, além de governança e riscos de cibersegurança.

O exemplo do Bank of America ilustra o que o disclosure atual cobre e o que omite. Em novembro de 2025, o CTO Hari Gopalkrishnan apresentou aos investidores os resultados de IA em desenvolvimento de software: 18.000 desenvolvedores usando agentes de coding, ganhos de produtividade de 20% “reinvestidos em novos programas de crescimento”. O que não consta em nenhum documento público: quantos projetos foram descontinuados antes de chegar ao portfólio atual, e qual a distribuição interna de acesso às ferramentas entre os 18.000 desenvolvedores e o restante dos mais de 200.000 funcionários do banco. A análise Deloitte registrou que 84% da Fortune 500 mencionou IA em seus 10-Ks — 95% na seção de fatores de risco, apenas 25% na seção MD&A. Risco: divulgado. Custo do caminho até aqui: não.

A recomendação do IAC não é regra. A atual SEC respondeu com cautela. Mas escritórios de advocacia já orientam clientes a tratar o tema com atenção nos próximos 10-Ks, mesmo sem obrigação formal. Empresas devem evitar “AI washing” em relatórios públicos — a SEC já enviou comment letters a companhias que exageraram capacidades de IA em documentos públicos, e o risco é concreto.

O andar de cima e o andar de baixo

A segunda distorção opera em paralelo e é menos visível porque envolve pessoas, não números.

A pesquisa da Writer no HumanX indica que 92% das empresas cultivam ativamente uma classe de funcionários com acesso privilegiado a ferramentas e treinamento de IA. E 75% dos executivos admitem que a estratégia de IA comunicada ao restante da força de trabalho é “mais para aparência” do que orientação operacional real. São executivos descrevendo sua própria comunicação interna.

O mecanismo que produz essa divisão raramente é declarado como política. Emerge de uma combinação de pressão por resultados rápidos, escassez de pessoas capazes de usar IA com profundidade e a lógica natural de concentrar recursos onde o impacto é mais imediato. A pesquisa Deloitte com 3.235 líderes seniores de 24 países,realizada entre agosto e setembro de 2025, mostra que a principal resposta das empresas ao gap de talentos em IA foi educação, não redesenho de funções ou workflows. 48% citam upskilling e reskilling como prioridade. Mas apenas 34% estão reimaginando o negócio. Os demais estão treinando pessoas dentro das funções existentes — e a “elite de IA” se forma por seleção informal, não por política declarada.

Em muitos casos, a distribuição de acesso a ferramentas e treinamento em IA não segue critérios explicitamente comunicados à organização, emergindo de decisões locais, prioridades de curto prazo e disponibilidade de recursos. Pesquisa da EdAssist/Bright Horizons conduzida em agosto de 2025 com mais de 3.200 respondentes documenta a geometria dessa divisão: 42% dos funcionários esperam que seu papel mude significativamente por IA no próximo ano, mas apenas 17% usam IA com frequência hoje. E 42% dizem que o empregador espera que aprendam IA por conta própria.

A PwC quantificou o prêmio que essa divisão produz: funções expostas a IA evoluem 66% mais rápido do que outras e comandam prêmio salarial médio de 56% sobre posições comparáveis. O LinkedIn Economic Graph, em relatório publicado em janeiro de 2026 para o Fórum Econômico Mundial, oferece o outro lado desse dado: IA está criando demanda por novas funções em escala — mais de 600 mil novos empregos em data centers e 1,3 milhão de novos cargos como AI Engineers e Forward-Deployed Engineers. O relatório do LinkedIn aponta, porém, que esse crescimento convive com contratação 20% a 35% abaixo dos níveis pré-pandemia em economias avançadas. Os novos cargos criados pela IA são acessíveis a quem já está posicionado. Os cargos eliminados ou esvaziados pertencem a quem não está.

Os canários na mina

O dado mais concreto sobre o que essa divisão produz vem de uma pesquisa separada do Stanford, publicada em novembro de 2025.

Brynjolfsson, Chandar e Chen analisaram dados de folha de pagamento de milhões de trabalhadores americanos via ADP — a maior empresa de processamento de folha de pagamento dos Estados Unidos. O método combina dados de exposição de ocupações à IA com registros de emprego de alta frequência, isolando o efeito da IA de choques no nível da firma.

O resultado: trabalhadores entre 22 e 25 anos em ocupações mais expostas à automação, como desenvolvimento de software, atendimento ao cliente, suporte júnior, análise de dados de entrada,  registraram queda relativa de 16% no emprego desde o lançamento do ChatGPT, mesmo após controlar por impactos no nível da firma. Trabalhadores acima de 30 nas mesmas funções cresceram entre 6% e 13%.

Em termos absolutos: nos empregos com alta exposição a IA, o emprego de jovens de 22 a 25 anos caiu 6% entre o final de 2022 e julho de 2025. No mesmo período, trabalhadores acima de 30 nos mesmos empregos cresceram entre 6% e 13%.

O mecanismo é preciso: as quedas se concentram onde a IA automatiza tarefas, não onde aumenta o trabalho. Funções com aplicações predominantemente augmentativas não apresentaram quedas similares. A “elite de IA” é, em grande parte, quem recebeu acesso precoce às ferramentas e ao treinamento para usá-las de forma augmentativa. Os dados de emprego sugerem que essa escolha tende a favorecer quem já está mais estabelecido, com maior ancoragem organizacional.

O caso do IBM ilustra tanto o potencial quanto o limite desse raciocínio. CEO Arvind Krishna revelou que agentes autônomos já substituíram algumas centenas de posições no RH da empresa, e o headcount total cresceu porque as economias foram reinvestidas em engenharia de software, vendas e marketing. A mensagem oficial: IA reduz trabalho repetitivo e libera capital para talento de maior valor. O que a mensagem não detalha é quem, nos departamentos de RH desfeitos, recebeu a oportunidade de migrar e quem foi desligado.

Essa é uma escolha organizacional, e uma escolha que, até o momento, não requer nenhuma divulgação pública.

O que os dois achados têm em comum

A HumanX 2026 foi construída em torno da tese de que o mercado de IA saiu da fase de hype e entrou na fase de execução. A sessão dedicada a como a Fortune 100 está migrando de pilotos para transformação estrutural — com líderes de WndrCo, Accenture e outras organizações — discutiu exatamente o que o Stanford documentou empiricamente.

O mesmo relatório da a16z mapeia onde essa adoção está acontecendo — e oferece uma explicação estrutural para o padrão que ilumina diretamente o argumento dos outros dois estudos.

Os casos de uso que dominam — código, suporte e busca — e os setores líderes — tecnologia, jurídico e saúde — compartilham cinco propriedades: o trabalho é baseado em texto, as tarefas são bem definidas e repetitivas, os resultados são verificáveis sem ambiguidade, há um humano no loop para revisar o output, e a regulação é limitada. Código que roda ou não roda. Ticket de suporte resolvido ou escalado. Peça jurídica aprovada ou devolvida. A IA escala onde é possível saber, com precisão, se funcionou.

Isso explica o sucesso — mas também delimita o acesso. Engenheiros de software têm feedback loop imediato. Times de suporte têm SOPs e métricas de resolução. Advogados têm peças processuais verificáveis. Essas funções se tornaram, por design e por sorte estrutural, as primeiras beneficiárias da elite de IA. Funções onde o trabalho é longo, mal definido e envolve múltiplos stakeholders — gestão média, análise estratégica, RH não-operacional — ficaram de fora da primeira onda porque a IA ainda não consegue verificar se fez um bom trabalho ali.

Esse quadro vai mudar. A a16z aponta que contabilidade e auditoria registraram salto de quase 20% no benchmark GDPval nos últimos quatro meses. Esses saltos vão aprofundar a divisão entre quem está posicionado para absorvê-los — porque já está dentro da elite — e quem não está.

Os dois registros coexistem de forma mutuamente conveniente. O ROI oficial dos projetos bem-sucedidos tende a não contabilizar os fracassos anteriores. A narrativa de democratização da IA convive com evidências de acesso desigual dentro das organizações — um contraste que raramente é detalhado em comunicações públicas. Ambos os enquadramentos são racionais do ponto de vista de quem os produz. Ambos são incompletos do ponto de vista de quem toma decisões com base neles — investidor avaliando uma empresa, executivo avaliando estratégia de pessoas, conselheiro avaliando exposição regulatória.

O modelo de negócio da opacidade

A pesquisa Dataiku/Harris Poll com 500 CEOs de empresas com receita acima de US$ 500 milhões — em quatro países, publicada em março de 2025 — coloca em números a pressão que mantém essa estrutura no lugar.

A maioria (74%) dos CEOs internacionais admite estar em risco de perder o cargo em dois anos se não entregarem ganhos mensuráveis com IA. O número sobe para 79% entre executivos americanos. 70% preveem que pelo menos um par será demitido por estratégia de IA fracassada ou crise relacionada à IA.

Essa pressão produz um comportamento previsível. Os próprios CEOs estimam que 35% dos projetos de IA em suas empresas são “mais sobre optics do que sobre impacto”,  uma dinâmica frequentemente associada ao que o mercado descreve como AI washing. São projetos desenhados para sinalizar inovação para investidores ou stakeholders, sem entregar valor real ao negócio.

E, ao mesmo tempo, 87% dos CEOs acreditam que agentes de IA prontos para uso são tão eficazes quanto soluções customizadas para aplicações verticais específicas. O Stanford identificou o oposto: para 42% dos deployments analisados, a escolha do modelo era intercambiável, mas a vantagem duradoura estava na camada de orquestração, nos dados proprietários, no processo redesenhado. Quem constrói a orquestração sobre dados próprios tem diferencial. Quem implanta o agente genérico tem commodity.

Na prática, orquestração significa: a integração do modelo aos sistemas internos da empresa (ERP, CRM, bases de dados proprietárias) via APIs; a camada de governança que define o que o agente pode e não pode fazer; o pipeline de dados que garante que o modelo acessa informação atualizada e de qualidade (técnica conhecida como RAG — Retrieval-Augmented Generation); e as regras de negócio específicas do domínio que transformam um modelo genérico em ferramenta especializada. Um agente de IA genérico não tem acesso a nada disso. É exatamente o que torna a orquestração o ativo e o modelo, a commodity.

A combinação dos três dados — pressão para entregar, AI washing declarado, ilusão da commodity — explica por que a contabilidade dupla persiste. Quando o board cobra ROI verificável e o CEO admite em pesquisa anônima que 35% dos projetos são vitrine, o incentivo para apresentar ROI que inclua os fracassos anteriores é zero.

O que muda e quando

Três pressões indicam que essa estrutura começa a ser questionada externamente — com velocidades e forças diferentes.

A pressão regulatória é real mas lenta. A recomendação do IAC à SEC de dezembro de 2025, se virar regra, exigiria divulgação do impacto da IA na força de trabalho, na governança e nos relatórios financeiros — vinculada à materialidade financeira, padrão familiar para empresas abertas. A SEC atual é reticente. Mas o risco de comment letter por AI washing em relatórios públicos já é concreto.

A pressão contábil é estrutural mas sem prazo imediato. A ASU 2025-06 do FASB reconhece que o desenvolvimento de IA não é linear — mas não cria obrigação de registrar projetos descontinuados. A norma entra em vigor em 2027 e cria mais julgamento, não mais transparência obrigatória. O cemitério de pilotos permanece fora do balanço por pelo menos mais dois anos fiscais.

A pressão de mercado é a mais imediata. Quando 61% dos executivos continuam admitindo que podem perder o cargo se falharem na transição de IA — dado da pesquisa Writer  —, a cobrança de ROI verificável pelos boards se torna concreta. Nesse contexto, apresentar retorno que exclui os custos dos fracassos anteriores é estratégia de curto prazo. Quanto mais o board perguntar “como chegamos aqui”, mais difícil será responder sem mencionar o cemitério.

Quando qualquer dessas pressões produzirá obrigação formal de disclosure completo ainda é uma icógnita. A trajetória existe, e a direção nesse sentido também.


As perguntas que os relatórios não respondem

Para quem toma decisões com base em relatórios de ROI de IA, em apresentações de estratégia de pessoas ou em disclosures para o board, um conjunto de perguntas permanece sistematicamente sem resposta nos documentos disponíveis.

Para o CEO

  • O ROI apresentado inclui os custos dos projetos descontinuados antes do projeto bem-sucedido atual?
  • Quantos pilotos foram encerrados nos últimos 24 meses? Qual o custo total estimado desses projetos?
  • A estratégia de IA comunicada internamente é operacional ou é principalmente narrativa para stakeholders externos?

Para o CFO

  • Como a empresa trata contabilmente os custos de projetos de IA descontinuados — são lançados como P&D, como despesa operacional, ou não são rastreados separadamente?
  • O EBITDA reportado inclui amortização de intangíveis de IA desenvolvidos internamente? Se não, como o valor desses ativos é estimado?
  • Existe linha de custo para change management, redesenho de processos e requalificação associados a cada projeto de IA?

Para o CHRO

  • Existe critério formal — documentado e auditável — para selecionar quem recebe acesso prioritário a ferramentas e treinamento de IA?
  • Qual a proporção da força de trabalho com acesso ativo a ferramentas de IA versus acesso inexistente ou apenas formal?
  • O plano de requalificação diferencia entre funções onde a IA augmenta o trabalho e funções onde a IA o substitui?

Para o conselho

  • O disclosure de IA no relatório anual reflete com precisão o estado real de adoção — incluindo projetos descontinuados e impacto na força de trabalho — ou está otimizado para sinalização aos mercados?
  • A empresa tem exposição a comment letters da SEC por AI washing? Os escritórios de advocacia foram consultados sobre os limites do disclosure atual?
  • Se a SEC aprovar as recomendações do IAC de dezembro de 2025, quão material será o impacto nos relatórios anuais da empresa?

Um ponto de partida antes de 2027

As obrigações formais de disclosure chegam devagar. Mas há um conjunto mínimo de perguntas que qualquer empresa pode responder internamente hoje — sem esperar por norma, sem contratar consultoria.

1. Qual é o custo total do portfólio, não apenas dos projetos bem-sucedidos?

Somar os custos dos projetos descontinuados nos últimos 24 meses ao investimento contabilizado nos projetos ativos. Esse é o denominador real do ROI.

2. Qual a taxa de conversão piloto → produção com impacto mensurável?

Não o número de ferramentas em uso — o número de projetos que geraram resultado verificável em P&L ou eficiência operacional documentada.

3. Qual proporção da força de trabalho tem acesso ativo e treinamento estruturado em IA?

Não o número de licenças compradas — o número de funcionários que usam ferramentas de IA com suporte formal de treinamento e com critério documentado de seleção.

4. Existe política declarada sobre o que acontece com as funções deslocadas por IA?

Redeployment, requalificação ou desligamento — qualquer das três pode ser legítima. O que não tem resposta aceitável é a ausência de política.

Nenhuma dessas quatro perguntas requer formato de disclosure regulatório. Requerem apenas que a empresa saiba a resposta — o que, dado o estado atual de transparência interna descrito pelos próprios CEOs nas pesquisas citadas neste artigo, já não pode ser dado como certo.

Glossário mínimo

Sunk cost (custo afundado) – Gasto já realizado que não pode ser recuperado. Em projetos de IA, os custos de pilotos abandonados são sunk costs — irrelevantes para decisões futuras, mas relevantes para avaliar o custo real do caminho até o projeto bem-sucedido atual.
EBITDA – Lucro antes de juros, impostos, depreciação e amortização. Projetos de IA capitalizados como ativos reduzem o impacto imediato no EBITDA; projetos lançados como despesa operacional o reduzem no período de ocorrência.
GAAP / IFRS – Generally Accepted Accounting Principles (padrão americano) e International Financial Reporting Standards (padrão internacional). Ambos tratam gastos internos em desenvolvimento de IA como despesa de P&D, não como ativo — o que significa que esses gastos não aparecem no balanço como investimento.
Materialidade financeira – Princípio contábil e regulatório que define se uma informação é relevante o suficiente para influenciar decisões de investidores. O framework de disclosure proposto pela SEC para IA usa materialidade como critério central.
RAG (Retrieval-Augmented Generation) – Técnica que conecta um modelo de linguagem a bases de dados externas, permitindo que ele acesse informações atualizadas e específicas antes de gerar uma resposta. É um dos componentes da camada de orquestração que transforma um modelo genérico em ferramenta especializada.
P&L (Profit & Loss) – Demonstração de resultados — o relatório que mostra receitas, custos e lucro de uma empresa em um período. Quando o MIT conclui que 95% dos pilotos de IA não geram impacto mensurável em P&L, significa que esses projetos não aparecem como ganho ou redução de custo documentada nesse relatório.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.

A órbita como infraestrutura

Inteligência Artificial

A órbita como infraestrutura

SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.

A IA já constrói um modelo de quem somos, mas não podemos auditá-lo

Inteligência Artificial

A IA já constrói um modelo de quem somos, mas não podemos auditá-l...

Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Inteligência Artificial

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Novo relatório do EIC mapeia avanços em IA, materiais avançados, computação quântica e biotecnologia que começam a ganhar escala na corrida global pela inovação