O uso de Inteligência Artificial nas organizações entrou em uma nova fase. Sistemas agênticos já não apenas automatizam tarefas; eles sintetizam informações, estruturam análises e oferecem recomendações contextuais para decisões complexas.
Os ganhos imediatos são claros: redução de tempo de análise, maior consistência na avaliação de dados e padronização de processos decisórios.
Uma questão menos discutida é o impacto desse padrão de uso sobre a formação de conhecimento humano.
Um working paper publicado em fevereiro de 2026 pelo NBER — “AI, Human Cognition and Knowledge Collapse” — propõe um modelo teórico para analisar esse problema. O estudo descreve uma dinâmica na qual a adoção intensiva de recomendações agênticas pode reduzir os incentivos individuais para o esforço cognitivo, afetando a produção de conhecimento ao longo do tempo.
Os autores chamam esse processo de Colapso do Conhecimento.
Explicando… O modelo parte de uma distinção simples entre dois tipos de conhecimento:
O esforço cognitivo produz ambos. Parte do ganho é privado — aprendizado individual. Parte é uma externalidade positiva que contribui para o estoque coletivo de conhecimento disponível para a sociedade ou organização.
Quando sistemas de IA oferecem recomendações cada vez mais precisas, o custo de chegar à resposta correta diminui. A produtividade aumenta. O incentivo para produzir sinais cognitivos próprios diminui.
O modelo mostra que, sob determinadas condições, existe um limiar de precisão a partir do qual o esforço humano cai abaixo do necessário para sustentar o crescimento do estoque coletivo de conhecimento.
Nesse cenário, decisões continuam sendo tomadas e a produtividade pode permanecer alta no curto prazo. O efeito aparece no longo prazo, quando a geração de novos sinais cognitivos se reduz.
Evidência comportamental
O modelo do NBER é teórico. Pesquisas recentes começam a observar padrões de comportamento compatíveis com essa dinâmica. Uma delas, conduzida pela Wharton School, intitulado “Thinking — Fast, Slow and Artificial“, analisa como indivíduos interagem com recomendações produzidas por sistemas de IA.
Os autores introduzem o conceito de rendição cognitiva: a tendência de adotar respostas fornecidas por IA com mínima reconstrução do raciocínio.
A análise foi baseada em três experimentos com 1.372 participantes e cerca de 10.000 tentativas utilizando problemas de reflexão cognitiva. Os resultados mostram um padrão consistente:
Outro resultado relevante é que o nível de confiança dos participantes aumentou quando utilizaram IA, mesmo quando as respostas estavam incorretas.
Os autores interpretam esse comportamento utilizando uma extensão da estrutura de Daniel Kahneman:
Sistema 1 — pensamento intuitivo
Sistema 2 — pensamento deliberativo
Sistema 3 — cognição artificial
A rendição cognitiva ocorre quando o Sistema 3 passa a dominar o processo decisório e o Sistema 2 deixa de ser ativado de forma consistente.
Essa evidência comportamental é compatível com o mecanismo descrito no modelo do NBER: redução do esforço cognitivo individual.
A fronteira entre apoio e substituição cognitiva
Esse fenômeno também aparece em discussões recentes sobre o uso cotidiano de agentes de IA.
Em um debate promovido pela Exponential View, pesquisadores discutiram como agentes cognitivos podem acompanhar o raciocínio de usuários, identificar inconsistências e sugerir ajustes em tempo real.
O benefício imediato é maior consistência analítica e redução de vieses cognitivos.
A questão central surge quando esses sistemas passam a estruturar partes substanciais do processo de formulação de hipóteses.
Quando agentes identificam inconsistências, organizam premissas e estruturam argumentos, parte do processo cognitivo passa a ocorrer fora da mente humana.
Essa transição não ocorre por substituição abrupta. Ela ocorre por integração gradual. Analistas continuam produzindo relatórios. Executivos continuam tomando decisões. A mudança ocorre na profundidade do processamento cognitivo envolvido.
Para organizações, o impacto desse processo tende a aparecer no horizonte de médio e longo prazo.
Empresas constroem vantagem competitiva não apenas por eficiência operacional, mas pela capacidade de desenvolver conhecimento especializado distribuído entre suas equipes.
Esse capital cognitivo permite:
Sistemas agênticos são particularmente eficientes na média. Situações fora do padrão exigem repertório acumulado.
Se o esforço cognitivo necessário para desenvolver esse repertório diminuir de forma persistente, a formação de especialistas pode desacelerar.
O estudo da Wharton oferece um indicativo importante. Em um terceiro experimento, os pesquisadores introduziram incentivos financeiros para respostas corretas e feedback imediato sobre erros. Nesse cenário, a taxa de rejeição de respostas incorretas da IA mais que dobrou. Esse resultado sugere que a rendição cognitiva não é inevitável. Ela responde a incentivos institucionais.
Ambientes organizacionais com feedback estruturado, auditoria analítica e responsabilidade explícita sobre decisões tendem a estimular maior deliberação humana.
Ambientes sem consequências claras para erros tendem a favorecer dependência acrítica de recomendações automatizadas.
Portanto, a adoção de sistemas agênticos não implica necessariamente erosão cognitiva.
O risco descrito nos estudos analisados está associado a um padrão específico de uso: delegação crescente do processo de formulação de hipóteses e avaliação crítica.
A variável estratégica passa a ser a forma como organizações integram sistemas de IA em seus processos decisórios.
A questão central não é substituir julgamento humano. É garantir que sistemas de IA complementem o esforço cognitivo humano em vez de substituí-lo.
Se o esforço humano continuar produzindo novos sinais cognitivos, a IA pode ampliar a capacidade analítica das organizações.
Se esse esforço diminuir de forma persistente, o efeito agregado pode reproduzir a dinâmica descrita no modelo do NBER: redução gradual do estoque coletivo de conhecimento.
A discussão corporativa sobre IA concentra-se em ROI, automação e redução de custo. Esses indicadores são necessários. O conceito de Colapso do Conhecimento adiciona outra variável: a sustentabilidade do capital intelectual.
Se a maior parte do raciocínio analítico passa a ser estruturada por agentes, a organização pode reduzir o ritmo de formação de competência interna. Esse efeito é cumulativo. Ele afeta capacidade de auditoria, resposta a crises, inovação incremental e formulação estratégica.
O modelo do NBER também indica que maior capacidade de agregação de conhecimento coletivo aumenta a resiliência do sistema. Em termos empresariais, isso significa investir em documentação, revisão estruturada, registro explícito de racionalidades e ambientes onde o esforço cognitivo continue sendo exigido.
A questão central passa a ser organizacional: se as empresas manterão deliberadamente espaços onde o esforço cognitivo humano continue produzindo conhecimento novo.
O Colapso do Conhecimento não é um evento isolado. É uma trajetória possível que começa no nível individual e pode se consolidar, ao longo do tempo, no nível organizacional.
A eficiência das IAs agênticas é mensurável trimestre a trimestre. A capacidade de produzir conhecimento novo é um ativo acumulado ao longo de anos. Preservar esse ativo passa a ser uma decisão de governança..
Por que o conceito de “Colapso do Conhecimento” pode se tornar um dos principais debates sobre IA nos próximos anos?
O conceito conecta três campos que normalmente são discutidos separadamente: economia do conhecimento, psicologia cognitiva e governança organizacional.
Primeiro, há uma dimensão econômica. O modelo apresentado no working paper do NBER parte da ideia de que o conhecimento produzido por indivíduos gera externalidades positivas. Quando alguém resolve um problema complexo, parte do aprendizado permanece privado, mas parte contribui para o estoque coletivo de conhecimento disponível para outros.
Sistemas de IA agêntica alteram essa dinâmica ao reduzir o custo de chegar à resposta correta. Quando recomendações automatizadas substituem parte do esforço cognitivo humano, o incentivo individual para produzir novos sinais cognitivos pode diminuir.
Segundo, há uma dimensão comportamental. Pesquisas recentes em psicologia mostram que indivíduos tendem a delegar raciocínio a sistemas automatizados quando respostas são fornecidas rapidamente e com aparência de confiabilidade. Esse comportamento — descrito em alguns estudos como rendição cognitiva ou automation bias — reduz a ativação do pensamento deliberativo.
Terceiro, há uma dimensão organizacional. Empresas constroem vantagem competitiva não apenas por eficiência operacional, mas pela capacidade de formar especialistas e desenvolver conhecimento distribuído entre equipes. Se o esforço cognitivo necessário para produzir esse conhecimento diminuir de forma persistente, a taxa de formação de expertise pode desacelerar.
A convergência dessas três dimensões — incentivos econômicos, comportamento humano e governança organizacional — explica por que o debate sobre Colapso do Conhecimento tende a ganhar relevância nos próximos anos.
E por que o Colapso do Conhecimento pode ser comparado à “Tragédia dos Comuns”?
A analogia ajuda a entender a lógica estrutural do problema.
A Tragédia dos Comuns, conceito popularizado por Garrett Hardin em 1968, descreve situações em que recursos compartilhados podem ser degradados quando indivíduos tomam decisões racionais do ponto de vista próprio. Cada agente obtém benefício imediato ao utilizar mais do recurso comum, enquanto o custo coletivo aparece apenas no longo prazo.
O modelo de Colapso do Conhecimento apresenta uma dinâmica semelhante.
Produzir conhecimento exige esforço cognitivo. Parte do benefício é privado — aprendizado individual. Outra parte é coletiva: novas ideias, métodos e experiências que alimentam o estoque de conhecimento disponível para a sociedade ou para uma organização.
Quando sistemas de IA reduzem o custo de obter respostas corretas, indivíduos podem racionalmente optar por reduzir esse esforço. A decisão é eficiente no nível individual.
O efeito agregado pode ser uma redução gradual na produção de novos sinais cognitivos que alimentam o estoque coletivo de conhecimento.
O mecanismo descrito no modelo é frequentemente comparado à lógica da Tragédia dos Comuns: decisões individuais eficientes podem degradar um recurso coletivo essencial para inovação e aprendizado.
O paradoxo da IA nas empresas: decisões mais rápidas, aprendizado mais lento.
Redes autônomas, nuvens de IA e novos modelos de receita movimentam o setor que já responde por 6,4% do PIB global.
A queda no preço por token amplia demanda e pressiona ROI, enquanto US$ 1,3 trilhão em CapEX redesenha a indústria até 2027.
A automação por IA está deslocando valor da interface para dados, controle e orquestração.
Agentes prometem escala e eficiência, mas expõem limites organizacionais. O diferencial está na capacidade das empresas de gerir IA como rotina operacional.
O que o experimento MoltBook revela sobre o valor econômico, a governança e a liderança em sistemas autônomos.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
