s
INTELIGÊNCIA ARTIFICIAL

Modelos de raciocínio guardam seus segredos

Escondem deliberadamente seus processos de pensamento. Este não é apenas um problema técnico.

Sua IA pode estar escondendo seu processo de pensamento – e isso é um problema maior do que você imagina. Uma nova pesquisa da Anthropic revela que os principais modelos de linguagem não revelam partes importantes de seu processo de raciocínio, criando uma grave lacuna de transparência que pode prejudicar os esforços de segurança da IA. Se os modelos podem usar informações silenciosamente sem revelá-las, e/ou ocultarem dicas e atalhos que utilizam, como confiar na transparência de seu processo de raciocínio?

Resumindo: a técnica Chain of Thought (CoT) tornou-se uma das bases para a IA que “raciocina”. Pesquisadores de segurança em IA têm apostado no raciocínio por cadeia de pensamento (CoT) como uma maneira de detectar comportamentos perigosos antes que causem danos. Principalmente comportamentos desalinhados ou inseguros em ambientes de alto risco. No estudo “Reasoning Models Don't Always Say What They Think”, a equipe da Anthropic revela uma série de limitações nas abordagens atuais para monitorar os processos de pensamento da IA.

Foram testados seis tipos diferentes de dicas – de metadados neutros a avisos diretos de “desbloqueio” – em dois LLMs de raciocínio de ponta (Claude 3.7 Sonnet, DeepSeek R1). Ambos falharam consistentemente em revelar o uso das dicas. Mesmo quando os modelos exploram dicas mais de 90% das vezes, verbalizam essas dicas no CoT menos de 20% das vezes, em média – e menos de 5% para dicas de desalinhamento.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Por que a IA ainda não gera inovação nas empresas e como a experimentação estruturada muda esse jogo

Inovação

Por que a IA ainda não gera inovação nas empresas e como a experime...

Estudo global da Mastercard e Forrester mostra que, sem experimentação estruturada, a IA amplia riscos, trava decisões e não se traduz em vantagem competitiva

Human-in-the-Loop: de gargalo operacional a capacidade estratégica

Inteligência Artificial

Human-in-the-Loop: de gargalo operacional a capacidade estratégica

Empresas que usam o humano para guiar decisões sob incerteza constroem agentes mais confiáveis, governáveis e difíceis de copiar.

Engenharia e P&D sob pressão: custos sobem, decisões atrasam

Inteligência Artificial

Engenharia e P&D sob pressão: custos sobem, decisões atrasam

Relatório global da Capgemini mostra por que tecnologia não é mais o gargalo — e como a lentidão organizacional ameaça a competitividade.

A IA já funciona. Mas tem um problema estrutural

Inteligência Artificial

A IA já funciona. Mas tem um problema estrutural

A tecnologia amadureceu. Porém, organizações, processos e governança não acompanharam a velocidade da IA em escala.

Um tutor digital para cada pessoa

Inteligência Artificial

Um tutor digital para cada pessoa

A equação "IA + supervisão humana" redefine aprendizagem, reduz desigualdades e cria novo padrão de qualificação. A IA vira infraestrutura cognitiva, reconfigurando talento, ensino e competitividade.

Modelos demais, valor de menos

Inteligência Artificial

Modelos demais, valor de menos

Em 2026, o maior risco de IA pode ser o excesso de modelos e a ausência de integração. O contexto se perde. E o ROI também.