Sua IA pode estar escondendo seu processo de pensamento – e isso é um problema maior do que você imagina. Uma nova pesquisa da Anthropic revela que os principais modelos de linguagem não revelam partes importantes de seu processo de raciocínio, criando uma grave lacuna de transparência que pode prejudicar os esforços de segurança da IA. Se os modelos podem usar informações silenciosamente sem revelá-las, e/ou ocultarem dicas e atalhos que utilizam, como confiar na transparência de seu processo de raciocínio?
Resumindo: a técnica Chain of Thought (CoT) tornou-se uma das bases para a IA que “raciocina”. Pesquisadores de segurança em IA têm apostado no raciocínio por cadeia de pensamento (CoT) como uma maneira de detectar comportamentos perigosos antes que causem danos. Principalmente comportamentos desalinhados ou inseguros em ambientes de alto risco. No estudo “Reasoning Models Don't Always Say What They Think”, a equipe da Anthropic revela uma série de limitações nas abordagens atuais para monitorar os processos de pensamento da IA.
Foram testados seis tipos diferentes de dicas – de metadados neutros a avisos diretos de “desbloqueio” – em dois LLMs de raciocínio de ponta (Claude 3.7 Sonnet, DeepSeek R1). Ambos falharam consistentemente em revelar o uso das dicas. Mesmo quando os modelos exploram dicas mais de 90% das vezes, verbalizam essas dicas no CoT menos de 20% das vezes, em média – e menos de 5% para dicas de desalinhamento.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
O ecossistema de Cambridge se consolida como uma potência global, combinando excelência acadêmica, cultura empreendedora e liderança em deep tech, com resultados que superam até os do Vale do Silício
O “Global Tech Ecosystem Index 2025” revela que São Paulo, Belo Horizonte e Curitiba se destacam como polos de inovação no cenário global, enquanto o Brasil consolida sua posição como líder da América Latina
AlphaEvolve, Codex, Jules, GitHub Copilot, Claude 4, Gemini 2.5 Pro... A corrida armamentista da IA acelerou em todas as frentes: chips, conteúdo, credibilidade e controle.
Escondem deliberadamente seus processos de pensamento. Este não é apenas um problema técnico.
Treinamento, renda e idade são os principais divisores no uso de IA, segundo estudo global da KPMG com 17 mil pessoas em 17 países
Relatórios da Gartner e Microsoft revelam que a nuvem está entrando em uma fase crítica, impulsionada por IA, pressão regulatória, demandas de sustentabilidade e novos modelos setoriais
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso