s
INTELIGÊNCIA ARTIFICIAL

Modelos de raciocínio guardam seus segredos

Escondem deliberadamente seus processos de pensamento. Este não é apenas um problema técnico.

Sua IA pode estar escondendo seu processo de pensamento – e isso é um problema maior do que você imagina. Uma nova pesquisa da Anthropic revela que os principais modelos de linguagem não revelam partes importantes de seu processo de raciocínio, criando uma grave lacuna de transparência que pode prejudicar os esforços de segurança da IA. Se os modelos podem usar informações silenciosamente sem revelá-las, e/ou ocultarem dicas e atalhos que utilizam, como confiar na transparência de seu processo de raciocínio?

Resumindo: a técnica Chain of Thought (CoT) tornou-se uma das bases para a IA que “raciocina”. Pesquisadores de segurança em IA têm apostado no raciocínio por cadeia de pensamento (CoT) como uma maneira de detectar comportamentos perigosos antes que causem danos. Principalmente comportamentos desalinhados ou inseguros em ambientes de alto risco. No estudo “Reasoning Models Don't Always Say What They Think”, a equipe da Anthropic revela uma série de limitações nas abordagens atuais para monitorar os processos de pensamento da IA.

Foram testados seis tipos diferentes de dicas – de metadados neutros a avisos diretos de “desbloqueio” – em dois LLMs de raciocínio de ponta (Claude 3.7 Sonnet, DeepSeek R1). Ambos falharam consistentemente em revelar o uso das dicas. Mesmo quando os modelos exploram dicas mais de 90% das vezes, verbalizam essas dicas no CoT menos de 20% das vezes, em média – e menos de 5% para dicas de desalinhamento.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

O novo tabuleiro da IA corporativa

Inteligência Artificial

O novo tabuleiro da IA corporativa

IA Soberana sai dos gabinetes de governo e entra no coração da estratégia corporativa, redefinindo quem controla dados, energia e vantagem competitiva.

Agentes de IA e o novo ciclo da decisão corporativa

Inteligência Artificial

Agentes de IA e o novo ciclo da decisão corporativa

Simulações baseadas em agentes autônomos estão acelerando decisões de negócios — e já superam pesquisas tradicionais em precisão e tempo. Mas há desafios para o uso em escala.

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Inteligência Artificial

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Empresas que tratam rotulagem como capex cognitivo, e não custo operacional, estão melhor preparadas para transformar aprendizado em ROI.

Vibe coding encontra a realidade corporativa

Inteligência Artificial

Vibe coding encontra a realidade corporativa

O pico de expectativas sobre vibe coding está cedendo lugar a um uso mais controlado. Em protótipos e automações locais, funciona. Em produção, sem governança, vira dívida técnica e risco.

Entre ambição e execução, o gap da IA corporativa

Inteligência Artificial

Entre ambição e execução, o gap da IA corporativa

Cisco mede a prontidão, IBM mede a transformação — juntas, expõem o ponto cego da maturidade em IA. Charlene Li mostra o caminho para atingi-la.

O CEO e a IA Agêntica: a nova dupla de comando das empresas

Inteligência Artificial

O CEO e a IA Agêntica: a nova dupla de comando das empresas

Segundo a McKinsey, liderar na era da IA Agêntica exige CEOs fluentes em tecnologia, capazes de equilibrar velocidade, confiança e responsabilidade em um modelo híbrido entre humanos e agentes inteligentes