s
INTELIGÊNCIA ARTIFICIAL

A influência da CoT e de seus sucessores para os LLMs

A técnica Chain of Thought (CoT) se tornou uma das bases para chegarmos a uma IA que consegue raciocinar como os humanos. Entenda.

Como você sabe há duas semana a OpenAI lançou uma prévia de um novo tipo de modelo, o o1, que faz uso de Chain-of-Thought (CoT) para resolução de problemas complexos. Um passo na direção certa para modelos text to actions projetados para converter solicitações de usuários em ações (não apenas respostas).

Desde o lançamento do modelo OpenAI o1  o conceito Chain-of-Thought (CoT) tornou-se popular. Já falamos muito dele aqui ao abordar técnicas que permitem aos LLMs resolver problemas complexos — exatamente o que a OpenA diz que o o1 consegue fazer, como demonstrado nesses vídeos, e que a DeepMind atribui aos seus recém-lançados modelos AlphaProof e AlphaGeometry 2, assim como pesquisadores de Stanford atribuem ao g1 (desenvolvido a partir do Llama-3.1).

A associação de CoT com outras técnicas, como o Aprendizado por Reforço (RL), tem se revelado fundamental para o desenvolvimento de sistemas de IA mais avançados e autônomos. Um passo adiante em direção ao futuro dos agentes inteligentes e à Inteligência Artificial Geral (AGI). Por meio da combinação com o Machine Learning, por exemplo, o o1 aprende a aprimorar sua cadeia de pensamento e a refinar as estratégias que utiliza. Até por que CoT ainda tem suas limitações.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Pricing: onde a IA gera ROI verificável

Inteligência Artificial

Pricing: onde a IA gera ROI verificável

Enquanto 90% das iniciativas de IA ainda não saíram do piloto, o pricing B2B já tem resultados no P&L

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Inteligência Artificial

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.

A realidade da IA em 2026, segundo Stanford

Inteligência Artificial

A realidade da IA em 2026, segundo Stanford

O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.