Como você sabe há duas semana a OpenAI lançou uma prévia de um novo tipo de modelo, o o1, que faz uso de Chain-of-Thought (CoT) para resolução de problemas complexos. Um passo na direção certa para modelos text to actions projetados para converter solicitações de usuários em ações (não apenas respostas).
Desde o lançamento do modelo OpenAI o1 o conceito Chain-of-Thought (CoT) tornou-se popular. Já falamos muito dele aqui ao abordar técnicas que permitem aos LLMs resolver problemas complexos — exatamente o que a OpenA diz que o o1 consegue fazer, como demonstrado nesses vídeos, e que a DeepMind atribui aos seus recém-lançados modelos AlphaProof e AlphaGeometry 2, assim como pesquisadores de Stanford atribuem ao g1 (desenvolvido a partir do Llama-3.1).
A associação de CoT com outras técnicas, como o Aprendizado por Reforço (RL), tem se revelado fundamental para o desenvolvimento de sistemas de IA mais avançados e autônomos. Um passo adiante em direção ao futuro dos agentes inteligentes e à Inteligência Artificial Geral (AGI). Por meio da combinação com o Machine Learning, por exemplo, o o1 aprende a aprimorar sua cadeia de pensamento e a refinar as estratégias que utiliza. Até por que CoT ainda tem suas limitações.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Enquanto 90% das iniciativas de IA ainda não saíram do piloto, o pricing B2B já tem resultados no P&L
Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.
O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.
Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.
A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.
Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
