s
INTELIGÊNCIA ARTIFICIAL

O futuro dos Transformers na IA e sua evolução

Estudos mostram que memória de longo prazo para Transformers permite lidar com contextos mais longos

Dois artigos de pesquisa recém-publicados podem significar muito para a arquitetura central dos Transformers, de modo a garantir a eles uma memória de longo prazo, torná-los melhores em lidar com contextos mais longos e se tornarem mais eficientes. Você confiaria mais na IA se os LLMs se lembrassem de conversas anteriores, aprendessem com elas e citassem as fontes? Pois é.

A proposta de pesquisadores da Sakana AI e do Institute of Science Tokyo é o Transformer², um framework de autoadaptação projetado para melhorar o desempenho dos LLMs, abrindo caminho para sistemas de IA dinâmicos e auto-organizados. Diferentemente dos sistemas de IA tradicionais que são pré-treinados para tarefas específicas, o Transformer² ajusta dinamicamente suas configurações internas para lidar com diversos desafios, que vão desde

  • Matemática: resolver problemas complexos com precisão.
  • Codificação: auxiliar desenvolvedores com geração e depuração de código.
  • Raciocínio: enfrentar desafios lógicos com proficiência semelhante à humana.
  • Compreensão visual: analisar imagens e padrões complexos de forma efetiva.

Modelos autoadaptativos visam solucionar os desafios apresentados pelos métodos tradicionais de ajuste fino, que geralmente são computacionalmente intensivos e estáticos em sua capacidade de lidar com diversas tarefas. Para desenvolver o Transformers², a equipe de IA da Sakana se inspirou em como o cérebro humano se reconecta após uma lesão. Primeiro, o modelo analisa a tarefa recebida para entender seus requisitos antes de tentar aprender; então, se ajusta dinamicamente e fornece resultados personalizados para essa tarefa.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Pricing: onde a IA gera ROI verificável

Inteligência Artificial

Pricing: onde a IA gera ROI verificável

Enquanto 90% das iniciativas de IA ainda não saíram do piloto, o pricing B2B já tem resultados no P&L

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Inteligência Artificial

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.

A realidade da IA em 2026, segundo Stanford

Inteligência Artificial

A realidade da IA em 2026, segundo Stanford

O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.