Dois artigos de pesquisa recém-publicados podem significar muito para a arquitetura central dos Transformers, de modo a garantir a eles uma memória de longo prazo, torná-los melhores em lidar com contextos mais longos e se tornarem mais eficientes. Você confiaria mais na IA se os LLMs se lembrassem de conversas anteriores, aprendessem com elas e citassem as fontes? Pois é.
A proposta de pesquisadores da Sakana AI e do Institute of Science Tokyo é o Transformer², um framework de autoadaptação projetado para melhorar o desempenho dos LLMs, abrindo caminho para sistemas de IA dinâmicos e auto-organizados. Diferentemente dos sistemas de IA tradicionais que são pré-treinados para tarefas específicas, o Transformer² ajusta dinamicamente suas configurações internas para lidar com diversos desafios, que vão desde
Modelos autoadaptativos visam solucionar os desafios apresentados pelos métodos tradicionais de ajuste fino, que geralmente são computacionalmente intensivos e estáticos em sua capacidade de lidar com diversas tarefas. Para desenvolver o Transformers², a equipe de IA da Sakana se inspirou em como o cérebro humano se reconecta após uma lesão. Primeiro, o modelo analisa a tarefa recebida para entender seus requisitos antes de tentar aprender; então, se ajusta dinamicamente e fornece resultados personalizados para essa tarefa.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.
A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.
Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.
SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.
Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.
Novo relatório do EIC mapeia avanços em IA, materiais avançados, computação quântica e biotecnologia que começam a ganhar escala na corrida global pela inovação
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
