Primeiro, a OpenAI deu ao ChatGPT a capacidade de lembrar conversas anteriores com os usuários, bem como seus detalhes e preferências pessoais. Em seguida, o Google lançou seu modelo mais potente, o Gemini 1.0 Ultra, em uma versão ampla. Em seguida, lançou de forma limitada um novo modelo Gemini 1.5 Pro com a mesma capacidade do Ultra, mas em um pacote menor e mais barato. O que torna o 1.5 Pro especial é sua "janela de contexto" notavelmente grande. Pode analisar uma hora de vídeo, 11 horas de áudio ou cerca de sete livros de texto. E, entre seus poderes, criar vídeos a partir de descrições. Na sequência, a OpenAI apresentou o Sora, um novo modelo de geração de texto para vídeo que pode produzir vídeos de um minuto com qualidade impressionante (e algumas alucinações).
O que poucos se deram conta foi que o movimento todo começou quando a Meta (outra concorrente de peso) publicou um artigo sobre a iniciativa V-JEPA (Video Joint Embedding Predictive Architecture). Pesquisadores da empresa encontraram uma forma de exigir menos dos algoritmos. Em vez de pedir aos algoritmos que encontrem padrões em cada píxel em movimento de um vídeo, eles selecionam um trecho importante da cena e pedem ao software para adivinhar, em termos gerais, o que está faltando.
A OpenAI e o Google fizeram seus anúncios focados no tripé:
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Quatro lançamentos recentes — GPT-5, GPT-OSS, Genie 3 e Claude Opus 4.1 — mostram que a disputa não é mais por modelos maiores, mas por modelos mais úteis.
Mais seguro, mais barato e com novos truques agênticos, modelo continua longe da AGI e leva OpenAI a enfrentar críticas no lançamento.
Enquanto a IA avança, a amnésia digital dos modelos permanece um gargalo. Mas soluções já estão surgindo — de cofres pessoais de memória a plugins especializados.
Deepfakes e phishing por IA estão entre os principais vetores. Violação com IA encurta tempo e amplia escala de ataque
Relatório da IBM mostra que o custo médio é de R$ 7,19 milhões por violação. Mais de 60% das empresas não têm política de uso e uma em cada 6 violações usam IA para atacar organizações
Crie um conselho consultivo com personas geradas por IA para tomar decisões mais estratégicas, com clareza sob demanda e diversidade de pensamento
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso