s
INTELIGÊNCIA ARTIFICIAL

A IA já constrói um modelo de quem somos, mas não podemos auditá-lo

Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.

Relatório da Contrary Research propõe uma mudança importante no debate sobre Inteligência Artificial. A memória persistente — a capacidade de sistemas de IA lembrarem informações entre conversas — deixa de ser um detalhe técnico de produto para passar a ser tratada como infraestrutura para construir modelos de identidade digital.

Isso significa que os sistemas não armazenam apenas interações. Eles passam a montar representações contínuas do usuário — padrões, preferências e inferências que influenciam decisões futuras em diferentes contextos.

Essa mudança levanta uma questão prática, ainda sem resposta: como um usuário pode acessar, entender e corrigir o modelo que uma IA construiu sobre ele?

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Levanta também uma questão de negócio: a memória persistente em IA está sendo tratada como decisão de produto, quando deveria ser tratada como decisão de governança, com as mesmas implicações de risco, auditabilidade e responsabilidade que qualquer outro repositório de dados pessoais em escala.

A distinção entre prever comportamento e modelar identidade é o que torna o debate urgente e insuficientemente resolvido.

O movimento já está em escala comercial. Em fevereiro de 2024, a OpenAI anunciou memória de longo prazo para o ChatGPT. Em janeiro de 2026, o Google integrou essa capacidade do Gemini para uso em produtos como Gmail, Drive, Calendar e Maps, conectando dados de múltiplos serviços em um perfil contínuo do usuário. No mesmo período, dispositivos como os da Limitless AI e da Bee passaram a capturar áudio e contexto de forma contínua.

O que antes era uma limitação técnica — sistemas que esqueciam — foi substituído por uma nova capacidade padrão: sistemas que acumulam.

Quando memória vira identidade

Durante décadas, sistemas de IA foram projetados para esquecer. Cada conversa começava do zero. Esse modelo simplificava o desenvolvimento e, como efeito colateral, limitava riscos de privacidade.

Isso está mudando por uma razão direta: sistemas mais úteis precisam de contexto. Ao reter preferências, fatos e padrões ao longo do tempo, a IA deixa de ser uma ferramenta pontual e passa a funcionar como um colaborador contínuo.

A arquitetura mais comum usa uma técnica chamada RAG. De forma simplificada, ela funciona assim: interações são transformadas em representações matemáticas, armazenadas e recuperadas quando necessário. Com o tempo, esses registros são resumidos em inferências sobre o usuário — o que o sistema infere sobre suas preferências, comportamentos e padrões. Essas inferências passam a influenciar todas as interações futuras.

Aqui está a mudança central. Sistemas tradicionais tentam prever o que o usuário pode querer. Sistemas com memória persistente passam a operar com um modelo contínuo de quem o usuário é.

Esse modelo se acumula ao longo do tempo. Quanto mais uso, mais contexto. Quanto mais contexto, maior a dependência. Mudar de sistema deixa de ser apenas trocar de ferramenta — passa a significar perder um histórico que já molda como a IA responde.

O problema é que esse modelo não é totalmente visível para o próprio usuário. Parte do que o sistema sabe está em estruturas que não podem ser lidas diretamente. Parte está em inferências que não aparecem nas configurações. E parte continua ativa mesmo depois de tentativas de exclusão. Há relatos de que dados deletados ainda influenciam respostas — indicando que as inferências derivadas continuam presentes mesmo após a remoção da entrada original.

Na prática, o usuário não tem acesso completo ao perfil que o sistema construiu. Sem esse acesso, não há como corrigir erros nem contestar interpretações. O direito à explicação deixa de ser um conceito abstrato e passa a ser um requisito básico de funcionamento.

Privacidade, autonomia e o limite da governança

A memória persistente também muda o que se entende por privacidade. Antes, o principal risco era o vazamento de dados para fora do sistema. Agora, parte relevante do problema acontece dentro dele: informações fornecidas em um contexto passam a influenciar respostas em outro, sem aviso.

Esse fenômeno é conhecido como violação de integridade contextual. Benchmarks citados pelo relatório da Contrary indicam que isso pode ocorrer em até 69% dos cenários avaliados. Na prática, isso significa que uma conversa sobre trabalho pode afetar recomendações pessoais, e uma preferência registrada em um domínio pode aparecer em outro sem qualquer sinalização ao usuário. Esse sangramento de contexto não depende de ataque externo — é resultado direto da forma como a memória é organizada.

Ao mesmo tempo, o direito ao esquecimento encontra um limite técnico concreto. Leis como o GDPR garantem ao usuário o direito de apagar seus dados. Mas nesses sistemas apagar um registro não remove automaticamente tudo o que foi inferido a partir dele: as representações derivadas e inferências sintetizadas continuam a influenciar o comportamento da IA. O campo de Machine Unlearning tenta resolver esse problema, mas até 2026 não há solução padronizada — e a exclusão efetiva não pode ser garantida de forma consistente. Isso cria um descompasso direto entre o que a lei exige e o que a tecnologia consegue entregar.

O descompasso entre o que a lei exige e o que a tecnologia consegue entregar não é marginal. É estrutural — e ainda não tem solução padronizada disponível.

A Agência Espanhola de Proteção de Dados (AEPD) identifica quatro dimensões críticas nesses sistemas: relevância, consistência, retenção e integridade. Todas entram em tensão com princípios centrais da LGPD e do GDPR — especialmente minimização de dados e possibilidade real de exclusão.

O debate no Brasil: quando a classificação por risco não alcança a identidade

No Brasil, o PL 2338/2023 estruturará a regulação de IA no país e tramita na Câmara dos Deputados. Em sua redação atual, o Art. 5º lista apenas três direitos fundamentais do usuário afetado por sistemas de IA: direito à informação, à privacidade e à não discriminação. Em setembro de 2025, a Data Privacy Brasil, organização de pesquisa e advocacy fundada em 2018, apresentou contribuições formais à Comissão Especial de Inteligência Artificial propondo a inclusão de dois novos incisos — ambos com relação direta ao problema da memória persistente.

O primeiro é o direito à oposição ao uso de dados pessoais para composição de bases de dados e treinamento de sistemas de IA. A justificativa é direta: empresas como X, LinkedIn e Meta passaram a usar dados de usuários para treinamento de modelos por padrão, com base em legítimo interesse, sem que o usuário precise consentir ativamente. Os mecanismos existentes mostraram-se insuficientes diante da atuação coordenada de múltiplas plataformas. O inciso proposto tornaria a oposição um direito explícito, não uma exceção a ser negociada caso a caso.

O segundo é o direito à não manipulação abusiva por sistemas de inteligência artificial de forma prejudicial à autonomia da pessoa humana. Para Rafael Zanatta, diretor da organização, esse ponto é central. “Mesmo que você delete informações, esses sistemas mantêm um aprendizado de padrões e passam a operar com um perfil da pessoa que já não está diretamente ligado aos dados originais”, afirma.

Segundo ele, isso desloca o próprio campo do debate. “A disputa hoje não é só sobre controle de dados, mas sobre evitar abusos na construção de identidade digital”, diz. O problema identificado pelo relatório da Contrary — modelos de identidade que o usuário não consegue ver nem corrigir — é exatamente o que o inciso proposto tenta nomear juridicamente.

A proposta responde a uma assimetria concreta. Sistemas com memória persistente acumulam histórico suficiente para inferir preferências, padrões e vulnerabilidades — e podem usar esse conhecimento para influenciar comportamento ao longo do tempo. “A memória persistente cria uma assimetria de poder. O sistema pode conhecer padrões e preferências de uma pessoa e usar isso para influenciar comportamento”, afirma Zanatta. “Esses sistemas não deveriam usar esse histórico para induzir consumo ou decisões contrárias ao interesse da própria pessoa.”

A crítica de Zanatta vai além dos incisos propostos. O PL 2338 foi estruturado sobre um paradigma de classificação por risco — alto, limitado, mínimo — herdado do AI Act europeu. Esse modelo funciona para identificar usos específicos que podem causar danos diretos. Mas não foi desenhado para capturar sistemas que constroem, ao longo do tempo, representações de identidade que não são visíveis nem facilmente corrigíveis. “Há uma colonização da lógica da regulação do risco que é terrível”, afirmou Zanatta. A proposta de incluir o conceito formal de ciclo de vida de dados no texto — que abrangeria desde a criação até o descarte — seria o instrumento jurídico para exigir que a exclusão seja efetiva, e não apenas cosmética. A proposta ainda tramita no Congresso.

O que está em aberto

O mercado de infraestrutura de memória para IA é projetado para crescer a uma taxa composta de 63,5% ao ano entre 2025 e 2033, segundo análise da Market Report Analytics. Ele está sendo construído mais rapidamente do que os frameworks de governança que deveriam regulá-lo.

Enquanto isso, o mercado avança com soluções parciais — memórias editáveis em linguagem natural, separação de escopos por contexto, controles de retenção com descarte automático. Essas iniciativas aumentam o controle em alguns níveis, mas não resolvem o problema central. Nem todas as inferências são expostas. A separação de contextos depende de implementação correta por parte dos desenvolvedores, sem verificação externa. E o incentivo econômico continua apontando na direção oposta: quanto mais dados acumulados, maior o valor do perfil construído.

A aplicação do AI Act europeu a sistemas com memória persistente será o primeiro teste regulatório com consequências práticas. O Artigo 12 exige logs automáticos e rastreabilidade de decisões — uma exigência diretamente incompatível com arquiteturas onde reflexões sintetizadas não são documentadas nem expostas. Empresas que operam na Europa terão que demonstrar auditabilidade de ponta a ponta.

Esses sistemas já estão integrados a produtos usados em escala global. O que ainda não está definido é como esse modelo será governado. A questão central não é mais técnica. É operacional: sob quais condições esses sistemas terão que expor, de forma auditável, o modelo que constroem sobre cada usuário — e limitar o uso desse modelo quando ele passa a influenciar decisões contra o interesse da própria pessoa.

O Caminho das pedras? Transparência por Design! A busca por uma IA que lembre de nós sem violar nossa privacidade não está apenas no papel. Ferramentas de código aberto como o Mem0 e o Zep estão sendo usadas por desenvolvedores para criar ‘camadas de memória’ auditáveis. Em vez de enfurnar dados em caixas-pretas matemáticas, esses sistemas extraem fatos sobre o usuário em texto simples e permitem criar painéis de controle onde o próprio usuário pode gerenciar e apagar o que a máquina sabe a seu respeito.

A IA já constrói um modelo de quem somos, mas não podemos auditá-lo

Inteligência Artificial

A IA já constrói um modelo de quem somos, mas não podemos auditá-l...

Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Inteligência Artificial

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Novo relatório do EIC mapeia avanços em IA, materiais avançados, computação quântica e biotecnologia que começam a ganhar escala na corrida global pela inovação

Integridade, a capacidade que falta para a IA

Inteligência Artificial

Integridade, a capacidade que falta para a IA

Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa

A IA não vai vender software. Vai vender trabalho. E isso muda tudo

Inteligência Artificial

A IA não vai vender software. Vai vender trabalho. E isso muda tudo

Sequoia aposta em empresas que entregam resultados, não ferramentas. Mas há um problema, segundo os críticos: quando a IA substitui o trabalho, o valor desse trabalho pode desaparecer.

IA por voz escala rápido, mas onde está o valor?

Inteligência Artificial

IA por voz escala rápido, mas onde está o valor?

Avanços técnicos e crescimento acelerado ocultam um deslocamento mais profundo: a disputa deixa a infraestrutura e migra para a execução e o design da interação.

As apostas da ServiceNow na era dos agentes de IA

Inteligência Artificial

As apostas da ServiceNow na era dos agentes de IA

Em entrevista, Federico Grosso, vice-presidente da ServiceNow para a América Latina, fala sobre os planos da companhia para a região e explica porque a governança é prioritária para cuidar de uma força de trabalho de agentes autônomo...