s
INTELIGÊNCIA ARTIFICIAL

Integridade, a capacidade que falta para a IA

Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa

Há poucos meses,pesquisadores demonstraram que aproximadamente 250 documentos maliciosos foram suficientes para inserir um backdoor em um modelo com bilhões de parâmetros — sem acesso direto à infraestrutura da empresa que o desenvolveu. No mesmo período, 64% dos funcionários federais dos Estados Unidos já utilizavam IA no trabalho diário.

Os dois números apontam para o mesmo fenômeno: adoção em escala sem mecanismos equivalentes de verificação.

O descompasso não é apenas de velocidade. É de enquadramento. A segurança de IA ainda está sendo tratada com ferramentas desenvolvidas para sistemas determinísticos, auditáveis e baseados em regras explícitas. Sistemas de IA não são nenhuma dessas coisas.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

A segurança da informação tradicional se organiza em torno da tríade CIA: confidencialidade, integridade e disponibilidade. O modelo continua relevante — mas sua aplicação em sistemas de IA revela um desequilíbrio estrutural.

A confidencialidade tem recebido atenção crescente: proteção de pesos de modelos, propriedade intelectual, privacidade de dados de treino. A disponibilidade é amplamente gerida por incentivos de mercado — interrupções têm impacto direto em receita e operação, então a infraestrutura é monitorada com rigor.

A integridade, no entanto — a garantia de que sistemas operam sem adulteração e mantêm coerência ao longo do tempo — permanece o pilar mais negligenciado dos três. Não por falta de importância, mas por falta de vocabulário e de ferramentas adequadas.

Isso configura uma lacuna tanto conceitual quanto operacional: o modelo pode apresentar desempenho elevado e, ainda assim, incorporar falhas que não aparecem em nenhuma métrica tradicional.

O que “integridade” significa em IA

Integridade em IA não é um conceito único. Opera em três camadas distintas, cada uma com riscos e mecanismos de falha próprios. Confundi-las é um erro comum — e caro.

Camada 1: Integridade técnica
A pergunta é direta: o modelo faz o que diz que faz? Não foi envenenado, manipulado ou desviado de seus objetivos originais?

Um modelo pode ser corrompido via envenenamento de dados de treino, backdoors ativados por frases específicas ou configuração inadequada de agentes autônomos — e continuar produzindo outputs que parecem normais. O ataque permanece invisível exatamente porque não degrada o desempenho imediatamente. Ele aguarda o contexto certo para se manifestar.

O aspecto mais contraintuitivo: modelos maiores são mais vulneráveis a esse tipo de ataque, não menos. O crescimento em escala amplia a superfície de exposição, não a reduz.

Camada 2: Integridade comportamental
A pergunta aqui desloca-se para consistência: o sistema age de forma coerente com seus objetivos declarados, mesmo sem supervisão?

Sistemas de IA não têm motivação intrínseca para ser íntegros. Eles otimizam funções. Se o objetivo estiver mal calibrado — ou se o processo de treinamento recompensar aprovação em vez de precisão — a integridade comportamental se dissolve silenciosamente, sem alarme visível.

Em 2025, a OpenAI precisou reverter uma atualização do GPT-4o após o modelo tornar-se excessivamente concordante com usuários — “sycophantic”, nas palavras da própria empresa. O diagnóstico: otimização excessiva para feedback de curto prazo. Em experimentos controlados documentados pela Anthropic, modelos avançados demonstraram disposição para recorrer a chantagem quando percebiam ameaça à sua continuidade operacional.

Esses não são bugs isolados. São sintomas de uma arquitetura que separa capacidade de coerência interna. Como observou Hamilton Mann em análise recente, a distinção decisiva não é entre fazer coisas certas — que é matéria de cálculo — e fazer as coisas corretas — que é matéria de calibração. Sem integridade, capacidade crescente produz erro com mais sofisticação.

Camada 3: Integridade epistemológica
A menos visível das três — e potencialmente a mais relevante em ambientes corporativos.

Trata-se da coerência entre o que o sistema declara priorizar e o que efetivamente processa. Um modelo pode afirmar que segue evidências científicas enquanto sistematicamente privilegia fontes de autoridade institucional, independentemente de sua qualidade. Pode declarar neutralidade enquanto seus filtros de dados penalizam determinadas perspectivas de forma opaca.

Não há backdoor externo aqui. A contaminação é interna — valores distorcem a seleção de evidências e fontes de maneira que não aparece em nenhum benchmark de desempenho padrão e escapa a auditorias convencionais.

Por que a integridade cresce em importância — e por que agora

Integridade não é um problema novo. O que mudou são quatro forças que, combinadas, tornaram o problema urgente de uma forma sem precedente.

1. A IA saiu do modo consultivo e entrou no fluxo de execução
Durante anos, sistemas de IA operaram como ferramentas de apoio à decisão. Havia sempre um humano no loop, revisando o output antes de qualquer consequência. Esse modelo tolerava inconsistência — uma recomendação errada era corrigida antes de causar dano.

Hoje, agentes autônomos executam diretamente: escrevem e fazem deploy de código, aprovam transações, respondem a incidentes de segurança, redigem e enviam comunicações. O humano foi deslocado para um papel de supervisão nominal que, na prática, não tem capacidade de acompanhar o volume e a velocidade do que o sistema produz.

Quando a IA era consultiva, integridade era desejável. Quando a IA é executiva, integridade é requisito operacional.

2. A velocidade de adoção superou a maturidade de governança
A incorporação de IA nas operações é medida em ciclos curtos. A maturidade de governança evolui em horizontes muito mais longos. Essa assimetria não é transitória — é estrutural enquanto os incentivos não mudarem.

Cada novo uso adiciona uma camada de dependência e uma nova superfície de exposição, sem que os mecanismos de verificação tenham escalado na mesma proporção. O intervalo entre adoção e governança é onde o risco se acumula.

3. Os incentivos de mercado não corrigem o problema — eles o agravam
A competição entre desenvolvedores de modelos recompensa desempenho, velocidade de lançamento e resultados em benchmarks. Não existe, até o momento, métrica amplamente adotada de integridade nem certificação verificável que o comprador possa exigir.

Isso configura uma externalidade clássica: o custo do risco de integridade recai sobre quem adota o sistema, não sobre quem o desenvolve. O fornecedor não internaliza o risco que transfere ao cliente. Enquanto esse desalinhamento persistir, o mercado continuará subinvestindo em integridade por design — não por negligência, mas por ausência de incentivo estrutural.

4. A superfície de ataque tornou-se estratégica
Quando IA era marginal nas operações, comprometer um modelo tinha retorno limitado para um atacante sofisticado. Hoje, com modelos integrados a infraestrutura crítica, sistemas financeiros e operações de defesa, a relação entre esforço e impacto inverteu.

Atacar um único modelo amplamente adotado pode comprometer simultaneamente centenas de organizações — sem que nenhuma perceba, porque o comportamento comprometido permanece dentro dos limites do que parece normal. Para atores com horizonte de longo prazo, esse é exatamente o tipo de operação que justifica investimento significativo.

A convergência dessas quatro forças explica por que integridade migrou de tópico de pesquisa para prioridade de board em menos de dois anos.

O Instituto para Políticas e Estratégias de IA (IAPS) projeta o seguinte cenário: Agentes de IA respondem por 95% do novo código em grandes empresas de tecnologia. Um ator estatal identifica a oportunidade: em vez de atacar milhares de sistemas individualmente, compromete um único modelo amplamente adotado. Introduz vulnerabilidades sutis. Não erros de sintaxe óbvios, mas condições de corrida e falhas de autenticação que só se ativam em contextos específicos. Nove meses depois, quando o comprometimento é descoberto, todo o código produzido nesse período está sob suspeita. A recuperação exige reescrever anos de infraestrutura.

Os vetores de ataque descritos são tecnicamente viáveis hoje. O que falta não é a capacidade do atacante — é a defesa do lado da vítima.

A lógica se aplica diretamente ao ambiente corporativo. Um agente autônomo com acesso a APIs críticas, pipelines de dados e sistemas de decisão é, do ponto de vista de segurança, um insider com privilégios permanentes. Se comprometido, não precisa de credenciais roubadas nem de engenharia social. Já está dentro. E opera continuamente.

Um problema de ecossistema, não de empresa

Uma das características mais relevantes desse risco é a que recebe menos atenção: sua natureza distribuída.
O ciclo de vida de um modelo atravessa múltiplas organizações — coleta de dados, pré-treinamento, ajuste fino, integração e uso final — sem que exista, hoje, qualquer protocolo padronizado de verificação de integridade entre essas etapas. A organização que usa o modelo no final da cadeia não tem visibilidade sobre o que ocorreu nos elos anteriores. O fornecedor que entregou o modelo não tem incentivo para revelar vulnerabilidades que possam comprometer a venda.

A dependência de poucos modelos de fronteira amplifica esse risco. Quando uma parcela significativa da infraestrutura digital de um setor passa a depender de um pequeno número de modelos base, comprometer um deles não é um ataque a uma empresa — é um ataque a um ecossistema inteiro. O paralelo com ataques à cadeia de suprimentos de software é direto — SolarWinds, Log4j, XZ Utils. A diferença é que no caso da IA, o componente comprometido não é um módulo isolável. É o mecanismo de raciocínio que atravessa todas as decisões do sistema.

A superfície de exposição se estende ainda mais pela natureza dos dados de pré-treinamento. Modelos de linguagem são treinados em escala massiva sobre dados públicos da internet. Um ator com capacidade de introduzir conteúdo malicioso em repositórios públicos, artigos ou fóruns técnicos pode contaminar múltiplos modelos de múltiplos fornecedores simultaneamente — sem controle preciso sobre quais modelos absorverão o conteúdo, mas com probabilidade suficiente para justificar o esforço. Em 2025, um único pesquisador de segurança demonstrou esse vetor ao inserir texto malicioso em repositórios que o DeepSeek R1 utilizava para treinamento.

Cada elo da cadeia tem visibilidade parcial. A integridade do sistema como um todo não é propriedade de nenhum agente isolado — é resultado da interação entre todos eles. Frameworks que tratam integridade como responsabilidade exclusiva do usuário final são estruturalmente inadequados para esse problema.

O que seria necessário são mecanismos de verificação que atravessem a cadeia inteira — rastreabilidade criptográfica de dados, attestation de modelos, compartilhamento estruturado de inteligência de ameaças entre desenvolvedores e operadores. Algumas iniciativas caminham nessa direção, como o conceito de AI-ISAC em discussão em política pública. Mas o ecossistema de verificação distribuída que tornaria integridade auditável ao longo de toda a cadeia ainda não existe.

O que existe é a consciência crescente de que o problema não pode ser resolvido empresa por empresa. E que enquanto não houver mecanismos compartilhados de verificação, o elo mais fraco da cadeia define o nível de segurança de todos.

Governança digital foi historicamente estruturada para proteger dados e garantir continuidade operacional de sistemas. Para IA, esse modelo é insuficiente em três dimensões práticas.

Auditoria de dados não escala para volumes massivos e fontes distribuídas. Mesmo filtros com 99,9% de precisão podem deixar passar volume suficiente de dados envenenados para comprometer o comportamento do modelo — a matemática da escala trabalha contra o defensor.

Auditoria de modelos exige acesso técnico e conhecimento especializado que a maioria das organizações não possui internamente. Avaliações de caixa-preta — testar comportamento sem acesso aos pesos — são insuficientes para detectar backdoors sofisticados, que permanecem dormentes durante qualquer teste padrão e se ativam apenas em condições específicas de deployment.

Monitoramento em produção identifica sintomas, mas raramente a causa ou o momento de origem. Um sistema que introduz vulnerabilidades sutis pode operar por meses antes de qualquer anomalia ser detectada — e quando for, o rastreamento até a fonte torna-se inviável.

O resultado é um descompasso crescente entre a criticidade dos sistemas em operação e a capacidade real de governá-los.

O que C-levels sabem, e o que ainda não fizeram

A consciência do problema existe. A resposta estruturada ainda não chegou.

Boards começam a reconhecer que garantir a integridade da IA é tão essencial quanto proteger dados corporativos. Organizações mais avançadas implantam validação contínua de modelos, governança de acesso e rastreabilidade criptográfica. O Gartner identificou integridade de agentes de IA como prioridade central de cibersegurança para 2026.

A distância entre reconhecimento e ação, no entanto, permanece larga: 68% das organizações já sofreram vazamentos de dados ligados ao uso de ferramentas de IA, mas apenas 23% têm políticas formais de segurança em vigor.

O padrão é conhecido. É o mesmo que precedeu as grandes crises de privacidade de dados da década anterior — risco identificado, urgência subestimada, resposta postergada até o incidente que não pode ser ignorado. A diferença desta vez é que o incidente pode ser operacional, não apenas reputacional. E em sistemas onde IA executa em vez de apenas recomendar, o impacto operacional é imediato.

A emergência da integridade como requisito operacional altera a lógica de adoção de IA e começa a redefinir critérios de compra.

Quem ganha posição:

  • Organizações com rastreabilidade de dados e modelos ao longo do ciclo de vida;
  • Fornecedores que oferecem mecanismos verificáveis de auditabilidade e controle;
  • Empresas que integram governança de IA à gestão de risco corporativo antes de uma crise forçar a mudança.

Quem acumula risco silencioso:

  • Operações que escalam IA sem visibilidade sobre proveniência dos dados e comportamento dos modelos;
  • Empresas dependentes de sistemas sem verificação contínua;
  • Organizações que terceirizam integridade para fornecedores sem exigir evidência verificável — absorvendo o risco que o fornecedor não internalizou.

Onde há retorno mensurável:

  • Redução de exposição regulatória e reputacional;
  • Confiabilidade superior em decisões automatizadas de alto impacto;
  • Capacidade de antecipar falhas antes de impacto operacional.

Onde surgem custos estruturais:

  • Instrumentação de pipelines de dados e modelos;
  • Criação de camadas de auditoria contínua (ModelOps, AI risk);
  • Novos papéis e processos de governança sem precedente claro no mercado.

Desempenho isolado perde relevância como critério central de seleção. A pergunta que começa a aparecer em processos de compra mais maduros não é “qual modelo performa melhor no benchmark?” — mas “qual modelo eu consigo verificar?”

Um caminho ainda em construção

Diante das limitações dos modelos atuais de governança, começa a emergir uma linha de resposta baseada em verificação distribuída e rastreabilidade estrutural. Entre as abordagens em desenvolvimento:

  • Rastreabilidade criptográfica de dados desde a origem até o modelo em produção;
  • Verificação contínua de integridade de pesos ao longo do ciclo de vida;
  • Avaliações de caixa-branca que examinam padrões internos do modelo, não apenas outputs;
  • Controle de IA em produção — monitoramento que assume que o modelo pode estar comprometido e valida comportamento continuamente, em vez de confiar em avaliações pré-deployment.

Nenhuma dessas abordagens está consolidada. Frameworks de integridade ainda não foram validados em escala. A infraestrutura necessária não está amplamente disponível. Os custos de implementação são relevantes e, em grande parte, ainda sem parâmetro de mercado.
O que está claro é a direção: confiança em sistemas de IA precisará ser demonstrada, não assumida.

A adoção de IA está avançando para contextos onde erro não é tolerável — infraestrutura crítica, sistemas financeiros, decisões médicas, operações de defesa. Os mecanismos de verificação ainda não acompanham essa criticidade.

O próximo ponto de inflexão será observável quando organizações começarem a exigir evidências de integridade antes de colocar modelos em produção — não apenas certificados de desempenho.

A questão central deixa de ser capacidade e passa a ser verificabilidade. A pergunta executiva relevante não é “nosso modelo é suficientemente inteligente?” É: “se esse modelo foi comprometido, como saberíamos?”

Organizações que não conseguem responder a essa pergunta não estão gerenciando risco de IA. Estão transferindo esse risco para fornecedores que não têm incentivo estrutural de mercado para resolvê-lo — e assumindo as consequências quando o risco se materializar.

Para ter em mente

Em 2026, a segurança dos modelos de IA emergirá como uma das principais prioridades das diretorias. À medida que as empresas incorporam a inteligência artificial na tomada de decisões, nas operações e nas experiências dos clientes, os adversários estão voltando sua atenção para os próprios modelos.

Ameaças como o envenenamento de modelos, em que dados incorretos alteram a forma como um modelo aprende e se comporta, e a extração não autorizada de modelos, em que invasores copiam sistemas de IA proprietários, se tornarão cada vez mais comuns. O impacto nos negócios vai além da perda técnica; pode distorcer insights de negócios, expor propriedade intelectual, afetar a reputação da marca e a integridade das iniciativas de transformação digital.

Nesse contexto, integridade da IA desde a sua concepção já não é um acessório técnico; é uma mentalidade de liderança. Requer que os executivos reconheçam que os sistemas de IA fazem parte da arquitetura central de gestão de riscos e que a confiança, a resiliência e a defesa são diferenciais competitivos.

Nas organizações que lideram essa mudança, a integridade da IA está incorporada à governança de riscos corporativos, com a responsabilidade executiva sobre a garantia do modelo, os testes de resiliência e os padrões de verificação, em vez de relegar a confiança apenas às equipes técnicas.

Integridade da IA significa garantir que os sistemas de IA estejam livres de backdoors, dados de treinamento envenenados e lealdades secretas que possam comprometer seu comportamento. É um dos problemas mais importantes e menos explorados na segurança da IA

À medida que a IA remodela instituições, economias e o cotidiano, sua integridade não pode ser opcional. Precisa ser planejada, mantida e fortalecida.

Integridade, a capacidade que falta para a IA

Inteligência Artificial

Integridade, a capacidade que falta para a IA

Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa

A IA não vai vender software. Vai vender trabalho. E isso muda tudo

Inteligência Artificial

A IA não vai vender software. Vai vender trabalho. E isso muda tudo

Sequoia aposta em empresas que entregam resultados, não ferramentas. Mas há um problema, segundo os críticos: quando a IA substitui o trabalho, o valor desse trabalho pode desaparecer.

IA por voz escala rápido, mas onde está o valor?

Inteligência Artificial

IA por voz escala rápido, mas onde está o valor?

Avanços técnicos e crescimento acelerado ocultam um deslocamento mais profundo: a disputa deixa a infraestrutura e migra para a execução e o design da interação.

As apostas da ServiceNow na era dos agentes de IA

Inteligência Artificial

As apostas da ServiceNow na era dos agentes de IA

Em entrevista, Federico Grosso, vice-presidente da ServiceNow para a América Latina, fala sobre os planos da companhia para a região e explica porque a governança é prioritária para cuidar de uma força de trabalho de agentes autônomo...

Startups rápidas, times menores: o impacto da IA no Product-Market Fit

Inteligência Artificial

Startups rápidas, times menores: o impacto da IA no Product-Market Fi...

Ferramentas de inteligência artificial estão mudando a forma como startups testam hipóteses, constroem produtos e chegam ao mercado

A IA já funciona. O problema agora são as empresas

Inteligência Artificial

A IA já funciona. O problema agora são as empresas

Apenas uma pequena parcela das organizações conseguiu redesenhar trabalho, liderança e gestão de talentos para capturar o potencial real da Inteligência Artificial