s
360°
13/10/2025

À medida que as empresas dão o salto da IA Generativa para a IA Agêntica, uma nova frente de complexidade emerge: como governar sistemas autônomos que aprendem, ajustam decisões e atuam com níveis progressivos de independência?

Se a IA Agêntica amplia a eficiência e integra processos de negócios, ela também amplifica a responsabilidade corporativa. Afinal, ao permitir que agentes atuem com autonomia parcial, cresce o risco de decisões tomadas com base em dados enviesados, parâmetros inadequados ou em contextos não previstos pelos programadores.

Empresas que liderarem discussões proativas sobre governança de IA com stakeholders e reguladores terão vantagem competitiva. O engajamento transparente ajuda a moldar estruturas regulatórias favoráveis e a construir confiança com clientes, parceiros e investidores. E permite que o desenvolvimento de agentes seja feito de forma orquestrada e controlada, reduzindo atritos e acelerando a inovação.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

No Brasil, o marco regulatório da IA já avança. O projeto de lei aprovado no Senado em 2024 estabelece princípios de inovação responsável, proteção aos usuários e sistemas auditáveis e confiáveis. Atualmente, está em tramitação na Câmara dos Deputados. Em paralelo, o AI Act europeu cria regras rígidas sobre accountability, supervisão humana e classificações de risco — com forte impacto sobre empresas multinacionais.

Nesse cenário, a governança de IA precisa deixar de ser um conjunto de práticas genéricas e se transformar em arquitetura integrada ao próprio design dos projetos de IA:

  • Definição prévia de responsabilidades humanas sobre as decisões automatizadas;
  • Frameworks de explicabilidade: transparência sobre os critérios utilizados pelos modelos;
  • Monitoração contínua de desvios e impactos não previstos;
  • Estrutura de compliance adaptada para ambientes regulatórios multilaterais.

“Governança não pode ser tratada como um acessório e muito menos ser negligenciada pelos executivos. Adoção de um framework de boas práticas orienta a jornada de governança desde a identificação de oportunidades até a gestão dos resultados, assegurando alinhamento estratégico, retorno ao negócio e conformidade ética e técnica. É pré-condição para inovar com segurança. Ao incorporar processos e princípios de IA Responsável, monitoramento contínuo e supervisão humana, evita-se a materialização de riscos e a empresa é protegida de eventuais perdas reputacionais e multas. O projeto de lei em tramitação prevê advertências, publicação da infração, suspensão parcial ou total do sistema de IA, multa simples (até 2% do faturamento anual ou limitada a R$ 50M), dentre outras”, explica Andrei Graça, líder de IA e Dados e GenAI da EY Brasil.

O rápido crescimento da IA exige governança que equilibre inovação com responsabilidade. A IA responsável deve estar no centro, pois contribui para mitigar riscos e gerar valor ao aprimorar os processos de tomada de decisão, a eficiência operacional e a qualidade geral dos resultados impulsionados por IA.

Organizações que adotam a abordagem de ‘Responsible AI by Design’ incorporam controles robustos para prevenir vazamentos e uso indevido de dados. Elas estabelecem estruturas claras de responsabilização ao longo de todo o ciclo de vida da IA, o que resulta em menor retrabalho e menos incidentes técnicos decorrentes de falhas éticas ou de segurança. Essa abordagem reduz riscos regulatórios e legais, além de criar maior confiança entre stakeholders, órgãos reguladores e usuários finais. Com isso, conseguem implantações de IA mais escaláveis e previsíveis, desenvolvem equipes capacitadas para antecipar e responder a riscos algorítmicos, e facilitam uma adoção interna mais rápida e segura.