A inteligência artificial entrou em uma nova fase. Depois do impacto inicial da IA generativa — marcado por pilotos, experimentos e ganhos pontuais de produtividade —, as empresas começam a lidar com algo mais profundo: a emergência da chamada agentic AI, sistemas capazes não apenas de apoiar decisões humanas, mas de executar tarefas e processos com diferentes níveis de autonomia.
Essa transição muda radicalmente o jogo para conselhos de administração e alta liderança. Não se trata apenas de tecnologia, mas de estratégia, governança, produtividade, força de trabalho e risco. A IA passa a atravessar o núcleo da organização, exigindo novos modelos mentais para criação de valor, controle e accountability — inclusive quando “colaboradores digitais” começam a atuar ao lado de pessoas.
“O que torna essa discussão diferente é que, pela primeira vez, a tecnologia não afeta apenas eficiência ou suporte à decisão. Ela começa a influenciar diretamente como o conselho exerce seu papel fiduciário, como supervisiona riscos e como orienta a criação de valor no longo prazo. Estamos falando de algo que exige envolvimento direto do conselho, aprendizado coletivo e novas formas de diálogo entre o board e o C-level”, diz Per Edin, Global AI Sales Acceleration Leader for Advisory da KPMG.
No dia 5 de fevereiro, Edin estará no Brasil como um dos palestrantes no curso “Imersão IA na Sala do Conselho: da Reflexão à Ação“, um projeto criado pelo IBGC em parceria com a The Shift, para ampliar o conhecimento de membros de conselhos corporativos sobre Inteligência Artificial e seus impactos na governança das empresas.
Para entender por que essa transformação representa um verdadeiro ponto de inflexão estratégico, e não apenas mais uma etapa da automação, The Shift entrevistou Per Edin. Na entrevista, que você lê na íntegra abaixo, Edin explica por que nenhum conselho ficará imune aos efeitos da IA agêntica, como equilibrar autonomia e governança, quais sinais indicam se uma organização está — ou não — preparada para esse novo ciclo e por que, neste momento, o maior risco para membros de conselhos corporativos pode ser avançar devagar demais.
Por que conselhos e lideranças devem tratar a IA agêntica como um ponto de inflexão estratégico — e não apenas como mais uma fase da automação?
“A razão pela qual conselhos no mundo inteiro precisam tratar a IA agêntica — e a transformação em IA como um todo — como um ponto de inflexão estratégico é simples: ela afeta todas as empresas, todas as funções e todos os setores. Não é como transformações digitais anteriores, como a nuvem, que impactavam basicamente o CIO ou geravam eficiência de custos em partes da organização. A IA impacta o núcleo da empresa: estratégia, crescimento, pessoas e competitividade.
Nos primeiros momentos da IA — em alguns mercados isso já tem quase três anos — vimos conselhos extremamente ativos. Ao mesmo tempo em que pressionavam suas empresas para não ficarem para trás, também se preocupavam intensamente com os riscos envolvidos. Sinceramente, nunca vi um tema em que os conselhos estivessem tão engajados — e, ao mesmo tempo, tão despreparados.
Todos precisam aprender juntos: conselhos, gestão e mercado. Talvez mais do que em qualquer outra transição tecnológica, é fundamental que esse aprendizado aconteça de forma coletiva dentro do conselho. A melhor prática não é deixar que cada conselheiro aprenda sozinho, de maneira fragmentada. Na KPMG, por exemplo, realizamos sessões regulares de aprendizado em grupo com o board há mais de dois anos, justamente para lidar com isso.
Estamos claramente diante de um ponto de inflexão. Ninguém ficará imune. As oportunidades são enormes. Tentamos quantificar esse potencial analisando cerca de 17 milhões de empresas no mundo inteiro. Estimamos que a oportunidade de produtividade varia entre 4% e 18% do EBITDA atual, considerando apenas as tecnologias já disponíveis hoje, se plenamente adotadas.
Cerca de metade dessa oportunidade depende das tecnologias mais recentes — incluindo a IA agêntica — que ainda não estão completamente maduras, mas avançam muito rapidamente. A outra metade pode ser capturada com tecnologias já amplamente difundidas. E há ainda algo entre 1% e 3% do EBITDA que considero “fruta madura”: ganhos que praticamente toda empresa pode capturar simplesmente dando às pessoas as ferramentas certas e algum suporte para aprenderem a usá-las bem.
Quando falamos de agentes de IA, entramos em temas sensíveis como autonomia, valor e governança. Como os conselhos devem repensar esse equilíbrio? O que é inegociável em termos de governança e guardrails?
“Antes de tudo, é essencial reconhecer em que estágio a empresa se encontra nessa jornada. De forma bastante geral, observamos as organizações em três grandes fases.
A primeira é a fase de habilitação, quando a empresa começa a oferecer ferramentas básicas — como GPTs, copilotos e outros recursos —, realiza pilotos, provas de conceito e experimentos iniciais. Muitas empresas começaram isso há três anos; muitas outras ainda não começaram de fato, apesar do que aparece na mídia. A realidade é que as empresas estão em estágios muito diferentes.
A maioria das empresas que hoje relatam avanços está na fase de incorporação. Nessa fase, elas tentam embutir IA em várias funções ao mesmo tempo, promovendo uma transformação mais ampla e buscando escala. Isso torna tudo mais complexo, porque não estamos falando apenas de IA agêntica. Estamos implementando simultaneamente IA generativa tradicional, copilotos, agentes de software embutidos em sistemas corporativos, agentes de tarefas e, olhando para frente, agentes de função e de equipe.
O que aconteceu com muitas empresas é que elas começaram com uma abordagem baseada em casos de uso. Olharam para a tecnologia, tentaram encontrar aplicações úteis e rodaram uma série de testes. Muitos falharam; alguns deram certo. Quando davam certo, o padrão era entregar esses casos para líderes de negócio e para o RH fazer o rollout.
É exatamente aí que vemos resistência e atraso na geração de impacto real. A gestão de mudança tradicional, top-down, não funciona bem no mundo dos trabalhadores do conhecimento. As razões são muito mais psicológicas e comportamentais do que tecnológicas.
Por isso, abordagens de mudança que focam mais nas pessoas — ajudando-as a resolver problemas concretos do dia a dia — funcionam melhor do que forçar adoção, constranger ou medir apenas compliance. Esse tipo de abordagem está começando a dar resultados.
Quando entramos na IA agêntica, o impacto mais do que dobra. A tecnologia passa a atuar não apenas como assistente, mas como executora de tarefas — ou até como um trabalhador do conhecimento completo. Isso amplia o valor, mas também eleva o risco. Saímos do human in the loop para o human on the loop. Agora damos permissão para que a IA execute ações dentro de regras pré-definidas, e precisamos confiar — e controlar — que isso ocorrerá conforme esperado. Isso exige mais gestão de risco.
Costumo dizer que é curioso termos tanto receio agora, quando por séculos lidamos com riscos em sistemas totalmente humanos. Nunca confiamos plenamente que as pessoas seguiriam todas as regras, e sempre tivemos processos de gestão de risco para isso. Talvez precisemos tratar a IA menos como um computador perfeito e mais como tratamos pessoas: imperfeitas, mas gerenciáveis.
Eu me considero um otimista cauteloso. Vejo os benefícios superando os riscos, embora eles sejam reais. Hoje, eu diria que, para a maioria das empresas, o maior risco não é errar com a IA, mas não se preparar rápido o suficiente para capturar seus benefícios.”
Você diria que empresas altamente reguladas estão mais preparadas para a IA agêntica do que aquelas com processos menos estruturados?
“De fato, hoje prevalece a ideia de que quanto mais o trabalho do conhecimento estiver documentado em regras, procedimentos e processos, mais fácil é começar com agentes. Talvez não para concluir a jornada, mas para iniciar.
Mas é importante lembrar que o objetivo não é apenas automatizar o que existe hoje, e sim reimaginar o que deveria existir no futuro. Existe uma famosa citação — atribuída a um professor de Stanford — de que, se Henry Ford tivesse perguntado aos clientes o que eles queriam, eles teriam pedido uma charrete com motor.
O que estamos vendo agora são tentativas de pular essa etapa intermediária e partir diretamente para o redesenho do processo. Ainda não é o caminho mais comum. O que tem funcionado melhor é combinar as duas abordagens: primeiro, aliviar o funcionário das tarefas mais simples com ferramentas básicas; depois, criar agentes de tarefas para eliminar atividades repetitivas; e, por fim, com as mesmas pessoas, redesenhar completamente o processo.
O verdadeiro ouro dessa transição não está nos dados nem na tecnologia, mas no conhecimento tácito — aquilo que está na cabeça das pessoas. Um bom exemplo é o “deal desk“. Existem regras escritas, mas no fim sempre há um gestor experiente que toma decisões com base em julgamento. Observando esse profissional, a IA pode primeiro replicar e depois melhorar esse processo, permitindo que o “melhor gestor” esteja presente em 100% das decisões, e não apenas nas mais importantes.
Quando vamos além e reimaginamos processos, algo interessante acontece: historicamente, a produtividade sempre foi limitada por capital e horas de trabalho humano. Com IA agêntica, o custo da hora de trabalho digital tende a zero. Isso permite criar processos que exigem mais trabalho, mas a um custo dramaticamente menor — mudando completamente a lógica da produtividade organizacional, que pouco evoluiu nos últimos séculos.”
Como identificar se uma organização está estruturalmente preparada — ou perigosamente despreparada — para a IA agêntica?
“Existem alguns indicadores. Quanto maior for a parcela do trabalho documentada em processos, mais fácil é começar. Quanto maior for o acesso às plataformas de IA e quanto mais pessoas já usam essas ferramentas, mais rápido a organização avança.
Usamos também análises outside-in. Observamos perfis públicos, como no LinkedIn, para identificar sinais de familiaridade com IA. Em empresas maduras, algo entre 5% e 25% das pessoas já demonstra esse nível de engajamento — e esse número cresce rapidamente.
Mas mais importante do que o ponto de partida é a velocidade. Importa menos onde você começa e mais o quão rápido você corre. Os modelos de IA dobram sua relação custo-desempenho a cada três a sete meses. Daqui a um ano, o que hoje é possível fazer será de 10 a 20 vezes mais poderoso.
A adoção, porém, cresce de forma linear. Isso cria uma lacuna crescente entre o que é possível e o que é real — e gera vantagens para quem se move primeiro. É como aconteceu com os celulares nos anos 1980 e 1990, só que agora a cada três meses.
Outro sinal preocupante é a relutância das empresas em contratar jovens e estagiários. Isso é irracional. Surge uma geração totalmente nativa em IA, barata e altamente adaptável. Com IA, eles aprendem mais rápido. Sabemos, por exemplo, que agentes de call center com IA atingem desempenho médio cerca de quatro meses antes.
Evitar essa geração prejudica empresas, mercados e a própria reputação da IA.”
Quando falamos de accountability e dever fiduciário em uma economia de agentes, o que muda para conselhos e lideranças?
“De certa forma, não muda nada. E, ao mesmo tempo, muda tudo. As empresas sempre tiveram dever fiduciário sobre pessoas e máquinas. Se pensarmos em colegas humanos e colegas “de silício”, muitos princípios já existem. O desafio está em aplicá-los corretamente.
Outro ponto crítico é a organização do próprio conselho. Muitos boards não encontram tempo para tratar IA com a profundidade necessária. Alguns concentram tudo no plenário; outros delegam a comitês de auditoria, o que tende a puxar a discussão excessivamente para o risco.
Mas a magnitude da IA exige que a estratégia da empresa seja reexaminada. Mesmo que a empresa “não faça nada”, clientes, concorrentes e fornecedores estão adotando IA ao mesmo tempo. Não há como ficar neutro.
Além disso, o nível de entendimento dentro dos conselhos é muito desigual. Isso gera perguntas pouco produtivas e frustração para a gestão. Por isso, vemos cada vez mais conselhos investindo em aprendizado coletivo.
Adicionar um conselheiro extremamente técnico não resolve sozinho. Governar IA não é entender tecnologia melhor do que a gestão, mas entender impacto em pessoas, risco, receita e custo.”
Para encerrar: qual seria a principal recomendação para conselhos e gestão neste ano?
“Vou responder separando gestão e conselho.
Para a gestão, a recomendação é: vá mais rápido. Não de forma irresponsável, mas mais rápido que o principal concorrente. Se você está na floresta e encontra um urso, só precisa não ser o último a correr. Isso exige acelerar a mudança, trabalhar em múltiplas frentes e experimentar continuamente, mesmo sem saber exatamente onde tudo vai dar.
Para os conselhos, a recomendação é aumentar significativamente o tempo e o esforço dedicados à IA. Mais agenda, mais aprendizado coletivo, mais trabalho em comitês, mais diálogo externo. Sem criar essa capacidade, nada do resto funciona. Nunca vimos conselhos e empresas mudarem tão rapidamente — e, paradoxalmente, nunca mais teremos um período tão “calmo” quanto este para nos prepararmos.”