s
INTELIGÊNCIA ARTIFICIAL

Decisores estratégicos ainda resistem à IA

Apesar da experimentação crescente e de ganhos já percebidos, a governança segue como principal freio à adoção formal da IA e da IA Generativa, segundo a Capgemini.

A tomada de decisão estratégica tornou-se um dos principais pontos de fricção nas grandes organizações. Executivos enfrentam volumes crescentes de dados, maior pressão por agilidade e uma exigência constante por decisões baseadas em evidências. Nesse contexto, a Inteligência Artificial emerge como um facilitador natural. Ainda assim, seu papel permanece limitado quando a decisão deixa o âmbito individual e exige validação coletiva.

O estudo “How AI is quietly reshaping decisions”, publicado pelo Capgemini Research Institute, revela que, hoje, a IA é utilizada principalmente como ferramenta de apoio cognitivo. Executivos recorrem à tecnologia para pesquisa, análise, exploração de cenários e sumarização de informações, ampliando sua capacidade individual de processamento, mas raramente transferindo esse apoio para o momento formal da deliberação estratégica.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Essa limitação se reflete nos níveis de adoção. Apenas 17% dos executivos de alto nível afirmam utilizar ativamente a IA em decisões estratégicas no presente. A expectativa declarada aponta para um aumento para 38% nos próximos um a três anos, indicando crescimento relevante, porém ainda distante de uma adoção majoritária.

Esse dado, porém, não deve ser confundido com inação. O relatório mostra que 41% dos CEOs já estão experimentando ativamente o uso de IA em seus processos decisórios — percentual superior ao de qualquer outro grupo executivo. A experimentação avança de forma descentralizada e pouco formalizada, reforçando a leitura de que a IA já influencia decisões estratégicas antes de ser plenamente institucionalizada.

A maioria das organizações opera em um regime intermediário. 44% dos executivos relatam utilizar IA seletivamente, sem consistência ou padronização, percentual que deve chegar a 51% no horizonte de um a três anos. Na prática, isso indica que a IA já influencia partes do processo decisório, mas sem regras claras sobre quando e como suas recomendações devem ser consideradas.

O contraste mais relevante aparece na comparação entre decisões individuais e coletivas. Segundo o estudo, 58% dos executivos percebem uma lacuna significativa entre o potencial da IA e seu uso efetivo em decisões de grupo, como comitês executivos ou conselhos. No uso individual, apenas 28% relatam essa mesma lacuna. A tecnologia parece gerar mais conforto quando sustenta decisões pessoais do que quando precisa ser defendida diante de pares.

Esse descompasso ajuda a explicar a cautela observada entre líderes. Decisões estratégicas em grupo exigem consenso, narrativa compartilhada e definição explícita de responsabilidades. A introdução da IA tensiona esses elementos ao dificultar a atribuição clara de autoria e a explicação do racional por trás das escolhas realizadas.

O relatório indica que muitos executivos utilizam IA de forma discreta, evitando institucionalizar seu uso. A cautela não decorre de desconfiança nos resultados técnicos, mas do receio de não conseguir justificar decisões apoiadas por IA a pares, conselhos ou reguladores. O risco percebido é institucional e reputacional, não tecnológico.

A ausência de estruturas claras de governança amplia essa tensão. A maioria das organizações ainda carece de políticas explícitas que definam quando a IA pode ser utilizada em decisões estratégicas, como suas contribuições devem ser documentadas e quem responde por elas.

Essa cautela não decorre da falta de benefícios percebidos. Mais da metade dos executivos de alto nível relatam melhorias significativas em custos, velocidade de decisão, visão de futuro e criatividade a partir do uso da IA. O paradoxo identificado pelo estudo é que ganhos já são observáveis, mas não suficientes para destravar a legitimação coletiva do uso da tecnologia na tomada de decisões estratégicas. Sem essas balizas, o uso da IA permanece informal, criando práticas paralelas e assimetrias internas.

Diferentemente de outros estudos recentes sobre IA corporativa, o CEO não aparece aqui como protagonista absoluto da agenda. A decisão estratégica continua sendo um exercício coletivo, dependente de validação horizontal, no qual a IA atua mais como insumo silencioso do que como participante explícito do processo.

As projeções de maior adoção nos próximos anos são condicionais. O próprio relatório ressalta que a ampliação do uso estratégico da IA depende menos da evolução tecnológica e mais da criação de mecanismos de governança, clareza de papéis e confiança coletiva que permitam legitimar decisões apoiadas por algoritmos.

Enquanto essas estruturas não se consolidam, as organizações convivem com um paradoxo. A IA já molda o pensamento estratégico e influencia alternativas consideradas, mas permanece à margem da decisão formal. Esse descompasso amplia riscos de informalidade, incoerência e fragilidade de accountability à medida que a complexidade dos negócios cresce.

O estudo da Capgemini sugere que a maturidade da decisão estratégica com IA será medida menos pela taxa de adoção e mais pela capacidade das organizações de integrar a tecnologia de forma transparente e legitimável nos processos coletivos de escolha. O limite atual não é computacional, mas institucional.

@@@@@@@@@

Metodologia: O estudo do Capgemini Research Institute baseia-se em uma pesquisa com 500 executivos de alto escalão, incluindo 100 CEOs, complementada por entrevistas qualitativas em profundidade. Examina como líderes utilizam IA, incluindo a IA Generativa, em processos de tomada de decisão estratégica, tanto individualmente quanto em contextos coletivos.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.

CAIO virou cargo estratégico

Inteligência Artificial

CAIO virou cargo estratégico

Mas a maioria das empresas ainda não sabe o que fazer com ele. Sua ascensão expõe um paradoxo: a posição cresce três vezes mais rápido que a capacidade de usá-la para transformar o negócio de fato