Oitenta e cinco por cento das organizações operam hoje algum programa de IA responsável. Apenas 25% construíram frameworks com maturidade suficiente para que esses programas funcionem como salvaguarda real. O mais recente ciclo de pesquisa do MIT Sloan Management Review e da Boston Consulting Group examina o que separa as duas categorias — a partir de uma pesquisa com 1.221 executivos de 70 países e de um painel de 31 especialistas em IA. A conclusão do painel: 84% concordam que programas de IA responsável fracassam sem especialistas humanos capazes de verificar soluções de IA.

Verificar outputs de IA, por si só, não é suficiente. A pesquisa aponta uma exigência mais ampla: cultivar expertise humana que permita questionar o design dos sistemas, escrutinar o que se aprende com os deployments e tratar a supervisão como imperativo estratégico — não como protocolo de conformidade.
O gargalo estrutural identificado pelo relatório é uma contradição que já afeta decisões de liderança em diversas indústrias: as organizações estão usando IA para reduzir headcount de especialistas humanos e, simultaneamente, dependendo desses mesmos especialistas para garantir que a IA opera de forma responsável.
A dinâmica tem nome. O relatório BCG de maio de 2026 classifica cerca de 25% das empresas como “scale first”: priorizam o rollout rápido de políticas e treinamentos básicos de IA responsável sem construir a base técnica que daria substância a esses programas. O resultado é que a maioria das organizações está perseguindo o rótulo de IA responsável, não a substância. O AI Incident Database registrou alta de 51% em incidentes de IA em 2025 — o que sugere que a velocidade de adoção está superando a capacidade de governança.
Rainer Hoffmann, chief data officer da EnBW, enquadra a falha com precisão: os programas de IA responsável não fracassam porque humanos não conseguem verificar cada decisão da IA, mas porque as organizações carecem da expertise para governar como os sistemas devem ser avaliados, monitorados e implantados. Yasadora Cordova, membro do comitê de investimentos do fundo Co-Develop, aponta a consequência direta: organizações que delegam a verificação integralmente à IA corroem a capacidade institucional de auditá-la, à medida que a expertise se atrofia e profissionais júnior nunca desenvolvem julgamento independente.
O argumento central dos especialistas contra a eliminação da intervenção humana é estrutural: contexto não é totalmente traduzível em dados. Stefaan Verhulst, diretor de pesquisa e desenvolvimento do GovLab, aponta que os riscos mais significativos da IA são sociais — desalinhamento com valores públicos e impactos em grupos vulneráveis. São os riscos mais difíceis de endereçar por soluções exclusivamente técnicas.
Idoia Salazar, presidente da OdeseIA, é direta: nem tudo se converte em dado, como o contexto de uma situação específica. Jai Ganesh, vice-presidente de tecnologia e serviços conectados da Wipro, acrescenta que situações nas quais um output correto pode ser culturalmente insensível ou legalmente problemático em um país específico estão fora do alcance dos sistemas. Ryan Carrier, fundador da ForHumanity, argumenta que especialistas de domínio são necessários para produzir controles calibrados aos riscos específicos de cada contexto de deployment. Simon Chesterman, reitor da National University of Singapore, sintetiza: alguém precisa ser capaz de perguntar se um sistema é confiável, legal e adequado ao contexto — e isso exige expertise humana.
Ben Dias, chief AI scientist da IAG, acrescenta o argumento jurídico: como construto tecnológico, a IA não tem agência para ser responsabilizada legal ou eticamente pelos resultados de suas ações. Todo sistema de IA requer, portanto, um humano formalmente responsável por garantir que seus outputs sejam compreendidos e verificados. Naomi Lariviere, da ADP, confirma: sistemas de IA geram recomendações e automatizam decisões, mas não carregam accountability.
O ponto de tensão no relatório surge quando os especialistas reconhecem que a verificação humana output a output não escala. Kartik Hosanagar, professor da Wharton School, distingue os contextos: há situações em que a verificação humana é útil, e outras em que é inviável pela escala necessária. Öykü Işik formula a tensão com precisão: o valor central da IA está em velocidade e escala — exigir verificação humana para cada output anularia esses ganhos.
A solução proposta pelo painel não é abandonar o julgamento humano, mas alocá-lo estrategicamente. Philip Dawson, head de política de IA na Armilla AI, argumenta que a verificação apenas humana se torna um gargalo estrutural à medida que os sistemas crescem em complexidade e velocidade de deployment. Işik defende um modelo no qual o sistema identifica quando a intervenção humana é necessária, enquanto a automação responde pelo volume operacional restante. Mike Linksvayer, vice-presidente de política de desenvolvedores do GitHub, requalifica o problema central: o que as organizações precisam cultivar não são auditores de outputs, mas designers, operadores e stewards que consigam governar sistemas de IA em contexto — de modo que a responsabilidade permaneça legível mesmo quando a inspeção direta não é possível.
Das análises do painel, o relatório extrai cinco recomendações para organizações que precisam escalar supervisão junto com seus sistemas.
Essas cinco recomendações são pré-condições para a gestão estratégica efetiva. A pergunta que as lideranças executivas precisam responder não é se humanos devem supervisionar IA — o painel já respondeu isso. É quais organizações terão, daqui a três anos, a expertise interna necessária para fazê-lo.
Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.
Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.
Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários
Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais
A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.
Mas a maioria das empresas ainda não sabe o que fazer com ele. Sua ascensão expõe um paradoxo: a posição cresce três vezes mais rápido que a capacidade de usá-la para transformar o negócio de fato
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
