The Shift

A IA responsável pode eliminar a supervisão humana?

Oitenta e cinco por cento das organizações operam hoje algum programa de IA responsável. Apenas 25% construíram frameworks com maturidade suficiente para que esses programas funcionem como salvaguarda real. O mais recente ciclo de pesquisa do MIT Sloan Management Review e da Boston Consulting Group examina o que separa as duas categorias — a partir de uma pesquisa com 1.221 executivos de 70 países e de um painel de 31 especialistas em IA. A conclusão do painel: 84% concordam que programas de IA responsável fracassam sem especialistas humanos capazes de verificar soluções de IA.

Verificar outputs de IA, por si só, não é suficiente. A pesquisa aponta uma exigência mais ampla: cultivar expertise humana que permita questionar o design dos sistemas, escrutinar o que se aprende com os deployments e tratar a supervisão como imperativo estratégico — não como protocolo de conformidade.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

O paradoxo da eficiência

O gargalo estrutural identificado pelo relatório é uma contradição que já afeta decisões de liderança em diversas indústrias: as organizações estão usando IA para reduzir headcount de especialistas humanos e, simultaneamente, dependendo desses mesmos especialistas para garantir que a IA opera de forma responsável.

A dinâmica tem nome. O relatório BCG de maio de 2026 classifica cerca de 25% das empresas como “scale first”: priorizam o rollout rápido de políticas e treinamentos básicos de IA responsável sem construir a base técnica que daria substância a esses programas. O resultado é que a maioria das organizações está perseguindo o rótulo de IA responsável, não a substância. O AI Incident Database registrou alta de 51% em incidentes de IA em 2025 — o que sugere que a velocidade de adoção está superando a capacidade de governança.

Rainer Hoffmann, chief data officer da EnBW, enquadra a falha com precisão: os programas de IA responsável não fracassam porque humanos não conseguem verificar cada decisão da IA, mas porque as organizações carecem da expertise para governar como os sistemas devem ser avaliados, monitorados e implantados. Yasadora Cordova, membro do comitê de investimentos do fundo Co-Develop, aponta a consequência direta: organizações que delegam a verificação integralmente à IA corroem a capacidade institucional de auditá-la, à medida que a expertise se atrofia e profissionais júnior nunca desenvolvem julgamento independente.

O que máquinas não conseguem capturar

O argumento central dos especialistas contra a eliminação da intervenção humana é estrutural: contexto não é totalmente traduzível em dados. Stefaan Verhulst, diretor de pesquisa e desenvolvimento do GovLab, aponta que os riscos mais significativos da IA são sociais — desalinhamento com valores públicos e impactos em grupos vulneráveis. São os riscos mais difíceis de endereçar por soluções exclusivamente técnicas.

Idoia Salazar, presidente da OdeseIA, é direta: nem tudo se converte em dado, como o contexto de uma situação específica. Jai Ganesh, vice-presidente de tecnologia e serviços conectados da Wipro, acrescenta que situações nas quais um output correto pode ser culturalmente insensível ou legalmente problemático em um país específico estão fora do alcance dos sistemas. Ryan Carrier, fundador da ForHumanity, argumenta que especialistas de domínio são necessários para produzir controles calibrados aos riscos específicos de cada contexto de deployment. Simon Chesterman, reitor da National University of Singapore, sintetiza: alguém precisa ser capaz de perguntar se um sistema é confiável, legal e adequado ao contexto — e isso exige expertise humana.

Ben Dias, chief AI scientist da IAG, acrescenta o argumento jurídico: como construto tecnológico, a IA não tem agência para ser responsabilizada legal ou eticamente pelos resultados de suas ações. Todo sistema de IA requer, portanto, um humano formalmente responsável por garantir que seus outputs sejam compreendidos e verificados. Naomi Lariviere, da ADP, confirma: sistemas de IA geram recomendações e automatizam decisões, mas não carregam accountability.

O limite real: escala

O ponto de tensão no relatório surge quando os especialistas reconhecem que a verificação humana output a output não escala. Kartik Hosanagar, professor da Wharton School, distingue os contextos: há situações em que a verificação humana é útil, e outras em que é inviável pela escala necessária. Öykü Işik formula a tensão com precisão: o valor central da IA está em velocidade e escala — exigir verificação humana para cada output anularia esses ganhos.

A solução proposta pelo painel não é abandonar o julgamento humano, mas alocá-lo estrategicamente. Philip Dawson, head de política de IA na Armilla AI, argumenta que a verificação apenas humana se torna um gargalo estrutural à medida que os sistemas crescem em complexidade e velocidade de deployment. Işik defende um modelo no qual o sistema identifica quando a intervenção humana é necessária, enquanto a automação responde pelo volume operacional restante. Mike Linksvayer, vice-presidente de política de desenvolvedores do GitHub, requalifica o problema central: o que as organizações precisam cultivar não são auditores de outputs, mas designers, operadores e stewards que consigam governar sistemas de IA em contexto — de modo que a responsabilidade permaneça legível mesmo quando a inspeção direta não é possível.

Cinco imperativos operacionais

Das análises do painel, o relatório extrai cinco recomendações para organizações que precisam escalar supervisão junto com seus sistemas.

Essas cinco recomendações são pré-condições para a gestão estratégica efetiva. A pergunta que as lideranças executivas precisam responder não é se humanos devem supervisionar IA — o painel já respondeu isso. É quais organizações terão, daqui a três anos, a expertise interna necessária para fazê-lo.