s
INTELIGÊNCIA ARTIFICIAL

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Oitenta e cinco por cento das organizações operam hoje algum programa de IA responsável. Apenas 25% construíram frameworks com maturidade suficiente para que esses programas funcionem como salvaguarda real. O mais recente ciclo de pesquisa do MIT Sloan Management Review e da Boston Consulting Group examina o que separa as duas categorias — a partir de uma pesquisa com 1.221 executivos de 70 países e de um painel de 31 especialistas em IA. A conclusão do painel: 84% concordam que programas de IA responsável fracassam sem especialistas humanos capazes de verificar soluções de IA.

Verificar outputs de IA, por si só, não é suficiente. A pesquisa aponta uma exigência mais ampla: cultivar expertise humana que permita questionar o design dos sistemas, escrutinar o que se aprende com os deployments e tratar a supervisão como imperativo estratégico — não como protocolo de conformidade.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

O paradoxo da eficiência

O gargalo estrutural identificado pelo relatório é uma contradição que já afeta decisões de liderança em diversas indústrias: as organizações estão usando IA para reduzir headcount de especialistas humanos e, simultaneamente, dependendo desses mesmos especialistas para garantir que a IA opera de forma responsável.

A dinâmica tem nome. O relatório BCG de maio de 2026 classifica cerca de 25% das empresas como “scale first”: priorizam o rollout rápido de políticas e treinamentos básicos de IA responsável sem construir a base técnica que daria substância a esses programas. O resultado é que a maioria das organizações está perseguindo o rótulo de IA responsável, não a substância. O AI Incident Database registrou alta de 51% em incidentes de IA em 2025 — o que sugere que a velocidade de adoção está superando a capacidade de governança.

Rainer Hoffmann, chief data officer da EnBW, enquadra a falha com precisão: os programas de IA responsável não fracassam porque humanos não conseguem verificar cada decisão da IA, mas porque as organizações carecem da expertise para governar como os sistemas devem ser avaliados, monitorados e implantados. Yasadora Cordova, membro do comitê de investimentos do fundo Co-Develop, aponta a consequência direta: organizações que delegam a verificação integralmente à IA corroem a capacidade institucional de auditá-la, à medida que a expertise se atrofia e profissionais júnior nunca desenvolvem julgamento independente.

O que máquinas não conseguem capturar

O argumento central dos especialistas contra a eliminação da intervenção humana é estrutural: contexto não é totalmente traduzível em dados. Stefaan Verhulst, diretor de pesquisa e desenvolvimento do GovLab, aponta que os riscos mais significativos da IA são sociais — desalinhamento com valores públicos e impactos em grupos vulneráveis. São os riscos mais difíceis de endereçar por soluções exclusivamente técnicas.

Idoia Salazar, presidente da OdeseIA, é direta: nem tudo se converte em dado, como o contexto de uma situação específica. Jai Ganesh, vice-presidente de tecnologia e serviços conectados da Wipro, acrescenta que situações nas quais um output correto pode ser culturalmente insensível ou legalmente problemático em um país específico estão fora do alcance dos sistemas. Ryan Carrier, fundador da ForHumanity, argumenta que especialistas de domínio são necessários para produzir controles calibrados aos riscos específicos de cada contexto de deployment. Simon Chesterman, reitor da National University of Singapore, sintetiza: alguém precisa ser capaz de perguntar se um sistema é confiável, legal e adequado ao contexto — e isso exige expertise humana.

Ben Dias, chief AI scientist da IAG, acrescenta o argumento jurídico: como construto tecnológico, a IA não tem agência para ser responsabilizada legal ou eticamente pelos resultados de suas ações. Todo sistema de IA requer, portanto, um humano formalmente responsável por garantir que seus outputs sejam compreendidos e verificados. Naomi Lariviere, da ADP, confirma: sistemas de IA geram recomendações e automatizam decisões, mas não carregam accountability.

O limite real: escala

O ponto de tensão no relatório surge quando os especialistas reconhecem que a verificação humana output a output não escala. Kartik Hosanagar, professor da Wharton School, distingue os contextos: há situações em que a verificação humana é útil, e outras em que é inviável pela escala necessária. Öykü Işik formula a tensão com precisão: o valor central da IA está em velocidade e escala — exigir verificação humana para cada output anularia esses ganhos.

A solução proposta pelo painel não é abandonar o julgamento humano, mas alocá-lo estrategicamente. Philip Dawson, head de política de IA na Armilla AI, argumenta que a verificação apenas humana se torna um gargalo estrutural à medida que os sistemas crescem em complexidade e velocidade de deployment. Işik defende um modelo no qual o sistema identifica quando a intervenção humana é necessária, enquanto a automação responde pelo volume operacional restante. Mike Linksvayer, vice-presidente de política de desenvolvedores do GitHub, requalifica o problema central: o que as organizações precisam cultivar não são auditores de outputs, mas designers, operadores e stewards que consigam governar sistemas de IA em contexto — de modo que a responsabilidade permaneça legível mesmo quando a inspeção direta não é possível.

Cinco imperativos operacionais

Das análises do painel, o relatório extrai cinco recomendações para organizações que precisam escalar supervisão junto com seus sistemas.

  • Verificar o design, não apenas o output. A supervisão humana precisa estar embutida em cada etapa do ciclo de vida — desde a definição de thresholds e o design de testes até a decisão sobre quando a IA não deve ser usada.
  • Combinar humanos e automação. Verificação humana deve se concentrar onde o julgamento é insubstituível — casos extremos, decisões de alto risco, contextos inéditos. Ferramentas automatizadas respondem pelo volume restante.
  • Investir em expertise continuamente. À medida que as capacidades técnicas crescem, a necessidade de expertise humana aumenta. Manter profissionais envolvidos em processos que poderiam ser automatizados é, nesses casos, investimento estratégico — não ineficiência.
  • Verificar o que se aprende, não apenas o que é produzido. As conclusões tiradas de deployments de IA tornam-se base para decisões de escala e narrativas organizacionais sobre valor. Se essas conclusões são equivocadas — métricas erradas, casos extremos ignorados, sucesso declarado prematuramente — os erros se propagam em escala crescente.
  • Tratar verificação como imperativo estratégico. Quando a IA é central para como uma organização compete, a qualidade da supervisão humana afeta resultados estratégicos — não apenas éticos. Falhas de oversight produzem recursos mal alocados, iniciativas fracassadas e erosão de posição competitiva. A pesquisa BCG/MIT SMR indica que organizações líderes em IA responsável têm o dobro de probabilidade de realizar benefícios de negócio concretos com seus programas de IA.

Essas cinco recomendações são pré-condições para a gestão estratégica efetiva. A pergunta que as lideranças executivas precisam responder não é se humanos devem supervisionar IA — o painel já respondeu isso. É quais organizações terão, daqui a três anos, a expertise interna necessária para fazê-lo.

A IA responsável pode eliminar a supervisão humana?

Inteligência Artificial

A IA responsável pode eliminar a supervisão humana?

Pesquisa do MIT SMR e do BCG responde: não! Painel com 31 especialistas globais indica que a supervisão humana em IA exige mais do que verificar outputs: exige julgamento em todo o ciclo de vida dos sistemas.

Sim, agentes de IA autorreplicantes já existem

Inteligência Artificial

Sim, agentes de IA autorreplicantes já existem

Em menos de um ano, a taxa de sucesso em testes de autorreplicação saltou de 6% para 81%. O tempo médio de detecção nas empresas ainda é de 10 dias.

O efeito bumerangue das demissões por IA: empresas que cortaram estão recontratando (e pagando mais caro)

Inteligência Artificial

O efeito bumerangue das demissões por IA: empresas que cortaram estã...

Uma onda de organizações que demitiu em nome da IA está refazendo o caminho, só que agora com custos 27% maiores, equipes que perderam a confiança na liderança e o conhecimento institucional que foi embora junto com os funcionários

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs estão preocupados)

Inteligência Artificial

O hype de IA está distorcendo o julgamento dos conselhos (e os CEOs e...

Mais da metade dos CEOs ouvidos pelo BCG diz que seus conselhos confundem narrativa midiática com realidade operacional da IA; 60% acreditam que estão sendo pressionados a agir rápido demais

O que a IA, educação e talentos representam para a SAS, segundo o COO Gavin Day

Inteligência Artificial

O que a IA, educação e talentos representam para a SAS, segundo o CO...

A empresa, que investe em educação de colaboradores e clientes sobre IA, se apoia em uma cultura construída ao longo de cinco décadas para se tornar diferencial num mercado em consolidação.

CAIO virou cargo estratégico

Inteligência Artificial

CAIO virou cargo estratégico

Mas a maioria das empresas ainda não sabe o que fazer com ele. Sua ascensão expõe um paradoxo: a posição cresce três vezes mais rápido que a capacidade de usá-la para transformar o negócio de fato