Fala-se muito em IA Responsável, mas pratica-se pouco. Estudo realizado pela IAPP - International Association of Privacy Professionals, em parceria com a The Ohio State University Moritz College of Law sobre Responsible AI Management (RAIM), descobriu que muitas empresas estão tomando medidas para utilizar a IA de forma mais socialmente responsável, mas poucas já estão extraindo valor esperado.
Os dados sugerem, por exemplo, que as empresas que adotam políticas RAIM experimentam aumento de confiança. Já aquelas que estendem as políticas RAIM aos seus fornecedores relatam tanto um aumento de confiança como uma vantagem competitiva. Além disso, as empresas que tentam identificar se os seus produtos e processos de IA podem causar danos a terceiros ou violar a lei relatam maiores aumentos na qualidade do produto.
A maioria descreveu o processo de sua empresa para tomar decisões responsáveis sobre IA como ad hoc, em vez de sistemático. O que contrasta fortemente com a crença dos entrevistados na importância e no valor percebido do RAIM. Os dados sugerem que o RAIM pode produzir o maior valor melhorando a qualidade do produto, promovendo a inovação dos produtos de IA e satisfazendo as expectativas dos clientes, e não apenas reduzindo os impactos negativos.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Empresas que usam o humano para guiar decisões sob incerteza constroem agentes mais confiáveis, governáveis e difíceis de copiar.
Relatório global da Capgemini mostra por que tecnologia não é mais o gargalo — e como a lentidão organizacional ameaça a competitividade.
A tecnologia amadureceu. Porém, organizações, processos e governança não acompanharam a velocidade da IA em escala.
A equação "IA + supervisão humana" redefine aprendizagem, reduz desigualdades e cria novo padrão de qualificação. A IA vira infraestrutura cognitiva, reconfigurando talento, ensino e competitividade.
Em 2026, o maior risco de IA pode ser o excesso de modelos e a ausência de integração. O contexto se perde. E o ROI também.
O desafio agora é manter neutralidade e valor estratégico em um ambiente que tende à manipulação invisível.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso
