À medida que as falhas de IA expõem as empresas e seus clientes a riscos, e a atenção regulatória cresce, as evidências apontam que todos têm na ponta da língua o discurso sobre IA responsável. Mas um número muito pequeno está investindo tempo e recursos necessários para criar um programa abrangente.
Embora a adoção corporativa de IA tenha sido rápida e abrangente, a adoção de IA responsável (RAI) em organizações em todo o mundo tem sido relativamente limitada. RAI é frequentemente vista como necessária para mitigar os riscos da tecnologia — que abrangem questões de segurança, parcialidade, justiça e privacidade, entre outros — mas não é de forma alguma uma prática padrão. Pouco mais da metade dos entrevistados (52%) de um estudo da MIT Sloan Management Review, em colaboração com o Boston Consulting Group, relatam que suas organizações têm um programa RAI em vigor. Daqueles com um programa RAI, a maioria (79%) relata que a implementação do programa é limitada em escala e/ou escopo.
Um fator que tem contribuído para a implementação limitada do RAI é a confusão sobre o próprio termo. Dado que a RAI é um campo relativamente incipiente, não é de surpreender que haja uma falta de consenso sobre o significado de IA responsável. Em muitas empresas ele é usado de forma intercambiável com IA Ética ou IA Confiável. Apenas 36% dos entrevistados acreditam que o termo é usado de forma consistente em toda a organização.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Os compromissos com a IA ética só têm valor se implementados. Compartilhar as melhores práticas se tornará cada vez mais importante
Especialistas em risco, conformidade e profissionais em geral têm sido cada vez mais forçados a lidar com as ramificações regulatórias e operacionais. Sua empresa sabe como fazer a coisa certa?
A cineasta Shalini Kantayya fala sobre o que aprendeu com a produção do documentário “Coded Bias”, que explora os efeitos do viés algorítmico e questiona se, em algum momento, a IA vai ficar mais esperta e nos trancar do lado de fo...
Há casos de uso em que a empatia pode ser útil em sistemas de IA? Ou ao aprender e introduzir sentimentos humanos, as máquinas podem acabar nos colocando em risco?
O que está em jogo? Tornar a tecnologia melhor para os negócios e para os humanos, apostando no trabalho de super equipes e no controle das ameaças decorrentes do viés algorítmico
À medida que a adoção da IA aumenta rapidamente, é fundamental que a ética da IA progrida de teorias abstratas para práticas concretas, sob a batuta dos executivos das áreas de negócios
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso