Ferramentas de IA estão sendo cada vez mais usadas, em vários campos, desde vendas até medicina. Mas adotá-las é apenas um pequeno passo. Elas só servirão ao seu propósito se forem integradas aos fluxos de trabalho. E só serão integradas se as pessoas confiarem nelas.
Tomadores de decisão muitas vezes mostram relutância em aceitar as recomendações dos algoritmos, particularmente em situações de tomada de decisão caracterizadas por incerteza, fenômeno conhecido como aversão ao algoritmo. Como mudar isso e fazer com que as pessoas se sintam confortáveis em receber recomendações da IA? Foi o que um estudo recente, de pesquisadores afiliados à MIT Sloan e ao Laboratory for Innovation Science, em Harvard, quis saber. E os resultados surpreenderam.
O senso comum sugere que entender o funcionamento interno da inteligência artificial (IA) aumenta a confiança na tecnologia. Mas o estudo mostrou que, nem sempre, isso é uma verdade. Saber menos sobre como um algoritmo funciona – mas seguir seus conselhos com base na confiança nas pessoas que o projetaram e testaram – pode levar a melhores tomadas de decisão e resultados para as empresas.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
A ética dos dados, a ética dos algoritmos e a ética das práticas devem embasar as propostas de legislação que busquem provocar a internalização de conceitos de “certo” ou “errado”
Abordagens padrão ignoram dezenas de possíveis problemas éticos. Para melhor mitigar os riscos, as empresas precisam de recomendações de um grupo multidisciplinar, com autoridade para emiti-las
As políticas públicas precisam acompanhar os avanços tecnológicos para reduzir as desigualdades causadas pela tecnologia.
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso