A proliferação de abordagens de modelagem e preditivas baseadas em técnicas de aprendizado de máquina e de dados ajudou a expor vários preconceitos sociais incorporados em sistemas do mundo real. Esses preconceitos e outras imprecisões relacionadas em sistemas automatizados podem levar a resultados prejudiciais que prejudicam o público confiança na tecnologia.
Relatório divulgado pelo Instituto Nacional de Padrões e Tecnologia (NIST), dos Estados Unidos, aborda a complexidade do viés de IA e os obstáculos que as empresas devem considerar ao projetar software para que ele não se desvie do comportamento pretendido.
Uma das principais conclusões é que o problema não pode ser resolvido apenas com correções puramente técnicas ou estatísticas. A correção do viés na IA exige uma abordagem mais ampla, que também considere os vieses humanos e sistêmicos. Não são apenas os conjuntos de dados e os algoritmos que precisam ser abordados - também as pessoas e o contexto social em que os sistemas de IA são usados.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Se você já recebe nossas newsletters,
preencha seu e-mail que lhe mandaremos instruções
VoltarCrie sua senha para o e-mail
e atualize suas informações
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
VoltarPronto! Só falta um passo.
Clique no link do e-mail que enviamos para
retornar aqui e finalizar seu cadastro.