The Shift

NIST aponta caminhos para reduzir o viés da IA

A proliferação de abordagens de modelagem e preditivas baseadas em técnicas de aprendizado de máquina e de dados ajudou a expor vários preconceitos sociais incorporados em sistemas do mundo real. Esses preconceitos e outras imprecisões relacionadas em sistemas automatizados podem levar a resultados prejudiciais que prejudicam o público confiança na tecnologia.

Relatório divulgado pelo Instituto Nacional de Padrões e Tecnologia (NIST), dos Estados Unidos, aborda a complexidade do viés de IA e os obstáculos que as empresas devem considerar ao projetar software para que ele não se desvie do comportamento pretendido.

Uma das principais conclusões é que o problema não pode ser resolvido apenas com correções puramente técnicas ou estatísticas. A correção do viés na IA exige uma abordagem mais ampla, que também considere os vieses humanos e sistêmicos. Não são apenas os conjuntos de dados e os algoritmos que precisam ser abordados - também as pessoas e o contexto social em que os sistemas de IA são usados.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Se você já recebe nossas newsletters,

preencha seu e-mail que lhe mandaremos instruções

Voltar
Enviar
Opa! Parece que este e-mail não está cadastrado ainda.
Tente novamente ou, se quiser fazer um novo cadastro, clique aqui.

Crie sua senha para o e-mail

e atualize suas informações

Atualizar

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Cadastre-se grátis, leia até 5 conteúdos por mês,

e receba nossa newsletter diária.

Voltar

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Pronto! Só falta um passo.

Clique no link do e-mail que enviamos para
retornar aqui e finalizar seu cadastro.