The Shift

IA Explicável também precisa ser ética

Não sabemos muito sobre como as redes neurais tomam suas decisões. Geralmente as aceitamos em relação a assuntos e atividades triviais. Mas, à medida que o Deep Learning é integrado a áreas mais críticas de nossas vidas, como os diagnósticos médicos, é justo que possamos saber mais o que acontece sob o capô. Razão pela qual tem havido muito trabalho em torno da “IA Explicável” (XAI).

Mas abrir a caixa preta da IA também pode se tornar um problema, de acordo com um novo estudo da Universidade de Michigan. Os pesquisadores descobriram que os engenheiros estão confiando demais nas técnicas de XAI, mesmo sem entendê-las. Um fenômeno conhecido como "viés de automação".

Muitas vezeso uso das ferramentas de XAI levou a suposições incorretas sobre os dados e os modelos. O que comprova que a interpretabilidade não é um conceito rígido e singular. E embora a maioria das pessoas concorde que a interpretabilidade deva descrever um entendimento humano de um sistema de IA, a comunidade de Ciência de Dados ainda não chegou a um acordo sobre qual parte do sistema deve ser entendida.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Se você já recebe nossas newsletters,

preencha seu e-mail que lhe mandaremos instruções

Voltar
Enviar
Opa! Parece que este e-mail não está cadastrado ainda.
Tente novamente ou, se quiser fazer um novo cadastro, clique aqui.

Crie sua senha para o e-mail

e atualize suas informações

Atualizar

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Cadastre-se grátis, leia até 5 conteúdos por mês,

e receba nossa newsletter diária.

Voltar

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Pronto! Só falta um passo.

Clique no link do e-mail que enviamos para
retornar aqui e finalizar seu cadastro.