s
Crédito: Shutterstock
INTELIGÊNCIA ARTIFICIAL

IA Explicável também precisa ser ética

Quanto mais deixamos a IA seguir por esse caminho pouco transparente, maior a probabilidade de chegarmos a lugares que não desejamos - e de onde talvez não tenhamos volta

Não sabemos muito sobre como as redes neurais tomam suas decisões. Geralmente as aceitamos em relação a assuntos e atividades triviais. Mas, à medida que o Deep Learning é integrado a áreas mais críticas de nossas vidas, como os diagnósticos médicos, é justo que possamos saber mais o que acontece sob o capô. Razão pela qual tem havido muito trabalho em torno da “IA Explicável” (XAI).

Mas abrir a caixa preta da IA também pode se tornar um problema, de acordo com um novo estudo da Universidade de Michigan. Os pesquisadores descobriram que os engenheiros estão confiando demais nas técnicas de XAI, mesmo sem entendê-las. Um fenômeno conhecido como "viés de automação".

Muitas vezeso uso das ferramentas de XAI levou a suposições incorretas sobre os dados e os modelos. O que comprova que a interpretabilidade não é um conceito rígido e singular. E embora a maioria das pessoas concorde que a interpretabilidade deva descrever um entendimento humano de um sistema de IA, a comunidade de Ciência de Dados ainda não chegou a um acordo sobre qual parte do sistema deve ser entendida.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis e tenha acesso a 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Algum dia a IA será completamente imparcial?

Inteligência Artificial

Algum dia a IA será completamente imparcial?

Tecnicamente, sim. Um sistema de IA pode ser tão bom quanto a qualidade de seus dados e o design de seus modelos. Por isso é tão importante neutralizar os vieses cognitivos dos algoritmos

Por Cristina De Luca
Desafio de tornar a Inteligência Artificial confiável é imperativo para os negócios

Inteligência Artificial

Desafio de tornar a Inteligência Artificial confiável é imperativo...

As pessoas não estão dispostas a aceitar tecnologias a menos que possam exercer mais controle sobre seus resultados

Por Cristina De Luca
Devemos criar um 'Juramento de Hipócrates' para a IA

Inteligência Artificial

Devemos criar um 'Juramento de Hipócrates' para a IA

A ideia da NeuroRights Initiative é a ter um Juramento Tecnocrático que incorpore os sete princípios amplamente utilizados nas diretrizes éticas da Inteligência Artificial

Por Cristina De Luca
Morosidade em torno da IA responsável pode colocar empresas em risco

Inteligência Artificial

Morosidade em torno da IA responsável pode colocar empresas em risco

A maioria dos executivos não consegue explicar como seus modelos tomam decisões, revela pesquisa. Apenas 20% monitoram ativamente questões de justiça e ética

Por Cristina De Luca
Princípios éticos da Inteligência Artificial

Inteligência Artificial

Princípios éticos da Inteligência Artificial

Os compromissos com a IA ética só têm valor se implementados. Compartilhar as melhores práticas se tornará cada vez mais importante

Por Redação The Shift
Empresas brasileiras estão mais conscientes sobre o uso responsável dos dados

Inteligência Artificial

Empresas brasileiras estão mais conscientes sobre o uso responsável...

Estudo da Logicalis aponta segurança de informação e adequação à LGPD como prioridades para mais da metade das empresas brasileiras nos próximos meses

Por Cristina De Luca