Nos últimos anos, a conectividade onipresente e a consumerização de tecnologia levaram ao surgimento do big data. As organizações tentaram aproveitar esses dados para impulsionar a automação e a tomada de decisões com base em dados para melhorar os resultados de negócios.
Mas, todos os dias, erros sistemáticos em nosso processo de pensamento afetam a maneira como vivemos e trabalhamos. E em um mundo onde tudo o que fazemos está mudando rapidamente – desde a maneira como armazenamos informações até a maneira como as analisamos – é preciso lembrar que muitos desses nossos viesses cognitivos acabam encontrando expressão em nossos dados e se infiltrando também em algoritmos de Machine Learning, aumentando a probabilidade de resultados indesejáveis e tendenciosos, uma vez que os dados são a base para todos os algoritmos de aprendizado de máquina e esforços de inteligência artificial. As aplicações dessas tecnologias podem potencialmente amplificar e escalar vários preconceitos humanos.
Para evitar que o viés da automação nos leve a cometer seguidos enganos, precisamos trabalhar para minimizar que outros dos 50 vieses cognitivos mais prevalentes hoje em dia, segundo a TitleMax. Conhecê-los é o primeiro passo para implementar e colocar em prática os princípios éticos da IA e garantir a governança adequada para revisão e supervisão contínuas dos modelos e dos dados utilizados, para assegurar a sua qualidade.
Um artigo recente de Michelle Seng Ah Lee e Jatinder Singh, da Universidade de Cambridge, apontou alguns desses vieses que contribuem para distorcem o resultado dos sistemas de IA, quase sempre de maneiras não intencionais. São eles:
Existem inúmeras ferramentas propostas para ajudar os profissionais a avaliar o risco de vieses não intencionais, como avaliações de impacto, modelos de registro e estratégias de mitigação. Empresas como a IBM disponibilizaram ferramentas como o AI Fairness 360 Toolkit, AI FactSheets e IBM Watson OpenScale, projetados para ajudar as empresas a construir uma IA confiável. Mas ainda não há um esforço sistemático para tentar integrar esses métodos em um processo de gerenciamento de risco da organização.
Em teoria, empresas que puderem limpar seu conjunto de dados de treinamento de suposições conscientes e inconscientes sobre raça, gênero ou outros conceitos ideológicos, serão capazes de construir sistemas de IA que tomem decisões baseadas em dados imparciais.
Infelizmente, não há uma bala de prata, nem soluções rápidas para remover todos os preconceitos dos sistemas de IA. Mas mas há recomendações que consultores como a Mckinsey vêm aplicando nos últimos anos na tentativa de minimizar o problema.
Na opinião de analistas como Atakan Kantarci, da AI Multiple, significa que para corrigir o preconceito em sistemas de IA as empresas devem:
Já a IBM, em artigo recente assinado por Anjelica Dortch, executiva de Políticas de Tecnologia do IBM Government & Regulatory Affairs e Stacy Hobson, diretora de Tecnologias Responsáveis e Inclusivas, do IBM Research, sugere que os legisladores tomem medidas adicionais em relação ao viés algorítmico, e pede aos governos que implementem cinco prioridades para fortalecer a adoção de testes, avaliações e estratégias de mitigação do preconceito em sistemas de IA:
1. Reforçar o conhecimento e a alfabetização em IA para toda a sociedade. Uma maior compreensão sobre o que é IA, seus benefícios potenciais e como interagir com os sistemas pode acelerar seu crescimento e confiança na tecnologia. Além disso, o desenvolvimento e a implementação de uma agenda nacional de IA podem promover um ecossistema mais inclusivo e diverso, bem como apoiar a erradicação de conceitos errados. Neste sentido, o aumento do investimento em educação para incluir IA nos currículos e o aumento do financiamento para pesquisas podem garantir uma gama mais diversificada de partes interessadas para orientar o planejamento, o desenvolvimento e a implementação de sistemas de IA no futuro. Ministérios e agências de ciência e tecnologia também devem priorizar a construção de parcerias que promovam a equidade em IA.
2. Exigir avaliações e testes para sistemas de IA de alto risco, com foco na proteção dos consumidores e, ao mesmo tempo, possibilitando a inovação. Isso significa exigir evidências e mitigação de vieses – conduzida de forma robusta e transparente – para sistemas de IA, como os usados em tribunais. Esses sistemas também precisam ser monitorados e testados continuamente. Além disso, concentre-se nos requisitos de avaliação de pré-implementação para sistemas de IA de alto risco que apresentam um maior potencial de danos; documentar os processos de avaliação, torná-los auditáveis e mantê-los por um período mínimo de tempo; convocar e conduzir fóruns nacionais e internacionais para acelerar o consenso para uma IA confiável; fornecer recursos e experiências para ajudar todas as organizações a garantir uma IA responsável; aumentar o investimento em pesquisa e desenvolvimento para teste e mitigação de vieses; e apoiar o treinamento acelerado de desenvolvedores em reconhecimento de polarização.
3. Exigir transparência na IA por meio da divulgação. Os desenvolvedores e proprietários devem informar os usuários quando estes interagem com tecnologias de IA com pouco ou nenhum envolvimento humano, bem como ao usar um sistema de IA de alto risco. Além disso, no caso de sistemas de tomada de decisão automatizados, no mínimo, o usuário deve ser informado por que e como uma determinada decisão foi tomada usando IA.
4. Solicitar mecanismos para análise e feedback do consumidor. Os operadores de aplicativos de alto risco devem disponibilizar canais de comunicação (por exemplo, e-mail, número de telefone ou endereço postal) para esclarecer dúvidas, preocupações ou reclamações dos usuários. Os proprietários devem agir com responsabilidade, conduzindo análises contínuas das preocupações dos consumidores e, quando necessário, trabalhar em questões sistêmicas.
5. Estabelecer limitações universais ao uso de IA e adotar práticas de licenciamento responsáveis. Para evitar que os sistemas sejam explorados para usos ilegais, irresponsáveis e prejudiciais, a IBM solicita o estabelecimento de limitações universais ao uso de aplicativos de IA de alto risco para proibir seu uso em vigilância em massa, discriminação racial e violação de direitos humanos e liberdades básicas. Além disso, expanda o desenvolvimento, a educação e a adoção de termos de licença responsáveis para software de código aberto e aplicativos baseados em IA.
De fato, novas leis, marcos regulatórios e diretrizes estão chegando para mitigar vieses nos sistemas de IA. Na opinião da IBM, se desenvolvidas com base nas prioridades acima, essas medidas podem fornecer à indústria e às organizações requisitos claros de teste, avaliação, mitigação e educação para aumentar a confiança do consumidor e a segurança em IA.
Por falta de tempo e pelas características das reuniões digitais, a tendência é julgar situações por conta própria e assumir que falta engajamento e vontade de fazer
A maioria dos executivos não consegue explicar como seus modelos tomam decisões, revela pesquisa. Apenas 20% monitoram ativamente questões de justiça e ética
As pessoas não estão dispostas a aceitar tecnologias a menos que possam exercer mais controle sobre seus resultados
Como fazer com que a tomada de decisões estejam menos sujeitas ao fator humano? Eliminando ruídos e vieses, defendem Daniel Kahneman e Virginia Dignum
Motoristas estão processando o Uber na UE por terem sido descadastrados do aplicativo sem que a decisão passasse por um humano
Todas as empresas podem começar, desde já, a encontrar formas de serem realmente mais transparentes, questionando-se regularmente sobre uma série de pontos
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso