s
INTELIGÊNCIA ARTIFICIAL

Bloqueados por um algoritmo: sete vezes em que a IA cancelou o usuário

Enquanto soluções de Inteligência Artificial são cada vez mais usadas em todas as indústrias, crescem também os casos de pessoas que foram bloqueadas por um algoritmo

Por João Ortega 10/04/2021

Enquanto soluções de Inteligência Artificial são cada vez mais usadas em todas as indústrias, crescem também os casos de pessoas que foram bloqueadas por um algoritmo. Os casos mais conhecidos são no recrutamento, como o sistema da Amazon que prejudicava candidatas mulheres, e em pontuações de crédito, que perpetuam o viés racista presente na sociedade.

No entanto, os casos de “cancelamento algorítmico” vão muito além do que se pode imaginar. Seja por causa de problemas históricos em bases de dados ou falhas na hora de treinar o modelo, resultados inexplicáveis e prejudiciais são frequentes em laboratórios, nas empresas e também em espaços públicos. Veja, a seguir, alguns casos neste sentido:

  1. Só para os bonitos: TikTok e Tinder estão entre os aplicativos que usam modelos de IA aplicados ao reconhecimento facial para ranquear usuários de acordo com um padrão de beleza. Enquanto a rede social chinesa tende a filtrar conteúdo de pessoas “feias”, o app de relacionamentos criou uma pontuação interna dos usuários.
  2. A Nova Zelândia utiliza um sistema automático para checar a autenticidade de fotos de passaporte. Quando o cidadão local Richard Lee, descendente de asiáticos, quis tirar seu passaporte, ele foi negado. O modelo não aceitava sua foto, afirmando que ele estava com os “olhos fechados”.
  3. Estar desinformado é ser bloqueado da verdade. Um estudo recente mostra que o Instagram, por meio das abas que sugerem conteúdo aos usuários, ajuda a disseminar conteúdo falso sobre a Covid-19. O algoritmo responsável por estas recomendações começou a ser usado em agosto do ano passado.
  4. Em 2012, o Facebook realizou um secreto e polêmico estudo no qual manipulava as emoções dos usuários por meio do algoritmo de recomendação de conteúdo da plataforma. Segundo Aidan Gomez, pesquisador da Universidade de Oxford, “manipular o conteúdo que uma pessoa consome tem um impacto imenso e direto no seu bem-estar, no seu estado mental e nas suas crenças”.
  5. Na China, câmeras de reconhecimento facial são usadas para identificar pedestres que atravessam fora da faixa. O sistema é construído para constranger quem quebra as regras, mostrando o rosto da pessoa em um telão. O problema aconteceu quando o algoritmo confundiu o apressado com um bilionário famoso no país, constrangendo-o para que todos possam ver, mas sem motivo.
  6. Decisões médicas envolvem, além da saúde dos pacientes, grandes quantias de dinheiro, em especial quando seguradoras fazem parte do processo. Samuel Finlayson, pesquisador da Universidade de Harvard e do MIT, alerta que algoritmos de diagnóstico por IA podem ser facilmente alterados para maximizar o lucro do setor de seguros.
  7. Programadores serão “cancelados” pelos seus próprios algoritmos? Certamente veremos cada vez mais modelos de IA escrevendo linhas de código. É fato que algoritmos vão automatizar processos menos criativos da programação, mas, no futuro próximo, ainda haverá a necessidade de humanos para assegurar a qualidade dos sistemas e desenvolver soluções inovadoras.
  • Bônus: IA cancelando IA.  a Wikipedia usa bots há mais de duas décadas para corrigir erros, atualizar verbetes e checar links. Só que estes robôs são de diferentes gerações e receberam comandos distintos - por vezes, contradizentes. Uma pesquisa constatou que existem disputas internas de algoritmos na enciclopédia virtual, inclusive alguns em loops infinitos corrigindo uns aos outros.

E no Brasil?

Enquanto os casos acima foram revelados pela imprensa ou divulgados pelos próprios desenvolvedores, há poucos episódios conhecidos de pessoas canceladas por algoritmos no Brasil. Não significa, porém, que não aconteça por aqui.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Pricing: onde a IA gera ROI verificável

Inteligência Artificial

Pricing: onde a IA gera ROI verificável

Enquanto 90% das iniciativas de IA ainda não saíram do piloto, o pricing B2B já tem resultados no P&L

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Inteligência Artificial

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.

A realidade da IA em 2026, segundo Stanford

Inteligência Artificial

A realidade da IA em 2026, segundo Stanford

O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.