Sim. Em algum momento, mesmo aqueles que se encaixam no perfil definido como privilegiado – homem branco, com dinheiro, que mora em um bairro classudo – podem sofrer algum tipo de bloqueio por conta de um algoritmo que incorpora um determinado viés em sua construção. Pode ser um viés de idade, pode ser um perfil ruim de crédito no passado, um post publicado em redes sociais – pode até ser um erro no banco de dados que te associou a um outro sujeito. Enfim, pode ser qualquer coisa. E sabe o pior? Você nem vai ficar sabendo porque foi “cancelado”.
A fama de mau que cada vez mais se associa à Inteligência Artificial responde por uma expressão: viés algorítmico (algorithm bias) ou viés de IA. É uma anomalia no resultado de algoritmos de aprendizado de máquina (machine learning). Isso pode acontecer devido a suposições preconceituosas feitas durante o processo de desenvolvimento do algoritmo ou preconceitos nos dados usados para o treinamento.
O viés algorítmico surgiu nos anos 1980. Para automatizar o processo de admissão dos estudantes da Escola de Medicina do Hospital St. George, em Londres, foi criado um programa que chegou a ser testado em conjunto com selecionadores humanos. De fato, o programa cumpriu a função. Só que a equipe percebeu que, com o passar dos anos, havia uma homogeneidade entre os candidatos selecionados. Ou seja, o programa não era capaz de agregar diversidade ao processo – um dos elementos-chave para a inovação.
Os algoritmos estão espalhados por toda parte. Assistiu um filme e já logo vem a recomendação para o próximo? Confirmado. O app avisou que tem música nova da sua banda favorita? Também. Os vídeos do TikTok e do YouTube já foram alvo de pesquisa para saber se havia o tal viés. E adivinhe, a resposta foi sim.
Você pode não se lembrar do que estava fazendo há um ano, mas o algoritmo sabe. E de acordo com pesquisadores da University of Southern California, o algoritmo de anúncios do Facebook perpetua o viés de gênero. A companhia já tinha passado por escrutínio no ano passado em relação ao Instagram e decidiu criar um “equity team” para analisar a possibilidade de preconceito.
As pessoas e os algoritmos estão cada vez mais envolvidos em processos interativos em que nem o ser humano nem os algoritmos recebem dados imparciais. Ao tomar decisões com base em informações tendenciosas, que provavelmente serão consumidas por algoritmos posteriormente, nós só pioramos a situação, aponta um estudo.
As organizações e corporações internacionais estão tentando desenvolver diretrizes globais para o que seria o uso ético da IA – evitando vieses para se chegar a uma IA mais justa e responsável. Se bem desenhada e implantada, a IA pode inclusive ajudar a mitigar os efeitos da falta de diversidade e promover a inclusão. Para começar, a própria construção de times mais diversos e o uso de tecnologia para rever o que ficou para trás e aplicar uma visão mais justa para todos.
The Shift trata desse tema praticamente toda semana por uma razão muito simples: se não olharmos para essa questão agora, os sistemas que estão sendo construídos neste momento vão incorporar cada vez mais preconceitos que vão afetar a vida de milhões de pessoas. E como já apontamos algumas vezes, o problema está no homem e não na máquina: a IA trabalha com os dados que nós selecionamos, obedecendo a parâmetros que nós traçamos. Se o resultado é injusto, não dá para culpar a tecnologia. S.Y.
Temor ou cuidado: qual deve ser nosso sentimento diante da IA?
“Toda tecnologia é neutra”.
Bom, já sabemos que não é bem assim.
“O uso excessivo da IA criará um mundo distópico”.
Talvez, se deixarmos.
“Devemos temer a tecnologia”.
Talvez, também.
“Precisamos ter cuidado com mau o uso da IA”.
Certamente.
Os medos da IA parecem originar-se de algumas causas comuns: ansiedade geral sobre a inteligência da máquina, o medo do desemprego em massa, preocupações com a superinteligência, colocar o poder da IA nas mãos de pessoas erradas e preocupação e cautela gerais quando se trata às novas tecnologias, incluindo aí o viés algorítmico.
Um tema recorrente em filmes e livros de ficção científica são os sistemas de IA que se tornam desonestos – pense em HAL de 2001: Uma Odisséia no Espaço ou a série de filmes Terminator. As pessoas não gostam de máquinas que ficam muito inteligentes, porque tememos não poder controlá-las. No entanto, assim como temos exemplos de HAL e Terminator, também temos exemplos como C3PO e os computadores de Star Trek. Esses são sistemas altamente inteligentes que estão sob o controle dos humanos. O futuro poderia ser tão grande e benigno quanto Star Trek se tivéssemos essa perspectiva sobre as possibilidades das máquinas inteligentes.
Particularmente, acredito que o pior que pode nos acontecer é a rejeição, a repulsa provocada pelo medo do que, potencialmente, a IA e os algoritmos são capazes. Não só porque por ser um freio indesejado à inovação, mas porque em nada contribuiria para garantir o melhor funcionamento da tecnologia para todos.
Muitas mentes brilhantes não temem a IA, mas se preocupam em garantir que façamos bom uso da tecnologia. Um uso adequado, responsável e ético.
A Ciência da Computação evoluiu bastante desde que HAL surgiu no cinema, e se o Dr. Chandra, seu inventor, estivesse aqui hoje, ele certamente teria um monte de perguntas sobre como garantir que a IA possa, de fato, ser serendipidade, como afirma Kei-Fu Lee, e consiga salvar a nossa humanidade.
Kai-Fu Lee é hoje um dos principais nomes em inteligência artificial. É conhecido pelo seu livro “As Superpotências da IA” e se prepara para lançar, em parceria com Chen Quiufan, “AI 2041: Ten Visions for Our Futur“. Mas tem uma opinião um tanto otimista e utópica de como a IA irá mudar radicalmente o mundo: “nos libertar de ter de fazer os trabalhos rotineiros, para que sejamos capazes de nos concentrar nas coisas emocionantes, divertidas e apaixonantes, que, afinal, são as razões pelas quais viemos a esta terra”.
Razão. Está aí algo que realmente move a humanidade em direção à evolução e às novas descobertas. Precisamos de mais razão aos tratarmos a IA. Entre as narrativas apocalípticas e utópicas, precisaremos apostar no bom senso e nos agarrarmos firmemente aos valores e à ética humanos para aproveitar os benefícios da tecnologia, como advoga Fei-Fei Li, co-diretora e especialista em visão computacional do Institute for Human-Centered AI (HAI) de Stanford que, aliás, acaba de realizar a conferência “Intelligence Augmentation: AI Empowering People to Solve Global Challenges“.
Em debate recente com a diretora do documentário” Coded Bias“, Shalini Kantayya, Fei-Fei Li reconhece que há, de fato, muitos riscos no uso do reconhecimento facial impulsionado unicamente por imperativos de poder e lucro. Mas a tecnologia de FRT também tem usos nobres, como a detecção precoce de um AVC, ou do nível de dor que um paciente esteja sentindo. Os sistemas mais modernos já dectectam emoções. Por isso, é imperativo, fazer com pesquisadores, cientistas de dados e empresas privadas estejam atentos às violações de direitos como privacidade e equidade e justiça no uso dos algoritmos.
“Nossas pegadas digitais estão por toda parte, tornando-se parte de poderosos sistemas de comercialização ou a vigilância. Como cientista preciso reconhecer minha falta de experiência e formação em pensar sobre esses profundos problemas”, admite Fei-Fei. “O que o Stanford HAI está fazendo é criar uma plataforma multi-stakeholder para promover conversas sobre como colocar limites para o uso da tecnologia, colocando os seres humanos no centro de toda concepção e do desenvolvimento da tecnologia”.
Será possível criarmos sistemas que tenham princípios éticos e morais? Eis aí uma pergunta que precisamos ressponder, com certa urgência, uma vez que os algoritmos estão ficando mais poderoso, e também menos transparente e mais complexos. E que corrigir vieses algorítmicos contribuiria muito para promover justiça e equidade. Questões como explicabilidade da IA, ética da IA, humanização da IA, governança de dados, proteção de dados pessoais, regulação da IA estão na agenda do dia. Mas talvez a resposta seja mais simples.
Na opinião da techno-sociologist Zeynep Tufekci para superar o nosso medo da IA, e usufruir dos seus benefícios, vamos ter de nos agarrar firmemente aos nossos valores.
“Precisamos aceitar que trazer a matemática e a computação para negócios humanos confusos, envolvendo julgamento de valor, não traz objetividade; mas que, ao contrário, a complexidade dos negócios humanos invade os algoritmos”, afirma ela nessa palestra abaixo, no TED, ainda atual, apesar da data. “Podemos e devemos usar a computação para nos ajudar a tomar decisões melhores. Mas temos de reconhecer nossa responsabilidade moral para julgar, e usar os algoritmos dentro desse espectro, não como uma forma de abdicar de nossas responsabilidades ou terceirizá-las para a tecnologia”.
Em 2011 , Tufekci foi contra a corrente ao dizer que o caso do Twitter como impulsionador de amplos movimentos sociais foi simplificado demais. Em 2013 , ela argumentou que o Facebook poderia alimentar a limpeza étnica. Em 2017, ela alertou que o algoritmo de recomendação do YouTube poderia ser usado como uma ferramenta de radicalização. Em 2019 ela foi uma das primeiras vozes a alertar para a falta de transparência criada pelos proprietários dos algoritmos, o desafio estrutural da opacidade do aprendizado de máquina, e de todos esses dados sendo coletados sobre nós indiscriminadamente.
“Temos uma tarefa enorme diante de nós. Temos que mobilizar nossa criatividade e, sim, nossos políticos, para que incentivem a criação de uma inteligência artificial que dê suporte a nossos objetivos humanos, e seja limitada por valores humanos”, afirmou ela mais recentemente, também no palco do TED.
“Reúna uma equipe de leitura, coloque as pessoas na sala, onde quer que você esteja trabalhando, patra pensarem sobre o que pode dar errado”, disse ela, durante a conferência Next da Hitachi Vantara em Las Vegas, EUA, também em 2019. “Porque pensar sobre o que pode dar errado antes que aconteça é a melhor maneira de ter certeza de que não vai acontecer.”
Hoje algoritmos podem determinar se devem fornecer um empréstimo, qual é o risco do seguro e quão bom é o funcionário. Mas existe um grande problema. As pessoas não entendem mais como os algoritmos tomam suas decisões. Outra questão importante é a ampla capacidade de monitoramento de IA. A cidade de Rongcheng, na China, já usa o “sistema de crédito social” apoiado pela Inteligência Artificial para monitorar e avaliar os cidadãos.
Que solução pode ser deixada para o algoritmo?
Criar um sistema inteligente, cognitivo, é fundamentalmente diferente de criar um sistema complexo e tradicional do passado. Não o programamos, somente. O ensinamos. Para que um sistema reconheça flores, mostramos a eles milhares de flores. Para ensinar um sistema a jogar “Go”, fazemos com que jogue várias vezes, o ensinando a diferenciar um jogo bom de um jogo ruim. Portanto, estamos ensinando ao sistema os nossos valores. E como nossos filhos, muitos desses sistemas já começam a ser capazes de fazer correlações e aprender sozinhos, sem que os tenhamos ensinado. O que não significa que não necessitem de nossa supervisão.
E é aí que outro dilema surge: Deve-se ter limites humanos (não tecnológicos) para a adoção da automação por sistemas de inteligência artificial?
Muitos analistas creem que sim, embora admitam que exigir a supervisão humana de toda e qualquer decisão por sistema de IA também possa frear demais a inovação. De novo, teremos que usar o bom senso.
Há quem defenda auditorias e ajustes periódicos. Algo que já deveria fazer parte da rotina de qualquer empresa que esteja aplicando IA em seus negócios. Outros acreditam que além de melhorar o código, o modelo ou os algoritmos, também será preciso ser mais eficaz no uso dos dados. Ser mais criterioso quanto à natureza e a qualidade dos dados. O excesso pode ser tão nocivo ao Machine Learning quanto a falta de dados.
Muitos dos vieses algoritmicos não são propositais, mas oriundos das bases e dos tipos de dados que os algoritmos usam. A maioria dos algoritmos é treinada em pontos de dados históricos (como decisões anteriores de contratação de uma empresa) são suscetíveis a aprender e perpetuar os preconceitos existentes. Construir tais algoritmos pode ser tanto uma arte quanto uma ciência. A escolha dos modelos matemáticos e dos dados devem ser cuidadosamente analisados e selecionados para minimizar as possibilidades de vieses nocivos.
No setor financeiro, por exemplo, as agências reguladoras das instituições financeiras federais americanas emitiram uma Solicitação de Informações e Comentários (RFI) em 31 de março de 2021, para entender melhor como a inteligência artificial (IA) e o aprendizado de máquina (ML) são usados no setor de serviços financeiros e identificar as áreas onde “esclarecimentos” adicionais. Um dos itens cobertos é justamente “qualidade, processamento e uso de dados“.
O Fórum Econômico Mundial também acaba de realizar o seu “Global Technology Governance Summit (GTGS)“, encontro multissetorial dedicado a garantir o design e a implantação responsáveis de tecnologias emergentes, como a IA, onde a governança de dados foi um dos eixos mais relevante.
Mas atenção: também não dá para olhar para os algoritmos de IA somente à luz da privacidade. A IA vai muito além. Até as principais leis de proteção de dados da União Europeia andam precisando de uma revisão robusta para um mundo pós-Covid, de acordo com o membro do Parlamento Europeu que elaborou as medidas. As atualizações devem levar em conta não apenas uma mudança global para trabalhar em casa, mas também uma infinidade de tecnologias emergentes, como reconhecimento facial e de voz.
“Uma IA pode ser mais correta do que um humano, que tem vieses mil, para 90% dos casos, mas o sistema que utiliza a IA tem que ser capaz de identificar quando um humano vai ser necessário para um caso em particular. Fazer essa ponderação errada não é culpa da IA, mas que quem desenhou o sistema, e essa decisão pode causar problemas éticos e de erros, não o algoritmo ou a IA”, comenta Gustavo Zaniboni, fundador e CTO da iRespect.online.
Estamos em uma jornada incrível de coevolução com nossas máquinas. E teremos outras questões para responder que, possivelmente, vão derivar do impacto da IA nas nossas vidas. Como organizar a sociedade quando a demanda por trabalho humano diminuir? Como disseminar entendimento e educação por todo o planeta sem desrespeitar nossas diferenças? Como prolongar e melhorar a vida usufruindo a IA na área de saúde?
As oportunidades de usar a computação para ampliar a experiência humana, com responsabilidade, estão ao nosso alcance, aqui e agora. Estamos apenas começando.Isso deveria ser o mais empolgante.
O medo básico de a IA dominar o mundo e escravizar a humanidade repousa na ideia de que haverá consequências inesperadas, não intencionais. Sim, elas vão acontecer. E se serão boas ou ruins, depende do que faremos com elas. A penicilina foi uma consequência não intencional de um experimento de laboratório.
Existe uma contradição inerente entre nossos comportamentos e nossas opiniões quando se trata de aproveitar os benefícios da tecnologia e, ao mesmo tempo, culpar as pessoas que a fornecem. Nos preocupamos com a privacidade, mas não nos preocupamos com a permissões que damos aos aplicativos que usamos em nossos smartphones. Queremos ter livre arbítrio, mas seguimos passivamente as recomendações do Waze. Para a maioria de nós, a tecnologia tem autoridade absoluta. E esse á o maior dos perigos.
Precisamos ser mais críticos no uso cotidiano da tecnologia. Somos todos administradores do ecossistema de dados, em maior ou menor escala, e precisamos trabalhar todos juntos para garantir que seu crescimento seja ético, escalonável e seguro.
Imagine um mundo onde tanto uma criança de 10 anos quanto uma de 90 – e todas as outras pessoas – entendem como os dados que geram por meio de atividades digitais impactam e melhoram o mundo ao seu redor. No qual as pessoas não acham mais que compartilhar dados é arriscado porque têm total controle e transparência sobre como seus dados estão sendo usados. Bom, esse resultado só poderá ser alcançado com o desenvolvimento da confiança na economia baseada em dados, movida pelos algoritmos. C.D.L.
Bloqueados por um algoritmo: sete vezes em que a IA cancelou o usuário
Enquanto soluções de Inteligência Artificial são cada vez mais usadas em todas as indústrias, crescem também os casos de pessoas que foram bloqueadas por um algoritmo. Os casos mais conhecidos são no recrutamento, como o sistema da Amazon que prejudicava candidatas mulheres, e em pontuações de crédito, que perpetuam o viés racista presente na sociedade.
No entanto, os casos de “cancelamento algorítmico” vão muito além do que se pode imaginar. Seja por causa de problemas históricos em bases de dados ou falhas na hora de treinar o modelo, resultados inexplicáveis e prejudiciais são frequentes em laboratórios, nas empresas e também em espaços públicos. Veja, a seguir, alguns casos neste sentido:
- Só para os bonitos: TikTok e Tinder estão entre os aplicativos que usam modelos de IA aplicados ao reconhecimento facial para ranquear usuários de acordo com um padrão de beleza. Enquanto a rede social chinesa tende a filtrar conteúdo de pessoas “feias”, o app de relacionamentos criou uma pontuação interna dos usuários.
- A Nova Zelândia utiliza um sistema automático para checar a autenticidade de fotos de passaporte. Quando o cidadão local Richard Lee, descendente de asiáticos, quis tirar seu passaporte, ele foi negado. O modelo não aceitava sua foto, afirmando que ele estava com os “olhos fechados”.
- Estar desinformado é ser bloqueado da verdade. Um estudo recente mostra que o Instagram, por meio das abas que sugerem conteúdo aos usuários, ajuda a disseminar conteúdo falso sobre a Covid-19. O algoritmo responsável por estas recomendações começou a ser usado em agosto do ano passado.
- Em 2012, o Facebook realizou um secreto e polêmico estudo no qual manipulava as emoções dos usuários por meio do algoritmo de recomendação de conteúdo da plataforma. Segundo Aidan Gomez, pesquisador da Universidade de Oxford, “manipular o conteúdo que uma pessoa consome tem um impacto imenso e direto no seu bem-estar, no seu estado mental e nas suas crenças”.
- Na China, câmeras de reconhecimento facial são usadas para identificar pedestres que atravessam fora da faixa. O sistema é construído para constranger quem quebra as regras, mostrando o rosto da pessoa em um telão. O problema aconteceu quando o algoritmo confundiu o apressado com um bilionário famoso no país, constrangendo-o para que todos possam ver, mas sem motivo.
- Decisões médicas envolvem, além da saúde dos pacientes, grandes quantias de dinheiro, em especial quando seguradoras fazem parte do processo. Samuel Finlayson, pesquisador da Universidade de Harvard e do MIT, alerta que algoritmos de diagnóstico por IA podem ser facilmente alterados para maximizar o lucro do setor de seguros.
- Programadores serão “cancelados” pelos seus próprios algoritmos? Certamente veremos cada vez mais modelos de IA escrevendo linhas de código. É fato que algoritmos vão automatizar processos menos criativos da programação, mas, no futuro próximo, ainda haverá a necessidade de humanos para assegurar a qualidade dos sistemas e desenvolver soluções inovadoras.
- Bônus: IA cancelando IA. a Wikipedia usa bots há mais de duas décadas para corrigir erros, atualizar verbetes e checar links. Só que estes robôs são de diferentes gerações e receberam comandos distintos – por vezes, contradizentes. Uma pesquisa constatou que existem disputas internas de algoritmos na enciclopédia virtual, inclusive alguns em loops infinitos corrigindo uns aos outros.
E no Brasil?
Enquanto os casos acima foram revelados pela imprensa ou divulgados pelos próprios desenvolvedores, há poucos episódios conhecidos de pessoas canceladas por algoritmos no Brasil. Não significa, porém, que não aconteça por aqui.
A The Shift conversou com um cientista de dados, que preferiu não se identificar, sobre situações em que a IA prejudica os usuários. O profissional afirma que estes casos são recorrentes por aqui, mas, por conta dos modelos serem usados internamente pelas empresas, as pessoas nem ficam sabendo.
A fonte revelou que deu consultoria a um grande varejista nacional há alguns anos. Entre os algoritmos analisados pelo cientista, um modelo usado no recrutamento chamou a atenção. “Eles criaram um algoritmo para recomendar contratações que tivessem maior probabilidade de ficar ao menos um ano na empresa, para reduzir custos com treinamento e contratação”, diz. O sistema foi treinado com uma série de variáveis sobre os profissionais que já haviam passado pela companhia.
Entre os dados que treinaram o algoritmo, estavam variáveis de peso e altura. O sistema entendeu que pessoas mais gordas tinham menor chance de ficar mais de um ano na empresa, por conta da base histórica de dados, e passou a recomendar apenas candidatos magros para contratação. “É um exemplo real, antiético e que aconteceu de verdade. O problema foi as informações que colocaram ali dentro do sistema, as variáveis que foram utilizadas”, explica o cientista de dados. J.O.
“Precisamos aprender a controlar os algoritmos”
A diretora Shalini Kantayya definiu seu documentário “Coded Bias”, que está disponível na Netflix, como “Uma Verdade Inconveniente” para algoritmos. A menção ao documentário criado a partir do livro do ex-vice-presidente norte-americano Al Gore sobre a mudança climática não é gratuito. Da mesma forma que o outro filme incomodava por apontar para um futuro (foi produzido em 2006) que parecia sombrio com excesso de CO2 na atmosfera, aquecimento global e catástrofes climáticas, “Coded Bias” nos coloca diante do medo de que a inteligência Artificial (IA), em algum momento, vai ficar mais esperta e nos trancar do lado de fora.
O documentário abre com a descoberta da estudante de graduação do MIT Joy Buolamwini de que o software de reconhecimento facial não pode ver rostos negros como o dela. A cineasta segue a jornada de Buolamwini para chamar atenção de pesquisadores, empresas e da imprensa sobre o preconceito em algoritmos, ao mesmo tempo em que traz entrevistas com especialistas que estabelecem a capacidade da máquina de fazer tanto o bem, quanto o mal a humanos. É o “preconceito codificado”.
O documentário chega ao grande público exatamente em um momento em que estudiosos, especialistas e organizações discutem porque a ética tem que fazer parte do design da IA, mas como apesar de boas intenções, muitas vezes há falhas que comprometem a vida de milhões de pessoas simplesmente porque os dados não levaram em conta o viés de quem fez a programação.
“Coded Bias” estreou no Festival de Cinema de Sundance em fevereiro. Em 30 de setembro, o Instituto Stanford de Inteligência Artificial Centrada no Homem (HAI) convidou Kantayya para um painel de discussão com a co-diretora e especialista em visão computacional Fei-Fei Li e a diretora associada do Human Center Artificial Intelligence (HAI) da Universidade de Stanford, Michele Elam. The Shift traduziu a entrevista que foi publicada originalmente no site da Stanford.
O que você aprendeu ao fazer “Coded Bias”?
Temos a tendência de dar à tecnologia esse tipo de autoridade final sobre a tomada de decisão humana. Se uma pessoa diz algo e uma máquina diz algo, tendemos a acreditar na máquina. E o que aprendi é que muitas vezes esse tipo de grande magia em que confiamos tão cegamente não foi devidamente avaliada quanto à precisão, preconceito racial e de gênero ou danos não intencionais que pode causar. O que é inacreditável para mim é que, embora esses algoritmos não tenham passado por arcos regulatórios e sido aprovados para serem implantados, eles já estão decidindo quem será contratado, quem receberá assistência médica ou por quanto tempo alguém cumprirá pena de prisão. E assim aprendi que precisamos de legislação para termos uma estrutura que garanta que as Big Techs, que possuem tanto poder, codifiquem nossos ideais democráticos.
A protagonista principal de “Coded Bias” é Joy Buolamwini, uma mulher negra norte-americana que descobre que o software de reconhecimento facial não consegue ver seu rosto. É uma revelação para ela, e para muitos membros do público, eu imagino. Essa foi a sua experiência?
Sim, com certeza. E o que é meio louco é que, mesmo enquanto fazia o filme, eu tive a experiência de ficar ao lado de Joy e o software ver meu rosto e não o dela. Foi [uma experiência] realmente desumanizadora. Você percebe cada vez mais que esses algoritmos são apenas um reflexo de nossa história. E assim como precisamos de verificações conscientes de nossos próprios preconceitos, o software de reconhecimento facial também precisa. Como seres humanos, vemos mais distinção nos rostos das pessoas de nossa própria raça, e nossa empatia também é tribal. Em uma sociedade civilizada, controlamos isso e encorajamos comportamentos que criam empatia com pessoas radicalmente diferentes de nós. Para mim, essa é a beleza do filme – o fato de que pode nos ajudar a construir empatia com pessoas que têm experiências radicalmente diferentes das nossas.
Outra voz de destaque no filme é Cathy O’Neil, autora do livro “Weapons of Math Destruction”. Ela fala sobre a assimetria de poder entre as empresas de tecnologia que implantam algoritmos e as pessoas impactadas por eles. Qual é a solução para esse desequilíbrio de poder e falta de responsabilidade?
Leis. Em “Coded Bias”, exploramos três abordagens nacionais diferentes para proteção de dados. Na China, o governo tem acesso autoritário e irrestrito aos dados. No Reino Unido e na Europa, o GDPR [Regulamento geral de proteção de dados] fornece uma estrutura para situar os direitos de dados como direitos humanos, embora precise de aplicação. E nos Estados Unidos, vivemos no oeste selvagem. Somos o lar dessas empresas de tecnologia, mas ainda não temos regulamentações significativas. Sem dúvida, existem mais leis que governam meu comportamento como cineasta independente tentando transmitir meu filme no canal público (PBS) do que governam o Facebook, onde um bilhão de pessoas vão buscar suas informações e discurso político. Portanto, realmente temos que começar a reprimir e dizer que quando empresas como o Facebook se comportam de maneiras que não são democráticas, quando se recusam a impor padrões de precisão e verdade ao discurso político em meio a eleições apertadas, isso é imperdoável e não deveria ser permitido que aconteça. É preciso haver diretrizes sobre verdade e transparência e leis que equilibrem o poder que as Big Techs têm.
Parafraseando o [historiador e autor] Yuval Harari, quem possui os dados é a entidade mais poderosa e tem o maior poder de impactar os destinos humanos. Fazer essa mudança de poder tem que começar com o compartilhamento do conhecimento que agora está concentrado em lugares como MIT e Stanford. Este filme tenta fazer isso de uma forma divertida e palpável, para ajudar as pessoas a compreender conceitos complexos. E eu espero que o filme conecte a ciência ao motivo pelo qual é importante – nas comunidades em que isso é mais importante.
No filme, o sociólogo Zeynep Tufekci descreve um experimento do Facebook que mostrou duas versões diferentes de um anúncio para votar para milhões de pessoas. Daqueles que viram uma versão que incluía miniaturas de amigos que votaram, aproximadamente 300 mil mais votaram de fato. Tufekci conclui que “Com um toque muito leve, o Facebook pode mudar o resultado de uma eleição”. Você acha isso assustador?
O experimento do Facebook é preocupante porque “quebra” nossa noção de livre arbítrio. Cada vez mais, temos essa mão invisível definindo quem somos. Um algoritmo nos diz: “Acho que o próximo filme de que você vai gostar é este; o próximo livro na sua fila é este; e seu mecanismo de pesquisa sugere que você compre isso”. É a curadoria de seus dados anteriores, quem ele pensa que você é e quanto dinheiro avalia que você ganha e, em seguida, faz previsões sobre você. É com essa mão invisível de poder que estou preocupada. E estou vendo com a produção deste filme que mesmo as pessoas com a melhor das intenções podem causar danos não intencionais, que realmente impactam a vida das pessoas. Por isso, é mais importante do que nunca termos mais vozes falando sobre isso, mais verificações.
Na China, para ter acesso à internet, os cidadãos devem se submeter ao reconhecimento facial. Aqui usamos nossos rostos para destravar nossos smartphones. Estamos apenas um passo atrás da China?
Absolutamente. Empresas como a Clearview AI estão procurando nossos rostos na Internet. Estes são os nossos dados biométricos pessoais e não temos direitos sobre eles. Este deve ser o ponto em que traçamos um limite.
Eu acredito que temos que pensar sobre como isso está mudando nossa sociedade. A China tem uma pontuação de crédito social, que é basicamente um treinamento de obediência algorítmica, em que o governo comunista meio que te dá uma pontuação, e até mesmo a pontuação de seus amigos pode afetar a sua. Mas estamos fazendo algo diferente nos Estados Unidos, quando confiamos em alguém porque tem mais seguidores no Twitter ou curtidas no Facebook? Como estamos emprestando poder ou credibilidade a alguém? O que é popular nem sempre é o que é bom. E os algoritmos selecionam o que é popular, mas temos que selecionar com mais cuidado o que é bom.
Você acha que o público norte-americano vai acordar para os problemas descritos em “Coded Bias” e começar a responsabilizar as empresas de tecnologia e os governos?
Eu acho que já está acontecendo. Há uma mudança radical quando a Amazon disse em junho que iria colocar uma pausa de um ano no uso policial de sua tecnologia de reconhecimento facial, e a IBM e a Microsoft disseram que iriam parar a venda de software de reconhecimento facial para a polícia. Essa é uma mudança radical que nunca pensei ser possível quando comecei a fazer este filme, e foi provocada por duas coisas: uma é a pesquisa matadora e as mulheres corajosas em meu filme – Joy Buolamwini, Timnit Gebru e Deborah Raji – e outras como elas, que provou que essa tecnologia é racialmente preconceituosa. E a outra são as pessoas que foram às ruas e fizeram a ligação entre o valor da vida de pessoas negras e a necessidade de uma moratória do reconhecimento facial.
Precisamos de um FDA para tecnologia, como Cathy O’Neil diz no filme?
Eu concordo com Cathy O’Neil nisso. Todas essas tecnologias estão sendo implantadas muito rapidamente e podem causar muitos danos em uma escala massiva. O reconhecimento facial é o exemplo mais evidente de como os algoritmos poderiam corroer os direitos civis em grande escala. Mas os algoritmos também estão propagando preconceitos de maneiras que não vemos e afetando coisas pelas quais lutamos, como moradia justa e contratação justa, e outras coisas que valorizamos em uma sociedade civilizada. Precisamos entender esses algoritmos e controlá-los.
Ter um FDA não significa que eu não gosto de comida. Significa que quero ter certeza de que os alimentos são seguros, que não prejudicam as pessoas involuntariamente, que temos certos padrões de qualidade que meu país está estabelecendo para minha saúde e segurança e com os quais podemos contar como cidadãos em uma democracia. Não deveríamos ter que verificar os termos e condições dessas plataformas de tecnologia para ter certeza de que não violam nossos direitos civis, especialmente considerando que somos cada vez mais obrigados a usá-los para participar na sociedade. Um FDA para tecnologia poderia cuidar disso para nós.
40 livros, filmes, séries para mergulhar em algoritmos
Houve um tempo em que mundos distópicos eram só possíveis em livros e filmes de ficção científica. No entanto, no mundo real de 2021, a inteligência artificial e o poder dos algoritmos podem fazer a ficção virar realidade. Portanto, voltar aos livros e filmes para refletir sobre o que podemos fazer para evitar a distopia é um bom exercício para antecipar e evitar futuros não desejáveis.
É preciso encarar a realidade de que o algoritmo possui viés, é controlado por grandes empresas e cria uma rede invisível de vigilância com a coleta ininterrupta de dados pessoais. Compreender a relação que está sendo construída entre os humanos e a inteligência artificial é urgente e, talvez, a única forma de mitigar os usos incorretos da tecnologia.
A verdade é que não sabemos direito ainda se vamos chegar ao mundo do “Eu, Robô”, em que as máquinas se voltam ativamente contra os humanos, nem temos garantia de que o uso da inteligência artificial poderá reduzir a desigualdade e melhorar as condições de emprego, como propõe Kai-Fu Lee. Mas é certo que é preciso achar um caminho para garantir o uso positivo e ético da IA. Para dar contexto e inspirar essa reflexão, a The Shift separou 40 livros, filmes, séries, documentários e palestras do TED Talks.
LIVROS
Algoritmos de Destruição em Massa – Os algoritmos regulam os seres humanos ao influenciarem as decisões sobre a vida de cada um. Apesar do ato de julgar a todos com base em um modelo parecer justo, a autora alerta que o processo pode aumentar as desigualdades. O maior problema é que os algoritmos são pouco transparentes e incontestáveis mesmo quando errados.
Autor: Cathy O’Neil
Preço: R$ 43 (capa comum)
Algoritmos para viver: A ciência exata das decisões humanas – Os algoritmos são parte das nossas vidas mas, assim como os humanos, os computadores possuem limites na resolução de problemas. No processo de mostrar como otimizar tarefas, os autores abordam o funcionamento da mente, das emoções e do comportamento humano.
Autores: Brian Christian e Tom Griffiths
Preço: R$ 39,90 (Kindle) e R$ 49,89 (capa comum)
Vida 3.0: O ser humano na era da inteligência artificial – A Inteligência Artificial transforma diversos aspectos da vida. Em uma descrição do desenvolvimento dessa tecnologia, o autor aponta como a IA tem as ferramentas para superar a inteligência humana e moldar o futuro. O livro nos faz pensar sobre o caminho que estamos trilhando e como superar as dificuldades criadas por essa nova realidade.
Autor: Max Tegmark
Preço: R$ 35,81 (Kindle) e R$ 37,70 (capa comum)
Superinteligência: Caminhos, perigos, estratégias – Se os humanos estão em uma posição de poder frente a outros seres vivos graças a maior capacidade cerebral, a possibilidade das máquinas superem a inteligência humana implica em vários riscos a nossa hegemonia. O desafio é criar barreiras para as máquinas superinteligentes. Para enfrentar esse novo mundo, o autor nos conduz às fronteiras do pensamento sobre a condição humana e o futuro da vida inteligente.
Autor: Nick Bostrom
Preço: R$ 40,41 (Kindle) e R$ 44,90 (capa comum)
Os Nove Titãs Da IA: Como os gigantes da tecnologia e suas máquinas pensantes podem subverter a humanidade – Entregamos nossos dados para a inteligência artificial sem muito controle sob essa tecnologia. O poder nessa rede está com as grandes empresas de tecnologia chamadas de 9 titãs da IA, que não fomentam um sistema transparente e modificam o futuro da sociedade. O livro revela as formas que os princípios básicos da IA são subvertidos. A evolução das máquinas pode criar ações imprevisíveis e que desafiam a lógica humana.
Autor: Amy Webb
Preço: R$ 46,45 (Kindle) e R$ 48,90 (capa comum)
Inteligência artificial – Por vezes, os benefícios da IA são deixados de lado, mas Kai-Fu Lee quer dar uma perspectiva mais abrangente dos impactos do desenvolvimento sem precedentes dessa tecnologia. Do ponto de vista do trabalho, o autor acredita que a inteligência artificial vai mudar a forma como as atividades serão realizadas. A visão segue na linha da análise de como a tecnologia poderia ser utilizada para resolver problemas que assolam a sociedade, como a miséria e a desigualdade.
Autor: Kai-Fu Lee
Preço: R$ 29,90 (Kindle e capa comum)
A Era do Capitalismo de Vigilância – Vivemos uma nova fase do capitalismo, na qual cada ser humano é uma fonte inesgotável de dados que fomentam o lucro de empresas com práticas comerciais dissimuladas de extração, previsão e vendas. Para a autora, está sendo construída uma forma de poder inédita com base em uma extrema concentração de conhecimento que não passa pela supervisão da democracia. O pior é que ainda existe pouca resistência do ponto de vista legal e da sociedade contra essas práticas que podem dominar a ordem social e moldar o futuro digital.
Autor: Shoshana Zuboff
Preço: R$ 62,91 (Kindle) e R$ 66,60 (capa comum)
Dominados pelos números – Sem entender o que a matemática é ou não capaz de fazer, torna-se impossível compreender como os algoritmos estão mudando tudo a nosso redor. E essa é a proposta do livro do inglês David Sumpter, que atualmente é professor de matemática aplicada na Universidade de Uppsala, Suécia. Sumpter quer garantir que todos, para além da academia, entendam como a matemática e a estatística podem controlar nossas vidas. Sua pesquisa científica cobre tudo, desde o funcionamento interno de cardumes de peixes e colônias de formigas, à análise das redes de passagem de times de futebol, e à segregação na sociedade por conta do aprendizado de máquina e inteligência artificial.
Autor: David Sumpter
Preço: R$ 40,41 (Kindle), R$ 29,80 (capa comum)
The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind – A complexidade da mente é destrinchada no livro. Para o autor, compreender a mente humana como um processo formado por passos é o ponto chave para permitir a construção de máquinas com inteligência artificial capazes não só de apoiar o pensamento humano ao raciocinar como nós, mas ter a mesma consciência que uma pessoa.
Autor: Marvin Minsky
Preço: R$ 88,83 (Kindle), R$163,97 (capa comum)
FILMES
Ex-Machina: Instinto Artificial – Ava é um robô com inteligência artificial desenvolvido pelo presidente da companhia onde trabalha o jovem programador Caleb. Na casa do seu chefe, Nathan, o funcionário participa do teste dessa máquina inteligente. A sofisticação da máquina se mostra mais alta do que se esperava, o que cria um conflito de confiança em Caleb, que está isolado na residência de Nathan. Direção: Alex Garland. Duração: 106 minutos. Disponível no Telecine Play e Google Play
A.I. Artificial Intelligence – Em uma Terra pós-apocalíptica, é criado um robô capaz de amar como os humanos. Projeto piloto dessa nova invenção, Daniel é adotado por uma família que sofre com a doença do seu filho biológico. O filme analisa o poder de aprendizado das máquinas, o que fica claro por meio das habilidades humanas que o robô ganha à medida que convive com seus pais. Direção: Steven Spielberg. Duração: 141 minutos. Disponível na Apple TV e Telecine Play
Eu, Robô – No ano 2035, o uso de robôs para a assistência dos humanos é algo corriqueiro. A priori, todas as máquinas seguem uma lei que impede ações contra as pessoas. Entretanto, a investigação da morte do Dr. Alfred Lanning aponta que as máquinas inteligentes podem ter quebrado essas normas, o que abre espaço para a dominação dos humanos pelos robôs. Por isso,o detetive Del Spooner e a Dra. Susan Calvin tentam descobrir o culpado pelo óbito. Direção: Alex Proyas. Duração: 109 minutos. Disponível no Telecine Play
Chappie – Robôs inteligentes substituem os humanos nas forças policiais. O criador dessas máquinas tem o sonho de instalar emoções nas suas criações, o que ele testa com um modelo defeituoso. A ideia dá certo, então, começa a jornada de Chappie para criar uma identidade e manter sua existência. Direção: Neill Blomkamp. Duração: 2h. Disponível na Netflix
Her – Um sistema operacional com inteligência artificial oferece companhia às pessoas. A relação entre os seres humanos e os algoritmos se estreita ao passo em que a máquina evolui a um ponto quase humano com base nas respostas dadas pelos seus donos. Isso faz com que um escritor deprimido e com o coração partido se apaixone pela sua nova acompanhante virtual. Direção: Spike Jonze. Duração: 2h 6min. Disponível no Amazon Prime Video e Globo Play
Kronos: O Fim da Humanidade? – Ao criar o Kronos, a ideia do CEO da VA Industries, a maior empresa de robótica do mundo, era utilizar o supercomputador com inteligência artificial para acabar com todas as guerras. A máquina analisa que os seres humanos são a maior ameaça à paz e se volta contra seus desenvolvedores ao desencadear um ataque mundial robótico. Anos depois, apenas um pequeno grupo de sobreviventes devem fugir dos robôs. Direção: Robert Kouba. Duração: 92 minutos.
Disponível no Google Play
Minority Report – A Nova Lei – Em 2054, um sistema baseado em visões aponta futuros os crimes com precisão, o que zera a taxa de assassinatos. Antes mesmo do ato ilegal ocorrer, a polícia age para evitá-lo. Entretanto, o método começa a ser questionado quando o detetive John Anderton, um dos principais agentes no combate ao crime, descobre que ele apareceu como assassino em uma das previsões. Direção: Steven Spielberg. Duração: 2h25. Disponível na Netflix, Amazon Prime Video, Telecine Play e Google Play
Algoritmo – Para controlar possíveis pessoas subversivas, um governo totalitário do futuro utiliza um algoritmo capaz de investigar a vida digital dos cidadãos, roubar dados e definir alertas de quem pode desviar do caminho. Com isso, algumas pessoas começam a sumir de forma misteriosa. Nesse processo, uma estudante de veterinária de 18 anos chamada Nicole é investigada pelo Algoritmo. Direção: Thiago Foresti. Duração: 20 minutos. Disponível no Vimeo
DOCUMENTÁRIOS
Algorithms rule us all – A partir da análise de dados pessoais, os algoritmos têm o poder de tomar decisões sobre a vida das pessoas. A remoção da análise humana pode nos fazer dependentes das decisões dos algoritmos, mesmo aquelas que estão erradas ou possuem viés. O documentário analisa a sociedade em que humanos são guiados por códigos de computadores e Big Data. Direção: Martijn Kieft. Duração: 45 minutos. Disponível no YouTube
Privacidade hackeada – Baseado no escandaloso uso de dados protagonizado pelo Facebook e a Cambridge Analytica, o documentário mostra o poder de coleta de informações nas redes sociais, no qual os usuários viram a matéria-prima para o mercado de previsões. Os efeitos desse trabalho podem impactar a democracia, como ocorreu na eleição presidencial dos Estados Unidos em 2016. Direção: Karim Amer e Jehane Noujaim. Duração: 1h54. Disponível na Netflix
O Dilema das Redes – As redes sociais impactam a democracia e a humanidade por meio da evolução de mecanismos de controle e comunicação. A dinâmica das redes cria espaços de ódio e propagação de notícias falsas, além de reduzir a autoestima. Todo esse cenário só é aprofundado pela ausência de regulamentação para as Big Techs.
Direção: Jeff Orlowski. Duração: 1h34. Disponível na Netflix
Coded Bias – O título do documentário entrega a discussão proposta pela obra: os impactos dos vieses que integram os algoritmos. Para além de sugerir compras, esse mecanismo tem o poder de restringir as possibilidades e cercear liberdades com base em uma análise automática, mas nem um pouco neutra. A obra tem como base o trabalho da pesquisadora Joy Buolamwini, que descobriu que as tecnologias de reconhecimento facial não detectavam rostos negros e diferentes estruturas faciais. Direção: Shalini Kantayya. Duração: 1h25. Disponível na Netflix
AlphaGo – A incrível capacidade de aprendizado e uso da lógica da inteligência artificial é evidenciada no documentário AlphaGo. A obra retrata o torneio de 2016 entre o algoritmo e o sul-coreano Lee Sedol, que era o campeão mundial do jogo de tabuleiro. No fim, a máquina vence o humano provando os potenciais do uso dessa tecnologia.
Direção: Greg Kohs. Duração: 1h30. Disponível no YouTube
Os seres humanos não precisam se inscrever – O uso de inteligência artificial e automação no sistema de produção vai afetar o mercado de trabalho e trazer uma revolução econômica. A prerrogativa é que assim como as máquinas que realizam trabalhos pesados reduziram a necessidade de esforço físico humano, os dispositivos inteligentes vão reduzir a demanda pelo cérebro humano. Direção: CGP Grey. Duração: 15 minutos. Disponível no YouTube
This is A.I. – A proposta do documentário do Discovery Channel é responder as dúvidas sobre a inteligência artificial em uma abordagem para além das promessas apocalípticas ou utópicas do uso dessa ferramenta. Em 4 partes, a obra aponta como a IA está transformando o mundo, quais sãos os cientistas aplicados nesse processo e como as vidas são modificadas por essa nova tecnologia. Direção: Tonje Hessen Schei. Duração: 86 minutos. Disponível no YouTube
Shoshana Zuboff em Capitalismo de Vigilância – No documentário, Shoshana Zuboff mostra o funcionamento do Google e do Facebook e revela a forma impiedosa um capitalismo no qual o cidadão é a matéria-prima. O uso de dados residuais permite prever o comportamento do usuário da Internet, o que cria um modelo de negócios novo e rentável: “capitalismo de vigilância”. Direção: Roland Duong. Duração: 49 minutos e 59 segundos. Disponível no YouTube
TED Talks
Como eu estou lutando contra o viés nos algoritmos – O viés do algoritmo cria uma injustiça que pode se espalhar em uma escala gigantesca rapidamente. Essa inclinação pode gerar experiências excludentes e práticas discriminatórias. Esses problemas ficaram óbvios para a pesquisadora Joy Buolamwini no momento em que ela percebeu que um software de reconhecimento facial não detectava seu rosto porque os seus desenvolvedores não ensinaram o algoritmo a identificar uma grande gama de cores de pele e estruturas faciais. Agora, Buolamwini está lutando contra o viés no machine learning.
Palestrante: Joy Buolamwini
Inteligência de máquina torna a moral humana mais importante – Em um tom de aviso, Zeynep Tufekci explica como as máquinas de inteligência artificial podem falhar de formas que não se encaixam nos padrões de erro humanos e de maneiras que as pessoas não esperam ou não estão preparadas. Os riscos de não compreender e perder o controle da IA só aumentam com o ganho de complexidade dessa tecnologia. Por isso, cada vez mais é preciso se apegar aos valores e à ética humana.
Palestrante: Zeynep Tufekci
Nós podemos construir IA sem perder o controle sobre ela? – O neurocientista e filósofo Sam Harris acredita que é preciso ter medo da inteligência artificial superinteligente, especialmente, porque já estamos caminhando para a criação de máquinas mais inteligentes que nós. Mesmo assim, ainda não conseguimos barrar os problemas associados à criação de algo que pode fugir do nosso controle.
Palestrante: Sam Harris
O que acontece quando nossos computadores ficam mais inteligentes do que nós? – “A inteligência das máquinas é a última invenção que a humanidade vai precisar fazer”, com essa frase, o filósofo e tecnologista Nick Bostrom deixa claro a capacidade dos dispositivos com inteligência artificial para ultrapassar as capacidades humanas. O momento deve ser de reflexão para entendermos se as máquinas inteligentes vão ajudar a preservar a humanidade e seus valores ou terão valores próprios.
Palestrante: Nick Bostrom
As maravilhosas e aterrorizantes implicações dos computadores que podem aprender – Uma ferramenta de Deep Learning aprendeu sozinha o conceito de gatos ao assistir horas vídeos de YouTube. Essa é apenas uma pequena parte das possibilidades criadas pelas máquinas com a capacidade de aprendizado profundo. Esses computadores podem auxiliar em diagnósticos médicos. A palestra busca atualizar o espectador sobre as evoluções desse campo que vai mudar a forma como os computadores se comportam.
Palestrante: Jeremy Howard
Como a inteligência artificial está facilitando o diagnóstico de doenças – Atualmente, os algoritmos de IA precisam analisar milhares de imagens médicas para fazer um diagnóstico. O TED Fellow Pratik Shah desenvolveu uma tecnologia que requer apenas 50 fotos para desenvolver um algoritmo funcionante. Nessa palestra, ele conta como essa melhoria pode detectar doenças perigosas em fase inicial e ampliar o uso dessa tecnologia para mais centros de saúde.
Palestrante: Pratik Shah
Como decifrei o sistema dos sites de namoro – Nenhum encontro de Amy Webb com pessoas de sites de relacionamento dava certo até que ela resolveu mudar a forma de usar a plataforma. Ao invés de apenas preencher os dados, ela desenvolveu uma planilha para entender como se destacar nesse ambiente. Assim, ela conheceu o seu marido.
Palestrante: Amy Webb
Como algoritmos moldam nosso mundo – Somos dependentes dos algoritmos em diversos aspectos de nossas vidas. Essa palestra visa mostrar como esses mecanismos moldam o mundo. Ao explicar esse processo, Kevin Slavin questiona o que pode acontecer quando começarmos a perder o controle desses modelos complexos que gerenciam nossas decisões.
Palestrante: Kevin Slavin
SÉRIES
Onisciente – Os moradores de uma cidade são constantemente vigiados por um drone com a premissa de erradicar o crime no local. O dispositivo é capaz de prever quando um dos vigiados está prestes a cometer uma ilegalidade. Mesmo assim, o pai de Nina foi morto, o que faz com que a ela lute para desvendar o motivo por trás do óbito.
Duração: 1 temporada com 6 episódios de até 51 minutos. Disponível na Netflix
Black Mirror, episódio Rachel, Jack e Ashley Too – A diva pop Ashley lança a boneca robótica Ashley Too, uma máquina que utiliza inteligência artificial e é capaz de replicar a personalidade e voz da artista. O aparelho vira febre entre os fãs da cantora, entretanto, erros no funcionamento do dispositivo apontam que Ashley está passando por problemas. Duração: 67 minutos. Disponível na Netflix
Black Mirror, episódio Natal – O episódio visita 3 histórias sobre descontrole tecnológico. Uma história traz o uso de um conselheiro amoroso à distância que utiliza imagens e dados espalhados nas redes sociais para ajudar a conquistar as pessoas. A 2ª tecnologia aborda um chip cerebral capaz de criar um clone para realizar tarefas. O terceiro ponto relata a possibilidade de bloquear as pessoas na vida real. Duração: 73 minutos. Disponível na Netflix
The Age of A.I. – As mudanças promovidas pela IA são desvendadas nesta série documental apresentada por Robert Downey Jr. Com a ajuda de celebridades e de especialistas, o espectador aprende sobre os potenciais dessa tecnologia. Um exemplo é o relato do músico Will.i.am sobre a empresa Soul Machines, que cria perfis digitais autônomos dos usuários. Duração: 8 episódios de até 46 minutos. Disponível no YouTube
Westworld – Um parque no estilo velho oeste possui anfitriões robôs para criarem uma experiência aos seres humanos. Os andróides são programados para acreditarem que são pessoas e vivem no mundo real, já os visitantes podem fazer o que quiserem no espaço, sem obedecer a leis. Um erro na atualização do sistema desperta as máquinas para a consciência artificial e a evolução do pecado. Duração: 3 temporadas com episódios cada de até 90 minutos. Disponível na HBO GO
Pessoa de Interesse – Seguindo a linha das séries policiais, a trama aborda o uso de software para identificar e deter pessoas envolvidas em futuros crimes. Chamado de “A Máquina”, o programa embasa a atuação do ex-agente da CIA, John Reese e de Finch, um milionário e gênio da tecnologia. Duração: 5 temporadas com até 23 episódios de até 44 minutos cada. Disponível na Globo Play
The feed – Um implante no cérebro permite que as pessoas compartilhem informações, emoções, memórias e chamadas instantaneamente, além de possibilitar a alteração da percepção do mundo com um comando mental. Chamada de The Feed, a tecnologia trouxe complicações quando um grupo de hackers começa criar assassinos ao controlar a mente dos usuários. Duração: 1 temporada com 10 episódios de até 57 minutos. Disponível no Amazon Prime Video M.H.