The Shift

Temor ou cuidado? Qual deve ser a nosso sentimento diante da IA?

Sem saber que práticas discriminatórias estão em jogo, não conseguiremos resguardar direitos ou identificar violações

“Toda tecnologia é neutra”.

Bom, já sabemos que não é bem assim.

“O uso excessivo da IA criará um mundo distópico”.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Talvez, se deixarmos.

“Devemos temer a tecnologia”.

Talvez, também.

“Precisamos ter cuidado com mau o uso da IA”.

Certamente.

Os medos da IA parecem originar-se de algumas causas comuns: ansiedade geral sobre a inteligência da máquina, o medo do desemprego em massa, preocupações com a superinteligência, colocar o poder da IA nas mãos de pessoas erradas e preocupação e cautela gerais quando se trata às novas tecnologias, incluindo aí o viés algorítmico.

Um tema recorrente em filmes e livros de ficção científica são os sistemas de IA que se tornam desonestos – pense em HAL de 2001: Uma Odisséia no Espaço ou a série de filmes Terminator. As pessoas não gostam de máquinas que ficam muito inteligentes, porque tememos não poder controlá-las. No entanto, assim como temos exemplos de HAL e Terminator, também temos exemplos como C3PO e os computadores de Star Trek. Esses são sistemas altamente inteligentes que estão sob o controle dos humanos. O futuro poderia ser tão grande e benigno quanto Star Trek se tivéssemos essa perspectiva sobre as possibilidades das máquinas inteligentes.

Particularmente, acredito que o pior que pode nos acontecer é a rejeição, a repulsa provocada pelo medo do que, potencialmente, a IA e os algoritmos são capazes. Não só porque por ser um freio indesejado à inovação, mas porque em nada contribuiria para garantir o melhor funcionamento da tecnologia para todos.

Muitas mentes brilhantes não temem a IA, mas se preocupam em garantir que façamos bom uso da tecnologia. Um uso adequado, responsável e ético.

A Ciência da Computação evoluiu bastante desde que HAL surgiu no cinema, e se o Dr. Chandra, seu inventor, estivesse aqui hoje, ele certamente teria um monte de perguntas sobre como garantir que a IA possa, de fato, ser serendipidade, como afirma Kei-Fu Lee, e consiga salvar a nossa humanidade.

Kai-Fu Lee é hoje um dos principais nomes em inteligência artificial. É conhecido pelo seu livro “As Superpotências da IA” e se prepara para lançar, em parceria com Chen Quiufan, “AI 2041: Ten Visions for Our Futur“. Mas tem uma opinião um tanto otimista e utópica de como a IA irá mudar radicalmente o mundo: “nos libertar de ter de fazer os trabalhos rotineiros, para que sejamos capazes de nos concentrar nas coisas emocionantes, divertidas e apaixonantes, que, afinal, são as razões pelas quais viemos a esta terra”.

Razão. Está aí algo que realmente move a humanidade em direção à evolução e às novas descobertas. Precisamos de mais razão aos tratarmos a IA. Entre as narrativas apocalípticas e utópicas, precisaremos apostar no bom senso e nos agarrarmos firmemente aos valores e à ética humanos para aproveitar os benefícios da tecnologia, como advoga Fei-Fei Li, co-diretora e especialista em visão computacional do Institute for Human-Centered AI (HAI) de Stanford que, aliás, acaba de realizar a conferência “Intelligence Augmentation: AI Empowering People to Solve Global Challenges“.

Em debate recente com a diretora do documentário” Coded Bias“,  Shalini Kantayya, Fei-Fei Li reconhece que há, de fato, muitos riscos no uso do reconhecimento facial impulsionado unicamente por imperativos de poder e lucro. Mas a tecnologia de FRT também tem usos nobres, como a detecção precoce de um AVC, ou do nível de dor que um paciente esteja sentindo.  Os sistemas mais modernos já dectectam emoções. Por isso, é imperativo, fazer com pesquisadores, cientistas de dados e empresas privadas estejam atentos às violações de direitos como privacidade e equidade e justiça no uso dos algoritmos.

“Nossas pegadas digitais estão por toda parte, tornando-se parte de poderosos sistemas de comercialização ou a vigilância. Como cientista preciso reconhecer minha falta de experiência e formação em pensar sobre esses  profundos problemas”,  admite Fei-Fei. “O que o Stanford HAI está fazendo é criar uma plataforma multi-stakeholder para promover conversas sobre como colocar limites para o uso da tecnologia, colocando os seres humanos no centro de toda concepção e do desenvolvimento da tecnologia”.

Será possível criarmos sistemas que tenham princípios éticos e morais? Eis aí uma pergunta que precisamos ressponder, com certa urgência, uma vez que os algoritmos estão ficando mais poderoso, e também menos transparente e mais complexos. E que corrigir vieses algorítmicos contribuiria muito para promover justiça e equidade. Questões como explicabilidade da IA, ética da IA, humanização da IA, governança de dados, proteção de dados pessoais, regulação da IA estão na agenda do dia. Mas talvez a resposta seja mais simples.

Na opinião da techno-sociologist Zeynep Tufekci para superar o nosso medo da IA, e usufruir dos seus benefícios, vamos ter de nos agarrar firmemente aos nossos valores.

“Precisamos aceitar que trazer a matemática e a computação para negócios humanos confusos, envolvendo julgamento de valor, não traz objetividade; mas que, ao contrário, a complexidade dos negócios humanos invade os algoritmos”, afirma ela nessa palestra abaixo, no TED, ainda atual, apesar da data. “Podemos e devemos usar a computação para nos ajudar a tomar decisões melhores. Mas temos de reconhecer nossa responsabilidade moral para julgar, e usar os algoritmos dentro desse espectro, não como uma forma de abdicar de nossas responsabilidades ou terceirizá-las para a tecnologia”.

Em 2011 , Tufekci foi contra a corrente ao dizer que o caso do Twitter como impulsionador de amplos movimentos sociais foi simplificado demais. Em 2013 , ela argumentou que o Facebook poderia alimentar a limpeza étnica. Em 2017, ela alertou que o algoritmo de recomendação do YouTube poderia ser usado como uma ferramenta de radicalização. Em 2019 ela foi uma das primeiras vozes a alertar para a falta de transparência criada pelos proprietários dos algoritmos, o desafio estrutural da opacidade do aprendizado de máquina, e de todos esses dados sendo coletados sobre nós indiscriminadamente.

“Temos uma tarefa enorme diante de nós. Temos que mobilizar nossa criatividade e, sim, nossos políticos, para que incentivem a criação de uma inteligência artificial que dê suporte a nossos objetivos humanos, e seja limitada por valores humanos”, afirmou ela mais recentemente, também no palco do TED.

“Reúna uma equipe de leitura, coloque as pessoas na sala, onde quer que você esteja trabalhando, patra pensarem  sobre o que pode dar errado”, disse ela, durante a conferência Next da Hitachi Vantara em Las Vegas, EUA, também em 2019. “Porque pensar sobre o que pode dar errado antes que aconteça é a melhor maneira de ter certeza de que não vai acontecer.”

Hoje algoritmos podem determinar se devem fornecer um empréstimo, qual é o risco do seguro e quão bom é o funcionário. Mas existe um grande problema. As pessoas não entendem mais como os algoritmos tomam suas decisões. Outra questão importante é a ampla capacidade de monitoramento de IA. A cidade de Rongcheng, na China, já usa o “sistema de crédito social” apoiado pela Inteligência Artificial para monitorar e avaliar os cidadãos.

Que solução pode ser deixada para o algoritmo?

Criar um sistema inteligente, cognitivo, é fundamentalmente diferente de criar um sistema complexo e tradicional do passado. Não o programamos, somente. O ensinamos. Para que um sistema reconheça flores, mostramos a eles milhares de flores. Para ensinar um sistema a jogar “Go”, fazemos com que jogue várias vezes, o ensinando a diferenciar um jogo bom de um jogo ruim. Portanto, estamos ensinando ao sistema os nossos valores. E como nossos filhos, muitos desses sistemas já começam a ser capazes de fazer correlações e aprender sozinhos, sem que os tenhamos ensinado. O que não significa que não necessitem de nossa supervisão.

E é aí que outro dilema surge:  Deve-se ter limites humanos (não tecnológicos) para a adoção da automação por sistemas de inteligência artificial?

Muitos analistas creem que sim, embora admitam que exigir a supervisão humana de toda e qualquer decisão por sistema de IA também possa frear demais a inovação. De novo, teremos que usar o bom senso.

Há quem defenda auditorias e ajustes periódicos. Algo que já deveria fazer parte da rotina de qualquer empresa que esteja aplicando IA em seus negócios.  Outros acreditam que além de melhorar o código, o modelo ou os algoritmos, também será preciso ser mais eficaz no uso dos dados. Ser mais criterioso quanto à natureza e a qualidade dos dados. O excesso pode ser tão nocivo ao Machine Learning quanto a falta de dados.

Muitos dos vieses algoritmicos não são propositais, mas oriundos das bases e dos tipos de dados que os algoritmos usam. A maioria dos algoritmos é treinada em pontos de dados históricos (como decisões anteriores de contratação de uma empresa) são suscetíveis a aprender e perpetuar os preconceitos existentes. Construir tais algoritmos pode ser tanto uma arte quanto uma ciência. A escolha dos modelos matemáticos e dos dados devem ser cuidadosamente analisados e selecionados para minimizar as possibilidades de vieses nocivos.

No setor financeiro, por exemplo, as agências reguladoras das instituições financeiras federais americanas emitiram uma Solicitação de Informações e Comentários (RFI) em 31 de março de 2021, para entender melhor como a inteligência artificial (IA) e o aprendizado de máquina (ML) são usados ​​no setor de serviços financeiros e identificar as áreas onde “esclarecimentos” adicionais. Um dos itens cobertos é justamente “qualidade, processamento e uso de dados“.

O Fórum Econômico Mundial também acaba de realizar o seu “Global Technology Governance Summit (GTGS)“, encontro multissetorial dedicado a garantir o design e a implantação responsáveis de tecnologias emergentes, como a IA, onde a governança de dados foi um dos eixos mais relevante.

Mas atenção: também não dá para olhar para os algoritmos de IA somente à luz da privacidade. A IA vai muito além. Até as  principais leis de proteção de dados da União Europeia andam precisando de uma revisão robusta para um mundo pós-Covid, de acordo com o membro do Parlamento Europeu que elaborou as medidas. As atualizações devem levar em conta não apenas uma mudança global para trabalhar em casa, mas também uma infinidade de tecnologias emergentes, como reconhecimento facial e de voz.

“Uma IA pode ser mais correta do que um humano, que tem vieses mil, para 90% dos casos, mas o sistema que utiliza a IA  tem que ser capaz de identificar quando um humano vai ser necessário para um caso em particular. Fazer essa ponderação errada não é culpa da IA, mas que quem desenhou o sistema, e essa decisão pode causar problemas éticos e de erros, não o algoritmo ou a IA”, comenta Gustavo Zaniboni, fundador e CTO da iRespect.online.

Estamos em uma jornada incrível de coevolução com nossas máquinas. E teremos outras questões para responder que, possivelmente, vão derivar do impacto da IA nas nossas vidas.  Como organizar a sociedade quando a demanda por trabalho humano diminuir? Como disseminar entendimento e educação por todo o planeta sem desrespeitar nossas diferenças? Como prolongar e melhorar a vida usufruindo a IA na área de saúde?

As oportunidades de usar a computação para ampliar a experiência humana, com responsabilidade, estão ao nosso alcance, aqui e agora. Estamos apenas começando.Isso deveria ser o mais empolgante.

O medo básico de a IA dominar o mundo e escravizar a humanidade repousa na ideia de que haverá consequências inesperadas, não intencionais. Sim, elas vão acontecer. E se serão boas ou ruins, depende do que faremos com elas. A penicilina foi uma consequência não intencional de um experimento de laboratório.

Existe uma contradição inerente entre nossos comportamentos e nossas opiniões quando se trata de aproveitar os benefícios da tecnologia e, ao mesmo tempo, culpar as pessoas que a fornecem. Nos preocupamos com a privacidade, mas não nos preocupamos com a permissões que damos aos aplicativos que usamos em nossos smartphones. Queremos ter livre arbítrio, mas seguimos passivamente as recomendações do Waze. Para a maioria de nós, a tecnologia tem autoridade absoluta. E esse á o maior dos perigos.

Precisamos ser mais críticos no uso cotidiano da tecnologia. Somos todos administradores do ecossistema de dados, em maior ou menor escala, e precisamos trabalhar todos juntos para garantir que seu crescimento seja ético, escalonável e seguro.

Imagine um mundo onde tanto uma criança de 10 anos quanto uma de 90 – e todas as outras pessoas – entendem como os dados que geram por meio de atividades digitais impactam e melhoram o mundo ao seu redor. No qual as pessoas não acham mais que compartilhar dados é arriscado porque têm total controle e transparência sobre como seus dados estão sendo usados. Bom, esse resultado só poderá ser alcançado com o desenvolvimento da confiança na economia baseada em dados, movida pelos algoritmos.