s

INTELIGÊNCIA ARTIFICIAL

Máquinas também precisam desaprender

Por conta das legislações de proteção de dados pessoias, pesquisadores estão testando se podem remover dados confidenciais dos sistemas de IA sem a necessidade de treiná-los de novo

Por Cristina Deluca 01/09/2021

Já ouviu falar em Machine Unlearning? É um área nascente da Ciência da Computação que busca maneiras de induzir amnésia seletiva em sistemas de Inteligência Artificial. Com as novas legislações de proteção de dados pessoais passamos a ter o direito de revogar a permissão de uso e solicitar que os dados sejam excluídos de praaticaamente todas as bases de tratamento, com raras execeções. O "desaprendizado de máquina" trata justamente da remoção de todos os vestígios de uma determinada pessoa ou ponto de dados de um sistema de aprendizado de máquina, sem afetar o seu desempenho.

Se tornado prático, o conceito pode dar às pessoas mais controle sobre seus dados e o valor derivado deles. Até o Facebook tem se dedicado a ele. Principalmente por saber bem que a simples remoção de uma amostra das unidades de armazenamento não remove necessariamente todo o seu traço, uma vez que os modelos de aprendizado de máquina downstream podem armazenar algumas informações sobre as amostras usadas para treiná-los.  Em outra palavras, é grande a possibilidade de o modelo ter memorizado os dados, colocando os usuários em risco de um ataque de privacidade bem-sucedido e o agente de tratamento em desconformidade com a lei.

Essa noção de amnésia artificial requer algumas novas ideias de como o desenvolvimento de algoritmos extremamente flexíveis, capazes de lidar com classes de modelos arbitrários e novas metodologias de treinamento, explica Aaron Roth, professor da Universidade da Pensilvânia, em um paper sobre Machine Unlearning publicado em junho, onde ele e outros pesquisadoress mostraam que é possível  fazer os algoritmos de aprendizado de máquina esquecerem, sob certas condições. Mas a técnica ainda não está pronta para uso corrente.

Conteúdo exclusivo para membros da The Shift

Aproveite a promoção e assine

A subespecificação está arruinando o desempenho dos modelos de Machine Learning

Inteligência Artificial

A subespecificação está arruinando o desempenho dos modelos de Mach...

O processo usado hoje para construir a maioria deles não pode dizer se funcionarão adequadamente no mundo real - e isso é um problema

Por Cristina De Luca
Algum dia a IA será completamente imparcial?

Inteligência Artificial

Algum dia a IA será completamente imparcial?

Tecnicamente, sim. Um sistema de IA pode ser tão bom quanto a qualidade de seus dados e o design de seus modelos. Por isso é tão importante neutralizar os vieses cognitivos dos algoritmos

Por Cristina De Luca
É hora de deixar a IA criar uma IA?

Inteligência Artificial

É hora de deixar a IA criar uma IA?

Um mundo em que a própria Inteligência Artificial (IA) é capaz de criar a si mesma? Esse mundo já chegou

Por Cristina De Luca
“Precisamos entender e controlar os algoritmos”

Inteligência Artificial

“Precisamos entender e controlar os algoritmos”

A cineasta Shalini Kantayya fala sobre o que aprendeu com o documentário “Coded Bias”, que explora os efeitos do viés algorítmico

Por Redação The Shift
IA Explicável também precisa ser ética

Inteligência Artificial

IA Explicável também precisa ser ética

Quanto mais deixamos a IA seguir por esse caminho pouco transparente, maior a probabilidade de chegarmos a lugares que não desejamos - e de onde talvez não tenhamos volta

Por Redação The Shift
Nem toda Inteligência Artificial requer milhões de dados

Inteligência Artificial

Nem toda Inteligência Artificial requer milhões de dados

Muitos pesquisadores sustentam que, na maioria das vezes, a IA se torna ainda mais inteligente e poderosa se tiver a capacidade de ser treinada com Small Data

Por Cristina De Luca