s
Crédito: Shutterstock
INTELIGÊNCIA ARTIFICIAL

Devemos criar um ‘Juramento de Hipócrates’ para a IA

A ideia da NeuroRights Initiative é a ter um Juramento Tecnocrático que incorpore os sete princípios amplamente utilizados nas diretrizes éticas da Inteligência Artificial

Por Cristina De Luca 16/06/2021

O Facebook e a IBM colaboram em um projeto que pede que empresários, pesquisadores, cientistas da computação e outros profissionais que trabalham com neurotecnologia e inteligência artificial se comprometam com princípios éticos, da mesma forma que os médicos devem se comprometer e seguir o Juramento Hipocrático.

A Neurorights Initiative, da Columbia University,  se propõe a proteger os Direitos Humanos e promover a inovação ética nos campos da neurotecnologia e da IA. Para isso propõe  a  criação do  "Juramento Tecnocrático", incluindo os sete princípios amplamente utilizados nas diretrizes éticas de IA.

  1. Não maleficência, ou seja, nenhuma intenção de causar danos com a tecnologia aplicada.
  2. Beneficência, intenção de contribuir para o bem comum com o trabalho realizado.
  3. Autonomia, que estabelece que nada pode ser feito sem o consentimento de quem está envolvido em qualquer situação que envolva IA e neurotecnologia.
  4. Justiça. Busca garantir que a aplicação da neurotecnologia gere resultados justos e imparciais, evitando, por exemplo, vieses algorítmicos.
  5. Dignidade. Em outras palavras, todas as pessoas devem ser tratadas com respeito e garantir sua integridade.
  6. Privacidade, que defende a eliminação de todas as informações confidenciais e identificáveis dos dados coletados pela tecnologia.
  7. Transparência, cujo objetivo é garantir que os algoritmos usados sejam tão transparentes e corrigíveis quanto possível.

Inicialmente, a ideia é que o "Juramento Tecnocrático" comece como algo voluntário, de modo a conduzir a práticas responsáveis ​​nas áreas onde é implementado.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Pricing: onde a IA gera ROI verificável

Inteligência Artificial

Pricing: onde a IA gera ROI verificável

Enquanto 90% das iniciativas de IA ainda não saíram do piloto, o pricing B2B já tem resultados no P&L

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Inteligência Artificial

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.

A realidade da IA em 2026, segundo Stanford

Inteligência Artificial

A realidade da IA em 2026, segundo Stanford

O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.