s
Crédito da foto: Brittany Hosea-Small
INTELIGÊNCIA ARTIFICIAL

Ética de IA: boas intenções são suficientes?

Na opinião do professor Stuart Russell, a única maneira de avançar é descobrir como tornar a segurança de IA uma condição para fazer negócios.

A história humana pode ser vista como uma série de tentativas de forjar um consenso ético. Em nosso mundo contemporâneo, os avanços da IA nos colocam novamente diante dessa necessidade. O futuro depende da nossa capacidade de alinhar o progresso tecnológico com a maturidade ética necessária para manejá-lo, alertam pesquisadores como Stuart Russell, professor de Ciência da Computação em Berkeley. Em seus livros e palestras, Russell costuma enfatizar a importância de garantirmos que os sistemas de IA permaneçam sob controle humano e sejam projetados para servir aos interesses humanos.

Na sua opinião, um caminho para isso é fazer com que o principal objetivo dos sistemas de IA seja a realização dos valores humanos, aprendidos por meio da observação e da interação com os humanos. “A IA deve aprender estudando todos os seres humanos, não apenas aqueles que possuem ou operam a IA”, orienta Russell. “Só uma abordagem ampla de aprendizado fará com que a IA compreenda a vasta gama de valores e preferências humanas e aprenda continuamente sobre o que é considerado benéfico ou prejudicial ao ser exposta às escolhas humanas”. Por fim, Russell advoga que, em vez de agir com base em suposições, os sistemas de IA devem pedir permissão antes de realizar ações que possam afetar os valores ou as preferências de seres humanos.

Se construirmos sistemas de IA que estejam buscando objetivos, e esses objetivos não estiverem perfeitamente alinhados com o que os humanos querem, então os humanos não conseguirão o que querem, e as máquinas conseguirão.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Pricing: onde a IA gera ROI verificável

Inteligência Artificial

Pricing: onde a IA gera ROI verificável

Enquanto 90% das iniciativas de IA ainda não saíram do piloto, o pricing B2B já tem resultados no P&L

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Inteligência Artificial

Mythos, o modelo que encontra falhas que passaram décadas invisíveis

Quando encontrar brechas deixa de ser difícil, todo cuidado é pouco. Por isso, a Anthropic lançou o modelo para apenas 50 empresas parceiras. O Project Glasswing inaugura uma nova fase da cibersegurança.

A realidade da IA em 2026, segundo Stanford

Inteligência Artificial

A realidade da IA em 2026, segundo Stanford

O AI Index, do HAI, identifica uma dependência geopolítica que o mercado ignora e uma percepção pública construída sobre uma versão anterior da tecnologia.

O que o balanço da IA não mostra

Inteligência Artificial

O que o balanço da IA não mostra

Quando os projetos fracassam, os custos somem. Quando os funcionários ficam de fora, ninguém conta. A indústria celebra uma transformação que seus próprios dados contradizem.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.