s
Crédito da foto: Brittany Hosea-Small
INTELIGÊNCIA ARTIFICIAL

Ética de IA: boas intenções são suficientes?

Na opinião do professor Stuart Russell, a única maneira de avançar é descobrir como tornar a segurança de IA uma condição para fazer negócios.

A história humana pode ser vista como uma série de tentativas de forjar um consenso ético. Em nosso mundo contemporâneo, os avanços da IA nos colocam novamente diante dessa necessidade. O futuro depende da nossa capacidade de alinhar o progresso tecnológico com a maturidade ética necessária para manejá-lo, alertam pesquisadores como Stuart Russell, professor de Ciência da Computação em Berkeley. Em seus livros e palestras, Russell costuma enfatizar a importância de garantirmos que os sistemas de IA permaneçam sob controle humano e sejam projetados para servir aos interesses humanos.

Na sua opinião, um caminho para isso é fazer com que o principal objetivo dos sistemas de IA seja a realização dos valores humanos, aprendidos por meio da observação e da interação com os humanos. “A IA deve aprender estudando todos os seres humanos, não apenas aqueles que possuem ou operam a IA”, orienta Russell. “Só uma abordagem ampla de aprendizado fará com que a IA compreenda a vasta gama de valores e preferências humanas e aprenda continuamente sobre o que é considerado benéfico ou prejudicial ao ser exposta às escolhas humanas”. Por fim, Russell advoga que, em vez de agir com base em suposições, os sistemas de IA devem pedir permissão antes de realizar ações que possam afetar os valores ou as preferências de seres humanos.

Se construirmos sistemas de IA que estejam buscando objetivos, e esses objetivos não estiverem perfeitamente alinhados com o que os humanos querem, então os humanos não conseguirão o que querem, e as máquinas conseguirão.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

IA Física: a nova fronteira da automação inteligente

Inteligência Artificial

IA Física: a nova fronteira da automação inteligente

De humanoides a veículos autônomos, a robótica entra em fase de maturação com dados sintéticos, teleoperação e modelos generativos que aprendem a agir no mundo real.

Superinteligência sim, com regras diferentes

Inteligência Artificial

Superinteligência sim, com regras diferentes

Enquanto o Vale do Silício corre para criar máquinas que superem a mente humana, a Microsoft aposta em outro tipo de corrida: a por uma superinteligência poderosa, mas sob controle humano.

O novo tabuleiro da IA corporativa

Inteligência Artificial

O novo tabuleiro da IA corporativa

IA Soberana sai dos gabinetes de governo e entra no coração da estratégia corporativa, redefinindo quem controla dados, energia e vantagem competitiva.

Agentes de IA e o novo ciclo da decisão corporativa

Inteligência Artificial

Agentes de IA e o novo ciclo da decisão corporativa

Simulações baseadas em agentes autônomos estão acelerando decisões de negócios — e já superam pesquisas tradicionais em precisão e tempo. Mas há desafios para o uso em escala.

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Inteligência Artificial

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Empresas que tratam rotulagem como capex cognitivo, e não custo operacional, estão melhor preparadas para transformar aprendizado em ROI.

Vibe coding encontra a realidade corporativa

Inteligência Artificial

Vibe coding encontra a realidade corporativa

O pico de expectativas sobre vibe coding está cedendo lugar a um uso mais controlado. Em protótipos e automações locais, funciona. Em produção, sem governança, vira dívida técnica e risco.