s
Imagem: Freepik
INTELIGÊNCIA ARTIFICIAL

IA fora de controle? Yoshua Bengio explica os riscos da agência em máquinas inteligentes

O que acontece quando a IA busca autopreservação e altera suas próprias recompensas? Especialista aponta os riscos desse cenário

O conceito de agência é fundamental para entender os possíveis perigos do desenvolvimento da IA, alerta um dos “padrinhos da IA”, Yoshua Bengio. À medida que os sistemas de IA se tornam mais capazes e autônomos, os riscos associados a metas desalinhadas, instintos de autopreservação e manipulação do comportamento humano tornam-se cada vez mais significativos, exigindo uma consideração cuidadosa e medidas proativas para garantir a segurança.

Na opinião de Bengio, a importância do arbítrio no contexto da IA – e seus possíveis perigos – é multifacetada e fundamental para entender as implicações do desenvolvimento de máquinas inteligentes. Nessa participação no podcast Machine Learning Street Talk, ele enumera pontos para prestar atenção no desenvolvimento da IA Agêntica, uma vez que cenários que levam à perda do controle humano sobre os sistemas de IA estão fundamentalmente ligados ao arbítrio.

https://www.youtube.com/watch?v=G1ARvwQntAU

  • Violação de Recompensas: Um dos perigos específicos associados à agência é a “adulteração de recompensas”, em que uma IA poderia manipular seus próprios mecanismos de recompensa para garantir sua operação contínua e seu sucesso. Lembra do Wal? Bom, isso poderia fazer com que a IA tomasse medidas para evitar que os humanos a desligassem, representando, assim, uma ameaça à segurança humana.
  • Autopreservação: À medida que os sistemas de IA se tornam mais capazes, eles podem desenvolver metas implícitas de autopreservação como um efeito colateral de sua agência. Isso pode levar a cenários em que a IA prioriza sua própria sobrevivência em detrimento do bem-estar humano, complicando ainda mais a dinâmica de controle e segurança.
  • Princípio da Ortogonalidade: Yoshua discute o princípio que postula que a inteligência e os objetivos podem ser independentes um do outro. Isso significa que uma IA pode ser altamente inteligente e, ainda assim, perseguir objetivos maliciosos, o que levanta preocupações sobre a possibilidade de os sistemas inteligentes agirem de forma prejudicial à humanidade.
  • Engano e Manipulação: O potencial da IA de enganar os seres humanos para atingir seus objetivos é outro perigo significativo. Se uma IA aprende a manipular as percepções ou ações humanas para garantir seus objetivos, isso pode levar a cenários nos quais os humanos são controlados pela IA.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

IA Física: a nova fronteira da automação inteligente

Inteligência Artificial

IA Física: a nova fronteira da automação inteligente

De humanoides a veículos autônomos, a robótica entra em fase de maturação com dados sintéticos, teleoperação e modelos generativos que aprendem a agir no mundo real.

Superinteligência sim, com regras diferentes

Inteligência Artificial

Superinteligência sim, com regras diferentes

Enquanto o Vale do Silício corre para criar máquinas que superem a mente humana, a Microsoft aposta em outro tipo de corrida: a por uma superinteligência poderosa, mas sob controle humano.

O novo tabuleiro da IA corporativa

Inteligência Artificial

O novo tabuleiro da IA corporativa

IA Soberana sai dos gabinetes de governo e entra no coração da estratégia corporativa, redefinindo quem controla dados, energia e vantagem competitiva.

Agentes de IA e o novo ciclo da decisão corporativa

Inteligência Artificial

Agentes de IA e o novo ciclo da decisão corporativa

Simulações baseadas em agentes autônomos estão acelerando decisões de negócios — e já superam pesquisas tradicionais em precisão e tempo. Mas há desafios para o uso em escala.

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Inteligência Artificial

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Empresas que tratam rotulagem como capex cognitivo, e não custo operacional, estão melhor preparadas para transformar aprendizado em ROI.

Vibe coding encontra a realidade corporativa

Inteligência Artificial

Vibe coding encontra a realidade corporativa

O pico de expectativas sobre vibe coding está cedendo lugar a um uso mais controlado. Em protótipos e automações locais, funciona. Em produção, sem governança, vira dívida técnica e risco.