s
Imagem: Freepik
INTELIGÊNCIA ARTIFICIAL

IA fora de controle? Yoshua Bengio explica os riscos da agência em máquinas inteligentes

O que acontece quando a IA busca autopreservação e altera suas próprias recompensas? Especialista aponta os riscos desse cenário

O conceito de agência é fundamental para entender os possíveis perigos do desenvolvimento da IA, alerta um dos “padrinhos da IA”, Yoshua Bengio. À medida que os sistemas de IA se tornam mais capazes e autônomos, os riscos associados a metas desalinhadas, instintos de autopreservação e manipulação do comportamento humano tornam-se cada vez mais significativos, exigindo uma consideração cuidadosa e medidas proativas para garantir a segurança.

Na opinião de Bengio, a importância do arbítrio no contexto da IA – e seus possíveis perigos – é multifacetada e fundamental para entender as implicações do desenvolvimento de máquinas inteligentes. Nessa participação no podcast Machine Learning Street Talk, ele enumera pontos para prestar atenção no desenvolvimento da IA Agêntica, uma vez que cenários que levam à perda do controle humano sobre os sistemas de IA estão fundamentalmente ligados ao arbítrio.

https://www.youtube.com/watch?v=G1ARvwQntAU

  • Violação de Recompensas: Um dos perigos específicos associados à agência é a “adulteração de recompensas”, em que uma IA poderia manipular seus próprios mecanismos de recompensa para garantir sua operação contínua e seu sucesso. Lembra do Wal? Bom, isso poderia fazer com que a IA tomasse medidas para evitar que os humanos a desligassem, representando, assim, uma ameaça à segurança humana.
  • Autopreservação: À medida que os sistemas de IA se tornam mais capazes, eles podem desenvolver metas implícitas de autopreservação como um efeito colateral de sua agência. Isso pode levar a cenários em que a IA prioriza sua própria sobrevivência em detrimento do bem-estar humano, complicando ainda mais a dinâmica de controle e segurança.
  • Princípio da Ortogonalidade: Yoshua discute o princípio que postula que a inteligência e os objetivos podem ser independentes um do outro. Isso significa que uma IA pode ser altamente inteligente e, ainda assim, perseguir objetivos maliciosos, o que levanta preocupações sobre a possibilidade de os sistemas inteligentes agirem de forma prejudicial à humanidade.
  • Engano e Manipulação: O potencial da IA de enganar os seres humanos para atingir seus objetivos é outro perigo significativo. Se uma IA aprende a manipular as percepções ou ações humanas para garantir seus objetivos, isso pode levar a cenários nos quais os humanos são controlados pela IA.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Inteligência barata, infraestrutura cara

Inteligência Artificial

Inteligência barata, infraestrutura cara

A queda no preço por token amplia demanda e pressiona ROI, enquanto US$ 1,3 trilhão em CapEX redesenha a indústria até 2027.

SaaS, agentes e a nova economia do software

Inteligência Artificial

SaaS, agentes e a nova economia do software

A automação por IA está deslocando valor da interface para dados, controle e orquestração.

IA Agêntica depende mais de gente que de código

Inteligência Artificial

IA Agêntica depende mais de gente que de código

Agentes prometem escala e eficiência, mas expõem limites organizacionais. O diferencial está na capacidade das empresas de gerir IA como rotina operacional.

Quem define as regras quando agentes se coordenam?

Inteligência Artificial

Quem define as regras quando agentes se coordenam?

O que o experimento MoltBook revela sobre o valor econômico, a governança e a liderança em sistemas autônomos.

Capital cerebral: o limite invisível do crescimento na era da IA

Inteligência Artificial

Capital cerebral: o limite invisível do crescimento na era da IA

A economia avança com IA, mas esbarra na qualidade do julgamento humano — um fator ainda ausente das métricas e da governança corporativa.

A IA entrou no orçamento. Falta entrar no modelo de negócio


Inteligência Artificial

A IA entrou no orçamento. Falta entrar no modelo de negócio


Pesquisas da PwC e do MIT mostram por que os investimentos em IA avançam mais rápido do que a capacidade das empresas de capturar valor. E por que o problema não é tecnológico, mas estrutural.