s
AI generates nuclear or atomic energy. The uses of Artificial Intelligence in the fields of nuclear sciences, applications, power, weapons, and safety.
INTELIGÊNCIA ARTIFICIAL

Extinção da humanidade pela Inteligência Artificial?

Especialistas da indústria assinaram uma nova carta alertando para a priorização dos esforços de regulação da IA, equiparando-os aos de pandemias ou de uma guerra nuclear. Por quê?

Já se passaram alguns meses desde que a Carta Aberta da IA foi lançada - você sabe, aquela assinada por Elon Musk e Steve Wozniak e um monte de outros luminares da tecnologia, alertando sobre "efeitos potencialmente catastróficos” e pedindo uma moratória de seis meses no desenvolvimento de sistemas de última geração.

Agora, uma nova carta, publicada pelo Center for AI Safety, reafirma em apenas uma frase que “mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

Quem a assina desta vez? O CEO da OpenAI, Sam Altman, o CEO do Google DeepMind, Demis Hassabis, a presidente da Anthropic, Daniela Amodei, o CTO da Microsoft, Kevin Scott e… Geoffrey Hinton, o "godfather" da IA, que deixou o Google há um mês. Também estão lá nomes de peso de fora da esfera tecnológica, como o guru do direito constitucional de Harvard, Laurence Tribe, o ex-presidente da Estônia, Kersti Kaljulaid e o proeminente ambientalista Bill McKibben. Musk e Wosniak, não.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Parar a tecnologia? Não. Acelerar a regulação!

Inteligência Artificial

Parar a tecnologia? Não. Acelerar a regulação!

O medo da IA ​​fora de controle não é novo. O que é novo é o medo de perder a corrida pela IA

A Inteligência Artificial e seus três eixos regulatórios

Inteligência Artificial

A Inteligência Artificial e seus três eixos regulatórios

A ética dos dados, a ética dos algoritmos e a ética das práticas devem embasar as propostas de legislação que busquem provocar a internalização de conceitos de “certo” ou “errado”

Por Gustavo Artese*, especial para The Shift
A nomeação de um comitê de risco ético de IA é para ontem

Inteligência Artificial

A nomeação de um comitê de risco ético de IA é para ontem

Abordagens padrão ignoram dezenas de possíveis problemas éticos. Para melhor mitigar os riscos, as empresas precisam de recomendações de um grupo multidisciplinar, com autoridade para emiti-las

IA Responsável: um caminho a percorrer

Inteligência Artificial

IA Responsável: um caminho a percorrer

Novas pesquisas mostram que, embora os líderes concordem que a IA responsável deve ser uma preocupação da alta administração, poucos priorizaram essas iniciativas. Por onde começar?

Europeus tornam o AI ACT mais rígido, próximo da aprovação

Inteligência Artificial

Europeus tornam o AI ACT mais rígido, próximo da aprovação

Texto da futura lei europeia passa a incluir regras para controlar a IA Generativa e o banimento de vários tipos de sistemas de identificação e categorização biométrica e de reconhecimento de emoções

CEO da OpenAI vai a Washington

Inteligência Artificial

CEO da OpenAI vai a Washington

Sam Altman disse aos senadores americanos que é preciso criar regulamentos e licenças para sistemas de Inteligência Artificial