Dá para fechar a Caixa de Pandora? Ou colocar o gênio de volta na garrafa? Foi um pouco assim, com um misto de ceticismo e incredulidade, que muita gente na comunidade científica recebeu a proposta dos signatários da carta do Future of Life Institute (FLI), incluindo Yuval Harari, Joshua Bengio, Stuart Russell, Elon Musk e Steve Wozniak, de uma pausa imediata no treinamento de sistemas de IA mais poderosos que o GPT-4 por ao menos seis meses, até que se desenvolva e implemente um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançado da tecnologia.
Ninguém é contra ao estabelecimento de regras para o desenvolvimento e uso da IA. Nem os adventistas como Bill Gates, como bem pontuou o advogado Ronaldo Lemos, ao desenhar os dois campos que começam a se estabelecer no debate sobre a tecnologia — Elon Musk e Yuval Harari lideram os apocalípticos. O que soou estranho foi a crença de que é possível parar.
"É uma péssima ideia. Não há uma maneira realista de implementar uma moratória e impedir que todas as equipes ampliem os LLMs, a menos que os governos intervenham", argumentou Andrew Ng, um dos nomes mais respeitados da indústria de IA, cofundador e chefe do Google Brain, ex-cientista-chefe da Baidu, professor adjunto na Universidade de Stanford, cofundador do Coursera e do deeplearning.ai.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Se você já recebe nossas newsletters,
preencha seu e-mail que lhe mandaremos instruções
VoltarCrie sua senha para o e-mail
e atualize suas informações
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
VoltarPronto! Só falta um passo.
Clique no link do e-mail que enviamos para
retornar aqui e finalizar seu cadastro.