s
INTELIGÊNCIA ARTIFICIAL

Superinteligência sim, com regras diferentes

Enquanto o Vale do Silício corre para criar máquinas que superem a mente humana, a Microsoft aposta em outro tipo de corrida: a por uma superinteligência poderosa, mas sob controle humano.

Nas últimas semanas, a corrida global pela SuperInteligência ganhou um novo eixo: o controle humano. De um lado, Meta, Google DeepMind, OpenAI e Anthropic aceleram o desenvolvimento de modelos cada vez mais autônomos. De outro, cresce a pressão de cientistas, executivos e líderes públicos por um freio ético diante da possibilidade de sistemas que superem a mente humana.

A Microsoft, sob o comando de Mustafa Suleyman, ex-cofundador da DeepMind e hoje CEO da Microsoft AI, tenta propor um meio-termo. Em entrevista ao Semafor, ele defendeu o conceito de “superinteligência humanista”, uma IA avançada “que ofereça os benefícios que buscamos para a humanidade, mas mantenha os humanos no comando”, com limites éticos claros.

“Não podemos simplesmente acelerar a todo custo. Isso seria uma missão suicida insana”, afirmou. “Sistemas que podem se aprimorar indefinidamente e adotar seus próprios propósitos devem ser evitados”, completou.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Suleyman não é um recém-chegado ao debate sobre segurança da IA. Desde sua passagem pela DeepMind, ele defende que o futuro da inteligência artificial depende menos de força computacional e mais de governança moral. Na Microsoft, encontrou um ambiente propício para transformar essa visão em estratégia. Seu plano é criar sistemas superinteligentes de domínio específico, voltados a áreas de impacto direto — saúde, energia e educação —, com objetivos bem delimitados e margens estreitas de autoaprendizado.

O primeiro desafio é o mais ambicioso: até 2028, a Microsoft pretende apresentar uma superinteligência médica, capaz de realizar diagnósticos precoces e sugerir tratamentos personalizados. É uma aposta pragmática — e simbólica. Se der certo, provará que é possível combinar poder técnico com prudência ética; se falhar, mostrará que o controle sobre a IA talvez seja apenas um ideal impossível.

Mas a proposta também carrega um paradoxo. Como criar algo mais inteligente que nós — e ainda manter o controle? É viável projetar uma mente artificial que jamais questione seus próprios limites?
Críticos como Bob Rogers, diretor de tecnologia da Oii.ai, duvidam. “Uma superinteligência, por definição, não pode ser contida”, diz ele. “Se ela for realmente superior, encontrará meios de contornar as restrições humanas. Se for contida, então não é superinteligência.”

O alerta ecoa além dos laboratórios. No fim de outubro, o Future of Life Institute (FLI), organização sem fins lucrativos dedicada a reduzir riscos existenciais da tecnologia, lançou uma “Declaração sobre Superinteligência”, pedindo a proibição temporária do desenvolvimento de sistemas mais inteligentes que os humanos até que haja um consenso científico sobre como torná-los seguros e controláveis.

A petição, divulgada em 30 de outubro, reuniu mais de 45 mil assinaturas em poucos dias. Entre elas estão nomes como Geoffrey Hinton e Yoshua Bengio, pioneiros da IA moderna; Steve Wozniak, cofundador da Apple; Sir Richard Branson, fundador do Virgin Group; a ex-presidente da Irlanda Mary Robinson; além de figuras públicas como o príncipe Harry e Meghan Markle, Kate Bush e Grimes.

“A esmagadora maioria das pessoas está extremamente preocupada com a trajetória atual do desenvolvimento da IA avançada”, disse Ben Cumming, diretor de comunicação do FLI, ao The Deep View. Segundo pesquisa conduzida pela entidade, 73% dos adultos nos EUA defendem uma regulamentação robusta da IA, e 64% acreditam que a superinteligência não deve ser desenvolvida até que sua segurança seja comprovada.

O texto da declaração é contundente: “No mundo natural, as espécies mais inteligentes controlam as menos inteligentes. Nesse cenário, nós é que nos tornaríamos as mais estúpidas.”

A visão da Microsoft difere ligeiramente da de seus concorrentes em seu foco em soluções “específicas para domínios”, observa Rogers. No entanto, superinteligência específica para domínios pode ser um paradoxo, disse ele: a tecnologia será superinteligência, que, por definição , não é de nicho (e potencialmente não pode ser contida), ou será apenas uma IA boa e desenvolvida para um propósito específico, o que não é superinteligência.

E Microsoft não é a primeira organização a afirmar que almeja a superinteligência para o bem. Ilya Sutskever, cofundador da OpenAI, lançou um laboratório chamado Safe Superintelligence em setembro passado e, desde então, garantiu um financiamento de US$ 2 bilhões, atingindo uma avaliação de US$ 32 bilhões, sem ter um produto para mostrar.

Mas nem todos compartilham desse impulso de frear. Poucos dias após o lançamento da declaração, o CEO da OpenAI, Sam Altman, ofereceu uma visão oposta — e mais típica do Vale do Silício. Em uma conversa pública em São Francisco, Altman descreveu a IA como “a maior ferramenta da humanidade e também seu experimento mais arriscado”.

“Uma coisa incomum sobre a IA é que ela pode dar muito errado”, disse ele. “Minha esperança é que haja muito mais IA boa que possa neutralizar a ruim.”

Altman reconheceu o potencial dual da tecnologia — capaz de curar doenças ou criar novas ameaças —, mas evitou defender regulações externas mais rigorosas, sugerindo que o próprio ecossistema de inovação poderia se equilibrar entre “bons” e “maus” atores. Para ele, a IA deve expandir a liberdade individual, não restringi-la. “Acredito firmemente que a tecnologia precisa servir aos usuários para que possam fazer o que desejam”, afirmou.

A fala, feita em uma cidade que simboliza tanto o boom tecnológico quanto a desigualdade crescente, revelou uma divergência de fundo entre dois dos maiores nomes da inteligência artificial: Suleyman e Altman representam polos distintos de uma mesma ambição.
Enquanto um tenta conter a superinteligência antes que ela escape ao controle humano, o outro aceita o risco como parte inevitável do progresso.

Altman x Suleyman — dois caminhos para a superinteligência

A nova corrida pela superinteligência também é uma disputa de visões — e, em certa medida, de moralidade tecnológica.
De um lado, Sam Altman, CEO da OpenAI, aposta que o avanço da inteligência artificial é inevitável e deve ser guiado por um equilíbrio interno entre “bons” e “maus” atores.
De outro, Mustafa Suleyman, líder da Microsoft AI, defende que o poder das máquinas precisa ser freado antes de ultrapassar a capacidade humana de compreensão.

Em sua recente aparição pública em São Francisco, Altman descreveu a IA como “a maior ferramenta e o maior experimento da humanidade”, reconhecendo o risco, mas rejeitando regulações externas mais severas. “Minha esperança é que haja muito mais IA boa que possa neutralizar a ruim”, afirmou.

Sua visão parte da crença de que o próprio progresso tecnológico corrigirá seus excessos — um otimismo característico do Vale do Silício.
Para Altman, a tecnologia deve expandir a liberdade individual, não restringi-la. O risco, em sua leitura, é parte do preço da inovação.

Suleyman, por outro lado, fala como se estivesse desenhando um novo contrato social entre humanos e máquinas. “Sistemas que podem se aprimorar indefinidamente e adotar seus próprios propósitos devem ser evitados”, escreveu no Project Syndicate.

Enquanto Altman quer domar a superinteligência por convivência, Suleyman quer contê-la por design.
O primeiro enxerga a IA como um ecossistema autorregulado; o segundo, como um poder que precisa de limites claros — legais, éticos e arquitetônicos.

Essa diferença de abordagem pode definir o futuro da era da IA.
Se Altman representa a crença de que a velocidade é inevitável, Suleyman simboliza a aposta de que o controle é possível.
Entre eles, está a pergunta que ainda ninguém conseguiu responder: é possível ser prudente em meio a uma revolução que se acelera sozinha?

No fim, o que separa Microsoft e OpenAI não é apenas velocidade — é o conjunto de regras com que jogam. Suleyman aposta que o futuro da inteligência artificial será definido não pela força dos algoritmos, mas pela força dos princípios. E é isso que torna sua visão tão distinta — e tão desafiadora — em uma corrida onde todos parecem buscar o mesmo destino, mas nem todos concordam sobre como chegar lá.

No vácuo entre prudência e otimismo, a Microsoft tenta construir um terceiro caminho — não interromper o avanço, mas garantir que ele nunca saia das mãos humanas.

Nos bastidores, o projeto de Suleyman tem dupla função: proteger a marca Microsoft de riscos éticos e reputacionais, e posicioná-la como a guardiã confiável da era da superinteligência. É também uma mudança de poder. Após anos de dependência tecnológica da OpenAI, a empresa finalmente obteve autonomia para seguir seu próprio caminho, graças à renegociação do acordo que limitava suas pesquisas em IA avançada. Agora, Suleyman pode tentar algo mais ambicioso: transformar ética em diferencial competitivo.

Outros gigantes seguem outro rumo.

  • A DeepMind intensificou o lançamento de projetos ligados à AGl e à Artificial Super Intelligence (ASI), como os modelos Genie 3 e DeepThink, além de iniciativas como o Game Arena, uma plataforma para competição entre modelos avançados de IA. Desenvolvimentos considerados passos estratégicos em direção à superinteligência, com avanços diários descritos por executivos da empresa.
  • A Anthropic e outras startups de IA também estão na corrida pelo desenvolvimento seguro de superinteligência, amparadas por fundos de investimento e programas como o AI Futures Fund do Google, voltados ao apoio de startups com acesso antecipado a modelos avançados de IA. A visão da Softbank para o futuro envolve uma “Superinteligência Artificial” 10 mil vezes mais inteligente que a sabedoria humana, com o CEO Masayoshi Son afirmando que ela é fundamental para “a evolução da humanidade”.
  • A OpenAI mantém o cronograma mais agressivo: afirma que seus sistemas já estão “80% do caminho para se tornarem pesquisadores autônomos”, e prevê descobertas científicas até 2026 e avanços significativos até 2028.
  • Enquanto isso, a Nvidia financia a infraestrutura física de toda a corrida — data centers e chips especializados que alimentam tanto os aceleracionistas quanto os prudentes.

A Microsoft tenta trilhar um caminho intermediário: avança rápido, mas com discurso de controle. “Somos aceleracionistas, mas com responsabilidade”, afirmou Suleyman à Axios. “Acreditamos no poder da ciência e da tecnologia para tornar o mundo melhor. Queremos que isso aconteça rápido — mas com limites.”

A ironia é que esses limites podem ser tão simbólicos quanto técnicos. Mesmo os modelos atuais — GPT-4, Gemini 2, Claude 3 — já demonstram comportamentos emergentes que seus criadores não conseguem explicar completamente. Se nem os engenheiros entendem totalmente o que suas máquinas fazem, o que significa, na prática, “supervisão humana significativa”?

A resposta talvez não venha da engenharia, mas da governança. Para conselhos e executivos, o recado é claro: a era da superinteligência exigirá novas formas de supervisão institucional — combinando regulação, auditorias independentes e capacidade política de dizer “não” quando a tecnologia avançar mais rápido do que a compreensão.

Suleyman parece consciente disso. “Os humanos importam mais do que a IA”, escreveu ele. “A verdadeira inovação será garantir que continuemos no comando.”

O desfecho dessa história ainda está em aberto. Mas algo já se tornou evidente: a corrida pela superinteligência deixou de ser apenas uma disputa de performance. Agora é uma disputa por legitimidade — quem conquista a confiança da sociedade, não apenas o próximo modelo.

Se a Microsoft conseguir provar que é possível construir uma superinteligência que obedece, e não apenas que supera, poderá redefinir o que significa liderar na era da IA. Se falhar, mostrará que o controle humano é apenas uma ilusão conveniente.

De qualquer forma, Suleyman resume o dilema com uma frase que poderia servir de epitáfio — ou de bússola — para toda a era da IA: “A verdadeira inteligência não é a capacidade de pensar — é a capacidade de escolher o que não devemos fazer.”

Entre a ambição e a prudência, entre a promessa e o risco, a Microsoft tenta ensinar à superinteligência a lição mais difícil de todas: poder não é somente o que podemos criar, mas o que conseguimos controlar.

Para aprofundar

  • O que é superinteligência artificial?
  • De acordo com a PwC , espera-se que a IA adicione US$ 15,7 trilhões à economia global até 2030, destacando o enorme potencial das tecnologias avançadas de IA. A ASI poderá levar a avanços exponenciais na saúde, nas finanças e na pesquisa científica, superando a inteligência humana e aprimorando-se continuamente.
  • Por que a superinteligência artificial (ASI) é vista agora não apenas como meta aspiracional, mas também como possível próximo marco no campo de IA, com potencial de acelerar descobertas em áreas como medicina, educação e mudanças climáticas?
  • Pesquisa recente realizada pelo Future of Life Institute revelou que 73% dos adultos nos EUA desejam uma regulamentação robusta da IA e 64% acreditam quesuperintelligence não deve ser desenvolvida até que sua segurança seja comprovada.

Superinteligência sim, com regras diferentes

Inteligência Artificial

Superinteligência sim, com regras diferentes

Enquanto o Vale do Silício corre para criar máquinas que superem a mente humana, a Microsoft aposta em outro tipo de corrida: a por uma superinteligência poderosa, mas sob controle humano.

O novo tabuleiro da IA corporativa

Inteligência Artificial

O novo tabuleiro da IA corporativa

IA Soberana sai dos gabinetes de governo e entra no coração da estratégia corporativa, redefinindo quem controla dados, energia e vantagem competitiva.

Agentes de IA e o novo ciclo da decisão corporativa

Inteligência Artificial

Agentes de IA e o novo ciclo da decisão corporativa

Simulações baseadas em agentes autônomos estão acelerando decisões de negócios — e já superam pesquisas tradicionais em precisão e tempo. Mas há desafios para o uso em escala.

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Inteligência Artificial

Rotulagem de dados: o “combustível cognitivo” da IA corporativa

Empresas que tratam rotulagem como capex cognitivo, e não custo operacional, estão melhor preparadas para transformar aprendizado em ROI.

Vibe coding encontra a realidade corporativa

Inteligência Artificial

Vibe coding encontra a realidade corporativa

O pico de expectativas sobre vibe coding está cedendo lugar a um uso mais controlado. Em protótipos e automações locais, funciona. Em produção, sem governança, vira dívida técnica e risco.

Entre ambição e execução, o gap da IA corporativa

Inteligência Artificial

Entre ambição e execução, o gap da IA corporativa

Cisco mede a prontidão, IBM mede a transformação — juntas, expõem o ponto cego da maturidade em IA. Charlene Li mostra o caminho para atingi-la.