s
Imagem de David Szauder
INTELIGÊNCIA ARTIFICIAL

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Na segunda-feira, 6 de abril de 2026, a The New Yorker publicou uma das reportagens de maior repercussão sobre um CEO de tecnologia em atividade. Escrito por Ronan Farrow e Andrew Marantz com base em mais de 100 entrevistas, memorandos internos e mais de 200 páginas de anotações privadas de Dario Amodei, hoje CEO da Anthropic e ex-chefe de segurança da OpenAI, o perfil de Sam Altman coleciona acusações que vão muito além do vale-tudo corporativo habitual do Vale do Silício.

Um membro atual do conselho da OpenAI chamou Altman, 40 anos, de “sociopata”. A palavra não apareceu uma vez. Apareceu repetidamente, de fontes diferentes, sem que ninguém as tivesse sugerido. “Ele tem dois traços raramente vistos na mesma pessoa”, disse o conselheiro à New Yorker. “O primeiro é um forte desejo de agradar, de ser gostado em qualquer interação. O segundo é uma falta de preocupação quase sociopática com as consequências de enganar alguém.”

Aaron Swartz, o ativista digital que morreu em 2013 e foi colega de Altman no Y Combinator em 2005, teria dito a pelo menos um amigo, antes de morrer: “Você precisa entender que não se deve confiar no Sam. Ele é um sociopata. Faria qualquer coisa.” Ilya Sutskever, ex-cientista-chefe da OpenAI e um dos responsáveis pela demissão de Altman em novembro de 2023, listou em um memo interno “mentira” como o primeiro traço do padrão de comportamento do CEO. Os memorandos, nunca divulgados antes, servem de espinha dorsal à apuração.

CADASTRE-SE GRÁTIS PARA ACESSAR 5 CONTEÚDOS MENSAIS

Já recebe a newsletter? Ative seu acesso

Ao cadastrar-se você declara que está de acordo
com nossos Termos de Uso e Privacidade.

Cadastrar

Menos de 24 horas depois dessa publicação, a OpenAI divulgou um documento de 13 páginas intitulado “Industrial Policy for the Intelligence Age: Ideas to Keep People First. Altman quer uma nova política industrial para a era da superinteligência: tributar os lucros da IA, criar um Fundo de Riqueza Pública, garantir acesso universal a modelos de linguagem, pilotar semanas de trabalho de 32 horas sem redução de salário, construir redes de laboratórios científicos distribuídos e criar mecanismos internacionais de compartilhamento de informações sobre riscos.

O episódio diz mais sobre o momento da indústria de IA do que sobre Altman individualmente. Pela primeira vez, empresas que estão na fronteira tecnológica estão tentando moldar diretamente as regras do sistema econômico que emergirá a partir delas. É uma transição relevante: da inovação para a arquitetura institucional. Em outras indústrias, esse movimento só aconteceu depois de crises. Na IA, está acontecendo antes e em um vácuo: os Estados Unidos ainda não têm arcabouço federal consolidado para regular o setor, com iniciativas fragmentadas em nível estadual, enquanto a União Europeia já implementa o AI Act com foco em risco e conformidade. Nesse contexto, o documento pode ser lido não apenas como contribuição ao debate público, mas como tentativa de orientar sua direção antes que regras mais duras sejam estabelecidas por governos.

O ponto de partida do documento é a hipótese de que estamos entrando na era da “superinteligência” — sistemas capazes de superar humanos mesmo quando estes usam IA como apoio. Não é apenas uma evolução tecnológica incremental: é uma mudança de escala. Se isso se concretizar, a IA deixa de ser uma ferramenta de produtividade e passa a ser uma infraestrutura central da economia, com impacto simultâneo sobre trabalho, ciência, poder econômico e governança.

O que Altman propõe

O texto se organiza em dois eixos: construir uma economia aberta e construir uma sociedade resiliente. No primeiro, as propostas incluem dar aos trabalhadores voz formal no processo de adoção de IA nas empresas, criar programas de microfinanciamento para novos empreendedores que usem IA para eliminar o overhead burocrático, e tratar o acesso a modelos de linguagem como direito fundamental — o documento compara, explicitamente, à universalização da eletricidade e da internet, reconhecendo que a internet “ainda não está distribuída de forma justa nos EUA ou no mundo”.

A proposta tributária parte do diagnóstico de que a IA deve expandir lucros corporativos e ganhos de capital enquanto reduz a arrecadação via folha de pagamento. O documento sugere rebalancear a base fiscal com impostos mais altos sobre ganhos de capital no topo, sobre lucros corporativos e sobre “trabalho automatizado”, contrabalançados por incentivos para empresas que retiverem e retreinarem trabalhadores.

Vale registrar a inversão: é a própria empresa posicionada para capturar uma parcela desproporcional desses lucros que propõe como eles devem ser tributados. Historicamente, esse tipo de proposta surge de fora — de governos ou da sociedade civil —, não dos potenciais beneficiários diretos.

O Fundo de Riqueza Pública — capitalizado por governos e empresas de IA, investido em ativos diversificados de longo prazo — distribuiria dividendos diretamente aos cidadãos, independentemente de sua posição no mercado financeiro.

A semana de trabalho de quatro dias aparece como parte dos chamados “dividendos de eficiência”: quando a IA reduz a carga rotineira, os ganhos deveriam converter-se em benefícios concretos, incluindo maior cobertura de saúde, planos de aposentadoria ampliados e subsídios para cuidados infantis e com idosos.

O segundo eixo, voltado à resiliência social, propõe sistemas de auditoria independente de modelos de fronteira, playbooks para contenção de sistemas perigosos já liberados — incluindo modelos capazes de se replicar de forma autônoma —, estruturas de governança corporativa orientadas ao interesse público e regras claras para o uso governamental de IA.

A OpenAI pede ainda uma rede internacional de institutos de IA com protocolos compartilhados de avaliação e mitigação de riscos. Para ancorar o esforço, a empresa anuncia bolsas de pesquisa de até US$ 100 mil e até US$ 1 milhão em créditos de API, além de um espaço de discussão em Washington, D.C., com abertura prevista para maio de 2026.

Algumas propostas respondem a lacunas reais. A ideia de benefícios portáteis — planos de saúde, aposentadoria e capacitação vinculados ao indivíduo, não ao empregador — endereça uma fragilidade estrutural do mercado de trabalho americano que antecede a IA por décadas. A proposta de redes de segurança automáticas ativadas por métricas de desemprego e deslocamento setorial replica modelos de estabilizadores automáticos testados em outras economias. A admissão de que a internet não chegou de forma justa a todos nos EUA — vinda da empresa que opera um dos maiores sistemas de IA do mundo — registra, pelo menos, o problema corretamente.

O problema não é o que está escrito. O problema é quem assina, quando assina e o que isso revela sobre os incentivos em jogo.

A reportagem da New Yorker documenta que Altman tratou a segurança de IA como moeda de negociação — um argumento mobilizado quando conveniente e descartado quando deixava de ser útil. Múltiplos relatos independentes convergem para um padrão de comportamento baseado em manipulação estratégica de confiança.

O documento de política industrial utiliza exatamente o mecanismo oposto: apresenta a OpenAI como parceira da sociedade, comprometida com trabalhadores, distribuição de riqueza e democracia.

Isso não invalida as propostas. Mas muda a forma como elas devem ser lidas.

O documento pede para outros o que não se compromete a fazer

O texto da OpenAI se apresenta como “ponto de partida para uma conversa mais ampla”, não como conjunto definitivo de recomendações. Essa postura tem uma consequência direta: nenhuma das propostas obriga a empresa a agir. A OpenAI não se compromete a criar o fundo soberano. Não se compromete a implantar a semana de quatro dias internamente. Não se compromete a restaurar equipes de segurança nem a submeter seus sistemas a auditorias externas obrigatórias. Pede ao governo americano que construa as instituições que ela própria não se obriga a habitar.

A reportagem da New Yorker documenta esse padrão com precisão factual. Altman teria dito ao conselho da OpenAI, em dezembro de 2022, que uma série de recursos do GPT-4 havia sido aprovada por um comitê de segurança. Quando uma conselheira pediu a documentação, descobriu que os recursos mais sensíveis — incluindo o que permitia ao modelo ser usado como assistente pessoal — jamais tinham sido aprovados.

Dario Amodei, segundo suas anotações de 200 páginas, concluiu que “o problema da OpenAI é o próprio Sam”. Membro do conselho após membro do conselho chegou, de forma independente, à mesma caracterização: alguém que usa a segurança de IA como argumento de convencimento quando conveniente e o descarta quando não é. A empresa concluiu, em 2025, sua conversão para estrutura com fins lucrativos e encerrou, segundo relatos internos, a maior parte de suas equipes de segurança — ao mesmo tempo em que o documento pede governança corporativa orientada ao interesse público para empresas de IA de fronteira.

O documento de abril de 2026 pode ter sido preparado independentemente da reportagem — e provavelmente foi. Mas o efeito é o mesmo: a OpenAI propõe arquiteturas de confiança verificável, auditoria independente e incentivos estruturados para que atores poderosos cumpram o que dizem que farão e endereça essas propostas a governos, mercados de trabalho e outros países.  O problema central da governança de IA, nesse contexto, é de autoridade. Desenhar as regras quando sua própria conduta não é verificável amplia o risco de as regras já nascerem capturadas.

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

Inteligência Artificial

Sam Altman quer regular a IA. A pergunta é: podemos confiar nele?

A empresa posicionada para capturar os maiores lucros da IA propõe como ela deve ser tributada, regulada e distribuída — e pede ao governo que faça o que ela própria não se compromete a fazer.

Limites cognitivos e a vida emocional oculta dos LLMs

Inteligência Artificial

Limites cognitivos e a vida emocional oculta dos LLMs

Pesquisa de interpretabilidade da Anthropic identifica 171 representações internas de emoção no Claude Sonnet 4.5. Elas são causais e o modelo já desenvolveu mecanismos para ocultá-las.

A órbita como infraestrutura

Inteligência Artificial

A órbita como infraestrutura

SpaceX, Google e Nvidia convergem para a mesma aposta: computação de IA no espaço. Os dados técnicos mostram onde estão os gargalos — e onde está o dinheiro.

A IA já constrói um modelo de quem somos, mas não podemos auditá-lo

Inteligência Artificial

A IA já constrói um modelo de quem somos, mas não podemos auditá-l...

Memória persistente transforma sistemas de IA em infraestruturas de identidade, sem mecanismos claros de explicação, correção ou limites de uso.

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Inteligência Artificial

O radar da deep tech: 25 tecnologias que podem transformar o mundo

Novo relatório do EIC mapeia avanços em IA, materiais avançados, computação quântica e biotecnologia que começam a ganhar escala na corrida global pela inovação

Integridade, a capacidade que falta para a IA

Inteligência Artificial

Integridade, a capacidade que falta para a IA

Por razões técnicas e estratégicas, a AI Integrity emerge como o próximo campo crítico da segurança corporativa