Em janeiro de 2026, a SpaceX protocolou um pedido à Comissão Federal de Comunicações dos EUA para lançar até 1 milhão de data centers na órbita terrestre baixa. Em novembro de 2025, o Google havia publicado um preprint descrevendo o Project Suncatcher — constelação de satélites equipados com TPUs para rodar cargas de trabalho de machine learning diretamente no espaço. Em março de 2026, a Nvidia apresentou hardware projetado especificamente para processar inferência de IA em órbita, sem depender de estações terrestres. Três empresas, três apostas distintas, uma mesma premissa: a infraestrutura de IA está atingindo os limites físicos da Terra e o próximo passo pode estar 500 km acima dela.
A pressão é real. A Agência Internacional de Energia estima que o consumo global de energia de data centers pode chegar a quase 1.000 terawatts-hora até 2030 — o dobro do consumo atual —, crescendo a 15% ao ano, quatro vezes mais rápido que o restante da demanda elétrica global. Água para resfriamento, terreno para expansão e acesso à rede tornaram-se gargalos operacionais concretos. Para quem toma decisões de infraestrutura hoje, a questão deixou de ser se o espaço é viável e passou a ser quando, e quem chegará lá primeiro com o modelo certo.
SpaceX: o IPO que financia a aposta
A SpaceX não é uma startup espacial. Fundada em 2002, tem 25 anos de operação em foguetes e, com o Starlink, construiu o único negócio de conectividade via satélite em escala comercial real. É essa base — receita recorrente, infraestrutura orbital operacional — que sustenta a narrativa do IPO e distingue a SpaceX de qualquer outro player no setor.
Em abril de 2026, a empresa protocolou seu pedido de oferta pública inicial. A Bloomberg reportou avaliação-alvo elevada para mais de US$ 2 trilhões, com captação prevista de US$ 75 bilhões. A empresa projeta receita entre US$ 24 bilhões e US$ 30 bilhões para 2026. A relação preço/vendas implícita supera 64 vezes — mais que o dobro do pico histórico da Nvidia em 2024. O mercado está precificando não o negócio atual, mas a infraestrutura que ele pode financiar.
A data-alvo para o IPO é junho de 2026, posicionando a SpaceX à frente de OpenAI (dezembro de 2026 ou início de 2027) e Anthropic (novembro de 2026). As três ofertas, em sequência, devem definir como o mercado de capitais precifica a infraestrutura de IA na próxima década — e qual fatia dessa infraestrutura estará em órbita.
O capital captado deve financiar, segundo projeções internas citadas pela Bloomberg: escalabilidade do Starship e do Starlink; data centers orbitais; infraestrutura de computação da xAI; e a TeraFab. A fusão com a xAI, concluída em fevereiro de 2026, elevou o valor de mercado combinado para US$ 1,25 trilhão. A xAI adiciona modelos de linguagem e ativos de computação à estrutura, mas também carrega passivo: a SpaceX registra cerca de US$ 12 bilhões em dívidas de aquisições, e a receita caiu 35% em relação a 2022.
A TeraFab, anunciada em 21 de março de 2026 como joint venture de US$ 20 bilhões a US$ 25 bilhões entre Tesla, SpaceX e xAI, tem meta de 1 terawatt de capacidade computacional anual para IA, com processo de 2 nanômetros e fabricação verticalmente integrada. Uma instalação protótipo está em construção na Giga Texas, em Austin. Localização da instalação principal e cronograma: sem dado confiável até abril de 2026.
O pedido à FCC para 1 milhão de satélites-data center esbarra em um limite físico documentado. Greg Vialle, fundador da startup de reciclagem orbital Lunexus Space, estima que a órbita terrestre baixa comporta no máximo 240 mil satélites em todas as altitudes combinadas. Substituir 1 milhão de unidades a cada cinco anos elevaria a taxa de reentrada de detritos de três ou quatro fragmentos por dia para um a cada três minutos, segundo grupo de astrônomos que contestou o pedido à FCC. Pesquisadores alertam para risco de danos à camada de ozônio e ao equilíbrio térmico da Terra nesse cenário.
Google: a aposta modular com dados publicados
Enquanto a SpaceX aposta em volume, o Google aposta em precisão de engenharia e é o único dos três que publicou dados técnicos verificáveis sobre sua abordagem, em preprint do Google Research de novembro de 2025.
O Project Suncatcher propõe constelações compactas de satélites em órbita heliosíncrona, expostos a luz solar quase contínua, equipados com TPUs Trillium (v6e) e conectados por links ópticos de espaço livre. Um painel solar nessa órbita pode ser até 8 vezes mais produtivo do que na superfície terrestre, eliminando a necessidade de baterias pesadas. A lógica operacional é direta: energia gratuita e contínua, dissipação de calor para o vácuo, sem competição por terreno ou rede elétrica.
Os desafios documentados pelo Google são quatro. No plano de comunicação, a equipe desenvolveu um demonstrador de bancada que atingiu 1,6 Tbps total — 800 Gbps por sentido — usando multiplexação densa por divisão de comprimento de onda com um único par de transceivers. Para manter essa capacidade em órbita, os satélites precisam voar em formação compacta, com separação de quilômetros ou menos, já que a potência do sinal cai com o quadrado da distância.
No plano de dinâmica orbital, modelos baseados nas equações de Hill-Clohessy-Wiltshire indicam que uma constelação de 81 satélites a 650 km de altitude, com raio de cluster de 1 km, requer apenas manobras modestas de estabilização. No plano de radiação, os TPUs Trillium foram testados em feixe de prótons de 67 MeV e só apresentaram irregularidades após dose acumulada de 2 krad(Si) — quase 3 vezes a dose esperada em cinco anos de missão protegida, de 750 rad(Si) —, sem falhas permanentes até 15 krad(Si).
No plano econômico, o Google projeta que o custo de lançamento pode cair abaixo de US$ 200 por quilo até meados dos anos 2030, ponto em que operar um data center orbital ficaria próximo ao custo de energia de uma instalação terrestre equivalente.
O próximo passo verificável: lançamento de 2 satélites protótipo em parceria com a Planet, previsto para o início de 2027, para testar os modelos em condições reais e validar os links ópticos inter-satelitais em tarefas distribuídas de ML. Travis Beals, diretor sênior do Project Suncatcher, escreveu: “No futuro, o espaço pode ser o melhor lugar para escalar computação de IA.” A frase resume a aposta — e também seu prazo.
Nvidia: inteligência onde os dados nascem
A Nvidia não opera satélites nem planeja lançá-los. Sua posição é de fornecedora de hardware para quem o fizer — e a lógica central de Jensen Huang, CEO da Nvidia, formulada na GTC de março de 2026, é que “a inteligência deve estar presente onde quer que os dados sejam gerados.” No contexto espacial, isso significa processar cargas de trabalho de IA diretamente em órbita — não transmitir dados brutos para a Terra e esperar horas por uma análise.
A Planet já demonstrou o que isso significa na prática: uma espaçonave a aproximadamente 500 km de altitude capturou uma imagem de aeroporto e executou imediatamente um modelo de detecção de objetos a bordo, usando um módulo Nvidia Jetson Orin, identificando aeronaves em minutos — sem enviar dados para a Terra. Kiruthika Devaraj, vice-presidente de Aviônicos e Tecnologia de Naves Espaciais da Planet, descreveu o impacto operacional: “Ao rodar IA na borda na plataforma Nvidia Jetson, podemos ajudar a reduzir o tempo entre ‘ver’ uma mudança na Terra e um cliente ‘agindo’ sobre ela, ao mesmo tempo em que minimizamos a latência e o custo do downlink.”
O Vera Rubin Space-1, apresentado na GTC de março de 2026, escala essa capacidade: até 25 vezes mais poder de inferência do que a GPU H100, com arquitetura CPU-GPU integrada para processar fluxos massivos de dados em tempo real — incluindo grandes modelos de linguagem operando diretamente em órbita. O espaço impõe restrições rígidas de tamanho, peso e potência — SWaP, na terminologia do setor — e a plataforma foi projetada para operar dentro desses limites.
A distinção estratégica é relevante para quem toma decisões de infraestrutura: enquanto SpaceX e Google apostam em data centers orbitais como substitutos parciais dos terrestres, a Nvidia aposta em computação embarcada como complemento — processamento na borda espacial para casos onde latência e custo de downlink são variáveis críticas. Monitoramento de desastres, rastreamento de riscos ambientais e operações autônomas que não podem aguardar o ciclo de transmissão terrestre são os casos de uso imediatos.
O ecossistema ao redor dessa aposta está se capitalizando rapidamente — e os números de escala atual ajudam a calibrar o entusiasmo. A Nvidia é estimada ter vendido quase 4 milhões de GPUs a hyperscalers terrestres em 2025. O número de GPUs avançadas em órbita hoje está na casa das dezenas. Essa distância é o mercado a ser percorrido.
A Starcloud ilustra a velocidade com que empresas estão tentando percorrê-lo. Fundada em 2024 por Philip Johnston, lançou seu primeiro satélite com uma GPU Nvidia H100 em novembro de 2025 — usado para treinar um modelo de IA em órbita, uma estreia segundo a empresa — e captou uma Série A de US$ 170 milhões em março de 2026, liderada por Benchmark e EQT Ventures, atingindo avaliação de US$ 1,1 bilhão 17 meses após o YC Demo Day.
O próximo passo é o Starcloud-2, previsto para ainda em 2026, com múltiplas GPUs incluindo um chip Nvidia Blackwell e um servidor AWS. Depois vem o Starcloud-3: espaçonave de 200 kW e 3 toneladas, projetada para caber no sistema de implantação do Starlink no Starship, com custo estimado de US$ 0,05 por kW/hora — nível competitivo com data centers terrestres, segundo Johnston, mas condicionado a custos de lançamento na faixa de US$ 500 por quilo.
O acesso comercial ao Starship está projetado para 2028-2029. “Não vamos ser competitivos em custos de energia até o Starship estar voando com frequência”, disse Johnston à TechCrunch.
Outras empresas já em operação compõem um ecossistema mais amplo do que a cobertura corrente sugere. A Axiom Space implantou em 2025 um nó protótipo de processamento de dados — o AxDCU-1, desenvolvido com a Red Hat — na Estação Espacial Internacional, e planeja lançar nós dedicados em satélites da Kepler Communications, empresa canadense que opera uma constelação com links ópticos de alta velocidade para conectividade e computação em órbita.
A Lonestar Data Holdings testou em 2025 um sistema de armazenamento de 8 TB na superfície da Lua, via missão Athena da Intuitive Machines — usando SSDs Pascari da Phison, projetados para operar entre −173°C e +127°C (Phison Blog, março de 2025). A empresa projeta sistemas de 15 petabytes ou mais em pontos de Lagrange a partir de 2027, com foco em resiliência e soberania de dados. O perfil de uso é distinto do orbital: com latência Terra-Lua de ~1,4 segundo, o caso de uso se limita a processamento em lote, backup e arquivamento — sem viabilidade para aplicações em tempo real.
A Blue Origin discute data centers orbitais de escala gigawatt como visão de longo prazo, sem cronograma verificável até abril de 2026. Entre as habilitadoras de hardware, além da Nvidia, a IBM e a HPE figuram como parceiras para sistemas tolerantes à radiação em múltiplos projetos do setor.
Quatro requisitos que ainda faltam
O custo de colocar o hardware em órbita é astronômico. Mantê-lo funcionando seria cheio de desafios. Mas criar poder de computação no espaço para IA não é impossível. E provavelmente vai ficar mais barato. Então, o que mais é preciso para que isso aconteça?
A MIT Technology Review mapeou em abril de 2026 os obstáculos técnicos que nenhum player resolveu de forma integrada. São interdependentes: resolver um sem os outros não viabiliza a operação em escala.
Gestão térmica. Em órbitas constantemente iluminadas, equipamentos não operam abaixo de 80°C — limite seguro para componentes eletrônicos. No vácuo, o único mecanismo de dissipação é a radiação, muito menos eficiente que a convecção usada na Terra. Quanto maior a estrutura, mais difícil remover o calor do interior. Lilly Eichinger, CEO da startup austríaca Satellives, resume: “O gerenciamento térmico e o resfriamento no espaço são, em geral, um grande problema.” A Thales Alenia Space desenvolveu um sistema com circulação de fluido refrigerante por rede de tubos e radiadores externos — tecnologia existente, mas não validada na escala de um data center.
Tolerância à radiação. Partículas cósmicas causam três categorias de dano: inversões de bit em chips e memória, degradação acumulada por dose ionizante e deslocamento físico de átomos por impacto direto. Componentes certificados para o espaço são caros e têm desempenho anos atrás do estado da arte comercial. A alternativa — hardware comercial com resiliência no nível de sistema, como propõe a Nvidia — reduz custo, mas seus limites em missões longas ainda não foram testados em escala orbital real.
Manutenção em órbita. Data centers terrestres dependem de acesso físico para trocar componentes, atualizar hardware e reconfigurar sistemas. Em órbita, isso exige robótica avançada ainda em fase de demonstração em solo. Ken Mai, cientista de sistemas da Universidade Carnegie Mellon, aponta a dimensão do problema: “Você não precisa apenas construir um data center no espaço que atenda às suas necessidades atuais; você precisa de redundância, peças extras e reconfigurabilidade, para que, quando algo quebrar, você possa simplesmente alterar sua configuração e continuar trabalhando.”
Lançamento e montagem econômicos. Um data center de grande escala não cabe em um foguete — nem mesmo no Starship. Precisaria ser montado em órbita com robótica que ainda não existe em escala operacional. Os números de custo ajudam a dimensionar o problema.
Andrew McCalip, chefe de pesquisa e desenvolvimento da Varda Space Industries, modelou como variáveis de lançamento, geração de energia e hardware de satélite compõem o custo total. Com custo de lançamento de US$ 1.500 por quilo — o patamar do Falcon Heavy em 2018 — a infraestrutura excluindo chips para um data center orbital de 1 gigawatt custaria US$ 51 bilhões, contra US$ 16 bilhões para uma instalação equivalente na Terra.
Se o custo de lançamento cair para US$ 200 por quilo, a potência específica dos satélites subir de 37 W/kg — nível atual dos satélites Starlink — para 100 W/kg, e os custos de hardware de satélite forem reduzidos à metade, o custo orbital cai para US$ 19 bilhões. Não é paridade com a Terra, mas deixa de ser categoricamente inviável. O problema é que nenhuma dessas três variáveis está sob controle simultâneo de qualquer empresa hoje.
O Starship ainda não opera comercialmente; a SpaceX projeta custo de US$ 100 a US$ 200 por quilo, mas sem cronograma verificável para operação em cadência sustentada. Sam Altman, CEO da OpenAI, resumiu a perspectiva do setor em declaração recente: data centers orbitais “não são algo que vai importar em escala nesta década.”
Rick Ward, diretor de tecnologia da OrbitsEdge, empresa que desenvolve sistemas de alta performance para satélites, oferece a analogia mais precisa para calibrar o momento atual: falar em “data centers espaciais” é como falar nos “benefícios dos automóveis” sem especificar se você está descrevendo uma lambreta ou um caminhão. O Starcloud-1, com uma GPU H100 em órbita, é a lambreta. O que Musk descreve — 100 gigawatts de capacidade computacional de IA implantados por ano, equivalente a mais de 100 milhões dessas mesmas GPUs — é o caminhão. Para contexto: as maiores empresas de tecnologia do mundo operam na casa das centenas de milhares de GPUs cada.
Há ainda um problema anterior à escala: a capacidade já em órbita não está sendo totalmente utilizada. Parte da computação disponível em satélites hoje permanece ociosa — não por falta de demanda, mas por ausência de padronização de software, lacunas de segurança cibernética e ferramentas de implantação inadequadas para atualização remota. Adicionar hardware antes de resolver essa camada de software e governança replica o problema em escala maior.
Yves Durand, ex-diretor de tecnologia da Thales Alenia Space, concluiu em estudo de 2024 que data centers orbitais de escala gigawatt são tecnicamente possíveis antes de 2050 — com painéis solares maiores que a Estação Espacial Internacional e montagem robótica em órbita. Sua recomendação para quem quer entrar agora: começar com servidores embarcados em satélites de observação terrestre, processando imagens diretamente em órbita, e escalar gradualmente. Instalações menores não resolvem a pressão sobre energia e água na Terra, mas constroem a base operacional para o que vem depois.
Os próximos pontos de verificação são o lançamento dos protótipos do Project Suncatcher no início de 2027 e o IPO da SpaceX em junho de 2026. Os documentos públicos da oferta vão revelar as projeções de receita para data centers orbitais e a estrutura de capital pós-fusão com a xAI. Para gestores de infraestrutura e investidores, esses dois eventos vão determinar se a computação orbital entra no ciclo de planejamento de médio prazo — ou permanece, por mais alguns anos, no horizonte de longo prazo.