Siga o Olhar Digital no Google Discover
Tudo sobre Inteligência Artificial
A Starcloud deu um passo simbólico na corrida da inteligência artificial (IA). A startup norte-americana treinou o primeiro modelo de IA em órbita, usando um chip H100 da Nvidia instalado no satélite Starcloud‑1. É a primeira vez que um processador dessa classe opera no espaço.
O satélite roda um modelo de linguagem completo e responde a comandos como se estivesse num servidor convencional na Terra. Assim, o experimento coloca a empresa no centro de um debate urgente: como manter a expansão da IA sem colapsar redes elétricas e sistemas de resfriamento que já dão sinais de exaustão.
O movimento não é isolado. Com data centers terrestres devorando volumes crescentes de energia e água (e com projeções de que a demanda global deve mais que dobrar até 2030), o setor busca alternativas fora do planeta.
Google, Lonestar e Aetherflux correm em paralelo, mas foi a Starcloud quem colocou o primeiro protótipo funcional para operar de fato. A aposta é transformar o espaço num ambiente viável para computação de alto desempenho, tirando proveito da energia solar contínua e reduzindo o impacto ambiental das operações.
Starcloud demonstra que data centers orbitais já são tecnicamente viáveis
O experimento começa pelo que mais chama atenção: um grande modelo de linguagem (LLM, na sigla em inglês) que funciona no espaço. O modelo escolhido foi o Gemma, da Google, em versão aberta.
Ao ser consultado, o próprio satélite respondeu com humor: “Saudações, terráqueos! Ou, como prefiro pensar em vocês – uma fascinante mistura de azul e verde”.

É a prova concreta de que o H100 não só sobrevive ao ambiente hostil da órbita, como processa linguagem natural com a mesma fluidez observada em solo.
Esse primeiro diálogo é menos uma demonstração lúdica e mais um marco técnico. Ele indica que o satélite mantém estabilidade térmica, suprimento de energia e integridade dos componentes, mesmo longe das condições controladas de um data center terrestre.
Ao rodar um LLM denso como o Gemma, a Starcloud mostra que a operação não está limitada a inferências simples. Dá para consultar o sistema como um servidor comum e obter respostas sofisticadas.
O Google reconheceu o peso do teste. Segundo Tris Warkentin, diretor de produto do DeepMind, ver o Gemma funcionar “no ambiente hostil do espaço” é um sinal da flexibilidade e robustez da família de modelos abertos da empresa.
A Starcloud usou o mesmo chip para treinar o NanoGPT, modelo criado por Andrej Karpathy, usando toda a obra de Shakespeare. Foi o suficiente para fazer o LLM responder em inglês arcaico, num exercício que reforça a capacidade de processamento do hardware.
Esse conjunto de demonstrações prova que a infraestrutura orbital funciona e pode ser ampliada. O CEO da Starcloud, Philip Johnston, argumenta que operações assim devem baratear energia em dez vezes quando comparadas a data centers terrestres.
A partir desse primeiro passo, a empresa coloca em campo a tese de que clusters inteiros poderão migrar para o espaço.
Corrida da IA vai para o espaço! Startup revela planos ambiciosos para colocar data centers em órbita
Com a prova de conceito estabelecida, a Starcloud agora mira algo bem maior: colocar um data center de 5 gigawatts em órbita, equipado com painéis solares e estruturas de resfriamento que ocupariam cerca de quatro quilômetros de largura e altura.

Segundo a empresa, um complexo desse tamanho geraria mais energia do que a maior usina elétrica dos Estados Unidos. E ainda sairia mais compacto e barato do que uma fazenda solar equivalente na Terra.
Essa arquitetura explora uma vantagem decisiva do espaço: energia solar constante. Afinal, lá não tem noite, nuvens e nem variações climáticas que afetam instalações terrestres.
Os satélites teriam vida útil de cerca de cinco anos, estimada a partir da durabilidade dos chips envolvidos. A promessa é criar uma fonte quase inesgotável de energia limpa para sustentar modelos cada vez mais pesados.
A empresa também destaca usos imediatos da computação orbital. O Starcloud‑1 já analisa imagens de satélite em tempo real. Assim, consegue identificar focos de incêndio no instante em que surgem e localizar embarcações e botes à deriva no mar, por exemplo.
O sistema também consulta seus próprios “sinais vitais”, como posição e velocidade. E consegue descrevê‑los em linguagem natural. Isso é fruto da integração entre IA e telemetria (medição à distância), o que abre caminho para aplicações militares, ambientais e de proteção civil.
O próximo salto tecnológico já tem data: outubro de 2026, quando a Starcloud planeja lançar um satélite equipado com chips Nvidia H100, a plataforma Blackwell e um módulo com a nuvem da Crusoe.
A expectativa é que essa combinação permita que clientes processem tarefas de IA diretamente do espaço. Na prática, seria a transição do protótipo para um serviço comercial, com foco em desempenho e disponibilidade.
Leia mais:
- Nvidia cria tecnologia para rastrear seus próprios chips, diz agência
- Quais são os cinco maiores data centers do mundo?
- O que é o Modo Investigar do ChatGPT? Entenda o recurso da IA
Outro ponto importante: a Starcloud não é a única participante desta corrida.
- Google anunciou o Project Suncatcher, que pretende lançar satélites com suas TPUs;
- Lonestar trabalha no primeiro data center comercial na Lua;
- Aetherflux quer colocar seu sistema em órbita já em 2027.
- Nos bastidores, o CEO da OpenAI, Sam Altman, avalia comprar ou se associar a uma fabricante de foguetes (sinal de que a corrida vai muito além de software).
Nessa corrida, a SpaceX, de Elon Musk (antigo colega, atual rival de Altman), é parceira de lançamento da Starcloud. E segue como peça-chave desse novo tipo de infraestrutura.
No mercado, a leitura é que o movimento abriu uma fronteira. Como resumiu Dion Harris, diretor de infraestrutura de IA da Nvidia: a partir de “um pequeno data center”, o setor deu “um grande salto em direção a um futuro no qual a computação em órbita aproveita a energia infinita do Sol”.
(Essa matéria usou informações da CNBC.)
