A empresa de inteligência artificial xAI, fundada por Elon Musk, alcançou um marco importante com o supercomputador Colossus, que agora opera com 200 mil GPUs da Nvidia em sua infraestrutura. A máquina foi construída em tempo recorde — apenas 122 dias, quando o esperado era de dois anos — e teve sua capacidade duplicada em mais 92 dias. Com isso, a xAI afirma ter criado o maior supercomputador do mundo, que deve crescer ainda mais nos próximos meses.
O objetivo é ambicioso: chegar a 1 milhão de GPUs, superando concorrentes como a Oracle, que opera com pouco mais de 130 mil. O Colossus é utilizado para treinar o modelo de linguagem Grok, lançado em sua versão mais recente — o Grok 3 — em fevereiro de 2025. Segundo a empresa, o modelo apresenta avanços significativos em tarefas como raciocínio, matemática, codificação e compreensão de instruções.

Supercomputador já consome energia equivalente a 150 mil casas
A primeira fase do Colossus está em operação total com a instalação da subestação local e a conexão à rede elétrica. O consumo de energia já atinge 150 megawatts, fornecidos pela Memphis Light, Gas and Water (MLGW) e pela Tennessee Valley Authority (TVA). Além disso, outras baterias Megapack da Tesla adicionam mais 150 megawatts de energia de backup, garantindo funcionamento contínuo mesmo durante falhas ou picos de demanda.
Essas baterias de íons de lítio podem armazenar cerca de 3.900 kWh cada — equivalente a 62 veículos Tesla Model 3 — e ainda têm potencial para devolver energia à rede em horários de maior valor de mercado. A estrutura, localizada em Memphis, Tennessee, também é usada para apoiar o funcionamento da rede social X (antigo Twitter), também sob controle de Musk.
Expansão exigirá ainda mais energia e infraestrutura
Musk ativou o cluster inicial em julho de 2024, com 100 mil GPUs, dobrando a capacidade em fevereiro deste ano. A velocidade impressionou até o CEO da Nvidia, Jensen Huang, que comentou que esse tipo de instalação costuma levar até quatro anos. A rapidez, no entanto, exigiu atalhos: a operação começou sem conexão à rede elétrica, utilizando geradores a gás natural. Relatos indicam que mais de 35 turbinas chegaram a operar na região.
Agora, com a ligação oficial à rede elétrica, cerca da metade desses geradores será desativada. A outra parte ainda será necessária para abastecer a fase 2 do supercomputador, que deve ser concluída até o final deste ano com a ativação de uma segunda subestação de mais 150 megawatts. No total, Colossus terá 300 MW de capacidade energética, o suficiente para abastecer cerca de 300 mil residências.
Leia mais:
- Busca profunda no ChatGPT: o que é, como funciona, e como usar
- Microsoft 365 Copilot: 6 recursos do modelo de IA que não são tão ruins assim
- Microsoft supera previsões com alta de 33% na nuvem Azure
Caminho para alcançar 1 milhão de GPUs
A meta de Elon Musk é escalar o Colossus até atingir a marca de 1 milhão de unidades da GPU Nvidia H100. Para isso, a xAI já iniciou novas rodadas de captação de recursos — a mais recente, em dezembro de 2024, arrecadou US$ 6 bilhões — com o objetivo de financiar a expansão do Colossus, os modelos da linha Grok e o desenvolvimento de novas soluções em IA.

A demanda energética para esse crescimento é um dos maiores desafios da iniciativa. Embora a TVA afirme que conseguirá manter o fornecimento estável para a região, o consumo em larga escala levanta preocupações sobre o impacto na rede local e sobre a sustentabilidade desse tipo de operação no futuro próximo.
O post Conheça o supercomputador de Musk que poderia abastecer 300 mil casas apareceu primeiro em Olhar Digital.