Colossus

Colossus

Colossus to superkomputer AI wybudowany przez xAI w południowym Memphis w stanie Tennessee. Zbudowany w zaledwie 122 dni — ułamek standardowego czasu budowy centrum danych tej skali — jest jednym z największych i najszybciej zbudowanych superkomputerów w historii. Trenuje na nim modele Grok, w tym Grok-3 i Grok-4. Na początku 2026 roku infrastruktura rozrosła się do 555 000 GPU rozlokowanych w 3 centrach danych przy łącznej inwestycji szacowanej na ~18 miliardów dolarów.


Parametry techniczne

ParametrWartość
LokalizacjaMemphis, Tennessee, USA (3 centra danych)
Obiekt głównyDawna fabryka Electrolux (~500 000 m²)
GPU Faza 1 (lip 2024)100 000 × Nvidia H100 (80 GB HBM2e)
GPU Faza 2 (paź 2024)200 000 GPU (150 000 H100 + 50 000 H200)
GPU Faza 3 / łącznie (sty 2026)555 000 GPU (Colossus 1 + 2 + 3)
Cel docelowy1 000 000 GPU
Łączna inwestycja w GPU~18 miliardów dolarów
Moc obliczeniowa (Faza 2)~1 exaFLOP (FP8)
Pobór mocy (Faza 2)300 MW
Docelowy pobór mocy2 GW
Czas budowy Fazy 1122 dni
Czas rozbudowy Fazy 292 dni od Fazy 1

122 dni — rekord świata

Branżowa norma: budowa centrum danych tej skali zajmuje zwykle 18–36 miesięcy. xAI zrobiło to w 4 miesiące.

Projekt Colossus zaczął nabierać kształtów w połowie 2024 roku. Już po 19 dniach od pierwszego szkicu koncepcyjnego xAI było gotowe do rozpoczęcia budowy. Wyburzono wewnętrzne ściany dawnej fabryki, zamontowano szafy serwerowe, przeprowadzono nowe przyłącza energetyczne i uruchomiono systemy chłodzenia — wszystko równolegle, bez sekwencyjnego czekania na kolejne etapy.

Co umożliwiło tak szybką budowę:

  1. Gotowa hala — przemysłowy obiekt nie wymagał prac od podstaw
  2. Natychmiastowa dostawa GPU — Nvidia traktowała xAI priorytetowo; dostawy H100 w czasie, gdy inne firmy czekały miesiącami
  3. Równoległy montaż — szafy serwerowe, okablowanie, chłodzenie i energia instalowane jednocześnie
  4. Uproszczone przetargi — Musk osobiście przyspieszał decyzje zakupowe; żadnych wielomiesięcznych przetargów

GPU: H100 i H200

Nvidia H100 (SXM5)

Pamięć HBM80 GB HBM2e
Przepustowość3,35 TB/s
Wydajność FP8~4 PFLOPS
TDP700 W
W Colossus150 000 szt.

Nvidia H200 (SXM5)

Pamięć HBM141 GB HBM3e
Przepustowość4,8 TB/s
Wydajność FP8~4 PFLOPS
TDP1 000 W
W Colossus50 000 szt.

H200 ma niemal dwukrotnie więcej i szybszą pamięć niż H100 — kluczowe dla dużych modeli, gdzie przenoszenie wag między GPU i pamięcią bywa wąskim gardłem. Faza 2 Colossus przeszła na mix obu typów, uzupełniony w 2025 roku o 30 000 jednostek GB200 (architektura Blackwell, następca H200).


Moc: 2 GW = energia Warszawy

Docelowa moc Colossus to 2 gigawaty. Dla odniesienia: całe miasto Warszawa (1,8 mln mieszkańców) zużywa około 2,5–3 GW mocy elektrycznej. Jedno centrum danych AI będzie potrzebować energii zbliżonej do stolicy Polski.

Jak xAI rozwiązuje problem zasilania:

  • Zakup dawnej elektrowni Duke Energy w pobliskim Southaven (2025)
  • 119 chłodnic powietrznych o łącznej pojemności chłodzenia 200 MW (sierpień 2025)
  • Budowa własnej oczyszczalni wody — największy na świecie ceramiczny bioreaktor membranowy, zdolność 13 mln galonów dziennie (ok. 50 000 m³/dobę); koszt $80 mln, planowane uruchomienie: koniec 2026

Fazy rozbudowy

FazaDataGPUMocCzas budowy
Faza 1 / Colossus 1Lipiec 2024100 000 H100150 MW122 dni
Faza 2 / Colossus 1Październik 2024200 000 GPU300 MW92 dni od Fazy 1
Rozbudowa 20252025+30 000 GB200
Faza 3 / Colossus 2+3Styczeń 2026555 000 GPU (~3 centra)~2 GWOperacyjna
Cel końcowy2026+1 000 000 GPU2 GWW planach

W marcu 2025 xAI kupiło magazyn o powierzchni ~93 000 m² w Memphis oraz dwie sąsiednie działki (łącznie ~40 hektarów). W grudniu 2025 do kompleksu dołączył trzeci budynek.


Dlaczego Memphis?

  • Przestrzeń przemysłowa — miasto posiada duże, gotowe do adaptacji obiekty poprzemysłowe w przystępnych cenach
  • Infrastruktura energetyczna — sieć Duke Energy na południu USA zapewnia bezpośredni dostęp do dużych mocy
  • Logistyka — Memphis to globalny hub logistyczny (FedEx World Hub), co ułatwiło dostawę tysięcy ton sprzętu
  • Klimat — chłodniejsze zimy pomagają w zarządzaniu ciepłem (choć lata są gorące i wymagają intensywnego chłodzenia wodnego)
Kontrowersje środowiskowe: plany zużycia >5 mln galonów wody dziennie z miejskiej sieci wywołały protesty mieszkańców Memphis. xAI zobowiązało się do budowy własnego systemu uzdatniania wody, co powinno zredukować pobór z miejskiej sieci po 2026 roku.

Colossus a inne superkomputery AI

SystemOrganizacjaGPU/akceleratoryWydajność
Colossus (Faza 3)xAI555 000 H100/H200/GB200~3+ exaFLOP
Colossus Faza 2xAI200 000 H100/H200~1 exaFLOP
EagleMicrosoft/OpenAI~50 000 H100~0,3 exaFLOP
FrontierOak Ridge Nat. Lab.37 888 AMD MI250X1,2 exaFLOP (HPC)
AuroraArgonne Nat. Lab.Intel Ponte Vecchio1,0 exaFLOP (HPC)

Colossus jest zoptymalizowany pod kątem trenowania modeli AI (FP8, BF16), nie pod kątem ogólnych obliczeń naukowych (FP64). Porównania z klasycznymi superkomputerami HPC wymagają uwzględnienia tej różnicy precyzji.


Dane: luty 2026. Źródła: xAI, Tom’s Hardware, Wikipedia, WebProNews, CNBC.

Modele Grok trenowane na Colossus · Orbita i Starlink — kosmiczny Colossus