Colossus
Colossus to superkomputer AI wybudowany przez xAI w południowym Memphis w stanie Tennessee. Zbudowany w zaledwie 122 dni — ułamek standardowego czasu budowy centrum danych tej skali — jest jednym z największych i najszybciej zbudowanych superkomputerów w historii. Trenuje na nim modele Grok, w tym Grok-3 i Grok-4. Na początku 2026 roku infrastruktura rozrosła się do 555 000 GPU rozlokowanych w 3 centrach danych przy łącznej inwestycji szacowanej na ~18 miliardów dolarów.
Parametry techniczne
| Parametr | Wartość |
|---|---|
| Lokalizacja | Memphis, Tennessee, USA (3 centra danych) |
| Obiekt główny | Dawna fabryka Electrolux (~500 000 m²) |
| GPU Faza 1 (lip 2024) | 100 000 × Nvidia H100 (80 GB HBM2e) |
| GPU Faza 2 (paź 2024) | 200 000 GPU (150 000 H100 + 50 000 H200) |
| GPU Faza 3 / łącznie (sty 2026) | 555 000 GPU (Colossus 1 + 2 + 3) |
| Cel docelowy | 1 000 000 GPU |
| Łączna inwestycja w GPU | ~18 miliardów dolarów |
| Moc obliczeniowa (Faza 2) | ~1 exaFLOP (FP8) |
| Pobór mocy (Faza 2) | 300 MW |
| Docelowy pobór mocy | 2 GW |
| Czas budowy Fazy 1 | 122 dni |
| Czas rozbudowy Fazy 2 | 92 dni od Fazy 1 |
122 dni — rekord świata
Projekt Colossus zaczął nabierać kształtów w połowie 2024 roku. Już po 19 dniach od pierwszego szkicu koncepcyjnego xAI było gotowe do rozpoczęcia budowy. Wyburzono wewnętrzne ściany dawnej fabryki, zamontowano szafy serwerowe, przeprowadzono nowe przyłącza energetyczne i uruchomiono systemy chłodzenia — wszystko równolegle, bez sekwencyjnego czekania na kolejne etapy.
Co umożliwiło tak szybką budowę:
- Gotowa hala — przemysłowy obiekt nie wymagał prac od podstaw
- Natychmiastowa dostawa GPU — Nvidia traktowała xAI priorytetowo; dostawy H100 w czasie, gdy inne firmy czekały miesiącami
- Równoległy montaż — szafy serwerowe, okablowanie, chłodzenie i energia instalowane jednocześnie
- Uproszczone przetargi — Musk osobiście przyspieszał decyzje zakupowe; żadnych wielomiesięcznych przetargów
GPU: H100 i H200
Nvidia H100 (SXM5)
Nvidia H200 (SXM5)
H200 ma niemal dwukrotnie więcej i szybszą pamięć niż H100 — kluczowe dla dużych modeli, gdzie przenoszenie wag między GPU i pamięcią bywa wąskim gardłem. Faza 2 Colossus przeszła na mix obu typów, uzupełniony w 2025 roku o 30 000 jednostek GB200 (architektura Blackwell, następca H200).
Moc: 2 GW = energia Warszawy
Docelowa moc Colossus to 2 gigawaty. Dla odniesienia: całe miasto Warszawa (1,8 mln mieszkańców) zużywa około 2,5–3 GW mocy elektrycznej. Jedno centrum danych AI będzie potrzebować energii zbliżonej do stolicy Polski.
Jak xAI rozwiązuje problem zasilania:
- Zakup dawnej elektrowni Duke Energy w pobliskim Southaven (2025)
- 119 chłodnic powietrznych o łącznej pojemności chłodzenia 200 MW (sierpień 2025)
- Budowa własnej oczyszczalni wody — największy na świecie ceramiczny bioreaktor membranowy, zdolność 13 mln galonów dziennie (ok. 50 000 m³/dobę); koszt $80 mln, planowane uruchomienie: koniec 2026
Fazy rozbudowy
| Faza | Data | GPU | Moc | Czas budowy |
|---|---|---|---|---|
| Faza 1 / Colossus 1 | Lipiec 2024 | 100 000 H100 | 150 MW | 122 dni |
| Faza 2 / Colossus 1 | Październik 2024 | 200 000 GPU | 300 MW | 92 dni od Fazy 1 |
| Rozbudowa 2025 | 2025 | +30 000 GB200 | — | — |
| Faza 3 / Colossus 2+3 | Styczeń 2026 | 555 000 GPU (~3 centra) | ~2 GW | Operacyjna |
| Cel końcowy | 2026+ | 1 000 000 GPU | 2 GW | W planach |
W marcu 2025 xAI kupiło magazyn o powierzchni ~93 000 m² w Memphis oraz dwie sąsiednie działki (łącznie ~40 hektarów). W grudniu 2025 do kompleksu dołączył trzeci budynek.
Dlaczego Memphis?
- Przestrzeń przemysłowa — miasto posiada duże, gotowe do adaptacji obiekty poprzemysłowe w przystępnych cenach
- Infrastruktura energetyczna — sieć Duke Energy na południu USA zapewnia bezpośredni dostęp do dużych mocy
- Logistyka — Memphis to globalny hub logistyczny (FedEx World Hub), co ułatwiło dostawę tysięcy ton sprzętu
- Klimat — chłodniejsze zimy pomagają w zarządzaniu ciepłem (choć lata są gorące i wymagają intensywnego chłodzenia wodnego)
Colossus a inne superkomputery AI
| System | Organizacja | GPU/akceleratory | Wydajność |
|---|---|---|---|
| Colossus (Faza 3) | xAI | 555 000 H100/H200/GB200 | ~3+ exaFLOP |
| Colossus Faza 2 | xAI | 200 000 H100/H200 | ~1 exaFLOP |
| Eagle | Microsoft/OpenAI | ~50 000 H100 | ~0,3 exaFLOP |
| Frontier | Oak Ridge Nat. Lab. | 37 888 AMD MI250X | 1,2 exaFLOP (HPC) |
| Aurora | Argonne Nat. Lab. | Intel Ponte Vecchio | 1,0 exaFLOP (HPC) |
Colossus jest zoptymalizowany pod kątem trenowania modeli AI (FP8, BF16), nie pod kątem ogólnych obliczeń naukowych (FP64). Porównania z klasycznymi superkomputerami HPC wymagają uwzględnienia tej różnicy precyzji.
Dane: luty 2026. Źródła: xAI, Tom’s Hardware, Wikipedia, WebProNews, CNBC.
→ Modele Grok trenowane na Colossus · Orbita i Starlink — kosmiczny Colossus