Modele Grok
Grok to rodzina modeli językowych (LLM) opracowanych przez xAI. Od pierwszego publicznego wydania w listopadzie 2023 roku modele przeszły przez sześć głównych generacji, każdorazowo bijąc lub doganiając najlepsze modele konkurencji. Kluczowa przewaga: dostęp w czasie rzeczywistym do danych z platformy X i unikalny superkomputer Colossus do trenowania.
Wszystkie wersje Grok
| Model | Parametry | Kontekst | Wydanie | Kluczowe cechy |
|---|---|---|---|---|
| Grok-1 | 314B (MoE) | 8 192 | Mar 2024 | Open-source Apache 2.0, mieszanina ekspertów |
| Grok-1.5 | n.d. | 128 000 | Kwi 2024 | 16× większy kontekst, lepsza matematyka |
| Grok-1.5V | n.d. | 128 000 | Kwi 2024 | Pierwszy multimodalny Grok (obrazy, wykresy) |
| Grok-2 | n.d. | 128 000 | Sie 2024 | Generowanie obrazów (Aurora/Flux), API publiczne |
| Grok-2 mini | n.d. | 128 000 | Sie 2024 | Szybsza, oszczędniejsza wersja Grok-2 |
| Grok-3 | 2 700B | 1 000 000 | Lut 2025 | 10× więcej compute niż Grok-2, tryby Think/Big Brain |
| Grok-3 mini | n.d. | 128 000 | Lut 2025 | 95,8% AIME 2024, oszczędna wersja |
| Grok-4 | ~1 700B | n.d. | Lip 2025 | 25,4% Humanity’s Last Exam, multi-agent Heavy |
| Grok-4 mini | n.d. | n.d. | Lip 2025 | Szybki, tani ($0,20/$0,50 per 1M tokenów) |
| Grok-4.1 | n.d. | n.d. | Lis 2025 | Ulepszone rozumowanie, mniej halucynacji |
| Grok-5 | n.d. | n.d. | W trakcie (2026) | ~10–100× więcej compute niż Grok-4; aktywnie trenowany |
Architektura: Mixture of Experts
Grok-1 jako pierwszy duży publicznie dostępny model ujawnił architekturę Mixture of Experts (MoE). W standardowym modelu „gęstym" każdy token aktywuje wszystkie parametry sieci — kosztowne obliczeniowo. W MoE sieć składa się z wielu wyspecjalizowanych „ekspertów", a każdy token aktywuje tylko podzbiór z nich.
Grok-1: 314 miliardów parametrów, ale tylko ~25% aktywnych na raz:
- 8 ekspertów (podsieci), 2 aktywowane dla każdego tokenu
- 64 warstwy transformatora
- 48 głowic uwagi (query), 8 głowic (key/value)
- Wymiar embeddingu: 6 144
- Zaimplementowany w JAX i Rust
Humanity’s Last Exam — co to jest i dlaczego ma znaczenie
Humanity’s Last Exam (HLE) to benchmark stworzony przez organizację Scale AI w 2025 roku, który ma mierzyć zdolności AI na poziomie doktoranckim. Zawiera pytania z matematyki, fizyki, chemii, biologii, prawa, ekonomii i innych dziedzin — tak trudne, że przeciętny człowiek z wykształceniem średnim odpowie poprawnie tylko na kilka procent.
Wyniki (styczeń 2026):
Grok-4 był pierwszym modelem, który przekroczył 15% na tym benchmarku. Z dostępem do narzędzi (wyszukiwarki, kalkulatory, kod) osiąga 44,4% — coraz bliżej mediany wyników ludzkich ekspertów (~36%).
Grok-3: trenowany na Colossusie
Szczegóły Grok-3 i trybów rozumowania
Grok-3 (luty 2025) był pierwszym modelem xAI trenowanym w pełni na superkomputerze Colossus (200 000 GPU). Kluczowe parametry:
- 2 700 miliardów parametrów (2,7 biliona)
- 12,8 biliona tokenów danych treningowych
- 10× więcej obliczeń niż Grok-2
- Latencja wnioskowania: 67 ms
Tryby rozumowania:
- Think — model „myśli na głos" przed udzieleniem odpowiedzi, widoczne kroki rozumowania
- Big Brain — alokuje dodatkowe zasoby obliczeniowe dla najtrudniejszych zadań; droższy, ale celniejszy przy złożonych problemach matematycznych i naukowych
Grok-3 uzyskał 93,3% na AIME 2025 (olimpiada matematyczna dla licealistów), 84,6% na GPQA (pytania doktoranckie z nauk ścisłych) i 79,4% na LiveCodeBench.
Starsze modele: Grok-1 do Grok-2
Grok-1 (listopad 2023 / open-source marzec 2024) Wydany jako beta dla subskrybentów X Premium 4 listopada 2023. Open-source 17 marca 2024. 314B parametrów MoE, kontekst 8 192 tokenów, trenowany na danych do Q3 2023.
Grok-1.5 (marzec–maj 2024) Ogłoszony 29 marca 2024, wydany dla wszystkich X Premium 15 maja 2024. Okno kontekstu rozszerzone do 128 000 tokenów (16×), znaczna poprawa w matematyce i kodowaniu.
Grok-1.5V (kwiecień 2024) Ogłoszony 12 kwietnia 2024. Pierwszy multimodalny Grok — rozumienie obrazów, dokumentów, wykresów, zrzutów ekranu i schematów naukowych.
Grok-2 i Grok-2 mini (sierpień 2024) Wydane 20 sierpnia 2024. Dodano generowanie obrazów (integracja z Flux od Black Forest Labs, później zastąpione przez Aurora). Pierwsze modele z publicznym API (od 21 października 2024). Grok-2 mini — szybsza i oszczędniejsza wersja do zastosowań wymagających niskich opóźnień.
Grok-4: nowa era modeli
Wydany 9 lipca 2025 roku podczas transmisji na żywo. Grok-4 reprezentuje jakościowy skok względem poprzedniej generacji:
- ~1 700 miliardów parametrów (MoE)
- 100× więcej obliczeń niż Grok-2 podczas treningu
- Ciężkie uczenie przez wzmacnianie (reinforcement learning) — model trenowany przez dawanie zadań i nagradzanie poprawnych rozwiązań
- Grok-4 Heavy: architektura multi-agent — kilka agentów AI pracuje równolegle, porównuje rozwiązania i konwerguje do optymalnego wyniku
Musk po premierze: „mądrzejszy od prawie wszystkich doktorantów ze wszystkich dziedzin jednocześnie."
Grok w platformie X i API
| Dostęp | Wymagania | Możliwości |
|---|---|---|
| X Free | Konto X | Podstawowy Grok, limit zapytań |
| X Premium | $8/mies. | Rozszerzony limit, Think mode |
| X Premium+ | $22/mies. | Big Brain, generowanie obrazów (Aurora) |
| API Grok | Rejestracja dev | Grok-2, Grok-4.1 Fast, SDK |
| Rząd USA | Kontrakt fed. (2025) | Dostęp dla agencji federalnych USA |
Ceny API:
- Grok-4.1 Fast: $0,20 / 1M tokenów wejściowych, $0,50 / 1M tokenów wyjściowych
- Grok-4 (flagship): $3,00 / 1M tokenów wejściowych, $15,00 / 1M tokenów wyjściowych
Deweloperzy otrzymują $25 bezpłatnych kredytów miesięcznie. Program udostępniania danych: użytkownicy, którzy przekażą dane treningowe do xAI, otrzymują dodatkowe $150 miesięcznie w kredytach API.
Kluczowa przewaga nad konkurencją: Grok ma dostęp w czasie rzeczywistym do postów i trendów na X — żaden inny wiodący model nie ma porównywalnego źródła aktualnych danych o świecie.
Dane: luty 2026. Źródła: xAI, x.ai/news, Wikipedia, CNBC.
→ Colossus — gdzie trenuje Grok · Fuzja ze SpaceX · Aurora i X