Modele Grok

Modele Grok

Grok to rodzina modeli językowych (LLM) opracowanych przez xAI. Od pierwszego publicznego wydania w listopadzie 2023 roku modele przeszły przez sześć głównych generacji, każdorazowo bijąc lub doganiając najlepsze modele konkurencji. Kluczowa przewaga: dostęp w czasie rzeczywistym do danych z platformy X i unikalny superkomputer Colossus do trenowania.


Wszystkie wersje Grok

ModelParametryKontekstWydanieKluczowe cechy
Grok-1314B (MoE)8 192Mar 2024Open-source Apache 2.0, mieszanina ekspertów
Grok-1.5n.d.128 000Kwi 202416× większy kontekst, lepsza matematyka
Grok-1.5Vn.d.128 000Kwi 2024Pierwszy multimodalny Grok (obrazy, wykresy)
Grok-2n.d.128 000Sie 2024Generowanie obrazów (Aurora/Flux), API publiczne
Grok-2 minin.d.128 000Sie 2024Szybsza, oszczędniejsza wersja Grok-2
Grok-32 700B1 000 000Lut 202510× więcej compute niż Grok-2, tryby Think/Big Brain
Grok-3 minin.d.128 000Lut 202595,8% AIME 2024, oszczędna wersja
Grok-4~1 700Bn.d.Lip 202525,4% Humanity’s Last Exam, multi-agent Heavy
Grok-4 minin.d.n.d.Lip 2025Szybki, tani ($0,20/$0,50 per 1M tokenów)
Grok-4.1n.d.n.d.Lis 2025Ulepszone rozumowanie, mniej halucynacji
Grok-5n.d.n.d.W trakcie (2026)~10–100× więcej compute niż Grok-4; aktywnie trenowany

Architektura: Mixture of Experts

Grok-1 jako pierwszy duży publicznie dostępny model ujawnił architekturę Mixture of Experts (MoE). W standardowym modelu „gęstym" każdy token aktywuje wszystkie parametry sieci — kosztowne obliczeniowo. W MoE sieć składa się z wielu wyspecjalizowanych „ekspertów", a każdy token aktywuje tylko podzbiór z nich.

Grok-1: 314 miliardów parametrów, ale tylko ~25% aktywnych na raz:

  • 8 ekspertów (podsieci), 2 aktywowane dla każdego tokenu
  • 64 warstwy transformatora
  • 48 głowic uwagi (query), 8 głowic (key/value)
  • Wymiar embeddingu: 6 144
  • Zaimplementowany w JAX i Rust
Grok-1 jest open-source. xAI opublikowało go 17 marca 2024 roku na licencji Apache 2.0. To największy publicznie dostępny model językowy w swojej klasie — 314 miliardów parametrów dostępnych dla każdego badacza.

Humanity’s Last Exam — co to jest i dlaczego ma znaczenie

Humanity’s Last Exam (HLE) to benchmark stworzony przez organizację Scale AI w 2025 roku, który ma mierzyć zdolności AI na poziomie doktoranckim. Zawiera pytania z matematyki, fizyki, chemii, biologii, prawa, ekonomii i innych dziedzin — tak trudne, że przeciętny człowiek z wykształceniem średnim odpowie poprawnie tylko na kilka procent.

Wyniki (styczeń 2026):

Grok-4 (z narzędziami)
44,4%
Grok-4
25,4%
Claude Opus 4
~8,9%
Gemini 2.5 Pro
~7,1%
GPT-4o
~3,3%

Grok-4 był pierwszym modelem, który przekroczył 15% na tym benchmarku. Z dostępem do narzędzi (wyszukiwarki, kalkulatory, kod) osiąga 44,4% — coraz bliżej mediany wyników ludzkich ekspertów (~36%).


Grok-3: trenowany na Colossusie

Szczegóły Grok-3 i trybów rozumowania

Grok-3 (luty 2025) był pierwszym modelem xAI trenowanym w pełni na superkomputerze Colossus (200 000 GPU). Kluczowe parametry:

  • 2 700 miliardów parametrów (2,7 biliona)
  • 12,8 biliona tokenów danych treningowych
  • 10× więcej obliczeń niż Grok-2
  • Latencja wnioskowania: 67 ms

Tryby rozumowania:

  • Think — model „myśli na głos" przed udzieleniem odpowiedzi, widoczne kroki rozumowania
  • Big Brain — alokuje dodatkowe zasoby obliczeniowe dla najtrudniejszych zadań; droższy, ale celniejszy przy złożonych problemach matematycznych i naukowych

Grok-3 uzyskał 93,3% na AIME 2025 (olimpiada matematyczna dla licealistów), 84,6% na GPQA (pytania doktoranckie z nauk ścisłych) i 79,4% na LiveCodeBench.

Starsze modele: Grok-1 do Grok-2

Grok-1 (listopad 2023 / open-source marzec 2024) Wydany jako beta dla subskrybentów X Premium 4 listopada 2023. Open-source 17 marca 2024. 314B parametrów MoE, kontekst 8 192 tokenów, trenowany na danych do Q3 2023.

Grok-1.5 (marzec–maj 2024) Ogłoszony 29 marca 2024, wydany dla wszystkich X Premium 15 maja 2024. Okno kontekstu rozszerzone do 128 000 tokenów (16×), znaczna poprawa w matematyce i kodowaniu.

Grok-1.5V (kwiecień 2024) Ogłoszony 12 kwietnia 2024. Pierwszy multimodalny Grok — rozumienie obrazów, dokumentów, wykresów, zrzutów ekranu i schematów naukowych.

Grok-2 i Grok-2 mini (sierpień 2024) Wydane 20 sierpnia 2024. Dodano generowanie obrazów (integracja z Flux od Black Forest Labs, później zastąpione przez Aurora). Pierwsze modele z publicznym API (od 21 października 2024). Grok-2 mini — szybsza i oszczędniejsza wersja do zastosowań wymagających niskich opóźnień.


Grok-4: nowa era modeli

Wydany 9 lipca 2025 roku podczas transmisji na żywo. Grok-4 reprezentuje jakościowy skok względem poprzedniej generacji:

  • ~1 700 miliardów parametrów (MoE)
  • 100× więcej obliczeń niż Grok-2 podczas treningu
  • Ciężkie uczenie przez wzmacnianie (reinforcement learning) — model trenowany przez dawanie zadań i nagradzanie poprawnych rozwiązań
  • Grok-4 Heavy: architektura multi-agent — kilka agentów AI pracuje równolegle, porównuje rozwiązania i konwerguje do optymalnego wyniku

Musk po premierze: „mądrzejszy od prawie wszystkich doktorantów ze wszystkich dziedzin jednocześnie."


Grok w platformie X i API

DostępWymaganiaMożliwości
X FreeKonto XPodstawowy Grok, limit zapytań
X Premium$8/mies.Rozszerzony limit, Think mode
X Premium+$22/mies.Big Brain, generowanie obrazów (Aurora)
API GrokRejestracja devGrok-2, Grok-4.1 Fast, SDK
Rząd USAKontrakt fed. (2025)Dostęp dla agencji federalnych USA

Ceny API:

  • Grok-4.1 Fast: $0,20 / 1M tokenów wejściowych, $0,50 / 1M tokenów wyjściowych
  • Grok-4 (flagship): $3,00 / 1M tokenów wejściowych, $15,00 / 1M tokenów wyjściowych

Deweloperzy otrzymują $25 bezpłatnych kredytów miesięcznie. Program udostępniania danych: użytkownicy, którzy przekażą dane treningowe do xAI, otrzymują dodatkowe $150 miesięcznie w kredytach API.

Kluczowa przewaga nad konkurencją: Grok ma dostęp w czasie rzeczywistym do postów i trendów na X — żaden inny wiodący model nie ma porównywalnego źródła aktualnych danych o świecie.


Dane: luty 2026. Źródła: xAI, x.ai/news, Wikipedia, CNBC.

Colossus — gdzie trenuje Grok · Fuzja ze SpaceX · Aurora i X