History of AI in Poland
and worldwide
From the first artificial neuron to autonomous AI agents. An interactive history of breakthroughs, winters and explosions that defined our era.
Początki
Narodziny idei sztucznej inteligencji — od pierwszego modelu neuronu po program udający psychoterapeutę. Marzyciele, matematycy i wizjonerzy tworzą fundamenty.
Pierwsza zima AI
Rozczarowanie po niespełnionych obietnicach. Rządy wycofują finansowanie, naukowcy porzucają badania. AI przechodzi w stan hibernacji.
Systemy ekspertowe
AI wraca w formie systemów ekspertowych — programów opartych na regułach "jeśli-to". Firmy inwestują miliardy, Japonia startuje megaprojekt.
Druga zima AI
Systemy ekspertowe okazują się kruche i kosztowne w utrzymaniu. Japonia porzuca megaprojekt. Ale w ciszy rodzą się sieci konwolucyjne...
Machine Learning
Ciche odrodzenie: statystyka zastępuje symbolikę. Deep Blue pokonuje Kasparowa w szachach. Internet dostarcza dane. Hinton odmraża deep learning.
Deep Learning
Głębokie sieci neuronowe eksplodują. AlexNet, AlphaGo, Transformer — AI bije ludzi w kolejnych dziedzinach. GPU + duże dane = rewolucja.
Era LLM
Wielkie modele językowe zmieniają świat. ChatGPT trafia do 100 milionów użytkowników. Claude, Gemini, Llama — wyścig przyspiesza. AI przestaje być akademicką ciekawostką.
AI-Native
AI przestaje być narzędziem — staje się fundamentem. Multi-agent systems, Claude Code, vibecoding. Kto nie adaptuje się do AI-native — zostaje w tyle.
Kto wiódł prym? 2020–2026
Pięć graczy, dziesiątki modeli, walka o pozycję lidera AI. Gwiazdki oznaczają modele, które w momencie premiery były najlepsze na świecie.
Jak rosła inteligencja AI? 2020–2026
Szacunkowe ekwiwalenty IQ modeli AI na podstawie wyników benchmarków (MMLU, rozumowanie, kodowanie, matematyka). AI nie posiada IQ w psychometrycznym sensie — wartości są orientacyjne i służą wyłącznie do ilustracji tempa postępu. Źródło: benchmarki akademickie, Arena, MMLU, HumanEval.
Top 15 modeli AI na świecie
Ranking na podstawie Arena (arena.ai) — marzec 2026. Arena mierzy preferencje użytkowników w ślepych testach porównawczych na podstawie ponad 6 mln głosów. Wyniki Elo zmieniają się codziennie. Top 3 modeli mieści się w marginesie błędu.
| # | Model | Firma | Arena Elo |
|---|---|---|---|
| 1 | Claude Opus 4.6 (thinking) | Anthropic | 1503 |
| 2 | Claude Opus 4.6 | Anthropic | 1503 |
| 3 | Gemini 3.1 Pro Preview | 1500 | |
| 4 | Grok-4.20 beta | xAI | 1495 |
| 5 | Gemini 3 Pro | 1486 | |
| 6 | GPT-5.2 | OpenAI | 1481 |
| 7 | Gemini 3 Flash | 1473 | |
| 8 | Grok-4.1 (thinking) | xAI | 1473 |
| 9 | Claude Opus 4.5 (thinking) | Anthropic | 1471 |
| 10 | Dola Seed 2.0 | ByteDance | 1470 |
| 11 | Claude Opus 4.5 | Anthropic | 1467 |
| 12 | Grok-4.1 | xAI | 1462 |
| 13 | Gemini 3 Flash (thinking) | 1461 | |
| 14 | Claude Sonnet 4.6 | Anthropic | 1458 |
| 15 | GPT-5.1 High | OpenAI | 1457 |
Bielik — polski orzeł wśród modeli AI
Pierwszy polski duży model językowy stworzony przez wolontariuszy. Historia, która udowadnia, że nie trzeba miliardów dolarów, żeby budować AI.
Od zera do 32 języków
2022: Fundacja SpeakLeash (Spichlerz) powstaje jako inicjatywa oddolna. Grupa wolontariuszy — programistów, naukowców i studentów — postanawia stworzyć pierwszy prawdziwy polski LLM. Pracują wieczorami i w weekendy.
Kwiecień 2024: Premiera Bielika 7B v0.1 — opartego na Mistral-7B, wytrenowanego na 70 miliardach polskich tokenów z własnym tokenizerem APT4. Nazwa pochodzi od orła bielika — symbolu polskiej natury.
2024–2025: Ewolucja do 11B parametrów (depth up-scaling), iteracje v2.0 do v2.6 z kolejnymi ulepszeniami. Bielik 11B v2.3 Instruct pobija GPT-3.5 o 21% w zadaniach po polsku.
Lipiec 2025: Bielik 11B v3 — model wielojęzyczny obsługujący 32 języki europejskie. Mniejsze wersje (1.5B i 4.5B) oparte na Qwen2.5 konkurują z modelami 2-3× większymi.
Bielik w liczbach
Bielik vs PLLuM
Bielik = społeczność. Stworzony przez wolontariuszy SpeakLeash + Cyfronet AGH. Open source, bez budżetu państwowego.
PLLuM = państwo. Rządowy model (14.5 mln PLN), 6 instytucji naukowych, modele 12B-70B oparte na Llama. Wdrożony w mObywatelu i administracji.
Razem tworzą komplementarny ekosystem polskiej AI.
Ciekawostki
GPT nie "rozumie" języka — przewiduje następny token w sekwencji.
Trening GPT-4 kosztował szacunkowo ~100 milionów dolarów. 80% kosztu to energia i GPU.
Ludzki mózg ma ok. 100–600 bilionów synaps. Największe modele AI mają kilka bilionów parametrów — wciąż 20–100× mniej niż mózg.
NVIDIA H100 to "nowa ropa naftowa" — dominuje rynek GPU do treningu AI.
Chcesz być częścią tej historii?
MKM Labs buduje z AI jako fundamentem. Dołącz do firm, które nie czekają na przyszłość — tworzą ją.
Rozpocznij projekt z AIAbout the AI Chronicle
The MKM Labs AI Chronicle is an interactive history of artificial intelligence — from the McCulloch–Pitts neuron of 1943 to the latest AI news and the race of large language models (LLMs) in 2025 and 2026. We track breakthroughs in deep learning, the emergence of ChatGPT, Claude, Gemini and other models, as well as AI updates on regulation, business applications and industry transformation.
The timeline spans 8 epochs: from symbolic beginnings, through the AI winter, the deep learning explosion, to the era of large language models and autonomous AI agents. Each entry in the chronicle describes an event, its significance for the industry, and its consequences for today's artificial intelligence market. A comprehensive source combining the history of AI with current AI updates on a single timeline.