Kiedy w 1991 roku dwudziestojednoletni fiński student informatyki wrzucił na serwer FTP kilka tysięcy linii kodu, napisanych na pececie z procesorem Intel 386, nikt — łącznie z autorem — nie spodziewał się rewolucji. Trzydzieści pięć lat później ten sam projekt napędza każdy z pięciuset najszybszych superkomputerów na Ziemi, połowę globalnych obciążeń chmurowych i prawie trzy miliardy smartfonów. To historia Linuksa — systemu operacyjnego, który zmienił zasady gry w branży technologicznej, a przy tym pozostał darmowy i otwarty dla każdego.

Zanim pojawił się pingwin

Żeby zrozumieć genezę Linuksa, trzeba cofnąć się o dwie dekady przed jego narodzinami — do laboratoriów Bell Labs w Murray Hill w stanie New Jersey. Tam latem 1969 roku Ken Thompson, do którego wkrótce dołączył Dennis Ritchie, zaczął tworzyć nowy system operacyjny na nieużywanym minikomputerze PDP-7. Impulsem było coś zaskakująco przyziemnego: Thompson przeportował na tę maszynę swoją grę Space Travel, bo uruchamianie jej na dużym komputerze GE-645 kosztowało około 75 dolarów za sesję. Praca nad grą pociągnęła za sobą pisanie sterowników, systemu plików, w końcu — zalążka systemu operacyjnego. Kolega z zespołu, Brian Kernighan, ochrzcił go mianem Unics (gra słów z Multics, wcześniejszym projektem), a nazwa szybko ustabilizowała się jako Unix.

Unix zdobył ogromną popularność na uczelniach, bo AT&T — właściciel Bell Labs — na mocy porozumienia antymonopolowego nie mogło czerpać zysków z oprogramowania i udostępniało kod źródłowy akademikom niemal za darmo. Uniwersytety zaczęły modyfikować system na własne potrzeby. Najsłynniejszym takim odgałęzieniem stało się BSD (Berkeley Software Distribution), rozwijane na Uniwersytecie Kalifornijskim w Berkeley. Problem pojawił się w latach osiemdziesiątych, gdy AT&T dostało zielone światło na komercjalizację Uniksa. Licencje poszybowały w górę, zaczęły się wojny patentowe, a dostęp do kodu źródłowego — dotychczas traktowany jako oczywistość — stał się przywilejem bogatych instytucji.

W tym samym czasie komputery osobiste stawały się coraz bardziej powszechne, ale ich oprogramowanie było zamknięte. MS-DOS, potem Windows — to były czarne skrzynki, w których użytkownik nie miał prawa zajrzeć pod maskę. Dla wielu programistów, wychowanych na kulturze dzielenia się kodem, ta sytuacja była nie do zaakceptowania.

Stallman i rewolucja wolnego oprogramowania

Jednym z tych niezadowolonych był Richard Stallman, programista z laboratorium sztucznej inteligencji MIT. Stallman, legenda tamtejszego środowiska hakerskiego, w 1983 roku ogłosił w Usenecie plan stworzenia kompletnego, wolnego systemu operacyjnego kompatybilnego z Uniksem. Nazwał go GNU — to rekurencyjny akronim od „GNU’s Not Unix" (GNU to nie Unix). Rok później odszedł z MIT, żeby poświęcić się temu projektowi bez reszty.

Stallman nie był naiwnym idealistą — miał bardzo konkretną wizję. Chodziło mu o cztery fundamentalne wolności: prawo do uruchamiania programu w dowolnym celu, prawo do studiowania jego kodu źródłowego i modyfikowania go, prawo do redystrybucji kopii oraz prawo do udostępniania zmodyfikowanych wersji. W 1985 roku założył Free Software Foundation, a w 1989 opublikował Powszechną Licencję Publiczną GNU (GPL) — dokument prawny, który gwarantował te wolności nie tylko obecnym, ale i przyszłym użytkownikom kodu.

Do początku lat dziewięćdziesiątych projekt GNU zgromadził imponujący arsenał narzędzi programistycznych. Kompilator GCC, edytor Emacs, debugger GDB, zestaw narzędzi powłoki — wszystko to działało i działało dobrze. Brakowało jednak jednego kluczowego elementu: jądra systemu operacyjnego, czyli programu zarządzającego sprzętem i zasobami komputera. GNU pracowało nad własnym jądrem o nazwie Hurd, opartym na ambitnej architekturze mikrojądra, ale projekt grzązł w nieskończonych opóźnieniach. Hurd do dziś nie osiągnął statusu produkcyjnego.

Ta luka okazała się decydująca dla dalszego biegu historii.

Fiński student i jego „hobby"

Linus Benedict Torvalds urodził się 28 grudnia 1969 roku w Helsinkach, w rodzinie dziennikarzy. Jego dziadek ze strony matki, statystyk Leo Törnqvist, kupił sobie Commodore VIC-20 jako gloryfikowany kalkulator do obliczeń — i to na nim jedenastoletni Linus w 1981 roku zaczął programować, najpierw w BASIC-u, potem bezpośrednio w kodzie maszynowym procesora 6502. Fascynacja komputerami pochłonęła go bez reszty. Rodzice nazwali go na cześć Linusa Paulinga — jedynego człowieka w historii, który otrzymał dwie indywidualne Nagrody Nobla (z chemii i pokojową). Sam Torvalds żartował później, że równie dobrze mógł dostać imię od Linusa z „Fistaszków", postaci notorycznie przytulającej swój kocyk.

W 1988 roku Torvalds rozpoczął studia informatyczne na Uniwersytecie Helsińskim. W 1991 kupił sobie peceta z procesorem Intel 80386, uruchomił na nim system MINIX — dydaktyczny klon Uniksa stworzony przez holenderskiego profesora Andrew Tanenbauma — i dość szybko uznał, że MINIX ma zbyt wiele ograniczeń. System działał wyłącznie w celach edukacyjnych, a Tanenbaum celowo blokował rozwój, który wykraczałby poza ramy podręcznika. Torvalds chciał czegoś więcej: prawdziwego wielozadaniowego systemu, który wykorzystałby możliwości jego nowego procesora.

Mógł kupić licencję na Uniksa. Ale nie było go na to stać.

Mógł poczekać na ukończenie jądra Hurd. Ale kto wie, ile by to trwało.

Postanowił napisać własne jądro. Zaczął od przełącznika zadań w asemblerze procesora 386 i sterownika terminala. W lipcu 1991 roku na grupie dyskusyjnej comp.os.minix pojawił się jego pierwszy post — pytanie o dokumentację standardu POSIX, potrzebną do implementacji wywołań systemowych. Dokumentacji nie dostał, bo organizacja standaryzacyjna żądała opłaty, więc posiłkował się podręcznikami do SunOS-a z uniwersyteckiej biblioteki.

25 sierpnia 1991 roku Torvalds opublikował wiadomość, która przeszła do historii informatyki: „Robię (darmowy) system operacyjny (to tylko hobby, nie będzie duży i profesjonalny jak gnu) na klony 386(486) AT". Pierwotnie chciał nazwać swoje dzieło Freax — zbitka słów „free", „freak" i „x" (od Uniksa). Ale Ari Lemmke, administrator serwera FTP na Politechnice Helsińskiej, uznał tę nazwę za niezbyt trafną i samowolnie stworzył katalog o nazwie „linux". Torvalds, który wcześniej odrzucił to miano jako „zbyt egocentryczne", ostatecznie przystał na zmianę.

17 września 1991 roku wersja 0.01 trafiła na serwer ftp.funet.fi. Liczyła nieco ponad dziesięć tysięcy linii kodu.

Początki systemu Linux – symboliczna scena narodzin projektu Linusa Torvaldsa
Początki systemu Linux – symboliczna wizualizacja narodzin projektu stworzonego przez Linusa Torvaldsa na początku lat 90.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.

Od dziesięciu tysięcy do trzydziestu ośmiu milionów linii

Pierwsze wersje Linuksa były surowe. Nie było sterownika dyskietek, nie było pamięci wirtualnej, instalacja wymagała rąk wprawnego hakera. Ale system działał — obsługiwał prawdziwą wielozadaniowość, korzystał z trybu chronionego procesora 386 i potrafił uruchomić powłokę Bash oraz kompilator GCC. Dla programistów zmęczonych ograniczeniami MINIX-a i rachunkami za licencje Uniksa to wystarczyło.

Tempo rozwoju było oszałamiające. Wersja 0.02 pojawiła się 5 października, niespełna trzy tygodnie po premierze. Kolejne wydania napływały co kilka tygodni. Torvalds nie pracował sam — studenci i programiści z całego świata zaczęli przysyłać poprawki i nowe sterowniki. Wspólnota formowała się wokół list dyskusyjnych i serwerów FTP, na długo przed erą GitHuba i ciągłej integracji.

Przełomowy rok to 1992. Torvalds zmienił licencję Linuksa — początkowo zabraniała ona komercyjnego wykorzystania — na GPL w wersji 2, taką samą jaką stosował projekt GNU. Decyzja ta otworzyła drogę do symbiozy: jądro Linuksa połączone z narzędziami GNU tworzyło kompletny, w pełni wolny system operacyjny. Richard Stallman do dziś upiera się, że powinno się mówić „GNU/Linux", bo bez narzędzi GNU samo jądro niewiele by mogło. Większość świata używa krótszej nazwy. Spór ten, choć pozornie błahy, dotyka istotnej kwestii — kto powinien dostawać uznanie za kolektywne dzieło tysięcy ludzi.

W 1993 roku nad jądrem pracowało już ponad stu deweloperów. Pojawiły się pierwsze dystrybucje — gotowe zestawy jądra, narzędzi systemowych i aplikacji, które można było zainstalować bez głębokiej wiedzy technicznej. Slackware, najstarsza wciąż istniejąca dystrybucja, zadebiutowała właśnie wtedy. W tym samym roku Ian Murdock założył projekt Debian, który z czasem wyrósł na największą dystrybucję wspólnotową. 14 marca 1994 roku Torvalds ogłosił wersję 1.0 jądra — pierwszą uznaną za stabilną i kompletną.

Odtąd rozwój przyspieszał z każdym rokiem. W 1994 roku Red Hat i SUSE opublikowały swoje pierwsze komercyjne dystrybucje. W 1997 roku Torvalds zaczął pracę w kalifornijskiej firmie Transmeta, producencie energooszczędnych procesorów, i przeprowadził się do Stanów Zjednoczonych. W 2003 przeszedł do Open Source Development Labs, a po ich fuzji z Free Standards Group w 2007 roku — do Linux Foundation, gdzie pracuje po dziś dzień jako główny opiekun jądra.

A liczby? Jądro Linuksa w wersji 6.16, wydanej latem 2025 roku, zawiera około 38,4 miliona linii kodu w ponad 78 tysiącach plików. Do cyklu rozwojowego wersji 6.18, zamkniętego w listopadzie 2025, swój wkład wniosło 2134 programistów — rekordowa liczba w historii projektu. W ciągu zaledwie dwunastu miesięcy (od wersji 6.12 do 6.18) społeczność złożyła ponad 80 tysięcy zestawów zmian. Za kodem stoją zarówno indywidualni entuzjaści, jak i wielkie korporacje: Intel, Red Hat, Google, Meta, AMD, Oracle, Huawei, SUSE — lista firm płacących programistom za rozwój wolnego jądra jest długa i co roku się wydłuża.

Gdzie rządzi Linux

Przeciętny użytkownik komputera stacjonarnego z Linuksem pewnie się nie zetknął — przynajmniej nie świadomie. Na rynku desktopów system ten kontroluje niecałe pięć procent. Windows ze swoim ponad siedemdziesięcioprocentowym udziałem i macOS z szesnastoma procentami dominują tu niepodzielnie. Ale desktop to margines historii Linuksa. Prawdziwa potęga tego systemu leży gdzie indziej.

Serwery. Linux obsługuje około 53 procent wszystkich serwerów na świecie, a wśród miliona najpopularniejszych stron internetowych ten odsetek sięga 96 procent. Serwery WWW Nginx i Apache, oba działające na Linuksie, razem obsługują przytłaczającą większość ruchu internetowego. Każda strona, którą otwierasz w przeglądarce, każdy film na platformie streamingowej, każda transakcja w sklepie internetowym — to z ogromnym prawdopodobieństwem maszyny z Linuksem na pokładzie.

Chmura obliczeniowa to kolejne królestwo. Amazon Web Services, Microsoft Azure i Google Cloud — trzej wielcy dostawcy infrastruktury chmurowej, kontrolujący łącznie ponad 63 procent rynku — wszystkie opierają swoje fundamenty na Linuksie. Około 92 procent maszyn wirtualnych w tych środowiskach pracuje pod kontrolą linuksowych dystrybucji. Kiedy słyszysz o „chmurze", w praktyce chodzi o setki tysięcy serwerów z Linuksem rozsiane po centrach danych na całym świecie.

Superkomputery to absolutna dominacja. Od listopada 2017 roku wszystkie pięćset maszyn z listy TOP500 — rankingu najpotężniejszych komputerów świata — pracuje pod Linuksem. Nie 99 procent, nie 499 z 500 — dosłownie każdy. Najszybszy z nich, El Capitan w Lawrence Livermore National Laboratory, osiąga moc obliczeniową 1,742 eksaflopsów (to 1 742 000 000 000 000 000 operacji zmiennoprzecinkowych na sekundę). Superkomputery potrzebują możliwości głębokiej ingerencji w jądro systemu — dostrajania schedulera, zarządzania pamięcią na niskim poziomie, optymalizacji pod konkretny sprzęt. Zamknięty, niemodyfikowalny system operacyjny tego nie oferuje. Linux tak.

A w kieszeni? Tam też Linux. Android, system operacyjny ponad 70 procent smartfonów na świecie, działa na jądrze Linuksa. To zmodyfikowana, dostosowana do potrzeb urządzeń mobilnych wersja — ale fundamentem jest ten sam projekt, który Torvalds zaczął w swoim helsińskim pokoju. Do tego dochodzą systemy wbudowane: routery, telewizory smart, lodówki z wyświetlaczem, systemy infotainment w samochodach, kamery przemysłowe, terminale płatnicze. Szacuje się, że Linux napędza blisko 40 procent wszystkich systemów wbudowanych i około połowę urządzeń Internetu Rzeczy.

Nawet jeśli na własnym komputerze masz Windowsa, każdego dnia korzystasz z dziesiątek maszyn pracujących pod Linuksem. Po prostu o tym nie wiesz.

Linux na serwerach – wizualizacja infrastruktury serwerowej działającej pod kontrolą systemu Linux
Linux na serwerach – wizualizacja infrastruktury serwerowej działającej pod kontrolą systemu Linux.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.

Anatomia otwartego modelu

Co właściwie sprawia, że Linux tak dobrze się sprawdza w tak różnych zastosowaniach? Odpowiedź nie jest jednoczynnikowa, ale zaczyna się od tego, co najbardziej oczywiste: otwarty kod źródłowy.

Każdy może przeczytać, zmodyfikować i rozpowszechnić jądro Linuksa — pod warunkiem, że zmodyfikowana wersja również zostanie udostępniona na licencji GPL. To fundamentalna różnica wobec Windowsa czy macOS-a, gdzie kod jest tajemnicą handlową producenta. Otwartość nie oznacza jednak chaosu. Proces akceptacji zmian w jądrze jest rygorystyczny, hierarchiczny i nadzorowany przez doświadczonych opiekunów poszczególnych podsystemów. Na szczycie tej hierarchii stoi wciąż Linus Torvalds, który osobiście zatwierdza scalanie kodu do głównej gałęzi. Nowe łatki przechodzą przez wieloetapowy proces recenzji na publicznych listach dyskusyjnych, zanim zostaną zaakceptowane.

Z otwartością kodu wiąże się bezpieczeństwo — choć relacja ta jest bardziej złożona, niż sugerują entuzjaści. Tysiące par oczu mogą przeglądać kod w poszukiwaniu błędów i luk. Oczywiście sam fakt publicznej dostępności nie gwarantuje niczego — Linux miewa poważne podatności, jak choćby ujawniona w 2024 roku luka CVE-2024-50264 w podsystemie AF_VSOCK. Ale tempo reakcji jest zazwyczaj imponujące: społeczność identyfikuje i łata problemy szybciej niż zamknięci producenci przepychający poprawki przez wewnętrzne procesy korporacyjne.

Jest jeszcze kwestia architektury. Jądro Linuksa jest monolityczne — w odróżnieniu od architektury mikrojądrowej, całość kodu jądra działa w jednej przestrzeni adresowej — ale zarazem wysoce modularne. Sterowniki urządzeń, systemy plików, stosy sieciowe mogą być ładowane i wyładowywane jako moduły bez restartowania systemu. Ten sam rdzeń jądra potrafi napędzać superkomputer z tysiącami procesorów i maleńki kontroler w inteligentnej żarówce.

No i wreszcie pieniądze — a raczej ich brak po stronie licencji. Linux jest darmowy. Można go pobierać, instalować i uruchamiać na dowolnej liczbie maszyn bez żadnych opłat. Firmy takie jak Red Hat czy SUSE zarabiają na wsparciu technicznym, certyfikacji i usługach — nie na samym oprogramowaniu. Dla centrów danych operujących dziesiątkami tysięcy serwerów eliminacja kosztów licencyjnych to oszczędności rzędu milionów dolarów rocznie.

Świat dystrybucji

Samo jądro Linuksa to dopiero początek. Żeby z niego korzystać, potrzebny jest cały ekosystem: narzędzia systemowe, menedżer pakietów, środowisko graficzne, aplikacje użytkowe. Ten ekosystem dostarczają dystrybucje — gotowe zestawy oprogramowania zbudowane wokół jądra Linuksa.

Różnorodność dystrybucji to zarówno siła, jak i przekleństwo Linuksa. Ubuntu, flagowa dystrybucja firmy Canonical, przoduje zarówno wśród serwerów chmurowych (ponad 60 procent publicznych instancji linuksowych), jak i na desktopach. Debian, na którym Ubuntu bazuje, jest cenionym za stabilność fundamentem wielu innych projektów. Red Hat Enterprise Linux dominuje w środowiskach korporacyjnych z ponad 43-procentowym udziałem w segmencie serwerów linuksowych dla przedsiębiorstw. SUSE znalazło niszę w sektorze produkcyjnym i handlowym. Fedora służy jako poligon doświadczalny dla technologii, które później trafią do Red Hata. Arch Linux i Gentoo przyciągają zaawansowanych użytkowników ceniących sobie pełną kontrolę nad systemem.

Są też dystrybucje wyspecjalizowane: Kali Linux dla specjalistów od bezpieczeństwa, Raspberry Pi OS dla miniaturowych komputerów jednopłytkowych, Alpine Linux dla kontenerów (jest tak mały, że bazowy obraz Docker zajmuje kilka megabajtów), SteamOS Valve’a dla konsoli do gier Steam Deck. Ta fragmentacja bywa frustrująca — program, który działa na Ubuntu, nie zawsze bez przeszkód zainstaluje się na Fedorze — ale zarazem pozwala na precyzyjne dopasowanie systemu do konkretnych potrzeb.

Konteneryzacja i chmura — druga rewolucja

Jeśli pierwszą rewolucją Linuksa było jego pojawienie się na serwerach w latach dziewięćdziesiątych i dwutysięcznych, to druga — trwająca mniej więcej od 2014 roku — wymaga chwili wyjaśnienia, bo dotyczy technologii, o której przeciętny użytkownik internetu raczej nie słyszał, choć korzysta z niej kilkadziesiąt razy dziennie.

Wyobraź sobie tradycyjny serwer jak duże mieszkanie, w którym wszystkie programy żyją razem: współdzielą kuchnię, łazienkę i salon. Kiedy jedna aplikacja zacznie się źle zachowywać — zużyje za dużo pamięci, zawiesi się — cierpi całe mieszkanie. Kontener to coś w rodzaju samodzielnego mikroapartamentu wbudowanego w ten sam budynek: aplikacja dostaje własne, odizolowane środowisko z dokładnie tymi bibliotekami i narzędziami, których potrzebuje, ale nadal korzysta ze wspólnego fundamentu — jądra systemu operacyjnego. Dzięki temu kontenery są znacznie lżejsze niż tradycyjne maszyny wirtualne (które odtwarzają cały system od zera) i można ich uruchomić setki na jednym serwerze.

To nie jest abstrakcyjna koncepcja. Kiedy otwierasz aplikację bankową, zamawiasz jedzenie przez internet albo oglądasz film na platformie streamingowej — po stronie serwera te usługi niemal na pewno działają w kontenerach.

Kluczowym narzędziem, które spopularyzowało kontenery, jest Docker — platforma, która uprościła ich tworzenie i uruchamianie do kilku komend. Docker bazuje na dwóch mechanizmach wbudowanych głęboko w jądro Linuksa: przestrzeniach nazw (dzięki nim każdy kontener „widzi" tylko swoje procesy i pliki, jakby był jedynym lokatorem na serwerze) oraz grupach kontrolnych (dzięki nim system rozdziela pamięć, moc procesora i przepustowość sieci między kontenerami, żeby żaden nie zagarnął wszystkiego). Kiedy firma ma nie dziesięć, lecz tysiące kontenerów rozsiane po setkach serwerów, zarządzanie nimi ręcznie staje się niemożliwe. Tu wkracza Kubernetes — system stworzony pierwotnie przez inżynierów Google, który automatycznie rozmieszcza kontenery na dostępnych maszynach, restartuje je po awariach i skaluje w górę lub w dół zależnie od ruchu.

Skala tego ekosystemu robi wrażenie. Z Dockera korzysta przeszło 108 tysięcy firm na świecie, a platforma kontroluje ponad 87 procent rynku konteneryzacji. Kubernetes to z kolei wybór 92 procent organizacji stosujących orkiestrację kontenerów — 5,6 miliona programistów pracuje z nim na co dzień. Wartość samego rynku kontenerów szacowana jest na ponad 6 miliardów dolarów w 2025 roku, z prognozą wzrostu do 16 miliardów do 2030 roku.

Ten cały ekosystem bez Linuksa po prostu by nie istniał. Kontenery w swojej obecnej formie są ściśle powiązane z mechanizmami linuksowego jądra — to ono dostarcza izolację i kontrolę zasobów, na których opiera się Docker. Owszem, Docker formalnie działa też na Windowsie i macOS-ie — ale pod spodem i tak uruchamia lekkiego Linuksa w maszynie wirtualnej. Nawet udając, że go nie potrzebuje, potrzebuje go.

Gaming — ostatni bastion pada

Przez dekady gry komputerowe były argumentem, którym co bardziej złośliwi komentatorzy zamykali usta entuzjastom Linuksa. „Może i twój system jest świetny na serwerze, ale ja chcę pograć w Wiedźmina". I mieli rację — do niedawna granie na Linuksie oznaczało ciągłą walkę ze sterownikami graficznymi, problemami z kompatybilnością i ograniczonym katalogiem tytułów.

Zmianę przyniósł Valve. Firma stojąca za platformą Steam w 2018 roku uruchomiła projekt Proton — warstwę kompatybilności opartą na Wine, pozwalającą uruchamiać gry windowsowe na Linuksie. W 2022 roku Valve wypuściło Steam Deck — przenośną konsolę do gier opartą na SteamOS, czyli zmodyfikowanym Arch Linuksie. Urządzenie okazało się komercyjnym sukcesem i z dnia na dzień uczyniło Linux poważną platformą gamingową.

Udział Linuksa na platformie Steam rośnie stabilnie — z około jednego procenta w 2015 roku do ponad trzech procent w 2025. To wciąż niewiele, ale trend jest jednoznaczny. Pojawiają się dystrybucje zoptymalizowane pod gry, takie jak CachyOS czy Bazzite. NVIDIA, której sterowniki graficzne przez lata były zmorą linuksowych graczy, poprawiła wsparcie po publicznym, mocno dosadnym wystąpieniu Torvaldsa na konferencji w 2012 roku (słynne „So, Nvidia — fuck you!"). Dziś wsparcie dla kart graficznych na Linuksie jest lepsze niż kiedykolwiek, choć do ideału jeszcze daleko.

Przyszłość: RISC-V, AI i wszechobecność

Linux jako projekt nie zamierza zwalniać. Cykl rozwojowy jądra — nowa wersja mniej więcej co dziewięć tygodni — utrzymuje się od lat w stałym tempie. Społeczność wciąż rośnie. Ale co czeka system w najbliższych latach?

Najciekawsza zmiana rozgrywa się na styku oprogramowania i sprzętu. Architektura RISC-V — otwarty zestaw instrukcji procesora, coś w rodzaju Linuksa, ale na poziomie krzemu — nie jest kontrolowana przez żadną pojedynczą firmę, w odróżnieniu od x86 (Intel/AMD) czy ARM (Arm Holdings). Dla Linuksa to naturalne dopełnienie: wolny system na wolnym procesorze. Główne dystrybucje — SUSE, Canonical, Red Hat — raportują, że 97–98 procent ich pakietów jest już portowanych na RISC-V. Analitycy z SHD Group prognozują, że RISC-V osiągnie około 30-procentowy udział w kluczowych segmentach rynku. Nvidia oszacowała, że w samym 2024 roku dostarczyła miliard rdzeni RISC-V wbudowanych w swoje procesory. Architektura wchodzi teraz do motoryzacji (z certyfikacją ISO 26262 dla bezpieczeństwa funkcjonalnego), centrów danych i akceleratorów sztucznej inteligencji.

Właśnie AI. Linux stanowi naturalną platformę dla uczenia maszynowego — TensorFlow, PyTorch, JAX i inne frameworki rozwijane są przede wszystkim pod tym systemem. Klastry GPU, na których trenowane są duże modele językowe, pracują wyłącznie na Linuksie. Meta ujawniła w 2025 roku, że oba pokolenia jej akceleratorów AI do trenowania i inferencji korzystają z rdzeni wektorowych i skalarnych RISC-V. Połączenie otwartego oprogramowania z otwartym sprzętem staje się dominującym paradygmatem w infrastrukturze AI.

Równolegle Linux rozprzestrzenia się na urządzenia brzegowe. Globalne wydatki na edge computing rosną w tempie kilkunastu procent rocznie — to świat inteligentnych kamer, autonomicznych pojazdów, robotów przemysłowych, czujników medycznych. Urządzeń, które muszą przetwarzać dane lokalnie, bez opóźnień związanych z przesyłaniem ich do chmury. Linux, dzięki skalowalności i możliwości uruchomienia na niemal dowolnym sprzęcie, jest tu graczem dominującym.

A nad tym wszystkim wisi pytanie, które branża zadaje sobie coraz głośniej: co dalej z samym procesem rozwoju jądra? Linus Torvalds ma 56 lat. Przez ponad trzy dekady był jedyną osobą zatwierdzającą finalne scalanie kodu do głównej gałęzi. Jak zauważył dziennikarz The Register po wydaniu wersji 6.16: następna wielka zmiana w rozwoju jądra może nastąpić raczej po przejściu Torvaldsa na emeryturę niż w wyniku jakiegokolwiek przełomu technologicznego. Społeczność jest tego świadoma. Struktura opiekunów podsystemów, model podejmowania decyzji oparty na „szorstkim konsensusie i działającym kodzie" — to mechanizmy, które mają zapewnić ciągłość projektu niezależnie od udziału jednego człowieka. Ale prawdziwego sprawdzianu jeszcze nie było.

Linux w urządzeniach codziennego użytku oraz AI
Linux w sprzęcie codziennego użytku i AI.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.

Czego Linux nas uczy

Historia Linuksa to coś więcej niż opowieść o sukcesie technicznym. To demonstracja modelu współpracy, który wydawał się niemożliwy w ramach tradycyjnej ekonomii. Tysiące ludzi i setki konkurujących ze sobą firm wspólnie budują produkt, który jest darmowy, otwarty i lepszy od większości komercyjnych alternatyw. Nikt nie jest właścicielem całości. Nikt nie sprawuje nad nią pełnej kontroli.

Ten model ma swoje wady. Fragmentacja dystrybucji, konflikty osobowościowe na listach dyskusyjnych (Torvalds przez lata słynął z ostrych, niekiedy obraźliwych komentarzy wobec deweloperów — w 2018 roku publicznie przeprosił i wziął przerwę od pracy nad jądrem, żeby popracować nad swoim zachowaniem), debaty ideologiczne między zwolennikami „wolnego oprogramowania" w rozumieniu Stallmana a pragmatykami ruchu open source — to wszystko realne problemy.

Ale rezultat mówi sam za siebie. Linux stał się niewidoczną infrastrukturą współczesnej cywilizacji cyfrowej. Kiedy robisz przelew bankowy, kiedy oglądasz serial na platformie streamingowej, kiedy twój samochód aktualizuje oprogramowanie przez sieć — gdzieś w tle, na serwerze lub w chipie, pracuje potomek tego studenckiego projektu z 1991 roku. Linus Torvalds napisał kiedyś, że jego system „nigdy nie będzie profesjonalny jak gnu". Pomylił się — i dobrze, bo ta pomyłka zmieniła świat.

Literatura i źródła