14 marca 2023 roku firma OpenAI opublikowała GPT-4. Komunikat prasowy mówił o „najnowszym kamieniu milowym w skalowaniu głębokiego uczenia". Komentatorzy technologiczni odnotowali wydarzenie gdzieś między nowościami o Bingu, a plotkami o nadchodzącym iPhonie. Kilka mediów branżowych napisało recenzje. Internet wzruszył ramionami i poszedł dalej.
Trzy lata później da się powiedzieć rzecz, której wtedy nie mówił prawie nikt: tamtego dnia nie odbyła się premiera kolejnego produktu. Tamtego dnia praca umysłowa przestała być wyłączną domeną człowieka.
Brzmi jak przesada? Być może. Ale zastanówmy się przez chwilę, jak wyglądał świat w marcu 2023 roku — i jak wygląda teraz. Wtedy generatywna AI była tematem rozmów na konferencjach technologicznych i obiektem żartów w mediach społecznościowych. Ktoś wklejał absurdalne odpowiedzi ChatGPT, ktoś inny wrzucał na Twittera obrazek wygenerowany przez Midjourney z postaciami o siedmiu palcach. Atmosfera była pół na pół: fascynacja przemieszana z lekceważeniem.
Spójrzmy na fakty trzy lata później. W marcu 2026 roku systemy oparte na dużych modelach językowych mają ponad 800 milionów aktywnych użytkowników tygodniowo. Dziewięćdziesiąt procent firm z listy Fortune 100 korzysta z narzędzi AI do pisania kodu. Unia Europejska wdraża pierwszą na świecie kompleksową regulację sztucznej inteligencji. Uczelnie na całym świecie przebudowują systemy egzaminowania. A miliony ludzi — copywriterów, analityków, tłumaczy, programistów — zastanawia się, jak będzie wyglądać ich praca za kolejne trzy lata.
Wszystko to zaczęło się tamtego marcowego dnia. Albo raczej: tamtego dnia stało się nieodwracalne.
Co właściwie się wydarzyło
Żeby zrozumieć skalę zmiany, trzeba się nieco cofnąć. W marcu 2023 roku sztuczna inteligencja nie była nowością. ChatGPT, oparty na modelu GPT-3.5, działał od listopada 2022 roku i zdążył już zyskać sto milionów użytkowników — najszybciej rosnąca aplikacja w historii internetu. Midjourney generowało obrazy, które budziły zachwyt i niepokój artystów. Google pracowało nad własnym chatbotem Bard. Temat AI był obecny w mediach, ale traktowany w dość specyficzny sposób — jako ciekawostka technologiczna, kolejny gadżet do zabawy.
GPT-3.5 potrafił prowadzić konwersacje, pisać wiersze, odpowiadać na pytania. Robił wrażenie. Jednocześnie regularnie konfabulował, gubił wątek, popełniał elementarne błędy logiczne. Był imponujący i jednocześnie ułomny — coś w rodzaju bardzo elokwentnego studenta, który nie do końca ogarnia materiał.
GPT-4 zmienił tę dynamikę w sposób, który na pierwszy rzut oka nie wyglądał jak rewolucja. Model nie wyglądał inaczej. Interfejs był ten sam. Ale pod spodem zaszła zmiana jakościowa. W symulowanym egzaminie adwokackim GPT-4 osiągnął wynik w górnych dziesięciu procentach zdających — podczas gdy jego poprzednik plasował się w dolnych dziesięciu procentach. Potrafił analizować obrazy, przetwarzać teksty o długości kilkudziesięciu stron, utrzymywać spójność logiczną w złożonych argumentacjach. OpenAI podkreślało, że w codziennej rozmowie różnica między wersjami może być subtelna. Ale przy zadaniach wymagających precyzji, kreatywności i rozumienia kontekstu — dzieliła je przepaść.
I to stanowiło sedno sprawy. GPT-4 nie był po prostu lepszym chatbotem. Był pierwszym narzędziem AI, które potrafiło wykonywać zadania, a nie tylko pomagać w ich wykonywaniu. Potrafił napisać raport roczny i przeanalizować umowę najmu, wygenerować działający kod aplikacji webowej, przetłumaczyć tekst z wyczuciem kontekstu kulturowego, streścić trzydziestostronicowe badanie do trzech akapitów. Każde z tych zadań wcześniej wymagało człowieka o konkretnych kompetencjach. Po 14 marca wymagało kogoś, kto potrafi sformułować polecenie i ocenić wynik.
Jak tego nie zauważyliśmy
Reakcje na premierę GPT-4 wiele mówią o tym, jak ludzie przetwarzają zmianę technologiczną. Dominowały trzy narracje.
Pierwsza: „to tylko lepszy chatbot". Kolejna iteracja, przyrostowe ulepszenie. Tak jak iPhone 14 był lepszy od iPhone’a 13 — zauważalnie, ale bez rewolucji. Ta perspektywa była wygodna, bo pozwalała nie zmieniać niczego w swoim podejściu do pracy i kariery.
Druga: „to narzędzie dla programistów". Ciekawa zabawka, ale daleka od codzienności zwykłego człowieka. Ludzie, którzy nie pisali kodu, nie widzieli powodu, żeby się tym interesować. Pomijali fakt, że GPT-4 równie dobrze pisze maile, analizuje dane finansowe i tworzy plany marketingowe.
Trzecia, chyba najciekawsza: „kolejna bańka technologiczna". Krytycy przywoływali historię blockchainu, metaverse’u, Google Glass — technologii, które miały zmienić świat, a skończyły jako przypis. Ta analogia miała jeden poważny problem: tamte technologie nie miały setek milionów użytkowników w ciągu pierwszych miesięcy istnienia.
Te trzy reakcje łączył ten sam błąd percepcyjny — psychologowie nazywają go myśleniem liniowym. Ludzie zakładali, że GPT-4 jest kolejnym krokiem na płaskiej ścieżce rozwoju — ulepszeniem, nie zmianą jakościową. Patrzyli na AI jak na software. Tymczasem był to interfejs do zupełnie nowego sposobu wykonywania pracy.
Niedoceniono też skali adopcji. W lutym 2025 roku ChatGPT miał 400 milionów tygodniowo aktywnych użytkowników. Do końca tego samego roku liczba ta podwoiła się. Żadna technologia w historii — ani internet, ani smartfon, ani media społecznościowe — nie została przyjęta tak szybko przez tak dużą liczbę ludzi.
Co zmieniło się naprawdę
Od tamtego dnia minęły trzy lata. Czas na rachunek: co z tego hype’u przetrwało?
Rynek pracy: cicha restrukturyzacja
Nie nastąpiła masowa apokalipsa zatrudnienia, którą przepowiadali kasandryści. Ale nie nastąpiło też „nic", jak twierdzili sceptycy. Nastąpiło coś pośredniego. Na swój sposób bardziej złożonego niż oba te scenariusze.
Analiza Yale Budget Lab z 2025 roku nie wykazała dramatycznego przyspieszenia zmian strukturalnych na amerykańskim rynku pracy w ciągu 33 miesięcy od premiery ChatGPT. Jednocześnie Goldman Sachs odnotował, że bezrobocie wśród młodych pracowników technologicznych (20–30 lat) wzrosło o trzy punkty procentowe od początku 2025 roku. Salesforce zredukował cztery tysiące stanowisk w obsłudze klienta, a CEO firmy oznajmił publicznie, że AI wykonuje teraz połowę dotychczasowej pracy działu. Amazon zlikwidował czternaście tysięcy stanowisk korporacyjnych. Microsoft — piętnaście tysięcy. W każdym przypadku jako powód podano efektywność wynikającą z wdrożenia AI.
Raport PwC z 2025 roku, oparty na analizie blisko miliarda ogłoszeń o pracę z sześciu kontynentów, pokazał nieoczywisty obraz: płace rosną szybciej w branżach najbardziej narażonych na wpływ AI niż w branżach najmniej narażonych. Ludzie, którzy potrafią pracować z AI, są wyceniani wyżej. Ci, których AI potrafi zastąpić, niekoniecznie niżej, ale inaczej.
Inaczej. To słowo klucz.
Kluczowe przesunięcie nie polega na tym, że jedne zawody znikają, a inne się pojawiają. Polega na tym, że zmienia się zawartość istniejących ról. Copywriter nie znika, ale copywriter, który spędza osiem godzin na pisaniu tekstów, ustępuje miejsca copywriterowi, który spędza dwie godziny na redagowaniu tekstów wygenerowanych przez AI, a pozostałe sześć na strategii, analizie i rozmowach z klientami.
Programowanie: nowy model rzemiosła
Jeśli gdzieś wpływ AI na pracę jest bezsporny, to w branży programistycznej. GitHub Copilot — narzędzie do wspomaganego pisania kodu — przekroczył dwadzieścia milionów użytkowników w połowie 2025 roku. Dziewięćdziesiąt procent firm z listy Fortune 100 wdrożyło go do swoich procesów deweloperskich. Badania przeprowadzone wspólnie z Accenture wykazały, że programiści korzystający z Copilota wykonują zadania o pięćdziesiąt pięć procent szybciej. Średni czas od otwarcia do zamknięcia pull requesta — jednej z podstawowych jednostek pracy programisty — spadł z dziewięciu i pół dnia do dwóch i pół.
Te liczby brzmią abstrakcyjnie, ale stoi za nimi konkretna zmiana w sposobie pracy. W 2025 roku średnio czterdzieści jeden procent kodu pisanego na świecie było generowane lub współgenerowane przez AI. U programistów Javy ten odsetek sięgał sześćdziesięciu jeden procent. Programista w 2026 roku mniej pisze, a więcej nadzoruje — sprawdza poprawność wygenerowanego kodu, identyfikuje potencjalne luki bezpieczeństwa (które występują w blisko trzydziestu procentach kodu generowanego w Pythonie), decyduje o architekturze i logice biznesowej. Rola programisty przesuwa się od rzemiosła w stronę nadzoru i kontroli jakości.
Jednocześnie pojawiła się nowa kategoria narzędzi — agenci kodujący. Nie sugerują fragmentów kodu, jak Copilot, ale samodzielnie wykonują wieloetapowe zadania: piszą testy, przeglądają zmiany, koordynują poprawki. To już nie asystent podpowiadający słowa. To coś bliższego junior developerowi, który pracuje dwadzieścia cztery godziny na dobę i nigdy nie narzeka na nadgodziny.
Edukacja: pęknięcie systemu
Szkolnictwo przeżywa kryzys, który nie ma precedensu od czasu upowszechnienia internetu. Studenci ściągali zawsze — to nie nowość. Nowością jest to, że dotychczasowe narzędzia weryfikacji przestały działać.
Prawie połowa studentów korzysta z dużych modeli językowych przy odrabianiu zadań domowych. Siedem tysięcy studentów brytyjskich uczelni zostało formalnie przyłapanych na korzystaniu z AI w roku akademickim 2023/2024 — trzy razy więcej niż rok wcześniej. A to tylko wierzchołek góry lodowej: w eksperymencie przeprowadzonym na University of Reading dziewięćdziesiąt cztery procent prac napisanych przez AI przeszło niezauważone przez wykładowców.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.
Problem sięga głębiej niż zwykłe oszustwo. Klasyczny model edukacji (nauczyciel zadaje pracę domową, student ją wykonuje, nauczyciel ocenia) zakłada, że wykonanie pracy jest tożsame z nauczeniem się materiału. Gdy student może delegować wykonanie do narzędzia AI, to założenie się rozpada. „Odrobienie pracy domowej" przestaje być wiarygodnym wskaźnikiem czegokolwiek.
Uczelnie reagują chaotycznie. Jedne zakazują AI. Inne włączają je do programu nauczania. Jeszcze inne — i to chyba najrozsądniejsza grupa — przebudowują formy egzaminowania. Przywracają egzaminy ustne, przenoszą pisanie prac na salę wykładową pod nadzorem, projektują zadania wymagające oryginalnego myślenia, którego AI nie potrafi wiarygodnie podrobić.
Ale te rozwiązania mają swoją cenę. Egzaminy ustne wymagają czasu i kadry. Prace pisane na miejscu wymagają sal, nadzoru, logistyki. To jest wykonalne na kameralnej uczelni z dwudziestoosobowymi grupami. Na wydziale z pięciuset studentami na roku i kilkoma wykładowcami — to organizacyjny koszmar. Jeden profesor anglistyki z dwudziestotrzyletnim stażem powiedział wprost: cokolwiek zadajesz do domu, musisz zakładać, że zostanie przetworzone przez AI.
Szkoły średnie mają jeszcze trudniej. Badanie przeprowadzone przez Pew Research w 2024 roku wykazało, że dwadzieścia sześć procent amerykańskich nastolatków korzysta z ChatGPT. Dane Turnitina — najpopularniejszego narzędzia do wykrywania plagiatów — pokazują, że w około dziesięciu procentach sprawdzanych prac wykryto ślady użycia AI. Zaledwie trzy procent prac było wygenerowane przez AI w przeważającej części. To nie apokalipsa — ale wystarczająco dużo, żeby podważyć zaufanie nauczycieli. Siedemdziesiąt procent z nich przyznaje, że nie ma pewności, czy oddawane prace to rzeczywiście prace uczniów.
Tu rysuje się niepokojąca perspektywa: system edukacji może się rozdzielić na dwie warstwy. Elitarne uczelnie z małymi grupami, egzaminami ustnymi i indywidualnym podejściem — oraz masowe instytucje, w których granica między pracą studenta a pracą algorytmu staje się niemożliwa do wyznaczenia. Demokratyzacja edukacji, nad którą pracowały pokolenia, staje pod znakiem zapytania.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.
Prawo: wyścig regulatora z technologią
Unia Europejska zareagowała na rewolucję AI w sposób typowy dla Brukseli: ambitnie legislacyjnie, powoli wykonawczo. AI Act, pierwsza na świecie kompleksowa regulacja sztucznej inteligencji, wszedł w życie 1 sierpnia 2024 roku, ale jego wdrażanie rozłożono na lata. Od lutego 2025 roku obowiązuje zakaz praktyk uznanych za niedopuszczalne (masowe systemy scoringu społecznego, manipulacja podprogowa). Od sierpnia 2025 obowiązują regulacje dotyczące modeli ogólnego przeznaczenia. Pełne zastosowanie większości przepisów nastąpi dopiero w sierpniu 2026, a w przypadku systemów AI wysokiego ryzyka wbudowanych w produkty objęte innymi regulacjami — w sierpniu 2027.
To trzy lata od premiery GPT-4 do momentu, w którym regulacje zaczną naprawdę obowiązywać. Trzy lata, w ciągu których technologia zdążyła się zmienić kilkukrotnie. Gdy AI Act był projektowany, nikt nie przewidywał agentów AI zdolnych do autonomicznego wykonywania wieloetapowych zadań. Nikt nie zakładał, że systemy AI będą przeglądać miliony pull requestów miesięcznie bez udziału człowieka. Regulacja nadgania technologię. Pytanie, czy kiedykolwiek ją dogoni.
Równocześnie pojawiły się pytania, na które prawo nie ma jeszcze odpowiedzi. Kto ponosi odpowiedzialność, gdy decyzja podjęta na podstawie rekomendacji AI okaże się błędna? Gdzie kończy się narzędzie, a zaczyna podmiot podejmujący decyzje? Czy pracownik zwolniony dlatego, że AI wykonuje jego zadania taniej, ma roszczenie prawne — i wobec kogo?
Nieoczywiste konsekwencje
O rynku pracy, kodowaniu, egzaminach i regulacjach trąbią media od trzech lat. Ale obok tych głośnych zmian zaszły inne — cichsze i być może ważniejsze.
Dewaluacja kompetencji
Przez dekady pewne umiejętności gwarantowały stabilną pozycję zawodową: sprawne pisanie tekstów, analiza danych, tłumaczenia, podstawowe programowanie. Nie były to kompetencje rzadkie w sensie absolutnym, ale wystarczająco wymagające, by zapewniać przyzwoity dochód. AI obniżyła barierę wejścia do zera. Każdy, kto potrafi sformułować polecenie w języku naturalnym, może teraz wygenerować tekst, przeanalizować arkusz kalkulacyjny, przetłumaczyć dokument. Nie tak dobrze jak ekspert — ale wystarczająco dobrze dla wielu zastosowań.
To nie jest sytuacja bezprecedensowa. Kalkulator zdewaluował kompetencję rachunkową. Nawigacja GPS uczyniła zbędną orientację w terenie. Arkusze kalkulacyjne wyparły ręczne księgowanie. Ale skala jest inna. Tym razem dewaluacji ulegają kompetencje, które jeszcze niedawno stanowiły rdzeń gospodarki opartej na wiedzy. I co ważne — nie znikają one całkowicie, lecz przesuwają się w stronę umiejętności „meta": zamiast pisać, trzeba umieć ocenić napisane. Zamiast tłumaczyć, trzeba umieć zweryfikować tłumaczenie. Zamiast analizować dane, trzeba umieć zidentyfikować, które pytanie analityczne w ogóle warto zadać.
Outsourcing myślenia
Jest pewien eksperyment, który każdy może przeprowadzić na sobie. Przypomnij sobie, kiedy ostatnio napisałeś dłuższy tekst od zera, bez pomocy AI. Kiedy ostatnio sam przeanalizowałeś dane, zamiast wkleić je do chata z prośbą o wnioski. Kiedy sam poszukałeś odpowiedzi na pytanie, zamiast zadać je modelowi językowemu.
Badania z 2025 roku pokazują, że czterdzieści sześć procent deweloperów nie ufa w pełni wynikom generowanym przez AI — ale jednocześnie korzysta z nich codziennie. Powstaje paradoks: wiemy, że narzędzie jest niedoskonałe, ale i tak delegujemy do niego coraz więcej czynności poznawczych. Siedemdziesiąt pięć procent nauczycieli martwi się, że uczniowie nie rozwijają umiejętności pisania i myślenia krytycznego. Ale analogiczny problem dotyczy dorosłych — tyle że dorosłych nikt nie egzaminuje.
Nie chodzi o katastrofizm. AI jest narzędziem, a narzędzia z definicji odciążają. Tyle że jest różnica między odciążeniem mięśni a odciążeniem mózgu.
Gdy przestajesz biegać, tracisz kondycję. Pytanie, co tracisz, gdy przestajesz samodzielnie myśleć nad problemem.
Niewidzialna infrastruktura
W 2025 roku dwadzieścia jeden procent kodu pisanego w Google było wspomagane przez AI. Chatboty obsługujące klientów przestały być eksperymentem i stały się standardem. Algorytmy AI filtrują aplikacje rekrutacyjne, sugerują diagnozy medyczne, optymalizują łańcuchy dostaw. A przeciętny użytkownik nie ma pojęcia, z iloma systemami AI wchodzi w interakcję w ciągu zwykłego dnia roboczego.
AI staje się tym, czym stała się elektryczność na początku dwudziestego wieku — niewidoczną warstwą infrastruktury, od której zależy funkcjonowanie wszystkiego. Nie widzisz jej. Nie myślisz o niej. Ale gdy przestanie działać, staniesz w miejscu.
Dobrą ilustracją jest branża finansowa. Gdy dzwonisz do banku z reklamacją, jest duża szansa, że twoja rozmowa jest najpierw analizowana przez model językowy, który kieruje ją do odpowiedniego działu. Gdy składasz wniosek o kredyt, algorytm ocenia twoje ryzyko kredytowe zanim ktokolwiek otworzy twój plik. Gdy szukasz ubezpieczenia online, porównywarka korzysta z AI do personalizacji ofert. Żadne z tych zastosowań nie jest spektakularne. Ale razem tworzą ekosystem, w którym AI jest obecna na każdym etapie interakcji klient-instytucja, a klient nawet o tym nie wie.
Jest w tym pewne niebezpieczeństwo. Infrastruktura, której nie widzisz, to infrastruktura, nad którą nie masz kontroli. Gdy GPT-4 generuje rekomendacje prawne, a lekarz korzysta z modelu AI do wspomagania diagnostyki, pytanie o transparentność i nadzór przestaje być akademickie. Staje się pytaniem o to, kto tak naprawdę podejmuje decyzje w twoim życiu.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.
Co przeoczyliśmy w 2023 roku
Z perspektywy trzech lat widać, że w marcu 2023 roku popełniliśmy kilka błędów poznawczych.
Przede wszystkim — założyliśmy, że AI będzie dodatkiem. Tak jak autokorekta jest dodatkiem do pisania, a kalkulator dodatkiem do liczenia. Tymczasem AI okazała się nie dodatkiem, lecz alternatywnym sposobem wykonywania zadań. W wielu przypadkach szybszym i tańszym.
Nie doceniliśmy też szybkości adopcji. Historycznie rzecz biorąc, przełomowe technologie potrzebowały dekad, żeby przeniknąć do powszechnego użycia. Komputer osobisty — piętnaście lat od pierwszego modelu do masowej obecności w biurach. Smartfon — dziesięć lat od iPhone’a do momentu, gdy stał się domyślnym urządzeniem. ChatGPT przeszedł tę drogę w miesiącach. Sto milionów użytkowników w dwa miesiące. Osiemset milionów w niecałe trzy lata. Żadne modele historyczne tego nie przewidziały, bo żadne modele historyczne nie uwzględniały technologii, która jest dostępna za darmo, nie wymaga instalacji sprzętu i jest użyteczna od pierwszej sekundy.
Ale chyba najpoważniejszy błąd polegał na czymś innym: niedoceniliśmy nie technologii, lecz ludzi. Ludzkiego pragmatyzmu, konkretnie. Nie trzeba było czekać, aż AI stanie się doskonała. Wystarczyło, że stała się wystarczająco dobra. Nikt nie pytał, czy GPT-4 rozumie język tak jak człowiek. Pytano, czy pomoże szybciej napisać raport. Odpowiedź brzmiała: tak.
Jest jeszcze coś, co przeoczyliśmy — tempo iteracji. GPT-4 nie był punktem docelowym. Był punktem startowym. W ciągu trzech lat pojawiły się kolejne modele: GPT-4 Turbo, GPT-4o, wreszcie GPT-5. Każdy lepszy od poprzedniego. Do tego doszła konkurencja: Claude firmy Anthropic, Gemini od Google’a, modele open source jak Llama. Dynamika przypomina wczesne lata smartfonów — z tą różnicą, że cykl rozwojowy trwa nie lata, lecz miesiące. Kto w marcu 2023 spodziewał się, że za trzy lata najważniejszym pytaniem nie będzie „czy AI jest wystarczająco dobra", lecz „do czego jeszcze nie jest wystarczająco dobra"?
Nowa definicja pracy
Może najgłębszą konsekwencją marca 2023 jest coś, o czym mówi się rzadziej niż o regulacjach czy zwolnieniach: zmiana definicji samej pracy.
Przed GPT-4 praca umysłowa oznaczała wykonanie zadania — napisanie tekstu, przeanalizowanie danych, rozwiązanie problemu programistycznego. Wartość pracownika mierzona była jego zdolnością do wykonywania tych czynności szybko, poprawnie, na odpowiednim poziomie jakości.
Po GPT-4 praca umysłowa coraz częściej oznacza zarządzanie procesem. Zdefiniowanie problemu, którego AI nie umie zdefiniować sama. Ocena wyniku, którego AI nie umie ocenić. Podjęcie decyzji, której AI nie powinna podejmować. Wykonawca ustępuje miejsca nadzorcy. Producent — redaktorowi.
Widać to na konkretnych przykładach. Tłumacz, który kiedyś tłumaczył tekst zdanie po zdaniu, dziś weryfikuje i poprawia tłumaczenie maszynowe. Grafik nie rysuje już makiet od zera — koryguje propozycje generowane przez narzędzia wizualne. Z analitykami jest podobnie: godziny spędzane na budowaniu arkuszy kalkulacyjnych zamienili na interpretację wyników, które AI wypluła w sekundy. We wszystkich tych przypadkach samo wykonanie traci na wartości. Liczy się ocena i decyzja.
Według raportu Światowego Forum Ekonomicznego z 2025 roku do końca dekady dziewięćdziesiąt dwa miliony stanowisk ulegnie likwidacji, ale powstanie sto siedemdziesiąt milionów nowych — saldo netto jest dodatnie, lecz wymaga masowego przebranżowienia. Kluczowe słowo to właśnie „zmiana", nie „likwidacja". Te same stanowiska będą wymagały innych kompetencji. Rzemiosło ustępuje myśleniu systemowemu. „Wiem, jak to zrobić" ustępuje pytaniu: „czy to zostało zrobione dobrze?".
Na pierwszy rzut oka to awans. W pewnym sensie jest. Ale jest też utrata czegoś — tego specyficznego poczucia sprawczości, które daje samodzielne wykonanie trudnego zadania. Satysfakcji z napisanego od zera tekstu, z rozwiązanego samodzielnie buga, z przetłumaczonego dokumentu. Coraz częściej ta satysfakcja jest zastępowana inną — satysfakcją z efektywności. Z faktu, że w tym samym czasie można zrobić więcej.
Czy to dobrze, czy źle? Pewnie jedno i drugie. Tak samo jak młot pneumatyczny jest jednocześnie lepszy i gorszy od dłuta rzeźbiarza — zależy, do czego go używasz.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.
Trzy lata później
Marzec 2023 wyglądał jak premiera produktu. Konferencja prasowa, blog post, recenzje w mediach technologicznych. Format wydarzeń, które zdarzają się co kilka tygodni i o których wszyscy zapominają przed końcem miesiąca.
Marzec 2026 wygląda inaczej. Widać z niego, że tamtego dnia nie zaczęła się nowa wersja chatbota. Zaczęła się redefinicja tego, co to znaczy myśleć, pracować i uczyć się w epoce, w której maszyny potrafią robić te rzeczy wystarczająco dobrze.
Nie zauważyliśmy momentu przełomu. Wyglądał zbyt zwyczajnie — kolejna aktualizacja na blogu firmy technologicznej, kolejny post na Twitterze z benchmarkami, które mało kto rozumiał. Tyle że potem okazało się, iż te benchmarki opisywały świat, w którym już żyjemy. Świat, w którym osiemset milionów ludzi tygodniowo rozmawia z maszyną jak z kolegą z pracy. Świat, w którym nauczyciel nie wie, czy czyta pracę ucznia, czy algorytmu. Świat, w którym „umieć pisać" przestało znaczyć to, co znaczyło jeszcze trzy lata temu.
Ktoś kiedyś powiedział, że przyszłość jest już tu — po prostu nierówno rozłożona. W marcu 2023 roku ta przyszłość zmieściła się w jednym API. Do marca 2026 zdążyła się rozlać na wszystko.
Literatura i źródła
- „GPT-4", Wikipedia – artykuł encyklopedyczny
- „GPT-4", OpenAI – oficjalna strona produktu
- „GPT-4 Release: Briefing on Model Improvements and Limitations", Morrison Foerster – analiza prawno-technologiczna
- „OpenAI releases GPT-4, a multimodal AI that it claims is state-of-the-art", TechCrunch – artykuł prasowy
- „Timeline of ChatGPT Updates & Key Events", Search Engine Journal – zestawienie historyczne
- „Evaluating the Impact of AI on the Labor Market: Current State of Affairs", Yale Budget Lab – analiza ekonomiczna
- „How Will AI Affect the Global Workforce?", Goldman Sachs – raport ekonomiczny
- „The Fearless Future: 2025 Global AI Jobs Barometer", PwC – raport rynkowy
- „Top 20 Predictions from Experts on AI Job Loss", AIMultiple – zestawienie analiz i prognoz
- „AI's Job Impact: Gains Outpace Losses", ITIF – raport think tanku
- „GitHub Copilot crosses 20M all-time users", TechCrunch – artykuł prasowy
- „AI Act", European Commission – Shaping Europe's Digital Future – dokument instytucji publicznej
- „AI Act implementation timeline", Artificial Intelligence Act EU – opracowanie informacyjne
- „AI Will Transform the Global Economy", IMF Blog – komentarz ekonomiczny
- „AI Cheating in Schools: 2025 Global Trends & Bias Risks", AllAboutAI – raport statystyczny
- „New Data Reveal How Many Students Are Using AI to Cheat", Education Week – artykuł edukacyjny
- „ChatGPT Users Statistics (March 2026)", DemandSage – zestawienie statystyk
- „GitHub Copilot Statistics 2026", Quantumrun – raport analityczny
- „AI: Work partnerships between people, agents, and robots", McKinsey Global Institute – raport strategiczny
- „Cheating, teaching, and tutoring: How AI will and won't change schools", Chalkbeat – analiza edukacyjna
- „Future of Jobs Report 2025", World Economic Forum – raport globalny