W 2016 roku Oxford Dictionaries ogłosiło post-truth słowem roku. Użycie terminu wzrosło w ciągu dwunastu miesięcy o dwa tysiące procent, napędzane brexitowym referendum i amerykańskimi wyborami prezydenckimi. Ale sam pomysł, że wolni ludzie mogą dobrowolnie zdecydować się żyć w świecie, w którym prawda nie ma znaczenia, pojawił się znacznie wcześniej — w eseju dramatopisarza Steve’a Tesicha z 1992 roku, napisanym w cieniu afery Iran-Contras. Tesich postawił tezę, która z biegiem lat okazała się prorocza: rezygnacja z prawdy nie musi być narzucona; może być wyborem.
Pytanie, które od tamtej pory nie traci aktualności, brzmi: dlaczego ludzie dokonują tego wyboru — i co sprawia, że w XXI wieku stał się on tak łatwy?
Umysł, który sam sobie kłamie
Gdyby dezinformacja polegała wyłącznie na tym, że ktoś mówi nieprawdę, problem byłby prosty. Ktoś kłamie, ktoś inny weryfikuje, fałsz zostaje zdemaskowany. Tyle że ludzki umysł nie jest neutralnym narzędziem oceny — jest maszyną pełną skrótów i uprzedzeń, które sprawiają, że kłamstwo trafia na przygotowany grunt.
Błąd potwierdzenia sprawia, że szukamy informacji zgodnych z tym, w co już wierzymy, a ignorujemy te, które naszym przekonaniom przeczą. Efekt prawdy pozornej powoduje, że wielokrotnie powtórzone twierdzenie zaczyna brzmieć wiarygodnie — niezależnie od tego, czy jest prawdziwe. Efekt Dunninga-Krugera podpowiada osobom o niskich kompetencjach w danej dziedzinie, że radzą sobie znakomicie, a efekt trzeciej osoby daje każdemu z nas komfortowe poczucie, że ofiarą manipulacji jest zawsze ktoś inny.
Te mechanizmy współdziałają ze sobą jak koła zębate jednej maszyny. Przekonanie karmi się potwierdzeniem, powtórzenie nadaje mu pozór oczywistości, pewność siebie usypia czujność, a wiara we własną odporność zamyka cały cykl. Badania pokazują, że około siedemdziesiąt procent osób przeszacowuje swoją zdolność rozpoznawania fałszywych treści — średnio o dwadzieścia punktów procentowych. Im większe przeszacowanie, tym gorsza faktyczna skuteczność.
Bańki, echa i to, czego algorytmy naprawdę nie robią
Powszechna narracja o bańkach filtrujących i komorach echa sugeruje, że algorytmy platform cyfrowych zamykają nas w informacyjnych silosach, serwując wyłącznie treści potwierdzające nasze poglądy. Obraz naukowy jest jednak bardziej skomplikowany. Obszerne przeglądy badań — w tym analiza Reuters Institute i systematyczny przegląd stu dwudziestu dziewięciu badań z 2025 roku — wskazują, że algorytmiczna selekcja częściej prowadzi do nieco bardziej zróżnicowanego konsumowania wiadomości, nie mniej.
Komory echa istnieją, ale ich głównym motorem nie są algorytmy, lecz ludzkie wybory. Świadoma samoizolacja — szukanie wyłącznie źródeł potwierdzających to, w co się wierzy — dotyczy przede wszystkim niewielkiej, silnie spolaryzowanej mniejszości. Co więcej, nawet ekspozycja na odmienne poglądy nie musi łagodzić podziałów: znany eksperyment z 2018 roku wykazał, że Republikanie, którym przez miesiąc pokazywano na Twitterze treści liberalne, stali się po tym doświadczeniu bardziej konserwatywni.
Jest jeszcze jeden mechanizm, który pogłębia iluzję jednomyślności: spirala milczenia. Osoby postrzegające swoje poglądy jako mniejszościowe milkną — a w internecie, jak wykazały badania z 2025 roku, nie tylko milkną, ale wręcz aktywnie udają zgodę z dominującą opinią. Pozorna jednomyślność grupy staje się samospełniającą się przepowiednią, w której publicznie mierzona „opinia" coraz słabiej odpowiada temu, co ludzie naprawdę myślą.
Deepfake’i, ekonomia uwagi i infrastruktura fałszu
Rok 2024, z 3,7 miliarda uprawnionych wyborców w 72 krajach, był pierwszym wielkim testem generatywnej AI w warunkach demokratycznych. Wyniki okazały się zaskakujące: prymitywne manipulacje — wycięte z kontekstu fragmenty wypowiedzi, spowolnione nagrania — były stosowane wielokrotnie częściej niż zaawansowane deepfake’i. Sztuczna inteligencja nie okazała się jeszcze bronią masowego rażenia, choć pojedyncze przypadki — fałszywe nagranie audio przed wyborami na Słowacji, syntetyczny głos Bidena w New Hampshire — pokazały, jak niszczycielskie potrafią być precyzyjnie wymierzone fałszerstwa.
Deepfake’i są jednak tylko częścią większego obrazu. Infrastruktura ery post-prawdy opiera się na modelu biznesowym platform cyfrowych, w którym algorytmy optymalizują zaangażowanie — a treści emocjonalne, sensacyjne i polaryzujące generują go więcej niż informacje wyważone. Jeden z badaczy manipulowanych mediów trafnie nazwał to „śmiercią od tysiąca cięć": nie pojedynczy spektakularny fałsz, lecz stałe zanieczyszczanie ekosystemu informacyjnego sprawia, że ludzie rezygnują z prób odróżniania prawdy od fałszu. Koszty produkcji fałszywych treści spadły niemal do zera — w lutym 2024 roku pracownik korporacji w Hongkongu przelał dwadzieścia pięć milionów dolarów po wideokonferencji, w której wszyscy uczestnicy okazali się deepfake’ami. Zaufanie do instytucji — mediów, rządów, ekspertów — eroduje od lat, a powstałą lukę wypełniają źródła niepodlegające żadnym standardom weryfikacji.
Czy jest wyjście?
Błędy poznawcze, które czynią nas podatnymi na dezinformację, są wbudowane w architekturę ludzkiego umysłu. Nie da się ich usunąć. Można jednak budować odporność. Technika prebunkingu — profilaktyczne pokazywanie ludziom typowych metod manipulacji, zanim się z nimi zetkną — daje mierzalne efekty niezależnie od poglądów politycznych. Finlandia, która włączyła krytyczną analizę mediów do programu nauczania na wszystkich szczeblach, jest często przytaczana jako wzorcowy przykład systemowego podejścia. Unia Europejska próbuje drogi regulacyjnej — Digital Services Act i AI Act nakładają na platformy nowe obowiązki przejrzystości i oznaczania treści generowanych przez AI.
Ale żadna technologia i żadna regulacja nie zastąpią czegoś bardziej fundamentalnego. Hannah Arendt nazywała to „wspólnym światem" — podzielanym przez obywateli zbiorem podstawowych faktów, na których dopiero można budować różnicę opinii. Demokracja nie wymaga, byśmy się ze sobą zgadzali. Wymaga, byśmy zgadzali się co do tego, że pewne rzeczy się wydarzyły.
Gdy Steve Tesich pisał w 1992 roku o ludziach, którzy dobrowolnie zrezygnowali z prawdy, opisywał to jako akt zbiorowej rezygnacji. Trzydzieści cztery lata później pytanie nie brzmi, czy miał rację — brzmi, czy zbiorowa decyzja, że prawda jednak ma znaczenie, jest w ogóle jeszcze możliwa do podjęcia na skalę, która cokolwiek zmieni.