W 1992 roku serbsko-amerykański dramaturg Steve Tesich opublikował w magazynie „The Nation" esej pod tytułem A Government of Lies. Tesich, laureat Oscara za scenariusz do filmu Breaking Away, pisał o tym, jak amerykańskie społeczeństwo, zmęczone aferą Iran-Contras i wojną w Zatoce Perskiej, dobrowolnie zrezygnowało z domagania się prawdy od swoich rządzących. Użył przy tym sformułowania, które ćwierć wieku później stało się jednym z najczęściej cytowanych terminów w dyskursie publicznym: post-truth, post-prawda. Tesich stwierdził wówczas, że Amerykanie jako wolni ludzie dobrowolnie zdecydowali się żyć w świecie, w którym prawda przestała być istotna.
Przez następne dwa dziesięciolecia termin ten funkcjonował na marginesie akademickiej dyskusji. W 2004 roku Ralph Keyes wydał książkę The Post-Truth Era, a rok później komik Stephen Colbert spopularyzował pokrewne pojęcie truthiness, opisujące coś, co „wydaje się prawdziwe", niezależnie od tego, czy faktycznie prawdą jest. Jednak dopiero rok 2016, naznaczony referendum brexitowym w Wielkiej Brytanii i wyborami prezydenckimi w Stanach Zjednoczonych, wyniósł post-prawdę z niszowych rozważań na okładki gazet całego świata. Oxford Dictionaries ogłosiło wówczas post-truth słowem roku, definiując je jako przymiotnik „odnoszący się do okoliczności, w których obiektywne fakty mają mniejszy wpływ na kształtowanie opinii publicznej niż odwołania do emocji i osobistych przekonań". Użycie tego terminu wzrosło w ciągu jednego roku o dwa tysiące procent.
Czy to jednak oznacza, że zmieniło się coś głębszego niż polityczny słownik? Że społeczeństwa inaczej niż kiedyś traktują samą kategorię prawdy?
Filozoficzne korzenie kryzysu prawdy
Napięcie między prawdą a polityką nie jest wynalazkiem XXI wieku. Hannah Arendt, jedna z najwnikliwszych filozofek politycznych XX stulecia, poświęciła temu problemowi dwa kluczowe eseje: Truth and Politics z 1967 roku oraz Lying in Politics z roku 1971. W pierwszym z nich Arendt stwierdziła wprost, że prawda i polityka nigdy nie były ze sobą w dobrych stosunkach, a kłamstwo od zawsze uznawano za dopuszczalne narzędzie w politycznych rozgrywkach. Nie pisała tego z cynizmem. Raczej z chłodną diagnozą mechanizmów, które obserwowała od czasów totalitaryzmu po wojnę w Wietnamie.
Arendt wprowadziła rozróżnienie, które okazuje się przydatne do zrozumienia dzisiejszych zjawisk. Oddzieliła prawdę racjonalną (matematyczne twierdzenia, logiczne dowody) od prawdy faktycznej, dotyczącej tego, co się wydarzyło, kto co powiedział, jakie były okoliczności danego zdarzenia. Prawda racjonalna, argumentowała Arendt, jest stosunkowo odporna na manipulację: nikt rozsądny nie będzie twierdził, że dwa dodać dwa równa się pięć. Prawda faktyczna natomiast jest krucha, bo dotyczy spraw ludzkich, które z natury rzeczy są zmienne, wieloznaczne i podatne na reinterpretację.
W eseju Lying in Politics, napisanym pod wpływem ujawnienia Pentagon Papers, Arendt poszła jeszcze dalej. Opisała mechanizm, który nazwała defaktualizacją: proces, w którym rządzący stopniowo tracą kontakt z rzeczywistością, przechodząc od okłamywania innych, przez samookłamywanie, po tworzenie alternatywnych obrazów świata oderwanych od jakichkolwiek weryfikowalnych faktów. Arendt zauważyła przy tym, że kłamstwo ma strukturalną przewagę nad prawdą, ponieważ kłamca z góry wie, czego jego publiczność chce i oczekuje usłyszeć. Rzeczywistość nie ma tego komfortu; jest taka, jaka jest, niezależnie od ludzkich pragnień.
Filozofka ostrzegała też przed pewnym szczególnie niebezpiecznym skutkiem systematycznego kłamania w przestrzeni publicznej. Pisała, że trwałym rezultatem „prania mózgów" nie jest wcale to, że kłamstwa zostają zaakceptowane jako prawda, ale coś znacznie gorszego: zniszczeniu ulega sam zmysł, za pomocą którego orientujemy się w rzeczywistym świecie. Ludzie nie tyle zaczynają wierzyć w fałsz, co tracą zdolność rozróżniania między prawdą a kłamstwem w ogóle. Powstaje cynizm tak głęboki, że odmawia się wiary w cokolwiek.
Diagnozę tę Arendt postawiła ponad pół wieku temu. Dziś, w epoce mediów społecznościowych, brzmi ona jak opis mechanizmu, który miliony ludzi obserwują na własnych ekranach.
Anatomia podatności: jak umysł ułatwia dezinformacji zadanie
Gdyby dezinformacja polegała wyłącznie na tym, że ktoś mówi nieprawdę, a reszta społeczeństwa tę nieprawdę odrzuca, żylibyśmy w prostszym świecie. Problem w tym, że ludzki umysł nie jest neutralną maszyną przetwarzającą dane. Psychologia poznawcza od dekad dokumentuje całą galerię błędów poznawczych, które sprawiają, że fałszywe informacje trafiają na podatny grunt.
Jednym z najlepiej zbadanych mechanizmów jest błąd potwierdzenia (confirmation bias), czyli skłonność do poszukiwania, zapamiętywania i faworyzowania informacji, które potwierdzają to, w co już wierzymy. Gdy ktoś jest przekonany, że szczepionki są niebezpieczne, automatycznie zwraca większą uwagę na historie o rzekomych powikłaniach, a ignoruje lub bagatelizuje dane epidemiologiczne wskazujące na ich bezpieczeństwo. Badania opublikowane w „Frontiers in Psychology" w 2024 roku wykazały, że interwencja polegająca na uświadamianiu uczestnikom istnienia tego błędu zwiększała ich odporność na dezinformację, choć efekt ten był wyraźny głównie u osób, które wcześniej miały silnie negatywne nastawienie do szczepień przeciw COVID-19. Sama świadomość mechanizmu nie wystarczy; musi trafić na odpowiedni moment gotowości do rewizji własnych przekonań.
Równie istotny jest tak zwany efekt Dunninga-Krugera, odkryty w 1999 roku przez psychologów z Cornell University. Polega on na tym, że osoby o niskich kompetencjach w danej dziedzinie mają tendencję do znacznego przeszacowywania swoich umiejętności. W kontekście dezinformacji przekłada się to na sytuację, w której ludzie najmniej zdolni do odróżnienia fałszywych wiadomości od prawdziwych są jednocześnie najbardziej przekonani o swoich zdolnościach weryfikacyjnych. Badanie Benjamina Lyonsa i współpracowników, opublikowane w 2021 roku w „Proceedings of the National Academy of Sciences", wykazało, że około 70 procent uczestników przeszacowywało swoją zdolność rozróżniania prawdziwych i fałszywych treści na Facebooku. Uczestnicy przeceniali swój wynik średnio o 20 punktów procentowych w stosunku do faktycznego wyniku, a im większe było to przeszacowanie, tym gorzej radzili sobie z identyfikowaniem dezinformacji.
Do tego dochodzi efekt prawdy pozornej (illusory truth effect): wielokrotne powtarzanie jakiejś informacji sprawia, że wydaje się ona bardziej wiarygodna, niezależnie od tego, czy jest prawdziwa. Mechanizm ten tłumaczy, dlaczego propaganda operuje powtórzeniem. Slogan powtórzony tysiąc razy zaczyna brzmieć jak fakt. W erze mediów społecznościowych, gdzie te same treści krążą w pętlach udostępnień i algorytmicznych rekomendacji, efekt ten zostaje zwielokrotniony na skalę niespotykaną w historii masowej komunikacji.
Wreszcie istotną rolę odgrywa efekt trzeciej osoby, czyli przekonanie, że dezinformacja wpływa na innych ludzi, ale nie na nas samych. Badania prowadzone w 18 krajach i opublikowane w 2025 roku na łamach „Mass Communication and Society" potwierdziły, że jest to zjawisko powszechne i powiązane z niższą motywacją do weryfikowania informacji. Jeśli wierzę, że to „inni" dają się nabierać, nie mam powodu sprawdzać, czy ja sam nie uległem manipulacji.
Te zniekształcenia poznawcze współdziałają ze sobą, tworząc mechanizm samowzmacniający. Osoba podatna na błąd potwierdzenia trafia na treści wzmacniające jej przekonania. Efekt prawdy pozornej sprawia, że wielokrotnie widziane tezy wydają się coraz bardziej oczywiste. Efekt Dunninga-Krugera podpowiada, że „ja to rozumiem lepiej niż inni", a efekt trzeciej osoby daje poczucie, że ofiarą manipulacji jest zawsze ktoś inny.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.
Bańki filtrujące i komory echa — mit czy rzeczywistość?
Termin „bańka filtrująca" (filter bubble) wprowadził w 2011 roku Eli Pariser w głośnej książce o tym samym tytule. Pariser argumentował, że algorytmy platform internetowych (Google, Facebook, serwisów informacyjnych) tworzą dla każdego użytkownika spersonalizowany obraz świata, w którym docierają do niego głównie treści zgodne z jego dotychczasowymi preferencjami. Niezależnie od Parisera, prawnik i konstytucjonalista Cass Sunstein rozwinął koncepcję „komór echa", zamkniętych przestrzeni komunikacyjnych, w których ludzie stykają się wyłącznie z opiniami podobnymi do własnych.
Oba pojęcia błyskawicznie weszły do języka publicznej debaty i są dziś używane niemal tak powszechnie jak samo słowo „internet". Tyle że obraz naukowy okazuje się znacznie bardziej skomplikowany, niż sugerowałyby popularne narracje.
Obszerna analiza literatury naukowej przeprowadzona przez Reuters Institute przy Uniwersytecie Oksfordzkim przyniosła wnioski, które mogą zaskoczyć. Badania prowadzone w Wielkiej Brytanii i wielu innych krajach wykazały, że algorytmiczna selekcja oferowana przez wyszukiwarki i media społecznościowe na ogół prowadzi do nieco bardziej zróżnicowanego, a nie mniej zróżnicowanego konsumowania wiadomości. To odwrotność tego, co zakłada hipoteza bańki filtrującej. Natomiast samoizolacja, świadomy wybór jednolitych źródeł informacji, rzeczywiście może prowadzić do zamknięcia w komorze echa, choć dotyczy to przede wszystkim niewielkiej mniejszości osób o silnie spolaryzowanych poglądach politycznych.
Systematyczny przegląd 129 badań opublikowany w 2025 roku w „Journal of Computational Social Science" potwierdził ten niejednoznaczny obraz. Wyniki zależą w dużej mierze od metody badawczej: analizy oparte na danych behawioralnych (cyfrowych śladach aktywności użytkowników) częściej wspierają hipotezę komór echa, natomiast badania ankietowe i analizy ogólnego środowiska medialnego częściej ją podważają. Obraz komplikuje dodatkowo zróżnicowanie między platformami. Zachowania na Twitterze/X wyglądają inaczej niż na Facebooku, a te z kolei inaczej niż na TikToku czy w komunikatorach typu WhatsApp.
Ważne jest też ustalenie badaczy, że nawet ekspozycja na odmienne poglądy nie musi prowadzić do zmniejszenia polaryzacji. Eksperyment Christophera Baila i współpracowników z Duke University, opublikowany w 2018 roku w „Proceedings of the National Academy of Sciences", wykazał paradoksalny efekt bumerangowy: Republikanie, którym przez miesiąc pokazywano na Twitterze treści liberalne, stali się po tym doświadczeniu istotnie bardziej konserwatywni. U Demokratów zaobserwowano jedynie niewielkie, nieistotne statystycznie przesunięcie w stronę liberalną. Ekspozycja na poglądy przeciwnej strony nie łagodziła podziałów, lecz je pogłębiała.
Algorytmy naprawdę współtworzą środowisko informacyjne, ale nie są jedynym ani nawet głównym winowajcą. Decydującą rolę odgrywają ludzkie wybory, wcześniejsze nastawienia i dynamika grupowa, które istniały na długo przed wynalezieniem Facebooka. Jak ujęli to autorzy przeglądu z Reuters Institute, komory echa są znacznie mniej powszechne, niż się powszechnie zakłada.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.
Deepfake’i i rok wielkich wyborów
Rok 2024 przeszedł do historii jako największy supercykl wyborczy: 3,7 miliarda uprawnionych wyborców w 72 krajach miało szansę pójść do urn. Były to jednocześnie pierwsze wybory, w których powszechnie obawiano się wpływu generatywnej sztucznej inteligencji. Deepfake’i, syntetyczne nagrania wideo i audio, w których technologia AI pozwala wkładać w usta prawdziwych ludzi słowa, których nigdy nie wypowiedzieli, wydawały się idealną bronią do podważania demokratycznych procesów.
Strach okazał się uzasadniony, ale skala zjawiska była mniejsza od apokaliptycznych prognoz. Firma Recorded Future zidentyfikowała w okresie od lipca 2023 do lipca 2024 roku 82 przypadki deepfake’ów wymierzonych w osoby publiczne w 38 krajach. Analiza Knight First Amendment Institute przy Uniwersytecie Columbia objęła 78 przypadków użycia AI w kampaniach wyborczych zebranych w ramach projektu WIRED AI Elections. Ku zaskoczeniu badaczy, w połowie z tych przypadków nie stwierdzono intencji oszukania odbiorców; AI służyła do tworzenia materiałów kampanijnych, satyr, memów czy tłumaczenia przemówień na inne języki.
Meta ogłosiła, że mniej niż jeden procent całej zweryfikowanej dezinformacji w cyklu wyborczym 2024 stanowiły treści wygenerowane przez AI. News Literacy Project ustalił, że tak zwane cheap fakes, prymitywne manipulacje wykonane bez udziału sztucznej inteligencji (takie jak wycięcie słowa „nie" z wypowiedzi polityka czy spowolnienie nagrania, żeby mówca brzmiał na nietrzeźwego), były stosowane siedmiokrotnie częściej niż treści generowane przez AI.
Nie oznacza to jednak, że deepfake’i są zagrożeniem pozornym. Kilka dni przed wyborami parlamentarnymi na Słowacji w 2023 roku fałszywe nagranie audio, w którym jeden z kandydatów rzekomo dyskutował o manipulowaniu wynikami głosowania, rozeszło się wirusowo po sieci. W Indiach deepfake’i służyły głównie do trollowania przeciwników politycznych. W Turcji prezydent Erdoğan wykorzystał syntetyczne wideo, by powiązać lidera opozycji z organizacjami terrorystycznymi. W styczniu 2024 roku tysiące wyborców w New Hampshire odebrały telefon z fałszywym głosem prezydenta Bidena, zachęcającym ich do nieoddawania głosu w prawyborach. Zleceniodawca, demokratyczny konsultant polityczny, został ukarany grzywną w wysokości 6 milionów dolarów i postawiony przed sądem.
Szczególnie niepokojący trend, zidentyfikowany przez badaczy z Centre for Emerging Technology and Security przy Alan Turing Institute, polega na łączeniu deepfake’ów z elementami graficznymi prawdziwych serwisów informacyjnych. Fałszywe materiały wykorzystujące szatę graficzną CNN, BBC czy France24 zyskują dodatkową warstwę pozornej wiarygodności, a jednocześnie podkopują zaufanie do tych mediów. Organizacje informacyjne stają przed dylematem: dementować fałszerstwo (ryzykując jego wirusowe rozprzestrzenienie) czy milczeć (ryzykując, że część odbiorców uzna je za autentyczne).
Z analiz wyborczego roku 2024 wyłania się wniosek, że największym zagrożeniem ze strony AI nie jest pojedynczy, spektakularny deepfake tuż przed dniem głosowania, ale raczej efekt kumulatywny. Hany Farid z Uniwersytetu Kalifornijskiego w Berkeley, jeden z wiodących badaczy manipulowanych mediów, nazwał to „śmiercią od tysiąca cięć": stałe zanieczyszczanie ekosystemu informacyjnego generowanymi treściami prowadzi do tego, że ludzie rezygnują z prób odróżniania prawdy od fałszu.
Ekonomia uwagi i architektura dezinformacji
Era post-prawdy nie wzięła się z powietrza. Ma swoją infrastrukturę: techniczną, ekonomiczną, społeczną.
Fundamentem jest model biznesowy platform cyfrowych oparty na ekonomii uwagi. Facebook, YouTube, TikTok, X — każda z tych platform zarabia na reklamach, a reklamy są tym droższe, im dłużej użytkownik pozostaje na platformie i im intensywniej wchodzi w interakcje z treściami. Algorytmy rekomendacyjne optymalizowane są pod kątem zaangażowania (engagement), a badania wielokrotnie wykazywały, że treści wywołujące silne emocje (oburzenie, strach, zaskoczenie) generują więcej kliknięć, komentarzy i udostępnień niż treści wyważone i zniuansowane. Dezinformacja, z natury rzeczy sensacyjna i emocjonalna, porusza się w tym środowisku szybciej niż rzetelna informacja.
Do tego dochodzi radykalne obniżenie kosztów produkcji treści. Jeszcze dwie dekady temu stworzenie przekonującego fałszywego nagrania wymagało zaawansowanego studia filmowego. Dziś dostępne publicznie narzędzia AI pozwalają wygenerować syntetyczne wideo lub audio w ciągu minut, często za darmo. Bariera wejścia dla dezinformatorów praktycznie zniknęła. W lutym 2024 roku pracownik wielonarodowej korporacji w Hongkongu przelał 25 milionów dolarów po wideokonferencji na Zoomie, w której wszyscy uczestnicy, łącznie z rzekomym dyrektorem finansowym firmy, okazali się deepfake’ami.
Istotnym czynnikiem jest także erozja zaufania do instytucji. Wyniki badań Edelman Trust Barometer od lat dokumentują spadek zaufania do mediów, rządów i korporacji w wielu krajach rozwiniętych. Gdy ludzie tracą wiarę w tradycyjne źródła autorytetu, nie przestają szukać informacji; szukają ich gdzie indziej. Luka zaufania zostaje wypełniona przez influencerów, podcasty, kanały na Telegramie, grupy na WhatsAppie. Źródła te mogą być wartościowe, ale nie podlegają żadnym standardom weryfikacji dziennikarskiej.
Nie można wreszcie pominąć celowej, zorganizowanej dezinformacji prowadzonej przez podmioty państwowe. Departament Sprawiedliwości USA wielokrotnie ostrzegał, że Rosja aktywnie wykorzystuje AI do generowania treści dezinformacyjnych rozpowszechnianych w mediach społecznościowych. OpenAI, twórca ChatGPT, ujawniło likwidację irańskiej operacji wpływu, która wykorzystywała narzędzia AI do manipulowania opinią amerykańskich wyborców. To nie są teorie spiskowe, lecz udokumentowane działania, które nakładają się na wszystkie wcześniej opisane mechanizmy, tworząc środowisko, w którym odróżnienie sygnału od szumu staje się zadaniem coraz trudniejszym.
Spirala milczenia i cena konformizmu
Jest jeszcze jeden mechanizm, który rzadko pojawia się w popularnych dyskusjach o post-prawdzie, a który może mieć kluczowe znaczenie. Chodzi o spiralę milczenia, teorię sformułowaną w latach 70. XX wieku przez niemiecką politolożkę Elisabeth Noelle-Neumann. Zgodnie z nią ludzie, którzy postrzegają swoje poglądy jako mniejszościowe, mają tendencję do milczenia z obawy przed izolacją społeczną. W efekcie poglądy, które wydają się dominujące, stają się jeszcze bardziej widoczne, a poglądy mniejszościowe jeszcze bardziej marginalizowane, niezależnie od tego, jaki jest ich rzeczywisty rozkład w społeczeństwie.
Badanie opublikowane w 2025 roku w „Internet Research" zastosowało tę teorię do analizy zachowań w społecznościach internetowych i przyniosło wyniki, które rzucają nowe światło na mechanizm powstawania komór echa. Zespół badaczy z niemieckich uniwersytetów wykazał, że strach przed odrzuceniem przez grupę skłania członków społeczności online nie tylko do milczenia na temat swoich rzeczywistych poglądów, ale wręcz do aktywnego wyrażania zgody z dominującą opinią, nawet wtedy, gdy się z nią nie zgadzają. Efekt ten był silniejszy w przypadku tematów wywołujących silne emocje, takich jak kwestie polityczne czy światopoglądowe.
To odkrycie ma daleko idące konsekwencje. Komory echa nie powstają wyłącznie dlatego, że algorytmy serwują nam treści zgodne z naszymi przekonaniami, ani dlatego, że ludzie świadomie unikają odmiennych punktów widzenia. Powstają także dlatego, że osoby mające odmienne zdanie rezygnują z jego wyrażania lub, co gorsza, aktywnie udają, że zgadzają się z większością. W ten sposób pozorna jednomyślność grupy staje się samospełniającą się przepowiednią: im bardziej jednolity wydaje się głos społeczności, tym silniejsza presja na kolejnych członków, by się dostosować.
W kontekście ery post-prawdy mechanizm ten oznacza, że mierzona publicznie „opinia społeczna" może być głęboko nieadekwatna do tego, co ludzie naprawdę myślą. Pozorna dominacja pewnych narracji (także dezinformacyjnych) jest częściowo artefaktem milczenia tych, którzy wiedzą, że te narracje są fałszywe, ale nie chcą narażać się na konfrontację.
Polska w krajobrazie post-prawdy
Polska nie jest wyspą odporną na opisywane zjawiska; przeciwnie, kilka cech polskiego krajobrazu medialnego czyni ją szczególnie podatną na dynamiki ery post-prawdy.
Głęboka polaryzacja polityczna, utrzymująca się od lat i wykraczająca daleko poza zwykłe różnice programowe, sprawia, że znaczna część obywateli traktuje informacje przede wszystkim przez pryzmat przynależności tożsamościowej. Zaufanie do mediów w Polsce kształtuje się poniżej europejskiej średniej: według Digital News Report 2024 Instytutu Reuters wynosi 39 procent i systematycznie spada od 2015 roku (o 17 punktów procentowych w ciągu dekady). Gdy zaufanie do mediów jest tak niskie, nie oznacza to, że ludzie stają się bardziej krytyczni. Częściej oznacza, że szukają potwierdzenia swoich poglądów w niszowych źródłach, które nie podlegają żadnej kontroli jakości.
Jednocześnie Polska jest obiektem działań dezinformacyjnych ze strony zewnętrznych aktorów, o czym wielokrotnie alarmowały polskie służby specjalne i instytucje unijne. East StratCom Task Force przy Europejskiej Służbie Działań Zewnętrznych regularnie identyfikuje prorosyjskie narracje dezinformacyjne kierowane do polskich odbiorców, dotyczące zarówno wojny w Ukrainie, jak i wewnętrznych spraw politycznych.
Polska debata o szczepionkach, 5G, zmianach klimatu czy kwestiach historycznych odzwierciedla pełne spektrum opisywanych wcześniej mechanizmów. Błąd potwierdzenia wzmacniany jest przez komory echa w mediach społecznościowych, efekt Dunninga-Krugera przejawia się w pewności siebie osób bez kompetencji merytorycznych, spirala milczenia wycisza głosy umiarkowane, a efekt prawdy pozornej działa na korzyść najczęściej powtarzanych, choć niekoniecznie prawdziwych tez.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.
Czy da się wyjść z ery post-prawdy?
Błędy poznawcze, które czynią ludzi podatnymi na dezinformację, są wbudowane w architekturę ludzkiego umysłu i nie da się ich „odinstalować" żadną kampanią edukacyjną. To nie znaczy jednak, że nie istnieją skuteczne interwencje. Badania naukowe wskazują na kilka podejść, które przynoszą mierzalne efekty.
Jednym z najbardziej obiecujących jest prebunking, technika polegająca na profilaktycznym „szczepieniu" ludzi przeciwko manipulacji, zanim do niej dojdzie. Badania Sandera van der Lindena z Uniwersytetu w Cambridge wykazały, że krótkie filmy edukacyjne pokazujące typowe techniki manipulacji (emocjonalizacja języka, fałszywe dychotomie, ataki ad hominem) zwiększają zdolność ludzi do rozpoznawania dezinformacji niezależnie od ich poglądów politycznych. Google i Jigsaw (laboratorium technologiczne Alphabet) wdrożyły tę metodę na dużą skalę, udostępniając reklamy prebunkingowe na YouTube w kilku krajach europejskich.
Innym kierunkiem jest rozwijanie umiejętności cyfrowych i medialnych (media literacy). Finlandia, często przytaczana jako wzorcowy przykład w tej dziedzinie, włączyła krytyczną analizę mediów do programu nauczania na wszystkich szczeblach edukacji, od szkół podstawowych po uczelnie wyższe. Fińskie podejście nie polega na uczeniu, „co jest prawdą", ale na kształtowaniu nawyku pytania: kto to mówi, dlaczego, na podstawie jakich dowodów i w czyim interesie.
Na poziomie regulacyjnym Unia Europejska podjęła próbę systemowego podejścia. Rozporządzenie o usługach cyfrowych (Digital Services Act), obowiązujące w pełni od lutego 2024 roku, nakłada na platformy obowiązek większej przejrzystości algorytmów rekomendacyjnych i szybszego reagowania na dezinformację. Akt o sztucznej inteligencji (AI Act) wprowadza wymóg oznaczania treści wygenerowanych przez AI. Skuteczność tych regulacji poznamy dopiero w praktyce ich stosowania.
Na poziomie technologicznym rozwijane są narzędzia do wykrywania deepfake’ów i treści generowanych przez AI, oparte między innymi na analizie cyfrowych artefaktów, niespójności w oświetleniu czy sygnaturach specyficznych dla poszczególnych modeli generatywnych. Problem w tym, że wyścig między twórcami fałszywych treści a ich wykrywaczami przypomina wyścig zbrojeń: każde ulepszenie po jednej stronie szybko prowokuje adaptację po drugiej.
Ale być może najbardziej fundamentalna odpowiedź na erę post-prawdy nie leży ani w technologii, ani w regulacjach, lecz w odbudowie czegoś, co Arendt nazywała „wspólnym światem", podzielanego przez obywateli zbioru podstawowych faktów, na których można budować różnicę opinii. Demokracja nie wymaga zgody co do interpretacji faktów, ale wymaga zgody co do tego, że pewne fakty miały miejsce. Gdy ta zgoda zanika, znika fundament, na którym opiera się jakakolwiek sensowna debata.
W 2021 roku historyk Timothy Snyder, znany między innymi z książki O tyranii, napisał zdanie, które stało się jednym z najczęściej cytowanych komentarzy do szturmu na Kapitol Stanów Zjednoczonych z 6 stycznia tego samego roku. Snyder stwierdził, że post-prawda jest przed-faszyzmem. Gdy rezygnujemy z prawdy, oddajemy władzę tym, którzy mają pieniądze i charyzmę, by stworzyć na jej miejscu spektakl.
Czy to zbyt dramatyczna diagnoza? Może. Ale gdy kilka lat później, w 2025 roku, badacze z Harvard Ash Center podsumowywali superwyborczy rok 2024, ich główny wniosek brzmiał zaskakująco podobnie: największym zagrożeniem dla demokracji okazały się nie pojedyncze deepfake’i ani konkretne kampanie dezinformacyjne, ale ogólna erozja zdolności obywateli do odróżniania prawdy od fałszu. Stan, w którym ludzie po prostu się poddają.
Steve Tesich miał rację w 1992 roku. Wolni ludzie mogą dobrowolnie zdecydować, że prawda ich nie interesuje. Pytanie, które stoi przed nami dziś, brzmi: czy mogą też dobrowolnie zdecydować, że jednak ich interesuje, i co muszą zrobić, żeby ta decyzja nie była tylko kolejnym pięknie brzmiącym sloganem krążącym w bańce informacyjnej, docierającym wyłącznie do tych, którzy i tak nie potrzebują przekonywania.
Literatura i źródła
- Oxford Word of the Year 2016 — Oxford Languages — oficjalne ogłoszenie słowa roku z definicją i analizą kontekstu
- Post-truth — Wikipedia — artykuł encyklopedyczny o genezie i rozwoju pojęcia post-prawdy
- Post-truth politics — Wikipedia — artykuł encyklopedyczny o polityce post-prawdy i jej przejawach
- Philosophy of Post-Truth — Institute for National Security Studies — analiza filozoficzna pojęcia post-prawdy i teorii prawdy
- Hannah Arendt and the Fragility of Facts — EUvsDisinfo — analiza myśli Arendt w kontekście współczesnej dezinformacji
- Hannah Arendt and the politics of truth — openDemocracy — esej o Arendt i relacji prawdy z polityką
- Overconfidence in news judgments is associated with false news susceptibility — PNAS — publikacja naukowa o efekcie Dunninga-Krugera w kontekście fake newsów
- The impact of confirmation bias awareness on mitigating susceptibility to misinformation — PMC — badanie wpływu świadomości błędu potwierdzenia na odporność na dezinformację
- Echo chambers, filter bubbles, and polarisation: a literature review — Reuters Institute — przegląd literatury naukowej o komorach echa i polaryzacji
- A systematic review of echo chamber research — Journal of Computational Social Science — systematyczny przegląd 129 badań nad komorami echa
- Through the Newsfeed Glass: Rethinking Filter Bubbles and Echo Chambers — PMC — analiza naukowa hipotezy bańki filtrującej z perspektywy epistemologicznej
- Supporting opinions to fit in: a spiral of silence-theoretic explanation — Internet Research — badanie spirali milczenia w społecznościach online
- The apocalypse that wasn't: AI was everywhere in 2024's elections — Harvard Ash Center — analiza roli AI w wyborach 2024
- We Looked at 78 Election Deepfakes — Knight First Amendment Institute — analiza deepfake'ów wyborczych z projektu WIRED AI Elections
- From Deepfake Scams to Poisoned Chatbots — CETaS, Alan Turing Institute — raport o zagrożeniach AI dla bezpieczeństwa wyborczego
- 2024 Deepfakes and Election Disinformation Report — Recorded Future — raport o taktykach deepfake'ów politycznych
- Deepfakes are here to stay and we should remain vigilant — World Economic Forum — analiza zagrożeń ze strony deepfake'ów po wyborach 2024
- Exposure to opposing views on social media can increase political polarization — PNAS — eksperyment terenowy Baila i wsp. o efekcie bumerangowym ekspozycji na odmienne poglądy
- Illusory Superiority About Misinformation Detection — Mass Communication and Society — badanie efektu iluzorycznej wyższości w wykrywaniu dezinformacji w 18 krajach
- Digital News Report 2024: Poland — Reuters Institute — raport o zaufaniu do mediów i konsumpcji wiadomości w Polsce