Dezinformacja nie jest wynalazkiem internetu. Gdy w 1274 roku p.n.e. faraon Ramzes II ruszył na Hetytów, dał się zwieść dwóm rzekomym dezerterom, którzy podali mu fałszywe informacje o pozycji wrogich wojsk. Ramzes wpadł w pułapkę, o mało nie zginął — a potem kazał wyryć na ścianach świątyń propagandową wersję bitwy, w której przedstawił się jako triumfator. Celowe kłamstwo jako broń i narzędzie kreowania rzeczywistości — trzy tysiące lat temu schemat był już gotowy.
Ale między epoką Ramzesa a naszą jest jedna zasadnicza różnica. Nie chodzi o to, że ludzie stali się bardziej podatni na manipulację. Chodzi o to, że kłamstwo zyskało infrastrukturę, jakiej prawda nigdy nie miała.
Nierówna gra
W 2018 roku badacze z MIT opublikowali największą dotychczas analizę rozprzestrzeniania się prawdziwych i fałszywych informacji w internecie. Przebadali ponad 126 tysięcy „kaskad informacyjnych" na Twitterze, obejmujących lata 2006–2017. Wynik był jednoznaczny: fałszywe wiadomości docierały do pierwszych 1500 odbiorców około sześć razy szybciej niż prawdziwe i były o 70% częściej udostępniane.
Co istotne, nie odpowiadały za to boty. Odpowiadali ludzie — i ich psychologia.
Ludzki mózg jest ewolucyjnie zaprogramowany, by traktować nowe informacje jako prawdziwe. Psycholodzy nazywają to domyślnym zaufaniem — cechą, która w małej społeczności zbieracko-łowieckiej miała sens, ale w epoce globalnego szumu informacyjnego stała się poważną luką w naszym oprogramowaniu. Dochodzą do tego skrzywienia poznawcze: szukamy potwierdzenia tego, w co już wierzymy, a informacje powtarzane wielokrotnie automatycznie oceniamy jako bardziej wiarygodne. Treści szokujące i naruszające oczekiwania przyciągają uwagę silniej niż spokojne fakty. Badacze z MIT zaobserwowali, że reakcje użytkowników na fałszywe wiadomości były zdominowane przez zaskoczenie i obrzydzenie — emocje, które napędzają viralowość.
Do tego dochodzi fundamentalny problem z trybem, w jakim konsumujemy treści. Scrollowanie mediów społecznościowych angażuje to, co psycholodzy nazywają Systemem 1 — intuicyjnym, szybkim, automatycznym. Decyzje o kliknięciu „udostępnij" zapadają w ułamkach sekundy, zanim analityczna część mózgu zdąży się włączyć. Ludzie nie tyle chcą wierzyć w kłamstwa, ile po prostu nie zadają sobie trudu, by je zweryfikować.
Technologia jako mnożnik
Psychologia tłumaczy podatność. Ale to architektura platform społecznościowych tłumaczy skalę. Algorytmy rekomendacji Facebooka, YouTube’a, TikToka czy X zostały zaprojektowane z jednym celem: maksymalizować czas spędzony na platformie. A co generuje zaangażowanie? Treści wzbudzające silne emocje — oburzenie, strach, gniew. Fakty rzadko wywołują takie reakcje. Sensacja tak.
Powstaje bańka filtrująca: algorytm serwuje użytkownikowi coraz więcej treści zgodnych z jego dotychczasowymi wyborami, a perspektywy sprzeczne z jego profilem znikają z pola widzenia. Równolegle sieci botów i skoordynowane grupy trolli sztucznie pompują popularność wybranych przekazów, kreując wrażenie masowego poparcia dla stanowisk, które w rzeczywistości reprezentuje garstka operatorów.
Technologia deepfake dodała do tego arsenału nową broń. Sieci neuronowe potrafią dziś generować realistyczne filmy i nagrania dźwiękowe, w których ludzie mówią słowa, których nigdy nie wypowiedzieli. W 2024 roku przestępcy wykorzystali tę technologię podczas wideokonferencji i wyłudzili 25 milionów dolarów. Ale finansowe straty to tylko wierzchołek góry lodowej. Deepfake’i pojawiły się w kampaniach wyborczych w co najmniej 78 przypadkach na świecie w samym 2024 roku. A paradoksalnie, nawet świadomość istnienia tej technologii staje się bronią: polityk złapany na kompromitującej wypowiedzi może po prostu powiedzieć „to deepfake" — i kto mu udowodni, że nie ma racji?
Szczepionka na fałsz
Tradycyjną odpowiedzią na dezinformację było prostowanie kłamstw po fakcie — debunking. Problem w tym, że sprostowanie rzadko dogania kłamstwo, a ponowne eksponowanie fałszywej treści, nawet w celu jej obalenia, może ją paradoksalnie utrwalić.
Bardziej obiecujące okazało się podejście odwrotne: uodpornienie ludzi, zanim zetkną się z dezinformacją. Teoria inokulacji, zaproponowana przez psychologa Williama McGuire’a w latach sześćdziesiątych, działa na zasadzie analogicznej do szczepionki — eksponuje odbiorcę na osłabioną wersję technik manipulacji, by nauczyć go je rozpoznawać. Badacze z Uniwersytetu w Cambridge stworzyli grę przeglądarkową Bad News, w której gracze wcielają się w twórcę fałszywych wiadomości. Wyniki na próbie 15 tysięcy uczestników były zachęcające: po rozgrywce gracze oceniali dezinformacyjne nagłówki jako znacznie mniej wiarygodne.
Google wdrożył prebunking na masową skalę poprzez krótkie animacje wyświetlane jako reklamy na YouTube, docierając do dziesiątków milionów użytkowników. Ale krytycy słusznie zauważają, że przenosi to odpowiedzialność na odbiorcę — zamiast na platformy, które czerpią zyski z rozpowszechniania sensacji.
Wyścig bez mety
Unia Europejska od 2025 roku wymaga oznaczania treści generowanych przez AI. Rozwijane są systemy wykrywania deepfake’ów i znakowania autentycznych materiałów. Finlandia od lat inwestuje w edukację medialną na wszystkich poziomach nauczania i regularnie zajmuje czołowe miejsca w rankingach odporności na dezinformację.
Ale żadne z tych rozwiązań nie jest srebrną kulą. Nowe narzędzia generatywne pojawiają się szybciej niż metody ich detekcji. Regulacje różnią się między krajami. A fundamentalna asymetria pozostaje: stworzenie przekonującego kłamstwa jest tanie i szybkie, jego obalenie — kosztowne i powolne.
Być może najważniejsza lekcja płynąca z historii dezinformacji brzmi inaczej, niż byśmy chcieli. Nie istnieje system, który ochroni nas przed kłamstwem, jeśli sami nie zainwestujemy wysiłku w jego rozpoznawanie. Technologia może pomóc, regulacje mogą ograniczyć, edukacja może przygotować — ale ostatecznie to my, przy każdym kliknięciu i każdym udostępnieniu, decydujemy, czy fałsz podróżuje dalej. I ta odpowiedzialność — osobista, niewygodna, codzienna — jest jedyną bronią, której żaden algorytm nie zastąpi.