W 1274 roku p.n.e. nad rzeką Orontes w dzisiejszej Syrii rozegrała się bitwa pod Kadesz — jedno z najlepiej udokumentowanych starć starożytności. Faraon Ramzes II ruszył na północ przeciw Hetytom. Po drodze napotkał dwóch beduinów z plemienia Szasu, którzy podali się za dezerterów z obozu hetyckiego i zeznali, że armia króla Muwatallisa II stacjonuje daleko na północ, pod Aleppo. Ramzes uwierzył i ruszył naprzód, odcinając się od głównych sił swojej armii. Była to pułapka. Obaj „dezerterzy" okazali się agentami Hetytów, celowo wysłanymi, by zmylić faraona. Główne siły hetyckie — tysiące rydwanów i piechoty — czekały ukryte tuż za miastem.

Ramzes o mało nie stracił życia; uratowały go posiłki, które dotarły w ostatniej chwili. Ale to, co wydarzyło się potem, jest równie pouczające: faraon kazał wyryć na ścianach pięciu świątyń relację z bitwy, w której przedstawił się jako niezłomny zwycięzca. To chyba najstarszy znany przypadek, gdy dezinformacja posłużyła zarówno jako broń wojenna, jak i narzędzie propagandy — w jednym konflikcie.

Od tamtego czasu minęły ponad trzy tysiące lat. Zmieniły się technologie, media, struktury społeczne. Jedno pozostało niezmienne: kłamstwo wplecione w informację potrafi zmieniać bieg wydarzeń. Tyle że dziś, w epoce algorytmów i sztucznej inteligencji, robi to na skalę, jakiej Ramzes nie byłby w stanie sobie wyobrazić.

Dezinformacja, misinformacja, propaganda — o co właściwie chodzi?

Pojęcia te bywają traktowane zamiennie, ale ich mieszanie samo w sobie bywa narzędziem manipulacji. Warto je rozdzielić.

Dezinformacja to celowe rozpowszechnianie fałszywych lub wprowadzających w błąd treści. Liczy się tu intencja: polityczna, militarna, ekonomiczna. Ktoś świadomie konstruuje przekaz, wiedząc, że nie odpowiada on rzeczywistości. Misinformacja różni się od niej jednym szczegółem, ale za to zasadniczym — brakiem złych intencji. Babcia udostępniająca na Facebooku niesprawdzoną wiadomość o rzekomych właściwościach leczniczych herbaty z pokrzywy uprawia misinformację. Nie wie, że treść jest fałszywa, i nie ma zamiaru nikogo oszukiwać.

Z kolei propaganda to systematyczne oddziaływanie na postawy i zachowania ludzi poprzez selektywne przedstawianie informacji. Może opierać się na faktach — ale dobranych i podanych tak, by prowadziły do z góry założonego wniosku. Sam termin pochodzi z XVII wieku, od watykańskiej Sacra Congregatio de Propaganda Fide, Świętej Kongregacji Rozkrzewiania Wiary.

Te trzy pojęcia nie są synonimami, choć w praktyce wzajemnie się przenikają. Dezinformacja często posługuje się technikami propagandowymi. Misinformacja może być produktem ubocznym dezinformacji — gdy ludzie nieświadomie podają dalej celowo sfabrykowane treści. Sytuacja robi się naprawdę groźna, gdy fałsz staje się tak rozpowszechniony, że ludzie traktują go jako „powszechnie znany fakt", choć nikt nie potrafi wskazać wiarygodnego źródła.

Pole bitwy pod Kadesz o zachodzie słońca z porzuconymi rydwanami i uzbrojeniem na pustynnym terenie
Bitwa pod Kadesz – jedno z pierwszych starć, w którym propaganda i narracja zwycięstwa odegrały kluczową rolę.
Wizualizacja artystyczna AI / faleinspiracji.pl / CC BY 4.0.

Radziecka szkoła kłamstwa

Samo słowo „dezinformacja" ma rosyjskie korzenie. Pochodzi od rosyjskiego diezinformacyja (дезинформация) — terminu używanego przez radzieckie służby specjalne od lat pięćdziesiątych XX wieku. Sowieccy planiści definiowali dezinformację jako rozpowszechnianie, za pośrednictwem prasy, radia i innych mediów, fałszywych doniesień mających na celu wprowadzenie opinii publicznej w błąd. W KGB działał osobny departament odpowiedzialny za tego typu operacje — Służba A, zajmująca się tak zwanymi „aktywnymi środkami" (aktiwnyje mieropryjatija).

Jednym z najbardziej spektakularnych przykładów sowieckiej dezinformacji była Operacja Denver — kampania prowadzona przez KGB i Stasi od 1983 roku, mająca na celu przekonanie świata, że wirus HIV/AIDS został sztucznie wytworzony w amerykańskim laboratorium badań nad bronią biologiczną w Fort Detrick w stanie Maryland.

Operacja rozpoczęła się niepozornie. W lipcu 1983 roku prosowiecka indyjska gazeta „The Patriot", założona przez KGB w 1962 roku specjalnie w celu publikowania dezinformacji, wydrukowała anonimowy list rzekomo napisany przez „znanego amerykańskiego naukowca i antropologa". Autor twierdził, że AIDS jest wynikiem eksperymentów Pentagonu z bronią biologiczną. Dwa lata później KGB rozesłał depeszę do służb wywiadowczych państw bloku wschodniego z instrukcjami, jak rozprzestrzeniać tę narrację.

W październiku 1985 roku sowiecka „Litieraturnaja Gazieta" opublikowała artykuł zatytułowany „Panika na Zachodzie", który powtórzył główne tezy o Fort Detrick i powołał się na wcześniejszą publikację w „The Patriot" — klasyczny mechanizm cyrkularny, w którym dezinformacja potwierdza sama siebie. Rosyjsko-niemiecki biofizyk Jakob Segal opublikował pseudonaukowy raport, w którym twierdził, że wirus AIDS został sztucznie skonstruowany. Raport ten został strategicznie rozesłany do zachodnich mediów.

Kampania odniosła gigantyczny zasięg. W samym 1987 roku temat pojawił się ponad 40 razy w sowieckich mediach. Łącznie narracja ta dotarła do ponad 80 krajów, w ponad 30 językach. Szczytowy moment nastąpił 30 marca 1987 roku, gdy stacja CBS krótko zreferowała sowieckie zarzuty, bez komentarza krytycznego. Dopiero bezpośrednia interwencja sekretarza stanu George’a Shultza, który skonfrontował Michaiła Gorbaczowa z dowodami na kampanię dezinformacyjną, doprowadziła do wycofania się Sowietów.

Ale kłamstwo przetrwało swoich twórców. W 1992 roku szef rosyjskiego wywiadu Jewgienij Primakow oficjalnie przyznał, że KGB stało za kampanią. A jednak badanie RAND Corporation i Oregon State University z 2005 roku wykazało, że blisko 50% Afroamerykanów wierzyło, iż AIDS jest chorobą stworzoną przez człowieka, a ponad 25% wierzyło, że powstała w rządowym laboratorium. Badaczka Nicoli Nattrass z Uniwersytetu Kapsztadzkiego wykazała, że wiara w spiskowe teorie dotyczące AIDS koreluje z ryzykownymi zachowaniami seksualnymi, odmową leczenia antyretrowirusowego i unikaniem testów na HIV. Kłamstwo KGB, choć wielokrotnie obalone, wciąż zabija.

Stare biuro z mapą świata, magnetofonem szpulowym i stosami gazet symbolizujące operacje dezinformacyjne
Radziecka szkoła kłamstwa – zorganizowane kampanie dezinformacyjne oparte na kontroli przekazu i globalnej sieci wpływu.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.

Dlaczego ulegamy kłamstwu? Psychologia podatności

Gdyby ludzie byli racjonalnymi maszynami do przetwarzania informacji, dezinformacja nie miałaby szans. Wystarczyłoby porównać twierdzenie z faktami i odrzucić fałsz. Problem w tym, że ludzki mózg tak nie działa.

Badacze z MIT, Soroush Vosoughi, Deb Roy i Sinan Aral, opublikowali w 2018 roku w czasopiśmie „Science" największe dotychczas badanie nad rozprzestrzenianiem się prawdziwych i fałszywych informacji w internecie. Przeanalizowali około 126 tysięcy „kaskad informacyjnych" na platformie Twitter (dziś X), rozprzestrzenianych przez około 3 miliony użytkowników w latach 2006–2017. Wyniki okazały się porażające.

Fałszywe wiadomości rozprzestrzeniały się dalej, szybciej, głębiej i szerzej niż prawdziwe — we wszystkich analizowanych kategoriach tematycznych. Kłamstwa docierały do pierwszych 1500 odbiorców około sześć razy szybciej niż prawda. Były o 70% częściej udostępniane dalej. A efekt ten był najsilniejszy w przypadku fałszywych informacji politycznych.

Za szybsze rozprzestrzenianie się fałszu nie odpowiadały boty internetowe. Po ich usunięciu z analizy różnice między prawdą a kłamstwem utrzymywały się. Za dominację fałszu odpowiadali ludzie, ich decyzje o kliknięciu „udostępnij".

Dlaczego? Klucz tkwi w kilku mechanizmach psychologicznych, które kształtowały się przez tysiące lat ewolucji. W epoce mediów społecznościowych zostały bezlitośnie wyeksploatowane.

Efekt potwierdzenia (confirmation bias) sprawia, że instynktownie szukamy informacji potwierdzających to, w co już wierzymy. Jeśli ktoś jest przekonany, że duże korporacje farmaceutyczne ukrywają prawdę o lekach, jest znacznie bardziej skłonny uwierzyć (i udostępnić) wiadomość o rzekomym spisku koncernu farmaceutycznego — nawet bez sprawdzenia jej prawdziwości.

Efekt znajomości (familiarity bias) powoduje, że informacje, z którymi stykamy się wielokrotnie, wydają nam się bardziej wiarygodne. Media społecznościowe działają na zasadzie „duża częstotliwość = wiarygodność". Jeśli dany przekaz pojawia się na naszej tablicy raz za razem, mózg zaczyna traktować go jako ustalony fakt.

Efekt nowości — i tu wracamy do badania MIT — sprawia, że treści zaskakujące, szokujące, naruszające nasze oczekiwania, przyciągają więcej uwagi. Fałszywe wiadomości są z natury bardziej „nowatorskie" niż prawda, bo nie muszą trzymać się ograniczeń rzeczywistości. Badacze z MIT zaobserwowali, że odpowiedzi użytkowników na fałszywe wiadomości były nacechowane głównie zaskoczeniem i obrzydzeniem, podczas gdy reakcje na wiadomości prawdziwe wyrażały raczej smutek, przewidywanie i zaufanie. To nie znaczy, że ludzie potrafili odróżnić prawdę od fałszu — wręcz przeciwnie. Silniejszy ładunek emocjonalny fałszywych treści był właśnie tym, co napędzało ich viralowość.

Naiwny realizm (naïve realism) to przekonanie, że nasz sposób postrzegania rzeczywistości jest jedyny słuszny, a ludzie, którzy się z nami nie zgadzają, są albo głupi, albo tendencyjni. Ten mechanizm sprawia, że zamiast dyskutować z oponentami, dyskredytujemy ich — a każdą informację sprzeczną z naszym światopoglądem natychmiast etykietujemy jako „fejk".

Do tego dochodzi fundamentalna cecha ludzkiego poznania, którą psycholodzy nazywają domyślnym zaufaniem (truth bias). Ludzie są ewolucyjnie zaprogramowani, by traktować nowe informacje jako prawdziwe — co w warunkach małej społeczności zbieracko-łowieckiej miało sens, ale w epoce globalnego szumu informacyjnego staje się poważną słabością.

Wreszcie istnieje coś, co psycholodzy kognitywni nazywają dwutorowym przetwarzaniem informacji. System 1 — intuicyjny, szybki, automatyczny — nie wymaga wysiłku i jest domyślnym trybem, w którym konsumujemy treści w mediach społecznościowych. System 2 — analityczny, powolny, wymagający uwagi — aktywuje się tylko wtedy, gdy świadomie podejmiemy wysiłek krytycznej oceny. Tyle że scrollowanie Facebooka czy TikToka angażuje niemal wyłącznie System 1. Ludzie podejmują decyzje o udostępnieniu treści w ułamkach sekundy, zanim analityczna część mózgu zdąży się włączyć. Badania psychologów Gordona Pennycooka i Davida Randa wykazały, że podatność na fałszywe wiadomości lepiej tłumaczy nie tyle uprzedzenie ideologiczne, ile zwykły brak refleksji — ludzie nie tyle chcą wierzyć w kłamstwa, ile po prostu nie zadają sobie trudu, by je zweryfikować.

Pożywka dla kłamstwa — bańki informacyjne i algorytmy

Mechanizmy psychologiczne tłumaczą, dlaczego kłamstwo jest skuteczne. Ale to technologia — a konkretnie architektura platform społecznościowych — tłumaczy, dlaczego jest skuteczne aż tak.

Algorytmy rekomendacji, które napędzają serwisy takie jak Facebook, YouTube, TikTok czy X, zostały zaprojektowane z jednym celem: maksymalizować zaangażowanie użytkownika. Im dłużej scrollujesz, klikasz, komentujesz, tym więcej reklam ci wyświetlą. A co generuje zaangażowanie? Treści wzbudzające silne emocje. Oburzenie, strach, gniew, podziw — to waluta algorytmów. Fakty są nudne. Sensacja sprzedaje się lepiej.

Powstaje tak zwana bańka filtrująca (filter bubble). Jeśli użytkownik regularnie klika w treści z określonego źródła, algorytm serwuje mu coraz więcej podobnych materiałów. Perspektywy, które nie pasują do profilu użytkownika, znikają z jego pola widzenia. Badania wykazały, że platformy społecznościowe eksponują użytkowników na znacznie mniejszą różnorodność źródeł niż strony niezwiązane z mediami społecznościowymi, takie jak Wikipedia.

Dochodzi do tego efekt popularności (popularity bias) — algorytmy promują treści, które zdobywają dużo kliknięć, niezależnie od ich jakości merytorycznej. A to, co popularne, można sztucznie pompować. Sieci botów, skoordynowane grupy trolli, farmy kliknięć — wszystkie te narzędzia służą temu, by nadać fałszywemu przekazowi pozory masowego poparcia. Technikę tę, sztuczne kreowanie wrażenia oddolnego ruchu społecznego, określa się mianem astroturfingu.

Narzędzia reklamowe wbudowane w platformy społecznościowe pozwalają z chirurgiczną precyzją docierać do konkretnych grup odbiorców. Kampania dezinformacyjna może kierować różne przekazy do różnych ludzi — wykorzystując ich specyficzne obawy, frustracje i tożsamości. We wrześniu 2017 roku Facebook ujawnił, że w trakcie kampanii prezydenckiej 2016 roku rosyjska Agencja Badań Internetowych (Internet Research Agency) kupowała na platformie reklamy targetowane na konkretne grupy demograficzne w Stanach Zjednoczonych. Jedna z nich, „Heart of Texas", publikowała treści podsycające napięcia rasowe i polityczne, a za nią stali operatorzy z Petersburga.

Deepfake — kłamstwo na sterydach

Przez większość ludzkiej historii dezinformacja opierała się na słowie pisanym i mówionym. Zdjęcia i filmy, choć podatne na manipulację, pozostawały względnie trudne do sfałszowania w sposób przekonujący. To się zmieniło.

Technologia deepfake, wykorzystująca sieci neuronowe do generowania realistycznych obrazów, filmów i nagrań dźwiękowych, otworzyła zupełnie nowy rozdział w historii dezinformacji. Termin pochodzi od połączenia „deep learning" (głębokie uczenie) i „fake" (fałszywy), a pierwotnie zyskał rozgłos w 2017 roku, gdy anonimowy użytkownik Reddita zaczął publikować spreparowane filmy pornograficzne z twarzami celebrytek.

Od tego czasu technologia rozwinęła się w tempie, które budzi uzasadniony niepokój. W 2023 roku w mediach społecznościowych krążyło szacunkowo 500 tysięcy materiałów deepfake. Do 2025 roku liczba ta miała wzrosnąć do 8 milionów — co oznacza roczny wzrost rzędu 900%. Europol oszacował, że do 2026 roku nawet 90% treści w internecie może być generowanych syntetycznie.

Skala oszustw opartych na tej technologii jest alarmująca. W styczniu 2024 roku przestępcy wykorzystali deepfake podczas wideokonferencji, podszywając się pod dyrektora finansowego dużej firmy, i nakłonili pracownika do przelania 25 milionów dolarów. W 2024 roku próby oszustw z użyciem deepfake zdarzały się średnio co pięć minut. Firma analityczna Deloitte prognozowała, że w samych Stanach Zjednoczonych straty wynikające z oszustw wspomaganych generatywną sztuczną inteligencją mogą wzrosnąć z 12,3 miliarda dolarów w 2023 roku do 40 miliardów w 2027 roku.

Ale deepfake to nie tylko pieniądze. To także zagrożenie dla spójności społecznej. Spreparowane nagrania polityków wypowiadających słowa, których nigdy nie powiedzieli, mogą wpływać na wyniki wyborów. Projekt AI Elections prowadzony przez magazyn WIRED zidentyfikował co najmniej 78 przypadków użycia deepfake’ów w kluczowych wyborach na świecie w 2024 roku — od dezinformacji po promowanie fałszywych platform inwestycyjnych z udziałem spreparowanych wizerunków polityków.

Jest jeszcze zjawisko, które badacze nazywają dywidendą kłamcy (liar’s dividend). W świecie, w którym każdy film może być sfałszowany, autentyczne nagrania też mogą być odrzucane jako prawdopodobne deepfake’i. Polityk złapany na kontrowersyjnej wypowiedzi może po prostu powiedzieć: „To deepfake". Paradoks polega na tym, że sama świadomość istnienia tej technologii podważa zaufanie do wszelkich materiałów audiowizualnych — nawet tych prawdziwych.

Badania przeprowadzone w ośmiu krajach wykazały, że wcześniejszy kontakt z deepfake’ami zwiększa podatność na dezinformację. Użytkownicy, którzy korzystają z mediów społecznościowych jako głównego źródła wiadomości, są szczególnie narażeni. Efekt ten utrzymuje się niezależnie od zdolności poznawczych.

Pęknięte lustro odbijające zniekształcony cyfrowy krajobraz symbolizujący manipulację obrazem i deepfake
Deepfake – technologia, która rozbija granicę między rzeczywistością a jej cyfrową imitacją.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.

Anatomia kampanii dezinformacyjnej

Współczesna dezinformacja nie polega na wymyśleniu jednego kłamstwa i puszczeniu go w obieg. To złożony proces, który analitycy opisują modelem 4D: Dismiss (odrzuć), Distort (zniekształć), Distract (odwróć uwagę), Dismay (zastrasz).

Dismiss — odrzuć krytykę. Gdy pojawiają się niewygodne informacje, dezinformator zaprzecza wydarzeniom lub dyskredytuje osoby, które je zgłaszają. Dziennikarz jest „agentem obcego wywiadu", organizacja pozarządowa „narzędziem wrogich sił", a naukowiec „sprzedał się korporacjom".

Distort — zniekształć fakty. Prawdziwe wydarzenia są przekręcane, wyrywane z kontekstu, zestawiane z fałszywymi wnioskami. Technika ta jest szczególnie podstępna, bo wykorzystuje element prawdy, co sprawia, że cały przekaz wydaje się wiarygodniejszy. Badacze podkreślają, że najskuteczniejsza dezinformacja składa się w około 80% z faktów i jedynie 20% z kłamstw.

Distract — odwróć uwagę. Gdy jeden temat staje się niewygodny, wprowadza się nowy: skandal, kontrowersję, sensację. Media, uwięzione w logice cyklu informacyjnego, grzecznie podążają za nowym tropem.

Dismay — zastrasz. Osoby, które próbują demaskować dezinformację, spotykają się z groźbami, nękaniem, kampaniami dyskredytacyjnymi. Celem jest nie tyle uciszenie konkretnej osoby, ile zniechęcenie wszystkich innych do podejmowania podobnych prób.

Całość działa w ramach tak zwanego prania narracji (narrative laundering). Fałszywa historia zostaje najpierw opublikowana w mało znanym, ale z pozoru wiarygodnym źródle. Następnie inne media powołują się na tę publikację. Proces powtarza się, aż kłamstwo zyskuje pozory ustalonego faktu — dokładnie jak w przypadku Operacji Denver, gdy indyjska gazeta „The Patriot" posłużyła za punkt wyjścia dla globalnej kampanii KGB.

Współczesne technologie cyfrowe, od mediów społecznościowych po narzędzia AI, radykalnie obniżyły koszty każdego etapu tego procesu. To, co kiedyś wymagało wieloletnich operacji finansowanych z budżetów służb wywiadowczych, dziś może być zrealizowane przy minimalnych nakładach.

Broń przeciw kłamstwu — co mówi nauka?

Tradycyjną odpowiedzią na dezinformację było debunkowanie — weryfikacja fałszywych twierdzeń po ich rozpowszechnieniu. Organizacje fact-checkingowe, takie jak Snopes, PolitiFact czy polski Demagog, wykonują ogromną pracę, ale mierzą się z fundamentalnym problemem: kłamstwo rozchodzi się szybciej niż jego sprostowanie. A kiedy fałszywa informacja zdąży się zakorzenić w umysłach odbiorców, jej korekta bywa nieskuteczna, a czasem wręcz kontrproduktywna, bo ponowne eksponowanie kłamstwa (nawet w celu jego obalenia) może je paradoksalnie utrwalić.

Obiecującą alternatywą — a raczej uzupełnieniem — okazała się strategia odwrotna: nie gasić pożaru, lecz uodpornić ludzi, zanim do niego dojdzie. Nazywa się to prebunkingiem, a jej teoretyczną podstawą jest teoria inokulacji, zaproponowana przez psychologa społecznego Williama McGuire’a w latach sześćdziesiątych XX wieku.

Analogia z medycyną narzuca się sama. Tak jak szczepionka eksponuje organizm na osłabioną wersję patogenu, by pobudzić układ odpornościowy, tak inokulacja psychologiczna polega na ekspozycji na osłabioną wersję technik manipulacji. Dawka wystarczająca, by wzbudzić czujność, ale nie na tyle silna, by kogokolwiek przekonać.

Badacze z Uniwersytetu w Cambridge — Jon Roozenbeek i Sander van der Linden — przetestowali to podejście na dużą skalę. Ich gra przeglądarkowa Bad News pozwala graczom wcielić się w rolę twórcy fałszywych wiadomości i poznać sześć najczęstszych technik dezinformacji: teorie spiskowe, manipulację emocjami, polaryzację, podszywanie się pod ekspertów, trollowanie i fałszywe narracje. W jednym z największych badań, obejmującym 15 tysięcy uczestników, gracze po rozgrywce oceniali nagłówki dezinformacyjne jako znacznie mniej wiarygodne niż przed nią.

Metaanaliza opublikowana w 2023 roku potwierdziła skuteczność interwencji inokulacyjnych — wykazała statystycznie istotne zmniejszenie akceptacji dezinformacji i poprawę umiejętności rozróżniania treści prawdziwych od fałszywych. Google, za pośrednictwem swojego ramienia badawczego Jigsaw, wdrożył prebunking na masową skalę w formie krótkich filmów animowanych wyświetlanych jako reklamy na YouTube. Eksperymenty objęły dziesiątki milionów użytkowników i wykazały, że nawet jednorazowe obejrzenie krótkiej animacji zwiększa odporność na dezinformację.

Ale teoria inokulacji ma krytyków. Sandra González-Bailón z Uniwersytetu Pensylwanii argumentuje, że metafora szczepionki przenosi całą odpowiedzialność na odbiorcę informacji — zamiast na jej źródła i platformy, które czerpią zyski z jej rozpowszechniania. Badanie opublikowane w 2025 roku w „PNAS Nexus" wykazało, że w warunkach bliższych rzeczywistości — gdy uczestnicy napotykali dezinformację w symulowanym kanale mediów społecznościowych, a nie w kontrolowanym środowisku laboratoryjnym — efekty inokulacji były znacznie słabsze.

Stary stół z książkami, lupą i kompasem oświetlony promieniem światła jako symbol narzędzi poznania i analizy
Broń przeciw kłamstwu – krytyczne myślenie, wiedza i analiza jako narzędzia obrony przed dezinformacją.
Ilustracja poglądowa: AI / faleinspiracji.pl / CC BY 4.0.

Tarcza i miecz — regulacje i inicjatywy

Oprócz strategii psychologicznych, walka z dezinformacją toczy się na wielu frontach jednocześnie.

Na poziomie regulacyjnym Unia Europejska przyjęła AI Act — przełomowe prawo, które od sierpnia 2025 roku wymaga, by treści generowane przez sztuczną inteligencję, w tym deepfake’i, były wyraźnie oznaczane. W Stanach Zjednoczonych w maju 2025 roku weszła w życie ustawa TAKE IT DOWN Act, kryminalizująca tworzenie i rozpowszechnianie intymnych obrazów bez zgody osoby przedstawionej. Poszczególne stany wprowadzają własne przepisy — w 2025 roku złożono blisko 150 projektów ustaw dotyczących deepfake’ów na poziomie stanowym, choć tylko część z nich weszła w życie.

Równolegle rozwijane są systemy wykrywania deepfake’ów, choć jest to wyścig z czasem: nowe narzędzia generatywne pojawiają się szybciej niż metody ich detekcji. Inicjatywa Content Credentials, wspierana przez Google, Microsoft, OpenAI, Meta i ElevenLabs, tworzy system znaków wodnych i metadanych pozwalających weryfikować autentyczność treści cyfrowych.

Osobnym wyzwaniem pozostaje edukacja medialna. Finlandia, kraj od lat konsekwentnie inwestujący w ten obszar na wszystkich poziomach nauczania, regularnie zajmuje czołowe miejsca w rankingach odporności na dezinformację. Chodzi nie tyle o nauczenie ludzi rozpoznawania konkretnych fałszywych wiadomości, ile o wyrobienie nawyku: sprawdzania źródeł, szukania potwierdzenia w niezależnych mediach, świadomości własnych skrzywień poznawczych.

W Polsce działania na rzecz edukacji medialnej prowadzą między innymi fundacje i organizacje fact-checkingowe, choć skala tych inicjatyw pozostaje ograniczona w porównaniu z krajami skandynawskimi. Tymczasem Polska — ze względu na swoje położenie geopolityczne i aktywność rosyjskich operacji informacyjnych w regionie — jest szczególnie narażona na kampanie dezinformacyjne. Raport Komisji Europejskiej „Cyfrowa Dekada" z 2023 roku wskazywał, że Polska wypada poniżej średniej unijnej w zakresie podstawowych kompetencji cyfrowych (ok. 45% dorosłych Polaków wobec 55% średniej UE), co dodatkowo zwiększa podatność na manipulację.

Ludzka gra

Dezinformacja nie jest problemem technicznym, choć technologia go potęguje. Nie jest też problemem wyłącznie politycznym, choć polityka jest jednym z jej głównych pól bitewnych. Dezinformacja jest problemem głęboko ludzkim — wynika z naszych skrzywień poznawczych, potrzeby przynależności do grupy, pragnienia, by świat był prostszy, niż jest naprawdę.

Nie istnieje jedna metoda, która rozwiąże ten problem raz na zawsze. Ani AI Act, ani teoria inokulacji, ani algorytmy wykrywające deepfake’i nie zastąpią czegoś bardziej fundamentalnego: indywidualnej odpowiedzialności za to, co czytamy, udostępniamy i w co wierzymy.

Badacz dezinformacji Adam Waytz z Northwestern University zwrócił uwagę na trafny paradoks: zakładamy, że to fake newsy podsycają polaryzację — ale być może jest odwrotnie. To polaryzacja podsyca zapotrzebowanie na fake newsy. Ludzie podzieleni na wrogie obozy chcą wierzyć w najgorsze o przeciwnikach i szukają treści, które to potwierdzą.

Stary faraon Ramzes II z pewnością by to zrozumiał. Sam przecież świetnie wiedział, że bitwa pod Kadesz nie była jego wielkim zwycięstwem. Ale wiedział też, że ludzie chcą wierzyć w wielkie zwycięstwa — zwłaszcza własne. Na tej wiedzy budowano imperia. Dziś buduje się na niej coś jeszcze groźniejszego: rzeczywistość równoległą, w której miliony ludzi żyją w sprzecznych wersjach prawdy, nie zdając sobie nawet sprawy, że druga wersja istnieje.

Mamy skrzywienia poznawcze, reagujemy emocjonalnie na prowokacje, a historia pasująca do naszego obrazu świata zawsze będzie kusząca. Nikt z nas nie jest wyjątkiem. Ramzes II kazał wyryć na świątyniach swoje kłamstwo o zwycięstwie i ludzie mu uwierzyli — bo chcieli uwierzyć. Trzy tysiące lat później mechanizm nie zmienił się ani trochę. Zmienił się tylko zasięg.

Literatura i źródła